Výkon a nestrannost modelu

Tento článek popisuje metody, které můžete použít k pochopení výkonu a spravedlnosti modelu ve službě Azure Machine Learning.

Co je nestrannost strojového učení?

Umělá inteligence a systémy strojového učení můžou zobrazovat nespravedlivé chování. Jedním ze způsobů, jak definovat nespravedlivé chování, je jeho škodou nebo jeho dopadem na lidi. Systémy AI mohou vést k mnoha typům škod. Další informace najdete v hlavní části NeurIPS 2017 kate Crawfordové.

Mezi běžné typy škod způsobených AI patří:

  • Poškození přidělení: Systém AI rozšiřuje nebo zadržuje příležitosti, zdroje nebo informace pro určité skupiny. Mezi příklady patří nábor, školní přijetí a půjčování, kde model může být lepší při výběru vhodných kandidátů mezi konkrétní skupinou lidí než mezi jinými skupinami.

  • Poškození kvality služby: Systém AI nefunguje stejně dobře pro jednu skupinu lidí, jak to dělá pro jinou. Například systém rozpoznávání hlasu nemusí fungovat stejně jako pro ženy, stejně jako pro muže.

Abyste snížili nespravedlivé chování v systémech AI, musíte tyto škody vyhodnotit a zmírnit. Součást přehledu modelu řídicího panelu Zodpovědné AI přispívá k identifikaci fáze životního cyklu modelu generováním metrik výkonu modelu pro celou datovou sadu a identifikovaných kohort dat. Generuje tyto metriky napříč podskupinami identifikovanými z hlediska citlivých funkcí nebo citlivých atributů.

Poznámka:

Nestrannost je socio-technická výzva. Kvantitativní metriky nestrannosti nezaznamenaly mnoho aspektů nestrannosti, jako je spravedlnost a proces splnění. Mnoho kvantitativních metrik nestrannosti také nemůže být současně splněno.

Cílem opensourcového balíčku Fairlearn je umožnit lidem posoudit dopad a strategie zmírnění rizik. V konečném důsledku je na lidech, kteří vytvářejí modely umělé inteligence a strojového učení, aby vytvořili kompromisy, které jsou vhodné pro jejich scénáře.

V této komponentě řídicího panelu Zodpovědné AI je nestrannost koncepční prostřednictvím přístupu označovaného jako nestrannost skupin. Tento přístup se ptá: "Které skupiny jednotlivců jsou ohroženy poškozením?". Termín citlivé funkce naznačuje, že při posuzování spravedlnosti skupin by měl být návrhář systému citlivý na tyto funkce.

Během fáze posouzení se nestrannost kvantifikuje prostřednictvím metrik nestrannosti. Tyto metriky můžou vyhodnotit a porovnat chování modelu napříč skupinami jako poměry nebo rozdíly. Řídicí panel Zodpovědné umělé inteligence podporuje dvě třídy metrik disparity:

  • Rozdíly v výkonu modelu: Tyto sady metrik vypočítají rozdíly (rozdíl) v hodnotách vybrané metriky výkonu napříč podskupinami dat. Tady je pár příkladů:

    • Rozdíly v míře přesnosti
    • Rozdíly v chybovosti
    • Rozdíly v přesnosti
    • Rozdíly v úplnosti
    • Rozdíly v střední absolutní chybě (MAE)
  • Rozdíly v míře výběru: Tato metrika obsahuje rozdíl v míře výběru (příznivé předpovědi) mezi podskupinami. Příkladem je rozdíl v sazbě schválení půjčky. Míra výběru znamená zlomek datových bodů v každé třídě klasifikované jako 1 (v binární klasifikaci) nebo rozdělení predikčních hodnot (v regresi).

Možnosti posouzení nestrannosti této komponenty pocházejí z balíčku Fairlearn . Fairlearn poskytuje kolekci metrik posouzení nestrannosti modelu a algoritmů pro zmírnění nespravedlivosti.

Poznámka:

Posouzení nestrannosti není čistě technické cvičení. Opensourcový balíček Fairlearn dokáže identifikovat kvantitativní metriky, které vám pomůžou vyhodnotit nestrannost modelu, ale neprovedou za vás hodnocení. Abyste mohli vyhodnotit nestrannost vlastních modelů, musíte provést kvalitativní analýzu. Citlivé funkce, které jsme si poznamenali dříve, jsou příkladem tohoto druhu kvalitativní analýzy.

Omezení parity pro zmírnění nespravedlivosti

Po pochopení problémů s nestranností modelu můžete tyto problémy zmírnit pomocí algoritmů pro zmírnění rizik v opensourcovém balíčku Fairlearn . Tyto algoritmy podporují sadu omezení chování prediktoru označovaného jako paritní omezení nebo kritéria.

Omezení parity vyžadují, aby některé aspekty chování prediktoru byly srovnatelné napříč skupinami, které definují citlivé funkce (například různé rasy). Algoritmy pro zmírnění rizik v opensourcovém balíčku Fairlearn používají taková omezení parity ke zmírnění pozorovaných problémů s nestranností.

Poznámka:

Algoritmy pro zmírnění nespravedlivosti v opensourcovém balíčku Fairlearn můžou poskytovat navrhované strategie zmírnění rizik, které snižují nespravedlivost v modelu strojového učení, ale tyto strategie neodstraní nespravedlivost. Vývojáři možná budou muset zvážit další omezení parity nebo kritéria pro jejich modely strojového učení. Vývojáři, kteří používají Azure Machine Learning, musí sami určit, jestli zmírnění dostatečně snižuje neférnost v zamýšleném použití a nasazení modelů strojového učení.

Balíček Fairlearn podporuje následující typy omezení parity:

Parita – omezení Účel Úloha strojového učení
Demografická parita Zmírnění škod přidělení Binární klasifikace, regrese
Rovná se pravděpodobnosti Diagnostika alokace a poškození kvality služeb Binární klasifikace
Stejná příležitost Diagnostika alokace a poškození kvality služeb Binární klasifikace
Ztráta ohraničené skupiny Zmírnění škod na kvalitě služeb Regrese

Algoritmy pro zmírnění rizik

Opensourcový balíček Fairlearn poskytuje dva typy algoritmů pro zmírnění nespravedlivosti:

  • Redukce: Tyto algoritmy používají standardní estimátor strojového učení s černou skříňkou (například model LightGBM) a vygenerují sadu přetrénovaných modelů pomocí posloupnosti převážovaných trénovacích datových sad.

    Například žadatelé určitého pohlaví mohou být při přetrénování modelů větší nebo nižší váhou a snížit rozdíly mezi genderovými skupinami. Uživatelé pak můžou vybrat model, který poskytuje nejlepší kompromis mezi přesností (nebo jinou metrikou výkonu) a rozdíly na základě obchodních pravidel a výpočtů nákladů.

  • Následné zpracování: Tyto algoritmy přebírají existující klasifikátor a citlivou funkci jako vstup. Potom odvozují transformaci predikce klasifikátoru, která vynucuje zadaná omezení spravedlnosti. Největší výhodou jednoho algoritmu následného zpracování, optimalizace prahové hodnoty je jeho jednoduchost a flexibilita, protože model nemusí přetrénovat.

Algoritmus Popis Úloha strojového učení Citlivé funkce Podporovaná omezení parity Typ algoritmu
ExponentiatedGradient Přístup černé skříňky k spravedlivé klasifikaci popsaný v přístupu ke snížení spravedlivé klasifikace Binární klasifikace Kategorické Demografická parita, rovná se pravděpodobnosti Redukce
GridSearch Černobílé přístupy popsané v části Přístup ke snížení spravedlivé klasifikace. Binární klasifikace Binární Demografická parita, rovná se pravděpodobnosti Redukce
GridSearch Přístup black-box, který implementuje variantu vyhledávání mřížky spravedlivé regrese s algoritmem pro ohraničenou ztrátu skupin popsanou v spravedlivé regresi: Kvantitativní definice a algoritmy založené na redukci. Regrese Binární Ztráta ohraničené skupiny Redukce
ThresholdOptimizer Algoritmus postprocessingu založený na dokumentu Rovnost příležitostí ve učení pod dohledem. Tato technika přebírá jako vstup existující klasifikátor a citlivou funkci. Potom odvozuje monotónní transformaci predikce klasifikátoru, která vynucuje zadaná omezení parity. Binární klasifikace Kategorické Demografická parita, rovná se pravděpodobnosti Následné zpracování

Další kroky