Equità e prestazioni del modello
Questo articolo descrive i metodi che è possibile usare per comprendere l'equità e le prestazioni del modello in Azure Machine Learning.
Che cos'è l'equità di apprendimento automatico?
I sistemi di intelligenza artificiale e Machine Learning possono mostrare un comportamento iniquo. Un metodo per definire un comportamento iniquo è considerarne il danno o l'effetto sulle persone. I sistemi di intelligenza artificiale possono causare molti tipi di danni. Per altre informazioni, vedere NeurIPS 2017 keynote by Kate Crawford.
Di seguito sono riportati due tipi di problemi comuni causati dall'IA:
Danno all'allocazione: un sistema di intelligenza artificiale estende o trattiene opportunità, risorse o informazioni per determinati gruppi. Gli esempi includono assunzioni, ammissioni scolastiche e concessioni di prestiti in cui un modello potrebbe essere decisamente migliore nella scelta dei candidati validi in un gruppo specifico di persone rispetto a quanto non lo sia in altri gruppi.
Danni alla qualità del servizio: un sistema di intelligenza artificiale non funziona altrettanto bene per un gruppo di persone rispetto a un altro. Ad esempio, un sistema di riconoscimento vocale potrebbe non funzionare ugualmente bene per le donne e per gli uomini.
Per ridurre i comportamenti iniqui nei sistemi di intelligenza artificiale, è necessario valutare e mitigare questi problemi. Il componente di panoramica del modello del dashboard di intelligenza artificiale responsabile contribuisce alla fase di identificazione del ciclo di vita del modello generando metriche delle prestazioni del modello per l'intero set di dati e le coorti identificate dei dati. Genera queste metriche tra sottogruppi identificati in termini di caratteristiche sensibili o attributi sensibili.
Nota
L'equità è una sfida socio-tecnica. Molti aspetti dell'equità, come la giustizia e il processo equo, non vengono monitorati nelle metriche di equità quantitativa. Inoltre, molte metriche di equità quantitativa non possono essere soddisfatte contemporaneamente.
L'obiettivo del pacchetto open source Fairlearn è consentire agli esseri umani di valutare l'impatto e le strategie di mitigazione. In definitiva, spetta agli esseri umani che creano modelli di intelligenza artificiale e di apprendimento automatico fare compromessi appropriati per i loro scenari.
In questo componente del dashboard dell'IA responsabile, l'equità viene concettualizzata tramite un approccio noto come equità dei gruppi. Questo approccio chiede: "Quali gruppi di individui rischiano di subire danni?" Il termine caratteristiche sensibili suggerisce che la finestra di progettazione del sistema debba essere sensibile a queste caratteristiche durante la valutazione dell'equità di gruppo.
Durante la fase di valutazione, l'equità viene quantificata attraverso le metriche di disparità. Queste metriche possono valutare e confrontare il comportamento del modello tra gruppi sotto forma di rapporti o differenze. Il dashboard di intelligenza artificiale responsabile supporta due classi di metriche di disparità:
Disparità nelle prestazioni del modello: questi set di metriche calcolano la disparità (differenza) nei valori della metrica delle prestazioni selezionata tra sottogruppi di dati. Ecco alcuni esempi:
- Disparità nel tasso di accuratezza
- Disparità nel tasso di errore
- Disparità nella precisione
- Disparity in recall
- Disparità nell'errore assoluto medio (MAE)
Disparità nella frequenza di selezione: questa metrica indica la differenza nella frequenza di selezione (stima favorevole) tra i sottogruppi. Un esempio è rappresentato dalla disparità nel tasso di approvazione dei prestiti. Il tasso di selezione indica la frazione di punti dati in ogni classe classificata come 1 (nella classificazione binaria) o la distribuzione dei valori di stima (nella regressione).
Le capacità di valutazione dell'equità di questo componente provengono dal pacchetto Fairlearn. Fairlearn offre una raccolta di metriche di valutazione dell'equità del modello e algoritmi di mitigazione dell'iniquità.
Nota
Una valutazione dell'equità non è un esercizio puramente tecnico. Il pacchetto open source Fairlearn può identificare le metriche quantitative per valutare l'equità di un modello, ma non eseguirà la valutazione. È necessario eseguire un'analisi qualitativa per valutare l'equità dei propri modelli. Le caratteristiche sensibili annotate in precedenza sono un esempio di questo tipo di analisi qualitativa.
Vincoli di parità per mitigare l'iniquità
Dopo aver compreso i problemi di equità del modello, è possibile usare gli algoritmi di mitigazione nel pacchetto open source Fairlearn per attenuare tali problemi. Tali algoritmi supportano un set di vincoli per il comportamento del predittore denominati vincoli di parità o criteri.
I vincoli di parità richiedono che alcuni aspetti del comportamento del predittore siano confrontabili tra i gruppi definiti dalle caratteristiche sensibili (ad esempio diverse etnie). Gli algoritmi di mitigazione nel pacchetto open source Fairlearn usano tali vincoli di parità per attenuare i problemi di equità osservati.
Nota
Gli algoritmi di mitigazione dell'iniquità nel pacchetto open source Fairlearn possono fornire strategie di mitigazione consigliate per ridurre l'iniquità in un modello di Machine Learning, ma queste strategie non eliminano l'iniquità. Gli sviluppatori potrebbero dover prendere in considerazione altri vincoli di parità o criteri per i modelli di Machine Learning. Gli sviluppatori che usano Azure Machine Learning devono determinare autonomamente se la mitigazione riduce sufficientemente l'iniquità nell'uso e nella distribuzione previsti dei modelli di Machine Learning.
Il pacchetto Fairlearn supporta i seguenti tipi di vincoli di parità:
Vincolo di parità | Scopo | Attività di Machine Learning |
---|---|---|
Parità demografica | Mitigare i problemi di allocazione | Classificazione binaria, regressione |
Probabilità equalizzate | Diagnosticare i problemi di allocazione e di qualità del servizio | Classificazione binaria |
Pari opportunità | Diagnosticare i problemi di allocazione e di qualità del servizio | Classificazione binaria |
Perdita del gruppo associato | Mitigare i problemi di qualità del servizio | Regressione |
Algoritmi di mitigazione
Il pacchetto open source Fairlearn offre due tipi di algoritmi di mitigazione dell'iniquità:
Riduzione: questi algoritmi accettano uno strumento di stima di Machine Learning black box standard (ad esempio, un modello LightGBM) e generano un set di modelli sottoposti a training ripetuto usando una sequenza di set di dati di training ridimensionati.
Ad esempio, i richiedenti appartenenti a un determinato genere potrebbero presentare un valore ponderato più alto o più basso per eseguire nuovamente il training dei modelli e ridurre le disparità tra gruppi di genere diverso. Gli utenti possono quindi scegliere un modello che offra il miglior compromesso tra accuratezza (o un'altra metrica di prestazioni) e disparità, in base alle proprie regole business e ai calcoli dei costi.
Post-elaborazione: questi algoritmi prendono un classificatore esistente e la caratteristica sensibile come input. Quindi, derivano una trasformazione della stima del classificatore per l'applicazione dei vincoli di equità specificati. Il vantaggio principale di un algoritmo di post-elaborazione, l'ottimizzazione della soglia, è la sua semplicità e flessibilità, perché non è necessario ripetere il training del modello.
Algoritmo | Descrizione | Attività di Machine Learning | Caratteristiche sensibili | Vincoli di parità supportati | Tipo di algoritmo |
---|---|---|---|---|---|
ExponentiatedGradient |
Approccio black box alla classificazione equa descritto in A Reductions Approach to Fair Classification. | Classificazione binaria | Categorie | Parità demografica, probabilità equalizzate | Riduzione |
GridSearch |
Approccio black box descritto in A Reductions Approach to Fair Classification. | Classificazione binaria | Binario | Parità demografica, probabilità equalizzate | Riduzione |
GridSearch |
Approccio black box che implementa una variante di ricerca griglia di regressione equa con l'algoritmo per la perdita di gruppi delimitati descritta in Fair Regression: Quantitative Definitions and Reduction-based Algorithms. | Regressione | Binario | Perdita del gruppo associato | Riduzione |
ThresholdOptimizer |
Algoritmo di post-elaborazione basato sul documento Equality of Opportunity in Supervised Learning (Eguaglianza di opportunità nell'apprendimento supervisionato). Questa tecnica accetta come input un classificatore esistente e una caratteristica sensibile. Deriva quindi una trasformazione monotono della stima del classificatore per applicare i vincoli di parità specificati. | Classificazione binaria | Categorie | Parità demografica, probabilità equalizzate | Post-elaborazione |
Passaggi successivi
- Informazioni su come generare il dashboard di intelligenza artificiale responsabile tramite l'interfaccia della riga di comando e l'SDK o l'interfaccia utente dello studio di Azure Machine Learning.
- Esplorare la panoramica del modello supportata e le visualizzazioni di valutazione dell'equità del dashboard di intelligenza artificiale responsabile.
- Informazioni su come generare un punteggio di intelligenza artificiale responsabile in base alle informazioni dettagliate osservate nel dashboard di intelligenza artificiale responsabile.
- Informazioni su come usare i componenti consultando il repository GitHub, la guida per l'utente, gli esempi e i notebook campione di Fairlearn.