Equità e prestazioni del modello

Questo articolo descrive i metodi che è possibile usare per comprendere l'equità e le prestazioni del modello in Azure Machine Learning.

Che cos'è l'equità di apprendimento automatico?

I sistemi di intelligenza artificiale e Machine Learning possono mostrare un comportamento iniquo. Un metodo per definire un comportamento iniquo è considerarne il danno o l'effetto sulle persone. I sistemi di intelligenza artificiale possono causare molti tipi di danni. Per altre informazioni, vedere NeurIPS 2017 keynote by Kate Crawford.

Di seguito sono riportati due tipi di problemi comuni causati dall'IA:

  • Danno all'allocazione: un sistema di intelligenza artificiale estende o trattiene opportunità, risorse o informazioni per determinati gruppi. Gli esempi includono assunzioni, ammissioni scolastiche e concessioni di prestiti in cui un modello potrebbe essere decisamente migliore nella scelta dei candidati validi in un gruppo specifico di persone rispetto a quanto non lo sia in altri gruppi.

  • Danni alla qualità del servizio: un sistema di intelligenza artificiale non funziona altrettanto bene per un gruppo di persone rispetto a un altro. Ad esempio, un sistema di riconoscimento vocale potrebbe non funzionare ugualmente bene per le donne e per gli uomini.

Per ridurre i comportamenti iniqui nei sistemi di intelligenza artificiale, è necessario valutare e mitigare questi problemi. Il componente di panoramica del modello del dashboard di intelligenza artificiale responsabile contribuisce alla fase di identificazione del ciclo di vita del modello generando metriche delle prestazioni del modello per l'intero set di dati e le coorti identificate dei dati. Genera queste metriche tra sottogruppi identificati in termini di caratteristiche sensibili o attributi sensibili.

Nota

L'equità è una sfida socio-tecnica. Molti aspetti dell'equità, come la giustizia e il processo equo, non vengono monitorati nelle metriche di equità quantitativa. Inoltre, molte metriche di equità quantitativa non possono essere soddisfatte contemporaneamente.

L'obiettivo del pacchetto open source Fairlearn è consentire agli esseri umani di valutare l'impatto e le strategie di mitigazione. In definitiva, spetta agli esseri umani che creano modelli di intelligenza artificiale e di apprendimento automatico fare compromessi appropriati per i loro scenari.

In questo componente del dashboard dell'IA responsabile, l'equità viene concettualizzata tramite un approccio noto come equità dei gruppi. Questo approccio chiede: "Quali gruppi di individui rischiano di subire danni?" Il termine caratteristiche sensibili suggerisce che la finestra di progettazione del sistema debba essere sensibile a queste caratteristiche durante la valutazione dell'equità di gruppo.

Durante la fase di valutazione, l'equità viene quantificata attraverso le metriche di disparità. Queste metriche possono valutare e confrontare il comportamento del modello tra gruppi sotto forma di rapporti o differenze. Il dashboard di intelligenza artificiale responsabile supporta due classi di metriche di disparità:

  • Disparità nelle prestazioni del modello: questi set di metriche calcolano la disparità (differenza) nei valori della metrica delle prestazioni selezionata tra sottogruppi di dati. Ecco alcuni esempi:

    • Disparità nel tasso di accuratezza
    • Disparità nel tasso di errore
    • Disparità nella precisione
    • Disparity in recall
    • Disparità nell'errore assoluto medio (MAE)
  • Disparità nella frequenza di selezione: questa metrica indica la differenza nella frequenza di selezione (stima favorevole) tra i sottogruppi. Un esempio è rappresentato dalla disparità nel tasso di approvazione dei prestiti. Il tasso di selezione indica la frazione di punti dati in ogni classe classificata come 1 (nella classificazione binaria) o la distribuzione dei valori di stima (nella regressione).

Le capacità di valutazione dell'equità di questo componente provengono dal pacchetto Fairlearn. Fairlearn offre una raccolta di metriche di valutazione dell'equità del modello e algoritmi di mitigazione dell'iniquità.

Nota

Una valutazione dell'equità non è un esercizio puramente tecnico. Il pacchetto open source Fairlearn può identificare le metriche quantitative per valutare l'equità di un modello, ma non eseguirà la valutazione. È necessario eseguire un'analisi qualitativa per valutare l'equità dei propri modelli. Le caratteristiche sensibili annotate in precedenza sono un esempio di questo tipo di analisi qualitativa.

Vincoli di parità per mitigare l'iniquità

Dopo aver compreso i problemi di equità del modello, è possibile usare gli algoritmi di mitigazione nel pacchetto open source Fairlearn per attenuare tali problemi. Tali algoritmi supportano un set di vincoli per il comportamento del predittore denominati vincoli di parità o criteri.

I vincoli di parità richiedono che alcuni aspetti del comportamento del predittore siano confrontabili tra i gruppi definiti dalle caratteristiche sensibili (ad esempio diverse etnie). Gli algoritmi di mitigazione nel pacchetto open source Fairlearn usano tali vincoli di parità per attenuare i problemi di equità osservati.

Nota

Gli algoritmi di mitigazione dell'iniquità nel pacchetto open source Fairlearn possono fornire strategie di mitigazione consigliate per ridurre l'iniquità in un modello di Machine Learning, ma queste strategie non eliminano l'iniquità. Gli sviluppatori potrebbero dover prendere in considerazione altri vincoli di parità o criteri per i modelli di Machine Learning. Gli sviluppatori che usano Azure Machine Learning devono determinare autonomamente se la mitigazione riduce sufficientemente l'iniquità nell'uso e nella distribuzione previsti dei modelli di Machine Learning.

Il pacchetto Fairlearn supporta i seguenti tipi di vincoli di parità:

Vincolo di parità Scopo Attività di Machine Learning
Parità demografica Mitigare i problemi di allocazione Classificazione binaria, regressione
Probabilità equalizzate Diagnosticare i problemi di allocazione e di qualità del servizio Classificazione binaria
Pari opportunità Diagnosticare i problemi di allocazione e di qualità del servizio Classificazione binaria
Perdita del gruppo associato Mitigare i problemi di qualità del servizio Regressione

Algoritmi di mitigazione

Il pacchetto open source Fairlearn offre due tipi di algoritmi di mitigazione dell'iniquità:

  • Riduzione: questi algoritmi accettano uno strumento di stima di Machine Learning black box standard (ad esempio, un modello LightGBM) e generano un set di modelli sottoposti a training ripetuto usando una sequenza di set di dati di training ridimensionati.

    Ad esempio, i richiedenti appartenenti a un determinato genere potrebbero presentare un valore ponderato più alto o più basso per eseguire nuovamente il training dei modelli e ridurre le disparità tra gruppi di genere diverso. Gli utenti possono quindi scegliere un modello che offra il miglior compromesso tra accuratezza (o un'altra metrica di prestazioni) e disparità, in base alle proprie regole business e ai calcoli dei costi.

  • Post-elaborazione: questi algoritmi prendono un classificatore esistente e la caratteristica sensibile come input. Quindi, derivano una trasformazione della stima del classificatore per l'applicazione dei vincoli di equità specificati. Il vantaggio principale di un algoritmo di post-elaborazione, l'ottimizzazione della soglia, è la sua semplicità e flessibilità, perché non è necessario ripetere il training del modello.

Algoritmo Descrizione Attività di Machine Learning Caratteristiche sensibili Vincoli di parità supportati Tipo di algoritmo
ExponentiatedGradient Approccio black box alla classificazione equa descritto in A Reductions Approach to Fair Classification. Classificazione binaria Categorie Parità demografica, probabilità equalizzate Riduzione
GridSearch Approccio black box descritto in A Reductions Approach to Fair Classification. Classificazione binaria Binario Parità demografica, probabilità equalizzate Riduzione
GridSearch Approccio black box che implementa una variante di ricerca griglia di regressione equa con l'algoritmo per la perdita di gruppi delimitati descritta in Fair Regression: Quantitative Definitions and Reduction-based Algorithms. Regressione Binario Perdita del gruppo associato Riduzione
ThresholdOptimizer Algoritmo di post-elaborazione basato sul documento Equality of Opportunity in Supervised Learning (Eguaglianza di opportunità nell'apprendimento supervisionato). Questa tecnica accetta come input un classificatore esistente e una caratteristica sensibile. Deriva quindi una trasformazione monotono della stima del classificatore per applicare i vincoli di parità specificati. Classificazione binaria Categorie Parità demografica, probabilità equalizzate Post-elaborazione

Passaggi successivi