Informazioni sull'intelligenza artificiale responsabile
Lo sviluppo di software per intelligenza artificiale in Microsoft è guidato da un set di sei principi, progettati per assicurare che le applicazioni di intelligenza artificiale offrano soluzioni straordinarie per problemi complessi senza conseguenze negative impreviste.
Equità
I sistemi di intelligenza artificiale devono trattare equamente tutte le persone. Si supponga ad esempio di creare un modello di Machine Learning per supportare un'applicazione di approvazione di prestiti per una banca. Il modello deve prevedere l'approvazione o il rifiuto del prestito senza distorsione. Questa distorsione potrebbe essere basata su sesso, etnia o altri fattori che determinano un vantaggio o uno svantaggio ingiusto per gruppi specifici di richiedenti.
Azure Machine Learning include la capacità di interpretare modelli e quantificare la misura in cui ogni caratteristica dei dati influenza la previsione del modello. Questa capacità consente agli scienziati dei dati e agli sviluppatori di identificare e mitigare le distorsioni nel modello.
Un altro esempio è l'implementazione da parte di Microsoft dell'intelligenza artificiale responsabile con il servizio Viso, che ritira le funzionalità di riconoscimento facciale che possono essere usate per cercare di dedurre stati emotivi e attributi di identità. Queste funzionalità, se usate in modo improprio, possono esporre le persone a stereotipi, discriminazioni o ingiuste negazioni di servizi.
Per altri dettagli sulle considerazioni relative all'equità, guardare il video seguente.
Affidabilità e sicurezza
I sistema di intelligenza artificiale devono offrire prestazioni affidabile e sicure. Si prenda ad esempio in considerazione un sistema software basato su intelligenza artificiale per un veicolo autonomo oppure un modello di Machine Learning che esegue la diagnosi dei sintomi dei pazienti e consiglia trattamenti. L'inaffidabilità in questi tipi di sistemi può causare rischi notevoli per la vita umana.
Lo sviluppo di applicazioni software basate sull'IA deve essere soggetto a test e processi di gestione della distribuzione rigorosi, per garantire che funzioni come previsto prima del rilascio.
Per altre informazioni sulle considerazioni relative ad affidabilità e sicurezza, guardare il video seguente.
Privacy e sicurezza
I sistemi di intelligenza artificiale devono essere sicuri e devono rispettare la privacy. I modelli di Machine Learning su cui si basano i sistemi di intelligenza artificiale sono fondati su volumi elevati di dati, che potrebbero contenere informazioni personali che devono essere mantenute private. Anche dopo che è stato eseguito il training dei modelli e il sistema è in produzione, è necessario tenere conto della privacy e della sicurezza. Quando il sistema usa nuovi dati per fare previsioni o intraprendere azioni, sia i dati che le decisioni prese in base ai dati possono essere soggetti a problemi di privacy o di sicurezza.
Per altri dettagli sulle considerazioni relative alla privacy o alla sicurezza, guardare il video seguente.
Inclusione
I sistemi di intelligenza artificiale devono offrire opportunità a tutti e coinvolgere tutti gli utenti. L'intelligenza artificiale deve offrire vantaggi a tutti i membri della società, indipendentemente dalla capacità fisica, dal sesso, dall'orientamento sessuale, dall'etnia o da altri fattori.
Per altri dettagli sulle considerazioni relative all'inclusività, guardare il video seguente.
Trasparenza
I sistemi di intelligenza artificiale devono essere comprensibili. Gli utenti devono essere informati pienamente dello scopo del sistema, del funzionamento e delle limitazioni previste.
Per altri dettagli sulle considerazioni relative alla trasparenza, guardare il video seguente.
Responsabilità
È necessario che le persone si assumano la responsabilità dei sistemi di intelligenza artificiale. I progettisti e gli sviluppatori di soluzioni basate sull'IA devono operare in un framework di governance e principi organizzativi in grado di garantire che la soluzione soddisfi standard etici e legali chiaramente definiti.
Per altri dettagli sulle considerazioni relative alla responsabilità, guardare il video seguente.
I principi di intelligenza artificiale responsabile possono aiutare a comprendere alcune delle difficoltà affrontate dagli sviluppatori durante il tentativo di creare soluzioni di intelligenza artificiale etiche.
Ulteriori risorse
Per altre risorse utili per mettere in pratica i principi dell'intelligenza artificiale responsabile, vedere https://www.microsoft.com/ai/responsible-ai-resources.
Per vedere questi criteri in azione, è possibile leggere il framework di Microsoft sulla creazione responsabile di sistemi di intelligenza artificiale.