Condividere informazioni dettagliate sull'intelligenza artificiale responsabile usando la scorecard di intelligenza artificiale responsabile (anteprima)
Il dashboard di intelligenza artificiale responsabile è progettato per professionisti dell'apprendimento automatico e scienziati dei dati per esplorare e valutare le informazioni dettagliate sui modelli e prendere decisioni basate sui dati. Anche se può essere utile per implementare praticamente l'intelligenza artificiale responsabile nel ciclo di vita dell'apprendimento automatico, esistono alcune esigenze che non sono state risolte:
- Spesso esiste un divario tra gli strumenti tecnici dell'intelligenza artificiale responsabile (progettati per i professionisti dell'apprendimento automatico) e i requisiti etici, normativi e aziendali che definiscono l'ambiente di produzione.
- Anche se un ciclo di vita dell'apprendimento automatico end-to-end include nel ciclo sia le parti interessate tecniche che quelle non tecniche, c'è poco supporto per consentire un efficace allineamento tra più parti interessate, aiutando gli esperti tecnici a ottenere feedback e indicazioni tempestive dalle parti interessate non tecniche.
- Le normative sull'intelligenza artificiale rendono essenziale la possibilità di condividere informazioni dettagliate su modelli e dati con revisori e responsabili del rischio ai fini della verificabilità.
Uno dei maggiori vantaggi dell'uso dell'ecosistema di Azure Machine Learning è correlato all'archiviazione di informazioni dettagliate su modelli e dati nella cronologia di esecuzione di Azure Machine Learning (per una rapida consultazione in futuro). Come parte di tale infrastruttura e per accompagnare i modelli di apprendimento automatico e i rispettivi dashboard di intelligenza artificiale responsabile, introduciamo la scorecard di intelligenza artificiale responsabile per consentire ai professionisti dell'apprendimento automatico di generare e condividere facilmente i propri dati e record di integrità dei modelli.
Importante
Questa funzionalità è attualmente in anteprima pubblica. Questa versione di anteprima viene fornita senza contratto di servizio, pertanto se ne sconsiglia l’uso per i carichi di lavoro in ambienti di produzione. Alcune funzionalità potrebbero non essere supportate o potrebbero presentare funzionalità limitate.
Per altre informazioni, vedere le Condizioni supplementari per l'uso delle anteprime di Microsoft Azure.
Chi deve usare una scorecard di intelligenza artificiale responsabile?
Gli scienziati dei dati o i professionisti dell'apprendimento automatico, dopo aver eseguito il training del modello e aver generato i dashboard di intelligenza artificiale responsabile corrispondenti per scopi di valutazione e processo decisionale, possono estrarre tali apprendimenti tramite la scorecard in PDF e condividere facilmente il report con le parti interessate tecniche e non tecniche per creare fiducia e ottenere l'approvazione per la distribuzione.
I product manager, i leader aziendali o le parti interessate responsabili di un prodotto di intelligenza artificiale possono passare i valori di destinazione desiderati per le prestazioni e l'equità del modello, ad esempio l'accuratezza della destinazione, la frequenza degli errori di destinazione e così via, al team di data science, chiedendo loro di generare questa scorecard in relazione ai valori di destinazione identificati e se il modello li soddisfa. Ciò può fornire indicazioni sull'opportunità di distribuire o migliorare ulteriormente il modello.
Passaggi successivi
- Informazioni su come generare il dashboard e la scorecard di intelligenza artificiale responsabile tramite l'interfaccia della riga di comando e l'SDK o l'interfaccia utente dello studio di Azure Machine Learning.
- Per altre informazioni sul dashboard e la scorecard di intelligenza artificiale responsabile, vedere questo post di blog della community tecnica.