Generieren von Erkenntnissen zu verantwortungsvoller KI mit YAML und Python
GILT FÜR:Azure CLI ML-Erweiterung v2 (aktuell)Python SDK azure-ai-ml v2 (aktuell)
Sie können ein Dashboard und eine Scorecard für verantwortungsvolle KI über einen Pipelineauftrag generieren, indem Sie verantwortungsvolle KI-Komponenten verwenden. Es gibt sechs Kernkomponenten zum Erstellen von Dashboards für verantwortungsvolle KI, zusammen mit ein paar Hilfskomponenten. Hier folgt ein Beispielexperimentdiagramm:
Komponenten der verantwortungsvollen KI
Die Kernkomponenten für den Aufbau des Dashboards für verantwortungsvolle KI in Azure Machine Learning sind:
RAI Insights dashboard constructor
- Die Toolkomponenten:
Add Explanation to RAI Insights dashboard
Add Causal to RAI Insights dashboard
Add Counterfactuals to RAI Insights dashboard
Add Error Analysis to RAI Insights dashboard
Gather RAI Insights dashboard
Gather RAI Insights score card
Die Komponenten RAI Insights dashboard constructor
und Gather RAI Insights dashboard
sind immer erforderlich, plus mindestens eine der Toolkomponenten. Es ist jedoch nicht notwendig, alle Tools in jedem Dashboard für verantwortungsvolle KI zu verwenden.
In den folgenden Abschnitten finden Sie Spezifikationen der Komponenten für verantwortungsvolle KI sowie Beispiele für Codeausschnitte in YAML und Python.
Wichtig
Die in diesem Artikel markierten Elemente (Vorschau) sind aktuell als öffentliche Vorschau verfügbar. Die Vorschauversion wird ohne Vereinbarung zum Servicelevel bereitgestellt und ist nicht für Produktionsworkloads vorgesehen. Manche Features werden möglicherweise nicht unterstützt oder sind nur eingeschränkt verwendbar. Weitere Informationen finden Sie unter Zusätzliche Nutzungsbestimmungen für Microsoft Azure-Vorschauen.
Begrenzungen
Für die aktuelle Gruppe von Komponenten gelten eine Reihe von Nutzungseinschränkungen:
- Alle Modelle müssen in Azure Machine Learning im MLflow-Format mit einer Sklearn-Variante (scikit-learn) registriert sein.
- Die Modelle müssen in der Komponentenumgebung geladen werden können.
- Die Modelle müssen auswählbar sein.
- Die Modelle müssen für die Komponenten für verantwortungsvolle KI mithilfe der von uns bereitgestellten Komponente
Fetch Registered Model
bereitgestellt werden. - Die Dataseteingaben müssen im Format
mltable
erfolgen. - Ein Modell muss auch dann bereitgestellt werden, wenn nur eine Ursachenanalyse der Daten ausgeführt wird. Sie können dazu die Schätzer
DummyClassifier
undDummyRegressor
von scikit-learn verwenden.
Konstruktor für Dashboard „RAI-Erkenntnisse“
Diese Komponente verfügt über drei Eingabeports:
- Das Machine Learning-Modell.
- Das Trainingsdataset.
- Das Testdataset.
Um Erkenntnisse zum Modelldebugging mit Komponenten wie Fehleranalyse und Modellerklärungen zu generieren, verwenden Sie das Training- und Testdataset, das Sie beim Training Ihres Modells verwendet haben. Für Komponenten wie die Kausalanalyse, für die kein Modell erforderlich ist, verwenden Sie das Trainingsdataset, um das Kausalmodell zu trainieren, um die kausalen Erkenntnisse zu generieren. Sie verwenden das Testdataset zum Auffüllen der Visualisierungen Ihres Dashboards für verantwortungsvolle KI.
Die einfachste Möglichkeit, das Modell zur Verfügung zu stellen, besteht darin, das Eingabemodell zu registrieren und auf dasselbe Modell im Modelleingabeport der RAI Insight Constructor
-Komponente zu verweisen, die weiter unten in diesem Artikel erläutert wird.
Hinweis
Derzeit werden nur Modelle im MLflow-Format und mit einer sklearn
-Variante unterstützt.
Die beiden Datasets sollten das Format mltable
aufweisen. Die bereitgestellten Trainings- und Testdatasets müssen nicht dieselben Datasets sein, die für das Training des Modells verwendet werden, aber sie können dieselben sein. Aus Leistungsgründen ist das Testdataset standardmäßig auf 5.000 Zeilen der Visualisierungsbenutzeroberfläche beschränkt.
Die Konstruktorkomponente akzeptiert auch die folgenden Parameter:
Parametername | Beschreibung des Dataflows | type |
---|---|---|
title |
Kurze Beschreibung des Dashboards. | String |
task_type |
Gibt an, ob das Modell der Klassifizierung, der Regression oder der Prognose dient | Zeichenfolge (string), classification , regression oder forecasting |
target_column_name |
Der Name der Spalte in den Eingabedatasets, die das Modell versucht, vorherzusagen. | String |
maximum_rows_for_test_dataset |
Die maximale Anzahl von Zeilen, die im Testdataset zulässig sind (aus Leistungsgründen). | Ganze Zahl (integer), Standardeinstellung ist 5.000. |
categorical_column_names |
Die Spalten in den Datasets, die kategorisierte Daten darstellen. | Optionale Liste der Zeichenfolgen1 |
classes |
Die vollständige Liste der Klassenbezeichnungen im Trainingsdataset. | Optionale Liste der Zeichenfolgen1 |
feature_metadata |
Gibt zusätzliche Informationen an, die das Dashboard je nach Aufgabentyp benötigt. Für die Vorhersage enthält dies die Angabe, welche Spalte die datetime -Spalte ist und welche Spalte die time_series_id -Spalte ist. Für die Bildgebung kann dies einen mittleren Pixelwert oder Positionsdaten eines Bilds umfassen. |
Optionale Liste der Zeichenfolgen1 |
use_model_dependency |
Gibt an, ob für das Modell aufgrund widersprüchlicher Abhängigkeiten mit dem RAI-Dashboard ein separater Docker-Container bereitgestellt werden muss. Für die Prognose muss dies aktiviert sein. In der Regel ist dies für andere Szenarios nicht aktiviert. | Boolean |
1 Die Listen sollten als einzelne JSON-codierte Zeichenfolge für categorical_column_names
-, classes
- und feature_metadata
-Eingaben bereitgestellt werden.
Die Konstruktorkomponente verfügt über eine einzelne Ausgabe namens rai_insights_dashboard
. Dies ist ein leeres Dashboard, mit dem die einzelnen Toolkomponenten arbeiten. Alle Ergebnisse werden am Ende durch die Gather RAI Insights dashboard
-Komponente zusammengefügt.
create_rai_job:
type: command
component: azureml://registries/azureml/components/microsoft_azureml_rai_tabular_insight_constructor/versions/<get current version>
inputs:
title: From YAML snippet
task_type: regression
type: mlflow_model
path: azureml:<registered_model_name>:<registered model version>
train_dataset: ${{parent.inputs.my_training_data}}
test_dataset: ${{parent.inputs.my_test_data}}
target_column_name: ${{parent.inputs.target_column_name}}
categorical_column_names: '["location", "style", "job title", "OS", "Employer", "IDE", "Programming language"]'
Hinzufügen von Kausalität zum Dashboard „RAI-Erkenntnisse“
Diese Komponente führt eine Ursachenanalyse mit den angegebenen Datasets aus. Sie verfügt über einen einzelnen Eingabeport, der die Ausgabe des RAI Insights dashboard constructor
akzeptiert. Er akzeptiert ferner die folgenden Parameter:
Parametername | Beschreibung | Geben Sie ein |
---|---|---|
treatment_features |
Eine Liste der Merkmalsnamen in den Datasets, die potenziell „behandelbar“ sind, um verschiedene Ergebnisse zu erhalten. | Liste der Zeichenfolgen2. |
heterogeneity_features |
Eine Liste von Merkmalsnamen in den Datasets, die sich auf das Verhalten der „behandelbaren“ Merkmale auswirken können. Standardmäßig werden alle Merkmale berücksichtigt. | Optionale Liste der Zeichenfolgen2. |
nuisance_model |
Das Modell, das verwendet wird, um das Ergebnis der Änderung der Behandlungsmerkmale abzuschätzen. | Optionale Zeichenfolge. Diese muss linear oder AutoML sein, wobei linear die Standardeinstellung ist. |
heterogeneity_model |
Das Modell, das verwendet wird, um die Auswirkungen der Heterogenitätsmerkmale auf das Ergebnis abzuschätzen. | Optionale Zeichenfolge. Diese muss linear oder forest sein, wobei linear die Standardeinstellung ist. |
alpha |
Konfidenzniveau der Konfidenzintervalle. | Optionale Gleitkommazahl, standardmäßig 0,05. |
upper_bound_on_cat_expansion |
Die maximale Erweiterung von Kategoriemerkmalen. | Optionale ganze Zahl (integer), standardmäßig 50. |
treatment_cost |
Die Kosten der Behandlungen. Wenn 0, dann haben alle Behandlungen Null Kosten. Wenn eine Liste übergeben wird, wird jedes Element auf eines der treatment_features angewendet.Jedes Element kann ein Skalarwert sein, um konstante Kosten für die Anwendung dieser Behandlung anzuzeigen, oder ein Array, das die Kosten für jede Stichprobe angibt. Wenn die Behandlung eine diskrete Behandlung ist, sollte das Array für dieses Merkmal zweidimensional sein, wobei die erste Dimension Stichproben darstellt und die zweite die Kostendifferenz zwischen den Nichtstandardwerten und dem Standardwert. |
Optionale ganze Zahl oder Liste2. |
min_tree_leaf_samples |
Die minimale Anzahl von Stichproben pro Blattknoten in der Richtlinienstruktur. | Optionale ganze Zahl (integer), standardmäßig 2. |
max_tree_depth |
Die maximale Tiefe der Richtlinienstruktur. | Optionale ganze Zahl (integer), standardmäßig 2. |
skip_cat_limit_checks |
Standardmäßig müssen Kategoriemerkmale mehrere Instanzen jeder Kategorie aufweisen, damit ein Modell als robust angesehen wird. Wenn Sie dies auf True festlegen, werden diese Überprüfungen übersprungen. |
Optionaler boolescher Wert, standardmäßig False . |
categories |
Die für die Kategoriespalten zu verwendenden Kategorien. Wenn auto , werden die Kategorien für alle Kategoriespalten abgeleitet. Andernfalls sollte dieses Argument so viele Einträge aufweisen, wie Kategoriespalten vorhanden sind.Jeder Eintrag sollte entweder auto sein, damit die Werte für diese Spalte abgeleitet werden, oder die Liste der Werte für die Spalte. Wenn explizite Werte angegeben werden, wird der erste Wert als „Kontroll“wert für diese Spalte behandelt, mit dem andere Werte verglichen werden. |
Optional, auto oder Liste2. |
n_jobs |
Grad an Parallelität, der verwendet werden soll. | Optionale ganze Zahl (integer), standardmäßig 1. |
verbose |
Gibt an, ob die detaillierte Ausgabe während der Berechnung bereitgestellt werden soll. | Optionale ganze Zahl (integer), standardmäßig 1. |
random_state |
Seed für den Pseudozufallszahlengenerator (PRNG). | Optionale ganze Zahl (integer). |
2 Für die list
-Parameter: Mehrere der Parameter akzeptieren Listen anderer Typen (Zeichenfolgen, Zahlen, sogar andere Listen). Um diese an die Komponente zu übergeben, müssen sie zuerst in eine einzelne Zeichenfolge JSON-codiert werden.
Diese Komponente hat einen einzelnen Ausgabeport, der mit einem der insight_[n]
-Eingabeports der Gather RAI Insights Dashboard
-Komponente verbunden werden kann.
causal_01:
type: command
component: azureml://registries/azureml/components/microsoft_azureml_rai_tabular_causal/versions/<version>
inputs:
rai_insights_dashboard: ${{parent.jobs.create_rai_job.outputs.rai_insights_dashboard}}
treatment_features: `["Number of GitHub repos contributed to", "YOE"]'
Hinzufügen von kontrafaktischen Datenpunkten zum Dashboard „RAI-Erkenntnisse“
Diese Komponente generiert kontrafaktische Datenpunkte für das bereitgestellte Testdataset. Sie verfügt über einen einzelnen Eingabeport, der die Ausgabe des Konstruktors für das Dashboard „RAI-Erkenntnisse“ akzeptiert. Er akzeptiert ferner die folgenden Parameter:
Parametername | Beschreibung des Dataflows | type |
---|---|---|
total_CFs |
Die Anzahl kontrafaktischer Datenpunkte, die für jede Zeile im Testdataset generiert werden sollen. | Optionale ganze Zahl (integer), standardmäßig 10. |
method |
Der zu verwendende dice-ml -Explainer. |
Optionale Zeichenfolge. Entweder random , genetic oder kdtree . Wird standardmäßig auf random festgelegt. |
desired_class |
Index, der die gewünschte kontrafaktische Klasse identifiziert. Bei binärer Klassifizierung sollte dies auf opposite festgelegt werden. |
Optionale Zeichenfolge (string) oder ganze Zahl (integer). Der Standardwert ist 0. |
desired_range |
Identifiziert für Regressionsprobleme den gewünschten Bereich der Ergebnisse. | Optionale Liste mit zwei Zahlen3. |
permitted_range |
Wörterbuch mit Merkmalsnamen als Schlüsseln und dem zulässigen Bereich in einer Liste als Werte. Der Standardwert ist der Bereich, der aus den Trainingsdaten abgeleitet wird. | Optionale Zeichenfolge (string) oder Liste3. |
features_to_vary |
Entweder die Zeichenfolge all oder eine Liste mit Merkmalsnamen, die variiert werden sollen. |
Optionale Zeichenfolge (string) oder Liste3. |
feature_importance |
Flag zum Aktivieren der Berechnung von Featurerelevanzen mithilfe von dice-ml . |
Optionaler boolescher Wert. Wird standardmäßig auf True festgelegt. |
3 Für die nicht skalaren Parameter: Parameter, die Listen oder Wörterbücher sind, sollten als einzelne JSON-codierte Zeichenfolgen übergeben werden.
Diese Komponente hat einen einzelnen Ausgabeport, der mit einem der insight_[n]
-Eingabeports der Gather RAI Insights dashboard
-Komponente verbunden werden kann.
counterfactual_01:
type: command
component: azureml://registries/azureml/components/microsoft_azureml_rai_tabular_counterfactual/versions/<version>
inputs:
rai_insights_dashboard: ${{parent.jobs.create_rai_job.outputs.rai_insights_dashboard}}
total_CFs: 10
desired_range: "[5, 10]"
Hinzufügen der Fehleranalyse zum Dashboard „RAI-Erkenntnisse“
Diese Komponente generiert eine Fehleranalyse für das Modell. Sie verfügt über einen einzelnen Eingabeport, der die Ausgabe des RAI Insights Dashboard Constructor
akzeptiert. Er akzeptiert ferner die folgenden Parameter:
Parametername | Beschreibung des Dataflows | type |
---|---|---|
max_depth |
Die maximale Tiefe der Fehleranalysestruktur. | Optionale ganze Zahl (integer). Der Standardwert ist 3. |
num_leaves |
Die maximale Anzahl von Blattknoten in der Fehlerstruktur. | Optionale ganze Zahl (integer). Der Standardwert ist 31. |
min_child_samples |
Die Mindestanzahl von Datenpunkten, die zum Erzeugen eines Blattknotens erforderlich sind. | Optionale ganze Zahl (integer). Der Standardwert ist 20. |
filter_features |
Eine Liste mit ein oder zwei Merkmalen, die für den Matrixfilter verwendet werden sollen. | Optionale Liste, die als einzelne JSON-codierte Zeichenfolge übergeben werden soll. |
Diese Komponente hat einen einzelnen Ausgabeport, der mit einem der insight_[n]
-Eingabeports der Gather RAI Insights Dashboard
-Komponente verbunden werden kann.
error_analysis_01:
type: command
component: azureml://registries/azureml/components/microsoft_azureml_rai_tabular_erroranalysis/versions/<version>
inputs:
rai_insights_dashboard: ${{parent.jobs.create_rai_job.outputs.rai_insights_dashboard}}
filter_features: `["style", "Employer"]'
Hinzufügen von Erläuterungen zum Dashboard „RAI-Erkenntnisse“
Diese Komponente generiert eine Erläuterung für das Modell. Sie verfügt über einen einzelnen Eingabeport, der die Ausgabe des RAI Insights Dashboard Constructor
akzeptiert. Sie akzeptiert eine einzelne, optionale Kommentarzeichenfolge als Parameter.
Diese Komponente verfügt über einen einzelnen Ausgabeport, der mit einem der insight_[n]
-Eingabeports der Gather-Komponente des Dashboards „RAI-Erkenntnisse“ verbunden werden kann.
explain_01:
type: command
component: azureml://registries/azureml/components/microsoft_azureml_rai_tabular_explanation/versions/<version>
inputs:
comment: My comment
rai_insights_dashboard: ${{parent.jobs.create_rai_job.outputs.rai_insights_dashboard}}
Gather-Komponente des Dashboards „RAI-Erkenntnisse“
Diese Komponente setzt die generierten Erkenntnisse zu einem einzelnen Dashboard für verantwortungsvolle KI zusammen. Sie verfügt über fünf Eingabeports:
- Den
constructor
-Port, der mit der Konstruktorkomponente des Dashboards „RAI-Erkenntnisse“ verbunden sein muss. - Vier
insight_[n]
-Ports, die mit der Ausgabe der Toolkomponenten verbunden werden können. Mindestens einer dieser Ports muss verbunden sein.
Es gibt zwei Ausgabeports:
- Der
dashboard
-Port enthält das abgeschlosseneRAIInsights
-Objekt. - Der
ux_json
-Port enthält die Daten, die zur Anzeige eines minimalen Dashboards erforderlich sind.
gather_01:
type: command
component: azureml://registries/azureml/components/microsoft_azureml_rai_tabular_insight_gather/versions/<version>
inputs:
constructor: ${{parent.jobs.create_rai_job.outputs.rai_insights_dashboard}}
insight_1: ${{parent.jobs.causal_01.outputs.causal}}
insight_2: ${{parent.jobs.counterfactual_01.outputs.counterfactual}}
insight_3: ${{parent.jobs.error_analysis_01.outputs.error_analysis}}
insight_4: ${{parent.jobs.explain_01.outputs.explanation}}
Generieren einer Scorecard für verantwortungsvolle KI (Vorschau)
In der Konfigurationsphase müssen Sie Ihr Fachwissen hinsichtlich des Problems nutzen, um die gewünschten Zielwerte für die Modellleistung und die Fairnessmetriken festzulegen.
Wie andere Dashboard-Komponenten für verantwortungsvolle KI, die in der YAML-Pipeline konfiguriert sind, können Sie eine Komponente hinzufügen, um die Scorecard in der YAML-Pipeline zu generieren.
scorecard_01:
type: command
component: azureml:rai_score_card@latest
inputs:
dashboard: ${{parent.jobs.gather_01.outputs.dashboard}}
pdf_generation_config:
type: uri_file
path: ./pdf_gen.json
mode: download
predefined_cohorts_json:
type: uri_file
path: ./cohorts.json
mode: download
Dabei ist „pdf_gen.json“ die JSON-Konfigurationsdatei für die Scorecardgenerierung und predifined_cohorts_json die vorgefertigte JSON-Definitionsdatei für Kohorten.
Hier ist eine Beispiel-JSON-Datei für die Kohortendefinition und die Konfiguration der Scorecard-Generierung:
Definition der Kohorten:
[
{
"name": "High Yoe",
"cohort_filter_list": [
{
"method": "greater",
"arg": [
5
],
"column": "YOE"
}
]
},
{
"name": "Low Yoe",
"cohort_filter_list": [
{
"method": "less",
"arg": [
6.5
],
"column": "YOE"
}
]
}
]
Hier ist eine Konfigurationsdatei zur Scorecard-Generierung als Regressionsbeispiel:
{
"Model": {
"ModelName": "GPT-2 Access",
"ModelType": "Regression",
"ModelSummary": "This is a regression model to analyze how likely a programmer is given access to GPT-2"
},
"Metrics": {
"mean_absolute_error": {
"threshold": "<=20"
},
"mean_squared_error": {}
},
"FeatureImportance": {
"top_n": 6
},
"DataExplorer": {
"features": [
"YOE",
"age"
]
},
"Fairness": {
"metric": ["mean_squared_error"],
"sensitive_features": ["YOUR SENSITIVE ATTRIBUTE"],
"fairness_evaluation_kind": "difference OR ratio"
},
"Cohorts": [
"High Yoe",
"Low Yoe"
]
}
Hier ist eine Konfigurationsdatei zur Scorecard-Generierung als Klassifizierungsbeispiel:
{
"Model": {
"ModelName": "Housing Price Range Prediction",
"ModelType": "Classification",
"ModelSummary": "This model is a classifier that predicts whether the house will sell for more than the median price."
},
"Metrics" :{
"accuracy_score": {
"threshold": ">=0.85"
},
}
"FeatureImportance": {
"top_n": 6
},
"DataExplorer": {
"features": [
"YearBuilt",
"OverallQual",
"GarageCars"
]
},
"Fairness": {
"metric": ["accuracy_score", "selection_rate"],
"sensitive_features": ["YOUR SENSITIVE ATTRIBUTE"],
"fairness_evaluation_kind": "difference OR ratio"
}
}
Definition von Eingaben für die Scorecard-Komponente Responsible AI
In diesem Abschnitt werden die Parameter aufgelistet und definiert, die zum Konfigurieren der Scorecard-Komponente Responsible AI erforderlich sind.
Modell
ModelName | Name des Modells |
---|---|
ModelType |
Werte in ['classification', 'regression']. |
ModelSummary |
Geben Sie einen Text ein, der zusammenfasst, wofür das Modell gedacht ist. |
Hinweis
Für die Multi-Class-Klassifizierung sollten Sie zuerst die One-vs-Rest-Strategie verwenden, um Ihre Referenzklasse auszuwählen, und dann Ihr Multi-Class-Klassifizierungsmodell in ein binäres Klassifizierungsproblem für Ihre ausgewählte Referenzklasse im Vergleich zu den restlichen Klassen aufteilen.
Metriken
Leistungsmetrik | Definition | Modelltyp |
---|---|---|
accuracy_score |
Der Anteil der korrekt klassifizierten Datenpunkte. | Klassifizierung |
precision_score |
Der Anteil der korrekt klassifizierten Datenpunkte unter den als 1 klassifizierten. | Klassifizierung |
recall_score |
Der Anteil der korrekt klassifizierten Datenpunkte unter denen, deren wahres Label 1 ist. Alternative Namen: True Positive-Rate, Empfindlichkeit. | Klassifizierung |
f1_score |
Der F1-Score ist das harmonische Mittel aus Präzision und Erinnerung. | Klassifizierung |
error_rate |
Der Anteil der falsch klassifizierten Instanzen am gesamten Satz von Instanzen. | Klassifizierung |
mean_absolute_error |
Der Durchschnitt der absoluten Werte der Fehler. Robuster gegenüber Ausreißern als mean_squared_error . |
Regression |
mean_squared_error |
Der Durchschnitt der quadratischen Abweichungen. | Regression |
median_absolute_error |
Der Median der quadratischen Abweichungen. | Regression |
r2_score |
Der Anteil der Varianz in den Bezeichnungen, die vom Modell erklärt werden. | Regression |
Schwellenwert: Der gewünschte Schwellenwert für die ausgewählte Metrik. Zulässige mathematische Token sind >, <, >= und <=m, gefolgt von einer reellen Zahl. Beispielsweise bedeutet >= 0,75, dass das Ziel für die ausgewählte Metrik größer als oder gleich 0,75 ist.
Featurepriorität
top_n: Die Anzahl der anzuzeigenden Features, maximal 10. Erlaubt sind positive ganze Zahlen bis 10.
Fairness
Metrik | Definition |
---|---|
metric |
Die primäre Metrik für Bewertungsgerechtigkeit. |
sensitive_features |
Eine Liste mit Feature-Namen aus dem Eingabe-Dataset, die als vertrauliche Features für den Fairness-Bericht gekennzeichnet werden sollen. |
fairness_evaluation_kind |
Werte in [„difference“, „ratio“]. |
threshold |
Die gewünschten Zielwerte der Fairnessbewertung. Zulässige mathematische Token sind >, <, >= und <=, gefolgt von einer reellen Zahl. Beispiel: metric=“accuracy“, fairness_evaluation_kind=“difference“. <= 0,05 bedeutet, dass der Zielwert für die Genauigkeitsdifferenz kleiner oder gleich 0,05 ist. |
Hinweis
Ihre Wahl von fairness_evaluation_kind
(Auswahl von „Differenz“ versus „Verhältnis“) wirkt sich auf die Skala Ihres Zielwerts aus. Achten Sie bei Ihrer Auswahl darauf, einen sinnvollen Zielwert zu wählen.
Sie können aus den folgenden Metriken, gepaart mit fairness_evaluation_kind
, auswählen, um Ihre Fairness-Bewertungskomponente der Scorecard zu konfigurieren:
Metrik | fairness_evaluation_kind | Definition | Modelltyp |
---|---|---|---|
accuracy_score |
Unterschied | Die maximale Differenz bei der Genauigkeitsbewertung zwischen zwei Gruppen. | Klassifizierung |
accuracy_score |
ratio | Das minimale Verhältnis bei der Genauigkeitsbewertung zwischen zwei Gruppen. | Klassifizierung |
precision_score |
Unterschied | Die maximale Differenz bei der Genauigkeitsbewertung zwischen zwei Gruppen. | Klassifizierung |
precision_score |
ratio | Das maximale Verhältnis bei der Genauigkeitsbewertung zwischen zwei Gruppen. | Klassifizierung |
recall_score |
Unterschied | Die maximale Differenz bei der Abrufbewertung zwischen zwei Gruppen. | Klassifizierung |
recall_score |
ratio | Das maximale Verhältnis bei der Abrufbewertung zwischen zwei Gruppen. | Klassifizierung |
f1_score |
Unterschied | Die maximale Differenz bei der F1-Bewertung zwischen zwei Gruppen. | Klassifizierung |
f1_score |
ratio | Das maximale Verhältnis bei der F1-Bewertung zwischen zwei Gruppen. | Klassifizierung |
error_rate |
Unterschied | Die maximale Differenz bei der Fehlerrate zwischen zwei Gruppen. | Klassifizierung |
error_rate |
ratio | Das maximale Verhältnis bei der Fehlerrate zwischen zwei Gruppen. | Klassifizierung |
Selection_rate |
Unterschied | Die maximale Differenz bei der Auswahlrate zwischen zwei Gruppen. | Klassifizierung |
Selection_rate |
ratio | Das maximale Verhältnis bei der Auswahlrate zwischen zwei Gruppen. | Klassifizierung |
mean_absolute_error |
Unterschied | Die maximale Differenz bei der mittleren absoluten Abweichung zwischen zwei Gruppen. | Regression |
mean_absolute_error |
ratio | Die maximale Differenz bei der mittleren absoluten Abweichung zwischen zwei Gruppen. | Regression |
mean_squared_error |
Unterschied | Die maximale Differenz bei der mittleren quadratischen Abweichung zwischen zwei Gruppen. | Regression |
mean_squared_error |
ratio | Die maximale Differenz bei der mittleren quadratischen Abweichung zwischen zwei Gruppen. | Regression |
median_absolute_error |
Unterschied | Die maximale Differenz beim Median der absoluten Abweichung zwischen zwei Gruppen. | Regression |
median_absolute_error |
ratio | Die maximale Differenz beim Median der absoluten Abweichung zwischen zwei Gruppen. | Regression |
r2_score |
Unterschied | Die maximale Differenz bei der R2-Bewertung zwischen zwei Gruppen. | Regression |
r2_Score |
ratio | Das maximale Verhältnis bei der R2-Bewertung zwischen zwei Gruppen. | Regression |
Eingabeeinschränkungen
Welche Modellformate und -varianten werden unterstützt?
Das Modell muss sich im MLflow-Verzeichnis befinden, mit einer verfügbaren sklearn-Variante. Darüber hinaus muss das Modell ladefähig in die Umgebung sein, die von den Komponenten für verantwortungsvolle KI verwendet wird.
Welche Datenformate werden unterstützt?
Die bereitgestellten Datasets sollten mltable
mit Tabellendaten sein.
Nächste Schritte
- Nachdem Sie Ihr Responsible AI-Dashboard generiert haben, sehen Sie sich an, wie Sie in Azure Machine Learning Studio darauf zugreifen und es verwenden.
- Fassen Sie Ihre Erkenntnisse zu verantwortungsvoller KI zusammen, und teilen Sie sie über die Scorecard für verantwortungsbewusste KI als PDF-Export.
- Erfahren Sie mehr über die Konzepte und Methoden hinter dem Dashboard für verantwortungsbewusste KI.
- Erfahren Sie mehr darüber, wie Sie Daten verantwortungsvoll sammeln.
- Zeigen Sie YAML- und Python-Beispiel-Notebooks an, um das Dashboard für verantwortungsbewusste KI mit YAML oder Python zu generieren.
- Erfahren Sie mehr darüber, wie Sie das Responsible AI-Dashboard und die Scorecard verwenden können, um Daten und Modelle zu debuggen und eine bessere Entscheidungsfindung in diesem Tech-Community-Blogbeitrag zu ermöglichen.
- Erfahren Sie in einer realen Kundengeschichte, wie das Responsible AI-Dashboard und die Scorecard vom britischen National Health Service (NHS) verwendet wurden.
- Erkunden Sie die Funktionen des Responsible AI-Dashboards in dieser interaktiven AI Lab-Webdemo.