data_transfer Paquet
Classes
DataTransferCopy |
Notes Il s’agit d’une classe expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental. Classe de base pour le nœud de copie de transfert de données. Vous ne devez pas instancier cette classe directement. Au lieu de cela, vous devez créer à partir de la fonction de générateur : copy_data. |
DataTransferCopyComponent |
Notes Il s’agit d’une classe expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental. Version du composant de copie DataTransfer, utilisée pour définir un composant de copie de transfert de données. |
DataTransferExport |
Notes Il s’agit d’une classe expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental. Classe de base pour le nœud d’exportation de transfert de données. Vous ne devez pas instancier cette classe directement. Au lieu de cela, vous devez créer à partir de la fonction de générateur : export_data. |
DataTransferExportComponent |
Notes Il s’agit d’une classe expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental. Version du composant d’exportation DataTransfer, utilisée pour définir un composant d’exportation de transfert de données. |
DataTransferImport |
Notes Il s’agit d’une classe expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental. Classe de base pour le nœud d’importation de transfert de données. Vous ne devez pas instancier cette classe directement. Au lieu de cela, vous devez créer à partir de la fonction de générateur : import_data. |
DataTransferImportComponent |
Notes Il s’agit d’une classe expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental. Version du composant d’importation DataTransfer, utilisée pour définir un composant d’importation de transfert de données. |
Database |
Définissez une classe de base de données pour un composant ou un travail DataTransfer. |
FileSystem |
Définissez une classe de système de fichiers d’un composant ou d’un travail DataTransfer. par exemple, source_s3 = FileSystem(path='s3 ://my_bucket/my_folder', connection='azureml :my_s3_connection') |
Functions
copy_data
Notes
Il s’agit d’une méthode expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.
Créez un objet DataTransferCopy qui peut être utilisé dans dsl.pipeline en tant que fonction.
copy_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, inputs: Dict | None = None, outputs: Dict | None = None, is_deterministic: bool = True, data_copy_mode: str | None = None, **kwargs: Any) -> DataTransferCopy
Paramètres de mot clé uniquement
Nom | Description |
---|---|
name
|
Nom du travail. |
description
|
Description du travail. |
tags
|
Dictionnaire de balises. Les balises peuvent être ajoutées, supprimées et mises à jour. |
display_name
|
Nom d’affichage du travail. |
experiment_name
|
Nom de l’expérience sous laquelle le travail sera créé. |
compute
|
Ressource de calcul sur laquelle le travail s’exécute. |
inputs
|
Mappage des liaisons de données d’entrée utilisées dans le travail. |
outputs
|
Mappage des liaisons de données de sortie utilisées dans le travail. |
is_deterministic
|
Spécifiez si la commande retourne la même sortie en fonction de la même entrée. Si une commande (composant) est déterministe, lorsqu’elle est utilisée comme nœud/étape dans un pipeline, elle réutilise les résultats d’un travail envoyé précédemment dans l’espace de travail actuel qui a les mêmes entrées et paramètres. Dans ce cas, cette étape n’utilisera aucune ressource de calcul. Valeur par défaut True, spécifiez is_deterministic=False si vous souhaitez éviter ce comportement de réutilisation. |
data_copy_mode
|
mode de copie de données dans la tâche de copie, la valeur possible est « merge_with_overwrite », « fail_if_conflict ». |
Retours
Type | Description |
---|---|
Objet DataTransferCopy. |
export_data
Notes
Il s’agit d’une méthode expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.
Créez un objet DataTransferExport qui peut être utilisé dans dsl.pipeline.
export_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, sink: Dict | Database | FileSystem | None = None, inputs: Dict | None = None, **kwargs: Any) -> DataTransferExport
Paramètres de mot clé uniquement
Nom | Description |
---|---|
name
|
Nom du travail. |
description
|
Description du travail. |
tags
|
Dictionnaire de balises. Les balises peuvent être ajoutées, supprimées et mises à jour. |
display_name
|
Nom d’affichage du travail. |
experiment_name
|
Nom de l’expérience sous laquelle le travail sera créé. |
compute
|
Ressource de calcul sur laquelle le travail s’exécute. |
sink
|
Récepteur de données et de bases de données externes. |
inputs
|
Mappage des liaisons de données d’entrée utilisées dans le travail. |
Retours
Type | Description |
---|---|
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferExport>
|
Objet DataTransferExport. |
Exceptions
Type | Description |
---|---|
Si le récepteur n’est pas fourni ou si l’exportation du système de fichiers n’est pas prise en charge. |
import_data
Notes
Il s’agit d’une méthode expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.
Créez un objet DataTransferImport qui peut être utilisé dans dsl.pipeline.
import_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, source: Dict | Database | FileSystem | None = None, outputs: Dict | None = None, **kwargs: Any) -> DataTransferImport
Paramètres de mot clé uniquement
Nom | Description |
---|---|
name
|
Nom du travail. |
description
|
Description du travail. |
tags
|
Dictionnaire de balises. Les balises peuvent être ajoutées, supprimées et mises à jour. |
display_name
|
Nom d’affichage du travail. |
experiment_name
|
Nom de l’expérience sous laquelle le travail sera créé. |
compute
|
Ressource de calcul sur laquelle le travail s’exécute. |
source
|
Source de données du système de fichiers ou de la base de données. |
outputs
|
Mappage des liaisons de données de sortie utilisées dans le travail. La valeur par défaut est un port de sortie avec la clé « sink » et le type « mltable ». |
Retours
Type | Description |
---|---|
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferImport>
|
Objet DataTransferImport. |
Azure SDK for Python