data_transfer Paquet

Classes

DataTransferCopy

Notes

Il s’agit d’une classe expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.

Classe de base pour le nœud de copie de transfert de données.

Vous ne devez pas instancier cette classe directement. Au lieu de cela, vous devez créer à partir de la fonction de générateur : copy_data.

DataTransferCopyComponent

Notes

Il s’agit d’une classe expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.

Version du composant de copie DataTransfer, utilisée pour définir un composant de copie de transfert de données.

DataTransferExport

Notes

Il s’agit d’une classe expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.

Classe de base pour le nœud d’exportation de transfert de données.

Vous ne devez pas instancier cette classe directement. Au lieu de cela, vous devez créer à partir de la fonction de générateur : export_data.

DataTransferExportComponent

Notes

Il s’agit d’une classe expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.

Version du composant d’exportation DataTransfer, utilisée pour définir un composant d’exportation de transfert de données.

DataTransferImport

Notes

Il s’agit d’une classe expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.

Classe de base pour le nœud d’importation de transfert de données.

Vous ne devez pas instancier cette classe directement. Au lieu de cela, vous devez créer à partir de la fonction de générateur : import_data.

DataTransferImportComponent

Notes

Il s’agit d’une classe expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.

Version du composant d’importation DataTransfer, utilisée pour définir un composant d’importation de transfert de données.

Database

Définissez une classe de base de données pour un composant ou un travail DataTransfer.

FileSystem

Définissez une classe de système de fichiers d’un composant ou d’un travail DataTransfer.

par exemple, source_s3 = FileSystem(path='s3 ://my_bucket/my_folder', connection='azureml :my_s3_connection')

Functions

copy_data

Notes

Il s’agit d’une méthode expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.

Créez un objet DataTransferCopy qui peut être utilisé dans dsl.pipeline en tant que fonction.

copy_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, inputs: Dict | None = None, outputs: Dict | None = None, is_deterministic: bool = True, data_copy_mode: str | None = None, **kwargs: Any) -> DataTransferCopy

Paramètres de mot clé uniquement

Nom Description
name
str

Nom du travail.

description
str

Description du travail.

tags

Dictionnaire de balises. Les balises peuvent être ajoutées, supprimées et mises à jour.

display_name
str

Nom d’affichage du travail.

experiment_name
str

Nom de l’expérience sous laquelle le travail sera créé.

compute
str

Ressource de calcul sur laquelle le travail s’exécute.

inputs

Mappage des liaisons de données d’entrée utilisées dans le travail.

outputs

Mappage des liaisons de données de sortie utilisées dans le travail.

is_deterministic

Spécifiez si la commande retourne la même sortie en fonction de la même entrée. Si une commande (composant) est déterministe, lorsqu’elle est utilisée comme nœud/étape dans un pipeline, elle réutilise les résultats d’un travail envoyé précédemment dans l’espace de travail actuel qui a les mêmes entrées et paramètres. Dans ce cas, cette étape n’utilisera aucune ressource de calcul. Valeur par défaut True, spécifiez is_deterministic=False si vous souhaitez éviter ce comportement de réutilisation.

data_copy_mode
str

mode de copie de données dans la tâche de copie, la valeur possible est « merge_with_overwrite », « fail_if_conflict ».

Retours

Type Description

Objet DataTransferCopy.

export_data

Notes

Il s’agit d’une méthode expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.

Créez un objet DataTransferExport qui peut être utilisé dans dsl.pipeline.

export_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, sink: Dict | Database | FileSystem | None = None, inputs: Dict | None = None, **kwargs: Any) -> DataTransferExport

Paramètres de mot clé uniquement

Nom Description
name
str

Nom du travail.

description
str

Description du travail.

tags

Dictionnaire de balises. Les balises peuvent être ajoutées, supprimées et mises à jour.

display_name
str

Nom d’affichage du travail.

experiment_name
str

Nom de l’expérience sous laquelle le travail sera créé.

compute
str

Ressource de calcul sur laquelle le travail s’exécute.

sink

Récepteur de données et de bases de données externes.

inputs

Mappage des liaisons de données d’entrée utilisées dans le travail.

Retours

Type Description
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferExport>

Objet DataTransferExport.

Exceptions

Type Description

Si le récepteur n’est pas fourni ou si l’exportation du système de fichiers n’est pas prise en charge.

import_data

Notes

Il s’agit d’une méthode expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.

Créez un objet DataTransferImport qui peut être utilisé dans dsl.pipeline.

import_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, source: Dict | Database | FileSystem | None = None, outputs: Dict | None = None, **kwargs: Any) -> DataTransferImport

Paramètres de mot clé uniquement

Nom Description
name
str

Nom du travail.

description
str

Description du travail.

tags

Dictionnaire de balises. Les balises peuvent être ajoutées, supprimées et mises à jour.

display_name
str

Nom d’affichage du travail.

experiment_name
str

Nom de l’expérience sous laquelle le travail sera créé.

compute
str

Ressource de calcul sur laquelle le travail s’exécute.

source

Source de données du système de fichiers ou de la base de données.

outputs

Mappage des liaisons de données de sortie utilisées dans le travail. La valeur par défaut est un port de sortie avec la clé « sink » et le type « mltable ».

Retours

Type Description
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferImport>

Objet DataTransferImport.