ml Paquet

Paquets

automl

Contient des classes machine learning automatisées pour Azure Machine Learning SDKv2.

Les domaines principaux incluent la gestion des tâches AutoML.

constants

Ce package définit les constantes utilisées dans Azure Machine Learning SDKv2.

data_transfer
dsl
entities

Contient des entités et des objets SDK pour Azure Machine Learning SDKv2.

Les domaines principaux incluent la gestion des cibles de calcul, la création/la gestion des espaces de travail et des travaux, l’envoi/l’accès au modèle, les exécutions et l’exécution de la sortie/journalisation, etc.

identity

Contient la configuration d’identité pour Azure Machine Learning SDKv2.

operations

Contient les opérations prises en charge pour Azure Machine Learning SDKv2.

Les opérations sont des classes qui contiennent une logique pour interagir avec les services back-ends, généralement un appel d’opérations généré automatiquement.

parallel
sweep

Modules

exceptions

Contient le module d’exception dans Azure Machine Learning SDKv2.

Cela inclut les énumérations et les classes pour les exceptions.

Classes

AmlTokenConfiguration

Configuration de l’identité de jeton AzureML.

Input

Initialiser un objet Input.

MLClient

Classe cliente pour interagir avec les services Azure ML.

Utilisez ce client pour gérer les ressources Azure ML telles que les espaces de travail, les travaux, les modèles, etc.

ManagedIdentityConfiguration

Configuration des informations d’identification d’identité managée.

MpiDistribution

Configuration de distribution MPI.

Output
PyTorchDistribution

Configuration de la distribution PyTorch.

RayDistribution

Notes

Il s’agit d’une classe expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.

Configuration de la distribution de rayons.

TensorFlowDistribution

Configuration de distribution TensorFlow.

UserIdentityConfiguration

Configuration de l’identité utilisateur.

Fonctions

command

Crée un objet Command qui peut être utilisé à l’intérieur d’une fonction dsl.pipeline ou en tant que travail Command autonome.

command(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, properties: Dict | None = None, display_name: str | None = None, command: str | None = None, experiment_name: str | None = None, environment: str | Environment | None = None, environment_variables: Dict | None = None, distribution: Dict | MpiDistribution | TensorFlowDistribution | PyTorchDistribution | RayDistribution | None = None, compute: str | None = None, inputs: Dict | None = None, outputs: Dict | None = None, instance_count: int | None = None, instance_type: str | None = None, locations: List[str] | None = None, docker_args: str | None = None, shm_size: str | None = None, timeout: int | None = None, code: PathLike | str | None = None, identity: ManagedIdentityConfiguration | AmlTokenConfiguration | UserIdentityConfiguration | None = None, is_deterministic: bool = True, services: Dict[str, JobService | JupyterLabJobService | SshJobService | TensorBoardJobService | VsCodeJobService] | None = None, job_tier: str | None = None, priority: str | None = None, **kwargs) -> Command

Paramètres

name
Optional[str]

Nom du travail ou du composant Command.

description
Optional[str]

Description de la commande. La valeur par défaut est None.

tags
Optional[dict[str, str]]

Dictionnaire de balises. Les balises peuvent être ajoutées, supprimées et mises à jour. La valeur par défaut est None.

properties
Optional[dict[str, str]]

Dictionnaire de propriétés de travail. La valeur par défaut est None.

display_name
Optional[str]

Nom complet du travail. Par défaut, un nom généré de manière aléatoire.

command
Optional[str]

Commande à exécuter. La valeur par défaut est None.

experiment_name
Optional[str]

Nom de l’expérience sous laquelle le travail sera créé. Par défaut, le nom du répertoire actuel est défini.

environment
Optional[Union[str, Environment]]

Environnement dans lequel le travail s’exécutera.

environment_variables
Optional[dict[str, str]]

Dictionnaire de noms et de valeurs de variables d’environnement. Ces variables d’environnement sont définies sur le processus où le script utilisateur est en cours d’exécution. La valeur par défaut est None.

distribution
Optional[Union[dict, PyTorchDistribution, MpiDistribution, TensorFlowDistribution, RayDistribution]]

Configuration des travaux distribués. La valeur par défaut est None.

compute
Optional[str]

Cible de calcul sur laquelle le travail s’exécutera. Calcul par défaut.

inputs
Optional[dict[str, Union[Input, str, bool, int, float, <xref:Enum>]]]

Mappage des noms d’entrée aux sources de données d’entrée utilisées dans le travail. La valeur par défaut est None.

outputs
Optional[dict[str, Union[str, Output]]]

Mappage des noms de sortie aux sources de données de sortie utilisées dans le travail. La valeur par défaut est None.

instance_count
Optional[int]

Nombre d’instances ou de nœuds à utiliser par la cible de calcul. La valeur par défaut est de 1.

instance_type
Optional[str]

Type de machine virtuelle à utiliser par la cible de calcul.

locations
Optional[list[str]]

Liste des emplacements où le travail s’exécutera.

docker_args
Optional[str]

Arguments supplémentaires à transmettre à la commande run de Docker. Cela remplacerait tous les paramètres qui ont déjà été définis par le système ou dans cette section. Ce paramètre est uniquement pris en charge pour les types de calcul Azure ML. La valeur par défaut est None.

shm_size
Optional[str]

Taille du bloc de mémoire partagée du conteneur Docker. Cela doit être au format (nombre)(unité) où le nombre doit être supérieur à 0 et l’unité peut être un de b(octets), k(kilooctets), m(mégaoctets) ou g(gigaoctets).

timeout
Optional[int]

Nombre, en secondes, après lequel le travail sera annulé.

code
Optional[Union[str, PathLike]]

Code source pour exécuter le travail. Il peut s’agir d’un chemin d’accès local ou d’une URL « http : », « https : » ou « azureml : » pointant vers un emplacement distant.

identity
Optional[Union[ ManagedIdentityConfiguration, AmlTokenConfiguration, UserIdentityConfiguration]]

Identité que le travail de commande utilisera lors de l’exécution sur le calcul.

is_deterministic
bool

Spécifie si la commande retourne la même sortie en fonction de la même entrée. La valeur par défaut est True. Si la valeur est True, si un composant de commande est déterministe et a été exécuté auparavant dans l’espace de travail actuel avec les mêmes entrées et paramètres, il réutilise les résultats d’un travail précédemment soumis lorsqu’il est utilisé comme nœud ou étape dans un pipeline. Dans ce scénario, aucune ressource de calcul n’est utilisée.

services
Optional[dict[str, Union[JobService, JupyterLabJobService, SshJobService, TensorBoardJobService, VsCodeJobService]]]

Services interactifs pour le nœud. La valeur par défaut est None. Il s’agit d’un paramètre expérimental qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.

job_tier
Optional[str]

Niveau du travail. Les valeurs acceptées sont « Spot », « Basic », « Standard » ou « Premium ».

priority
Optional[str]

Priorité du travail sur le calcul. Les valeurs acceptées sont « low », « medium » et « high ». La valeur par défaut est « medium ».

Retours

Un objet Command.

Type de retour

Exemples

Création d’un travail de commande à l’aide de la méthode générateur command().


   from azure.ai.ml import Input, Output, command

   train_func = command(
       environment="AzureML-sklearn-1.0-ubuntu20.04-py38-cpu:33",
       command='echo "hello world"',
       distribution={"type": "Pytorch", "process_count_per_instance": 2},
       inputs={
           "training_data": Input(type="uri_folder"),
           "max_epochs": 20,
           "learning_rate": 1.8,
           "learning_rate_schedule": "time-based",
       },
       outputs={"model_output": Output(type="uri_folder")},
   )

load_batch_deployment

Construisez un objet de déploiement par lots à partir d’un fichier yaml.

load_batch_deployment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> BatchDeployment

Paramètres

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatoire

Source yaml locale d’un objet de déploiement par lots. Il doit s’agir d’un chemin d’accès à un fichier local ou d’un fichier déjà ouvert. Si la source est un chemin d’accès, elle sera ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.

relative_origin
str

Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. Par défaut, le répertoire de la source entrée s’il s’agit d’une entrée de chemin de fichier ou de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.

params_override
List[Dict]

Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]

Retours

Objet de déploiement par lots construit.

Type de retour

load_batch_endpoint

Construisez un objet de point de terminaison de lot à partir d’un fichier yaml.

load_batch_endpoint(source: str | PathLike | IO, relative_origin: str | None = None, **kwargs) -> BatchEndpoint

Paramètres

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatoire

Source yaml locale d’un objet de point de terminaison de lot. Il doit s’agir d’un chemin d’accès à un fichier local ou d’un fichier déjà ouvert. Si la source est un chemin d’accès, elle sera ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.

relative_origin
str
valeur par défaut: None

Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. Par défaut, le répertoire de la source entrée s’il s’agit d’une entrée de chemin de fichier ou de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.

params_override
List[Dict]

Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]

Retours

Objet de point de terminaison de lot construit.

Type de retour

load_component

Charger un composant à partir d’une fonction locale ou distante vers une fonction de composant.

load_component(source: str | PathLike | IO | None = None, *, relative_origin: str | None = None, **kwargs) -> CommandComponent | ParallelComponent | PipelineComponent

Paramètres

source
Union[<xref:PathLike>, str, TextIOWrapper]
valeur par défaut: None

Source yaml locale d’un composant. Doit être un chemin d’accès à un fichier local ou un fichier déjà ouvert. Si la source est un chemin d’accès, elle est ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.

relative_origin
str

Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. La valeur par défaut est le répertoire de la source saisie s’il s’agit d’une entrée de fichier ou de chemin d’accès de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.

params_override
List[Dict]

Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]

Retours

Objet Component

Type de retour

Exemples

Chargement d’un objet Component à partir d’un fichier YAML, substitution de sa version par « 1.0.2 » et inscription à distance.


   from azure.ai.ml import load_component

   component = load_component(
       source="./sdk/ml/azure-ai-ml/tests/test_configs/components/helloworld_component.yml",
       params_override=[{"version": "1.0.2"}],
   )
   registered_component = ml_client.components.create_or_update(component)

load_compute

Construisez un objet de calcul à partir d’un fichier yaml.

load_compute(source: str | PathLike | IO, *, relative_origin: str | None = None, params_override: List[Dict[str, str]] | None = None, **kwargs) -> Compute

Paramètres

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatoire

Source yaml locale d’un calcul. Doit être un chemin d’accès à un fichier local ou un fichier déjà ouvert. Si la source est un chemin d’accès, elle est ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.

relative_origin
Optional[str]

Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. La valeur par défaut est le répertoire de la source saisie s’il s’agit d’une entrée de fichier ou de chemin d’accès de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.

params_override
Optional[List[Dict]]

Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]

Retours

Objet de calcul chargé.

Type de retour

Exemples

Chargement d’un objet Compute à partir d’un fichier YAML et substitution de sa description.


   from azure.ai.ml import load_compute

   compute = load_compute(
       "../tests/test_configs/compute/compute-vm.yaml",
       params_override=[{"description": "loaded from compute-vm.yaml"}],
   )

load_data

Construisez un objet de données à partir d’un fichier yaml.

load_data(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Data

Paramètres

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatoire

Source yaml locale d’un objet de données. Doit être un chemin d’accès à un fichier local ou un fichier déjà ouvert. Si la source est un chemin d’accès, elle est ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.

relative_origin
str

Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. La valeur par défaut est le répertoire de la source saisie s’il s’agit d’une entrée de fichier ou de chemin d’accès de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.

params_override
List[Dict]

Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]

Retours

Objet Data ou DataImport construit.

Type de retour

Exceptions

Déclenché si les données ne peuvent pas être validées avec succès. Les détails seront fournis dans le message d’erreur.

load_datastore

Construisez un objet de magasin de données à partir d’un fichier yaml.

load_datastore(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Datastore

Paramètres

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatoire

Source yaml locale d’un magasin de données. Doit être un chemin d’accès à un fichier local ou un fichier déjà ouvert. Si la source est un chemin d’accès, elle est ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.

relative_origin
str

Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. La valeur par défaut est le répertoire de la source saisie s’il s’agit d’une entrée de fichier ou de chemin d’accès de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.

params_override
List[Dict]

Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]

Retours

Objet de magasin de données chargé.

Type de retour

Exceptions

Déclenché si le magasin de données ne peut pas être validé avec succès. Les détails seront fournis dans le message d’erreur.

load_environment

Construisez un objet d’environnement à partir d’un fichier yaml.

load_environment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Environment

Paramètres

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatoire

Source yaml locale d’un environnement. Doit être un chemin d’accès à un fichier local ou un fichier déjà ouvert. Si la source est un chemin d’accès, elle est ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.

relative_origin
str

Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. La valeur par défaut est le répertoire de la source saisie s’il s’agit d’une entrée de fichier ou de chemin d’accès de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.

params_override
List[Dict]

Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]

Retours

Objet d’environnement construit.

Type de retour

Exceptions

Déclenché si l’environnement ne peut pas être validé avec succès. Les détails seront fournis dans le message d’erreur.

load_job

Construit un objet Job à partir d’un fichier YAML.

load_job(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Job

Paramètres

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatoire

Chemin d’accès à un fichier YAML local ou à un objet de fichier déjà ouvert contenant une configuration de travail. Si la source est un chemin d’accès, elle est ouverte et lue. Si la source est un fichier ouvert, le fichier est lu directement.

relative_origin
Optional[str]

Répertoire racine du YAML. Ce répertoire sera utilisé comme origine pour déduire les emplacements relatifs des fichiers référencés dans le YAML analysé. La valeur par défaut est le même répertoire que la source si la source est une entrée de fichier ou de chemin d’accès de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.

params_override
Optional[list[dict]]

Champs de paramètre pour remplacer les valeurs dans le fichier YAML.

Retours

Objet Job chargé.

Type de retour

Job

Exceptions

Déclenché si le travail ne peut pas être validé avec succès. Les détails seront fournis dans le message d’erreur.

Exemples

Chargement d’un travail à partir d’un fichier de configuration YAML.


   from azure.ai.ml import load_job

   job = load_job(source="./sdk/ml/azure-ai-ml/tests/test_configs/command_job/command_job_test_local_env.yml")

load_model

Construit un objet Model à partir d’un fichier YAML.

load_model(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Model

Paramètres

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatoire

Chemin d’accès à un fichier YAML local ou à un objet de fichier déjà ouvert contenant une configuration de travail. Si la source est un chemin d’accès, elle est ouverte et lue. Si la source est un fichier ouvert, le fichier est lu directement.

relative_origin
Optional[str]

Répertoire racine du YAML. Ce répertoire sera utilisé comme origine pour déduire les emplacements relatifs des fichiers référencés dans le YAML analysé. La valeur par défaut est le même répertoire que la source si la source est une entrée de fichier ou de chemin d’accès de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.

params_override
Optional[list[dict]]

Champs de paramètre pour remplacer les valeurs dans le fichier YAML.

Retours

Objet Model chargé.

Type de retour

Exceptions

Déclenché si le travail ne peut pas être validé avec succès. Les détails seront fournis dans le message d’erreur.

Exemples

Chargement d’un modèle à partir d’un fichier de configuration YAML, en remplaçant les paramètres de nom et de version.


   from azure.ai.ml import load_model

   model = load_model(
       source="./sdk/ml/azure-ai-ml/tests/test_configs/model/model_with_stage.yml",
       params_override=[{"name": "new_model_name"}, {"version": "1"}],
   )

load_model_package

Notes

Il s’agit d’une méthode expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.

Construit un objet ModelPackage à partir d’un fichier YAML.

load_model_package(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> ModelPackage

Paramètres

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatoire

Chemin d’accès à un fichier YAML local ou à un objet de fichier déjà ouvert contenant une configuration de travail. Si la source est un chemin d’accès, elle est ouverte et lue. Si la source est un fichier ouvert, le fichier est lu directement.

relative_origin
Optional[str]

Répertoire racine du YAML. Ce répertoire sera utilisé comme origine pour déduire les emplacements relatifs des fichiers référencés dans le YAML analysé. Utilise par défaut le même répertoire que la source si la source est une entrée de chemin d’accès de fichier ou de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.

params_override
Optional[list[dict]]

Champs de paramètre pour remplacer les valeurs dans le fichier YAML.

Retours

Objet ModelPackage chargé.

Type de retour

Exceptions

Déclenché si le travail ne peut pas être validé avec succès. Les détails seront fournis dans le message d’erreur.

Exemples

Chargement d’un ModelPackage à partir d’un fichier de configuration YAML.


   from azure.ai.ml import load_model_package

   model_package = load_model_package(
       "./sdk/ml/azure-ai-ml/tests/test_configs/model_package/model_package_simple.yml"
   )

load_online_deployment

Créez un objet de déploiement en ligne à partir d’un fichier yaml.

load_online_deployment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> OnlineDeployment

Paramètres

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatoire

Source yaml locale d’un objet de déploiement en ligne. Il doit s’agir d’un chemin d’accès à un fichier local ou d’un fichier déjà ouvert. Si la source est un chemin d’accès, elle sera ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.

relative_origin
str

Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. Par défaut, le répertoire de la source entrée s’il s’agit d’une entrée de chemin de fichier ou de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.

params_override
List[Dict]

Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]

Retours

Objet de déploiement en ligne construit.

Type de retour

Exceptions

Déclenché si le déploiement en ligne ne peut pas être validé avec succès. Les détails seront fournis dans le message d’erreur.

load_online_endpoint

Créez un objet de point de terminaison en ligne à partir d’un fichier yaml.

load_online_endpoint(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> OnlineEndpoint

Paramètres

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatoire

Source yaml locale d’un objet de point de terminaison en ligne. Il doit s’agir d’un chemin d’accès à un fichier local ou d’un fichier déjà ouvert. Si la source est un chemin d’accès, elle sera ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.

relative_origin
str

Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. Par défaut, le répertoire de la source entrée s’il s’agit d’une entrée de chemin de fichier ou de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.

params_override
List[Dict]

Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]

Retours

Objet de point de terminaison en ligne construit.

Type de retour

Exceptions

Déclenché si le point de terminaison en ligne ne peut pas être validé avec succès. Les détails seront fournis dans le message d’erreur.

load_registry

Chargez un objet de Registre à partir d’un fichier yaml.

load_registry(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Registry

Paramètres

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatoire

Source yaml locale d’un registre. Il doit s’agir d’un chemin d’accès à un fichier local ou d’un fichier déjà ouvert. Si la source est un chemin d’accès, elle sera ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.

relative_origin
str

Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. Par défaut, le répertoire de la source entrée s’il s’agit d’une entrée de chemin de fichier ou de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.

params_override
List[Dict]

Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]

Retours

Objet de Registre chargé.

Type de retour

load_workspace

Charger un objet d’espace de travail à partir d’un fichier yaml.

load_workspace(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Workspace

Paramètres

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatoire

Source yaml locale d’un espace de travail. Il doit s’agir d’un chemin d’accès à un fichier local ou d’un fichier déjà ouvert. Si la source est un chemin d’accès, elle sera ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.

relative_origin
str

Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. Par défaut, le répertoire de la source entrée s’il s’agit d’une entrée de chemin de fichier ou de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.

params_override
List[Dict]

Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]

Retours

Objet d’espace de travail chargé.

Type de retour

load_workspace_connection

Créez un objet de connexion d’espace de travail à partir d’un fichier yaml.

load_workspace_connection(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> WorkspaceConnection

Paramètres

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatoire

Source yaml locale d’un objet de connexion d’espace de travail. Il doit s’agir d’un chemin d’accès à un fichier local ou d’un fichier déjà ouvert. Si la source est un chemin d’accès, elle sera ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.

relative_origin
str

Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. Par défaut, le répertoire de la source entrée s’il s’agit d’une entrée de chemin de fichier ou de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.

params_override
List[Dict]

Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]

Retours

Objet de connexion d’espace de travail construit.

Type de retour

load_workspace_hub

Notes

Il s’agit d’une méthode expérimentale qui peut changer à tout moment. Pour plus d’informations, consultez https://aka.ms/azuremlexperimental.

Charger un objet WorkspaceHub à partir d’un fichier yaml.

load_workspace_hub(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> WorkspaceHub

Paramètres

source
Union[<xref:PathLike>, str, TextIOWrapper]
Obligatoire

Source yaml locale d’un WorkspaceHub. Il doit s’agir d’un chemin d’accès à un fichier local ou d’un fichier déjà ouvert. Si la source est un chemin d’accès, elle sera ouverte et lue. Une exception est levée si le fichier n’existe pas. Si la source est un fichier ouvert, le fichier est lu directement et une exception est levée si le fichier n’est pas lisible.

relative_origin
str

Origine à utiliser pour déduire les emplacements relatifs des fichiers référencés dans le yaml analysé. Par défaut, le répertoire de la source entrée s’il s’agit d’une entrée de chemin de fichier ou de fichier. La valeur par défaut est ./ » si la source est une entrée de flux sans valeur de nom.

params_override
List[Dict]

Champs à remplacer par-dessus le fichier yaml. Le format est [{"field1 » : « value1"}, {"field2 » : « value2"}]

Retours

Objet WorkspaceHub chargé.

Type de retour

spark

Crée un objet Spark qui peut être utilisé à l’intérieur d’une fonction dsl.pipeline ou en tant que travail Spark autonome.

spark(*, experiment_name: str | None = None, name: str | None = None, display_name: str | None = None, description: str | None = None, tags: Dict | None = None, code: PathLike | str | None = None, entry: Dict[str, str] | SparkJobEntry | None = None, py_files: List[str] | None = None, jars: List[str] | None = None, files: List[str] | None = None, archives: List[str] | None = None, identity: Dict[str, str] | ManagedIdentity | AmlToken | UserIdentity | None = None, driver_cores: int | None = None, driver_memory: str | None = None, executor_cores: int | None = None, executor_memory: str | None = None, executor_instances: int | None = None, dynamic_allocation_enabled: bool | None = None, dynamic_allocation_min_executors: int | None = None, dynamic_allocation_max_executors: int | None = None, conf: Dict[str, str] | None = None, environment: str | Environment | None = None, inputs: Dict | None = None, outputs: Dict | None = None, args: str | None = None, compute: str | None = None, resources: Dict | SparkResourceConfiguration | None = None, **kwargs) -> Spark

Paramètres

experiment_name
Optional[str]

Nom de l’expérience sous laquelle le travail sera créé.

name
Optional[str]

Nom du travail.

display_name
Optional[str]

Nom d’affichage du travail.

description
Optional[str]

Description du travail. La valeur par défaut est None.

tags
Optional[dict[str, str]]

Dictionnaire des balises pour le travail. Les balises peuvent être ajoutées, supprimées et mises à jour. La valeur par défaut est None.

code

Code source pour exécuter le travail. Il peut s’agir d’un chemin d’accès local ou d’une URL « http : », « https : » ou « azureml : » pointant vers un emplacement distant.

entry
Optional[Union[dict[str, str], SparkJobEntry]]

Point d’entrée de fichier ou de classe.

py_files
Optional[list[str]]

Liste des fichiers .zip, .egg ou .py à placer sur pythonPATH pour les applications Python. La valeur par défaut est None.

jars
Optional[list[str]]

Liste de . Fichiers JAR à inclure sur les chemins de classe du pilote et de l’exécuteur. La valeur par défaut est None.

files
Optional[list[str]]

Liste des fichiers à placer dans le répertoire de travail de chaque exécuteur. La valeur par défaut est None.

archives
Optional[list[str]]

Liste des archives à extraire dans le répertoire de travail de chaque exécuteur. La valeur par défaut est None.

identity
Optional[Union[ dict[str, str], ManagedIdentityConfiguration, AmlTokenConfiguration, UserIdentityConfiguration]]

Identité que le travail Spark utilisera lors de l’exécution sur le calcul.

driver_cores
Optional[int]

Nombre de cœurs à utiliser pour le processus de pilote, uniquement en mode cluster.

driver_memory
Optional[str]

Quantité de mémoire à utiliser pour le processus de pilote, mise en forme sous forme de chaînes avec un suffixe d’unité de taille (« k », « m », « g » ou « t ») (par exemple, « 512m », « 2g »).

executor_cores
Optional[int]

Nombre de cœurs à utiliser sur chaque exécuteur.

executor_memory
Optional[str]

Quantité de mémoire à utiliser par processus d’exécuteur, mise en forme sous forme de chaînes avec un suffixe d’unité de taille (« k », « m », « g » ou « t ») (par exemple, « 512m », « 2g »).

executor_instances
Optional[int]

Nombre initial d’exécuteurs.

dynamic_allocation_enabled
Optional[bool]

Indique s’il faut utiliser l’allocation dynamique des ressources, qui met à l’échelle le nombre d’exécuteurs inscrits auprès de cette application en fonction de la charge de travail.

dynamic_allocation_min_executors
Optional[int]

Limite inférieure pour le nombre d’exécuteurs si l’allocation dynamique est activée.

dynamic_allocation_max_executors
Optional[int]

Limite supérieure pour le nombre d’exécuteurs si l’allocation dynamique est activée.

conf
Optional[dict[str, str]]

Dictionnaire avec une clé et des valeurs de configuration Spark prédéfinies. La valeur par défaut est None.

environment
Optional[Union[str, Environment]]

Environnement Azure ML dans lequel exécuter le travail.

inputs
Optional[dict[str, Input]]

Mappage des noms d’entrée aux données d’entrée utilisées dans le travail. La valeur par défaut est None.

outputs
Optional[dict[str, Output]]

Mappage des noms de sortie aux données de sortie utilisées dans le travail. La valeur par défaut est None.

args
Optional[str]

Arguments du travail.

compute
Optional[str]

Ressource de calcul sur laquelle le travail s’exécute.

resources
Optional[Union[dict, SparkResourceConfiguration]]

Configuration des ressources de calcul pour le travail.

Retours

Objet Spark.

Type de retour

Exemples

Création d’un pipeline Spark à l’aide du décorateur de pipeline DSL


   from azure.ai.ml import Input, Output, dsl, spark
   from azure.ai.ml.constants import AssetTypes, InputOutputModes

   # define the spark task
   first_step = spark(
       code="/src",
       entry={"file": "add_greeting_column.py"},
       py_files=["utils.zip"],
       files=["my_files.txt"],
       driver_cores=2,
       driver_memory="1g",
       executor_cores=1,
       executor_memory="1g",
       executor_instances=1,
       inputs=dict(
           file_input=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT)
       ),
       args="--file_input ${{inputs.file_input}}",
       resources={"instance_type": "standard_e4s_v3", "runtime_version": "3.2.0"},
   )

   second_step = spark(
       code="/src",
       entry={"file": "count_by_row.py"},
       jars=["scala_project.jar"],
       files=["my_files.txt"],
       driver_cores=2,
       driver_memory="1g",
       executor_cores=1,
       executor_memory="1g",
       executor_instances=1,
       inputs=dict(
           file_input=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT)
       ),
       outputs=dict(output=Output(type="uri_folder", mode=InputOutputModes.DIRECT)),
       args="--file_input ${{inputs.file_input}} --output ${{outputs.output}}",
       resources={"instance_type": "standard_e4s_v3", "runtime_version": "3.2.0"},
   )

   # Define pipeline
   @dsl.pipeline(description="submit a pipeline with spark job")
   def spark_pipeline_from_builder(data):
       add_greeting_column = first_step(file_input=data)
       count_by_row = second_step(file_input=data)
       return {"output": count_by_row.outputs.output}

   pipeline = spark_pipeline_from_builder(
       data=Input(path="/dataset/iris.csv", type=AssetTypes.URI_FILE, mode=InputOutputModes.DIRECT),
   )