databricks_step Módulo
Contiene funcionalidad para crear un paso de canalización de Azure Machine Learning para ejecutar un cuaderno de Databricks o un script de Python en DBFS.
Clases
DatabricksStep |
Crea un paso de canalización de Azure Machine Learning para agregar un cuaderno de DataBricks, un script de Python o un archivo JAR como nodo. Para obtener un ejemplo del uso de DatabricksStep, consulte el cuaderno https://aka.ms/pl-databricks. Cree un paso de canalización de Azure ML para agregar un cuaderno de DataBricks, un script de Python o un archivo JAR como nodo. Para obtener un ejemplo del uso de DatabricksStep, consulte el cuaderno https://aka.ms/pl-databricks. :p aram python_script_name:[Obligatorio] Nombre de un script de Python relativo a Especifique exactamente uno entre Si especifica un objeto DataReference como entrada con data_reference_name=input1 y un objeto PipelineData como salida con name=output1, las entradas y salidas se pasarán al script como parámetros. Este será su aspecto y tendrá que analizar los argumentos del script para acceder a las rutas de acceso de cada entrada y salida: "-input1","wasbs://test@storagename.blob.core.windows.net/test","-output1", "wasbs://test@storagename.blob.core.windows.net/b3e26de1-87a4-494d-a20f-1988d22b81a2/output1" Además, los parámetros siguientes estarán disponibles en el script:
Al ejecutar un script de Python desde la máquina local en Databricks con los parámetros |