FastForestBinaryTrainer Clase
Definición
Importante
Parte de la información hace referencia a la versión preliminar del producto, que puede haberse modificado sustancialmente antes de lanzar la versión definitiva. Microsoft no otorga ninguna garantía, explícita o implícita, con respecto a la información proporcionada aquí.
para IEstimator<TTransformer> entrenar un modelo de clasificación binaria de árbol de decisión mediante Fast Forest.
public sealed class FastForestBinaryTrainer : Microsoft.ML.Trainers.FastTree.RandomForestTrainerBase<Microsoft.ML.Trainers.FastTree.FastForestBinaryTrainer.Options,Microsoft.ML.Data.BinaryPredictionTransformer<Microsoft.ML.Trainers.FastTree.FastForestBinaryModelParameters>,Microsoft.ML.Trainers.FastTree.FastForestBinaryModelParameters>
type FastForestBinaryTrainer = class
inherit RandomForestTrainerBase<FastForestBinaryTrainer.Options, BinaryPredictionTransformer<FastForestBinaryModelParameters>, FastForestBinaryModelParameters>
Public NotInheritable Class FastForestBinaryTrainer
Inherits RandomForestTrainerBase(Of FastForestBinaryTrainer.Options, BinaryPredictionTransformer(Of FastForestBinaryModelParameters), FastForestBinaryModelParameters)
- Herencia
Comentarios
Para crear este entrenador, use FastForest o FastForest(Options).
Columnas de entrada y salida
Los datos de la columna de etiquetas de entrada deben ser Boolean. Los datos de columna de las características de entrada deben ser un vector de tamaño conocido de Single.
Este instructor genera las siguientes columnas:
Nombre de columna de salida | Tipo de columna | Descripción | |
---|---|---|---|
Score |
Single | Puntuación sin enlazar calculada por el modelo. | |
PredictedLabel |
Boolean | Etiqueta de predicción, según el signo de la puntuación. Una puntuación negativa se asigna a false y una positiva a true . |
|
Probability |
Single | Probabilidad calculada mediante la calibración de la puntuación de tener true como etiqueta. El valor de probabilidad está en el intervalo [0, 1]. |
Características del entrenador
Tarea de Machine Learning | Clasificación binaria |
¿Se requiere normalización? | No |
¿Se requiere el almacenamiento en caché? | No |
NuGet necesario además de Microsoft.ML | Microsoft.ML.FastTree |
Exportable a ONNX | Sí |
Detalles del algoritmo de entrenamiento
Los árboles de decisión son modelos no paramétricos que realizan una secuencia de pruebas sencillas en entradas. Este procedimiento de decisión los asigna a las salidas encontradas en el conjunto de datos de entrenamiento cuyas entradas eran similares a la instancia que se está procesando. Se toma una decisión en cada nodo de la estructura de datos del árbol binario en función de una medida de similitud que asigna cada instancia de forma recursiva a través de las ramas del árbol hasta que se alcanza el nodo hoja adecuado y se devuelve la decisión de salida.
Los árboles de decisión tienen varias ventajas:
- Son eficientes tanto en el cálculo como en la utilización de la memoria durante el entrenamiento y la predicción.
- Pueden representar límites de decisión no lineales.
- Realizan la selección y clasificación de características integradas.
- Son resistentes en presencia de características ruidosas.
Bosque rápido es una implementación de bosque aleatorio. El modelo consiste en un conjunto de árboles de decisión. Cada árbol de un bosque de decisión da como resultado una predicción en forma de distribución gaussiana. Se realiza una agregación sobre el conjunto de árboles para buscar la distribución gaussiana más cercana a la distribución combinada de todos los árboles del modelo. Este clasificador de bosque de decisión consta de un conjunto de árboles de decisión.
Por lo general, los modelos de conjunto proporcionan mejor cobertura y precisión que los árboles de decisión únicos. Cada árbol de un bosque de decisión da como resultado una distribución gaussiana.
Para obtener más información, consulte:
Consulte la sección Consulte también los vínculos a ejemplos de uso.
Campos
FeatureColumn |
Columna de características que espera el instructor. (Heredado de TrainerEstimatorBase<TTransformer,TModel>) |
GroupIdColumn |
Columna groupID opcional que esperan los instructores de clasificación. (Heredado de TrainerEstimatorBaseWithGroupId<TTransformer,TModel>) |
LabelColumn |
Columna de etiqueta que espera el instructor. Puede ser |
WeightColumn |
Columna de peso que espera el entrenador. Puede ser |
Propiedades
Info |
para IEstimator<TTransformer> entrenar un modelo de clasificación binaria de árbol de decisión mediante Fast Forest. (Heredado de FastTreeTrainerBase<TOptions,TTransformer,TModel>) |
Métodos
Fit(IDataView, IDataView) |
Entrena un FastForestBinaryTrainer mediante datos de entrenamiento y validación, devuelve un BinaryPredictionTransformer<TModel>. |
Fit(IDataView) |
Entrena y devuelve un ITransformer. (Heredado de TrainerEstimatorBase<TTransformer,TModel>) |
GetOutputSchema(SchemaShape) |
para IEstimator<TTransformer> entrenar un modelo de clasificación binaria de árbol de decisión mediante Fast Forest. (Heredado de TrainerEstimatorBase<TTransformer,TModel>) |
Métodos de extensión
AppendCacheCheckpoint<TTrans>(IEstimator<TTrans>, IHostEnvironment) |
Anexe un "punto de control de almacenamiento en caché" a la cadena del estimador. Esto garantizará que los estimadores de nivel inferior se entrenarán con los datos almacenados en caché. Resulta útil tener un punto de control de almacenamiento en caché antes de que los instructores tomen varios pases de datos. |
WithOnFitDelegate<TTransformer>(IEstimator<TTransformer>, Action<TTransformer>) |
Dado un estimador, devuelva un objeto de ajuste que llamará a un delegado una vez Fit(IDataView) que se llame. A menudo, es importante que un estimador devuelva información sobre lo que cabe, por lo que el Fit(IDataView) método devuelve un objeto con tipo específico, en lugar de simplemente un general ITransformer. Sin embargo, al mismo tiempo, IEstimator<TTransformer> a menudo se forman en canalizaciones con muchos objetos, por lo que es posible que tengamos que crear una cadena de estimadores a través EstimatorChain<TLastTransformer> de donde el estimador para el que queremos obtener el transformador está enterrado en algún lugar de esta cadena. En ese escenario, podemos a través de este método adjuntar un delegado al que se llamará una vez que se llame a fit. |