Compartir a través de


AveragedPerceptronTrainer Clase

Definición

que IEstimator<TTransformer> se va a predecir un destino mediante un modelo de clasificación binaria lineal entrenado con el perceptrón promedio.

public sealed class AveragedPerceptronTrainer : Microsoft.ML.Trainers.AveragedLinearTrainer<Microsoft.ML.Data.BinaryPredictionTransformer<Microsoft.ML.Trainers.LinearBinaryModelParameters>,Microsoft.ML.Trainers.LinearBinaryModelParameters>
type AveragedPerceptronTrainer = class
    inherit AveragedLinearTrainer<BinaryPredictionTransformer<LinearBinaryModelParameters>, LinearBinaryModelParameters>
Public NotInheritable Class AveragedPerceptronTrainer
Inherits AveragedLinearTrainer(Of BinaryPredictionTransformer(Of LinearBinaryModelParameters), LinearBinaryModelParameters)
Herencia

Comentarios

Para crear este instructor, use AveragedPerceptron o AveragedPerceptron(Options).

Columnas de entrada y salida

Los datos de la columna de etiquetas de entrada deben ser Boolean. Los datos de columna de las características de entrada deben ser un vector de tamaño conocido de Single. Este instructor genera las siguientes columnas:

Nombre de columna de salida Tipo de columna Descripción
Score Single Puntuación sin enlazar calculada por el modelo.
PredictedLabel Boolean Etiqueta de predicción, según el signo de la puntuación. Una puntuación negativa se asigna a false y una positiva a true.

Características del entrenador

Tarea de Machine Learning Clasificación binaria
¿Se requiere normalización?
¿Se requiere el almacenamiento en caché? No
NuGet necesario además de Microsoft.ML None
Exportable a ONNX

Detalles del algoritmo de entrenamiento

El perceptrón es un algoritmo de clasificación que realiza sus predicciones mediante la búsqueda de un hiperplano separador. Por ejemplo, con valores de características $f_0, f_1,..., f_{D-1}$, la predicción se da mediante la determinación del lado del hiperplano en el que se encuentra el punto. Es lo mismo que el signo de la suma ponderada de las feautures, es decir, $\sum_{i = 0}^{D-1} (w_i * f_i) + b$, donde $w_0, w_1,..., w_{D-1}$ son los pesos calculados por el algoritmo y $b$ es el sesgo calculado por el algoritmo.

El perceptrón es un algoritmo en línea, lo que significa que procesa las instancias del conjunto de entrenamiento de uno en uno. Comienza con un conjunto de pesos iniciales (cero, aleatorio o inicializado a partir de un aprendiz anterior). A continuación, para cada ejemplo del conjunto de entrenamiento, se calcula la suma ponderada de las características. Si este valor tiene el mismo signo que la etiqueta del ejemplo actual, los pesos siguen siendo los mismos. Si tienen signos opuestos, el vector de pesos se actualiza agregando o restando (si la etiqueta es positiva o negativa, respectivamente) el vector de característica del ejemplo actual, multiplicado por un factor 0 < a <= 1, denominado tasa de aprendizaje. En una generalización de este algoritmo, las ponderaciones se actualizan agregando el vector de característica multiplicado por la velocidad de aprendizaje y por el degradado de alguna función de pérdida (en el caso específico descrito anteriormente, la pérdida es la pérdida de bisagra, cuyo degradado es 1 cuando no es cero).

En Averaged Perceptron (también conocido como vote-perceptron), para cada iteración, es decir, pasar por los datos de entrenamiento, un vector de peso se calcula como se explicó anteriormente. A continuación, la predicción final se calcula promediando la suma ponderada de cada vector de peso y examinando el signo del resultado.

Para obtener más información, vea La entrada de Wikipedia para perceptrón o clasificación de márgenes grandes mediante el algoritmo perceptrón.

Consulte la sección Consulte también los vínculos a ejemplos de uso.

Campos

FeatureColumn

Columna de características que espera el instructor.

(Heredado de TrainerEstimatorBase<TTransformer,TModel>)
LabelColumn

Columna de etiqueta que espera el instructor. Puede ser null, que indica que la etiqueta no se usa para el entrenamiento.

(Heredado de TrainerEstimatorBase<TTransformer,TModel>)
WeightColumn

Columna de peso que espera el entrenador. Puede ser null, lo que indica que el peso no se usa para el entrenamiento.

(Heredado de TrainerEstimatorBase<TTransformer,TModel>)

Propiedades

Info

que IEstimator<TTransformer> se va a predecir un destino mediante un modelo de clasificación binaria lineal entrenado con el perceptrón promedio.

(Heredado de OnlineLinearTrainer<TTransformer,TModel>)

Métodos

Fit(IDataView, LinearModelParameters)

Continúa el entrenamiento de un OnlineLinearTrainer<TTransformer,TModel> objeto mediante un objeto ya entrenado modelParameters y devuelve .ITransformer

(Heredado de OnlineLinearTrainer<TTransformer,TModel>)
Fit(IDataView)

Entrena y devuelve un ITransformer.

(Heredado de TrainerEstimatorBase<TTransformer,TModel>)
GetOutputSchema(SchemaShape)

que IEstimator<TTransformer> se va a predecir un destino mediante un modelo de clasificación binaria lineal entrenado con el perceptrón promedio.

(Heredado de TrainerEstimatorBase<TTransformer,TModel>)

Métodos de extensión

AppendCacheCheckpoint<TTrans>(IEstimator<TTrans>, IHostEnvironment)

Anexe un "punto de control de almacenamiento en caché" a la cadena del estimador. Esto garantizará que los estimadores de nivel inferior se entrenarán con los datos almacenados en caché. Resulta útil tener un punto de control de almacenamiento en caché antes de que los instructores tomen varios pases de datos.

WithOnFitDelegate<TTransformer>(IEstimator<TTransformer>, Action<TTransformer>)

Dado un estimador, devuelva un objeto de ajuste que llamará a un delegado una vez Fit(IDataView) que se llame. A menudo, es importante que un estimador devuelva información sobre lo que cabe, por lo que el Fit(IDataView) método devuelve un objeto con tipo específico, en lugar de simplemente un general ITransformer. Sin embargo, al mismo tiempo, IEstimator<TTransformer> a menudo se forman en canalizaciones con muchos objetos, por lo que es posible que tengamos que crear una cadena de estimadores a través EstimatorChain<TLastTransformer> de donde el estimador para el que queremos obtener el transformador está enterrado en algún lugar de esta cadena. En ese escenario, podemos a través de este método adjuntar un delegado al que se llamará una vez que se llame a fit.

Se aplica a

Consulte también