Microsoft.ML.AutoML Espacio de nombres
Importante
Parte de la información hace referencia a la versión preliminar del producto, que puede haberse modificado sustancialmente antes de lanzar la versión definitiva. Microsoft no otorga ninguna garantía, explícita o implícita, con respecto a la información proporcionada aquí.
Clases
ArrayMath | |
AutoCatalog |
Un catálogo de todas las tareas de AutoML disponibles. |
AutoMLExperiment |
La clase para el experimento de AutoML |
AutoMLExperiment.AutoMLExperimentSettings | |
AutoMLExperimentExtension | |
BinaryClassificationExperiment |
Experimento de AutoML en conjuntos de datos de clasificación binaria. |
BinaryExperimentSettings |
Configuración de experimentos de AutoML en conjuntos de datos de clasificación binaria. |
ColumnInferenceResults |
Contiene información de AutoML inferida sobre las columnas de un conjunto de datos. |
ColumnInformation |
Información sobre las columnas de un conjunto de datos. |
CrossValidationExperimentResult<TMetrics> |
Resultado de un experimento de AutoML que incluye detalles de validación cruzada. |
CrossValidationRunDetail<TMetrics> |
Detalles sobre una ejecución de validación cruzada en un experimento de AutoML. |
DefaultPerformanceMonitor | |
Entity | |
Estimator | |
ExperimentBase<TMetrics,TExperimentSettings> |
Clase base del experimento AutoML. Todos los experimentos de AutoML específicos de la tarea (como BinaryClassificationExperiment) heredan de esta clase. |
ExperimentResult<TMetrics> |
Resultado de un experimento de AutoML. |
ExperimentSettings |
Clase base para la configuración del experimento. Todos los valores de experimentos de AutoML específicos de la tarea (como BinaryExperimentSettings) heredan de esta clase. |
FairnessTrialResult | |
InferenceException |
Excepción producida por AutoML. |
MLContextExtension |
Clase que contiene métodos de extensión de AutoML para MLContext |
MulticlassClassificationExperiment |
Experimento de AutoML en conjuntos de datos de clasificación multiclase. |
MulticlassExperimentSettings |
Configuración de experimentos de AutoML en conjuntos de datos de clasificación multiclase. |
RankingExperiment |
Experimento de AutoML en conjuntos de datos de clasificación. |
RankingExperimentResultExtensions |
Métodos de extensión que funcionan a través de resultados de ejecución del experimento de clasificación. |
RankingExperimentSettings | |
RecommendationExperiment |
Experimento de AutoML en conjuntos de datos de recomendación. |
RecommendationExperimentSettings |
Configuración de experimentos de AutoML en conjuntos de datos de recomendación. |
RegressionExperiment |
Experimento de AutoML en conjuntos de datos de clasificación de regresión. |
RegressionExperimentResultExtensions |
Métodos de extensión que operan sobre los resultados de la ejecución del experimento de regresión. |
RegressionExperimentSettings |
Configuración de experimentos de AutoML en conjuntos de datos de regresión. |
RunDetail |
Detalles sobre una ejecución de experimentos de AutoML. |
RunDetail<TMetrics> |
Detalles sobre una ejecución de experimentos de AutoML. |
SweepableEstimator |
Estimador con espacio de búsqueda. |
SweepableExtension | |
SweepablePipeline | |
TrainResult<TMetrics> |
Resultado de una canalización entrenada en un plegado de validación cruzada. |
TrialPerformanceMetrics |
Métricas de rendimiento de una prueba. |
TrialResult | |
TrialSettings |
Configuración usada para la versión de prueba |
Interfaces
ICrossValidateDatasetManager |
Inferencia para el administrador de conjuntos de datos de validación cruzada. |
IDatasetManager |
Interfaz para el administrador de conjuntos de datos. Esta interfaz no incluye ningún método o definición de propiedad y lo usan AutoMLExperiment y otros componentes para recuperar la instancia del administrador de conjuntos de datos real de los contenedores. |
IEvaluateMetricManager | |
IMetricManager |
Interfaz para el administrador de métricas. |
IMonitor |
instancia de monitor, que se usa para AutoMLExperiment notificar el progreso del entrenamiento. |
IPerformanceMonitor | |
ISweepable | |
ISweepable<T> | |
ITrainValidateDatasetManager | |
ITrialRunner |
interfaz para todos los ejecutores de prueba. |
ITuner |
Enumeraciones
BinaryClassificationMetric |
Métrica de clasificación binaria que AutoML apuntará a optimizar en su proceso de barrido durante un experimento. |
BinaryClassificationTrainer |
Enumeración de ML.NET instructores de clasificación binaria usados por AutoML. |
CacheBeforeTrainer |
Si AutoML debe almacenar en caché antes de ML.NET instructores. Consulte WantCaching para obtener más información sobre el almacenamiento en caché. |
InferenceExceptionType |
Tipo de excepción detectada por AutoML. |
MulticlassClassificationMetric |
Métrica de clasificación multiclase que AutoML apuntará a optimizar en su proceso de barrido durante un experimento. |
MulticlassClassificationTrainer |
Enumeración de ML.NET instructores de clasificación multiclase usados por AutoML. |
RankingMetric | |
RankingTrainer |
Enumeración de ML.NET instructores de clasificación usados por AutoML. |
RecommendationTrainer |
Enumeración de ML.NET instructores de recomendaciones usados por AutoML. |
RegressionMetric |
Métrica de regresión que AutoML apuntará a optimizar en su proceso de barrido durante un experimento. |
RegressionTrainer |
Enumeración de ML.NET instructores de clasificación multiclase usados por AutoML. |