Referencia del componente y algoritmo para el diseñador de Azure Machine Learning
SE APLICA A: SDK de Python azure-ai-ml v2 (actual)
Nota
El diseñador admite dos tipos de componentes: componentes precompilados clásicos y componentes personalizados. Estos dos tipos de componentes no son compatibles.
Los componentes precompilados clásicos proporcionan componentes precompilados principalmente para el procesamiento de datos y las tareas tradicionales de aprendizaje automático, como la regresión y la clasificación. Este tipo de componentes se sigue admitiendo, pero no se agregará ningún componente nuevo.
Los componentes personalizados permiten proporcionar su propio código como componente. Admiten el uso compartido entre áreas de trabajo y la creación fluida entre Estudio, la CLI y las interfaces del SDK.
Este artículo se aplica a los componentes precompilados clásicos.
Este contenido de referencia proporciona el contexto técnico de cada uno de los componentes precompilados clásicos disponibles en el diseñador de Azure Machine Learning.
Cada componente representa un conjunto de código que puede ejecutarse de forma independiente y realizar una tarea de aprendizaje automático, dadas las entradas necesarias. Un componente puede contener un algoritmo en particular o realizar una tarea que sea importante para el aprendizaje automático, como el reemplazo de un valor que falta o análisis estadísticos.
Para obtener ayuda con la elección de algoritmos, consulte
Sugerencia
En cualquier canalización del diseñador, puede obtener información sobre un componente específico. Seleccione el vínculo Más información en la tarjeta de componentes al mantener el puntero sobre el componente en la lista de componentes o en el panel derecho del componente.
Componentes de preparación de datos
Funcionalidad | Descripción | component |
---|---|---|
Entrada y salida de datos | Mueva los datos de los orígenes en la nube a la canalización. Escriba los resultados o los datos intermedios en Azure Storage o SQL Database mientras ejecuta una canalización, o use el almacenamiento en la nube para intercambiar datos entre canalizaciones. | Introducción manual de datos Export Data Import Data |
Transformación de datos | Operaciones con los datos que son exclusivas del aprendizaje automático, como la normalización o discretización de datos, la reducción de la dimensionalidad y la conversión de datos entre barios formatos de archivo. | Adición de columnas Adición de filas Aplicación de operación matemática Aplicación de transformaciones de SQL Clean Missing Data (limpiar datos faltantes) Recorte de valores Conversión a CSV Conversión en conjunto de datos Convertir en valores de indicador Edición de metadatos Agrupación de datos en intervalos Combinación de datos Normalize Data (normalizar datos) Partición y ejemplo Supresión de filas duplicadas SMOTE Selección de transformación de columnas Seleccionar columnas de conjunto de datos División de datos |
Selección de características | Seleccione un subconjunto de características pertinentes y útiles para la creación de un modelo analítico. | Selección de características basada en filtros Importancia de la característica de permutación |
Funciones estadísticas | Proporcionar una amplia variedad de métodos estadísticos relacionados con la ciencia de datos. | Resumen de datos |
Algoritmos de aprendizaje automático
Funcionalidad | Descripción | component |
---|---|---|
Regresión | Prediga un valor. | Boosted Decision Tree Regression (Regresión del árbol de decisión ampliado) Regresión de bosque de decisión Regresión rápida de bosque por cuantiles Regresión lineal Regresión de red neuronal Regresión de Poisson |
Agrupación en clústeres | Agrupe datos. | Agrupación en clústeres K-Means |
clasificación | Prediga una clase. Elija en algoritmos binarios (dos clases) o multiclase. | Árbol de decisión ampliado multiclase Bosque de decisión multiclase Regresión logística multiclase Red neuronal multiclase One vs. All Multiclass (Multiclase uno frente a todos) Uno contra One Multiclass Perceptrón promedio de dos clases Two-Class Boosted Decision Tree (Árbol de decisión promovido por dos clases) Bosque de decisión de dos clases Regresión logística de dos clases Red neuronal de dos clases Two Class Support Vector Machine (Máquina de vectores compatible con dos clases) |
Componentes para compilar y evaluar modelos
Funcionalidad | Descripción | component |
---|---|---|
Entrenamiento del modelo | Ejecute datos a través del algoritmo. | Entrenamiento del modelo de agrupación en clústeres Train Model (entrenar modelo) Entrenamiento del modelo de PyTorch Tune Model Hyperparameters (Optimizar hiperparámetros del modelo) |
Evaluación y puntuación del modelo | Mida la precisión del modelo entrenado. | Aplicación de la transformación Assign Data to Clusters (asignar datos a los clústeres) Cross Validate Model (Modelo de validación cruzada) Evaluación de módulo Puntuación del modelo de imagen Score Model (puntuar modelo) |
Lenguaje Python | Escriba código e insértelo en un componente para integrar Python con la canalización. | Creación de modelo Python Ejecución de script de Python |
Lenguaje R | Escriba código e insértelo en un componente para integrar R con la canalización. | Ejecución script de R |
Text Analytics | Proporcione herramientas de cálculo especializadas para trabajar con texto estructurado y no estructurado. | Conversión de palabra en vector Extracción de características de n-gramas a partir de texto Hash de características Preprocesamiento de texto Asignación de Dirichlet latente Puntuación del modelo de Vowpal Wabbit Entrenamiento del modelo de Vowpal Wabbit |
Computer Vision | Componentes relacionados con el preprocesamiento de datos de imagen y el reconocimiento de imágenes. | Aplicación de transformación de imagen Conversión al directorio de imagen Transformación de imagen init División de directorio de imagen DenseNet ResNet |
Recomendación | Compile modelos de recomendación. | Evaluate Recommender (Evaluar recomendador) Score SVD Recommender (Puntuar recomendador de SVD) Puntuación del recomendador ancho y profundo Train SVD Recommender (Entrenar recomendador de SVD) Entrenamiento del recomendador ancho y profundo |
Detección de anomalías | Compile modelos de detección de anomalías. | Detección de anomalías basada en PCA Train Anomaly Detection Model (entrenar un modelo de detección de anomalías) |
Servicio web
Obtenga información sobre los componentes del servicio web, que son necesarios para la inferencia en tiempo real en el diseñador de Azure Machine Learning.
Mensajes de error
Obtenga información sobre los mensajes de error y códigos de excepción que pueden surgir al usar los componentes del diseñador de Azure Machine Learning.
Entorno de componentes
Todos los componentes integrados del diseñador se ejecutarán en un entorno fijo proporcionado por Microsoft.
Anteriormente, este entorno se basaba en Python 3.6, y ahora se ha actualizado a Python 3.8. Esta actualización es transparente, ya que los componentes se ejecutarán automáticamente en el entorno de Python 3.8 y no se requiere ninguna acción por parte del usuario. La actualización del entorno puede afectar a las salidas de los componentes e implementar un punto de conexión en tiempo real desde una inferencia en tiempo real. Consulte las secciones siguientes para obtener más información.
Las salidas de componentes son diferentes comparadas con los resultados anteriores.
Después de actualizar la versión de Python de la versión 3.6 a la 3.8, las dependencias de los componentes integrados también podrían actualizarse en consecuencia. Por lo tanto, es posible que algunas salidas de componentes sean diferentes comparadas con los resultados anteriores.
Si usa el componente Execute Python Script y ha instalado previamente paquetes vinculados a Python 3.6, es posible que se produzcan errores como:
- «No se pudo encontrar una versión que cumpla el requisito.»
- «No se encontró ninguna distribución coincidente.» Deberá especificar la versión del paquete adaptada a Python 3.8 y volver a ejecutar la canalización.
Implementar el punto de conexión en tiempo real desde un problema de canalización de inferencia en tiempo real
Si implementa directamente el punto de conexión en tiempo real desde una canalización de inferencia en tiempo real completada anteriormente, puede encontrarse con errores.
Recomendación: clone la canalización de inferencia y envíela de nuevo. A continuación, implemente el punto de conexión en tiempo real.