Terminología de Microsoft Fabric
Obtenga información sobre las definiciones de términos usados en Microsoft Fabric, incluidos los términos específicos de Fabric Data Warehouse, Fabric Data Engineering, Fabric Data Science, Real-Time Intelligence, Data Factory y Power BI.
Términos generales
Capacidad: La capacidad es un conjunto dedicado de recursos que está disponible para su uso en un momento determinado. La capacidad define la capacidad de un recurso para realizar una actividad o generar resultados. Los distintos elementos consumen una capacidad diferente en un momento determinado. Fabric ofrece capacidad a través de las SKU y las pruebas de Fabric. Para obtener más información, consulte ¿Qué es la capacidad?
Experiencia: Una colección de funcionalidades destinadas a una funcionalidad específica. Las experiencias de Fabric incluyen Fabric Data Warehouse, Fabric Data Engineering, Fabric Data Science, Real-Time Intelligence, Data Factory y Power BI.
Elemento: Un elemento un conjunto de funcionalidades dentro de una experiencia. Los usuarios pueden crear, editar y eliminarlos. Cada tipo de elemento proporciona funcionalidades diferentes. Por ejemplo, la experiencia de Ingeniería de datos incluye los elementos de definición de trabajos de almacén de lago, cuaderno y Spark.
Inquilino (Tenant): Un inquilino es una sola instancia de Fabric para una organización y está asociado con un ID de Microsoft Entra.
Área de trabajo: Un área de trabajo es una colección de elementos que reúne diferentes funcionalidades en un único entorno diseñado para la colaboración. Actúa como un contenedor que usa capacidad para el trabajo que se realiza y proporciona controles para determinar quién puede acceder a sus elementos. Por ejemplo, en un área de trabajo, los usuarios crean informes, cuadernos, modelos semánticos, etc. Para obtener más información, consulte el artículo Áreas de trabajo.
Ingeniería de datos de tejido
Lakehouse: A lakehouse es una colección de archivos, carpetas y tablas que representan una base de datos sobre un lago de datos usado por el motor de Apache Spark y el motor SQL para el procesamiento de macrodatos. Un Lakehouse incluye funcionalidades mejoradas para las transacciones ACID al usar las tablas formateadas en Delta de código abierto. El elemento lakehouse se hospeda dentro de una carpeta de área de trabajo única en Microsoft OneLake. Contiene archivos en varios formatos (estructurados y no estructurados) organizados en carpetas y subcarpetas. Para obtener más información, consulte ¿Qué es una casa del lago?
Notebook: El cuaderno Fabric es una herramienta de programación interactiva multilenguaje con funciones avanzadas. Lo que incluye la creación de código y markdown, la ejecución y supervisión de un trabajo de Spark, la visualización y la visualización del resultado y la colaboración con el equipo. Ayuda a los ingenieros de datos y científicos de datos a explorar y procesar datos, y a crear experimentos de aprendizaje automático con código y experiencia con poco código. Se puede transformar fácilmente en una actividad de canalización para la orquestación.
aplicación spark: una aplicación de Apache Spark es un programa escrito por un usuario mediante uno de los lenguajes de API de Spark (Scala, Python, Spark SQL o Java) o lenguajes agregados por Microsoft (.NET con C# o F#). Cuando se ejecuta una aplicación, se divide en uno o varios trabajos de Spark que se ejecutan en paralelo para procesar los datos con mayor rapidez. Para más información, consulte Seguimiento de la aplicación de Spark.
trabajo de Apache Spark: Un trabajo de Spark forma parte de una aplicación de Spark que se ejecuta en paralelo con otros trabajos dentro de la misma aplicación. Un trabajo consta de varias tareas. Para más información, consulte Supervisión de trabajos de Spark.
definición de trabajo de Apache Spark: definición de trabajo de Spark es un conjunto de parámetros, establecido por el usuario, que indica cómo se debe ejecutar una aplicación spark. Permite enviar trabajos por lotes o de streaming al clúster de Spark. Para más información, consulte ¿Qué es una definición de trabajo de Apache Spark?
Orden V: Una optimización de escritura en el formato de archivo parquet que permite lecturas rápidas y proporciona rentabilidad y un mejor rendimiento. Todos los motores de Fabric escriben archivos parquet ordenados en v de forma predeterminada.
Fábrica de Datos
Connector: Data Factory ofrece un amplio conjunto de conectores que permiten conectarse a diferentes tipos de almacenes de datos. Una vez conectado, puede transformar los datos. Para más información, consulte los conectores .
Canalización de datos: En Data Factory, se usa una canalización de datos para orquestar el movimiento y la transformación de datos. Estas canalizaciones son diferentes de las canalizaciones de implementación en Fabric. Para obtener más información, consulte Pipelines en la visión general de Data Factory.
Dataflow Gen2: Los flujos de datos proporcionan una interfaz de bajo código para ingestar datos de cientos de orígenes de datos y transformar los datos. Los flujos de datos de Fabric se conocen como Dataflow Gen2. El flujo de datos Gen1 existe en Power BI. Dataflow Gen2 ofrece funcionalidades adicionales en comparación con los flujos de datos en Azure Data Factory o Power BI. No se puede actualizar de Gen1 a Gen2. Para más información, consulte Flujos de datos en la introducción a Data Factory.
Desencadenador: Una funcionalidad de automatización en Data Factory que inicia canalizaciones basadas en condiciones específicas, como las programaciones o la disponibilidad de datos.
Ciencia de datos de Fabric
Data Wrangler: Data Wrangler es una herramienta basada en cuadernos que proporciona a los usuarios una experiencia inmersiva para realizar análisis de datos exploratorios. La característica combina una presentación de datos similar a la cuadrícula con estadísticas de resumen dinámico y un conjunto de operaciones comunes de limpieza de datos, todas disponibles con algunos iconos seleccionados. Cada operación genera código que se puede guardar de nuevo en el cuaderno como un script reutilizable.
Experimento: Un experimento de aprendizaje automático es la unidad principal de organización y control de todas las ejecuciones de aprendizaje automático relacionadas. Para obtener más información, consulte experimentos de Aprendizaje automático en Microsoft Fabric.
Modelo: Un modelo de aprendizaje automático es un archivo entrenado para reconocer determinados tipos de patrones. Se entrena un modelo sobre un conjunto de datos y se proporciona un algoritmo que usa para razonar y aprender de ese conjunto de datos. Para obtener más información, consulte modelo de Machine Learning.
Ejecutar: Una ejecución corresponde a una sola ejecución de código de modelo. En MLflow, el seguimiento se basa en experimentos y ejecuciones.
Almacenamiento de datos de tejido
Punto de conexión de SQL Analytics: Cada Lakehouse tiene un punto de conexión de SQL Analytics que permite al usuario consultar datos de tabla delta con TSQL a través de TDS. Para más información, consulte Punto de conexión de análisis SQL.
Fabric Data Warehouse: El almacenamiento de datos de Fabric funciona como un almacenamiento de datos tradicional y admite las funcionalidades de T-SQL transaccionales completas que esperaría de un almacenamiento de datos empresarial. Para obtener más información, consulte Fabric Data Warehouse.
Inteligencia en tiempo real
Activator: Activator es una herramienta sin código y de bajo código que permite crear alertas, desencadenadores y acciones en tus datos. El activador se usa para crear alertas en los flujos de datos. Para más información, vea Activator.
Eventhouse: Eventhouses proporcionan una solución para controlar y analizar grandes volúmenes de datos, especialmente en escenarios que requieren análisis y exploración en tiempo real. Están diseñados para controlar flujos de datos en tiempo real de forma eficaz, lo que permite a las organizaciones ingerir, procesar y analizar datos casi en tiempo real. Una sola área de trabajo puede contener varios centros de eventos, un centro de eventos puede contener varias bases de datos KQL y cada base de datos puede contener varias tablas. Para más información, consulte Introducción a Eventhouse.
Eventstream: la característica Secuencias de eventos de Microsoft Fabric proporciona un lugar centralizado en la plataforma Fabric para capturar, transformar y enrutar eventos en tiempo real a destinos con una experiencia sin código. Una secuencia de eventos consta de varios orígenes de datos de streaming, destinos de ingesta y un procesador de eventos cuando se necesita la transformación. Para obtener más información, consulte Flujos de eventos de Microsoft Fabric.
Base de Datos KQL: La base de datos KQL contiene datos en un formato en el que puede ejecutar consultas KQL. Las bases de datos de KQL son elementos en un centro de eventos. Para obtener más información, consulte la base de datos KQL .
conjunto de consultas KQL: El conjunto de consultas KQL es el elemento que se usa para ejecutar consultas, ver resultados y manipular los resultados de las consultas en los datos de la base de datos de Data Explorer. El conjunto de consultas incluye las bases de datos y las tablas, las consultas y los resultados. El conjunto de consultas KQL permite guardar consultas para su uso futuro o exportar y compartir consultas con otros usuarios. Para más información, lea Consulta de datos en un conjunto de consultas KQL
Centro en tiempo real
- Centro en tiempo real: es el lugar para todos los datos en movimiento en toda la organización. Cada inquilino de Microsoft Fabric se aprovisiona automáticamente con el centro. Para más información, consulte Información general sobre el centro en tiempo real.
OneLake
- Acceso directo: Los accesos directos son referencias incrustadas en OneLake que apuntan a otras ubicaciones del almacenamiento de archivos. Proporcionan una manera de conectarse a los datos existentes sin tener que copiarlos directamente. Para más información, consulte Accesos directos de OneLake.