Editar

Compartir a través de


Almacén de lago de datos de tipo greenfield en Microsoft Fabric

Microsoft Fabric
Power BI

En esta carga de trabajo de ejemplo se muestra una solución de tipo greenfield verde para crear una plataforma de datos escalable mediante Microsoft Fabric y el paradigma de diseño de almacén de lago. Fabric es una plataforma que integra el almacenamiento, el procesamiento y el análisis de datos. Un almacén de lago de tipo greenfield proporciona un comienzo limpio para diseñar un ecosistema de datos eficiente y preparado para el futuro.

Arquitectura

Diagrama que muestra una solución de tipo greenfield para crear una plataforma de datos sólida y escalable mediante el paradigma de diseño de almacén de lago en Microsoft Fabric.

Descargue un archivo Visio de esta arquitectura.

Flujo de datos

Este diseño refleja la arquitectura Lambda, que separa el procesamiento de datos en dos capas:

  • Una capa de procesamiento por lotes de gran volumen que se procesa periódicamente para el análisis histórico
  • Una capa de procesamiento de flujos de alto rendimiento y baja latencia para el análisis en tiempo real

La ruta de procesamiento de flujos ingiere y procesa datos casi en tiempo real, lo que hace que sea ideal para paneles y detección de anomalías. La ruta de procesamiento por lotes controla el conjunto de datos completo, lo que garantiza la coherencia de los datos y habilita el análisis histórico complejo. Este enfoque con dos ventajas ofrece información en tiempo real mientras se mantiene un registro confiable para la exploración posterior.

Ruta de acceso inactiva: análisis por lotes

Los almacenes de datos, que se basan en la semántica de SQL relacional, son el enfoque convencional para el análisis histórico de datos. Sin embargo, este patrón ha evolucionado con el tiempo y los almacenes de lagos son el estándar actual del sector para el análisis de datos por lotes. Un almacén de lago se basa en formatos de archivo de código abierto y, a diferencia de los almacenes de datos tradicionales, atiende a todos los tipos de datos: estructurados, semiestructurados y no estructurados. La capa de proceso de una instancia de almacén de lago se basa normalmente en el marco de Apache Spark, que es el motor preferido para procesar macrodatos debido a su funcionalidad de computación distribuida y alto rendimiento. Fabric ofrece una experiencia nativa de almacén de lago basada en el formato de archivo de Delta Lake de código abierto y un entorno de ejecución de Spark administrado.

Una implementación de almacén de lago normalmente usa la arquitectura medallion. En esta arquitectura, la capa de bronce contiene los datos sin procesar, la capa de plata contiene los datos validados y desduplicados, y la capa de oro contiene datos muy definidos que son adecuados para admitir casos de uso orientados a la empresa. Este enfoque funciona en todas las organizaciones y sectores. Aunque este es el enfoque general, puede personalizarlo para sus requisitos. Esta arquitectura muestra cómo crear una instancia de almacén de lago mediante componentes nativos de Fabric.

Ingesta de datos mediante Data Factory

(Consulte el paso 1 del diagrama).

La característica Azure Data Factory de Fabric proporciona las funcionalidades del servicio Azure Data Factory, que es un servicio de integración de datos ampliamente usado. Aunque el servicio Data Factory proporciona principalmente funcionalidades de orquestación a través de canalizaciones, la característica de Fabric proporciona canalizaciones y flujos de datos.

  • Las canalizaciones de datos le permiten aplicar capacidades de orquestación de datos enriquecidos listos para usar para componer flujos de trabajo de datos flexibles que satisfagan las necesidades de su empresa.
  • Los flujos de datos permiten usar más de 300 transformaciones en el diseñador de flujos de datos. Puede usar estas transformaciones para transformar datos mediante una interfaz gráfica similar a la de Power Query. Estas transformaciones incluyen transformaciones de datos basadas en inteligencia artificial inteligente. Los flujos de datos también pueden escribir datos en almacenes de datos nativos en Fabric, como almacén de lago, almacén, Azure SQL y bases de datos de Kusto.

En función de sus requisitos, puede usar o ambas funcionalidades para crear un marco de ingesta basado en metadatos enriquecidos. Puede incorporar datos de varios sistemas de origen en una programación definida o mediante desencadenadores de eventos.

Transformaciones de datos

(Consulte el paso 2 del diagrama).

Hay dos enfoques para la preparación y transformación de datos. Si prefiere una experiencia orientada al código, puede usar cuadernos de Spark. Si prefiere una experiencia de poco o nada de código, puede usar flujos de datos.

Los cuadernos de Fabric son una herramienta importante para desarrollar trabajos de Apache Spark. Proporcionan una superficie interactiva basada en web que los ingenieros de datos usan para escribir código. También proporcionan visualizaciones enriquecidas y permiten el uso del texto Markdown. Los ingenieros de datos escriben código para la ingesta, preparación y transformación de datos. Los científicos de datos usan cuadernos para crear soluciones de aprendizaje automático. Por ejemplo, los usan para crear experimentos y modelos y para realizar un seguimiento de los modelos e implementarlos.

Cada área de trabajo de Fabric incluye un grupo de inicio de Spark, que se usa para trabajos de Spark predeterminados. Con los grupos de inicio, puede esperar una inicialización rápida de la sesión de Apache Spark, normalmente en un plazo de 5 a 10 segundos, sin ninguna configuración manual. También obtiene la flexibilidad de personalizar los grupos de Apache Spark de acuerdo con sus requisitos de ingeniería de datos. Puede ajustar el tamaño de los nodos, escalar automáticamente y asignar ejecutores dinámicamente en función de los requisitos del trabajo de Spark. En el caso de las personalizaciones en tiempo de ejecución de Spark, puede usar entornos. En un entorno, puede configurar las propiedades de proceso, seleccionar diferentes tiempos de ejecución y configurar las dependencias de los paquetes de biblioteca en función de los requisitos de la carga de trabajo.

Los flujos de datos permiten extraer datos de varios orígenes, transformarlos mediante una amplia gama de operaciones de transformación y cargarlos en un destino. Tradicionalmente, los ingenieros de datos dedican mucho tiempo a extraer, transformar y cargar datos en un formato consumible para análisis de bajada. El flujo de datos Gen2 proporciona una manera fácil y reutilizable de realizar tareas de extracción, transformación, carga (ETL) mediante indicaciones visuales en Power Query Online. El flujo de datos conserva todos los pasos de transformación. Para realizar otras tareas o cargar datos en un destino diferente después de la transformación, cree una canalización de datos y agregue la actividad Dataflow Gen2 a la orquestación de canalización.

Ruta de acceso activa: análisis en tiempo real

El procesamiento de datos en tiempo real es fundamental para las empresas que desean mantenerse ágiles, tomar decisiones informadas rápidamente y aprovechar las conclusiones inmediatas para mejorar las operaciones y las experiencias de los clientes. En Fabric, este servicio de inteligencia en tiempo real proporciona esta funcionalidad. Consta de varias características de Fabric que se agrupan y son accesibles a través del centro en tiempo real. El centro en tiempo real proporciona un único lugar para la transmisión de datos en movimiento en toda la organización.

La inteligencia en tiempo real de Fabric permite el análisis y la visualización de datos para escenarios controlados por eventos, datos de streaming y registros de datos. Conecta datos basados en tiempo de varios orígenes mediante un catálogo de conectores sin código y proporciona una solución de un extremo a otro para la ingesta, transformación, almacenamiento, análisis, visualización, seguimiento, inteligencia artificial y acciones en tiempo real. Aunque el nombre del servicio utiliza la expresión "en tiempo real", no es necesario que sus datos fluyan a altas velocidades y volúmenes. La inteligencia en tiempo real proporciona soluciones basadas en eventos, en lugar de en programaciones.

Ingesta en tiempo real

(Consulte el paso 3 del diagrama).

Los flujos de eventos son una característica de Fabric que permite un método sin código para ingerir eventos en tiempo real de varios orígenes y enviarlos a diferentes destinos. Permite el filtrado, la transformación, la agregación y el enrutamiento de datos en función del contenido. También puede usarlo para crear flujos nuevos a partir de los existentes y compartirlos en toda la organización mediante el centro en tiempo real. Los flujos de eventos admiten varios orígenes de datos y destinos de datos. Puede usar una amplia gama de conectores para orígenes externos, como clústeres de Apache Kafka, fuentes de captura de datos modificados de base de datos, orígenes de streaming de AWS (Kinesis) y Google (GCP Pub/Sub).

Se crea un flujo de eventos, se agregan orígenes de datos de eventos al flujo, si se desea, se agregan transformaciones para transformar los datos de eventos y, a continuación, se enrutan los datos a los destinos compatibles. El almacén de lago de Fabric es uno de los destinos admitidos, por lo que puede transformar los eventos en tiempo real antes de ingerirlos en el lago. Los eventos en tiempo real se convierten en formato Delta Lake y, a continuación, se almacenan en las tablas de almacén de lago designadas. Este patrón permite escenarios de almacenamiento de datos y análisis históricos de los datos de movimiento rápido.

Análisis en tiempo real

(Consulte el paso 4 del diagrama).

Cuando se usa la inteligencia en tiempo real de Fabric, en función de los casos de uso, hay dos caminos típicos para los datos de streaming: elementos Reflex y almacenes de eventos.

Un Reflex es un elemento de Fabric que permite reaccionar a la aparición de una condición de datos a medida que sucede. Esa reacción puede ser un mensaje de alerta simple por correo electrónico o Microsoft Teams, o puede implicar invocar una acción personalizada mediante el desencadenamiento de un flujo de Power Automate. También puede desencadenar cualquier elemento de Fabric desde elementos Reflex. Muchos casos de uso de observabilidad son compatibles con elementos Reflex, uno de los cuales reacciona a los datos de streaming a medida que llega en los flujos de eventos.

Un almacén de eventos es una colección de una o varias bases de datos de Lenguaje de consulta Kusto (KQL). Las bases de datos KQL están diseñadas para eventos de streaming basados en tiempo de datos estructurados, semiestructurados y no estructurados. Los datos se indexan y particionan automáticamente en función del tiempo de ingesta, lo que permite realizar consultas analíticas rápidas y complejas, incluso a medida que los datos fluyen. Los datos almacenados en los almacenes de eventos pueden estar disponibles en OneLake para su uso por parte de otros procesos de Fabric. Puede consultar estos datos mediante varias opciones de código, poco código o sin código en Fabric, incluidas KQL nativas y T-SQL en el conjunto de consultas KQL.

Los paneles en tiempo real están diseñados para proporcionar información inmediata desde el streaming de datos a sus almacenes de eventos. Puede agregar varios tipos de objetos visuales a un panel, como gráficos, y personalizarlos para adaptarlos a sus necesidades. Los paneles en tiempo real sirven para identificar rápidamente tendencias y anomalías en datos de alta velocidad que llegan a un almacén de eventos. Son diferentes de los paneles de Power BI, que son adecuados para cargas de trabajo de informes de BI empresarial.

Servicio de datos

(Consulte el paso 5 del diagrama).

Hay varias opciones de poco código bajo o código profesional disponibles para consumir datos de almacenes de lagos y almacenes de eventos de Fabric.

Punto de conexión de análisis SQL

Se genera automáticamente un punto de conexión de SQL Analytics para cada almacén de lago de Fabric. Un punto de conexión de SQL Analytics es de solo lectura. Para modificar los datos, debe cambiar al modo almacén de lago y usar Spark. Puede usar el punto de conexión de SQL Analytics directamente en el portal de Fabric para consultar datos cambiando del modo almacén de lago al modo SQL de almacén de lago. Como alternativa, puede usar la cadena de conexión SQL de una instancia de almacén de lago para conectarse mediante herramientas de cliente como Power BI, Excel y SQL Server Management Studio. Esta opción es adecuada para los datos y los analistas de negocios en un equipo de datos.

Cuadernos de Spark

Los cuadernos son una forma popular de interactuar con los datos del almacén de lago. Fabric proporciona una superficie interactiva basada en web que los trabajadores de datos pueden usar para escribir código. Estos trabajos pueden aplicar visualizaciones enriquecidas y texto Markdown. Los ingenieros de datos escriben código para la ingesta, preparación y transformación de datos. Los científicos de datos usan cuadernos para la exploración de datos, para crear experimentos y modelos de aprendizaje automático, y para realizar el seguimiento e implementación de modelos. Esta opción es adecuada para ingenieros de datos profesionales y científicos de datos.

Power BI

Cada almacén de lago de Fabric incluye un modelo semántico predeterminado precompilado. Se crea automáticamente al configurar una instancia de almacén de lago y cargar datos en él. Estos modelos heredan la lógica de negocios de almacén de lago para facilitar la creación de informes y paneles de Power BI directamente dentro de la experiencia de almacén de lago. También puede crear modelos semánticos personalizados, en función de requisitos empresariales específicos, en tablas de almacén de lago. Al crear informes de Power BI en una instancia de almacén de lago, puede usar el modo de Direct Lake, que no requiere importar datos por separado. Este modo le permite obtener rendimiento en memoria en los informes sin mover los datos de la instancia de almacén de lago.

API personalizadas

Fabric proporciona una superficie de API enriquecida entre sus elementos. OneLake proporciona acceso abierto a todos los elementos de Fabric a través de las API y los SDK de Azure Data Lake Storage. Puede acceder a sus datos en OneLake a través de cualquier API, SDK o herramienta que sea compatible con el almacenamiento de lago de datos con solo usar un URI de OneLake en su lugar. Puede cargar datos en un almacén de lago mediante el Explorador de Azure Storage o leer una tabla delta a través de un acceso directo desde Azure Databricks. OneLake también admite el controlador Azure Blob Filesystem (ABFS) para mayor compatibilidad con Data Lake Storage y Azure Blob Storage. Para consumir datos de streaming en aplicaciones de bajada, puede insertar datos de secuencia de eventos en un punto de conexión de API personalizado. Después, puede consumir esta salida de streaming desde Fabric mediante Azure Event Hubs o el protocolo AMQP o Kafka.

Power Automate

Power Automate es una plataforma de aplicaciones de poco código que puede usar para automatizar tareas repetitivas y también manipular los datos. El elemento Reflex de Fabric admite flujos de Power Automate como destino. Esta integración desbloquea muchos casos de uso y permite desencadenar acciones de bajada mediante una amplia gama de conectores, tanto para sistemas de Microsoft como para los que no son de Microsoft.

Componentes

En esta solución tutorial se usan los componentes siguientes.

  • Fabric: una plataforma de análisis de datos basada en la nube de un extremo a otro diseñada para empresas. Proporciona un entorno unificado para varias tareas de datos, como la ingesta, la transformación, el análisis y la visualización de datos.

    • OneLake: el centro central de todos los datos de Fabric. Está diseñado como un lago de datos abierto, lo que significa que puede almacenar datos en su formato nativo, independientemente de la estructura.

    • Data Factory: servicio de ETL y orquestación basado en la nube para automatizar el movimiento y la transformación de los datos. Permite automatizar el movimiento y la transformación de datos a escala en varios orígenes de datos.

    • Ingeniería de datos: herramientas que permiten la recopilación, el almacenamiento, el procesamiento y el análisis de grandes volúmenes de datos.

    • Ciencia de datos: herramientas que permiten completar flujos de trabajo de ciencia de datos de un extremo a otro para el enriquecimiento de datos y obtener información empresarial.

    • Inteligencia en tiempo real: un servicio que proporciona funcionalidades de procesamiento e ingesta de flujos. Permite obtener información de los datos que fluyen constantemente para permitir una toma de decisiones más rápida basada en tendencias y anomalías en tiempo real.

    • Copilot: herramienta que puede usar para analizar datos, generar información y crear visualizaciones e informes en Fabric y Power BI mediante lenguaje natural.

  • Power BI: una herramienta de inteligencia empresarial para crear paneles e informes interactivos para visualizar datos y obtener información.

Alternativas

Fabric ofrece un conjunto sólido de herramientas, pero, en función de sus necesidades específicas, puede beneficiarse de la funcionalidad mejorada que proporcionan los servicios alternativos en el ecosistema de Azure.

  • Azure Databricks puede reemplazar o complementar las funcionalidades nativas de ingeniería de datos de Fabric. Azure Databricks ofrece una alternativa para el procesamiento de datos a gran escala proporcionando un entorno de Apache Spark basado en la nube. Azure Databricks también proporciona gobernanza común en todo el patrimonio de datos y funcionalidades para habilitar casos de uso clave, como la ciencia de datos, la ingeniería de datos, el aprendizaje automático, la inteligencia artificial y el análisis basado en SQL.

  • Azure Machine Learning puede reemplazar o complementar las herramientas nativas de Ciencia de datos Fabric. Machine Learning va más allá de las funcionalidades de experimentación y administración de modelos en Fabric mediante la adición de funcionalidades para permitirle hospedar modelos para casos de uso de inferencia en línea, supervisar modelos para el desfase y crear aplicaciones personalizadas de inteligencia artificial generativa.

Detalles del escenario

Esta arquitectura es aplicable a los siguientes escenarios:

  • Organizaciones que empiezan de cero sin limitaciones de sistemas heredados.
  • Organizaciones que prevén volúmenes de datos entre 0,5 TB y 1,5 TB.
  • Organizaciones que prefieren un patrón simple y simplificado que equilibre las consideraciones de coste, complejidad y rendimiento.
  • Organizaciones que necesitan una plataforma de datos sencilla, rentable y de alto rendimiento que aborde los requisitos de informes, análisis y aprendizaje automático.
  • Organizaciones que quieren integrar datos de varios orígenes para una vista unificada.

Esta solución no se recomienda para:

  • Equipos con un fondo de base de datos SQL o relacional que tienen aptitudes limitadas en Apache Spark.
  • Organizaciones que van a migrar desde un sistema heredado o un almacenamiento de datos a una plataforma moderna.

Consideraciones

Estas consideraciones implementan los pilares del marco de buena arquitectura de Azure, que es un conjunto de principios guía que se pueden usar para mejorar la calidad de una carga de trabajo. Para más información, consulte Marco de buena arquitectura de Microsoft Azure.

Confiabilidad

La confiabilidad garantiza que tu aplicación puede cumplir los compromisos contraídos con los clientes. Para obtener más información, consulte Lista de comprobación de revisión de diseño para confiabilidad.

Fabric replica automáticamente los recursos en zonas de disponibilidad sin necesidad de ninguna configuración. Por ejemplo, durante una interrupción de toda la zona, no se requiere ninguna acción con fines de recuperación de zona. En regiones admitidas, Fabric puede recuperarse automáticamente y reequilibrar automáticamente para aprovechar las ventajas de una zona correcta.

Seguridad

La seguridad proporciona garantías contra ataques deliberados y el abuso de datos y sistemas valiosos. Para obtener más información, consulte Lista de comprobación de revisión de diseño para seguridad.

Puede usar Fabric para administrar, controlar y auditar su configuración de seguridad de acuerdo con sus necesidades y demandas cambiantes. Entre las recomendaciones de seguridad clave para usar Fabric se incluyen:

  • Autenticación. Configure el inicio de sesión único (SSO) en Microsoft Entra ID para proporcionar acceso desde varios dispositivos y ubicaciones.

  • Control de acceso basado en roles (RBAC). Implemente el control de acceso basado en el área de trabajo para administrar quién puede acceder a los conjuntos de datos específicos e interactuar con ellos.

  • Seguridad de red. Use los controles de seguridad de red entrantes y salientes de Fabric al conectarse a datos o servicios dentro o fuera de la red. Entre las características clave se incluyen el acceso condicional, los vínculos privados, el acceso al área de trabajo de confianza y los puntos de conexión privados administrados.

  • Registros de auditoría. Use los registros de auditoría detallados proporcionados por Fabric para realizar un seguimiento de las actividades del usuario y garantizar la responsabilidad en toda la plataforma.

Para obtener más información, consulte Seguridad en Microsoft Fabric.

Optimización de costos

La optimización de costes trata de reducir los gastos innecesarios y mejorar las eficiencias operativas. Para obtener más información, consulte Información general del pilar de optimización de costes.

Fabric ofrece reservas de capacidad para un número determinado de unidades de capacidad (CU). Las reservas de capacidad pueden ayudarle a ahorrar costes al confirmar una reserva para el uso de capacidad de Fabric durante un año.

Para maximizar el uso de la capacidad de Fabric, tenga en cuenta las siguientes recomendaciones:

  • Defina el tamaño adecuado de las SKU de F. Para determinar el tamaño de capacidad adecuado, puede aprovisionar capacidades de prueba o SKU F de pago por uso para medir el tamaño de capacidad real que necesita antes de comprar una instancia reservada de SKU F. Se recomienda realizar una prueba de concepto con ámbito con una carga de trabajo representativa, supervisar el uso de CU y, a continuación, extrapolar para llegar a una estimación del uso de CU para producción. Fabric proporciona escalado sin problemas. Puede empezar con un tamaño de capacidad conservador y escalar verticalmente si necesita más capacidad.
  • Supervise los patrones de uso. Realice un seguimiento y analice periódicamente el consumo para identificar las horas punta y las horas valle. Si lo hace, puede ayudarle a comprender cuándo se usan los recursos para que pueda programar tareas no críticas durante las horas de poca actividad para evitar picos en el uso de CU.
  • Optimice las consultas y las cargas de trabajo. Asegúrese de que las consultas y las cargas de trabajo están optimizadas para reducir el consumo innecesario de los procesos. Optimice las consultas DAX, el código de Python y otras operaciones.
  • Use expansión y suavizado. Use las características de expansión y suavizado de Fabric para controlar las actividades intensivas de CPU sin necesidad de una SKU superior. Si lo hace, puede ayudarle a administrar los costes mientras mantiene el rendimiento. Para obtener más información, consulte Evaluación y optimización de la capacidad de Fabric.
  • Configure alertas y notificaciones. Configure alertas proactivas para que los administradores de capacidad puedan supervisar y administrar un uso elevado de los procesos. Si lo hace, podrá tomar medidas a tiempo para evitar sobrecostes.
  • Implemente la administración de cargas de trabajo. Programe los trabajos de ejecución de registros en momentos escalonados en función de la disponibilidad de recursos y la demanda del sistema para optimizar el uso de la capacidad. Para obtener más información, consulte Administración de carga de trabajo.

Tenga en cuenta también estas consideraciones:

  • Los precios de Data Lake Storage dependen de la cantidad de datos que almacene y de la frecuencia con la que los use. Los precios de ejemplo incluyen 1 TB de datos almacenados, con más suposiciones transaccionales. 1 TB hace referencia al tamaño del lago de datos, no al tamaño original de la base de datos heredada.
  • Los precios de Fabric se basan en el precio de la capacidad de SKU de Fabric F o el precio Premium por usuario. Las funcionalidades sin servidor consumen CPU y memoria de la capacidad dedicada comprada.
  • Event Hubs factura en función del nivel, las unidades de procesamiento aprovisionadas y el tráfico de entrada recibido. En el ejemplo se supone que hay una unidad de procesamiento en el nivel estándar en más de un millón de eventos durante un mes.

Excelencia operativa

La excelencia operativa abarca los procesos de las operaciones que implementan una aplicación y la mantienen en ejecución en producción. Para obtener más información, consulte la Lista de comprobación de revisión de diseño para la excelencia operativa.

Fabric proporciona muchos componentes que le ayudarán a administrar la plataforma de datos. Cada uno de estos componentes admite operaciones únicas que puede ver en la Capacity Metrics app de Microsoft Fabric. Utilice la Capacity Metrics app de Fabric para supervisar el consumo de capacidad y tomar decisiones informadas sobre cómo utilizar los recursos de capacidad.

Eficiencia del rendimiento

La eficiencia del rendimiento es la capacidad de la carga de trabajo para escalar con el fin de satisfacer de manera eficiente las demandas que los usuarios hayan ejercido sobre ella. Para obtener más información, consulte Lista de comprobación de revisión de diseño para la eficiencia del rendimiento.

Fabric proporciona varias características para optimizar el rendimiento en sus componentes. Estas herramientas y prácticas pueden ayudarle a administrar los recursos de proceso de forma eficaz, evitar la sobrecarga y tomar decisiones fundamentadas sobre el escalado y la optimización de cargas de trabajo.

Algunas funcionalidades clave de eficiencia del rendimiento en Fabric incluyen:

  • Expansión y suavizado, para garantizar que las actividades que hacen un uso intensivo de la CPU se completen rápidamente sin necesidad de una SKU superior. Programe estas actividades en cualquier momento del día.

  • Limitación, para retrasar o rechazar operaciones cuando la capacidad experimenta una demanda de CPU sostenida que supera el límite de SKU.

  • La Capacity Metrics app de Fabric, para visualizar el uso de la capacidad, optimizar el rendimiento de los artefactos y optimizar los elementos de proceso altos. La aplicación diferencia entre las operaciones interactivas (como las consultas DAX) y las operaciones en segundo plano (como las actualizaciones semánticas del modelo) para las optimizaciones dirigidas.

Colaboradores

Microsoft mantiene este artículo. Originalmente lo escribieron los siguientes colaboradores.

Creadores de entidad de seguridad:

Para ver los perfiles no públicos de LinkedIn, inicie sesión en LinkedIn.

Pasos siguientes