Recomendaciones de gobernanza para cargas de trabajo de IA en Azure
En este artículo se ofrecen recomendaciones de gobernanza para organizaciones que ejecutan cargas de trabajo de IA en Azure. Se centra en las soluciones de plataforma como servicio (PaaS) de IA de Azure, incluidos Inteligencia artificial de Azure Studio, Azure OpenAI, Azure Machine Learning y Azure AI Services. Cubre cargas de trabajo de IA generativas y no generativas.
Una gobernanza eficaz apoya el uso responsable de la IA. Permite a las empresas optimizar sus inversiones en IA a la vez que reducen los riesgos asociados a la seguridad, los costes y el cumplimiento normativo.
Controlar los modelos de IA
La gobernanza de los modelos de IA se refiere a los procesos de administración de los modelos de IA para garantizar que producen resultados fiables, seguros y éticos. Los controles sobre las entradas y salidas de los modelos ayudan a mitigar los riesgos. Estos riesgos incluyen el contenido dañino y el uso no intencionado de la IA. Ambos pueden afectar a los usuarios y a la organización. Estos procesos son compatibles con la implementación responsable de la IA y protegen frente a posibles problemas legales y éticos.
Establezca un proceso para detectar los riesgos de la IA. Utilice herramientas como Defender for Cloud para descubrir cargas de trabajo de IA generativa y explorar los riesgos de los artefactos de IA generativa previos a la implementación. Establezca una política para someter periódicamente los modelos de IA generativa a equipos de alerta. Documente los riesgos identificados y actualice continuamente sus políticas de gobernanza de la IA para mitigar los problemas emergentes.
Defina filtros de contenido de referencia para los modelos de IA generativa. Utilice Azure AI Content Safety para definir un filtro de contenido de referencia para sus modelos de IA aprobados. Este sistema de seguridad ejecuta tanto la solicitud como la finalización de su modelo a través de un grupo de modelos de clasificación. Estos modelos de clasificación detectan y ayudan a evitar la salida de contenido dañino en una serie de categorías. La seguridad de contenidos ofrece funciones como el blindaje de avisos, la detección de la conexión a tierra y la detección de texto con material protegido. Analiza imágenes y texto. Cree un proceso para que los equipos de aplicaciones comuniquen las distintas necesidades de gobernanza.
Base modelos generativos de IA. Utilice mensajes del sistema y el patrón de generación aumentada de recuperación (RAG) para gobernar la salida de los modelos generativos de IA. Pruebe la eficacia de la conexión a tierra utilizando herramientas como flujo de avisos o el marco de trabajo de equipos de alerta de código abierto PyRIT.
Controlar los costes de la IA
La gobernanza de los costes de la IA implica la administración de los gastos asociados a las cargas de trabajo de la IA para maximizar la eficiencia y reducir el gasto innecesario. Un control eficaz de los costes garantiza que las inversiones en IA se alineen con los objetivos empresariales, lo que evita costes imprevistos derivados del exceso de aprovisionamiento o la infrautilización. Estas prácticas permiten a las organizaciones optimizar financieramente sus operaciones de IA.
Utilice el modelo de facturación adecuado. Si tiene cargas de trabajo predecibles, utilice niveles de compromiso de IA en los servicios de IA de Azure. Para los modelos Azure OpenAI, utilice unidades de rendimiento provisionadas (PTU), que pueden ser menos costosas que los precios de pago por uso (basados en el consumo). Es habitual combinar puntos de conexión PTU y un punto de conexión basado en el consumo para optimizar los costes. Utilice PTU en el punto de conexión primario del modelo de IA y un punto de conexión secundario de IA basado en el consumo para el desbordamiento. Para obtener más información, consulte Introducir una puerta de enlace para varias instancias de Azure OpenAI.
Elija el modelo adecuado para su caso práctico. Seleccione el modelo de IA que satisfaga sus necesidades sin incurrir en costes excesivos. Utilice modelos menos costosos a menos que el caso práctico exija un modelo más caro. Para un ajuste más preciso, maximice el tiempo de uso dentro de cada periodo de facturación para evitar cargos adicionales. Para obtener más información, consulte Modelos y precios de Azure OpenAI. Consulte también el catálogo de modelos y la información de facturación de Inteligencia artificial de Azure Studio para las implementaciones de modelos.
Establezca límites de aprovisionamiento. Asigne cuotas de aprovisionamiento para cada modelo en función de las cargas de trabajo previstas para evitar costes innecesarios. Supervise continuamente las cuotas dinámicas para asegurarse de que coinciden con la demanda real y ajústelas en consecuencia para mantener un rendimiento óptimo sin gastar de más.
Utilice el tipo de implementación adecuado. Los modelos de Azure OpenAI le permiten utilizar diferentes tipos de implementación. La implementación global ofrece precios más bajos por token en determinados modelos de OpenAI.
Evalúe las opciones de hosting. Elija la infraestructura de hosting adecuada en función de las necesidades de su solución. Por ejemplo, para cargas de trabajo de IA generativa, las opciones incluyen puntos de conexión en línea administrados, Azure Kubernetes Service (AKS) y Azure App Service, cada uno con su propio modelo de facturación. Seleccione la opción que ofrezca el mejor equilibrio entre rendimiento y coste para sus requisitos específicos.
Controle el comportamiento de los clientes en los servicios basados en el consumo. Limite el acceso de los clientes a su servicio de IA aplicando protocolos de seguridad como controles de red, claves y control de acceso basado en roles (RBAC). Asegúrese de que los clientes utilizan las restricciones de la API como tokens máximos y finalizaciones máximas. Cuando sea posible, realice solicitudes por lotes para optimizar la eficiencia. Mantenga las solicitudes concisas, pero proporcione el contexto necesario para reducir el consumo de tokens.
Considere la posibilidad de utilizar una pasarela de IA generativa. Una puerta de enlace de IA generativa le permite realizar un seguimiento del uso de tokens, limitar el uso de tokens, aplicar disyuntores y enrutar a diferentes puntos de conexión de IA para controlar los costes.
Cree una política para apagar las instancias de procesos. Defina y aplique una política que establezca que los recursos de IA deben utilizar la función de apagado automático en máquinas virtuales e instancias de cálculo en Inteligencia artificial de Azure Studio y Azure Machine Learning. El apagado automático es aplicable a los entornos que no son de producción y a las cargas de trabajo de producción que puede desconectar durante determinados períodos de tiempo.
Para obtener más orientación sobre la administración de costes, consulte Administración de costes de IA y optimización de costes en la arquitectura de base de Azure OpenAI.
Controlar plataformas de IA
La gobernanza de plataformas de IA incluye la aplicación de controles de políticas a varios servicios de IA en Azure, como Inteligencia artificial de Azure Studio y Azure Machine Learning. El uso de la gobernanza a nivel de plataforma impone políticas coherentes de seguridad, cumplimiento y funcionamiento en todo el ecosistema de IA. Esta alineación favorece una supervisión eficaz, que refuerza la administración y la fiabilidad generales de la IA.
Utilice políticas de gobierno integradas. Utilice Azure Policy para aplicar definiciones de políticas integradas para cada plataforma de IA que utilice. Incluye Inteligencia artificial de Azure Studio, Azure Machine Learning, Servicios de Azure AI, Búsqueda de Azure AI y otros.
Habilite las políticas de IA de la zona de aterrizaje de Azure. Para los usuarios de la zona de aterrizaje de Azure, la implementación incluye un conjunto curado de políticas integradas recomendadas para los servicios de la plataforma Azure AI. Seleccione la iniciativa de políticas que desea utilizar en la categoría Cumplimiento específico de la carga de trabajo durante una implementación de la zona de aterrizaje de Azure. Los conjuntos de políticas incluyen Azure OpenAI, Azure Machine Learning y Búsqueda de Azure AI, y los servicios Azure Bot.
Controlar la seguridad de la IA
La gobernanza de la seguridad de la IA aborda la necesidad de proteger las cargas de trabajo de IA frente a amenazas que podrían poner en peligro los datos, los modelos o la infraestructura. Las prácticas de seguridad sólidas protegen estos sistemas contra el acceso no autorizado y las violaciones de datos. Esta protección garantiza la integridad y fiabilidad de las soluciones de IA, lo cual es esencial para mantener la confianza de los usuarios y el cumplimiento normativo.
Active Defender for Cloud en cada suscripción. Defender for Cloud proporciona un enfoque rentable para detectar configuraciones en sus recursos desplegados que no son seguras. También debe activar la protección contra amenazas de IA.
Configuración del control de acceso. Conceda a los usuarios con menos privilegios acceso a los recursos de IA centralizados. Por ejemplo, comience con la función Reader Azure y ascienda a la función Contributor Azure si los permisos limitados ralentizan el desarrollo de la aplicación.
Usar las identidades administradas. Utilice la identidad administrada en todos los servicios Azure compatibles. Conceda el acceso con menos privilegios a los recursos de la aplicación que necesiten acceder a los puntos de conexión del modelo de IA.
Utilice el acceso justo a tiempo. Utilice Privileged Identity Management (PIM) para el acceso justo a tiempo.
Controlar las operaciones de IA
La gobernanza de las operaciones de IA se centra en la administración y el mantenimiento de servicios de IA estables. Estas operaciones respaldan la fiabilidad y el rendimiento a largo plazo. La supervisión centralizada y los planes de continuidad ayudan a las organizaciones a evitar el tiempo de inactividad, lo que garantiza el valor empresarial constante de la IA. Estos esfuerzos contribuyen a un despliegue eficiente de la IA y a una eficacia operativa sostenida.
Revisar y administrar los modelos de IA. Desarrolle una política para administrar las versiones de los modelos, especialmente a medida que se actualizan o retiran. Es necesario mantener la compatibilidad con los sistemas existentes y garantizar una transición fluida entre las versiones de los modelos.
Defina un plan de continuidad de la actividad y de recuperación en caso de catástrofe. Establezca una política de continuidad de negocio y recuperación ante desastres para sus puntos de conexión de IA y sus datos de IA. Configure la recuperación ante desastres de referencia para los recursos que alojan sus puntos de conexión del modelo de IA. Estos recursos incluyen Inteligencia artificial de Azure Studio, Azure Machine Learning, Azure OpenAI o los Servicios de Azure AI Todos los almacenes de datos de Azure, como Azure Blob Storage, Azure Cosmos DB y Azure SQL Database, proporcionan directrices de fiabilidad y recuperación ante desastres que debe seguir.
Defina métricas de referencia para los recursos de IA. Habilite las reglas de alerta recomendadas para recibir notificaciones de desviaciones que indiquen un deterioro del estado de la carga de trabajo. Para obtener ejemplos, consulte Búsqueda de Azure AI, Azure Machine Learning, Implementaciones de flujo de avisos de Inteligencia artificial de Azure Studio e indicaciones sobre los servicios individuales de Azure AI.
Gobernanza del cumplimiento normativo de la inteligencia artificial
El cumplimiento normativo en IA requiere que las organizaciones sigan los estándares del sector y las obligaciones legales, lo que reduce los riesgos relacionados con las responsabilidades y genera confianza. Las medidas de cumplimiento ayudan a las organizaciones a evitar sanciones y mejorar la credibilidad ante clientes y reguladores. La adhesión a estas normas establece una base sólida para el uso responsable y conforme de la IA.
Automatice el cumplimiento. Utilice Microsoft Purview Compliance Manager para evaluar y administrar el cumplimiento en todos los entornos de nube. Utilice las iniciativas de cumplimiento normativo aplicables en Azure Policy para su sector. Aplique otras políticas basadas en los servicios de IA que utilice, como Inteligencia artificial de Azure Studio y Azure Machine Learning.
Desarrolle listas de comprobación de cumplimiento específicas del sector. Los reglamentos y las normas difieren según el sector y la ubicación. Debe conocer sus requisitos normativos y compilar listas de comprobación que reflejen las exigencias normativas que son relevantes para su sector. Utilice normas, como ISO/IEC 23053:2022 (Marco para sistemas de inteligencia artificial que utilizan aprendizaje automático), para auditar las políticas que se aplican a sus cargas de trabajo de IA.
Gobernanza de los datos de inteligencia artificial
El gobierno de los datos de IA implica políticas para garantizar que los datos que se introducen en los modelos de IA son adecuados, conformes y seguros. El gobierno de datos protege la privacidad y la propiedad intelectual, lo que mejora la fiabilidad y calidad de los resultados de la IA. Estas medidas ayudan a mitigar los riesgos relacionados con el uso indebido de los datos y se ajustan a las normas reguladoras y éticas.
Establezca un proceso para catalogar los datos. Utilice una herramienta como Microsoft Purview para implantar un Data Catalog unificado y un sistema de clasificación en toda la organización. Integre estas políticas en sus procesos CI/CD para el desarrollo de IA.
Mantenga los límites de seguridad de los datos. Catalogar los datos ayuda a garantizar que no se introducen datos confidenciales en los puntos de conexión de IA de cara al público. Al crear índices a partir de determinadas fuentes de datos, el proceso de indexación puede eliminar los límites de seguridad en torno a los datos. Asegúrese de que todos los datos introducidos en los modelos de IA se clasifican y examinan de acuerdo con normas centralizadas.
Evite las infracciones de derechos de autor. Utilice un sistema de filtrado de contenidos como la detección de material protegido en Seguridad del contenido de Azure AI para filtrar el material protegido por derechos de autor. Si está creando, entrenando o ajustando un modelo de IA, asegúrese de que utiliza datos obtenidos legalmente y con las licencias adecuadas, e implemente salvaguardas para evitar que el modelo infrinja los derechos de autor. Revise periódicamente los resultados para comprobar el cumplimiento de la propiedad intelectual.
Implante un control de versiones para los datos de puesta a tierra. Establezca un proceso de control de versiones para los datos de base, por ejemplo, en el GAR. El control de versiones garantiza el seguimiento de cualquier cambio en los datos subyacentes o en su estructura. Puede revertir los cambios si es necesario, lo que ayuda a mantener la coherencia en todas las implantaciones.