Inteligencia artificial segura: proceso para proteger la inteligencia artificial
En este artículo se describe el proceso organizativo para proteger cargas de trabajo de inteligencia artificial. Se centra en la confidencialidad, integridad y disponibilidad (CIA) de la IA. Las prácticas de seguridad efectivas reducen el riesgo de compromiso salvaguardando la confidencialidad, integridad y disponibilidad de los datos y modelos de IA. Un entorno de IA seguro también se alinea con los objetivos de seguridad de la empresa y aumenta la confianza en los procesos impulsados por la IA.
Evaluar los riesgos de seguridad de la IA
Evalúe los riesgos de seguridad de la IA implica identificar y evaluar las vulnerabilidades potenciales que podrían afectar a las cargas de trabajo de la IA. Abordar estos riesgos de forma proactiva ayuda a evitar infracciones, manipulaciones y usos indebidos, lo que refuerza la fiabilidad de las aplicaciones de IA. Este enfoque también respalda los objetivos de la organización al proteger los datos confidenciales y mantener la confianza de las partes interesadas.
Identificar los riesgos de seguridad comunes de la IA. Utilice recursos reconocidos como MITRE ATLAS, OWASP Machine Learning risk y OWASP Generative AI risk para evaluar regularmente los riesgos en todas las cargas de trabajo de IA. Para la administración continua de la postura de seguridad, considere el uso de herramientas de seguridad de IA como la administración de la postura de seguridad de IA en Microsoft Defender for Cloud. Estas herramientas pueden automatizar la detección y corrección de los riesgos generativos de la IA.
Identificar los riesgos de datos. La pérdida o exposición de datos confidenciales puede tener un impacto significativo en las partes interesadas y en las obligaciones de cumplimiento de su organización. Utilice herramientas para toda la empresa como Administración de riesgos internos en Microsoft Purview para evaluar el riesgo interno y mantener la seguridad de los datos en toda la empresa. En todas las cargas de trabajo de IA, clasifique y priorice los riesgos en función de la sensibilidad de los datos que procesan, almacenan o transmiten.
Realice modelos de amenazas de IA. Realice modelos de amenazas de IA en toda la empresa utilizando marcos como STRIDE para evaluar los posibles vectores de ataque para todas las cargas de trabajo de IA. Actualice los modelos de amenazas con regularidad para adaptarse a los nuevos casos práctico y amenazas de la IA. El centro de excelencia de IA debería considerar la posibilidad de centralizar el modelado de amenazas de IA para garantizar un enfoque uniforme en toda la organización y mitigar los riesgos asociados a los distintos modelos, fuentes de datos y procesos de IA.
Pruebe los modelos de IA. Realice pruebas de equipo rojo con modelos de IA generativos y no generativos para evaluar su vulnerabilidad a los ataques. Herramientas como PyRIT pueden automatizar este proceso para la IA generativa, de modo que pueda cuestionar los resultados del modelo en diversas condiciones. Este paso es muy técnico y requiere conocimientos especializados para llevarlo a cabo con eficacia.
Implementar controles de seguridad de la IA
Implementar controles de seguridad de la IA significa establecer políticas, procedimientos y herramientas que protejan los recursos y datos de la IA. Estos controles ayudan a garantizar el cumplimiento de los requisitos normativos y protegen contra el acceso no autorizado, respaldando el funcionamiento continuo y la privacidad de los datos. Cuando aplica controles coherentes en todas las cargas de trabajo de IA, puede administrar la seguridad de forma más eficaz.
Proteger los recursos de IA
La seguridad de los recursos de IA incluye la administración y protección de los sistemas, modelos e infraestructura que soportan las aplicaciones de IA. Este paso reduce la probabilidad de acceso no autorizado y ayuda a estandarizar las prácticas de seguridad en toda la organización. Un inventario exhaustivo de los recursos permite una aplicación coherente de las políticas de seguridad y refuerza el control general de los activos de IA.
Establezca un inventario centralizado de activos de IA. Mantener un inventario detallado y actualizado de sus recursos de carga de trabajo de IA garantiza que pueda aplicar las políticas de seguridad de manera uniforme a todas las cargas de trabajo de IA. Recopile un inventario de toda la empresa de todos los sistemas, modelos, conjuntos de datos e infraestructura de IA en Azure. Utilice herramientas como Azure Resource Graph Explorer y Microsoft Defender for Cloud para automatizar el proceso de descubrimiento. Microsoft Defender for Cloud puede detectar cargas de trabajo de IA generativas y en artefactos de IA generativos previos a la implementación.
Proteja las plataformas de IA de Azure. Estandarice la aplicación de las líneas de base de seguridad de Azure para cada recurso de IA. Siga las recomendaciones de seguridad de las Guías de servicio de Azure.
Utilice directrices de gobernanza específicas para la carga de trabajo. Existen directrices de seguridad detalladas para las cargas de trabajo de IA en los servicios de plataforma Azure (PaaS) y la infraestructura Azure (IaaS). Utilice esta guía para proteger los modelos, recursos y datos de IA dentro de estos tipos de cargas de trabajo.
Proteger los datos de IA
Proteger los datos de IA implica proteger los datos que los modelos de IA utilizan y generan. Las prácticas eficaces de seguridad de datos ayudan a evitar el acceso no autorizado, las fugas de datos y las infracciones de cumplimiento. Controlar el acceso a los datos y mantener un catálogo detallado también ayuda a tomar decisiones informadas y reduce el riesgo de exponer información confidencial.
Defina y mantenga los límites de los datos. Asegúrese de que las cargas de trabajo de IA utilizan datos apropiados para su nivel de acceso. Las aplicaciones de IA accesibles a todos los empleados solo deben procesar datos adecuados para todos los empleados. Las aplicaciones de IA orientadas a Internet deben utilizar datos apropiados para el consumo público. Utilice conjuntos de datos o entornos separados para las distintas aplicaciones de IA a fin de evitar el acceso involuntario a los datos. Considere la posibilidad de utilizar el conjunto de herramientas de seguridad de datos de Microsoft Purview para proteger sus datos.
Implemente estrictos controles de acceso a los datos. Asegúrese de que las aplicaciones verifican que los usuarios finales están autorizados a acceder a los datos implicados en sus consultas. Evite amplios permisos del sistema para las acciones de los usuarios. Opere bajo el principio de que si la IA puede acceder a cierta información, el usuario debería estar autorizado a acceder a ella directamente.
Mantener un Data Catalog. Mantenga un catálogo actualizado de todos los datos conectados a los sistemas de IA y consumidos por ellos, incluidas las ubicaciones de almacenamiento y los detalles de acceso. Escanee y etiquete los datos con regularidad para realizar un seguimiento de los niveles de sensibilidad e idoneidad, lo que ayuda en el análisis y la identificación de riesgos. Considere la posibilidad de utilizar Data Catalog de Microsoft Purview para asignar y controlar sus datos.
Cree un plan de administración de cambios en la sensibilidad de los datos. Realice un seguimiento de los niveles de sensibilidad de los datos, ya que pueden cambiar con el tiempo. Utilice su Data Catalog para supervisar la información utilizada en las cargas de trabajo de IA. Implemente un proceso para encontrar y eliminar datos confidenciales de las cargas de trabajo de IA.
Proteja los artefactos de IA. Reconozca los modelos y conjuntos de datos de IA como propiedad intelectual valiosa e implemente medidas para protegerlos en consecuencia. Almacene los modelos y conjuntos de datos de IA detrás de puntos de conexión privados y en entornos seguros como Azure Blob Storage y espacios de trabajo dedicados. Aplique políticas de acceso estrictas y cifrado para proteger los artefactos de IA contra el acceso no autorizado o el robo para evitar la intoxicación de datos.
Proteja los datos confidenciales. Cuando la fuente de datos original no sea apta para su uso directo, utilice duplicados, copias locales o subconjuntos que contengan únicamente la información necesaria. Procese los datos confidenciales en entornos controlados que cuenten con aislamiento de red y rigurosos controles de acceso para evitar accesos no autorizados o fugas de datos. Además, implemente medidas de seguridad completas como el cifrado, la supervisión continua y los sistemas de detección de intrusos para protegerse contra las filtraciones de datos durante el procesamiento.
Mantener los controles de seguridad de la IA
El mantenimiento de los controles de seguridad de la IA incluye la supervisión, comprobación y actualización continuas de las medidas de seguridad para hacer frente a las amenazas cambiantes. La revisión periódica de los controles de seguridad garantiza que las cargas de trabajo de IA permanezcan protegidas y que la organización pueda adaptarse a los nuevos riesgos. El mantenimiento proactivo ayuda a prevenir las brechas y mantiene la confianza en los sistemas de IA a lo largo del tiempo.
Implemente pruebas de fuga de datos y coacción en los sistemas de IA. Realice pruebas rigurosas para determinar si se pueden filtrar o coaccionar datos confidenciales a través de los sistemas de IA. Realice pruebas de prevención de pérdida de datos (DLP) y simule escenarios de ataque específicos de IA. Simular la inversión de modelos o ataques de adversarios para evaluar la resistencia de las medidas de protección de datos. Garantizar que los modelos de IA y los procesos de manipulación de datos son seguros frente al acceso y la manipulación no autorizados es fundamental para mantener la integridad de los datos y la confianza en las aplicaciones de IA.
Proporcione a los empleados formación y concienciación centradas en la IA. Ofrezca programas de formación a todos los empleados que participen en proyectos de IA. Destaque la importancia de la seguridad de los datos y las mejores prácticas específicas para el desarrollo y la implantación de la IA. Enseñe al personal a manejar los datos confidenciales que se utilizan en la formación y a reconocer amenazas como la inversión de modelos o los ataques de intoxicación de datos. La formación periódica garantiza que los miembros del equipo conozcan los últimos protocolos de seguridad de la IA y comprendan su papel en el mantenimiento de la integridad de las cargas de trabajo de la IA.
Desarrolle y mantenga un plan de respuesta a incidentes para incidentes de seguridad de IA. Cree una estrategia de respuesta a incidentes adaptada a los sistemas de IA para hacer frente a posibles violaciones de datos o incidentes de seguridad. El plan debe esbozar procedimientos claros para detectar, notificar y mitigar los incidentes de seguridad que puedan afectar a los modelos, datos o infraestructuras de IA. Realice simulacros y simulaciones regulares centrados en escenarios específicos de IA para garantizar que el equipo de respuesta está preparado para administrar eficazmente los incidentes de seguridad de IA del mundo real.
Realizar evaluaciones de riesgos periódicas. Evalúe periódicamente las amenazas y vulnerabilidades emergentes específicas de la IA mediante evaluaciones de riesgos y análisis de impacto. Estas evaluaciones ayudan a identificar los nuevos riesgos asociados a los modelos de IA, los procesos de tratamiento de datos y los entornos de implementación. Las evaluaciones también valoran los efectos potenciales de las brechas de seguridad en los sistemas de IA.
Pasos siguientes
Controlar la IA, administrar la IA y Proteger la IA son procesos continuos que debe repetir periódicamente. Revise cada estrategia de IA, plan de IA y preparación para la IA según sea necesario. Utilice las listas de comprobación de adopción de IA para determinar cuál debe ser su siguiente paso.