Identificación de los principios rectores para un manejo responsable de la inteligencia artificial

Completado

En la última unidad, analizamos algunas de las implicaciones sociales de la inteligencia artificial. Hablamos de la responsabilidad de las empresas, los gobiernos, las ONG y los investigadores académicos de anticipar y mitigar las consecuencias involuntarias de la tecnología de inteligencia artificial. A medida que las organizaciones consideran estas responsabilidades, más son la creación de directivas y prácticas internas para guiar sus esfuerzos de inteligencia artificial.

En Microsoft hemos identificado seis principios que, en nuestra opinión, deberían regir el desarrollo y el uso de la IA: imparcialidad, confiabilidad y seguridad, privacidad y seguridad, inclusión, transparencia y responsabilidad. Para nosotros, estos principios son la piedra angular de un acercamiento responsable y de confianza a la IA, especialmente ahora que la tecnología inteligente es cada vez más frecuente en los productos y servicios de uso cotidiano.

Imparcialidad

Icono que representa la equidad.

Los sistemas de inteligencia artificial deben tratar a todo el mundo de forma imparcial y evitar afectar a grupos de personas en situaciones similares de maneras diferentes. Por ejemplo, cuando los sistemas de inteligencia artificial proporcionen orientación sobre tratamiento médico, solicitudes de crédito o empleo, deben realizar las mismas recomendaciones para todas las personas con síntomas, situaciones financieras o cualificaciones profesionales similares.

Para garantizar la equidad en el sistema de inteligencia artificial, debe hacer lo siguiente:

  • Entienda el ámbito, el espíritu y los posibles usos del sistema de inteligencia artificial mediante la formulación de preguntas como: ¿cómo va a funcionar el sistema? ¿Para quién se ha diseñado el sistema? ¿El sistema va a funcionar para todo el mundo por igual? ¿Cómo puede dañar a otros?
  • Atraiga a un grupo diverso de talentos. Asegúrese de que el equipo de diseño refleje el mundo en el que vivimos mediante la inclusión de miembros con formación, experiencia, educación y perspectivas diferentes.
  • Identifique el sesgo de los conjuntos de datos mediante la evaluación de la procedencia de los datos, la comprensión de cómo están organizados y la realización de pruebas para asegurarse de que están representados. El sesgo se puede incorporar en cada fase de la creación, desde la recopilación, pasando por el modelado hasta el funcionamiento. El panel de IA responsable, disponible en la sección de recursos, incluye una característica que le ayudará con esta tarea.
  • Identifique el sesgo en los algoritmos de aprendizaje automático mediante la aplicación de herramientas y técnicas que mejoran la transparencia y la inteligibilidad de los modelos. Los usuarios deben identificar y quitar activamente el sesgo en los algoritmos de aprendizaje automático.
  • Aproveche la revisión humana y la experiencia en el dominio. Forme a los empleados para que comprendan el significado y las implicaciones de la inteligencia artificial, especialmente cuando se usa para tomar decisiones consecuentes sobre las personas. Las decisiones que usan la inteligencia artificial siempre deben combinarse con la revisión humana. Incluya expertos en la materia pertinentes en el proceso de diseño y en las decisiones de implementación. Un ejemplo sería incluir un experto en materia de crédito de consumidor para un sistema de inteligencia artificial de puntuación de crédito. Debe usar la inteligencia artificial como copiloto, es decir, una herramienta de asistencia que le ayude a hacer su trabajo mejor y más rápido, pero requiere cierto grado de supervisión.
  • Investigue y emplee procedimientos recomendados, técnicas de análisis y herramientas de otras instituciones y empresas para ayudar a detectar, evitar y solucionar el sesgo en los sistemas de inteligencia artificial.

Confiabilidad y seguridad

Icono que representa la confiabilidad.

Para generar confianza, es fundamental que los sistemas de inteligencia artificial funcionen de forma confiable, segura y coherente en circunstancias normales y en situaciones inesperadas. Estos sistemas deben ser capaces de funcionar según su diseño original, responder de forma segura a situaciones inesperadas y resistir la manipulación perjudicial. También es importante poder comprobar que estos sistemas se comportan según lo previsto en condiciones de funcionamiento reales. La forma en que se comportan y la variedad de situaciones que pueden controlar de forma confiable y segura reflejan en gran medida la gama de situaciones y circunstancias que los desarrolladores anticipan durante el diseño y las pruebas.

Para garantizar la confiabilidad y la seguridad en el sistema de inteligencia artificial, debe hacer lo siguiente:

  • Desarrolle procesos de auditoría de los sistemas de inteligencia artificial con el fin de evaluar la calidad y la idoneidad de los datos y los modelos, supervisar el rendimiento continuo y comprobar que los sistemas se comportan según lo previsto en función de las medidas de rendimiento establecidas.
  • Proporcione una explicación detallada del funcionamiento del sistema que incluya especificaciones de diseño, información sobre los datos de aprendizaje, errores de aprendizaje detectados y posibles deficiencias de los datos de aprendizaje e inferencias y predicciones significativas generadas.
  • Realice diseños para situaciones imprevistas como interacciones accidentales del sistema, incorporación de datos malintencionados o ciberataques.
  • Implique a expertos en el dominio en los procesos de diseño e implementación, especialmente si la inteligencia artificial se va a usar para ayudar a tomar decisiones consecuentes sobre las personas.
  • Lleve a cabo rigurosas pruebas durante el desarrollo y la implementación del sistema de inteligencia artificial para asegurarse de que puede responder de forma segura a situaciones imprevistas, no tiene errores de rendimiento inesperados y no evoluciona de formas inesperadas. Los sistemas de inteligencia artificial involucrados en escenarios de gran importancia que afectan a la seguridad humana o a grandes poblaciones deben probarse en escenarios de laboratorio y del mundo real.
  • Evalúe cuándo y cómo debe buscar aportación humana un sistema de inteligencia artificial para decisiones de alto impacto o durante situaciones críticas. Piense en cómo un sistema de inteligencia artificial debe transferir el control a una persona de una manera que sea significativa e inteligible. Diseñe los sistemas de inteligencia artificial de modo que se garantice que los seres humanos tengan la aportación necesaria en decisiones de muy alto impacto.
  • Desarrolle un mecanismo de comentarios sólido para que los usuarios notifiquen problemas de rendimiento de modo que puedan resolverse rápidamente.

Privacidad y seguridad

Icono que representa la privacidad.

A medida que la inteligencia artificial se hace más frecuente, la protección de la privacidad y la información personal y empresarial importante es cada vez más compleja y crítica. Con la inteligencia artificial, los problemas de privacidad y seguridad de los datos exigen una atención especial, puesto que el acceso a los datos es esencial para que los sistemas de inteligencia artificial realicen predicciones y tomen decisiones precisas y fundamentadas sobre las personas.

Para garantizar la privacidad y la seguridad en el sistema de inteligencia artificial, debe hacer lo siguiente:

  • Cumpla las leyes de protección, privacidad y transparencia de los datos relevantes, al invertir recursos en el desarrollo de procesos y tecnologías de cumplimiento o en el trabajo con un líder tecnológico durante el desarrollo de los sistemas de inteligencia artificial. Desarrolle procesos para comprobar de forma continua que los sistemas de inteligencia artificial satisfacen todos los aspectos de estas leyes.
  • Diseñe sistemas de inteligencia artificial para mantener la integridad de los datos personales, de modo que solo puedan usar datos personales durante el tiempo que sea necesario y para los fines definidos que se han compartido con los clientes. Elimine los datos personales recopilados involuntariamente o aquellos que ya no sean relevantes para el propósito definido.
  • Proteja los sistemas de inteligencia artificial de los actores no válidos al diseñar sistemas de inteligencia artificial con arreglo a fundamentos de desarrollo y operaciones seguros, mediante acceso basado en roles y al proteger los datos personales y confidenciales que se transfieren a terceros. Diseñe sistemas de inteligencia artificial para identificar comportamientos anómalos y para evitar la manipulación y los ataques malintencionados.
  • Diseñe sistemas de inteligencia artificial con controles adecuados para que los clientes tomen decisiones sobre cómo y por qué se recopilan y se usan sus datos.
  • Asegúrese de que el sistema de inteligencia artificial mantiene el anonimato teniendo en cuenta cómo el sistema elimina la identificación personal de los datos.
  • Realice revisiones de seguridad y privacidad de todos los sistemas de inteligencia artificial.
  • Investigue e implemente procedimientos recomendados del sector para seguir la información relevante sobre los datos de cliente, acceder y usar esos datos y realizar auditorías de acceso y uso.

Inclusión

Icono que representa la inclusión.

En Microsoft creemos firmemente que todas las personas deben beneficiarse de la tecnología inteligente, lo que significa que debe incorporar y abarcar una amplia gama de necesidades y experiencias humanas. Para los mil millones de personas con discapacidades en todo el mundo, las tecnologías de inteligencia artificial pueden cambiar su vida. La inteligencia artificial puede mejorar el acceso a la educación, a los servicios gubernamentales, al empleo, a la información y a una amplia gama de otras oportunidades. Las soluciones inteligentes, como la transcripción de voz a texto en tiempo real, los servicios de reconocimiento visual y la funcionalidad de texto predictivo, ya están capacitando a aquellos con problemas auditivos, visuales y otros.

Principios de diseño inclusivo de Microsoft:

  • Reconocimiento de la exclusión
  • Ofrecer soluciones por diversión aplicables a todos los demás
  • Aprender a partir de la diversidad

Para garantizar la inclusión en el sistema de inteligencia artificial, debe hacer lo siguiente:

  • Cumplir con las leyes relativas a la accesibilidad e inclusión que exigen la adquisición de tecnología accesible.
  • Use la guía 101 inclusiva, disponible en la sección de recursos de este módulo, para ayudar a los desarrolladores de sistemas a entender y abordar posibles barreras de un entorno de producto que podría excluir a personas involuntariamente.
  • Haga que personas con discapacidades prueben los sistemas para ayudar a determinar si pueden ser usados según lo previsto por el mayor número de usuarios posible.
  • Tenga en cuenta los estándares de accesibilidad de uso habitual para ayudar a garantizar que el sistema es accesible para todas las personas sin importar su nivel de capacidad.

Transparencia

Icono que representa la transparencia.

Junto a los valores anteriores hay dos principios rectores que son esenciales para garantizar la eficacia del resto: transparencia y responsabilidad. Es fundamental que los usuarios entiendan cómo llegan los sistemas de inteligencia artificial a conclusiones cuando se usan para informar a las decisiones que tienen un efecto en la vida de las personas. Por ejemplo, un banco podría usar un sistema de inteligencia artificial para decidir si una persona es solvente, o una empresa podría usar un sistema de inteligencia artificial para determinar qué candidatos están más cualificados para un puesto de trabajo.

Una parte fundamental de la transparencia es lo que se conoce como inteligibilidad, o la explicación útil del comportamiento de los sistemas de inteligencia artificial y sus componentes. La mejora de la inteligibilidad exige que las partes interesadas comprendan cómo y por qué funcionan, de manera que puedan identificar posibles problemas de rendimiento, inquietudes de seguridad y privacidad, sesgos, prácticas excluyentes o resultados involuntarios. También creemos que aquellos que usan sistemas de inteligencia artificial deben ser honestos y directos sobre cuándo, por qué y cómo deciden implementarlos.

Para garantizar la transparencia en el sistema de inteligencia artificial, debe hacer lo siguiente:

  • Comparta las características principales de los conjuntos de datos para ayudar a los desarrolladores a comprender si un conjunto de datos concreto es adecuado para su caso de uso.
  • Mejore la inteligibilidad del modelo al aplicar modelos más sencillos y generar explicaciones inteligibles del comportamiento del modelo. Para esta tarea, puede usar el panel de inteligencia artificial responsable, disponible en la sección de recursos.
  • Forme a los empleados para que puedan interpretar los resultados de la inteligencia artificial y garantice que se hagan responsables de la toma de decisiones consecuentes basadas en los resultados.

Responsabilidad

Icono que representa la responsabilidad.

Las personas que diseñan e implementan sistemas de inteligencia artificial deben ser responsables de su funcionamiento. Las organizaciones deben basarse en estándares del sector para desarrollar normas de responsabilidad. Estas normas pueden garantizar que los sistemas de inteligencia artificial no sean la autoridad final sobre cualquier decisión que afecte a la vida de las personas y que los seres humanos mantengan un control significativo sobre sistemas de inteligencia artificial que, por otra parte, son altamente autónomos.

Para garantizar la responsabilidad en el sistema de inteligencia artificial, debe hacer lo siguiente:

  • Establezca paneles de revisión internos para proporcionar supervisión y orientación sobre el desarrollo y la implementación responsables de los sistemas de inteligencia artificial. También pueden ayudar con tareas como definir procedimientos recomendados para documentar y probar sistemas de inteligencia artificial durante el desarrollo o proporcionar instrucciones para casos confidenciales.
  • Asegúrese de que los empleados se han formado para usar y mantener la solución de forma responsable y ética y comprenden cuándo esta puede requerir soporte técnico adicional.
  • Mantenga informados a los seres humanos con la experiencia necesaria mediante su implicación en las decisiones sobre la ejecución del modelo. Si se requiere automatización de decisiones, asegúrese de que pueden inspeccionar, identificar y resolver los retos de los resultados y la ejecución del modelo.
  • Establezca un sistema claro de responsabilidad y gobernanza para tomar medidas correctoras si se observa que los modelos se comportan de forma no imparcial o potencialmente dañina.

Somos conscientes de que cada persona, empresa y región tiene sus propias creencias y estándares que deben reflejarse en su experiencia de la inteligencia artificial. queremos compartir nuestra perspectiva con usted para cuando se plantee el desarrollo de sus propios principios rectores.

Sugerencia

Dedique un momento a la lluvia de ideas de otros ejemplos para cada uno de los principios de inteligencia artificial responsables.
Fotografía que muestra a la gente trabajando y hablando alrededor de una mesa.

Estos principios proporcionan una idea general de lo que debemos hacer al desarrollar y usar la inteligencia artificial. Sin embargo, deben reflejarse en un nivel más práctico. A continuación, vamos a explorar cómo se pueden garantizar estos principios con un sistema de gobernanza de inteligencia artificial.