Preparación para las implicaciones de la inteligencia artificial responsable

Completado

La inteligencia artificial es la tecnología que va a definir nuestra época. Ya está permitiendo un progreso más rápido y profundo en casi todos los campos del saber humano y ayudando a abordar algunos de los retos más abrumadores de la sociedad. Por ejemplo, la inteligencia artificial puede ayudar a las personas con discapacidades visuales a comprender las imágenes mediante la generación de texto descriptivo para las imágenes. En otro ejemplo, la inteligencia artificial puede ayudar a los agricultores a producir alimentos suficientes para la creciente población mundial.

En Microsoft creemos que la inteligencia computacional de la inteligencia artificial debe usarse para potenciar la creatividad y el ingenio innatos de los seres humanos. Nuestra visión de la inteligencia artificial es capacitar a cada desarrollador para innovar, a cada organización para transformar su sector y a cada persona para transformar la sociedad.

Implicaciones sociales de la inteligencia artificial

Al igual que ha sucedido con todas las grandes innovaciones tecnológicas del pasado, el uso de la tecnología de inteligencia artificial tiene un profundo impacto en la sociedad y va a suscitar complejas y complicadas preguntas sobre el futuro que queremos. La inteligencia artificial afecta a la toma de decisiones en todos los sectores, a la seguridad y a la privacidad de los datos y a las capacidades que los trabajadores necesitan para avanzar en su trabajo. Al mirar hacia este futuro, debemos preguntarnos:

  • ¿Cómo diseñamos, creamos y usamos sistemas de inteligencia artificial que tengan un impacto positivo sobre las personas y la sociedad?
  • ¿Cómo podemos preparar mejor a los trabajadores para los efectos de la inteligencia artificial?
  • ¿Cómo podemos aprovechar las ventajas de la inteligencia artificial a la vez que se respeta la privacidad?

La importancia de un enfoque responsable de la inteligencia artificial

Es importante ser consciente de que a medida que la nueva tecnología inteligente emerge y se propaga en la sociedad, sus ventajas van acompañadas de consecuencias involuntarias e imprevistas. Algunas de estas consecuencias tienen consecuencias éticas significativas y la posibilidad de causar daños graves. Aunque las organizaciones aún no pueden predecir el futuro, es nuestra responsabilidad realizar un esfuerzo conjunto por anticipar y mitigar las consecuencias involuntarias de la tecnología que lanzamos al mundo mediante un planeamiento deliberado y una supervisión continua.

Amenazas

Cada avance en las tecnologías de inteligencia artificial aporta un nuevo recordatorio de nuestra responsabilidad compartida. Por ejemplo, en 2016, Microsoft lanzó un bot de chat en X llamado Tay, que podía aprender de las interacciones con los usuarios de X. El objetivo era permitir que el bot de chat mejore la réplica de la comunicación humana y los rasgos de personalidad. Sin embargo, en un plazo de 24 horas, los usuarios se dieron cuenta de que el bot de chat podía aprender de la retórica intolerante, y convirtió el bot de chat en un vehículo para el discurso de odio. Esta experiencia es un ejemplo de por qué debemos considerar las amenazas humanas al diseñar sistemas de inteligencia artificial.

Las amenazas nuevas requieren una evolución constante en nuestro enfoque de inteligencia artificial responsable. Por ejemplo, dado que la inteligencia artificial generativa permite a los usuarios crear o editar vídeos, imágenes o archivos de audio de forma que parezcan reales, la autenticidad de los medios es más difícil de comprobar. En respuesta, Microsoft colabora con otras partes interesadas de tecnología y noticias para desarrollar estándares técnicos para abordar la manipulación relacionada con deepfake.

Nota

Para prepararse para nuevos tipos de ataques que podrían influir en los conjuntos de datos de aprendizaje, Microsoft desarrolló tecnología como filtros de contenido avanzados e introdujo supervisores para sistemas de inteligencia artificial con funcionalidades de aprendizaje automático. Los modelos de IA generativos actuales, como los proporcionados en los Servicios de Azure AI o el chat de Bing, se basan en estas conclusiones.

Resultados sesgados

Otra consecuencia involuntaria que las organizaciones deben tener en cuenta es que la inteligencia artificial puede reforzar los sesgos sociales u otros sin una planificación y un diseño deliberados. Es importante que los desarrolladores comprendan cómo se puede incorporar un sesgo en los datos de aprendizaje o los modelos de aprendizaje automático. Este problema puede ser generalizado en los modelos precompilados, ya que es posible que el usuario no esté controlando los propios datos de entrenamiento.

Por ejemplo, considere una importante institución financiera de préstamos que quiere desarrollar un sistema de puntuación de riesgo para aprobaciones de créditos. Cuando los ingenieros prueban el sistema antes de la implementación, se dan cuenta de que solo aprueba préstamos para prestatarios masculinos. Puesto que el sistema se entrenó basándose en los datos anteriores de los clientes, reproducía el histórico sesgo sexista de los oficiales de crédito. Validar el sistema antes de la implementación nos permitió identificar y solucionar el problema antes de que el sistema estuviera operativo.

Nota

En Microsoft, nuestros investigadores están trabajando con herramientas y técnicas para detectar y reducir el sesgo en los sistemas de inteligencia artificial. Los modelos precompilados se validan exhaustivamente, pero no obstante, se deben usar de manera inteligente y los resultados siempre se deben auditar antes de tomar medidas.

Casos de uso delicados

Otro ejemplo de nuestra responsabilidad para mitigar las consecuencias involuntarias son tecnologías delicadas como el reconocimiento facial. Recientemente se ha producido un aumento de la demanda de tecnología de reconocimiento facial, especialmente por parte de las fuerzas de orden público, que ven el potencial de la tecnología en usos como la búsqueda de niños desaparecidos. Sin embargo, reconocemos que estas tecnologías podrían poner en riesgo las libertades fundamentales. Por ejemplo, podrían permitir la vigilancia continua de individuos específicos. Creemos que la sociedad tiene la responsabilidad de imponer límites adecuados para el uso de estas tecnologías, lo que incluye garantizar que el uso gubernamental de la tecnología de reconocimiento facial se atenga al estado de derecho.

Aunque hay que elaborar nuevas leyes y regulaciones, no son un sustituto de la responsabilidad que todos tenemos al interactuar con la inteligencia artificial. Al trabajar conjuntamente, las empresas, los gobiernos, las ONG y los investigadores académicos pueden abordar casos de uso confidenciales.

Nota

Microsoft evalúa y desarrolla principios para controlar nuestro trabajo con tecnologías de reconocimiento facial. Prevemos que estos principios evolucionen con el tiempo a medida que seguimos colaborando y aprendiendo de clientes, otras empresas tecnológicas, estudiosos, la sociedad civil y otros sobre este asunto. Microsoft usa prácticas de inteligencia artificial responsables para detectar, evitar y mitigar estos problemas, pero cualquier proyecto relacionado con la inteligencia artificial también debe considerarlos.

A continuación, veremos cómo se pueden aplicar a otras organizaciones los seis principios de Microsoft sobre el manejo responsable de la inteligencia artificial.