Descripción de la inteligencia artificial responsable

Completado

Como científico de datos, podría entrenar modelos de aprendizaje automático para predecir si alguien será capaz de pagar un préstamo o si un candidato sería adecuado para una vacante de trabajo. A medida que los modelos se usan a menudo para la toma de decisiones, es importante que sean imparciales y transparentes.

Sea lo que sea para lo que use un modelo, debería tener en cuenta los principios de inteligencia artificial responsable (IA responsable). En función del caso de uso, podría centrarse en principios específicos. Sin embargo, se recomienda tener en cuenta todos los principios para asegurarse de que esté solucionando cualquier problema que pudiera tener el modelo.

Microsoft ha enumerado cinco principios de inteligencia artificial responsable:

  • Equidad e inclusión: los modelos deberían tratar a todos de forma justa y evitar diferentes tratamientos para grupos similares.
  • Confiabilidad y seguridad: los modelos deberían ser confiables, seguros y coherentes. Querrá que un modelo funcione según lo previsto, controle bien las situaciones inesperadas y resista ante manipulación pudiera hacer daño.
  • Privacidad y seguridad: sea transparente sobre la recopilación, el uso y el almacenamiento de datos, para capacitar a los usuarios para que tengan control sobre sus datos. Trate los datos con cuidado para garantizar la privacidad de las personas.
  • Transparencia: cuando los modelos influyen en decisiones importantes que afectan a la vida de las personas, las personas deben comprender cómo se tomaron esas decisiones y cómo funciona el modelo.
  • Responsabilidad: tome la responsabilidad de aquellas decisiones en las que los modelos pudieran influir y mantenga el control humano.

Sugerencia

Aprenda sobre el estándar de inteligencia artificial responsable para la creación de sistemas de inteligencia artificial que estén de acuerdo con los seis principios clave.