Código de ética de AI

Un código de ética de IA, también llamado plataforma de valor de IA, es una declaración de política que define formalmente el papel de la inteligencia artificial en su aplicación al desarrollo continuo de la raza humana. El propósito de un código de ética de la IA es brindar orientación a las partes interesadas cuando se enfrentan a una decisión ética con respecto al uso de la inteligencia artificial.

Isaac Asimov, el escritor de ciencia ficción, previó los peligros potenciales de los agentes autónomos de IA mucho antes de su desarrollo y creó Las tres leyes de la robótica como un medio para limitar esos riesgos. En el código de ética de Asimov, la primera ley prohíbe a los robots dañar activamente a los seres humanos o permitir que los seres humanos sufran daños negándose a actuar. La segunda ley ordena a los robots que obedezcan a los humanos, a menos que las órdenes no estén de acuerdo con la primera ley. La tercera ley ordena a los robots que se protejan a sí mismos, en la medida en que hacerlo esté de acuerdo con las dos primeras leyes.

Aunque los desarrolladores aún se encuentran en las primeras etapas de la adopción de la IA, es importante que las empresas adopten enfoques éticos y responsables al crear sistemas de IA. Con ese fin, un instituto sin fines de lucro fundado por el cosmólogo del MIT Max Tegmark, el cofundador de Skype, Jaan Tallinn y la científica investigadora de DeepMind, Viktoriya Krakovnahas, trabajó con investigadores y desarrolladores de IA para establecer un conjunto de principios rectores que ahora se conocen como el Principios de IA de Asilomar. Este código de ética de AI exige que:

  • El objetivo de la investigación de la IA debería ser crear no inteligencia indirecta, sino inteligencia beneficiosa.
  • Las inversiones en IA deben ir acompañadas de financiación para la investigación sobre cómo garantizar su uso beneficioso.
  • Si un sistema de IA causa daño, debería ser posible determinar por qué.
  • Cualquier participación de un sistema autónomo en la toma de decisiones judiciales debe proporcionar una explicación satisfactoria auditable por una autoridad humana competente.
  • Debería haber un intercambio constructivo y saludable entre los investigadores de IA y los responsables políticos.
  • Debe fomentarse una cultura de cooperación, confianza y transparencia entre los investigadores y desarrolladores de IA.
  • Los equipos que desarrollan sistemas de inteligencia artificial deben cooperar activamente para evitar los recortes en las normas de seguridad.
  • Los sistemas de IA deben ser seguros durante toda su vida operativa, y de forma verificable cuando sea aplicable y factible.
  • Los diseñadores y constructores de sistemas avanzados de IA son partes interesadas en las implicaciones morales de su uso, mal uso y acciones, con la responsabilidad y la oportunidad de dar forma a esas implicaciones.
  • Los sistemas de inteligencia artificial altamente autónomos deben diseñarse de modo que se pueda garantizar que sus objetivos y comportamientos se alineen con los valores humanos a lo largo de su operación.
  • Los sistemas de IA deben diseñarse y operarse de manera que sean compatibles con los ideales de dignidad humana, derechos, libertades y diversidad cultural.
  • Las personas deben tener derecho a acceder, administrar y controlar los datos que generan, dado el poder de los sistemas de inteligencia artificial para analizar y utilizar esos datos.
  • La aplicación de la IA a los datos personales no debe restringir irrazonablemente la libertad real o percibida de las personas.
  • Las tecnologías de IA deberían beneficiar y empoderar a tantas personas como sea posible.
  • La prosperidad económica creada por la IA debe compartirse ampliamente para beneficiar a toda la humanidad.
  • Los seres humanos deben elegir cómo y si delegar decisiones en los sistemas de IA, para lograr los objetivos elegidos por los seres humanos.
  • El poder conferido por el control de sistemas de IA altamente avanzados debería respetar y mejorar, en lugar de subvertir, los procesos sociales y cívicos de los que depende la salud de la sociedad.
  • Los riesgos que plantean los sistemas de inteligencia artificial, especialmente los riesgos catastróficos o existenciales, deben estar sujetos a esfuerzos de planificación y mitigación acordes con su impacto esperado.
  • Debe evitarse una carrera de armamentos en armas autónomas letales.