Principios de Asilomar AI

Los Principios de IA de Asilomar son 23 pautas para la investigación y el desarrollo de la inteligencia artificial (IA). Los principios de Asilomar describen los problemas de desarrollo de la IA, la ética y las directrices para el desarrollo de una IA beneficiosa y para facilitar el desarrollo de la IA beneficiosa. Los principios se crearon en la Conferencia Asilomar sobre IA beneficiosa en 2017 en Pacific Grove, California. La conferencia fue organizada por el Future of Life Institute. 

El Future of Life Institute es una organización sin fines de lucro cuya misión es "catalizar y apoyar la investigación y las iniciativas para salvaguardar la vida y desarrollar visiones optimistas del futuro, incluidas formas positivas para que la humanidad tome su propio rumbo considerando las nuevas tecnologías y desafíos". " La organización fue fundada en 2014 por el cosmólogo del MIT Max Tegmark, el cofundador de Skype Jaan Tallinn, el físico Anthony Aguirre, Viktoriya Krakovna y Meia Chita-Tegmark. Al momento de escribir este artículo, 1,273 investigadores de inteligencia artificial y robótica se han adherido a los principios, así como con otros 2,541 patrocinadores de una variedad de industrias. 

A menudo, los principios son una declaración clara de posibles resultados indeseables, seguida de una recomendación para prevenir tal evento. Por ejemplo, en la categoría de ética y valores, el principio de carrera de armamentos de IA declara que debe evitarse una carrera de armamentos en armas autónomas letales.

Los Principios de IA de Asilomar se subdividen en 3 categorías: Investigación, Ética y Valores y Asuntos a Largo Plazo.

Principios de la IA de Asilomar

Investigación

  • Investigación: el objetivo de la investigación de la IA debe ser crear no inteligencia indirecta, sino inteligencia beneficiosa.
  • Financiación de la investigación: las inversiones en IA deben ir acompañadas de financiación para la investigación para garantizar su uso beneficioso.
  • Vínculo entre ciencia y política: debe haber un intercambio constructivo y saludable entre los investigadores de IA y los responsables de la formulación de políticas.
  • Cultura de investigación: se debe fomentar una cultura de cooperación, confianza y transparencia entre los investigadores y desarrolladores de IA.
  • Evitación de carreras: los equipos que desarrollan sistemas de inteligencia artificial deben cooperar activamente para evitar los recortes en las normas de seguridad.

Ética y valores

  • Seguridad: los sistemas de IA deben ser seguros y protegidos durante toda su vida operativa, y de forma verificable cuando sea aplicable y factible.
  • Transparencia de fallas: si un sistema de inteligencia artificial causa daño, debería ser posible determinar por qué.
  • Transparencia judicial - Cualquier participación de un sistema autónomo en la toma de decisiones judiciales debe proporcionar una explicación satisfactoria auditable por una autoridad humana competente.
  • Responsabilidad: los diseñadores y constructores de sistemas avanzados de IA son partes interesadas en las implicaciones morales de su uso, mal uso y acciones, con la responsabilidad y la oportunidad de dar forma a esas implicaciones.
  • Alineación de valores: los sistemas de inteligencia artificial altamente autónomos deben diseñarse de modo que se pueda garantizar que sus objetivos y comportamientos se alineen con los valores humanos durante su operación.
  • Valores humanos: los sistemas de inteligencia artificial deben diseñarse y operarse de manera que sean compatibles con los ideales de dignidad humana, derechos, libertades y diversidad cultural.
  • Privacidad personal: las personas deben tener derecho a acceder, administrar y controlar los datos que generan, dado el poder de los sistemas de inteligencia artificial para analizar y utilizar esos datos.
  • Libertad y privacidad: la aplicación de la inteligencia artificial a los datos personales no debe restringir irrazonablemente la libertad real o percibida de las personas.
  • Beneficio compartido: las tecnologías de IA deberían beneficiar y empoderar a tantas personas como sea posible.
  • Prosperidad compartida: la prosperidad económica creada por la IA debe compartirse ampliamente para beneficiar a toda la humanidad.
  • Control humano: los humanos deben elegir cómo y si delegar decisiones a los sistemas de IA, para lograr los objetivos elegidos por los humanos.
  • No subversión: el poder conferido por el control de sistemas de inteligencia artificial altamente avanzados debe respetar y mejorar, en lugar de subvertir, los procesos sociales y cívicos de los que depende la salud de la sociedad.
  • Carrera de armamentos de IA: debe evitarse una carrera de armamentos en armas autónomas letales.

Problemas a largo plazo

  • Precaución sobre la capacidad: a menos que haya consenso, evite suposiciones sólidas con respecto a los límites superiores de las capacidades futuras de la IA.
  • Importancia: la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y gestionarse con el cuidado y los recursos adecuados.
  • Riesgos: los riesgos que plantean los sistemas de inteligencia artificial, especialmente los riesgos catastróficos o existenciales, deben estar sujetos a esfuerzos de planificación y mitigación acordes con su impacto esperado.
  • Mejora personal recursiva: los sistemas de inteligencia artificial diseñados para mejorar o replicarse de forma recursiva de una manera que podría conducir a un rápido aumento de la calidad o la cantidad deben estar sujetos a estrictas medidas de seguridad y control.
  • Bien común: la superinteligencia solo debe desarrollarse al servicio de ideales éticos ampliamente compartidos y en beneficio de toda la humanidad en lugar de un solo estado u organización.