El nombre por si solo da para título de un libro de ciencia ficción o quizás sea recordado en el futuro como un momento decisivo al nivel de lo que supuso el tratado de Tordesillas.
La lista completa de los Principios de Asilomar AI se lee como una versión extendida de las famosas Tres Leyes de Robótica de Isaac Asimov. Los 23 puntos se agrupan en tres áreas: Cuestiones de Investigación, Ética y Valores, y Cuestiones a Largo Plazo.
Fuentes:
newatlas.com/future-of-life-institute-asilomar-ai-principles/47724/
futureoflife.org/ai-principles/
www.cromo.com.uy/elaboran-principios-que-la-inteligencia-artificial-no-sea-una-amenaza-n1024814
Elaboran principios para que la inteligencia artificial no sea una amenaza
Se teme que alcance el nivel humano de inteligencia y sea "más peligrosa que armas nucleares"
El cosmólogo Stephen Hawking y el director general de Tesla, Elon Musk, respaldaron esta semana un conjunto de principios que fueron establecidos para asegurar que las máquinas de inteligencia artificial actúen en el mejor interés de la humanidad.
Los investigadores creen que las máquinas podrían alcanzar niveles humanos de inteligencia en las próximas décadas. Una vez que lleguen a este punto, podrían comenzar a mejorar y a crear otras inteligencias artificiales más poderosos, conocidos como superinteligencias.
En 2014, Musk advirtió que las inteligencias artificiales tienen el potencial de ser "más peligrosas que las armas nucleares". Hawking, por su parte, expresó que estas máquinas podrían acabar con la humanidad.
Los 23 principios diseñados para asegurar que la inteligencia artificial siga siendo una fuerza para el bien, conocidos como los Principios Asilomar de la IA, se dividen en tres categorías:
Cuestiones de investigación
Ética y valores
Problemas a largo plazo
Los principios fueron creados por el Future of Life Institute, una organización de investigación y divulgación que tiene el objetivo de mitigar los riesgos existenciales que enfrenta la humanidad, particularmente los que involucran la inteligencia artificial avanzada.
Tanto Hawking como Musk forman parte del consejo de asesores del instituto.
"La inteligencia artificial ya ha proporcionado herramientas beneficiosas que son utilizadas todos los días por personas de todo el mundo", escribió el Future of Life Institute en su sitio web. "Su desarrollo continuo, guiado por estos principios, ofrecerá oportunidades asombrosas para ayudar y empoderar a la gente en las décadas y siglos por venir".
Los principios se desarrollaron a partir de una conferencia que tuvo lugar a principios de este mes con la asistencia de algunas de las figuras más destacadas en la comunidad científica dedicada a este tema.
Lista de Principios Asilomar de la IA
Meta de la investigación: el objetivo de la investigación de la IA debería ser crear inteligencia beneficiosa.
Financiación de la investigación: la inversión en IA debería ir acompañada de fondos para investigar en asegurar su uso beneficioso.
Enlace entre ciencia y política: debería haber un intercambio constructivo y sano entre los investigadores de IA y los legisladores.
Cultura de la investigación: una cultura de cooperación, confianza y transparencia debería ser fomentada entre los investigadores y desarrolladores de IA.
Evitar las carreras: los equipos que estén desarrollando sistemas de IA deberían cooperar activamente para evitar chapuzas en los estándares de seguridad.
Seguridad: los sistemas de IA deberían ser seguros a lo largo de su vida operativa, y verificables donde sea aplicable y posible.
Transparencia en los fallos: si un sistema de IA causa daño debería ser posible determinar por qué.
Transparencia judicial: cualquier intervención de un sistema autónomo en una decisión debería ir acompañada de una explicación satisfactoria y auditable por parte de una autoridad humana competente.
Responsabilidad: los diseñadores y desarrolladores de sistemas avanzados de IA son depositarios de las implicaciones morales de su uso, mal uso y acciones.
Alineación de valores: los sistemas de IA deberían ser diseñados para que sus metas y comportamientos puedan alinearse con los valores humanos.
Valores humanos: los sistemas de IA deberían ser diseñados y operados para que sean compatibles con los ideales de dignidad humana, derechos, libertades y diversidad cultural.
Privacidad personal: la gente debería tener el derecho de acceder, gestionar y controlar los datos que generan, dando a los sistemas de IA el poder de analizar y utilizar esa información.
Libertad y privacidad: la aplicación de la IA a los datos personales no puede restringir de forma poco razonable la libertad, real o sentida, de las personas.
Beneficio compartido: las tecnologías de IA deberían beneficiar y fortalecer a tanta gente como sea posible.
Prosperidad compartida: la prosperidad económica creada por la IA debería ser compartida ampliamente, para el beneficio de toda la Humanidad.
Control humano: los seres humanos deberían escoger cómo y si delegan decisiones a los sistemas de IA para completar objetivos escogidos previamente.
Sin subversión: el poder conferido por el control de sistemas de IA altamente avanzados debería respetar y mejorar, más que subvertir, los procesos sociales y cívicos de los que depende la salud de la sociedad.
Carrera armamentística: debería ser evitada cualquier carrera armamentística de armas autónomas letales.
Capacidad de precaución: al no haber consenso, deberíamos evitar las asunciones sobre los límites superiores de las futuras capacidades de la IA.
Importancia: la IA avanzada podría representar un profundo cambio en la historia de la vida en la Tierra, y debería ser planificada y gestionada con el cuidado y los recursos adecuados.
Riesgos: los riesgos asociados a los sistemas de IA, especialmente los catastróficos o existenciales, deben estar sujetos a planificación y esfuerzos de mitigación equiparables a su impacto esperado.
Automejora recursiva: los sistemas de IA diseñados para automejorarse recursivamente o autorreplicarse de una forma que pudiera llevar al rápido incremento en su calidad o cantidad deben estar sujetos a unas estrictas medidas de control y seguridad.
Bien común: la superinteligencia debería ser desarrollada sólo en servicio de unos ideales éticos ampliamente compartidos y para beneficio de toda la Humanidad, más que para un Estado u organización.