Principios Asilomar de la Inteligencia Artificial

Compartelo

Los investigadores creen que las máquinas podrían alcanzar niveles humanos de inteligencia en las próximas décadas. Una vez que lleguen a este punto, podrían comenzar a mejorar y a crear otras inteligencias artificiales más poderosos, conocidos como superinteligencias. En 2014, Musk advirtió que las inteligencias artificiales tienen el potencial de ser “más peligrosas que las armas nucleares”. Stephen Hawking, por su parte, expresó que estas máquinas podrían acabar con la humanidad.

Seamos catastrofistas o no, lo cierto es que la Inteligencia Artificial (IA) es una herramienta muy poderosa y que, por tanto, debe reglamentarse. En este sentido, a principios de 2017, se crearon los llamados Principios de Asilomar, una especie de extensión de las 3 leyes de la robótica de Asimov, con el fin de establecer las bases del desarrollo de las futuras plataformas de Inteligencia Artificial. Sólo, para referencia Las leyes de Asimov aparecieron por primera vez en el relato «Círculo vicioso» (Runaround, 1942) y son las siguientes:

 

  • 1ª LEY: Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  • 2ª LEY: Un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
  • 3ª LEY: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

 

Mientras que los Principios de Asilomar buscan especificar estas “leyes de la robótica” definidas por Asimov en una novela, con el fin de que tengan una aplicación real en la robótica actual. Os reproducimos a continuación los susodichos Principios de Asilomar.

 

Lista de Principios Asilomar de la IA

Meta de la investigación: el objetivo de la investigación de la IA debería ser crear inteligencia beneficiosa.

Financiación de la investigación: la inversión en IA debería ir acompañada de fondos para investigar en asegurar su uso beneficioso.

Enlace entre ciencia y política: debería haber un intercambio constructivo y sano entre los investigadores de IA y los legisladores.

Cultura de la investigación: una cultura de cooperación, confianza y transparencia debería ser fomentada entre los investigadores y desarrolladores de IA.

Evitar las carreras: los equipos que estén desarrollando sistemas de IA deberían cooperar activamente para evitar chapuzas en los estándares de seguridad.

Seguridad: los sistemas de IA deberían ser seguros a lo largo de su vida operativa, y verificables donde sea aplicable y posible.

Transparencia en los fallos: si un sistema de IA causa daño debería ser posible determinar por qué.

Transparencia judicial: cualquier intervención de un sistema autónomo en una decisión debería ir acompañada de una explicación satisfactoria y auditable por parte de una autoridad humana competente.

Responsabilidad: los diseñadores y desarrolladores de sistemas avanzados de IA son depositarios de las implicaciones morales de su uso, mal uso y acciones.

Alineación de valores: los sistemas de IA deberían ser diseñados para que sus metas y comportamientos puedan alinearse con los valores humanos.

Valores humanos: los sistemas de IA deberían ser diseñados y operados para que sean compatibles con los ideales de dignidad humana, derechos, libertades y diversidad cultural.

Privacidad personal: la gente debería tener el derecho de acceder, gestionar y controlar los datos que generan, dando a los sistemas de IA el poder de analizar y utilizar esa información.

Libertad y privacidad: la aplicación de la IA a los datos personales no puede restringir de forma poco razonable la libertad, real o sentida, de las personas.

Beneficio compartido: las tecnologías de IA deberían beneficiar y fortalecer a tanta gente como sea posible.

Prosperidad compartida: la prosperidad económica creada por la IA debería ser compartida ampliamente, para el beneficio de toda la Humanidad.

Control humano: los seres humanos deberían escoger cómo y si delegan decisiones a los sistemas de IA para completar objetivos escogidos previamente.

Sin subversión: el poder conferido por el control de sistemas de IA altamente avanzados debería respetar y mejorar, más que subvertir, los procesos sociales y cívicos de los que depende la salud de la sociedad.

Carrera armamentística: debería ser evitada cualquier carrera armamentística de armas autónomas letales.

Capacidad de precaución: al no haber consenso, deberíamos evitar las asunciones sobre los límites superiores de las futuras capacidades de la IA.

Importancia: la IA avanzada podría representar un profundo cambio en la historia de la vida en la Tierra, y debería ser planificada y gestionada con el cuidado y los recursos adecuados.

Riesgos: los riesgos asociados a los sistemas de IA, especialmente los catastróficos o existenciales, deben estar sujetos a planificación y esfuerzos de mitigación equiparables a su impacto esperado.

Automejora recursiva: los sistemas de IA diseñados para automejorarse recursivamente o autorreplicarse de una forma que pudiera llevar al rápido incremento en su calidad o cantidad deben estar sujetos a unas estrictas medidas de control y seguridad.

Bien común: la superinteligencia debería ser desarrollada sólo en servicio de unos ideales éticos ampliamente compartidos y para beneficio de toda la Humanidad, más que para un Estado u organización

 

 


Compartelo
Sobre ROBOTechnics 97 Artículos
Robotica educativa y programacion

Sé el primero en comentar

Dejar una contestacion

Tu dirección de correo electrónico no será publicada.


*