¡Su carro de compras está vacío!
Hace un año o dos leí un libro que me marcó profundamente. Se titula Vida 3.0, y fue escrito por el investigador y divulgador sueco Max Tegmark. En él, Tegmark detalla con gran sencillez y de forma muy completa conceptos básicos de la inteligencia artificial, su evolución, los tipos de IA que existen y, sobre todo, los retos que plantea la IA para el futuro de la humanidad. Te lo recomiendo encarecidamente.
En el libro se narra también el proceso de creación del Future of Life Institute en 2014 y su evolución posterior, incluido un interesantísimo episodio en el que se habla de la cumbre de Asilomar, en la que se establecieron los principios de Asilomar, que deberían regir el desarrollo de la IA en el futuro.
No estamos hablando de una organización ni de una cumbre cualquiera. Entre los participantes en el desarrollo del Future of Life Institute se encuentran nombres tan impactantes como los del fallecido Stephen Hawking, Elon Musk, Sam Altman (cofundador de OpenAI) o Jaan Tallin (Skype), entre muchos otros.
Hace unas semanas, el Future of Life Institute saltó a los titulares a causa de una carta abierta firmada por (además de algunos de los anteriormente mencionados) todo tipo de investigadores y miembros relevantes de la comunidad científica y empresarial a nivel mundial, incluido Steve Wozniak (Apple). Su objetivo era que tanto OpenAI como otras empresas de inteligencia artificial cesasen sus investigaciones durante, por lo menos, 6 meses para detenerse a considerar el impacto que tienen estas herramientas.
Así, la carta recordaba la importancia de seguir los principios de Asilomar y refuerza la idea de que la IA tiene un gran potencial benéfico para la humanidad, pero también comporta muchos riesgos:
«Los sistemas de IA con inteligencia humana-competitiva pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación reconocida por los principales laboratorios de IA. (…) la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra(planeta), y debe planificarse y administrarse con el cuidado y los recursos correspondientes.
Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender. predecir o controlar de forma fiable. (…) Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables».
Si lees el libro que te recomendé al principio comprenderás por qué. La preocupación reside en conseguir que los evidentes beneficios de la IA no acaben opacados por consecuencias negativas (Tegmark se muestra especialmente preocupado por la evolución de la IA a nivel de respetar la privacidad de los usuarios, controlar la evolución de sistemas económicos enteros o incluso su papel en ámbitos bélicos a través de las armas autónomas).
El reto será saber si la comunidad internacional atenderá esta llamada. En aquel momento, un actor básico como Sam Altman, uno de los padres de ChatGPT y Dalle2, dos de los grandes impulsores del acelerón en la IA en los últimos meses, no firmó la carta.
Sin embargo, todo eso ha cambiado.
El director ejecutivo de OpenAI, Sam Altman, y el director ejecutivo de Google DeepMind, Demis Hassabis, además de Max Tegmark del MIT y otros nombres del sector tecnológico como el cofundador de Skype, Jaan Tallinn han firmado una declaración instando a la atención global sobre el riesgo existencial de la IA.
El contenido de dicha carta es muy muy breve, y muy muy directo:
«Los expertos en IA, los periodistas, los legisladores y el público están discutiendo cada vez más un amplio espectro de riesgos importantes y urgentes de la IA. Aun así, puede ser difícil expresar inquietudes sobre algunos de los riesgos más graves de la IA avanzada. La siguiente declaración sucinta tiene como objetivo superar este obstáculo y abrir la discusión. También tiene como objetivo crear un conocimiento común del creciente número de expertos y figuras públicas que también toman en serio algunos de los riesgos más graves de la IA avanzada».
La carta termina con esta declaración:
«Mitigar el riesgo de extinción procedente de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear»
Esta declaración, unida a la que se produjo hace unas semanas, deja claro que la gran mayoría de los mayores expertos en inteligencia artificial a nivel mundial coinciden en destacar la necesidad de regular su desarrollo antes de que llegue a un punto en el que sea inviable controlar sus efectos en algunos campos como los mencionados anteriormente. El apoyo de Sam Altman (sin duda la mayor figura actualmente en este campo) resultará clave para animar a que otras grandes empresas pioneras de la IA se apunten a esta corriente y que los organismos internacionales se pongan manos a la obra.