Ha llegado el «momento Oppenheimer» para los progenitores de la IA
El director de cine Christopher Nolan reconoce haber hablado con científicos especializados en IA que están experimentando un «momento Oppenheimer» y recelan del potencial destructivo de su creación. Nolan reflexiona sobre su película biográfica y explica: «Cuento la historia de Oppenheimer porque creo que es importante, pero también porque es un cuento admonitorio». De hecho, ya hay quienes comparan a Sam Altman de OpenAI con el padre de la bomba atómica.
Oppenheimer fue bautizado por sus biógrafos como el «Prometeo americano» por ser quien arrebató a los dioses el secreto del fuego nuclear, dividiendo la materia con el fin de liberar una energía atroz que, según sus temores, podría calcinar a toda la civilización.
Por su parte, Altman también se pregunta si hizo «algo realmente malo» al desarrollar la IA generativa mediante ChatGPT. Según declaró en una comparecencia ante el Senado, «si esta tecnología sale mal, puede salir muy mal». Gregory Hinton, el llamado padrino de la IA, presentó su dimisión de Google en mayo de 2023 y señaló que una parte de él se arrepentía de haber dedicado su vida a construir máquinas más inteligentes que los seres humanos. Advirtió que «es difícil entender cómo evitar que los malos la utilicen para cosas malas». Otros de sus compañeros han hablado del «riesgo de extinción derivado de la IA», que se sitúa al mismo nivel que otras amenazas existenciales como la guerra nuclear, el cambio climático y las pandemias.
Según Yuval Noah Harari, la IA generativa puede llegar a ser una tecnología destructora de sociedades o, utilizando el término que Oppenheimer tomó prestado de la Bhagavad-gītā para describir la bomba, «destructora de mundos». Esta vez los sapiens se han convertido en dioses, engendrando una descendencia inorgánica que un día podría desbancar a sus progenitores. Harari lo explicaba así en una conversación hace unos años: «La historia de la humanidad comenzó en el momento en que los hombres crearon a los dioses y terminará cuando los hombres se conviertan en dioses».
Tal y como explicaban Harari y los coautores Tristan Harris y Aza Raskin en un ensayo reciente: «En el principio existía la palabra. El lenguaje es el sistema operativo de la cultura de la humanidad. Del lenguaje emanan el mito y la ley, los dioses y el dinero, el arte y la ciencia, las amistades, las naciones y el código informático. La inteligencia artificial ha conseguido dominar el lenguaje, lo que le permite piratear y manipular el sistema operativo de la civilización. Este dominio del lenguaje otorga a la inteligencia artificial la llave maestra de la civilización, que comprende desde las cajas fuertes de los bancos hasta los sepulcros más sagrados».
Continuaban así:
Desde hace miles de años, los humanos hemos vivido inmersos en los sueños de otros humanos. Hemos adorado a dioses, hemos perseguido ideales de belleza y hemos consagrado nuestras vidas a causas que surgieron de la imaginación de algún profeta, poeta o político. Muy pronto nos encontraremos inmersos en las alucinaciones de inteligencias no humanas…
Muy pronto nos encontraremos cara a cara con el genio maligno de Descartes, con la caverna de Platón y con la maya budista. Es posible que un velo de ilusiones descienda sobre el conjunto de la humanidad y que nunca más seamos capaces de levantarlo y ni siquiera de darnos cuenta de su existencia.
La idea de que una entidad no humana escriba nuestra historia inquieta hasta tal punto al historiador y filósofo israelí que recomienda encarecidamente a los sapiens que recapaciten antes de ceder el control de sus dominios a la tecnología.
«Hemos de enfrentarnos a la inteligencia artificial antes de que nuestra política, nuestra economía y nuestra vida cotidiana dependan de ella», advierten Harari, Harris y Raskin. «Si esperamos a que se desate el caos, entonces será demasiado tarde para remediarlo».
El panorama «Terminator» es poco probable
En un artículo publicado en Noema, el vicepresidente de Google, Blaise Agüera y Arcas, y sus compañeros del Instituto de Inteligencia Artificial de Quebec no creen que en un futuro próximo pueda producirse una situación similar a la que imaginó Hollywood en «Terminator», una película en la que una IA malévola desata un caos devastador por donde quiera que pasa. Sin embargo, les preocupa que el hecho de poner el foco en una «amenaza existencial» que pueda surgir en un futuro lejano nos distraiga de la necesidad de atajar el peligro evidente y palpable de que la IA trastoque la sociedad actual.
Sus peores miedos están a la vuelta de la esquina, a las puertas de que la IA se convierta en una superinteligencia: la vigilancia a gran escala, la desinformación y la manipulación, el uso indebido de la IA por parte de las fuerzas armadas y la eliminación generalizada de todo tipo de profesiones.
Para este grupo de científicos y especialistas en tecnología, «es sumamente improbable que se produzca una extinción como consecuencia de una IA malévola, ya que dicho escenario depende de suposiciones dudosas sobre la evolución a largo plazo de la vida, la inteligencia, la tecnología y la sociedad. Además, un sistema de inteligencia artificial superinteligente tendría que superar numerosos límites y restricciones físicas antes de poder «rebelarse» de esa manera. Existen varios controles naturales con los que los investigadores pueden ayudar a atenuar el riesgo existencial de la IA ocupándose de retos tangibles y apremiantes sin llegar a convertir el riesgo existencial en una prioridad global de forma explícita».
A su modo de ver, «existen tres posibles causas de extinción: la pugna por los recursos, de la caza y el consumo excesivos o de la degradación del clima o de su nicho ecológico de tal forma que las condiciones medioambientales resultantes provoquen su desaparición. Ninguno de estos tres casos se aplica a la IA en su configuración actual».
Ante todo, «por ahora la IA depende de nosotros y cabría suponer que una superinteligencia advertiría este hecho y trataría de proteger a la humanidad, ya que somos tan imprescindibles para la existencia de la IA como las plantas que producen oxígeno lo son para la nuestra. Por lo tanto, lo más probable es la evolución del mutualismo entre la IA y los seres humanos, y no la competencia».
Atribuir un «coste infinito» al «resultado improbable» de la extinción sería equivalente a invertir todas nuestras dotes tecnológicas en evitar la posibilidad mínima (una de entre un millón) de que un meteorito caiga sobre la Tierra, como si fuera una preocupación a nivel planetario. En pocas palabras, «el riesgo existencial de una IA superinteligente no amerita ser una prioridad global, del mismo calibre que el cambio climático, la guerra nuclear y la prevención de pandemias».
El otro momento Oppenheimer
Cualquier peligro, ya sea lejano o cercano, que pueda provenir del enfrentamiento entre la humanidad y la superinteligencia incipiente se verá agravado por la rivalidad entre los Estados-nación.
Esto nos lleva a una última reflexión sobre la analogía entre Sam Altman y Oppenheimer, que en sus últimos años de vida fue perseguido y aislado. Además, se le denegó la autorización oficial de seguridad, pues en plena fiebre macartista de principios de la Guerra Fría le consideró un simpatizante comunista. Su delito fue oponerse al desarrollo de una bomba de hidrógeno y reclamar la colaboración de otros países, entre los que se encontraban los rivales, a fin de controlar el uso de las armas nucleares.
Lo más probable es la evolución del mutualismo entre la IA y los seres humanos, y no la competencia.
En un discurso ante científicos especializados en IA que tuvo lugar en junio en la ciudad de Pekín, Altman hizo un llamamiento similar a la colaboración para regular el uso de la IA. «China cuenta con algunos de los talentos en IA más brillantes del mundo», afirmó. Para controlar los sistemas avanzados de IA «es necesario reunir a los expertos más destacados de todo el mundo. Dada la aparición de sistemas de IA cada vez más potentes, nunca antes la cooperación mundial había peligrado tanto».
Cabe preguntarse (y también temer) cuánto tiempo pasará antes de que el sentido de responsabilidad científica universal de Altman sea engullido, como le ocurrió a Oppenheimer, por las fauces de la actual histeria sinofóbica de Washington, similar a la de McCarthy en su época. Desde luego, el ambiente enfervorizado de Pekín entraña un riesgo especular para cualquier científico experto en IA con quien Altman pudiera colaborar en nombre de toda la humanidad en lugar de hacerlo en beneficio del dominio de cualquier nación.
El primer peligro evidente y actual que plantea la IA es su posible instrumentalización bélica en el conflicto entre Estados Unidos y China. Según advierte Harari, el momento de hacer frente a esta amenaza es ahora, y no cuando se convierta en una realidad y ya sea demasiado tarde para revertir la situación. Es necesario que las partes responsables de ambos bandos recurran a esa sabiduría que no puede conferirse a las máquinas y que cooperen para mitigar los riesgos. El hecho de que Altman llegara a experimentar otro momento Oppenheimer nos acercaría aún más al riesgo existencial.
No obstante, hay una buena señal y es que el secretario de Estado de EE.UU., Antony Blinken, y la secretaria de Comercio, Gina Raimondo, reconocieron esta semana que «ningún país ni empresa puede forjar por sí solo el futuro de la IA. […] La única forma de controlar el potencial de la inteligencia artificial de forma plena y segura pasa por la combinación de la dedicación, el ingenio y la cooperación de la comunidad internacional».
Ahora bien, las iniciativas propuestas hasta el momento, por muy esenciales que sean, siguen estando sujetas a la rivalidad estratégica y se limitan al mundo democrático. El reto más difícil, tanto para Estados Unidos como para China, es llegar a un compromiso directo para frenar la carrera armamentística de la IA antes de que ésta se descontrole.
Producido por Guerrilla Translation bajo una Licencia de Producción de Pares.
- Traducido por Lara San Mamés y editado por Sara Escribano.
- Texto original de Nathan Gardels en NOEMA Magazine
- Imagen de portada de Eddie Rivera aka @unknownknowitall y Gus Cutty aka @guscutty
- Imagen de artículo de Jeff W