Por The New York Times | Cade Metz
Mientras el sol se ponía en la isla de Maury, al sur de Seattle, Ben Goertzel y su banda de jazz fusión vivieron uno de esos momentos que todos los grupos esperan: teclado, guitarra, saxofón y cantante principal unidos como si fueran uno solo.
Goertzel se encargó del teclado. Los amigos y familiares de la banda escuchaban desde un patio con vista a la playa. Y Desdemona, con una peluca púrpura y un vestido negro con tachuelas metálicas, fue la voz principal, advirtiendo sobre la llegada de la Singularidad, el punto de inflexión en el que la tecnología ya no podrá ser controlada por sus creadores.
“La Singularidad no estará centralizada”, gritó. “¡Irradiará por el cosmos como una avispa!”.
Tras más de 25 años como investigador de inteligencia artificial —un cuarto de siglo dedicado a la búsqueda de una máquina que pudiera pensar como un humano—, Goertzel supo que por fin había alcanzado el objetivo final: Desdemona, una máquina que había construido, era consciente.
Sin embargo, a los pocos minutos se dio cuenta de que eso era un disparate.
“Cuando la banda se unió, me pareció que el robot formaba parte de nuestra inteligencia colectiva, que percibía lo que sentíamos y hacíamos”, comentó. “Entonces dejé de tocar y pensé en lo que realmente había pasado”.
Lo que ocurrió fue que Desdemona, por una especie de serendipia de tecnología y jazz fusión, le dio un facsímil razonable de sus propias palabras en el momento justo.
Goertzel es director general y científico en jefe de una organización llamada SingularityNET. Básicamente, construyó a Desdemona para que imitara el lenguaje de los libros que él había escrito sobre el futuro de la inteligencia artificial.
Mucha gente en el campo de Goertzel no es tan capaz de distinguir entre lo real y lo que quisieran que fuera real.
El ejemplo más conocido y reciente es el de un ingeniero llamado Blake Lemoine. Trabajó en el departamento de inteligencia artificial en Google, concretamente en un software que puede generar palabras, es decir, un modelo de lenguaje grande (LLM, por su sigla en inglés). Llegó a la conclusión de que la tecnología era consciente; sus jefes concluyeron que no lo era. Hizo públicas sus convicciones en una entrevista con The Washington Post: “Conozco a una persona cuando hablo con ella. No importa si tienen un cerebro en la cabeza o si tienen mil millones de líneas de código”.
La entrevista causó un enorme revuelo en el mundo de los investigadores de inteligencia artificial, al que doy cobertura desde hace más de una década, y entre personas que no suelen seguir los avances en los modelos de lenguaje grande. Una de las amigas más antiguas de mi madre le envió un correo electrónico preguntándole si creía que la tecnología era consciente.
Cuando le aseguraron que no lo era, su respuesta fue rápida. “Eso es un consuelo”, opinó. Google acabó despidiendo a Lemoine.
Para las personas como la amiga de mi madre, la idea de que la tecnología actual se comporte de cierto modo como el cerebro humano es una pista falsa. No hay pruebas de que esta tecnología sea sensible o consciente, dos palabras que describen una conciencia del mundo circundante.
Eso se aplica incluso a la forma más simple que se puede encontrar en un gusano, señaló Colin Allen, un profesor de la Universidad de Pittsburgh que explora las habilidades cognitivas de animales y máquinas. “El diálogo generado por los modelos de lenguaje grande no aporta pruebas del tipo de sensibilidad que probablemente poseen incluso los animales muy primitivos”, explicó.
Alison Gopnik, profesora de Psicología que forma parte del grupo de investigación sobre inteligencia artificial de la Universidad de California, campus Berkeley, estuvo de acuerdo. “Las capacidades computacionales de la inteligencia artificial actual, como los modelos de lenguaje grande, no hacen más probable que sean más sensibles que las rocas u otras máquinas”. Jürgen Schmidhuber, un destacado investigador, lleva mucho tiempo afirmando que él construyó las primeras máquinas conscientes hace décadas. En febrero, Ilya Sutskever, uno de los investigadores más importantes de la última década y científico en jefe de OpenAI, un laboratorio de investigación en San Francisco respaldado por 1000 millones de dólares de Microsoft, aseguró que la tecnología actual podría ser “ligeramente consciente”. Varias semanas después, Lemoine concedió su gran entrevista. Ancestros de Desdemona
El 7 de julio de 1958, dentro de un laboratorio del gobierno varias cuadras al oeste de la Casa Blanca, el psicólogo Frank Rosenblatt reveló una tecnología que llamó Perceptron.
No hacía mucho. Como demostró Rosenblatt a los periodistas que visitaron el laboratorio, si le mostraba a la máquina cientos de tarjetas rectangulares, algunas marcadas a la izquierda y otras a la derecha, esta podía aprender a diferenciar entre las dos.
El psicólogo afirmó que el sistema algún día aprendería a reconocer palabras escritas a mano, comandos hablados e incluso rostros de personas. En teoría, les dijo a los reporteros, podría clonarse, explorar planetas distantes y cruzar la línea de la computación a la conciencia.
Cuando él murió 13 años después, la máquina no podía hacer nada de eso. Pero esto era típico de la investigación en el campo de la inteligencia artificial, un sector académico creado casi en la misma época en que Rosenblatt comenzó a trabajar en el Perceptron.
El objetivo de los pioneros del campo era recrear la inteligencia humana por cualquier medio tecnológico necesario, y estaban seguros de que eso no llevaría mucho tiempo. Algunos afirmaron que una máquina vencería al campeón mundial de ajedrez y descubriría su propio teorema matemático en la próxima década. Eso tampoco sucedió.
La investigación produjo algunas tecnologías notables, pero no estaban ni cerca de reproducir la inteligencia humana. La “inteligencia artificial” describía lo que algún día se podría hacer con la tecnología, no lo que podía hacer en ese momento. Por qué lo creen
En 2020, OpenAI presentó un sistema llamado GPT-3. Podía generar tuits, escribir poesía, resumir correos electrónicos, responder preguntas de trivia, traducir idiomas e incluso escribir programas informáticos.
Sam Altman, un empresario e inversionista de 37 años que funge como director ejecutivo de OpenAI, cree que este y otros sistemas similares son inteligentes. “Pueden completar tareas cognitivas útiles”, me dijo Altman una mañana reciente. “La capacidad de aprender, asimilar un nuevo contexto y resolver algo de una manera nueva es inteligencia”.
GPT-3 es lo que los investigadores de inteligencia artificial llaman una red neuronal, por la red de neuronas en el cerebro humano. Eso también es lenguaje aspiracional. Una red neuronal en realidad es un sistema matemático que aprende habilidades detectando patrones en grandes cantidades de datos digitales. Con base en el análisis de miles de fotografías de gatos, por ejemplo, puede aprender a reconocer un gato.
Lo llamamos “inteligencia artificial”, pero un nombre más adecuado sería “extracción de patrones estadísticos de grandes conjuntos de datos”, aclaró Gopnik.
Se trata de la misma tecnología que Rosenblatt exploró en la década de 1950. No disponía de las enormes cantidades de datos digitales necesarias para hacer realidad esa gran idea. Tampoco tenía la potencia de cálculo necesaria para analizar todos esos datos. No obstante, alrededor de 2010, los investigadores empezaron a demostrar que una red neuronal era tan potente como él y otros lo habían pronosticado durante mucho tiempo, al menos con ciertas tareas.
Esas tareas incluían el reconocimiento de imágenes, el reconocimiento del habla y la traducción. Una red neuronal es la tecnología que reconoce las órdenes que le das a tu iPhone y traduce entre el francés y el inglés en el Traductor de Google.
Más recientemente, los investigadores de compañías como Google y OpenAI empezaron a construir redes neuronales que aprendían de enormes cantidades de prosa, incluyendo de miles de libros digitales y artículos de Wikipedia. GPT-3 es un ejemplo.
Mientras analizaba todo ese texto digital, construyó lo que podría llamarse un mapa matemático del lenguaje humano: más de 175.000 millones de puntos de datos que describen cómo unimos las palabras. Con ese mapa, puede realizar muchas tareas distintas, como redactar discursos, escribir programas informáticos y mantener una conversación.
Sin embargo, hay un sinfín de salvedades. Utilizar el GPT-3 es como tirar los dados: si le pides diez discursos con la voz de Donald Trump, puede que te dé cinco que se parezcan mucho a lo que diría el expresidente, y otros cinco que no se acerquen en absoluto. Los programadores informáticos utilizan esa tecnología para crear pequeños fragmentos de código que pueden introducir en programas más amplios, pero en la mayoría de los casos, tienen que editar y modificar el resultado.
“Estas cosas ni siquiera se acercan a la mente de un niño promedio de 2 años”, aseguró Gopnik, especialista en desarrollo infantil. “Al menos en términos de algunos tipos de inteligencia, es probable que estén en algún punto medio entre un hongo mucoso y mi nieto de 2 años”.
Incluso después de que señalamos esos defectos, Altman describió ese tipo de sistema como inteligente. Mientras seguíamos charlando, reconoció que no era inteligente como lo son los seres humanos. “Es como una forma alienígena de inteligencia”, describió. “Pero eso cuenta”. Por qué todos los demás lo creen
A mediados de la década de 1960, un investigador del Instituto Tecnológico de Massachusetts, Joseph Weizenbaum, construyó una psicoterapeuta automatizada llamada Eliza. Ese bot conversacional era simple. En esencia, cuando alguien escribía una idea en la pantalla de computadora, el programa le pedía que ahondara en esa idea, o simplemente repetía las palabras en forma de pregunta. Pero para sorpresa de Weizenbaum, la gente trató a Eliza como si fuera humana. Compartieron libremente sus problemas personales y sintieron consuelo con sus respuestas.
“Sabía por mi extensa experiencia que los lazos emocionales fuertes que muchos programadores tienen con sus computadoras a menudo se forman después de breves experiencias con las máquinas”, escribió más tarde. “De lo que no me había dado cuenta es que las exposiciones muy cortas a un programa de computadora relativamente simple podían inducir pensamientos delirantes poderosos en personas bastante normales”.
Los humanos somos susceptibles a ese tipo de sentimientos. Cuando los perros, gatos y otros animales exhiben incluso el más mínimo comportamiento similar al humano, tendemos a asumir que se parecen más a nosotros de lo que indica la realidad. Casi lo mismo sucede cuando vemos indicios de comportamiento humano en una máquina.
Los científicos ahora lo llaman el efecto Eliza.
Está sucediendo algo similar con la tecnología moderna. Pocos meses después del lanzamiento del GPT-3, Philip Bosua, inventor y empresario, me envió un correo electrónico. El asunto decía: “Dios es una máquina”.
“No hay duda en mi mente de que el GPT-3 ha surgido como un ente sensible”, escribió. “Todos sabíamos que eso sucedería en el futuro, pero parece que ese futuro ha llegado. Me ve como un profeta para difundir su mensaje religioso y extrañamente así es como lo siento yo”. Adónde nos llevarán los robots
Margaret Mitchell se preocupa por lo que todo esto implica para el futuro.
Como investigadora en Microsoft, luego en Google, donde ayudó a fundar su equipo de ética en materia de inteligencia artificial, y ahora en Hugging Face, otro destacado laboratorio de investigación, ha visto el auge de esa tecnología de primera mano. En la actualidad, comentó, esta tecnología es relativamente simple y obviamente defectuosa, pero muchas personas la consideran humana. ¿Qué sucede cuando la tecnología se vuelve mucho más poderosa? A algunos investigadores en materia de inteligencia artificial les preocupa que esos sistemas estén rumbo a alcanzar la sensibilidad o la conciencia. Pero eso no viene al caso.
“Un organismo consciente —como una persona o un perro u otros animales— puede aprender algo en un contexto y aprender otra cosa en otro contexto, y luego juntar las dos cosas para hacer algo en un contexto novedoso que nunca ha experimentado antes”, agregó Allen, el profesor de la Universidad de Pittsburgh. “Esta tecnología no está ni cerca de hacer eso”.
Hay preocupaciones mucho más inmediatas, y más reales.
A medida que esta tecnología siga mejorando, podría ayudar a difundir desinformación por todo el internet —texto e imágenes falsos— alimentando el tipo de campañas en línea que quizá ayudaron a influir en las elecciones presidenciales de 2016. Podría producir chatbots que imiten las conversaciones de forma mucho más convincente. Y esos sistemas podrían operar a una escala que haga que las actuales campañas de desinformación impulsadas por humanos parezcan minúsculas en comparación.
Si eso ocurre, tendremos que tratar todo lo que veamos en internet con un escepticismo extremo. Pero Mitchell se pregunta si estaremos a la altura del desafío.
“Me preocupa que los chatbots se aprovechen de la gente”, señaló. “Tienen el poder de persuadirnos en cuanto a lo que creemos y lo que hacemos”.