Por The New York Times | Cade Metz
Francisco Brosé parecía ser como cualquier otro jugador de “Diplomacy” ante los ojos de Claes de Graaff. El nombre de usuario era una broma (el emperador austriaco Francisco José I renacido como un hermano en línea), pero ese era el tipo de humor que las personas que juegan “Diplomacy” tienden a disfrutar. El juego es un clásico, amado por personas como John F. Kennedy y Henry Kissinger, que combina estrategia militar con intriga política y recrea la Primera Guerra Mundial: los jugadores negocian con aliados, enemigos y cualquiera sin un bando definido mientras planean cómo sus ejércitos se moverán a través de la Europa del siglo XX.
A finales de agosto, cuando Francisco Brosé se unió a un torneo en línea de veinte jugadores, convenció a otros jugadores, les mintió y, al final, los traicionó. Terminó en primer lugar.
De Graaff, un químico que reside en los Países Bajos, se ubicó en el quinto lugar. Él ha dedicado casi diez años a jugar “Diplomacy”, tanto en línea como en torneos presenciales en todo el mundo. No se dio cuenta, hasta que se revelo varias semanas después, de que había perdido ante una máquina. Francisco Brosé era un bot.
De Graaff, de 36 años, manifestó: “Me quedé estupefacto. Parecía tan genuino, tan vivo. Podía leer mis textos, conversar conmigo y hacer planes que eran benéficos para ambos, que nos permitirían a los dos seguir adelante. También me mintió y me traicionó, como lo hacen con frecuencia los mejores jugadores”.
Creado por un equipo de investigadores en inteligencia artificial del gigante tecnológico Meta, el Instituto Tecnológico de Massachusetts (MIT, por su sigla en inglés) y otras universidades destacadas, Francisco Brosé está entre la nueva ola de chatbots en línea que están impulsando rápidamente a las máquinas a nuevas esferas.
Cuando chateas con estos bots, se puede sentir como una conversación con otra persona. Parece como si, en otras palabras, las máquinas han pasado un test que se suponía probaría su inteligencia.
Durante más de 70 años, los informáticos han luchado para construir tecnología que pudiera superar el test de Turing: el punto de inflexión tecnológico en el que los humanos ya no están seguros de si están hablando con una máquina o una persona. La prueba lleva el nombre del británico Alan Turing, el afamado matemático, filósofo y criptógrafo de tiempos de guerra que propuso el test en 1950. Turing creía que con este se podía mostrar al mundo cuando las máquinas hubieran finalmente alcanzado la inteligencia verdadera.
El test de Turing es una medida subjetiva. Depende de si las personas que formulan las preguntas se sienten convencidas de que están hablando con otra persona cuando, de hecho, están conversando con un dispositivo.
No obstante, sin importar quién está haciendo las preguntas, las máquinas pronto harán que este test sea obsoleto.
Bots como Francisco Brosé ya han pasado la prueba en situaciones particulares, como negociar movidas de “Diplomacy” o llamar a un restaurante para hacer una reservación para cenar. ChatGPT, un bot dado a conocer en noviembre por OpenAI, un laboratorio de San Francisco, hace sentir a las personas como si estuvieran conversando con otra persona, no un bot. El laboratorio señaló que más de un millón de personas lo ha usado. Debido a que ChatGPT puede escribir acerca de cualquier cosa, incluyendo trabajos finales, las universidades están preocupadas de que ridiculizará el trabajo en clase. Cuando algunas personas charlan con estos bots, ellas incluso los describen como que sienten o que están conscientes, al creer que las máquinas han desarrollado de alguna manera una conciencia del mundo que las rodea.
De manera privada, OpenAI ha construido un sistema, GPT-4, que es todavía más poderoso que ChatGPT. Es posible que genere imágenes, así como palabras.
Aun así, estos bots no pueden sentir. No están conscientes. No son inteligentes (al menos no en la manera en la que los humanos son inteligentes). Incluso las personas que crean la tecnología reconocen este punto.
En referencia a la nueva ola de chatbots, Ilya Sutskever, científico jefe en OpenAI y uno de los investigadores de inteligencia artificial más importantes de la década pasada, comentó: “Estos sistemas pueden hacer muchas cosas útiles. Por otro lado, aún no llegan a ese punto. La gente piensa que pueden hacer cosas que no pueden”.
Conforme las tecnologías más recientes surgen de los laboratorios de investigación, ahora es obvio (si es que no lo era antes) que los científicos deben repensar y reformular cómo llevar registro del progreso de la inteligencia artificial. El test de Turing ya no está a la altura del reto.
Una y otra vez, las tecnologías de inteligencia artificial han pasado pruebas que se creían insuperables, incluyendo la maestría en ajedrez (1997), así como victorias en “Jeopardy!” (2011), Go (2016) y póker (2019). Ahora está superando otra y, de nuevo, esto no significa necesariamente lo que pensamos que significa.
Nosotros (el público) necesitamos un marco de referencia nuevo para entender lo que la inteligencia artificial puede hacer, lo que no puede hacer, lo qué hará en el futuro y cómo cambiará nuestras vidas, para bien o para mal.
Hace cinco años, Google, OpenAI y otros laboratorios de inteligencia artificial comenzaron a diseñar redes neuronales que analizaban cantidades enormes de texto digital, incluyendo libros, reportajes, artículos de Wikipedia y registros de chats en línea. Los investigadores las llaman “grandes modelos de lenguaje”. Al identificar con precisión miles de millones de patrones en el modo en que las personas conectan palabras, letras y símbolos, estos sistemas aprendieron a generar su propio texto.
Seis meses antes de lanzar su chatbot, OpenAI presentó una herramienta llamada DALL-E.
Como un guiño tanto a “WALL-E”, la película animada de 2008 sobre un robot autónomo, como a Salvador Dalí, el pintor surrealista, esta tecnología experimental te permite crear imágenes digitales con tan solo describir qué quieres ver. Esta es también una red neuronal, construida de manera muy similar a Francisco Brosé o ChatGPT. Con la diferencia de que aprendió tanto de imágenes como de texto. Al analizar millones de imágenes digitales y los pies de foto que las describían, aprendió a reconocer los vínculos entre imágenes y palabras.
Esto es conocido como un sistema multimodal. Google, OpenAI y otras organizaciones ya están usando métodos similares para elaborar sistemas que puedan generar video de personas y objetos. Empresas emergentes están diseñando bots que pueden desplazarse a través de aplicaciones de software y sitios web como si fueran un usuario.
Estos no son sistemas que cualquiera puede evaluar de la manera apropiada con el test de Turing o cualquier otro método simple. Su objetivo final no es la conversación.
El test de Turing juzgaba si una máquina podía imitar a un humano. Así es como la inteligencia artificial es representada habitualmente (una rebelión de las máquinas que piensan como las personas). Sin embargo, hoy en día las tecnologías en desarrollo son muy diferentes de ti y de mí. No pueden lidiar con conceptos que nunca antes han visto. Y no pueden tomar ideas y explorarlas en el mundo físico.
Al mismo tiempo, estos bots son superiores a ti y a mí en muchas maneras. No se cansan. No dejan que las emociones nublen lo que intentan hacer. Pueden recurrir al instante a cantidades mucho mayores de información. Además, pueden generar texto, imágenes y otros medios a velocidades y volúmenes que nosotros como humanos nunca podríamos.
Sus habilidades también mejorarán considerablemente en los próximos años.
En los meses y años venideros, estos bots te ayudarán a encontrar información en internet. Explicarán conceptos de maneras que puedas entenderlos. Si así lo deseas, incluso redactarán tus tuits, publicaciones de blogs y trabajos finales.
Tabularán tus gastos mensuales en tus hojas de cálculo. Visitarán sitios web de bienes raíces y encontrarán casas en tu rango de precio. Producirán avatares en línea que luzcan y suenen como humanos. Harán minipelículas, completas con música y diálogos.
De verdad, estos bots cambiarán al mundo. Sin embargo, la responsabilidad recae en ti de tener cuidado con lo que estos sistemas dicen y hacen, de editar lo que te dan, de revisar todo lo que veas en línea con escepticismo. Los investigadores saben cómo darles a estos sistemas un conjunto extenso de habilidades, pero aún no saben cómo darles cordura, sentido común o un sentido de la verdad.
Eso todavía está en ti. El test de Turing solía ser la regla de oro para probar la inteligencia de las máquinas. Esta generación de bots la está superando. Necesitamos mantener la calma y desarrollar una nueva prueba. (Ricardo Rey/The New York Times). El test de Turing solía ser la regla de oro para probar la inteligencia de las máquinas. Esta generación de bots la está superando. Necesitamos mantener la calma y desarrollar una nueva prueba. (Ricardo Rey/The New York Times).
Acerca de los comentarios
Hemos reformulado nuestra manera de mostrar comentarios, agregando tecnología de forma de que cada lector pueda decidir qué comentarios se le mostrarán en base a la valoración que tengan estos por parte de la comunidad. AMPLIAREsto es para poder mejorar el intercambio entre los usuarios y que sea un lugar que respete las normas de convivencia.
A su vez, habilitamos la casilla [email protected], para que los lectores puedan reportar comentarios que consideren fuera de lugar y que rompan las normas de convivencia.
Si querés leerlo hacé clic aquí[+]