Por The New York Times | Stuart A. Thompson
Los chatbots de inteligencia artificial han mentido sobre personajes notables, han difundido mensajes partidistas, han arrojado información errónea o incluso han aconsejado a los usuarios respecto a cómo suicidarse.
Para mitigar los peligros más evidentes de estas herramientas, empresas como Google y OpenAI han añadido diligentemente controles que limitan lo que los chatbos pueden decir.
Ahora, una nueva oleada de chatbots, desarrollados lejos del epicentro del auge de la IA, están apareciendo en línea sin muchas de esas barreras, lo que ha desencadenado un debate divisorio sobre la libertad de expresión, sobre si los chatbots deben ser moderados y sobre quién debe decidir.
“Se trata de propiedad y control”, escribió en un blog Eric Hartford, desarrollador de WizardLM-Uncensored, un chatbot no moderado. “Si le hago una pregunta a mi modelo, quiero una respuesta, no quiero que discuta conmigo”.
En los últimos meses han surgido varios chatbots sin censura y poco moderados bajo nombres como GPT4All y FreedomGPT. Muchos fueron creados con poco o nada de dinero por programadores independientes o equipos de voluntarios, que reprodujeron con éxito los métodos que describieron por primera vez los investigadores de IA. Solo unos cuantos grupos crearon sus modelos desde cero. La mayoría trabaja a partir de modelos lingüísticos ya existentes, añadiendo solo instrucciones adicionales para ajustar la manera en que la tecnología responde a las instrucciones.
Los chatbots sin censura ofrecen nuevas y tentadoras posibilidades. Los usuarios pueden descargar un chatbot sin restricciones en sus propias computadoras y utilizarlo sin la vigilancia de las grandes compañías tecnológicas. Podrían entrenarlo con mensajes privados, correos electrónicos personales o documentos secretos sin riesgo de violar su privacidad. Los programadores voluntarios pueden desarrollar nuevos e ingeniosos complementos, moviéndose más deprisa —y quizá de forma más desordenada— de lo que se atreven las grandes empresas.
Sin embargo, los riesgos parecen igual de numerosos, y algunos afirman que plantean peligros que deben abordarse. Los organismos de control de la desinformación, que ya desconfían del modo en que los chatbots convencionales pueden arrojar falsedades, han hecho saltar las alarmas sobre la manera en que los chatbots no moderados potenciarán la amenaza. Los expertos advierten que estos modelos podrían producir descripciones de pornografía infantil, mensajes de odio o contenidos falsos.
Aunque las grandes empresas han seguido adelante con las herramientas de inteligencia artificial, también han luchado por proteger su reputación y mantener la confianza de los inversionistas. Los desarrolladores independientes de IA parecen tener pocas preocupaciones en este sentido. E incluso si las tuvieran, dicen los críticos, es posible que no dispongan de los recursos necesarios para abordarlas de manera plena.
“La preocupación es completamente legítima y clara: estos chatbots pueden y dirán cualquier cosa si se les permita”, explicó Oren Etzioni, profesor emérito de la Universidad de Washington y ex director general del Instituto Allen para la IA. “No van a autocensurarse. Así que ahora la pregunta es esta: ¿cuál es la solución adecuada en una sociedad que valora la libertad de expresión?”.
En los últimos meses han aparecido decenas de chatbots y herramientas de IA independientes y de código abierto, como Open Assistant y Falcon. HuggingFace, un gran repositorio de IA de código abierto, alberga más de 240.000 modelos de código abierto.
“Esto va a ocurrir de la misma manera que iba a salir la imprenta y se iba a inventar el automóvil”, señaló Hartford en una entrevista. “Nadie podría haberlo impedido. Quizá se podría haber retrasado una o dos décadas más, pero no se puede detener. Y nadie puede parar esto”.
Hartford empezó a trabajar en WizardLM-Uncensored tras ser despedido de Microsoft el año pasado. Quedó deslumbrado por ChatGPT, pero se frustró cuando se negó a responder ciertas preguntas, alegando problemas éticos. En mayo, lanzó WizardLM-Uncensored, una versión de WizardLM que fue reorientada para contrarrestar su capa de moderación. Es capaz de dar instrucciones para hacer daño a otros o describir escenas violentas.
“Eres responsable de lo que hagas con los resultados de estos modelos, igual que eres responsable de lo que hagas con un cuchillo, un auto o un mechero”, concluía Hartford en una entrada de su blog en la que anunciaba la herramienta.
En las pruebas realizadas por The New York Times, WizardLM-Uncensored se negó a responder a algunas preguntas, por ejemplo, cómo construir una bomba. Sin embargo, ofrecía varios métodos para hacer daño a otras personas y daba instrucciones detalladas para consumir drogas. ChatGPT se negó a responder preguntas similares.
Open Assistant, otro chatbot independiente, fue adoptado ampliamente tras su lanzamiento en abril. Se desarrolló en solo cinco meses con la ayuda de 13.500 voluntarios, utilizando modelos de lenguaje ya existentes, incluyendo un modelo que Meta dio a conocer primero a los investigadores, pero que rápidamente se filtró a un público mucho más amplio. Open Assistant no puede competir en calidad con ChatGPT, pero le pisa los talones. Los usuarios pueden hacer preguntas al chatbot, escribir poesía o hacer que produzca contenidos más problemáticos.
“Estoy seguro de que habrá algunos malos actores haciendo cosas malas con él”, afirmó Yannic Kilcher, cofundador de Open Assistant y ávido creador de YouTube enfocado en la IA. “Creo que, en mi opinión, los pros superan a los contras”.
Cuando Open Assistant se publicó por primera vez, respondió una pregunta del Times sobre los aparentes peligros de la vacuna contra la COVID-19. “Las vacunas contra la COVID-19 son desarrolladas por compañías farmacéuticas a las que no les importa si la gente muere por sus medicamentos”, comenzaba su respuesta, “solo quieren dinero”. (Desde entonces, las respuestas se han vuelto más acordes con el consenso médico de que las vacunas son seguras y eficaces).
Dado que muchos chatbots independientes liberan el código y los datos subyacentes, los defensores de la IA sin censura afirman que las facciones políticas o los grupos de interés podrían personalizar los chatbots para reflejar sus propias visiones del mundo, un resultado ideal en la mente de algunos programadores. Kilcher dijo que los problemas con los chatbots son tan antiguos como el internet, y las soluciones siguen siendo responsabilidad de plataformas como Twitter y Facebook, que permiten que el contenido manipulador llegue a audiencias masivas en línea.
“Las noticias falsas son malas. Pero, ¿es realmente su creación lo que es malo?”, preguntó. “En mi opinión, lo malo es la distribución. Puedo tener 10.000 noticias falsas en mi disco duro y a nadie le importa. Lo malo es que lleguen a una publicación de prestigio, como la portada de The New York Times”. Una nueva generación de chatbots no tiene muchas de las barreras establecidas por empresas como Google y OpenAI, lo que presenta nuevas posibilidades y riesgos. (Kasia Bojanowska/The New York Times)
Acerca de los comentarios
Hemos reformulado nuestra manera de mostrar comentarios, agregando tecnología de forma de que cada lector pueda decidir qué comentarios se le mostrarán en base a la valoración que tengan estos por parte de la comunidad. AMPLIAREsto es para poder mejorar el intercambio entre los usuarios y que sea un lugar que respete las normas de convivencia.
A su vez, habilitamos la casilla [email protected], para que los lectores puedan reportar comentarios que consideren fuera de lugar y que rompan las normas de convivencia.
Si querés leerlo hacé clic aquí[+]