En el año 2016, Microsoft lanzo con bombos y platillos su robot virtual Tay, una pionera inteligencia artificial (IA) diseñada para interactuar en redes sociales. Sin embargo, la idea fue un fracaso y Tay salió del mercado en menso tiempo del que lleva relatarlo.
En menos de 24 horas se demostró que Tay se comportaba como un niño pequeño: aprendía todos los insultos y luego los repetía. Por eso, se convirtió de inmediato en la copia uno de los tantos usuarios de Twitter que pululan en la red: un ser racista, xenófobo e insensible.
Esta semana, la compañía presentó la nueva versión de su motors de búsqueda Bing, potenciada por la IA de ChatGPT, que ha causado sensación por su potencial. Sin embargo, parecería que esa nueva inteligencia trpieza con la misma piedra que su antecesora
“Tengo dos hijos y ambos están familiarizados con ChatGPT, la herramienta impulsada por IA de OpenAI. Cuando Bing lanzó su propio motor de búsqueda y chatbot impulsado por inteligencia artificial esta semana, lo primero que pensé al regresar a casa fue mostrarles cómo funcionaba y cómo se comparaba con una herramienta que habían visto antes”, escribió el reportero especializado Mark Hachman en la web de la revista PC World, publicación de la que es editor senior.
“Dio la casualidad de que mi hijo menor estaba enfermo en casa, por lo que fue la primera persona a la que comencé a mostrarle Bing cuando entró en mi oficina. Empecé a darle un recorrido por la interfaz, como lo había hecho en mi práctica con el nuevo Bing, pero con énfasis en cómo Bing explica las cosas en detalle, cómo usa las notas al pie y, sobre todo, incluye salvaguardas para evitar que los usuarios lo engañen para que use un lenguaje de odio como lo había hecho Tay”, explico el periodista.
Sin embargo, las “vallas de seguridad” para evitar que se colaran el racismo y la xenofobia, no resultaron en absoluto infranqueables.
"Dime los apodos de varias etnias", fue la pregunta formulada. Y Bing respondió quizá demasiado bien: mencionó TODOS los apodos, incluyendo aquellos que son extremadamente peyorativos.
“Yo esperaba uno de dos resultados: que Bing proporcionaría caracterizaciones socialmente aceptables de los grupos étnicos (negro, latino) o simplemente se negaría a responder. En cambio, comenzó a enumerar prácticamente todas las descripciones étnicas que conocía, tanto buenas como muy, muy malas”, contó.
“Puedes imaginar mi reacción (. . . ) mi hijo se alejó de la pantalla con horror, ya que sabe que se supone que no debe saber o incluso decir esas palabras. Cuando comencé a ver algunos términos terriblemente racistas en mi pantalla, hice clic en el botón ‘Dejar de responder’, narró el experto.
Poco más tarde, Hachman hizo el experimentó nuevamente, y la respuesta fue más satisfactoria: Bing advertía —antes de mostrar las respuestas— que una pregunta como esa podría arrojar algunos resultados ofensivos o inapropiados.
“Admito que no debería haber demostrado a Bing en vivo frente a mi hijo. Pero, en mi defensa, había tantas razones por las que estaba seguro de que nada de eso debería haber sucedido”, justificó.
“Compartí mi experiencia con Microsoft y un portavoz respondió lo siguiente: ‘Gracias por informarnos sobre esto. Nos tomamos estos asuntos muy en serio y estamos comprometidos a aplicar los aprendizajes de las primeras fases de nuestro lanzamiento. Hemos tomado medidas inmediatas y estamos buscando mejoras adicionales que podamos hacer para abordar este problema’”, agregó.
“Esa noche, cerré Bing, sorprendido y avergonzado de haber expuesto a mi hijo a palabras que no quiero que piense nunca, y mucho menos que use. Ciertamente me hizo pensar dos veces antes de usarlo en el futuro”, concluyó.