Por The New York Times | Nico Grant and Karen Weise

SAN FRANCISCO — En marzo, dos empleados de Google, que se dedican a revisar los productos de inteligencia artificial de la empresa, intentaron impedir que Google lanzara un chatbot de inteligencia artificial (IA). Creían que generaba afirmaciones imprecisas y peligrosas.

Diez meses antes, especialistas en ética y otros empleados de Microsoft plantearon preocupaciones similares. Escribieron en varios documentos que la tecnología de IA detrás de un chatbot planeado podría inundar los grupos de Facebook con desinformación, degradar el pensamiento crítico y erosionar los cimientos fácticos de la sociedad moderna.

De cualquier manera, las empresas publicaron sus chatbots. Microsoft fue la primera, con un espectacular evento en febrero para revelar un chatbot de IA integrado a su motor de búsqueda Bing. Google le siguió seis semanas después con su propio chatbot, Bard.

Los agresivos movimientos de estas empresas, normalmente reacias al riesgo, se debieron a una carrera por controlar lo que podría ser el próximo éxito de la industria tecnológica: la IA generativa, la nueva y potente tecnología que alimenta estos chatbots.

Esa competencia adquirió un tono frenético en noviembre, cuando OpenAI, una empresa emergente de San Francisco que trabaja con Microsoft, lanzó ChatGPT, un chatbot que ha cautivado la imaginación del público y ahora tiene casi cien millones de usuarios mensuales.

El sorprendente éxito de ChatGPT ha llevado a Microsoft y Google a arriesgarse más con sus directrices éticas establecidas a lo largo de los años para garantizar que su tecnología no cause problemas sociales, según quince empleados y exempleados, así como documentos internos de las empresas.

La urgencia de crear con la nueva IA quedó demostrada en un correo electrónico interno que envió el mes pasado Sam Schillace, ejecutivo de tecnología de Microsoft. Escribió en el correo electrónico, al que tuvo acceso The New York Times, que era un “error absolutamente fatal en este momento preocuparse por cosas que se pueden arreglar más tarde”.

Cuando la industria tecnológica cambia de manera repentina hacia un nuevo tipo de tecnología, la primera empresa que introduce un producto “es la ganadora a largo plazo solo porque empezó primero”, escribió. “A veces la diferencia se mide en semanas”.

La semana pasada, la tensión entre los preocupados y los arriesgados del sector se hizo pública cuando más de mil investigadores y líderes del sector, entre ellos Elon Musk y el cofundador de Apple Steve Wozniak, pidieron una pausa de seis meses en el desarrollo de la potente tecnología de IA. En una carta pública, dijeron que presentaba “profundos riesgos para la sociedad y la humanidad”.

Los organismos reguladores ya amenazan con intervenir. La Unión Europea propuso legislación para regular la IA e Italia prohibió de manera temporal ChatGPT la semana pasada. En Estados Unidos, el presidente Joe Biden se convirtió el martes en el funcionario más reciente en cuestionar la seguridad de la IA.

“Las empresas tecnológicas tienen la responsabilidad de asegurarse de que sus productos son seguros antes de hacerlos públicos”, declaró en la Casa Blanca. Cuando le preguntaron si la IA era peligrosa, respondió: “Está por verse. Podría serlo”.

Las cuestiones que se plantean ahora fueron en su época el tipo de preocupaciones que impulsaron a algunas empresas a mantenerse al margen de las nuevas tecnologías. Habían aprendido que lanzar de manera prematura la IA podía ser embarazoso. Por ejemplo, hace cinco años, Microsoft retiró rápidamente un chatbot llamado Tay después de que los usuarios lo hicieran generar respuestas racistas.

Los investigadores afirman que Microsoft y Google están asumiendo riesgos al lanzar una tecnología que ni siquiera sus desarrolladores comprenden del todo. Sin embargo, las empresas afirman que han limitado el alcance del lanzamiento inicial de sus nuevos chatbots y que han creado sofisticados sistemas de filtrado para eliminar el discurso de odio y el contenido que podría causar daños evidentes.

Natasha Crampton, directora de IA responsable de Microsoft, declaró en una entrevista que seis años de trabajo basado en la IA y la ética en Microsoft habían permitido a la empresa “moverse de forma ágil y reflexiva”. Añadió: “Nuestro compromiso con la IA responsable sigue siendo firme”.

Google dio a conocer Bard tras años de discrepancias internas sobre si los beneficios de la IA generativa compensaban los riesgos. Anunció Meena, un chatbot similar, en 2020. No obstante, ese sistema se consideró demasiado arriesgado para ser lanzado, aseguraron tres personas con conocimiento del proceso. The Wall Street Journal informó primero de esas preocupaciones. Brian Gabriel, portavoz de Google, señaló mediante un comunicado: “Seguimos haciendo de la IA responsable una prioridad absoluta, utilizando nuestros principios de IA y estructuras de gobierno interno para compartir responsablemente los avances de la IA con nuestros usuarios”.

Las preocupaciones sobre los modelos más grandes persistieron. En enero de 2022, Google se negó a permitir que otro investigador, El Mahdi El Mhamdi, publicara un artículo crítico. Dimitió de Google este año, alegando en parte “censura en la investigación”. Explicó que los riesgos de la IA moderna “superaban con creces” los beneficios. “Es un despliegue prematuro”, añadió.

Tras el lanzamiento de ChatGPT, Kent Walker, el principal abogado de Google, se reunió con ejecutivos de investigación y seguridad del poderoso Consejo de Revisión de Tecnología Avanzada de la compañía. Les dijo que Sundar Pichai, director ejecutivo de Google, estaba presionando mucho para liberar la IA de Google.

Jen Gennai, directora del grupo de Innovación Responsable de Google, asistió a esa reunión. Recordó lo que Walker había dicho a su personal.

En la reunión, “Kent se dirigió a los ejecutivos de la ATRC y les dijo: ‘Esta es la prioridad de la empresa’”, explicó Gennai en una grabación que revisó el Times. “¿Cuáles son sus preocupaciones? Pongámonos en sintonía’”.

Walker dijo a los asistentes que dieran prioridad a los proyectos de IA, aunque algunos ejecutivos afirmaron que mantendrían normas de seguridad, comentó Gennai.

Su equipo ya había documentado problemas con los chatbots: podrían producir información falsa, perjudicar a los usuarios que se encariñan emocionalmente con ellos y permitir la “violencia facilitada por la tecnología” mediante el acoso masivo en línea.

En marzo, dos revisores del equipo de Gennai presentaron su evaluación de riesgos de Bard. Recomendaron bloquear su lanzamiento inminente, según dos personas familiarizadas con el proceso. A pesar de las salvaguardias, creían que el chatbot no estaba preparado. Google puso Bard a disposición de algunos usuarios el 21 de marzo. La empresa dijo que pronto integraría la IA generativa en su motor de búsqueda.

Satya Nadella, director ejecutivo de Microsoft, apostó por la IA generativa en 2019 cuando Microsoft invirtió 1000 millones de dólares en OpenAI. Después de decidir que la tecnología estaba lista durante el verano, Nadella presionó a todos los equipos de productos de Microsoft para que adoptaran la IA.

Microsoft tenía políticas desarrolladas por su Oficina de IA Responsable, un equipo dirigido por Crampton, pero las directrices no se aplicaron ni se siguieron de manera consistente, opinaron cinco empleados y exempleados. Tras la presentación de Bing con IA, el equipo de ética documentó preocupaciones persistentes. Los usuarios podrían volverse demasiado dependientes de la herramienta. Las respuestas imprecisas podrían inducir a error a los usuarios. La gente podría creer que el chatbot, que utiliza el pronombre “yo” y emoticonos, es humano.

A mediados de marzo, el equipo fue despedido, una medida de la que informó por primera vez el boletín tecnológico Platformer. Pero Crampton dijo que cientos de empleados seguían trabajando en iniciativas de ética.

Microsoft ha lanzado nuevos productos cada semana, un ritmo frenético para cumplir los planes que Nadella puso en marcha en verano, cuando adelantó el nuevo modelo de OpenAI.

Le pidió al chatbot que tradujera al poeta persa Rumi al urdu y luego al inglés. “Funcionó de maravilla”, señaló en una entrevista en febrero. “Entonces, dije: ‘Dios, qué cosa’”. Satya Nadella, director ejecutivo de Microsoft, que hizo una gran apuesta por la IA hace varios años, en Redmond, Washington, el 7 de febrero de 2023. (Ruth Fremson/ the New York Times) Margaret Mitchell, exempleada de Google, a la que se impidió publicar un artículo con un antiguo colega que advertía de los riesgos de la tecnología de IA más reciente, en Shoreline, Washington, el 29 de marzo de 2023. (Ruth Fremson/ the New York Times)