Por The New York Times | Cade Metz
SAN FRANCISCO — A finales de marzo, más de mil líderes, investigadores y otros expertos en tecnología que trabajan dentro y en torno al sector de la inteligencia artificial firmaron una carta abierta para advertir que las tecnologías de inteligencia artificial representan “riesgos graves para la sociedad y la humanidad”.
El grupo, que incluyó a Elon Musk (director ejecutivo de Tesla y propietario de Twitter), exhortó a los laboratorios de inteligencia artificial (IA) a detener el desarrollo de sus sistemas más poderosos durante seis meses para poder entender mejor los peligros detrás de la tecnología.
En la carta, se leía: “Los poderosos sistemas de IA deberían ser desarrollados solo cuando confiemos en que sus efectos serán positivos y sus riesgos, manejables”.
La carta, que ahora tiene más de 27.000 firmas, fue breve. Su lenguaje, generalizado. Además, algunas de las personas que firmaron la carta parecían tener una relación conflictiva con la inteligencia artificial. Por ejemplo, Musk está construyendo su propia empresa emergente de inteligencia artificial y es uno de los principales donadores de la organización que redactó la carta.
No obstante, la carta representó una inquietud creciente entre los expertos de la IA de que los sistemas más recientes, como GPT-4 uno de los más destacados, la tecnología que fue presentada por OpenAI (una empresa emergente de San Francisco), podrían causar daño a la sociedad. Los expertos consideran que los sistemas futuros podrían ser incluso más peligrosos.
Algunos de los riesgos ya están aquí. Otros llegarán en meses o años. Aun así, otros son por completo hipotéticos.
Yoshua Bengio, un profesor e investigador de la inteligencia artificial en la Universidad de Montreal, opinó: “Nuestra capacidad para entender lo que podría salir mal con sistemas muy poderosos de inteligencia artificial es muy escasa. Así que necesitamos ser muy cuidadosos”.
¿Por qué están preocupados?
Bengio es quizá la persona más importante entre las que firmaron la carta.
Bengio, en colaboración con otros dos académicos (Geoffrey Hinton, hasta hace poco investigador en Google, y Yann LeCun, ahora científico jefe de IA en Meta, la compañía propietaria de Facebook), dedicó las últimas cuatro décadas a desarrollar la tecnología que hace funcionar a sistemas como GPT-4. En 2018, los investigadores recibieron el Premio Turing, a menudo llamado el “Premio Nobel de la Computación”, por su trabajo en las redes neuronales.
Una red neuronal es un sistema matemático que adquiere habilidades mediante el análisis de datos. Hace alrededor de cinco años, compañías como Google, Microsoft y OpenAI comenzaron a construir redes neuronales que aprendían a partir de grandes cantidades de texto digital llamadas grandes modelos de lenguaje (LLM, por su sigla en inglés).
Al identificar patrones en esos textos, los grandes modelos de lenguaje aprenden a generar texto por su cuenta, incluyendo publicaciones de blog, poemas y programas informáticos. Pueden, incluso, sostener una conversación.
Esta tecnología puede ayudar a los programadores, escritores y otros trabajadores a generar ideas y hacer cosas con mayor rapidez. Sin embargo, Bengio y otros expertos también advirtieron que los grandes modelos de lenguaje pueden aprender comportamientos no deseados e inesperados.
Estos sistemas pueden generar información no veraz, sesgada y por lo demás tóxica. Sistemas como GPT-4 se equivocan en los hechos e inventan información, un fenómeno llamado “alucinación”.
Las compañías están trabajando en estos problemas. Sin embargo, a expertos como Bengio les preocupa que, conforme los investigadores hagan más poderosos a estos sistemas, agreguen nuevos riesgos.
Riesgo a corto plazo: desinformación
Debido a que estos sistemas producen información con lo que parece una confianza total, puede ser difícil discernir la verdad de la ficción cuando los usamos. A los expertos les preocupa que las personas dependan de estos sistemas para recibir consejos médicos, apoyo emocional y la información sin filtros que usan para tomar decisiones.
Subbarao Kambhampati, un profesor de Informática en la Universidad Estatal de Arizona, mencionó: “No hay garantía de que estos sistemas acertarán en cualquier tarea que les solicites”.
A los expertos también les angustia que las personas hagan mal uso de estos sistemas para difundir desinformación. Como pueden conversar de manera similar a la humana, pueden ser sorprendentemente persuasivos.
Bengio comentó: “Ahora, tenemos sistemas que pueden interactuar con nosotros a través del lenguaje natural y no podemos distinguir lo verdadero de lo falso”.
Riesgo a mediano plazo: la pérdida de empleos
A los expertos les preocupa que la nueva inteligencia artificial aniquile muchos empleos. En este momento, las tecnologías como GPT-4 tienden a complementar el trabajo de los humanos. Sin embargo, OpenAI reconoce que podrían remplazar a algunos trabajadores, incluyendo a la gente que modera el contenido en internet.
No obstante, aún no pueden replicar la labor de los abogados, contadores o médicos. Sin embargo, podrían remplazar a los asistentes legales, asistentes personales y traductores.
Un artículo escrito por investigadores de OpenAI estimó que el 80 por ciento de la fuerza laboral estadounidense podría ver al menos el 10 por ciento de sus tareas laborales afectadas por los grandes modelos de lenguaje y que el 19 por ciento de los trabajadores podrían ver impactos en al menos el 50 por ciento de sus responsabilidades.
Oren Etzioni, el director ejecutivo y fundador del Instituto Allen para la Inteligencia Artificial, un laboratorio de investigación en Seattle, declaró: “Esa es una señal de que los trabajos repetitivos desaparecerán”.
Riesgo a largo plazo: la pérdida de control
Algunas de las personas que firmaron la carta también creen que la inteligencia artificial podría salirse de nuestro control o destruir a la humanidad. Sin embargo, muchos expertos afirman que esa idea es muy exagerada.
La carta fue escrita por un grupo del Future of Life Institute, una organización dedicada a explorar riesgos existenciales para la humanidad. Advierten que, debido a que los sistemas de inteligencia artificial con frecuencia aprenden comportamientos inesperados a partir de las vastas cantidades de datos que analizan, podrían representar problemas graves e inesperados.
Les preocupa que conforme las compañías conecten sus grandes modelos de lenguaje a otros servicios de internet, estos sistemas puedan adquirir capacidades imprevistas ya que podrían escribir su propio código computacional. Aseguran que los desarrolladores crearán nuevos riesgos si permiten que los sistemas poderosos de inteligencia artificial ejecuten su propio código.
Anthony Aguirre, un cosmólogo teórico y físico en la Universidad de California, en Santa Cruz, y cofundador del Future of Life Institute, manifestó: “Si observas una extrapolación directa de donde estamos ahora a dentro de tres años, las cosas son bastante extrañas”.
Agregó: “Si tomas una situación menos probable (donde esto realmente prospera, donde no hay gobernanza real, donde estos sistemas resultan ser más poderosos de lo que pensábamos), las cosas se vuelven muy muy locas”.
Etzioni señaló que el hablar de riesgo existencial era hipotético. Sin embargo, aseveró que otros riesgos (el más destacado: la desinformación), ya no eran una especulación.
Etzioni concluyó: “Ahora, tenemos algunos problemas verdaderos. Son reales. Requieren una reacción responsable. Podrían necesitar de regulación y legislación”. Oren Etzioni en el Instituto Allen para la Inteligencia Artificial en Seattle, el 27 de agosto de 2019. (Kyle Johnson/The New York Times) Yoshua Bengio, quien pasó las últimas cuatro décadas desarrollando la tecnología que hace funcionar sistemas como GPT-4, en Montreal, Quebec, Canadá, el 14 de abril de 2023. (Nasuna Stuart-Ulin/The New York Times)
Acerca de los comentarios
Hemos reformulado nuestra manera de mostrar comentarios, agregando tecnología de forma de que cada lector pueda decidir qué comentarios se le mostrarán en base a la valoración que tengan estos por parte de la comunidad. AMPLIAREsto es para poder mejorar el intercambio entre los usuarios y que sea un lugar que respete las normas de convivencia.
A su vez, habilitamos la casilla [email protected], para que los lectores puedan reportar comentarios que consideren fuera de lugar y que rompan las normas de convivencia.
Si querés leerlo hacé clic aquí[+]