La Inteligencia Artificial Generativa (IAG) es la que está disponible en aplicaciones como el chatGPT. Es una rama de la IA que se enfoca en crear contenido (usualmente texto) a partir los datos que ha recibido en su entrenamiento. Puede generar texto, imágenes, inclusive música, a partir de su base de conocimiento.
Por su parte, la Inteligencia Artificial General (AGI, por sus siglas en inglés), no solamente podría realizar tareas específicas, sino que tendría una capacidad cognitiva similar a la de los humanos. Esto significa que una AGI podría aprender, razonar, y aplicar sus conocimientos a un problema nuevo, de forma similar a como lo hacemos los humanos.
En 1950, el pionero de la computación Alan Turing propuso un experimento que se convirtió en uno de los conceptos más influyentes: el Test de Turing. Su premisa es simple: Si una máquina puede imitar el comportamiento humano en una conversación, y un evaluador no puede detectar la diferencia, entonces, la máquina tiene inteligencia. Durante decenas de años se realizaron competencias con este formato: varias personas (los evaluadores) conversaban, mediante una terminal de texto, con otros terminales. Los evaluadores debían decir si su interlocutor era una persona o un programa.
En los últimos años el test ha quedado obsoleto: las aplicaciones de IA generativa son capaces de superarlo con éxito, como podemos comprobar dialogando con el chatGPT. Esto no significa que los modelos sean “inteligentes”, sino que el Test de Turing ha quedado obsoleto.
El test evalúa la imitación de un diálogo con un humano, pero no implica que la máquina “comprenda” lo que está diciendo. Su capacidad se basa en patrones estadísticos de lenguaje, no en un razonamiento verdadero.
Existen varias propuestas de tests alternativos; uno de los más interesante es el ARC propuesto por el investigador François Chollet. ARC es la sigla de “Abstraction and Reasoning Corpus”, un conjunto de problemas diseñado específicamente para evaluar las habilidades de los modelos de IA.
ARC es una colección de problemas de tipo visual, la IA debe resolver tareas referidas a patrones abstractos sin depender de grandes conjuntos de datos ni entrenamientos masivos. Los problemas están formulados de manera que los seres humanos pueden resolverlos fácilmente, pero resultan extremadamente difíciles para las IA que dependen de reconocer patrones estadísticos. ARC intenta medir si una IA puede abstraer reglas y aplicarlas en contextos nuevos, de una manera similar a cómo lo hacemos los humanos.
ARC es desafiante porque las reglas son implícitas, lo que requiere que la IA comprenda una intención abstracta, en lugar de simplemente identificar patrones.
La competencia ARC está abierta, en su página web se lee:
“La mayoría de los indicadores de IA miden la habilidad. Pero la habilidad no es inteligencia. La inteligencia general es la capacidad de adquirir nuevas habilidades de manera eficiente. El Corpus de Abstracción y Razonamiento de 2019 de Chollet para Inteligencia Artificial General (ARC-AGI), que aún no ha sido superado, es el único indicador formal de la AGI. Es fácil para los humanos, pero difícil para la IA.”
ARC plantea una pregunta fundamental: ¿pueden las máquinas desarrollar la capacidad de razonamiento abstracto y flexible, similar a la humana?
¿Qué opinan los expertos?
La meta de la IA general (AGI) ha generado una gran división en la comunidad científica y tecnológica. Hay distintas posiciones sobre si es alcanzable y, en caso positivo, ¿cuándo ocurriría? Básicamente existen tres posiciones:
Los optimistas: la AGI llegará pronto
Ray Kurzweil, director de ingeniería de Google predice que alcanzaremos la AGI en 2029. Se basa en el crecimiento exponencial de la capacidad de procesamiento de las computadoras y los avances en aprendizaje profundo y redes neuronales.
Para los optimistas, los sistemas de inteligencia artificial actuales son los primeros pasos hacia algo mucho más amplio.
También están los que podríamos llamar “optimistas-catastrofistas”, como Helen Toner, ex integrante del Directorio de Open AI. Helen señaló, en una audiencia del Senado de los Estados Unidos que la IAG podría alcanzarse en unos pocos años, que el mundo no está preparado, y que las consecuencias pueden ser desastrosas. El historiador Yuval Harari también fundamenta esa posición en su último libro NEXUS.
Los escépticos moderados: la AGI llegará, pero falta mucho
Ellos creen que la AGI es teóricamente posible, pero que estamos lejos de alcanzarla. Expertos como Andrew Ng y Yoshua Bengio, opinan que los avances actuales en IA, aunque impresionantes, no implican que estemos cerca de desarrollar una AGI.
Ng insiste en que hablar de AGI es una distracción innecesaria, ya que las aplicaciones de la IA actual pueden seguir mejorando sin necesidad de que nos enfoquemos en la inteligencia general.
Señalan qué nuestra comprensión de la inteligencia es demasiado limitada. Para los escépticos moderados, la AGI puede tardar décadas o incluso siglos. Este tiempo permitirá descubrir nuevos paradigmas de aprendizaje y procesamiento, y desarrollar mejores modelos teóricos sobre la inteligencia humana.
Los escépticos profundos: la AGI es imposible o inalcanzable
Estos investigadores argumentan que la inteligencia humana es un fenómeno complejo y emergente que no puede ser replicado fácilmente por máquinas. Personalidades como el filósofo John Searle y el físico Roger Penrose sostienen que hay aspectos como la conciencia y la subjetividad, que no pueden ser reducidos a un conjunto de algoritmos.
Opinan que la inteligencia humana no puede replicarse simplemente aumentando la capacidad computacional o mejorando los algoritmos. Creen que las máquinas, por su naturaleza, son limitadas en cuanto a su capacidad para entender verdaderamente el mundo, y que la “simulación de inteligencia” no equivale a “inteligencia genuina”. Argumentan que la inteligencia humana está profundamente enraizada en la biología y la experiencia vivida, lo que hace que la AGI sea un objetivo inalcanzable con la tecnología actual.
El debate está abierto, no depende solamente de los avances tecnológicos, sino también de una comprensión más profunda de la naturaleza de la inteligencia.
Mientras tanto, las IA específicas en diversos campos sigue evolucionando. Generan y generarán cambios importantes en la sociedad. Como en todas las revoluciones tecnológicas anteriores, será imposible aislarse detrás de una muralla de regulaciones.
Se trata de comprender las tendencias y surfear la ola.
Por Fernando Brum
fbrum34
Acerca de los comentarios
Hemos reformulado nuestra manera de mostrar comentarios, agregando tecnología de forma de que cada lector pueda decidir qué comentarios se le mostrarán en base a la valoración que tengan estos por parte de la comunidad. AMPLIAREsto es para poder mejorar el intercambio entre los usuarios y que sea un lugar que respete las normas de convivencia.
A su vez, habilitamos la casilla [email protected], para que los lectores puedan reportar comentarios que consideren fuera de lugar y que rompan las normas de convivencia.
Si querés leerlo hacé clic aquí[+]