Hay quien augura que la inteligencia artificial será capaz de traducir idiomas o de escribir mejor que los humanos; de pintar o de crear complejas composiciones musicales; o que las máquinas conducirán o realizarán operaciones quirúrgicas de altísimo riesgo mejor que las personas más cualificadas.

Pero ¿está la inteligencia artificial libre de caer en los mismos errores que los humanos, incluso en la estupidez artificial?; la respuesta es no, y durante los últimos años ya se han registrado casos y se han sucedido los errores; uno de los más sonados: la aplicación que interpretó la imagen de dos personas negras como si fueran dos simios.

Capaces de aprender y de pensar, de desarrollar cualidades humanas -como la intuición o la creatividad- las máquinas aprendieron hace casi setenta años a diferenciar entre izquierda y derecha, y desde entonces se han impuesto a campeones mundiales del ajedrez o del póker, reconocen rasgos faciales o la voz, traducen de forma simultánea, conducen de manera autónoma y perfeccionan el diagnóstico médico.

La inteligencia artificial (IA) será uno de los mejores aliados para afrontar los principales desafíos de la humanidad, pero millones de personas -de forma consciente o no- la utilizan ya de forma cotidiana (navegación, geolocalización, computación o asistentes virtuales) y sus utilidades y aplicaciones son infinitas.

Robótica, redes neuronales, algoritmos, bases de datos inteligentes; utilidades ilimitadas y en medio de las cuales irrumpe el debate sobre la ética de esta tecnología, sobre el riesgo de que acrecienten las distintas brechas que ya existen (geográficas o generacionales) y de que las máquinas puedan llegar a ser completamente autónomas y a desobedecer o incumplir las funciones para las que fueron diseñadas.

Surgen en este contexto los laboratorios de ideas para reflexionar y debatir sobre IA, sobre la ética y sobre la importancia de que las tecnologías no queden al margen de los valores, de que las máquinas estén al servicio de las personas y no al revés y de que la sociedad perciba la IA como una oportunidad y no como una amenaza.

El presidente de We The Humans -un laboratorio de ideas independiente-, Juan Ignacio Rouyet, observó que la propia Comisión Europea propone un marco regulatorio de la IA basado en cuatro niveles: desde el riesgo "mínimo" hasta el "inaceptable", y situó en este nivel los usos que estarían completamente prohibidos, como que un gobierno use esta tecnología para conocer mejor a un ciudadano.

En declaraciones a EFE, Rouyet apuntó que algo tan aparentemente inofensivo como un navegador puede escudriñar datos sobre la personalidad de un individuo y conocer por ejemplo si acude más a librerías o a bares, lo que afecta de una forma directa a la libertad y a la intimidad de la persona.

Y en el mismo sentido el investigador Pedro Meseguer recordó que el anonimato que existía antes se está perdiendo, pero incidió en que los "temores" hacia esta tecnología se pueden neutralizar con una legislación clara que determine un tratamiento concreto de los datos personales recogidos por estas aplicaciones y que se haga cumplir por parte de las compañías tecnológicas.

Meseguer, del Instituto de Investigación en Inteligencia Artificial del Consejo Superior de Investigaciones Científicas (CSIC) español, subrayó a EFE que, como cualquier otra tecnología, la IA puede ser "neutra" -cita en ese sentido los diferentes usos que se puede hacer del fuego o de la tecnología nuclear-.

El presidente de We The Humans mantiene que se trata de una tecnología "muy poderosa" porque identifica patrones y porque aprende, por lo que sus usos son ilimitados "e insospechados". La IA ha sido capaz -recordó- de pintar "El próximo Rembrandt", un retrato "al estilo" del pintor neerlandés, cuando aprendió a reconocer sus patrones de pintura; "pero la IA no fue creativa, pintó lo que le dijeron".

Profesor en varias universidades, Rouyet mantiene además que las brechas y las desigualdades que provocan las nuevas tecnologías van a ser cada vez mayores, y se pregunta en ese sentido si el dueño y director de Meta, Mark Zuckerberg, está pensando implantar el "metaverso" en Sierra Leona, o si el robot humanoide diseñado por Tesla -cuyo coste rondará los 20.000 dólares- está pensado también para el mercado etíope o si estará al alcance de cualquiera.

Y un riesgo añadido, según el presidente de esta organización: que la IA acabe modificando la conducta humana cuando la persona delega en esa tecnología su autonomía o la toma de decisiones. "Podemos dejar que un coche conduzca, pero también que un sistema decida a quién contratar o a quién condenar".

"Eso es delegar nuestra autonomía, pero no en la inteligencia artificial, sino en manos de quien la ha diseñado", manifestó Juan Ignacio Rouyet, y aseguró que durante los últimos años ya se han registrado ejemplos claros de resultados incorrectos y de "estupidez artificial".

En la inteligencia artificial "el alimento" son los datos, y si esos datos llevan algún tipo de sesgo el resultado final estará también viciado. "Si en un sistema de valoración de puestos de trabajo, los datos de entrada tienen perfiles de hombres con sueldos más altos que las mujeres, el sistema recomendará sueldos más altos para los hombres", mantiene el responsable de este "laboratorio" y director de Servicios de la consultora tecnológica Quint.

La manera de evitarlo: no permitir que la IA tome decisiones, sino que proponga opciones y conocer cómo las ha seleccionado, "pero que la decisión final dependa siempre de un ser humano".

Pedro Meseguer incidió en la importancia de incluir valores éticos en el desarrollo de esta tecnología para evitar que tenga sesgos entre razas o sexos, y se mostró convencido de que cambiará el comportamiento de los humanos, como lo han cambiado antes otras tecnologías -como el coche o el teléfono-, y de que la posibilidad de fallo va a estar siempre presente porque, al igual que los humanos, "la IA no es infalible".

Raúl Casado - EFE