Matías Rodríguez es un abogado especializado en gestión en Telecomunicaciones y en Derecho de Alta Tecnología, además de ser asesor de Antel, y cuando se le pregunta qué desafíos éticos y morales puede traer la incorporación de la inteligencia artificial a la vida diaria responde con claro ejemplo.
Cada vez son más comunes, explica, los asistentes artificiales de empresas como Amazon, Microsoft o Google. Estos dispositivos cumplen órdenes y le dan al individuo una serie de soluciones sobre servicios u otras tareas. Realizan compras por internet y trámites oficiales, pero, algunas veces, surgen complicaciones:
"Una niña (que tiene uno de estos asistentes) que está en su casa, y ve por televisión un reclame de una casa de muñecas por 250 dólares y le dice "Alexa, quiero esa caja de muñecas" y Alexa escucha porque el reclame le manda un aviso identificable, y Alexa coloca la orden con la tarjeta de los padres. Por esa razón, Amazon tuvo que devolver 70 millones de dólares: por compras hechas por menos con la tarjeta de los padres a través de los asistentes artificiales. Algo más sencillo: el hermano de esa niña para llamar la atención le dice palabrotas a la madre, y la madre lo reta. Alexa no lo reta, y probablemente le conteste el significado que está en Google de cada una de esas palabras", dice Matías a Montevideo Portal.
Es que la aparición de estos nuevos softwares, que ya son parte de la vida de algunas personas (en nuestras rutas ya están conduciéndose vehículos con poder de decisión propios), y que "es el futuro", nos plantea un desafío, asegura Rodríguez. ¿Bajo qué esquemas éticos programamos a estas 'máquinas'?
"El tema es que son agentes nuestros, son delegados esos sistemas, que toman decisiones y afectan la vida individual o la vida colectiva. Por lo tanto, son decisiones humanas y toda decisión humana es ética. Tiene por detrás qué es el bien o el mal", sostiene. Los asistentes artificiales, como los autos autónomos, así como otros dispositivos de la inteligencia artificial ya no toman decisiones sobre lo que no se ve, sino que ya rodean nuestro día a día.
"Cuando un alcohólico mayor de edad, anciano, le pide que le sirva un whisky, qué tiene que decirle. ¿Le sirve? Tiene derecho el sistema a negarle una orden a su dueño. Si el dueño dice que quiere tomar alcohol y la hija dice que no porque le hace mal. ¿A quién le hace caso el robot? El robot puede elegir entre órdenes, pero con qué criterio. A quién elige, ¿al más poderoso? ¿al más eficiente? ¿al dueño? Bajo qué criterio ¿la economía puede ser uno?", se pregunta Rodríguez, quien asegura que sin plantearse este problema de la ética será muy difícil avanzar en la inteligencia artificial. O peligroso.
El devenir de la humanidad va hacia allí, y Rodríguez tiene la impresión de que mejor que Uruguay "no está ningún país". "Tiene muchas opciones para estar en un lugar privilegiado, se va a topar con estos inconvenientes", sostiene y afirma que ya el Ministerio de Industria y la Cámara Uruguaya de Tecnología de la Información se han mostrado interesados en debatir este proceso.
"Un camión autónomo se detiene de golpe, y para evitar el choque y que el robot mate a un montón de peatones tiene que doblar a la derecha y embestir a un anciano o doblar a la izquierda y chocar a un joven. En Uruguay, probablemente, por las costumbres, por la moral, casi todos embestirían al anciano. Son los códigos que aprendimos. El artículo 27 del CP dice que es "inevitable la situación la persona tiene que hacer e mal menor". Explicale a un programador que no hay ninguna ley que ordene los males de peor a menor", continúa.
"Si le enseñamos las costumbres uruguayas probablemente embista al anciano, pero si estuviera en una imaginaria nación teocrática radical, ¿no habría que ver el sexo para evitar el mal menor'. ¿y en la India? ¿No habría que ver de qué casta es?", se cuestiona.
Entonces, la pregunta cuestiona la ética, la ética con la que programaremos a nuestros softwares inteligentes. ¿Cómo lo hacemos? Eso es una segunda interrogante para hacerse.
"¿Hacemos encuestas? ¿Le preguntamos a Sturla? ¿Al gran rabino? ¿Le preguntamos al inspector de filosofía de secundaria o al chofer del camión? O le hacemos leer libros de nuestra cultura. Que lea a Rodó, etc. o a Horacio Quiroga, que lea "Cuentos de amor, de locura y de muerte" ... ojo con ese robot", bromea.
No es un tema de Uruguay es un tema de la especie. La sociedad está estructurada en la inteligencia artificial. No la vamos a parar. Están tomando decisiones éticas, y necesitamos saber qué ética y cómo se la vamos a enseñar", sentencia.
Montevideo Portal / Agustín Zabala
agustin.zabala@montevideo.com.uy