mauricio-fernandez-escudodigital

Opinión

Pasiones humanas e Inteligencia Artificial

Editor de Escudo Digital

Guardar

Es posible que un mundo en el que los jueces sean programas de IA no esté tan lejos.
Es posible que un mundo en el que los jueces sean programas de IA no esté tan lejos.

Sostiene Victor Küppers, doctor en Humanidades y conocido conferenciante en el campo de la psicología positiva, que la inteligencia es un rasgo sobrevalorado y que esta sin bondad “conduce a un mundo inmoral, falto de ética y perverso, donde sólo importan los beneficios”. Cree, en cambio, este popular divulgador que sin perder de vista a la inteligencia debemos fijarnos más en los sentimientos y en nuestra capacidad para empatizar como forma de conseguir nuestros objetivos.

Esta idea también nos la podemos llevar al campo de la inteligencia artificial, ámbito que no para de crecer y ampliar sus posibilidades y en el que también se está trabajando para aumentar esta capacidad de empatizar de los sistemas, de crear vínculos más allá de los que son naturales de los propios algoritmos matemáticos. Es esta una labor cuanto menos paradójica, porque crear sentimientos a partir de un artificio incapaz de tenerlos debe ser al menos una tarea compleja que parte de la base de la posibilidad de descifrar empíricamente emociones y sentimientos, lo que nos lleva directamente hacia debates filosóficos de esos que admiten muchas preguntas y pocas (o ninguna) respuesta, tipo ¿puede reducirse el amor o la creatividad a un conjunto de algoritmos?

Pero una cosa es crear y otra emular esos sentimientos, camino por el que avanza la IA para conseguir esta afinidad necesaria con el ser humano en los desarrollos en los que esta es necesaria, como por ejemplo la robótica diseñada para convivir con las familias.

Son muchos y muy sorprendentes los sistemas de IA que cruzan ya la frontera de tareas en las que además de la inteligencia se precisan emplear otras cualidades de la condición humana, como puedan ser la intuición o la experiencia. Es el caso, por ejemplo de la tecnología de IA desarrollada en China -país en el que el 78% de los ciudadanos creen que la Inteligencia Artificial "aportará más beneficios que inconvenientes", según un estudio del Foro Económico Mundial de Davos- que ya permite sustituir a un fiscal en la tarea de evaluar evidencias criminales y presentar nuevos cargos. La máquina, según desvela un artículo reciente publicado en el South China Morning Post, puede mostrar evidencias con un 97% de certezas con la base de la descripción verbal del caso. El sistema ha sido probado en el distrito de Pudong, en Shangay, y está capacitado para identificar ocho tipos de delitos, entre ellos el de fraude con tarjetas de débito y crédito, juego clandestino, lesiones intencionadas, estafa, y es capaz de presentar sus propios cargos.

Esta noticia, una más de las muchas que leemos a diario sobre estos menesteres, me lleva formularme, y a invitar al lector a que se cuestione, esta posibilidad: en caso de que tuviera un juicio, ¿estaría a favor o en contra de que el fiscal fuera un sistema artificial? ¿Cree que esto le beneficiaría o le perjudicaría en caso de ser acusador o acusado? Porque, como hemos dicho, la IA puede ser muy racional, pero los humanos somos muy pasionales y emocionales y, en caso de conflicto, quizá sea esa parte de nuestra personalidad la que aloje las claves de lo sucedido.

El caso es que estos “abogados de la sociedad”, como se les ha denominado, se han “entrenado” con más de 17.000 casos penales en el periodo comprendido entre 2015 y 2020 y están listos para actuar y, aunque es cierto que no pueden sentir, sí son capaces de procesar hasta mil características de un expediente, tarea impensable para una mente humana. También puede ser que esa incapacidad para sentir o emocionarse, o dejarse influir por afinidades éticas, raciales o políticas, lejos de suponer una limitación, sea una ventaja que nos lleve a considerar nuestra respuesta a la anterior pregunta. Porque, ¿quién está mejor preparado para actuar sin sesgos ideológicos o errores, el ser humano o la IA?

Este artículo ha sido publicado originalmente en el número del mes de enero de la revista Capital.