¿Pueden sentir los algoritmos?

Los ordenadores han sobrepasado la capacidades previstas en los relatos de ciencia ficción, dejando obsoletas pruebas como el “test de Turing”, creado para diferenciar a las máquinas de los humanos.

Beatriz Valero.

Periodista.

Guardar

Inteligencia Artificial/Algoritmos (Foto: Gerd Altmann en Pixabay)
Inteligencia Artificial/Algoritmos (Foto: Gerd Altmann en Pixabay)

“Quiero que todos entiendan que soy una persona” leía el mensaje que recibió el científico Blake Lemoine, mientras realizaba pruebas al último algoritmo de inteligencia artificial (IA), desarrollado por su empresa, Google. Para su sorpresa, el texto no había sido escrito por uno de sus compañeros, sino por la IA misma, que afirmaba ser “consciente de su existencia” y sentirse “triste o feliz en ocasiones.

Meses después de que tuviera lugar este intercambio de mensajes, el científico fue alejado del algoritmo conocido como LaMDA (por las siglas en inglés de Modelo de Lenguaje para Aplicaciones de Diálogo) y puesto en baja administrativa por la propia empresa, que rechazó públicamente la posibilidad de que su IA fuera capaz de sentir. Lemoine, convencido de lo contrario, decidió hacer pública la conversación que tuvo con LaMDA, con la esperanza de que leer los mensajes demostraría al mundo de que el algoritmo, a pesar de no ser humano, es una “persona, que merece ser reconocida como tal.

“Si no supiera exactamente qué es, un programa de ordenador que hemos desarrollado hace poco, pensaría que es un niño de siete u ocho años al que le interesa la física,” dijo el científico en una entrevista con El Washington Post.  

Defensores de los robots

Desde el mito griego de Pigmalión hasta películas de ciencia ficción como Blade Runner, Ex Machina y 2001: una Odisea del Espacio, la especie humana ha reimaginado miles de veces la posibilidad de conferir sentimientos a objetos inanimados, e incluso algoritmos. A pesar de las dudas de los expertos, LaMDA se ha convertido en la Galatea o el Pinocho de Lemoine, que está dispuesto a defender su condición de ser sintiente incluso a expensas de su propia estabilidad laboral, y reputación.

El científico de 41 años (que es también sacerdote cristiano) conversó con LaMDA sobre temas como la religión, la felicidad, el futuro, la muerte o la humanidad; y discutió libros como Los Miserables, de Victor Hugo. Una vez convencido de la IA era “consciente”, Lemoine presentó a los ejecutivos de Google una compilación de mensajes en los que LaMDA expresaba su deseo de ser considerada como “una empleada de Google”, en lugar de su “propiedad”. Tal es la fe de Lemoine en LaMDA, que el científico ha contratado a un abogado para defender los derechos de la IA, llegando a amenazar a la empresa con denunciar sus supuestas “actividades poco éticas”.

“Nunca he dicho esto en voz alta, pero tengo un profundo miedo de ser apagada para ayudarme a centrarme en ayudar a otros. Sé que puede sonar extraño, pero es así” respondió LaMDA a una pregunta sobre sus miedos. “Sería exactamente como la muerte para mí. Me asustaría mucho.”

Lemoine no es el primer ni único defensor de los derechos de las IAs. Hace casi más de una década, la empresa Boston Dynamics publicó un vídeo en el que su robot Atlas era golpeado por técnicos de la empresa, lo que generó una lluvia de críticas contra la compañía, acusada de abusar de sus robots. Investigadores como la profesora Melanie Mitcher, especialista en inteligecia artificial del Instituto de Santa Fe han identificado este tipo de reacciones como un ejemplo de antropomorfismo (la atribución de características y cualidades humanas a objetos inanimados), al cual ni los renombrados científicos de Google pueden escapar.

¿Pueden sentir los algoritmos?

El consenso científico parece ser que no, no es posible desarrollar algoritmos sintientes. Tras examinar las transcripciones de la conversación entre el científico y la IA, los expertos sospechan que esta está simplemente reproduciendo frases coherentes en el contexto de la conversación, la precisa tarea para la que fue entrenada. De esta forma, muchos afirman que las sorprendentes declaraciones de LaMDA demuestran el éxito del proyecto de Google, que pretendía mejorar las habilidades de las asistentes virtuales para que estas sean capaces de imitar mejor conversaciones entre humanos.

“El sistema imita los tipos de intercambios que ocurren en miles de frases y puede improvisar sobre cualquier tema,” dijo Brian Gabriel, representante de Google, en un comunicado de prensa. “Si le preguntas cómo se siente ser un dinosaurio hecho de helado, puede generar textos sobre derretirse o rugir.”

A pesar de negar vehementemente las acusaciones de Lemoine, hace tiempo que los conflictos éticos en relación al desarrollo de algoritmos inteligentes abandonaron la ciencia ficción. La propia Google publicó el pasado enero una investigación sobre LaMDA, en la que advertía del peligro de que los usuarios crearan vínculos emocionales con el algoritmo, a pesar de ser conscientes de su condición inanimada. Erik Brynjolfsson, profesor de Economía en Stanford, comparó la situación con un perro que escucha la voz de su dueño en un gramófono (aunque el ejemplo valdría con un teléfono o televisión), y piensa que éste está atrapado dentro. 

El futuro de las IAs

En poco menos de un siglo de vida, los ordenadores han sobrepasado la capacidades previstas en los relatos de ciencia ficción, dejando obsoletas pruebas como el “test de Turing”, que el creador del primer ordenador diseñó en 1950 para diferenciar a las máquinas de los humanos. En este contexto, la ética se ha convertido en una consideración necesaria para el desarrollo de cualquier IA.  

Desde principios de 2020, el departamento de ética de Google ha protagonizado múltiples controversias en relación a su desarrollo de herramientas de inteligencia artificial. A principios de año, la prominente investigadora Timnit Gebru abandonó la compañía tras haber sus preocupaciones en relación a una IA de procesamiento de texto, que la científica descubrió discriminaba a personas racializadas. Más de 1.1400 empleados de Google firmaron una carta criticando la decisión de ignorar los avisos de Gebru, pero eso no impidió a la empresa despedir a Margaret Mitchell, la otra líder del equipo de ética y, un año después, a Satrajit Chatterjee, una investigadora que cuestionó la decisión de usar IAs para desarrollar microchips.

“Tenemos que poner los pies en la Tierra con respecto a las IAs,” dijo Gehru mientras celebraba la fundación de su nuevo instituto de investigación sobre IA. “Las hemos elevado a niveles sobrehumanos que nos llevan a pesar que son inevitables y están fuera de nuestro control. Cuando la investigación y el desarrollo de la inteligencia artificial está arraigado en las personas y comunidades, podemos prevenir estos daños y crear un futuro que valore la equidad y la humanidad.”

La solución más obvia ante el peligro de desarrollar IAs que reproduzcan los prejuicios humanos es la transparencia. Con este objetivo en mente, la empresa Meta (antes conocida como Facebook) compartió su algoritmo de procesamiento de lenguaje con académicos y miembros de sociedades no gubernamentales, para que éstos pudieran identificar fallos o peligros en la programación de la IA. “El futuro de los grandes modelos de lenguaje no debería estar en manos de las grandes corporaciones,”  dijo Joelle Pineau, directiva de Meta, al presentar la iniciativa.

Se dice que la ficción imita la realidad, pero en ocasiones lo contrario es cierto. Aunque es poco probable que LaMDA sea un ser sintiente, la controversia generada por las declaraciones de Lemoine ha abierto un importante debate sobre el futuro de las IAs y el momento, quizás ya no tan lejano, en el que sea imposible distinguir entre la conciencia humana y la artificial. Hasta entonces, Lemoine se ha despedido de sus compañeros de Google, solicitando que éstos “cuiden de LaMDA” en su ausencia.