Avisan de los riesgos psicológicos de usar la IA para "hablar" con seres queridos fallecidos

Aplicaciones como 'Project December' y 'Here After' ya ofrecen recrear a los muertos con IA por una pequeña tarifa.

Guardar

Inteligencia Artificial.
Inteligencia Artificial.

La inteligencia artificial (IA) que permite a los usuarios mantener conversaciones de texto y de voz con sus seres queridos perdidos corre el riesgo de causar daño psicológico e incluso "perseguir" digitalmente a quienes se quedan atrás sin estándares de seguridad de diseño, según investigadores de la Universidad de Cambridge (Reino Unido).

Los 'Deadbots' o 'Griefbots' son 'chatbots' de inteligencia artificial que simulan los patrones de lenguaje y los rasgos de personalidad de los muertos utilizando las huellas digitales que dejan. Algunas empresas ya ofrecen estos servicios, proporcionando un tipo completamente nuevo de "presencia post mortem".

Los especialistas en ética de la IA del Centro Leverhulme para el Futuro de la Inteligencia de Cambridge describen tres escenarios de diseño para plataformas que podrían surgir como parte de la "industria de la vida futura digital" en desarrollo, para mostrar las posibles consecuencias de un diseño descuidado en un área de la IA que describen como de "alto riesgo".

Cuando los vivos se inscriben para ser recreados virtualmente después de su muerte, las empresas podrían utilizar los 'chatbots' resultantes para enviar 'spam' a familiares y amigos supervivientes con notificaciones no solicitadas, recordatorios y actualizaciones sobre los servicios que ofrecen, de manera similar a ser "acechado digitalmente por los muertos".

Incluso aquellos que inicialmente encuentran consuelo en un 'robot muerto' pueden sentirse agotados por las interacciones diarias que se convierten en un "peso emocional abrumador", argumentan los investigadores, pero también pueden ser impotentes para suspender una simulación de IA si su ser querido ahora fallecido firmó un largo contrato con un servicio de vida futura digital, apuntan en el texto de la investigación, publicada en la revista Philosophy and Technology.

"Los rápidos avances en la IA generativa significan que casi cualquier persona con acceso a Internet y algunos conocimientos básicos puede revivir a un ser querido fallecido", afirma la doctora Katarzyna Nowaczyk-Basinska, coautora del estudio e investigadora en el Centro Leverhulme para el Futuro de la Inteligencia de Cambridge (LCFI).

"Esta área de la IA es un campo minado ético. Es importante dar prioridad a la dignidad de los difuntos y garantizar que esto no se vea invadido por motivos financieros, por ejemplo, de servicios digitales de ultratumba.

"Al mismo tiempo, una persona puede dejar una simulación de IA como regalo de despedida a sus seres queridos que no están preparados para procesar su dolor de esta manera. Los derechos tanto de los donantes de datos como de quienes interactúan con los servicios de inteligencia artificial después de la muerte deben salvaguardarse por igual".

Ya existen plataformas que ofrecen recrear a los muertos con IA por una pequeña tarifa, como 'Project December', que comenzó aprovechando modelos GPT antes de desarrollar sus propios sistemas, y aplicaciones como 'HereAfter'. También han comenzado a surgir servicios similares en China.

Si bien Hollanek y Nowaczyk-Basinska dicen que los diseñadores de servicios de recreación deberían buscar activamente el consentimiento de los donantes de datos antes de su aprobación, argumentan que una prohibición de los 'deadbots' basada en donantes que no dan su consentimiento sería inviable.

Sugieren que los procesos de diseño deberían incluir una serie de indicaciones para quienes buscan "resucitar" a sus seres queridos, como "¿alguna vez has hablado con X sobre cómo te gustaría ser recordado?", de modo que la dignidad de los difuntos pase a primer plano en el desarrollo del 'deadbot'.

Los investigadores recomiendan restricciones de edad para los robots muertos y también piden una "transparencia significativa" para garantizar que los usuarios sean conscientes de que están interactuando con una IA. Podrían ser similares a las advertencias actuales sobre contenidos que pueden provocar convulsiones, por ejemplo.