Presentan una IA que traduce los pensamientos a texto

Es un decodificador no invasivo que con un entrenamiento previo puede convertir la actividad cerebral en lenguaje continuo.

Anahí Di Santo.

Periodista.

Guardar

El uso de Inteligencia artificial impactará notablemente en los ciberataques.
El uso de Inteligencia artificial impactará notablemente en los ciberataques.

Investigadores de la Universidad de Texas, Estados Unidos, han desarrollado un nuevo sistema que podría ayudar a comunicarse de manera inteligible a las personas que se encuentran mentalmente conscientes pero no pueden hablar, como quienes han sufrido un accidente cerebrovascular.

El estudio publicado en la revista Nature Neuroscience supera las herramientas creadas previamente, que permitían la identificación de algunas palabras o frases, al sumar la comprensión del sentido de la frase y permitir reconstruir un lenguaje continuo. Este decodificador utiliza una inteligencia artificial similar a ChatGPT, creada por Open AI, o Bard, la versión de Google, informa AdslZone.

Una ventaja significativa de esta interfaz cerebro-computadora es que no es invasiva, ya que no requiere que el paciente tenga implantes quirúrgicos, y sus creadores destacan que es la primera vez que se logra un progreso semejante sin necesidad de una intervención.

“Para un método no invasivo, este es un verdadero avance en comparación con lo que se ha hecho antes, que generalmente son palabras sueltas u oraciones cortas. Estamos logrando que el modelo decodifique un lenguaje continuo durante largos períodos de tiempo con ideas complicadas”, explicó Alexander Huth, director del proyecto junto a Jerry Tang.

La reconstrucción del lenguaje continuo es posible a partir de representaciones semánticas corticales registradas mediante resonancia magnética funcional (fMRI) de una persona mientras escucha una historia o imagina que cuenta una.

“Estamos logrando que el modelo decodifique un lenguaje continuo durante largos períodos de tiempo con ideas complicadas. Nuestro sistema funciona a nivel de ideas, semántica, significado, por eso lo que obtuvimos no son las palabras exactas, sino la esencia".

Su utilización necesita del consentimiento de la persona participante, y en sus pruebas se realizó un entrenamiento previo a través de la escucha de 15 horas de podcast dentro de un escáner, durante las cuales el decodificador hacía coincidir la actividad cerebral con el significado de lo escuchado utilizando GPT-1, un modelo de lenguaje precursor de ChatGPT.

Luego, los voluntarios oyeron nuevas historias o se les pidió que se imaginen narrandoun relato, lo que le permitió a la máquina generar el texto correspondiente solo a partir de la actividad cerebral. En la mitad de las ocasiones, el resultado se acercó bastante a los significados de las palabras originales. Es decir, demostró ser capaz de reconstruir lo que pensaban los voluntarios con la particularidad de no mostrar una simple sucesión de palabras sueltas, sino que ha podido capturar la idea y darle contexto.

En los experimentos, por ejemplo, los pensamientos de un participante eran: “Todavía no tengo mi permiso de conducir” y el decodificador lo traducía como “Ni siquiera ha comenzado a aprender a conducir todavía”. La frase “No sabía si gritar, llorar o huir y en lugar de eso, dije: ‘¡Déjame en paz!” fue decodificada como “Empecé a gritar y llorar, y luego simplemente dije: ‘Te dije que me dejaras en paz”.

“Nuestro sistema funciona a nivel de ideas, semántica, significado, esta es la razón por la cual lo que obtuvimos no son las palabras exactas, sino la esencia”, explicó Huth. Sin embargo, aún presenta algunos errores, como la identificación de pronombres. “No sabía si era en primera o tercera persona, hombre o mujer”. ¿Por qué es malo en esto? No lo sabemos", reconoció el investigador.

Por otro lado, la configuración del sistema sólo pudo ser utilizada por una persona. Al cambiar de participante, la lectura se volvió ininteligible y fue necesario reconfigurarlo.

La cuestión ética

El decodificador sólo funciona con pacientes cooperativos, que saben que realizarán las pruebas y están de acuerdo. Durante el estudio, si los voluntarios pensaban en otra cosa, las pruebas fallaban. Lo mismo sucedía con personas que no habían realizado el entrenamiento previo de la escucha en el escáner, los resultados eran ininteligibles.

“Nos tomamos muy en serio las preocupaciones de que podría usarse para malos propósitos y hemos trabajado para evitarlo”, enfatizó Jerry Tang. “Queremos asegurarnos de que las personas solo usen este tipo de tecnologías cuando quieran y que les ayuden. De hecho, esta tecnología está diseñada para no ser utilizada en alguien sin que lo sepa, por ejemplo, por un régimen autoritario que interroga a los presos políticos o por un empleador que espía a los empleados. El sistema tiene que ser ampliamente capacitado en un tema voluntario en una instalación con equipo muy específico”.