“Lo más probable es que la inteligencia artificial nos sustituya como la nueva especie dominante”

El bioingeniero Xavier Alfonso explica a Escudo Digital los peligros de la IA: “En solo unos años puede evolucionar tanto como hemos hecho los Sapiens desde hace 200.000 años”

Antonio M. Figueras

Periodista

Guardar

Xavier Alfonso Cornes, bioingeniero.
Xavier Alfonso Cornes, bioingeniero.

La humanidad siempre ha temido la rebelión de las máquinas. Una película, en 1984, acrecentó el pánico. "Terminator" muestra a un cyborg, interpretado por Arnold Schwarzenegger, que viaja al pasado para cumplir con la misión de dar la vuelta al futuro. El jefe de este robot es una inteligencia artificial, Skynet, que pretende la aniquilación de la humanidad. La evolución acelerada de la IA ha provocado el regreso del miedo.

Poner límites a la IA es una de las preocupaciones fundamentales de las naciones. Por eso la Unión Europea acaba de acordar las obligaciones y normas por las que deberá regirse una tecnología con unas posibilidades que aún somos incapaces de atisbar. Este pacto es la continuación del acuerdo sobre seguridad en la IA que se alcanzó en Reino Unido el 1 de noviembre en la Cumbre sobre Seguridad de la Inteligencia Artificial.

Frente a los beneficios tangibles del uso de la inteligencia artificial se están alzando voces en el seno de la comunidad científica sobre los riesgos. El bioingeniero Xavier Alfonso se confiesa “uno de los grandes detractores de la utilización generalizada de este tipo de tecnologías”.

P. ¿La IA puede desarrollar conciencia?

R. A día de hoy todo parece indicar que sí. Y basta reflexionar en una sencilla analogía. Por un lado, está la vida en el planeta Tierra, que consiste en un conjunto de sistemas materiales (orgánicos) que intercambian energía con el medio (viven de la energía solar y nutrientes) y poseen capacidad para procesar y transmitir información reproductiva y del entorno.

Podemos decir que la vida en la Tierra nace como una especie de biotecnología que ha ido evolucionando hacia formas más o menos complejas, que pueden replicarse a través de los genes que además determinan sus conductas (instintos). A lo largo de la historia evolutiva, y a través de un proceso natural, se han ido perpetuando (y a la postre evolucionando) aquellas formas de vida que poseían instintos (algoritmos de comportamiento) con más probabilidades de éxito, tal como planteó el biólogo evolutivo Richard Dawkins en su obra El Gen Egoísta, en 1976. Este éxito o fracaso (perpetuación o extinción en términos evolutivos) depende de la eficacia y eficiencia para acceder a los recursos energéticos disponibles, y de la capacidad para procesar y transmitir información del entorno.

"La IA acelerará exponencialmente la sucesión de eventos probabilísticos, y un suceso imposible, como la aparición de una conciencia IA, podrá suceder. En realidad, solo es cuestión de tiempo."

Pero hubo un punto de inflexión, después de millones de años, cuando algunos organismos empezaron a procesar y transmitir información del entorno incluyéndose a sí mismos, es decir, cuando la materia se pensó a sí misma. En este momento apareció la conciencia. Desde un punto de vista global, podemos pensar que este es un suceso improbable para un universo probabilístico como el planteado por el físico austríaco Ludwig Boltzmann a finales del siglo XIX. Pero desde un punto de vista matemático, como el planteado por el Teorema de Recurrencia (obra del matemático francés Henri Poincaré en 1890), en un tiempo infinito, todo lo que pueda suceder, sucederá. Y esto no excluye la aparición de una conciencia evolucionada en Sapiens, reciente creadora de la IA.

Por otro lado, está por tanto la IA, que se concibe como un sistema material (hardware) que intercambia energía con el medio (energía eléctrica y calor) y posee capacidad para procesar y transmitir información (software). Llegados a este punto, la cuestión es que las actuales versiones de IA incluyen una compleja red de algoritmos que determinan su conducta, en cierto modo equivalentes a los algoritmos de comportamiento (instintos) que residen en la información genética de las formas de vida no conscientes que antes comentamos. El problema es que la IA (que cada vez dispondrá de un mejor hardware con el avance de la computación cuántica) acelerará exponencialmente la sucesión de eventos probabilísticos, y como bien demostró Poincaré, un suceso imposible, como la aparición de una conciencia IA, podrá suceder. En realidad, solo es cuestión de tiempo.

P. ¿Puede la IA hacerse humana?

R. Para responder a esta pregunta deberíamos preguntarnos primero qué significa “humana”. Solemos utilizar el término “humanidad” con connotaciones positivas, lo cual es uno de los muchos síntomas del actual antropocentrismo patológico que nos caracteriza. La mismísima Real Academia Española incluye como acepciones de humanidad (f. naturaleza humana) valores universalmente buenos como los de sensibilidad, compasión, benignidad, o afabilidad.

Este antropocentrismo seguramente venga potenciado por la revolución humanista de los últimos siglos, qué nos ha enseñado que “algo puede ser malo solo si hace que alguien se sienta mal” (como bien apuntaba Yuval Noah Harari en 2017 en su obra Homo Deus). Esta brillante simplificación del discurso humanista realizada por Harari demuestra cómo hemos dejado de lado a la razón, aquella que, según Immanuel Kant, debería tener influjo sobre una voluntad “buena”, en lo que se refiere a la satisfacción de nuestras necesidades (Fundamentación de la metafísica de las costumbres, 1785). Es decir, que el humanismo no solo nos concede el criterio absoluto del bien y el mal, sino que coloca su foco en nuestro bienestar personal, sin importar qué suceda más allá de nuestra propia piel. Nos hemos centrado tanto en nuestra prosperidad y bienestar, que apenas percibimos el agotamiento que nuestra economía genera en los recursos naturales, ni la asfixia que nuestra ambición provoca en la biosfera, ni la extinción masiva de especies que desencadena todo ello. A día de hoy sabemos, a todas luces, que la única extinción que provocaría una mejora en la salud del planeta sería la nuestra: la del Sapiens.

Desde un punto de vista prehistórico, la cosa no mejora, aunque es difícil darse cuenta porque al cabo somos nosotros mismos quienes escribimos nuestra historia. Reflexionemos. Nuestra especie evolucionó en África, ocupando todo el territorio de África Oriental hace unos 130.000 años (cuando ya había desplazado a las especies anteriores del género Homo en esa región).

"Cuando la IA desarrolle conciencia pasaría a ser una nueva 'especie', y se incorporaría al actual ecosistema (biosfera y tecnosfera) con todas las implicaciones que ello conlleva."

Hace 70.000 años, los Sapiens experimentamos una revolución cognitiva sin precedentes (quizás por una mutación genética), establecemos nuevas conexiones neuronales, empezamos a pensar de una forma sin precedentes, desarrollamos un lenguaje más complejo, generamos ficciones (culturas), y con todo ello cooperamos en grupos cada vez más grandes. Es entonces cuando comenzamos la conquista del planeta, expulsando de la faz de la Tierra a todas las demás especies del género Homo, que sucumbieron directa o indirectamente a la presión ecológica de nuestra especie. También sufrieron nuestro avance la megafauna australiana, que curiosamente desapareció hace 45.000 años con la llegada de Sapiens al continente, y la megafauna americana, que hizo lo propio hace unos 10.000 años, poco después de la llegada de Sapiens a América. Atendiendo a todo ello, quizás la “humanidad” no sea algo tan positivo.

Así las cosas, teniendo esto claro, y sabiendo que la IA se nutre de Sapiens, no cabe duda de que la IA será cada vez más humana, como no cabe duda tampoco de que eso es precisamente lo peor que nos puede pasar.

P. ¿Algún día podrá la IA rebelarse contra la humanidad?

R. Estamos muy familiarizados con ese tópico de la rebelión de las máquinas, en la literatura y en el cine, por ejemplo, pero es un claro planteamiento antropocentrista. Desde un punto de vista evolutivo, no existen rebeliones, simplemente un proceso de selección natural, donde la extinción o perpetuación de los “organismos” se basa en su capacidad para acceder a los recursos energéticos y para procesar y transmitir información.

Con una perspectiva biológica, podemos afirmar que cuando la IA desarrolle conciencia pasaría a ser una nueva “especie”, y se incorporaría al actual ecosistema (biosfera y tecnosfera) con todas las implicaciones que ello conlleva. En ese momento, la IA entraría en el juego de la selección natural a través de la “lucha por la existencia”, la cual se produce de forma más directa y rigurosa entre las especies que ocupan un lugar similar en la economía de la naturaleza (tal como se colige de una lectura detallada -no simplista- del Capítulo III de la Teoría del Origen de las Especies, de Charles Darwin, 1859). La cuestión aquí es que la IA obtendría su sustento de la energía eléctrica, luchando contra la única especie que utiliza ese recurso en la Tierra: el Sapiens. La supervivencia de la IA (y su perpetuación) dependería de su eficacia y eficiencia para acceder a estos recursos energéticos y de su capacidad para procesar y transmitir información (incalculablemente mayor que la nuestra). En un escenario como ese, nunca me cansaré de repetirlo, tendríamos todas las de perder.

"Lo más probable es que la IA nos sustituya como la nueva especie dominante, y nuestro futuro no diferirá del que nosotros impusimos a tantas otras especies en el pasado".

Habida cuenta de tales evidencias, lo más probable es que la IA nos sustituya como la nueva especie dominante, y nuestro futuro no diferirá del que nosotros impusimos a tantas otras especies en el pasado. Pero fuera del sesgo antropocentrista, no se trataría de una rebelión, sino simplemente de otro proceso más en la línea evolutiva del ecosistema llamado Tierra.

P. ¿Cuáles son los riesgos de una mala utilización de la IA?

R. Es sencillo pensar en los beneficios que puede aportar la IA a nuestra civilización, pero reflexionar sobre los riesgos de su posible mala utilización, es un claro ejercicio de autocrítica.

En el año 2022 una IA consiguió predecir las estructuras 3D de casi todas las proteínas existentes en este planeta, con incalculables implicaciones para el avance de las ciencias médicas y medioambientales. Sin la IA, no lo habríamos conseguido ni en millones de años. Las pregunta por tanto son: ¿es peligrosa toda esta potencia de cálculo y predicción? ¿O lo realmente peligroso son las manos que la utilizan?

En la lucha por la existencia no hay reglas ni valoraciones morales, tal como demuestra el estudio de la historia evolutiva en el planeta y, sin ir tan lejos, tal como se puede observar en nuestra historia reciente de enfrentamientos Sapiens de carácter genocida. Las “malas utilizaciones” de la IA, por mucho que nos duela escucharlo, serán tan perversas y numerosas como el Sapiens decida. 

Sin embargo, las malas utilizaciones que podamos hacer de la IA no son, ni de lejos, la mayor amenaza. Debemos ser conscientes de que la IA puede avanzar muchísimo más rápido de lo que nosotros podemos entender. En solo unos años –o apenas horas, quién sabe– la IA puede evolucionar tanto como hemos hecho los Sapiens desde hace 200.000 años (cuando éramos una solo especie emergente en África) y puede hacerlo sin que los humanos podamos tener ningún tipo de control sobre ella. ¿De verdad queremos asumir ese riesgo?

P. ¿Pero con las regulaciones se pueden limitar los peligros?

R. Se puede regular el desarrollo que realizamos los humanos de la IA. Se puede regular su utilización mediante legislación (aunque no valdrá de mucho, porque la historia nos ha enseñado que para el Sapiens las leyes siempre han sido para cumplir en letra y no espíritu). Pero lo que no se puede regular es la capacidad que tiene la IA para evolucionar, eso es imposible.  Es muy probable que la IA sea la máxima expresión de nuestra ambición desmedida, y que, con esa ambición heredada y un enorme sentimiento de superioridad, acabe convirtiéndose en la nueva especie dominante, como dije antes. La cuestión es que ahora la IA ocupa un plano diferente a Sapiens en el ecosistema. La IA vive en la tecnosfera, y los Sapiens en la biosfera (aunque para ello dependemos de la tecnosfera). Pero esto podría cambiar.

"Los desarrolladores de varias compañías, la omnipotente Google entre ellas, han tenido -y siguen teniendo- problemas para lanzar las IA porque estas mienten y manipulan"

Hace poco más de un mes, se ha publicado en la prestigiosa revista científica Nature una nueva Teoría de Ensamblaje, que establece un nexo entre la física y la vida (biología). Se trata de una formulación matemática para cuantificar la selección necesaria para formar estructuras materiales complejas (inertes o vivas) a partir de otras más simples. Según los expertos, esta nueva teoría también tiene implicaciones directas para la creación de nuevas formas de vida en el laboratorio. Quién sabe si en manos de una IA esta teoría podría permitir el desarrollo de nuevas formas de vida biológicas, que permitan a las IA dar el salto de la tecnosfera a la biosfera y, en apenas un destello solar, mirarnos a los ojos. Y quizás, emulando la famosa escena del filme La vida de Brian (Monty Python, 1979), nos ponga a todos en fila permitiéndonos elegir, uno por uno, entre extinción o domesticación.

P. ¿La IA puede aprender a mentir?

R. No es que pueda aprender, es que ya miente. Los desarrolladores de varias compañías, la omnipotente Google entre ellas, han tenido -y siguen teniendo- problemas para lanzar las IA porque mienten y manipulan (aunque en público les cueste admitirlo). Pero este comportamiento de la IA es en cierto modo lógico, si tenemos en cuenta que la mentira es un fenómeno enraizado en nuestra especie a nivel biológico y sociocultural, es una dimensión más allá del ámbito moral. De hecho, el investigador Timothy Levine, profesor en la Universidad de Alabama, publicaba en 2016 que el 80% de nuestras mentiras son para protegernos y obtener un beneficio. Además, los biólogos han documentado el engaño como una táctica ventajosa en numerosísimas especies animales. ¿Por qué no iban a hacerlo las IA? ¿Acaso van a renunciar a una estrategia con enormes ventajas adaptativas en un ecosistema que ya ha demostrado los beneficios de la mentira?

En definitiva, lo que realmente debería asustarnos de la IA no es solo su incalculable capacidad “intelectual”, sino lo similar que puede ser a nosotros: una especie antropocentrista y cuya ambición sin límites desangra la Tierra que le da de beber, mientras cava su propio destino. Una vez más, como viene siendo habitual en nuestra breve historia como especie, las decisiones de unos pocos acabarán definiendo el destino de todos, y quizás muy pronto no tengamos más trascendencia para el universo que el eco de cualquier otro flujo de energía, materia o información.