• Home /

  • /

  • Alejandro Echeverría, investigador: “Ya es difícil distinguir una IA de un humano en muchos casos"

Entrevistas

Alejandro Echeverría, investigador: “Ya es difícil distinguir una IA de un humano en muchos casos"

Conversamos sobre inteligencia artificial confiable, ciberseguridad, asistentes virtuales, singularidad tecnológica y minería de datos con Alejandro Echeverría, investigador principal de Funditec (Fundación para el Desarrollo y la Innovación Tecnológica).

Periodista

9 minutos

Alejandro Echeverría, investigador principal de Funditec, ilustra en esta entrevista cómo la IA está mejorando nuestros niveles de bienestar en el día a día

Alejandro Echeverría Rey es Investigador principal en el área de Inteligencia Artificial, Aprendizaje Automático y Ciberseguridad en Funditec (Fundación para el Desarrollo y la Innovación Tecnológica). Entre sus tareas, está la dirección de equipo y proyectos de investigación, a escala nacional y europea, aplicando AI/ML+Cyber a diversos campos y sectores (sanidad, ecología, smart cities, biotecnología, protección y seguridad de la información, etc).

También es Profesor Investigador en la Universidad Francisco de Vitoria, así como Socio y Administrador de Businessfokus, una plataforma digital que emplea la minería de datos y la innovación para incrementar la productividad, la satisfacción y el trato personalizado de los stakeholders (las partes interesadas o públicos de interés que orbitan en torno a una organización). Echeverría nos atiende con su habitual amabilidad. Es un rara avis en el ámbito científico, en el sentido de que tiene la habilidad de explicar realidades complejas de una manera amena y didáctica, no exenta de algunas briznas de humor, ese ingrediente con el que le encanta salpimentar sus relaciones personales.   

¿Puedes ponernos algunos ejemplos para dimensionar por qué la Inteligencia Artificial es tan importante en nuestras vidas? También nos gustaría que nos contaras algunos ejemplos de cómo será su influencia de aquí a 10 años.  

Ejemplos de inteligencia artificial en nuestras vidas hay muchos porque ya está totalmente integrada. Por ejemplo, en esa línea funcionan los asistentes digitales de voz, el reconocimiento de imagen (de cara, para fines biométricos, o en las cámaras, así como de objetos en fotos o en movimiento, como el reconocimiento de vehículos u objetivos militares en drones). En esa categoría también entran los chatbots de atención al cliente, que conversan contigo por chat de forma automática. Así como cualquier aspecto relacionado con la recomendación, ya sea de productos de compra o bien de canciones y películas, en base a tus gustos. También está presente en las aplicaciones de mapas o en todo lo relacionado con la casa inteligente.  

En un futuro próximo se espera que se consolide la creatividad generada por Inteligencia Artificial, que ya tiene un recorrido de años. Algo que se apreciará, por ejemplo, en los textos que se generan automáticamente, que serán cada vez más humanos y sensibles.

También es estimable el desarrollo en la creación de imágenes o dibujos a partir de palabras clave (por ejemplo, se puede escribir fiesta de gusanos con sombrero y el algoritmo genera un dibujo o imagen nunca antes visto, que cumple con esos términos; es el caso de la imagen que os comparto a continuación). Por otro lado, la IA cada vez tendrá más autonomía y por tanto más responsabilidad. En ese aspecto, se abren espacios legales que plantean dilemas importantes. Por ejemplo: si es una inteligencia artificial la que comete un delito, ¿quién se responsabiliza? 

Esta imagen es el resultado generado por la inteligencia artificial para la directriz fiesta de gusanos con sombreros.
 
Actualmente, trabajo dentro de FUNDITEC (que es un centro tecnológico de investigación e innovación de referencia en nuestro país) en uno de los temas más punteros en Europa en cuanto a inteligencia artificial, que trata sobre la articulación del marco confiable de la misma. Es decir, se trata de evaluar y conseguir que la Inteligencia Artificial sea segura, justa, transparente y responsable. Es lo que se conoce como Trustworthy Artificial Intelligence. 
¿De qué manera crees que van a mejorar los asistentes virtuales? De las aplicaciones para ayudar a las personas que conoces… ¿Cuáles te parecen más inspiradoras?  

Sin duda, la respuesta para mí a ambas preguntas es una mayor prevalencia del factor humano en la generación de sus respuestas y ayuda. Más allá de conseguir el objetivo de un asistente, lo que se intenta conseguir es que lo haga de la forma más amigable y sensible posible. En esa línea, lo ideal es articular conversadores virtuales con sensibilidad y sentimientos, para que sea más cómodo y agradable para el usuario interactuar con él. Ese punto es justamente uno de los más difíciles de conseguir en estos sistemas. 

Dar soporte a personas con dependencia es otro de los retos maravillosos y motivantes de la inteligencia artificial aplicada en cuanto a interacción con el ser humano. Por ejemplo, se está trabajando en el desarrollo de tutores digitales que escuchan e interactúan con niños con problemas de aprendizaje e interacción, así como con personas con problemas en el habla.

También resultan muy interesante los algoritmos que se están llevando a cabo para efectuar la identificación de sentimientos, en audio o video, que se producen en la conversación de un asistente virtual con una persona, lo que podría facilitar que la aplicación de IA ayude a esa persona en el plano psicológico a partir de la información que detecte en esa interacción.  

En tu experiencia profesional, has dedicado mucha energía y tiempo a implementar el Big Data (minería de datos) y la ciberseguridad en diferentes proyectos empresariales ¿Cuáles crees que son las principales fortalezas, debilidades y oportunidades de desarrollo de la ciberseguridad en el ámbito corporativo?  

La seguridad digital es algo que no se tiene en cuenta normalmente en el ámbito corporativo, hasta que no sucede alguna incidencia. La cantidad de información disponible es cada vez más grande y, por tanto, las medidas a implementar deben ser cada vez más robustas y complejas para que se pueda analizar todo el torrente de información y sucesos digitales que hay en una compañía. Sin duda, la minería de datos ayuda a analizar y entender toda esta información, y a detectar y predecir sobre ellos incidentes de seguridad. 

Hoy en día el tratamiento automatizado e inteligente de la información es el mejor aliado que existe de la ciberseguridad. 

"La IA actualmente ya tiene mayor capacidad intelectual en muchos aspectos separados concretos del intelecto. Nos gana en memoria, en razonamiento deductivo, en predicción, en correlación de múltiples eventos, etc".  

¿Qué es la singularidad tecnológica? ¿Cómo podemos convertir la Inteligencia Artificial en un avance que beneficie al conjunto de la comunidad humana?  

La singularidad tecnológica es un paradigma que enmarca el desarrollo tecnológico y que postula (sospecha) que, como la tecnología progresa tan rápido, la inteligencia artificial terminará teniendo una capacidad intelectual mayor que los humanos y nos controlará.  

La IA actualmente ya tiene mayor capacidad intelectual en muchos aspectos separados concretos del intelecto. Nos gana en memoria, en razonamiento deductivo, en predicción, en correlación de múltiples eventos, etc.  

El miedo a que la tecnología sustituya al ser humano existe desde la primera revolución industrial. Sin embargo, la inteligencia artificial debe estar al servicio de la toma de decisiones del ser humano y ayudar a explicar mejor lo que sucede, y a detectar y predecir teniendo en cuenta ingentes cantidades de datos. Que beneficie a toda la humanidad está en nuestras manos, en la medida en la que se realicen aplicaciones en el ámbito social y sanitario, y siempre con un alcance internacional. Mientras se mantenga ese equilibrio, la inteligencia artificial seguirá siendo beneficiosa para el ser humano. 

Mucho de tu tiempo de investigación y trabajo en la actualidad está centrado en programar una IA más segura y confiable. ¿Cómo se puede articular? ¿Nos relatas algunos ejemplos de cómo se están programando mejoras en su fiabilidad? 

Primero me gustaría hablarte de los riesgos. Cuando un coche autónomo se mueve sólo por una ciudad, puedes alterar las señales de tráfico de manera estratégica (poniendo algunas pegatinas, por ejemplo) de manera que el coche entienda que es una señal diferente y lo desvíes. Este ejemplo sería un ataque contra su fiabilidad, malintencionado. También puede suceder que el algoritmo que haya aprendido de unos datos sesgados, carentes de equilibrio y criterio de realidad. Esto ha pasado, por ejemplo, en analizadores de riesgo de crimen en Estados Unidos, donde un algoritmo asignaba a todas las personas afroamericanas un alto índice de riesgo delictivo, porque el algoritmo estaba nutrido por una base de datos con personas afroamericanas que habían cometido algún tipo de delito. Este es un ejemplo claro de sesgo en la muestra de entrenamiento.  

Para evitar estas dinámicas que incurran en injusticias, prejuicios o racismo, se puede realizar un análisis de los datos que utiliza el algoritmo de IA, así como del proceso que desarrolla para aprender y luego poner en práctica lo aprendido (que se llama explotación o uso). La idea de esas pruebas es detectar posibles "fallos" en la confiabilidad antes de que empiecen a funcionar para las organizaciones o el gran público.  

¿Cuáles son los desarrollos o resultados que os piden desde la Unión Europea para disfrutar de los fondos que estáis captando para desarrollar o implementar esas mejoras en la seguridad y confiabilidad de la IA en Funditec?  

Desde Europa se está legislando y exigiendo cada vez más que la inteligencia artificial que se utilice en los proyectos sea confiable, no sólo eficaz. Sobre todo, en ámbitos en los que el uso de la IA supone un impacto muy grande en caso de no ser fiable, como por ejemplo que un coche autónomo se equivoque en la conducción o que un sistema de salud falle en el diagnóstico. Nuestros esfuerzos de centran en afinar aspectos como esos de la IA.  

En sintonía con la pregunta anterior, son bastantes las voces que apuestan por incorporar a los filósofos para que los expertos en IA podáis afinar en los aspectos de software vinculados a una resolución ética de los dilemas morales a los que se enfrentará la IA cuando despliegue de manera más sofisticada su capacidad exponencial para aprender. ¿Qué te parece esta idea? 

La filosofía y la ética son fundamentales y deben ser escuchadas y tenidas en cuenta en el ámbito de los profesionales que articulamos la inteligencia artificial. Al igual que las matemáticas, la tecnología, biología y la psicología son importantes para complementar la "naturalidad" de la inteligencia artificial. Personalmente, he sido y soy asiduo lector y alumno permanente en estos campos desde que comencé hace 22 años en este ámbito, por la gran sinergia que aportan estas disciplinas al campo de la Inteligencia Artificial. 

"En síntesis, replicar humanidad al 100% es muy complejo, pero simular la humanidad necesaria para que el propio ser humano no detecte la diferencia, es cada vez más real".  

Entre las pegas que se pone a la IA, a día de hoy, se apunta a su falta de autonomía para aprender (en el sentido de que no tiene la chispa de la creatividad humana, para salirse de un esquema de pensamiento prefijado). También se apuntan los elevados costes que representa, así como su incapacidad para desplegar simpatía o compasión. También está el riesgo de que nos hagamos muy dependientes de esas aplicaciones. ¿Cómo valoras estas dificultades? ¿Se pueden solventar a futuro? 

Hay que diferenciar entre la inteligencia artificial aplicada a resolver un problema y la que intenta dejar de ser artificial para copiar al ser humano.

A nivel resolutivo, la inteligencia artificial a día de hoy genera un beneficio increíble en prácticamente cualquier sector y tipo de proyecto en el que se plantee. 

A nivel humanoide, aunque más retrasado, ya es difícil distinguir en muchos casos una IA de un humano en algunas situaciones. Desde que se afianzó el uso del aprendizaje profundo (Deep Learning) en el campo de la creatividad, se están dando pasos de gigante que ya rivalizan con los creadores humanos. 

En síntesis, replicar humanidad al 100% es muy complejo, pero simular la humanidad necesaria para que el propio ser humano no detecte la diferencia, es cada vez más real. 

La última, ¿cómo crees que será la IA del futuro cuando tu hijo tenga la edad que tú tienes ahora, en 2050?  

No todo en tecnología experimenta un crecimiento permanentemente y lineal. La mayoría de las veces colapsa y evoluciona con cambios bruscos y cámbricos (el período Cámbrico, dentro de la era paleozoica, produjo el estallido de vida más intenso jamás conocido, que incluye muchos de los principales grupos de animales presentes en la actualidad).  

En mi opinión, la capacidad y potencia de la IA para solucionar problemas y resolver incógnitas seguirá creciendo. No obstante, sí que imagino una alternancia en cuanto a la toma de decisiones.

Dicho de otra manera: intuyo una IA en 2050 con muchísimo más potencial que hoy en día, más flexible, armónica y humana, y también más integrada en el campo del entretenimiento. Sobre todo, gracias a su vertiente amigable. Pero con mucha menor capacidad de decisión autónoma, debido probablemente a alguna experiencia traumática que haya hecho que se limite su libertad y se otorgue la toma de decisiones al ser humano de manera más radical (o con su respaldo). Todo ello promovido por una estandarización y legislación más rígida en este ámbito.