Contenido ofrecido por
Aeternal Mentis.

Fujitsu y el MIT replican el cerebro humano con una IA que reconoce datos invisibles

Esta tecnología basada en el cerebro humano es capaz de reconocer con precisión datos diferentes de los que posee en su base de datos de entrenamiento.

Guardar

Imagen digital de un cerebro.
Imagen digital de un cerebro.

Parece un titular de ciencia ficción, pero la compañía japonesa Fujitsu y el Instituto Tecnológico de Massachusetts (MIT), han desarrollado una tecnología que es capaz de reconocer datos invisibles, es decir, los que están fuera de distribución o son datos sustancialmente diferentes de los datos vistos durante el entrenamiento de la IA (ODD), lo que replica en gran medida el funcionamiento del cerebro humano.

El logro conseguido por Fujitsu y por el Centro de Cerebros, Mentes y Máquinas (CBMM) del MIT marca “un hito” en la mejora de la precisión de los modelos de IA, y fue presentado el pasado 8 de diciembre de 2021 en la prestigiosa Conferencia sobre Sistemas de Procesamiento de Información Neuronal (NeurIPS 2021).

Ambos equipos han explorado los principios computacionales inspirados en la neurociencia para que los modelos de inteligencia artificial puedan reconocer datos no vistos que se desvían de lo pautado previamente.

Esta precisión en la forma en que un objeto es percibido por las neuronas y cómo las redes neuronales profundas (DNN) clasifican esas imágenes de entrada puede empeorar cuando las condiciones ambientales -como la iluminación o la perspectiva- varían. Debido a este problema, los investigadores optaron por, en lugar de considerar las redes neuronales profundas como un todo, dividirlas en módulos dependiendo de las formas, colores y otros atributos de los objetos, e inspiraron su enfoque en las características cognitivas de los seres humanos y su cerebro (que aprende a través de la práctica y de cometer errores).

Imagen que contiene Interfaz de usuario gráficaDescripción generada automáticamente

Fujitsu / Imagen: Principios que permiten a la IA lograr una alta precisión de reconocimiento de datos OOD utilizando un índice original que indica el grado de reconocimiento de imágenes de la IA

Como resultado, han obtenido un modelo de IA que ha logrado la mayor calificación en precisión en una evaluación que mide la exactitud del reconocimiento de imágenes frente a la referencia CLEVR-CoGent (punto de referencia desarrollado por la Universidad de Stanford para medir la capacidad de una IA para reconocer nuevas combinaciones de objetos y atributos).

El doctor Seishi Okamoto, Fellow de Fujitsu Limited aseguró en una nota de prensa publicada en la  web de su compañía que este logro marca un hito importante para el desarrollo futuro de la tecnología de IA, que podría ofrecer una nueva herramienta para entrenar modelos que puedan responder con flexibilidad a diferentes situaciones y reconocer incluso datos desconocidos que difieran considerablemente de los de entrenamiento originales con gran precisión. “Esperamos con interés las emocionantes posibilidades del mundo real que esto abre", añadió.

Superar los sesgos de la IA

Por su parte, el doctor Tomaso Poggio, catedrático Eugene McDermott del Departamento de Ciencias Cerebrales y Cognitivas del MIT y director del Centro de Cerebros, Mentes y Máquinas, explicó que existe una brecha significativa entre las DNN y los humanos cuando se evalúan en condiciones fuera de distribución, lo que compromete seriamente las aplicaciones de la IA, especialmente en términos de su seguridad y equidad.

“La investigación inspirada en la neurociencia puede dar lugar a nuevas tecnologías capaces de superar el sesgo de los conjuntos de datos. Los resultados obtenidos hasta ahora en este programa de investigación son un buen paso en esta dirección", aseveró

Con este importante avance tecnológico se espera acabar superando el sesgo de los conjuntos de datos y avanzar hacia aplicaciones con inteligencia artificial para el diagnóstico por imágenes médicas de posibles lesiones o para la vigilancia y monitorización del tráfico.

 

Archivado en: