Microsoft retira algunas capacidades de análisis facial y comparte su estándar de IA responsable

La compañía ha anunciado que ha tomado varias medidas con las que considera estar dando un "paso importante" en su "viaje para desarrollar una IA mejor y más fiable".

Guardar

Inteligencia Artificial
Inteligencia Artificial

Microsoft ha anunciado que ha tomado varias medidas con las que considera estar dando un "paso importante" en su "viaje para desarrollar una Inteligencia Artificial (IA) mejor y más fiable".  

El gigante tecnológico ofrece software de reconocimiento facial con servicios como Azure Face, que forma parte de Azure Cognitive Services y presenta algoritmos de IA capaces de detectar, reconocer y analizar caras humanas. Si bien esta tecnología puede ser beneficiosa para los usuarios a la hora de realizar distintas acciones, como obtener el control de acceso sin contacto o la verificación de identidad, sus métodos han sido cuestionados por organismos a favor de los derechos humanos, ya que consideran que ponen en peligro la privacidad de los usuarios.

Tanto es así que en junio de 2020 Microsoft dejó de vender tecnología de reconocimiento facial a los departamentos de Policía de Estados Unidos, a la espera de la resolución de un reglamento estricto cimentado en los derechos humanos.  Actualmente, distintos legisladores en Estados Unidos y Europa están sopesando las limitaciones legales de estos servicios, que en muchas ocasiones son tachados de poco confiables o invasivos.

Según Microsoft, las leyes se "están quedando atrás" porque "no se han puesto al día con los riesgos únicos de la IA o las necesidades de la sociedad", pero también reconoce su "responsabilidad de actuar". "Creemos que debemos trabajar para garantizar que los sistemas de IA sean responsables por diseño", afirma la compañía.

Para avanzar hacia este objetivo, Microsoft ha compartido su estándar de Inteligencia Artificial en un documento público, en el cual ha detallado por primera vez cómo desarrolla y aplica esta tecnología, para lo que se basa en una serie de principios: justicia, fiabilidad, privacidad y seguridad, inclusividad, transparencia y responsabilidad.

La compañía también ha anunciado que en el último año, investigadores, ingenieros y expertos en políticas de privacidad han elaborado la segunda versión de su estándar inicial, que se lanzó internamente en 2019. Además, ha aclarado que este nuevo estándar es "un documento vivo", de manera que, a medida que avance en su implementación, irá abordando nuevas tecnologías para lograr una solución responsable.

De hecho, la compañía ya se ha esforzado en solucionar un problema descubierto por Stanford Computational Policy Lab en un estudio académico, en el que se reveló que la tecnología de texto a voz discriminaba a la población negra y afroamericana. Microsoft se centró en resolverlo y también ha revisado el potencial de la tecnología Custom Neural Voice, de Azure AI, que permite crear voces artificiales prácticamente idénticas a las originales.

Tras este análisis, ha adoptado un marco de control por capas para evitar el mal uso de este sistema y ha precisado que está limitando el acceso a estos servicios a ciertos clientes y socios.

También ha retirado algunas capacidades de análisis facial

Por otra parte, ha informado que, como parte de su trabajo para alinear su servicio Azure Face con los requisitos del nuevo estándar, está retirando las capacidades "que infieren en estados emocionales y atributos de identidad, como el género, la edad, la sonrisa, el vello facial, el cabello y el maquillaje".

En este sentido, la compañía señala que, a partir de ahora, los nuevos clientes deberán solicitar acceso para utilizar las operaciones de reconocimiento facial en servicios como Azure Face API, Computer Vision y Video Indezer.

Por el contrario, los clientes ya existentes disponen de un año para solicitar y recibir la aprobación correspondiente para acceder a estos servicios. De ese modo, a partir del 30 de junio de 2023, estos clientes ya no podrán acceder a las capacidades de reconocimiento facial si su solicitud no ha sido aprobada.

Esta limitación no incluye las capacidades de detección facial, incluida la borrosidad, la exposición, el ruido o el cuadro delimitador facial, que permanecerán disponibles y no requieren una aplicación adicional.

Sin embargo, Microsoft sí retirará las capacidades de análisis facial "que pretenden inferir estados emocionales y atributos de identidad como género, edad, sonrisa, vello facial, cabello y maquillaje", tal y como indica en su comunicado.

La empresa ha tomado esta decisión después de colaborar con investigadores internos y externos para comprender las limitaciones y los beneficios potenciales de esta tecnología, así como sus desventajas. "En el caso específico de la clasificación de las emociones, estos esfuerzos plantearon cuestiones importantes sobre la privacidad, la falta de consenso sobre una definición de las 'emociones' y la incapacidad de generalizar el vínculo entre la expresión facial y el estado emocional en los casos de uso, las regiones y la demografía", apunta Microsoft.