• Home /

  • /

  • Apple instalará un software en los iPhones para detectar fotos de abuso infantil

Empresas

Apple instalará un software en los iPhones para detectar fotos de abuso infantil

Redactora especializada en Seguridad y Tecnología.

4 minutos

apple-522

Apple ha anunciado que está introduciendo nuevas funciones destinadas a ayudar a proteger a los niños de los depredadores sexuales que utilizan servicios digitales para contactar con ellos y terminar explotándoles. Se trata de tres herramientas que indica han sido desarrolladas en colaboración con expertos en seguridad infantil y que llegarán, en principio solo a Estados Unidos, a finales de este año en actualizaciones de su software para iPhones, iPad, Mac y Apple Watches.

El sistema criptográfico "neuralMatch"

Una de las principales preocupaciones del gigante tecnológico es la compartición de material de material de abuso sexual infantil y una de sus herramientas tiene el objetivo de frenar su difusión y es precisamente la que más está dando que hablar, generando una alarma entre los expertos de seguridad.

Se trata del sistema neuralMatch, que escaneará las bibliotecas de fotos de sus dispositivos antes de que se carguen en el almacenamiento en línea de iCloud Photos, comparándolas con una base de datos de fotos con pornografía infantil (o contenido ilegal relacionado) ya reportadas anteriormente.

Lo que se compara no es la imagen en sí, sino los 'hashes' de las imágenes, una especie de huella digital. Si detecta una coincidencia, entonces el personal de Apple evaluará la fotografía y, si confirma que es un caso de abuso infantil, se desactivará la cuenta del usuario y se informará al Centro Nacional de Niños Desaparecidos y Explotados de EE.UU. (NCMEC), que trabaja en colaboración con las autoridades.

Según explica Apple, neuralMatch está impulsado por una tecnología criptográfica llamada "intersección de conjuntos privados", que determina si hay una coincidencia sin revelar el resultado, ya que lo encripta. La compañía asegura que el sistema garantiza que ellos no pueden saber el contenido de las imágenes, a no ser que el sistema encuentre que guardan alguna similitud con la base de datos establecida.

"Esta nueva tecnología innovadora permite a Apple proporcionar información valiosa y procesable al NCMEC y a la policía con respecto a la proliferación de CSAM conocido. Y lo hace al mismo tiempo que proporciona importantes beneficios de privacidad sobre las técnicas existentes", asegura la compañía.

La preocupación y el temor de los expertos en privacidad y seguridad

Si bien los investigadores de seguridad apoyan los esfuerzos de Apple para combatir la propagación de material de abuso sexual infantil, también están preocupados ante la posibilidad de que neuralMatch pueda permitir a regímenes autoritarios espiar a sus ciudadanos.

"Es una idea absolutamente espantosa, porque conducirá a una vigilancia masiva distribuida de. . . nuestros teléfonos móviles y ordenadores portátiles", ha señalado Ross Anderson, profesor de ingeniería de seguridad en la Universidad de Cambridge, según recoge Financial Times.

Alec Muffett, investigador de seguridad y activista de privacidad que ha trabajado para Facebook, ha calificado el movimiento de Apple como un "enorme paso regresivo para la privacidad". En su opinión, y como informa el citado medio, "Apple está retrocediendo la privacidad para habilitar 1984 (en referencia a la novela de George Orwell)".

Matthew Green, profesor de criptografía de la Universidad Johns Hopkins, es otro de los expertos que no ve con buenos ojos esta herramienta de Apple y se cree que ha sido el primer investigador en pronunciarse al respecto en Twitter.

"Creo que también vale la pena recordarle algo a la gente: Apple opera el único servicio de mensajería encriptada E2EE *a gran escala* que queda en China, en iMessage".

"Entonces, cuando Apple desarrolla una tecnología que es capaz de escanear contenido encriptado, no puede simplemente decir 'bueno, me pregunto qué haría el gobierno chino con esa tecnología'. No es teórico", ha escrito en dos de sus tuits.

Desde la Electronic Frontier Foundation, pionera en las libertades civiles en internet, también han criticado el sistema neuralMatch y han apuntado que puede ser imposible para los investigadores externos comprobar si Apple realmente cumple su promesa de verificar solo una mínima parte del contenido almacenado en los dispositivos.

Las otras dos funciones que ha anunciado Apple para proteger a los niños

Las novedades de Apple en materia de protección infantil implican otras dos nuevas funciones. La primera de ellas está enfocada en ayudar a los padres a proteger el uso que hacen sus hijos de sus dispositivos. Para ello, la aplicación Messages utilizará el aprendizaje automático para detectar material sexualmente explícito y alertar a los usuarios (niños y padres) del envío o la recepción de este tipo de contenidos.

En el caso de que se trate de una imagen recibida, la 'app' la difuminará y mostrará una advertencia, recursos informativos e incluso un aviso a los niños en el que les indica que "está bien si no quiere ver esa foto" o que sus padres serán notificados si decide ver la imagen. Si por el contrario se trata del envío de este tipo de contenidos, el menor recibirá una advertencia y los padres una notificación.

Esta herramienta de Messages estará disponible en las cuentas familiares de iCloud para iOS 15, iPadOS 15 y macOS Monterey.

La tercera y última novedad de Apple es que ha reforzado Siri y Search para proporcionar recursos adicionales para ayudar a los niños y padres a mantenerse seguros en internet y obtener ayuda en situaciones inseguras. "Por ejemplo, los usuarios que le pregunten a Siri cómo pueden denunciar el abuso sexual infantil o infantil o la explotación infantil serán dirigidos a recursos sobre dónde y cómo presentar una denuncia", explica la compañía, y apunta que si el usuario busca contenido de abuso sexual infantil, se le informará de que puede ser "dañino y problemático".

Esta actualización de Siri y Search llegará con iOS 15, iPadOS 15, watchOS 8 y macOS Monterey.