Contenido ofrecido por
Aeternal Mentis

Así funciona la inteligencia artificial que retira los videos de YouTube

La compañía retiró 6,2 millones de videos solo entre abril y junio del año pasado, la mayoría por atentar contra la seguridad infantil o incluir desnudos o sexo.

Guardar

El 94,2% de los videos que YouTube retiró de su plataforma entre abril y junio del año pasado, fueron identificados y posteriormente bloqueados por herramientas de inteligencia artificial. Es lo que Google llama denuncias automáticas. Y no fueron pocas, ya que la compañía retiró un total de 6,2 millones de videos por incumplir las políticas de la empresa.   

Según datos publicados por la compañía de Mountain View, solo unos 300.000 videos fueron eliminados de la plataforma gracias a la interacción de seres humanos o instituciones. La mayoría (296.000) fueron denunciados por los propios usuarios de YouTube, mientras que otros fueron detectados por informadores de confianza (alrededor de 54.000), organizaciones como oenegés (656 casos) y de organismos públicos (121).

La plataforma distingue entre desinformación que puede provocar problemas (de seguridad ciudadana y salud pública principalmente) y contenido “al límite”. Esta segunda categoría engloba aquellos contenidos que no violan las normas de la comunidad, pero que están muy cerca de hacerlo.

Allí se incluyen videos que incorporan teorías conspirativas falsas (como, por ejemplo, defender que la llegada a la luna fue un montaje) o aquellos que difunden información errónea (como que el zumo de naranja puede curar el cáncer). En relación con la desinformación, se utilizan dos categorías: “acreditado” (authoritative) o “límite” (borderline). El establecimiento de estas categorías la hacen evaluadores humanos (y no sistemas de inteligencia artificial) que analizan cada canal o video.

Los resultados obtenidos dan una puntuación de la probabilidad que el video contenga desinformación perjudicial o sea un contenido al límite. Cualquier video clasificado y validado como límite se degrada en las recomendaciones. A partir de aquí, estas evaluaciones humanas entrenan el algoritmo para modelar sus decisiones, de forma que este aprendizaje automático sea escalable a todos los videos de YouTube.

Los contenidos más retirados son los que atentan contra la seguridad infantil

De los 6,2 millones de videos retirados por la plataforma entre abril y junio del año pasado, 1,87 fueron eliminados porque atentaban contra la seguridad infantil. Suponen el 30% del total y es el motivo más repetido, seguido de aquellos que incluyen desnudos y sexo, un total de 1,4 millones (un 22% del total)

Otras causas de retirada son, en orden de importancia: violencia (1,05 millones);  spam y estafas (884.000); extremismo violento (431.000); peligrosidad (299.000); ciberacoso (233.000); incitación al odio (87.000); y otros (7.000). De todos ellos, casi el 95% fueron detectados por una inteligencia artificial.

Para algunas instituciones, este procedimiento automatizado puede suponer una amenaza para la libertad de expresión. Así lo denuncia en un reciente informe el Consejo Audiovisual de Cataluña, que también se hace de los problemas que plantean los sistemas de recomendación y de autorregulación implementados por la plataforma sobre los contenidos que hospeda y ofrece al público.