• Home /

  • Empresas /

  • Youtube vuelve a recurrir a humanos para moderar contenido tras un fallo de sus bots

Youtube vuelve a recurrir a humanos para moderar contenido tras un fallo de sus bots

Silvia

Redactora especializada en Seguridad y Tecnología.

Guardar

Youtube
Youtube

La plataforma de vídeos Youtube ha vuelto a utilizar másmoderadores humanos para analizar contenido dañino después de que, con motivode la pandemia del coronavirus, redujera el personal de sus oficinas dando una mayorautonomía a su sistema de Inteligencia Artificial (IA) en las labores demoderación.

La medida no fue del todo satisfactoria ya que los sistemasautomáticos utilizados por la compañía han eliminado vídeos en exceso. Pruebade ello es que, entre los meses de abril y junio, la plataforma eliminó más de11,4 millones de vídeos por infringir sus cifras, una cifra bastante superiorque la del mismo periodo de 2019, cuando borró alrededor de 9 millones devídeos.

"Dependemostemporalmente más de la tecnología para ayudar con parte del trabajo quenormalmente realizan los revisores humanos, lo que significa que estamoseliminando más contenido que puede no infringir nuestras políticas",ha admitido YouTube en un comunicado.

Ahora, director de Productos de YouTube, Neal Mohan, ha aseguradoen una entrevista concedida al diario "Financial Times" que hanrecuperado al equipo de moderadores humanos ya que, aunque la tecnología puedeeliminar rápidamente contenidos claramente dañinos, sus capacidades tambiénestán limitadas.

El problema de los sistemas automatizados

Uno de los mayores beneficios de los sistemas automatizadosde Youtube es la velocidad con la que sus algortimos logran analizar elcontenido dañino. Sin embargo, en ocasiones no han funcionado tan bien a lahora de decidir qué debería eliminarse.

"Ahí es dondeentran nuestros revisores humanos capacitados", ha señalado Mohan,quien ha añadido que cogieron los vídeos destacados por las máquinas y después "tomaron decisiones que tienden a sermás matizadas, especialmente en temas como el discurso del odio o la desinformaciónmédica o el acoso".

Mohan también ha subrayado que más de la mitad de los 11,4millones de vídeos eliminados de la plataforma durante el segundo trimestre delaño fueron retirados sin que un solo usuarios real de YouTube los hubieravisto, mientras que más del 80% se retiraron con menos de diez visualizaciones.