Menlo Park, 1 de diciembre, 2016 (Reuters). Facebook está trabajando en la señalización automática de material ofensivo en transmisiones de video en vivo, en un creciente esfuerzo por usar a la inteligencia artificial para monitorizar contenido, dijo Joaquín Quiñonero Candela, director de aprendizaje aplicado de las máquinas de la red social.
La compañía ha estado involucrada en varias controversias por moderación de contenido este año, desde críticas internacionales por retirar una icónica foto de la Guerra de Vietnam debido a que muestra a una niña desnuda, hasta permitir la propagación de noticias falsas.
Históricamente, Facebook ha dependido principalmente de usuarios que reportan publicaciones ofensivas, que luego son examinadas por empleados de la red social basándose en "estándares comunitarios" de la compañía.
Las decisiones sobre temas de contenido especialmente espinosos que podrían requerir de cambios de política son realizados por ejecutivos de la firma.
Candela dijo a los periodistas que Facebook está usando cada vez más la inteligencia artificial para hallar material ofensivo. Es "un algoritmo que detecta desnudez, violencia, o cualquiera de las cosas que no concuerdan con nuestra política", afirmó.
La empresa ya ha estado trabajando para usar mecanismos automáticos para señalar contenido extremista en videos, como informó Reuters en junio.
Ahora el sistema automatizado también está siendo probado en Facebook Live, el servicio de transmisión de video que permite a los usuarios transmitir en vivo.
El presidente ejecutivo de Facebook, Mark Zuckerberg, dijo en noviembre que la compañía recurrirá a la automatización como parte de un plan para identificar noticias falsas.
Antes de la elección presidencial del 8 de noviembre en Estados Unidos, usuarios de la red social vieron reportes de noticias falsos que afirmaban que el Papa Francisco respaldaba a Donald Trump y que un agente federal que había investigado a la candidata demócrata, Hillary Clinton, había sido hallado muerto.