La empresa que dirige Mark Zuckerberg publicó este jueves la cuarta edición de su informe sobre el cumplimiento de las normas comunitarias, en el que explica los avances llevados a cabo por la compañía en materia de lucha contra las cuentas y la información falsas, las actividades ilegales y los contenidos que considera no adecuados.

Los 3.200 millones de cuentas falsas desactivadas en el segundo y tercer trimestre del año suponen más del doble que los 1.554 millones de cuentas desactivadas en el mismo periodo de 2018.

Además de los contenidos del llamado “discurso del odio”, también destacan los 18,5 millones de mensajes retirados por contener desnudez y explotación sexual infantil; los 4,5 millones relativos a suicidios o a autolesiones; y los 5,7 millones que buscaban acosar a otros usuarios.

Se trata de la primera vez que la empresa de Menlo Park (California, EE.UU.) incluye entre estas métricas los contenidos relativos a suicidios o autolesiones, y el vicepresidente de Facebook para Integridad, Guy Rosen, se felicitó de que el 96,1 % de ellos en el segundo trimestre del año y el 97,1 % en el tercero fueron detectados proactivamente por la compañía antes de que nadie los denunciase.

También por primera vez, Facebook facilitó datos de Instagram —de su propiedad—, en este caso relativos a desnudez infantil y explotación sexual infantil; bienes regulados —específicamente, venta ilegal de armas de fuego y drogas—; suicidio y autolesiones; y propaganda terrorista.

En Instagram, una plataforma en la que la media de edad de los usuarios es inferior a la de los de Facebook, los contenidos retirados por desnudez infantil y explotación sexual infantil fueron sensiblemente inferiores: 1,26 millones.

Los contenidos referentes al suicidio y autolesiones fueron 1,68 millones; los que incitaban al terrorismo, 240.000; y finalmente, los que anunciaban drogas y armas de fuego, 3 millones.

“La inversión que hemos hecho en inteligencia artificial en los últimos cinco años sigue siendo un factor clave para abordar estos problemas. De hecho, los recientes avances en esta tecnología han contribuido a detectar y eliminar el contenido que viola nuestras políticas”, apuntó Rosen al presentar el informe.

La red social estadounidense informó también que su software se está volviendo más hábil para espiar contenido prohibido, trabajando con humanos para eliminar rápidamente videos terroristas y otras amenazas.

“Si bien nos equivocamos por el lado de la libertad de expresión, generalmente señalamos cualquier cosa que pueda resultar un daño real”, dijo Zuckerberg, durante una sesión informativa acerca del informe.

“Esta es una pequeña fracción del contenido en Facebook e Instagram, y eliminamos gran parte antes de que alguien lo vea”, aseguró.

La red social ha estado invirtiendo fuertemente en inteligencia artificial (IA) para detectar automáticamente el contenido prohibido, a menudo para poder verlo antes que los usuarios, así como en equipos humanos de supervisores que verifican si el software fue el objetivo.

Facebook tiene más de 35.000 personas trabajando en seguridad, y gasta miles de millones de dólares anualmente en esa misión, según Zuckerberg.

“Nuestros esfuerzos están dando sus frutos”, dijo Zuckerberg. “Los sistemas que creamos para abordar estos problemas son más avanzados”, subrayó.

Cuando se trata de detectar discursos de odio, el software de Facebook ahora encuentra automáticamente el 80% del contenido eliminado en una mejora masiva respecto de hace dos años, cuando casi todo ese material no se trató hasta que los usuarios lo informaron, según precisó la firma con sede en California.