Hace unas semanas, Facebook dio a conocer su proceso interno para decidir qué contenido es considerado inapropiado. Hoy, la red social compartió algunos números al respecto, los cuales cubren seis áreas: violencia gráfica, desnudez en adultos y actividad sexual, propaganda terrorista, discurso de odio, spam y cuentas falsas.

 

Así, durante el primer trimestre de 2018, Facebook eliminó 837 millones de mensajes no deseados, “casi todos detectados antes de que fueran reportados por los usuarios”.

 

Además, desactivó unas 583 millones de cuentas falsas, la mayor parte apenas unos minutos después de que se registró, lo que representa un 3% o 4% de las cuentas activas durante el periodo analizado. 

 

Asimismo, eliminó 21 millones de publicaciones de desnudos de adultos o material pornográfico (96% fue detectado y marcado con herramientas tecnológicas antes de que fuera reportado).  

 

De acuerdo con los estudios de Facebook, entre siete y nueve publicaciones visualizadas de cada 10 mil, incluyeron material que violaba sus estándares.

 

Sobre los casos de violencia extrema o discursos de odio, la red social reconoció que “nuestra tecnología aún no es lo suficientemente eficaz y requiere de la participación de equipos de revisión”.

 

No obstante, durante los primeros tres meses de 2018, se dieron de baja o colocaron advertencias sobre cerca de 3.5 millones de publicaciones.

 

“También fueron eliminados 2.5 millones de artículos que contenían discurso de odio, 38% identificado por nuestra tecnología”, precisó.

 

Finalmente, Facebook reiteró que todavía tiene mucho trabajo por hacer para evitar los abusos en la plataforma.

 

Nota relacionada: Facebook suspende 200 aplicaciones 

Fuente y nota completa: Paréntesis.com

Facebook elimina 583 millones de cuentas falsas