Facebook publica informe sobre remoción de contenido.

Facebook presentó un informe sobre las acciones tomadas durante el primer trimestre del 2018 en las siguientes áreas:

  • violencia gráfica
  • desnudez en adultos y actividad sexual
  • propaganda terrorista
  • discurso de odio
  • spam
  • cuentas falsas.

En el reporte se detalla:

  • La cantidad de contenido que viola nuestras normas visto por usuarios de Facebook.
  • La cantidad de contenido que fue eliminado.
  • La cantidad de contenido que fue detectado a través de la tecnología antes de que los usuarios de Facebook lo reportaran.

 

Algunos datos de los resultados del primer trimestre de 2018 muestran que:

  • Se eliminaron 837 millones de mensajes no deseados, casi todos detectados antes de que fueran reportados por los usuarios.
  • Se desactivaron alrededor de 583 millones de cuentas falsas, la mayoría apenas unos minutos después de que fueran registradas. Este dato se suma a las tareas de prevención que evitan que millones de cuentas falsas sean creadas diariamente. Calculamos que entre 3 y 4 por ciento de las cuentas activas durante el período analizado eran falsas.

Otros tipos de contenido inapropiado:

  • Eliminaron 21 millones de publicaciones de desnudos de adultos o material pornográfico durante el primer trimestre de 2018. Un 96 por ciento fue detectado y marcado con herramientas tecnológicas antes de que fuera reportado. Nuestros estudios indican que de cada 10.000 publicaciones visualizadas en Facebook, entre siete y nueve incluían material que violaba nuestros estándares.
  • En casos más graves, como violencia gráfica o discursos de odio, la tecnología de Facebook no es lo suficientemente eficaz y requiere de la participación de equipos de revisión. Dimos de baja o colocamos advertencias sobre cerca de 3,5 millones de publicaciones con contenido violento en el primer trimestre de 2018, un 86% de las cuales fueron identificadas por nuestra tecnología antes de que fueran reportadas. También fueron eliminados 2,5 millones de artículos que contenían discurso de odio, un 38% de los cuales fueron identificado por nuestra tecnología.

Puedes ver el informe completo en el siguiente enlace

Via: nodo9

Some More Cool Projects

Omi

Digital Audit, Market Research, User Experience

Marie

Research, Print Design, Content Creation, Website Design