My Queue

There are no Videos in your queue.

Click on the Add to next to any video to save to your queue.

There are no Articles in your queue.

Click on the Add to next to any article to save to your queue.

There are no Podcasts in your queue.

Click on the Add to next to any podcast episode to save to your queue.

You're not following any authors.

Click the Follow button on any author page to keep up with the latest content from your favorite authors.

Facebook

Lo que Facebook y Twitter están haciendo para eliminar el mal contenido

La red social de Mark Zuckerberg canceló 583 millones de cuentas falsas durante el primer trimestre.
Lo que Facebook y Twitter están haciendo para eliminar el mal contenido
Crédito: Depositphotos.com
Contributor
2 min read

Morning Brew es un boletín electrónico diario gratuito que ofrece las últimas noticias de Wall Street a Silicon Valley. Inscríbete aquí.

Como parte de la depuración del mal contenido de su plataforma, Facebook eliminó 583 millones de cuentas falsas y 865.8 millones de publicaciones durante el primer trimestre de 2018.

¿Cuál mal contenido? ¿El test que dice cómo te verías si fueras de sexo opuesto? No, nos referimos al contenido realmente inapropiado: violencia gráfica, propaganda terrorista, desnudez, discursos de odio y cuentas y noticias falsas y en general todo lo que viole los Estándares de Comunidad de Facebook.

Entonces, ¿qué aprendimos?

Facebook tiene un problema de spam: la gran mayoría del contenido eliminado (y nos referimos a una gran mayoría que abarca el 97%) era correo no deseado. Y la compañía aún estima que entre el 3 y 4% de sus 2.2 mil millones de usuarios mensuales no son personas reales en absoluto.

La inteligencia artificial hace un mejor trabajo al marcar ciertos tipos de contenidos malos pues identificó casi el 100% del spam y el 96% de las imágenes de desnudos de adultos antes de que cualquier humano lo hiciera. Pero tiene un historial mucho peor cuando se trata de neutralizar los discursos de odio. La inteligencia artificial de Facebook solo pudo localizar un 38% de mensajes racistas y misóginos antes de que un usuario se quejara, lo cual habla de los complicados matices del lenguaje humano.

Pero el mal contenido no es solo un problema de Facebook.

Twitter también está intentando un nuevo enfoque para mantener a sus trolls debajo del puente y lejos de tu feed. Eso incluye parar tuits de personas que:

  • No hayan confirmado sus correos electrónicos.
  • Se hayan registrado para varias cuentas al mismo tiempo.
  • Pasen mucho tiempo tuiteando a personas que no los sigan.

¿Está funcionando? Es un comienzo. Twitter dice que el nuevo enfoque ha resultado en una "caída del 4% en los informes de abuso y un 8% menos de informes de abuso en las conversaciones".

'El Zuck' toma el escenario: todo lo que te perdiste del Facebook F8