Twitter lanza una función contra el odio que podría ayudar a desintoxicar la red social

El modo de seguridad comenzará a probarse en un pequeño grupo de comentarios que priorizará a las mujeres periodistas y usuarios de comunidades marginadas.

Por
Este artículo fue traducido de nuestra edición en inglés. Las opiniones expresadas por los colaboradores de Entrepreneur son personales.

Las redes sociales pueden ser un lugar tóxico y potencialmente traumático cuando se trata de mensajes de odio y no deseados. Ya sea que se trate de una toma caliente, un comentario políticamente cargado o una opinión subjetiva sobre casi cualquier cosa, todo lo que se necesita es una respuesta de confrontación para poner la pelota en marcha y rápidamente puede convertirse en temporada abierta para el usuario en cuestión, ya sea que sea una figura pública. o intencionalmente ser provocador, o no.

SOPA Images | Getty Images

Es algo que no ha pasado desapercibido para el equipo de Twitter, y la iniciativa más reciente de la compañía está trabajando para combatir la toxicidad. Apodado Modo de Seguridad, la función bloqueará temporalmente las cuentas de Twitter durante una semana por usar "lenguaje potencialmente dañino" o por "enviar respuestas o menciones repetitivas y no invitadas".

Los usuarios pueden optar por participar en la función activándola en su configuración.

Twitter dijo en un comunicado que su tecnología "evaluará la probabilidad de un compromiso negativo al considerar tanto el contenido del Tweet como las relaciones entre el autor y el contestador del tuit".

La empresa aclara que es poco probable que alguien con quien el tuitero interactúe con frecuencia y de manera positiva sea bloqueado automáticamente si se produce una interacción aparentemente negativa.

"Queremos que disfrutes de conversaciones saludables, por lo que esta prueba es una de las formas en que estamos limitando las interacciones abrumadoras y no deseadas que pueden interrumpir esas conversaciones", agregó la declaración de Twitter. "Nuestro objetivo es proteger mejor a la persona que recibe los tweets reduciendo la prevalencia y la visibilidad de los comentarios dañinos".

Twitter dijo que realizó investigaciones y comentarios con expertos en los campos de la seguridad en línea, los derechos humanos y la salud mental y que el grupo de comentarios del lanzamiento inicial daría prioridad a las mujeres periodistas y a las de comunidades marginadas.

El Modo de Seguridad estará disponible primero para el grupo de comentarios en iOS, Android y Twitter.com antes de implementarlo en todo el sitio.

Ingresa Ahora
Emily Rella

Escrito por

Entrepreneur Staff

Emily Rella is a news writer at Entrepreneur.com. Previously, she was an editor at Verizon Media, covering entertainment, pop culture, lifestyle, entrepreneuership and business. She is a 2015 graduate of Boston College and a Ridgefield, CT native.