Herramienta contra comentarios tóxicos

Herramienta contra comentarios tóxicos. Hay datos que  pueden llegar a resultar escabrosos, como que el 47% de los usuarios de Internet en Estados Unidos ha sufrido acoso o que un 72% ha sido testigo de este abuso. Pero lo más preocupante Y casi un tercio se autocensura a la hora de poner un mensaje, por miedo a las consecuencias.

Este tipo de cifras, entre otras, son las que han terminado de convencer a Google de que había que luchar contra los trolls de la Red y «convertir Internet en un espacio más seguro». Perspective, es una herramienta que utiliza inteligencia artificial para identificar comentarios «tóxicos» en las noticias con el objetivo de que pueden ser revisados y excluidos de la conversación.

«El desafío actual es crear una buena conversación en Internet. Hay muchísima gente tratando de entablar debates en las secciones de comentarios de las páginas webs, pero terminan marchándose y dejando la conversación por culpa de otra gente que insulta o falta al respeto», ha explicado en una conferencia telefónica Jared Cohen, fundador y presidente de Jigsaw.

Esta herramienta, Perspective, tiene código abierto, por lo que va a poder ser utilizada de forma gratuita. El objetivo de esta aplicación es «empoderar a los editores de publicaciones y plataformas para que ellos puedan decidir lo que se puede o no decir en sus páginas webs».

La aplicación va a permitir que los editores puedan decidir lo que hacer con la información que reciben de Perspective: marcar los comentarios para que sean revisados por sus propios moderadores y decidir si los incluyen en una conversación; permitir que los usuarios vean la toxicidad potencial de su comentario cuando lo están escribiendo, o clasificar los comentarios según este criterio, para «facilitar la búsqueda de grandes debates escondidos en conversaciones tóxicas«.

A nivel de funcionamiento, vemos que es bastante sencillo. Un equipo de personas se dedica a revisar comentarios y crea una base de datos de comentarios negativos. Perspective, automáticamente, se encargará de analizar decenas de miles de comentarios de páginas webs. Para saber cuáles son tóxicos, los evalúa y compara con los que están en la base de datos. Si hay una similitud con los que ya se consideran perjudiciales, los identifica y añade. «Así, si alguien está diciéndole a otro feo, estúpido o idiota, se comprueba si esas palabras se identifican con algunos de los comentarios tóxicos que el sistema ya tiene almacenados. Es una manera de entrenarlo», describe Cohen.

Perspective aprende, analiza datos y crea patrones a partir de los aciertos. Los comentarios, son su alimento. «Perspective no es perfecta todavía porque está en una etapa muy inicial, pero cuántos más datos tenga, mejor funcionara. Cuántos más comentarios analice, más perfecta será», ha asegurado Cohen.

El fundador de Jigsaw se ha mostrado seguro de su producto: «Estamos ofreciendo la posibilidad de mejorar y según los datos que manejamos ni a los editores ni a los usuarios les gustan estos comentarios insultantes».

Esta herramienta en un primer momento, solo ha sido lanzada en inglés, aunque bien es cierto, que llegará en más idiomas. Jigsaw ha empezado a probar la tecnología hace algunos meses con el Times estadounidense, analizando en tiempo real alrededor de 11.000 comentarios cada día. Una cantidad que ha provocado que solo se permita comentar en un 10% de los artículos. El objetivo de Perspective es ayudarles a clasificarlos con más rapidez al mismo tiempo que nutren a su algoritmo con todos esos ejemplos.

Herramienta contra comentarios tóxicos

0 comentarios

Dejar un comentario

¿Quieres unirte a la conversación?
Siéntete libre de contribuir!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *