Una nueva herramienta está disponible para comprobar el acoso persistente de los trolls en línea.

Comparte en ...

Trolls en líneaGoogle lanzó la semana pasada, una tecnología de fase temprana que utiliza la máquina de aprendizaje para ayudar a neutralizar los trolls. Revisa los comentarios y puntuaciones en función de su similitud con comentarios de personas que han etiquetado como tóxicos, o que son propensos a resultar abandono de una conversación.

Los editores pueden seleccionar lo que quieren hacer con la información que se les proporciona. Sus opciones incluyen lo siguiente:

  • Marcar los comentarios de sus propios moderadores para revisar.
  • Proporcionar herramientas para ayudar a usuarios a entender la toxicidad potencial de los comentarios, ya que ellos escriben.
  • Dejar que los lectores hagan comentarios sobre su posible toxicidad.

Un 47% de 3.000 estadounidenses de 15 años o mayores reportaron haber experimentado acoso en línea o abuso, según una encuesta de Data & Society que llevaron a cabo el año pasado. Más del 70 por ciento dijeron que habían sido testigos de acoso en línea o abuso.

Perspective obtuvo su formación a través de un examen de cientos de miles de comentarios etiquetados por revisores humanos que se les pidió calificar los comentarios en línea en una escala de «muy tóxico» a «muy saludable».

Como todas las aplicaciones de aprendizaje automático, Perspective mejora a medida

Socios y planes para un futuro

Varios socios han firmado para trabajar con rompecabezas en esta tarea:

  • La Fundación Wikimedia está investigando maneras de detectar ataques personales contra editores voluntarios de Wikipedia.
  • The New York Times está construyendo una herramienta de moderación de código abierto para ampliar la discusión comunitaria.
  • The Economist revisa en su plataforma de comentarios.
  • The Guardian está investigando la mejor manera de moderar los foros de comentarios y discusiones en línea entre lectores y periodistas.

Jigsaw ha estado probando una versión de esta tecnología con el New York Times, que cuenta con un equipo a través de la moderación y 11 mil comentarios al día, antes de que se publiquen. Trabajando para capacitar modelos que permitan a los moderadores ordenar a través de los comentarios más rápidamente.

La empresa está buscando más socios. Se quiere ofrecer modelos que funcionan en idiomas distintos del Inglés, así como los modelos que pueden identificar otras características, como por ejemplo cuando los comentarios son insustanciales o fuera de tema.

Un poco de Perspective en perspectiva

«La perspectiva es una de esas cosas que es a la vez fascinante y aterradora», dijo Rob Enderle, analista principal de la firma Enderle Group.

Su potencial para ser utilizado como una herramienta para la censura es preocupante, sugirió.

«Ya sabemos que la izquierda y la derecha cada vez se alimentan de diferentes noticias, [y Perspective] podrían agravar aún más este problema, ya que la gente suele ver otras visiones del mundo como hostiles, falsas y tóxicas», Enderle TechNewsWorld. «A medida que esta tecnología madure, se podría garantizar de manera efectiva que sólo ve lo que esté de acuerdo.»

Perspective «realmente no aborda el problema de fondo, que es que los trolls son en gran medida impunes y parecen ganar estatus», dijo Enderle.

Perspective probable es que no es muy sofisticado cuando se trata de contexto o sensibilidad, dijo Michael Jude, un gerente de programas de Stratecast / Frost & Sullivan .

«Lo que una persona podría considerar como tóxicos, otro no podría – y esto es contextual», dijo a TechNewsWorld.

Además, «un sistema de inteligencia artificial carece de sentido común, por lo que hay un potencial significativo de consecuencias inesperadas», dijo Jude. Además, el sesgo implícito «es un peligro significativo.»

Utilidad de Perspective de los medios sociales

Twitter se ha visto especialmente afectado por los trolls en línea. Perspective podría ser de gran ayuda en sus batallas contra los abusadores en línea «si realmente funciona», dijo Jude.

Sin embargo, Twitter tendría que «admitir que su servicio no es un bastión de la libertad de expresión», agregó.

Medidas drásticas contra los comentarios vistos subjetivamente como el abuso en línea es una forma de censura, dijo Jude, y se plantea la cuestión de no ser un «foro público» en realidad.

«Si un sitio de medios sociales no es verdaderamente un foro público abierto, entonces no debería pretender serlo», argumentó.

Los sitios que restringen los comentarios deben advertir que todos los mensajes serán revisados ​​para garantizar que cumplan las normas de la comunidad, dijo Jude. Si no desean llevar a cabo dicho examen, deben publicar un aviso en la página: «Cuidado con todos los que entran aquí».

Comparte en ...
Scroll al inicio