Investigadores de Stanford y Cornell han desarrollado un algoritmo que sólo necesita observar de cinco a diez textos publicados por cualquier persona en una comunidad online para determinar si se trata de un troll o no.
El estudio ha sido financiado por Google, disponible en PDF, y se ha concentrado en analizar el comportamiento de los trolls a través del tiempo para conseguir detectarlos y ayudar a encontrar alguna forma de eliminarlos rápidamente en las comunidades en las que se identifican.
Entre otras muchas cosas, se puede ver que ellos publican con más frecuencia y presentan, en general, una mala ortografía y gramática, que degrada con el tiempo, aunque siempre hay excepciones.
En el estudio, según comentan en Wired, se analizaron un total de 1,7 millones de usuarios y 40 millones de mensajes a lo largo de 18 meses, aunque solo se concentraron en tres comunidades: la CNN, el sitio de política Breitbart y el famoso IGN, de juegos.
Llegaron a la conclusión de que los usuarios que acabaron siendo eliminados de las comunidades siempre demostraron un conjunto muy claro de comportamientos y características, siempre con el objetivo de crear conflicto. En Breitbart e IGN, los trolls tenían más probabilidades de responder a los mensajes de los demás, mientras que en la CNN eran más propensos a iniciar nuevos debates.
Aún así, el estudio no llega a conclusiones muy útiles, ya que la prohibición de participar en diferentes comunidades puede no ser la solución para evitar el comportamiento troll. De momento no hay datos sobre la existencia de ningún algoritmo público que pueda usarse en base a este estudio, aunque todo es cuestión de tiempo.
Imagen alterada a partir de shutterstock.com