¿Es tóxica la comunidad del software libre?

Publicado el

GNU

Las libertades existentes en Internet, muchas veces abren paso para convertir ciertos espacios en ambientes hostiles. En foros y redes sociales es normal encontrar trolls, haters y otras figuras que, desagradable y lamentablemente, son parte de la identidad colectiva de la red.

Dentro de estos espacios digitales, el software libre funda su existencia en el soporte colectivo de su comunidad. Un estudio profundizó qué tan “tóxico” puede ser el ambiente en estas instancias.

Estudio analizó los niveles de odiosidad en la comunidad del software libre

Asumiendo a los antes mencionados personajes odiosos como parte del universo de usuarios de la red, con variantes que aparecen según el espacio en el que se desenvuelven, un trabajo conjunto desarrollado por científicos de la Universidad Carnegie Mellon y la Universidad Wesleyan, avanzó en la comprensión de la toxicidad en plataformas donde interactúa la comunidad del código abierto, como GitHub.

Para analizar cómo luce la toxicidad en la comunidad de código abierto, el equipo de investigación primero recopiló contenido catalogado como tóxico. Para eso, usaron un detector de toxicidad y cortesía, desarrollado para otra plataforma, con el propósito de escanear casi 28 millones de publicaciones en GitHub que fyeron realizadas entre marzo y mayo de 2020. El equipo también buscó «códigos de conducta», publicaciones que se interpretan como una señal posible de reacción ante contenido tóxico; así como también problemas bloqueados o eliminados, lo que también puede ser un signo de toxicidad.

Tras el proceso de curatoría de la información, el equipo desarrolló un conjunto de datos final de 100 publicaciones tóxicas. Seguidamente, usaron estos datos para analizar la naturaleza de la toxicidad, que se pueden catalogar bajo las etiquetas de contenido insultante, autoritario, arrogante, trolling o poco profesional. Bajo el mismo criterio, se analizó si el contenido odioso fue dirigido al código en sí, a las personas involucradas o a algún otro destino.

«Tienes que saber cómo se ve esa toxicidad para diseñar herramientas para manejarla», comentó Courtney Miller, una de las autoras del artículo que documenta esta investigación. «Y manejar esa toxicidad puede conducir a lugares más saludables, más inclusivos, más diversos y simplemente mejores en general», agregó.

Considerando las particularidades de estos espacios, la investigación logró definir cómo se manifiesta la odiosidad. «La toxicidad es diferente en las comunidades de código abierto», dijo Miller. «Es más contextual, titulado, sutil y pasivo-agresivo», puntualizó con respecto a la caracterización construída a partir del estudio.

Sobre los datos recopilados, se destacan algunas observaciones interesantes. Alrededor de la mitad de las publicaciones tóxicas que identificó el equipo contenían obscenidades. Otras eran de usuarios exigentes del software. Algunas publicaciones provienen de usuarios que publican muchos problemas en GitHub, pero contribuyen poco más. También, se dan casos en los que comentarios que comenzaron sobre el código de un software, se volvieron personales. En conclusión, ninguna de las publicaciones archivadas dentro de esta muestra ayudó a mejorar el software de código abierto o la comunidad.

El equipo notó una tendencia única en la forma en que las personas respondían a la toxicidad en las plataformas de código abierto. A menudo, el desarrollador del proyecto hizo todo lo posible para acomodar al usuario o solucionar los problemas planteados en el contenido tóxico. Esto habitualmente resultó en frustración.

«Querían dar el beneficio de la duda y crear una solución», dijo Miller. «Pero esto resultó ser bastante agotador».

«Hemos estado escuchando a los desarrolladores y miembros de la comunidad durante mucho tiempo sobre la toxicidad desafortunada y casi arraigada en el código abierto», dijo Miller, haciendo alusión a la buena respuesta que tuvo esta investigación dentro de la comunidad. «Las comunidades de código abierto son un poco toscas. A menudo tienen una diversidad y retención terribles, y es importante que comencemos a abordar y lidiar con la toxicidad allí para convertirlo en un lugar mejor y más inclusivo», agregó con respecto a esta “radiografía social”.

Este trabajo se encuentra en una etapa temprana. Según comentó Miller, el equipo espera sentar las bases a través de esta investigación, para desarrollar en el futuro un detector de toxicidad para la comunidad de código abierto.