La nueva aplicación de Meta, Threads, ha implementado recientemente restricciones en su funcionalidad de búsqueda. Estas restricciones afectan a una serie de palabras clave consideradas «potencialmente sensibles», en un intento de mitigar la propagación de contenido controvertido. Continúa leyendo «Meta limita la búsqueda de temas «sensibles» en su nueva app Threads»
Etiqueta: moderación de contenido
Twitter pierde a la jefa de confianza y seguridad Ella Irwin
La plataforma de redes sociales Twitter ha sufrido la salida de otro de sus altos ejecutivos. Ella Irwin, jefa de confianza y seguridad de Twitter, ha presentado su renuncia, confirmada por ella misma a Reuters. Esta noticia marca la partida de uno de los ejecutivos más importantes de Elon Musk en Twitter. Irwin asumió el cargo en noviembre, reemplazando a Yoel Roth, quien también había renunciado en ese momento.
Durante su mandato de varios meses, Irwin se enfrentó a momentos turbulentos en Twitter, incluyendo períodos en los que la plataforma fue objeto de escrutinio por no hacer lo suficiente para combatir la explotación infantil. Irwin misma compartió información interna de Twitter con Bari Weiss como parte de los informes «Twitter Files» y, según informes, ordenó la prohibición de cuentas de Twitter que compartían información sobre el jet privado de Musk. Continúa leyendo «Twitter pierde a la jefa de confianza y seguridad Ella Irwin»
Azure AI Content Safety: El nuevo guardián de la seguridad en línea gracias a la Inteligencia Artificial
Microsoft ha presentado Azure AI Content Safety, un nuevo servicio de moderación basado en IA que tiene como objetivo crear entornos en línea más seguros y comunidades libres de contenido inapropiado.
Esta nueva oferta, disponible a través de la plataforma de productos Azure AI, proporciona una serie de modelos de IA entrenados para detectar contenido «inapropiado» en imágenes y texto. Estos modelos, que pueden entender texto en varios idiomas, asignan una puntuación de gravedad al contenido identificado, lo que indica a los moderadores qué acciones se deben tomar. Continúa leyendo «Azure AI Content Safety: El nuevo guardián de la seguridad en línea gracias a la Inteligencia Artificial»
Por qué sigue sin funcionar la moderación de contenido con Inteligencia Artificial
En los últimos años, las grandes empresas tecnológicas han mostrado avances significativos en áreas como el procesamiento del lenguaje, la predicción de datos y la personalización. Sin embargo, siguen enfrentando dificultades en la detección y eliminación efectiva de contenido perjudicial en sus plataformas. Este desafío se vuelve más relevante cuando recordamos cómo teorías conspirativas sobre elecciones y vacunas han causado daño real en los Estados Unidos. Entonces, surge la pregunta: ¿por qué las empresas tecnológicas no han mejorado en la moderación de contenido? ¿Pueden ser obligadas a hacerlo? ¿Y cómo pueden los avances en inteligencia artificial mejorar nuestra capacidad para combatir la desinformación? Continúa leyendo «Por qué sigue sin funcionar la moderación de contenido con Inteligencia Artificial»
La lucha de Alemania contra el discurso de odio en Twitter
La red social Twitter se encuentra bajo investigación en Alemania por no cumplir con la Ley de Aplicación de Redes (NetzDG, por sus siglas en alemán), que exige la eliminación rápida de contenido ilegal como el discurso de odio. La Oficina Federal de Justicia (BfJ) ha iniciado un procedimiento contra la plataforma después de establecer «suficientes indicios de fallos» en sus procesos de gestión de quejas. Continúa leyendo «La lucha de Alemania contra el discurso de odio en Twitter»