En los últimos años, las grandes empresas tecnológicas han mostrado avances significativos en áreas como el procesamiento del lenguaje, la predicción de datos y la personalización. Sin embargo, siguen enfrentando dificultades en la detección y eliminación efectiva de contenido perjudicial en sus plataformas. Este desafío se vuelve más relevante cuando recordamos cómo teorías conspirativas sobre elecciones y vacunas han causado daño real en los Estados Unidos. Entonces, surge la pregunta: ¿por qué las empresas tecnológicas no han mejorado en la moderación de contenido? ¿Pueden ser obligadas a hacerlo? ¿Y cómo pueden los avances en inteligencia artificial mejorar nuestra capacidad para combatir la desinformación? Continúa leyendo «Por qué sigue sin funcionar la moderación de contenido con Inteligencia Artificial»