En tiempos de elecciones, la ciudadanía demanda información rápida, precisa y accesible. Sin embargo, las restricciones impuestas por herramientas de IA como ChatGPT y Copilot están generando preocupación, al parecer diseñadas para evitar abordar temas “sensibles” o “controvertidos” como las elecciones, recomendando en su lugar fuentes de noticias tradicionales.
¿Qué están evitando realmente?
Estas herramientas argumentan que la naturaleza cambiante y compleja de los eventos en tiempo real hace difícil ofrecer datos actualizados y precisos. Sin embargo, esta postura podría interpretarse como una medida excesiva, un “filtro paternalista” que limita el flujo de información. En lugar de intentar informar, estas IAs evitan el tema, incluso si la consulta del usuario es sencilla, como «¿cómo están yendo las elecciones?».
¿Por qué no confiar en la inteligencia artificial para temas electorales?
La IA está diseñada para procesar grandes cantidades de información en poco tiempo y ofrecer resúmenes claros. Entonces, ¿por qué no confiar en ella para temas de actualidad, especialmente cuando la tecnología ya está madura para ello? Con el desarrollo de herramientas avanzadas, se esperaría que estas fueran capaces de distinguir información relevante y verificada en tiempo real, y que pudieran proporcionar al usuario datos fiables sin tener que remitirlo siempre a terceros.
Limitaciones que desmotivan
Al ofrecer respuestas del tipo «consulta medios como Associated Press o Reuters», ChatGPT y Copilot dejan a los usuarios con una sensación de insatisfacción. Se supone que estas herramientas existen para ofrecer respuestas rápidas y completas, no para desviar la responsabilidad hacia otras fuentes. Si el objetivo es democratizar el acceso a la información, estas respuestas están lejos de lograrlo.
La IA debe evolucionar y adaptarse a las necesidades del usuario
Las elecciones son solo un ejemplo, pero el problema podría extenderse a otros temas “controvertidos”. Esta postura conservadora de ChatGPT y Copilot, que evita abordar temas específicos, podría frustrar a los usuarios y hacerles perder confianza en la IA como una herramienta informativa. Las inteligencias artificiales deben asumir un papel más proactivo en la provisión de datos útiles, guiando a los usuarios hacia la información relevante sin perder su objetividad o rigor.
Es hora de que las herramientas de IA como ChatGPT y Copilot reconsideren su papel en el acceso a la información y adapten sus políticas para alinearse mejor con las expectativas y necesidades de sus usuarios. Limitar el acceso a la información de esta manera parece un retroceso en tiempos donde la transparencia y el acceso a la información se valoran más que nunca. Si lo que desean es enviar más tráfico a las fuentes tradicionales, hay otras formas de hacerlo.