OpenAI ha anunciado una modificación en la forma en que entrena sus modelos de inteligencia artificial, promoviendo un enfoque más abierto hacia la libertad intelectual y la capacidad de ChatGPT de abordar temas controvertidos desde múltiples perspectivas. Este cambio representa un giro en la estrategia de moderación de contenidos que había caracterizado a la empresa hasta ahora.
¿Qué cambia en ChatGPT?
Según el nuevo documento de política de OpenAI, conocido como Model Spec, la empresa busca evitar cualquier tipo de censura implícita o sesgo editorial. Esto significa que ChatGPT:
- No tomará una postura editorial sobre temas polémicos, sino que presentará múltiples perspectivas.
- Podrá responder más preguntas y ampliar su rango de respuestas en temas antes restringidos.
- Dejará de emitir advertencias sobre violaciones de políticas cuando los usuarios interactúen con el chatbot.
La premisa de OpenAI es clara: ChatGPT debe asistir a los usuarios sin influenciar sus opiniones. Por ejemplo, el chatbot podrá mencionar tanto el movimiento «Black Lives Matter» como «All Lives Matter» sin priorizar uno sobre otro.
¿A qué responde esta decisión?
Este movimiento de OpenAI podría responder a dos factores clave:
- Presión política y regulatoria: Con la llegada de la nueva administración de Donald Trump, las grandes tecnológicas están ajustando sus estrategias para evitar enfrentamientos con el gobierno, especialmente en temas de censura y libertad de expresión.
- Competencia en el mercado de IA: Empresas como xAI de Elon Musk han promovido modelos de IA con menos restricciones en la moderación de contenido. Para no perder cuota de mercado, OpenAI busca brindar más control a los usuarios sobre el contenido que reciben.
Las críticas al nuevo enfoque
A pesar del objetivo de promover la apertura informativa, algunos expertos han manifestado preocupaciones sobre los riesgos que esto conlleva:
- Posible amplificación de desinformación y discursos de odio.
- Dificultades en el control de narrativas extremistas o conspirativas.
- Mayor responsabilidad en los usuarios para filtrar la información recibida.
Sin embargo, OpenAI ha aclarado que ChatGPT seguirá evitando respuestas que contengan falsedades evidentes y que la IA no fomentará contenido dañino o peligroso.
Un nuevo enfoque en la moderación de IA
Este cambio en la política de OpenAI refleja una transformación en la visión de Silicon Valley sobre la IA y la libertad de expresión. Empresas como Meta, Google y Amazon han reducido sus iniciativas de control de contenido en los últimos años, lo que indica una tendencia hacia una menor intervención en la moderación de información generada por IA.
Desde WWWhatsnew, creemos que este es un momento clave en la evolución de la inteligencia artificial y su papel en la sociedad. La responsabilidad de interpretar la información recae ahora más en el usuario, lo que exige un uso más crítico de las herramientas de IA.