GPT-4 de OpenAI se pone las pilas en moderación de contenidos

Publicado el

robots trabajando con ordenadores

OpenAI nos presenta una propuesta innovadora para la moderación de contenidos utilizando su modelo estrella, GPT-4.

La propuesta de OpenAI

OpenAI ha ideado una forma de emplear GPT-4 en la tarea de moderación de contenidos, buscando aligerar la carga de los equipos humanos. La estrategia consiste en proporcionar a GPT-4 una política que oriente sus decisiones de moderación y un conjunto de ejemplos de contenido que podrían infringir o no dicha política.

Una vez que los expertos en políticas etiquetan estos ejemplos, se alimenta a GPT-4 con ellos, sin las etiquetas. Luego, se compara cómo las etiquetas del modelo coinciden con las determinaciones humanas. Al identificar discrepancias entre las decisiones de GPT-4 y las humanas, los expertos pueden solicitar al modelo que explique su razonamiento, analizar ambigüedades en las definiciones de políticas y proporcionar aclaraciones adicionales.

Herramientas de moderación existentes

Aunque la propuesta de OpenAI es novedosa, no es la primera vez que vemos herramientas de moderación impulsadas por inteligencia artificial. Ejemplos notables incluyen Perspective de Google y servicios de startups como Spectrum Labs y Hive. Sin embargo, estas herramientas han enfrentado desafíos, como no reconocer discursos de odio que utilizan ciertas variaciones ortográficas.

El desafío de los sesgos

Un problema recurrente en la moderación automática es el sesgo. Los anotadores, responsables de etiquetar los datos de entrenamiento, pueden introducir sus propias inclinaciones. OpenAI es consciente de este desafío y admite que los modelos de lenguaje, como GPT-4, pueden tener sesgos que se introdujeron durante su entrenamiento. Por ello, subrayan la importancia de mantener a los humanos en el proceso de moderación.

La propuesta de OpenAI representa un paso significativo en la búsqueda de una moderación de contenidos más eficiente y objetiva. Si bien la tecnología tiene un gran potencial, es esencial recordar que la intervención humana sigue siendo crucial. La combinación de inteligencia artificial y supervisión humana podría ser la clave para una moderación más justa y equitativa en el futuro.

Más información en openai.com.

Comparte en: