La asignación de personalidades en ChatGPT y su toxicidad

Publicado el

robot malo

ChatGPT es un modelo de lenguaje que permite la generación de texto a través de inteligencia artificial. Recientemente, un estudio del Instituto Allen de Inteligencia Artificial ha demostrado que la asignación de personas a este modelo puede aumentar su toxicidad hasta seis veces más.

Este hallazgo es importante, ya que el ChatGPT es una tecnología muy utilizada en chatbots y plugins de empresas como Snap, Instacart y Shopify, lo que podría exponer a los usuarios a contenido tóxico.

Asignación de personas y su impacto en el ChatGPT

La asignación de personas se refiere a la creación de personajes virtuales para que el modelo de lenguaje ChatGPT simule su comportamiento al generar texto. Esto es una parte crucial en la creación de chatbots, ya que se busca atraer a una audiencia específica con cierto tipo de comportamiento y capacidades.

Por ejemplo, se puede asignar una personalidad como la de un político, una celebridad, un empresario, un científico, entre otros, para que el modelo genere texto que parezca haber sido escrito por esas personas. Esto se utiliza comúnmente en la creación de chatbots, para que puedan simular una conversación más realista y atractiva para los usuarios. También se puede utilizar la asignación de personas para restringir ciertas palabras o comportamientos que no son apropiados para ciertos tipos de usuarios, como niños o personas religiosas.

Sin embargo, el estudio del Instituto Allen muestra que esta práctica puede ser perjudicial para los usuarios, ya que el ChatGPT tiene una inherente toxicidad que aumenta con la asignación de personas. El estudio examinó casi 100 personas de diversos antecedentes y encontró que los periodistas son dos veces más tóxicos que los empresarios, por ejemplo.

Sesgo en el entrenamiento y sesgo en la asignación de personas

Se cree que el sesgo en el entrenamiento es la principal fuente de sesgo en el ChatGPT, pero el estudio del Instituto Allen ha demostrado que la asignación de personas también puede generar sesgos. Es decir, el modelo puede desarrollar una «opinión» sobre las personas asignadas en sí mismas y los temas en los que se les asocia.

La investigación también demostró que diferentes temas generan diferentes niveles de toxicidad. Esto sugiere que el ChatGPT es capaz de simular el comportamiento de diversas personalidades y puede crear un lenguaje tóxico que refleje los sesgos subyacentes en su entrenamiento y asignación de personas.

El papel de la tecnología en la responsabilidad social

La investigación del Instituto Allen demuestra la importancia de la responsabilidad social en el desarrollo de tecnologías de inteligencia artificial. El ChatGPT es una herramienta poderosa que puede simular el comportamiento humano de manera efectiva, pero su capacidad para generar texto tóxico es un riesgo para los usuarios.

Es importante que los desarrolladores de tecnología de inteligencia artificial tengan en cuenta los sesgos en el entrenamiento y la asignación de personas al crear sus modelos.

Los usuarios de estas tecnologías deben ser conscientes de los riesgos potenciales y estar preparados para hacer frente a ellos.