La proliferación de herramientas de inteligencia artificial ha provocado que cada vez más personas recurran a ellas para generar contenido escrito, ya sea por motivos profesionales, educativos o creativos. Este auge ha puesto en el centro del debate la necesidad de diferenciar lo creado por humanos de lo producido por máquinas. Para ello, han surgido detectores de contenido generado por IA que intentan cumplir esta tarea, aunque no sin dificultades.
En el caso del texto, estos sistemas suelen buscar lo que se conoce como «patrones característicos» del lenguaje artificial. Algunos indicios comunes son la excesiva coherencia o la previsibilidad en las frases, el uso reiterado de ciertas palabras que se han vuelto populares en contenidos de IA (como «explora», «profundiza» o «destaca») y estructuras gramaticales demasiado pulidas.
El razonamiento detrás de estos detectores es simple: los modelos de lenguaje como ChatGPT tienden a elegir la opción más probable en cada palabra. Esto genera un estilo uniforme, con menos errores y con transiciones que podrían parecer más artificiales que humanas. Sin embargo, esta línea divisoria se está volviendo cada vez más difusa. A medida que los modelos se perfeccionan y los usuarios humanos adoptan ciertos giros propios del estilo generado por IA, los detectores se ven en apuros para trazar límites claros. Continúa leyendo «¿Cómo funcionan los detectores de contenido generado por inteligencia artificial?»