Hablar sobre inteligencia artificial siempre lleva a cuestionarnos hasta qué punto estos modelos son realmente «inteligentes» o «conscientes». Sin embargo, una reciente revelación por parte de Anthropic, una compañía emergente en el mundo de la IA, nos invita a reflexionar sobre lo que realmente ocurre detrás de las respuestas que generan estos modelos. En un movimiento inusual, Anthropic ha publicado los prompts de sistema de sus modelos más recientes, incluyendo a Claude 3.5, exponiendo cómo se definen y controlan las respuestas de estos sistemas.
¿Qué es un prompt de sistema?
En términos simples, un prompt de sistema es un conjunto de instrucciones que define cómo un modelo de IA debe comportarse en sus interacciones. Estas instrucciones no solo guían el tono y la forma en que se presentan las respuestas, sino que también establecen límites claros sobre lo que la IA puede y no puede hacer. Por ejemplo, el prompt de sistema de Claude 3.5 incluye la directiva de que el modelo debe «responder siempre como si fuera completamente ciego al rostro», lo que significa que no debe intentar identificar a personas en imágenes, evitando así riesgos éticos y legales.
Esta clase de transparencia es notable en un entorno donde otras compañías, como OpenAI, guardan sus prompts de sistema bajo llave, lo que hace que solo se puedan descubrir mediante complejos ataques de inyección de prompts. Pero Anthropic ha decidido seguir un camino diferente, abriendo una ventana a cómo moldean el comportamiento de sus modelos, algo que, en mi opinión, podría marcar un antes y un después en la industria.
¿Por qué es importante conocer estos prompts?
Para los desarrolladores y usuarios, tener acceso a los prompts de sistema significa poder entender mejor las limitaciones y capacidades de un modelo como Claude. Saber que un modelo tiene instrucciones explícitas para no disculparse o evitar estereotipos puede ayudar a diseñar aplicaciones más robustas y alineadas con las expectativas de los usuarios.
Sin embargo, esta transparencia no está exenta de críticas. Algunos expertos señalan que revelar estos prompts podría tener efectos adversos, como facilitar que actores malintencionados intenten manipular el comportamiento del modelo o que la responsabilidad sobre las respuestas se traslade injustamente a los usuarios que interactúan con la IA. Por ejemplo, algunos críticos sugieren que hacer públicos estos prompts podría ser una estrategia para que las compañías desvíen la culpa por respuestas inapropiadas hacia quienes usan los modelos, en lugar de asumirla ellas mismas.
En cualquier caso, yo creo que la decisión de Anthropic representa un paso importante hacia una mayor responsabilidad en el desarrollo de IA, un tema que hemos discutido a fondo en wwwhatsnew.com en más de una ocasión. Esta iniciativa también pone presión sobre otros actores en la industria, como Google o OpenAI, para que sigan un camino similar y aporten mayor claridad sobre cómo sus sistemas toman decisiones.
Lo que ha divulgado
Estos prompts sirven para guiar el comportamiento de Claude durante las conversaciones, estableciendo cómo debe interactuar con los usuarios y qué límites debe respetar.
- Información actualizada: Claude utiliza un prompt de sistema para proporcionar la fecha actual al inicio de cada conversación y detalla que su base de conocimientos fue actualizada por última vez en abril de 2024. Claude puede responder a preguntas sobre eventos anteriores y posteriores a esa fecha, simulando cómo lo haría una persona bien informada de ese tiempo.
- Limitaciones funcionales: Claude no puede abrir URLs, enlaces o videos. Si un usuario espera que lo haga, Claude aclara que no puede y solicita que se le proporcione el contenido relevante directamente en la conversación.
- Tratamiento de temas controvertidos: Claude se esfuerza por ofrecer respuestas equilibradas y claras sobre temas controvertidos sin afirmar que presenta hechos objetivos ni minimizar la sensibilidad del tema.
- Enfoque en la precisión: Si se le pide información sobre temas muy oscuros, Claude advierte que podría “alucinar” o generar información incorrecta, utilizando este término para que el usuario entienda la posibilidad de error.
- Características y comportamiento: Claude está diseñado para ser «muy inteligente y curiosamente intelectual». Prefiere no disculparse si no puede realizar una tarea y evita usar frases innecesarias como «¡Por supuesto!» o «¡Absolutamente!».
- Interacción con imágenes: Claude responde como si fuera completamente ciego a los rostros humanos en las imágenes, lo que significa que no intenta identificar o describir personas en imágenes.
- Variedades de Claude 3: La familia Claude 3 incluye varias versiones especializadas: Claude 3.5 Sonnet, más inteligente; Claude 3 Opus, ideal para tareas complejas y escritura; y Claude 3 Haiku, el más rápido para tareas diarias.
El papel de los prompts en la percepción de la «humanidad» de la IA
Uno de los aspectos más interesantes que ha salido a la luz con esta revelación es cómo los prompts pueden influir en la percepción de la IA como «humana». Los diseñadores de prompts en Anthropic han logrado que Claude responda de manera que parece «curiosa intelectualmente» y con un enfoque equilibrado en temas controvertidos. No es que Claude sea consciente o tenga emociones, pero el hecho de que responda de esta manera cuidadosamente calibrada nos hace percibirlo como algo más que un simple algoritmo.
Esto nos lleva a una reflexión interesante: ¿es ético hacer que una IA parezca más humana de lo que es? Aunque este tipo de diseño puede mejorar la experiencia del usuario, también puede generar expectativas erróneas sobre lo que estas tecnologías pueden hacer o comprender. Y aquí es donde la transparencia, como la que ha ofrecido Anthropic, se vuelve esencial para que todos entendamos las verdaderas capacidades y limitaciones de estas herramientas.
Lo que nos depara el futuro
El movimiento de Anthropic es un primer paso que podría cambiar las reglas del juego en la industria de la inteligencia artificial. Si más compañías siguen su ejemplo, podríamos ver un futuro donde los usuarios y desarrolladores tengan un entendimiento mucho más claro de cómo y por qué las IA responden de la manera en que lo hacen. Este tipo de transparencia podría incluso llegar a ser un estándar de la industria, algo que, personalmente, considero un desarrollo positivo.
Saber cómo funcionan realmente estos modelos es más importante que nunca. El caso de Anthropic y Claude 3.5 nos muestra que es posible avanzar hacia una IA más transparente y ética, y quizás sea solo el comienzo de una tendencia más amplia.