Un juez federal de EE.UU. dictamina que las conversaciones con Claude no están protegidas por secreto profesional: el caso Heppner cambia el manual de defensa para cualquiera que use IA

Publicado el

Una imagen abstracta en formato 16:9 que representa el conflicto y las posibles sanciones financieras que enfrenta Apple debido a sus políticas en la App Store. La imagen utiliza una paleta de colores sobrios e incluye elementos que simbolizan la ley, barreras digitales y tecnología. Se pueden observar representaciones abstractas de multas, documentos legales e íconos de tiendas de aplicaciones digitales.

El juez Jed S. Rakoff, del Distrito Sur de Nueva York, dictaminó en febrero de 2026 que las conversaciones privadas de un acusado de fraude con Claude (la IA de Anthropic) no estaban protegidas ni por el secreto profesional abogado-cliente ni por la doctrina del work product. La decisión, conocida hace dos meses pero ampliada con opinión escrita el 17 de febrero, es la primera de su tipo en Estados Unidos sobre si las conversaciones con un chatbot de IA tienen alguna protección legal. Y la respuesta que dio Rakoff es contundente: no la tienen. El caso ha provocado una cascada de avisos a clientes de más de una docena de firmas legales importantes, según reporte de Ana-Maria Stanciuc en TheNextWeb este 15 de abril, advirtiendo que cualquier persona que use una plataforma pública de IA para investigar o discutir su situación legal corre el riesgo de que esas conversaciones sean incautadas, divulgadas a la parte contraria y usadas como prueba contra ella.

El caso es United States v. Heppner. Bradley Heppner, ex-presidente de la quebrada GWG Holdings y fundador de la firma de activos alternativos Beneficent, fue acusado en noviembre de 2025 de fraude de valores y fraude electrónico. Se declaró no culpable. Tras recibir un subpoena del gran jurado y antes de contratar formalmente a sus abogados defensores, Heppner usó Claude para analizar su exposición legal, esbozar estrategias de defensa potenciales y desarrollar argumentos legales. Lo hizo por iniciativa propia, no bajo dirección de sus abogados. Cuando el FBI registró su domicilio, incautó aproximadamente 31 documentos que reflejaban estas conversaciones con la IA. El gobierno solicitó su producción como prueba; Heppner argumentó que estaban protegidas por privilegio. Rakoff rechazó el argumento por tres motivos.

Primero: el privilegio abogado-cliente protege las comunicaciones entre un cliente y un abogado. Claude no es un abogado, no tiene licencia legal, no debe lealtad y no puede formar una relación privilegiada. En palabras del propio juez desde el estrado: Heppner había «divulgado a un tercero, en efecto, una IA, que no tenía ninguna obligación de confidencialidad». Segundo: no había expectativa razonable de confidencialidad. El juez examinó los términos de servicio y la política de privacidad de Anthropic, que permiten explícitamente la recolección de datos, el uso de inputs y outputs para entrenar el modelo, y la divulgación a terceros incluyendo autoridades gubernamentales y reguladores. Al hacer clic en aceptar, Heppner había consentido a un marco de divulgación incompatible con el privilegio. Tercero: la protección de work product no aplicaba porque Heppner no estaba actuando bajo dirección de sus abogados cuando consultó a Claude, y los documentos no reflejaban la estrategia de los abogados en el momento de su creación.

El mismo día que el dictamen de Rakoff, un juez magistrado en Michigan llegó a una conclusión que parece opuesta. En Warner v. Gilbarco Inc., el magistrado Anthony Patti consideró que las conversaciones de una demandante pro se (sin abogado) con ChatGPT sobre su caso de discriminación laboral sí estaban protegidas como work product, razonando que las herramientas de IA son «herramientas, no personas» y que la renuncia al work product requiere divulgación a un adversario, no simplemente a una plataforma de software. Un tercer caso (Morgan v. V2X, Colorado, marzo 2026) llegó a una conclusión similar. Pero los analistas legales señalan que estos casos son distinguibles del de Heppner: los demandantes en Warner y Morgan eran pro se, gobernados por una norma de procedimiento civil expresamente protectora del work product; Heppner era un acusado criminal representado, que actuó sin guía de sus abogados. Los propios tribunales reconocieron que no estaban estableciendo reglas amplias para todos los escenarios.

El impacto práctico fue inmediato. Reuters reportó que más de una docena de grandes firmas legales en Estados Unidos han emitido avisos a clientes advirtiendo contra el uso de plataformas públicas de IA para cualquier asunto legal. La firma neoyorquina Sher Tremonte ha ido más lejos, añadiendo cláusulas contractuales en sus acuerdos de representación que estipulan que compartir el consejo o las comunicaciones del abogado con un chatbot puede borrar el privilegio abogado-cliente. La guía consensuada de firmas como Orrick, Crowell & Moring y Fisher Phillips es consistente: tratar las plataformas públicas de IA como un entorno inherentemente no confidencial, asumir que cualquier cosa tipeada puede ser divulgada, usar solo despliegues privados y cerrados de IA cuyos términos de servicio no permitan entrenamiento con inputs ni divulgación a terceros, y siempre obtener dirección explícita del abogado antes de usar cualquier sistema de IA en relación con asuntos legales.

El caso conecta con un debate más amplio sobre la privacidad de las conversaciones con IA. Anthropic ya estaba en el centro de demandas por privacidad: Reddit la denunció en 2025 por usar publicaciones de la plataforma (incluso eliminadas por usuarios) para entrenar Claude sin consentimiento. La compañía también ha ampliado el procesamiento de datos a múltiples regiones geográficas, lo que tiene implicaciones para clientes que necesitan cumplimiento normativo estricto. Y la propia funcionalidad de memoria persistente de Claude, que recuerda conversaciones anteriores cuando el usuario lo solicita, agrava el problema desde el punto de vista de la incautación: una sola consulta puede arrastrar contexto de meses de uso anterior. Lo que el caso Heppner formaliza legalmente es algo que técnicamente ya era cierto: tus conversaciones con la IA están en los servidores del proveedor, sujetas a sus términos de servicio, y por tanto recuperables vía orden judicial.

Mi valoración: este dictamen debería cambiar cómo profesionales y particulares usan IA para temas sensibles, y va a tener consecuencias mucho más allá del derecho penal. Si trabajas en derecho, finanzas, salud, o cualquier sector donde discutas información confidencial, asumir que ChatGPT, Claude o Gemini son canales privados es un error que puede costarte el caso, la sanción regulatoria o la denuncia. La distinción entre IA pública e IA privada (despliegues empresariales con cláusulas explícitas de no-entrenamiento, no-retención y no-disclosure) deja de ser una preferencia técnica y se convierte en una necesidad legal. Para usuarios particulares, el mensaje es más sutil pero igualmente importante: si estás considerando consultar a un chatbot sobre un divorcio, una herencia complicada, una sospecha de fraude por parte de un tercero o cualquier asunto que pudiera acabar en juzgado, no lo hagas en la app gratuita. Mi recomendación: si la conversación toca un tema que podría escalar legalmente, primero consulta a un profesional humano, segundo usa herramientas privadas con términos de retención claros, y tercero recuerda que clic en aceptar es un contrato. El caso Heppner va a citarse durante años y probablemente sirva como precedente para casos similares en otras jurisdicciones, especialmente en Europa donde el GDPR ya plantea preguntas parecidas pero por motivos distintos.

Preguntas frecuentes

¿Esto aplica fuera de Estados Unidos? No directamente. El caso es de jurisdicción federal estadounidense, pero su lógica (la IA no es un abogado y los términos de servicio anulan la expectativa de confidencialidad) probablemente influya en otros sistemas legales similares. ¿Qué es el privilegio abogado-cliente? La protección legal que blinda las comunicaciones entre un abogado y su cliente de la divulgación obligatoria en procedimientos judiciales. El juez Rakoff dictaminó que Claude no califica como abogado y por tanto no puede formar esa relación. ¿Qué debo hacer si uso IA para consultas semi-legales? Asumir que no son confidenciales. Para asuntos sensibles, usar despliegues privados con cláusulas explícitas de no-retención y no-entrenamiento, o consultar primero con un profesional humano que pueda dirigirte en cómo (y si) usar la IA.