El juez escucha al abogado que usó ChatGPT para preparar un caso

Publicado el

abogado robot

Ya os lo comentamos hace algunas semanas, el abogado que usó ChatGPT para crear referencias de un caso judicial, sin sospechar que dichas referencias no habían existido nunca.

Ayer fue el primer día del juicio, y es muy relevante en el mundo de la tecnología, porque puede ser un precedente del uso de ChatGPT en este sector.

El caso es que hablamos de un abogado llamado Steven Schwartz , quien usó ChatGPT para investigar un caso judicial. Este recurso de inteligencia artificial generó una serie de información falsa, lo que llevó a Schwartz a incluir en su escrito referencias a casos inventados por completo. Ahora, Schwartz y su asociado Peter LoDuca comparecen ante un juez en Manhattan, y la situación no pinta bien para ellos. Esta situación ha sido embarazosa tanto a nivel personal como profesional, y podría tener un impacto duradero en la reputación de los abogados involucrados.

Un error grave

Durante la audiencia judicial, el juez federal Kevin Castel cuestionó a Schwartz y LoDuca acerca de las citas y opiniones ficticias generadas por ChatGPT. El juez mencionó un caso inventado llamado «Varghese vs. China Southern Airlines Co. Ltd.» y les preguntó si tenía algún sentido para ellos. Los abogados no tuvieron mucho que decir, salvo destacar lo convincente que sonaba toda la información falsa generada por ChatGPT.

El peso de la responsabilidad

Schwartz se ha disculpado por el incidente, alegando que desconocía la capacidad de ChatGPT para fabricar citaciones y opiniones judiciales completas. Ha expresado su profunda vergüenza tanto a nivel personal como profesional, ya que estos artículos estarán disponibles durante años. Por su parte, LoDuca lamentó no haber sido más escéptico y admitió que no puede cambiar lo que se ha hecho, asegurando que esta situación nunca volverá a repetirse.

Lecciones aprendidas y la importancia de la verificación

El caso de Schwartz y LoDuca sirve como una advertencia sobre la importancia de la verificación y el juicio crítico al utilizar herramientas de inteligencia artificial en la investigación legal. Aunque las herramientas de IA pueden ser útiles para encontrar información relevante, los profesionales del derecho deben ser responsables y verificar la precisión y autenticidad de la información generada. La investigación legal implica la corroboración y validación de fuentes confiables.

Es fundamental recordar que las herramientas de IA, como ChatGPT, están diseñadas para complementar las capacidades humanas, pero no pueden reemplazar el pensamiento crítico y el análisis de los profesionales del derecho. La supervisión humana es esencial para garantizar la integridad y la exactitud de la información utilizada en casos judiciales.

El incidente protagonizado por Steven Schwartz y Peter LoDuca pone de relieve los desafíos y las responsabilidades que surgen al emplear herramientas de inteligencia artificial en el ámbito legal. El uso de la IA es fundamental para analizar casos del pasado y extraer ideas ya escritas, pero usar ChatGPT como buscador de información, no es una buena idea.

Comparte en: