Abogado enfrenta sanciones por utilizar citas falsas de casos generados por ChatGPT

Publicado el

Justicia

El abogado estadounidense Steven A. Schwartz fue contratado por un cliente para representarlo en un caso de lesiones personales contra la aerolínea Avianca. El reclamo afirmaba que el cliente de Schwartz había sido golpeado en la rodilla por un carrito de servicio durante un vuelo en 2019 hacia el Aeropuerto Internacional Kennedy, en Nueva York.

En lugar de seguir el procedimiento legal convencional, Schwartz tomó una decisión sorprendente al confiar en la inteligencia artificial para respaldar su presentación ante el Tribunal Federal de Manhattan. Para respaldar su oposición a la solicitud de Avianca, Schwartz presentó un documento legal de 10 páginas que incluía citas de casos judiciales relevantes. Sin embargo, se descubrió que todas las citas eran falsas y habían sido generadas por IA.

Abogado admite su error: delegó su trabajo a ChatGPT

Cuando el juez P. Kevin Castel descubrió el engaño, Schwartz admitió que no tenía la intención de engañar al tribunal ni a la aerolínea. Reconoció su falta de experiencia con la IA y lamentó no haber verificado la autenticidad de las citas generadas por ChatGPT.

El juez Castel programó una audiencia de seguimiento para discutir posibles sanciones relacionadas con las acciones de Schwartz. El caso se describe como «una circunstancia sin precedentes» con decisiones judiciales y citas falsas. Además, este incidente podría influir en casos futuros relacionados con el uso de IA en el ámbito legal.

El caso de Schwartz, reportado inicialmente por el New York Times, destaca la importancia de la verificación de hechos, incluso cuando se utiliza inteligencia artificial. Aunque la tecnología puede ser una herramienta útil, es esencial que los profesionales legales comprendan sus limitaciones y se aseguren de que la información generada sea precisa y veraz.

La confianza ciega en la tecnología puede tener repercusiones graves, especialmente en situaciones legales. Este incidente nos recuerda la importancia de la responsabilidad y la diligencia profesional al utilizar herramientas basadas en IA en entornos legales.

El costo de los errores legales

Los errores en el campo legal pueden tener consecuencias significativas tanto para los profesionales como para sus clientes. Schwartz enfrenta posibles sanciones legales debido a su error, lo que destaca la importancia de la precisión y la integridad en el sistema legal.

El incidente del abogado Schwartz plantea interrogantes sobre la integración de la IA en el campo legal. A medida que la tecnología continúa avanzando, es esencial que los profesionales legales comprendan y controlen adecuadamente su uso para evitar problemas similares en el futuro.

Este caso ofrece una oportunidad para el aprendizaje y la mejora en la aplicación de la IA en el ámbito legal. La experiencia de Schwartz destaca la necesidad de una mayor educación y capacitación para los profesionales legales sobre las implicaciones y limitaciones de la inteligencia artificial en su trabajo.

De por sí, la inteligencia artificial, en su sentido más general y amplio, puede ser una herramienta útil para la labor jurídica. Sin ir muy lejos, ya existen herramientas dedicadas a este fin. No obstante, ChatGPT es una herramienta para uso general, no es sustituto de una herramienta especializada y además, la misma plataforma advierte que sus resultados podrían ser imprecisos, al encontrarse aún en una fase demostrativa.

Comparte en: