EEUU: Abogados dicen que chatbot los engañó con casos ficticios

Dos abogados acusan a ChatGPT de haberlos engañado de manera tal que incluyeron una investigación jurídica ficticia en un documento presentado ante una corte de Manhattan

Larry Neumeister
Viernes, 09 de junio de 2023 00:01 EDT
EEUU-JUZGADOS-INTELIGENCIA ARTIFICIAL
EEUU-JUZGADOS-INTELIGENCIA ARTIFICIAL (AP)

Dos abogados manifestaron su arrepentimiento ante un furioso juez de una corte federal de Manhattan y culparon el jueves a ChatGPT por haberlos engañado de tal manera que incluyeron una investigación jurídica ficticia en un documento presentado ante la corte.

Los abogados Steven A. Schwartz y Peter LoDuca podrían ser sancionados debido al documento que incluyeron en una demanda contra una aerolínea, el cual hacía referencia a casos judiciales anteriores que Schwartz pensó eran verídicos, pero que en realidad fueron inventados por el chatbot con inteligencia artificial.

Schwartz explicó que utilizó el innovador programa para buscar precedentes jurídicos que apoyaran el caso de un cliente contra la aerolínea colombiana Avianca por una lesión sufrida durante un vuelo en 2019.

El chatbot, que ha fascinado al mundo con sus respuestas tipo ensayo a solicitudes de los usuarios, sugirió diversos casos sobre incidentes de aviación que Schwartz no había logrado encontrar mediante los métodos habituales de búsqueda utilizados por su firma jurídica.

El problema fue que varios de esos casos nunca sucedieron o implicaban a aerolíneas que no existían.

Schwartz manifestó al juez P. Kevin Castel que “actuó bajo la idea equivocada… de que este sitio web estaba obteniendo casos de alguna fuente a la que yo no tenía acceso”.

Schwartz dijo que “falló miserablemente” en hacer la respectiva investigación de seguimiento para garantizar que las referencias fueran correctas.

“No entendía que ChatGPT podía inventar casos”, agregó.

Microsoft ha invertido alrededor de 1.000 millones de dólares en OpenAI, la compañía detrás de ChatGPT.

El éxito de ChatGPT, que muestra que la inteligencia artificial podría cambiar la manera como actúan y aprenden los humanos, ha generado temores en algunos. Cientos de líderes industriales firmaron en mayo una carta en la que advierten que “reducir el riesgo de la extinción frente a la IA debería ser una prioridad global a la par de otros riesgos a escala social, como las pandemias y la guerra nuclear”.

El juez Castel parecía tanto desconcertado como molesto por el inusual incidente, y decepcionado de que los abogados no hubieran actuado rápidamente para corregir las falsas referencias jurídicas cuando sus contrapartes de Avianca y la corte les avisaron del problema por primera vez. Avianca expuso la falsa jurisprudencia en un documento presentado en marzo ante la corte.

El juez confrontó a Schwartz con un caso legal inventado por el programa informático. El asunto fue descrito inicialmente como un caso de muerte por negligencia que presentó una mujer contra una aerolínea, pero se fue transformando en una demanda legal sobre un hombre que perdió un vuelo a Nueva York e incurrió en gastos adicionales.

“¿Podemos concordar en que se trata de sandeces jurídicas?", preguntó Castel.

Schwartz dijo haber creído equivocadamente que la confusa presentación había resultado de los extractos obtenidos de distintas partes del caso.

Cuando Castel terminó con su interrogatorio, preguntó a Schwartz si tenía algo más que agregar.

“Quiero disculparme sinceramente”, declaró Schwartz.

El abogado dijo haber sufrido personal y profesionalmente por esta metida de pata y que se sentía “avergonzado, humillado y extremadamente arrepentido”.

Afirmó que él y el despacho donde trabajaba —Levidow, Levidow & Oberman— habían adoptado salvaguardas para garantizar que no volviera a suceder algo similar.

LoDuca, el otro abogado que trabajaba en el caso, dijo que confió en Schwartz y no revisó de manera adecuada lo que su compañero había compilado.

Después de que el juez leyera en voz alta partes de uno de los casos mencionados para mostrar lo sencillo que era discernir que se trataba de incoherencias, LoDuca dijo: “Jamás pensé que se tratara de un caso falso”.

LoDuca afirmó que el resultado “me apena sobremanera”.

Ronald Minkoff, abogado del despacho jurídico, dijo al juez que la entrega del documento “se debió a un descuido, no a mala fe”, y que no debería derivar en sanciones.

Señaló que, históricamente, los abogados han tenido dificultades con la tecnología, en particular con la tecnología moderna, “y no se está poniendo más fácil”.

“El señor Schwartz, que apenas realiza investigación federal, decidió utilizar esta nueva tecnología. Pensó que estaba utilizando un motor de búsqueda ordinario”, afirmó Minkoff. “Lo que estaba haciendo era jugar con munición real”.

Daniel Shin, profesor adjunto y subdirector de investigación del Centro para Tecnología Jurídica y Judicial de la Escuela de Derecho William & Mary, dijo que expuso el caso de Avianca durante una conferencia la semana pasada que atrajo a docenas de participantes en persona y en internet de cortes estatales y federales en Estados Unidos, incluida la corte federal de Manhattan.

Dijo que el tema causó conmoción y desconcierto durante la conferencia.

“Estamos hablando del Distrito Sur de Nueva York, el distrito federal que se ocupa de grandes casos, desde el 11 de septiembre de 2001 hasta grandes delitos financieros”, dijo Shin. “Este fue el primer caso documentado de una posible falta de ética profesional de parte de un abogado que utilizó IA generativa”.

Dijo que el caso mostró que los abogados podrían no comprender el funcionamiento de ChatGPT porque éste tiende a alucinar y hablar sobre cosas ficticias de tal manera que parecen reales sin serlo.

“Pone de relieve los peligros del uso de prometedoras tecnologías de IA sin que se tengan claros los riesgos”, comentó Shin.

El juez dijo que fallará sobre las sanciones en una fecha posterior.

Thank you for registering

Please refresh the page or navigate to another page on the site to be automatically logged inPlease refresh your browser to be logged in