No es ninguna sorpresa que ChatGPT se haya convertido en una de las herramientas indispensables desde el mundo académico a incluso las oficinas laborales. Pero no nos engañemos porque fiarnos en exceso de las herramientas de la Inteligencia Artificial nos puede llevar no solo a un patinazo para los clientes, sino también a una sanción en el mundo profesional.

Así es cómo lo ha comprobado el letrado estadounidense Steven Schwartz. El abogado llevaba un caso que se dirime en un tribunal de Nueva York: una demanda contra la aerolínea Avianca que había sido presentada por un pasajero, Roberto Mata, que aseguraba sufrir una lesión al ser golpeado con un carrito de servicio durante su vuelo que conectaba El Salvador y Nueva York.

ChatGPT y lo peor de nosotros
MÁS INFORMACIÓN
ChatGPT y lo peor de nosotros

La compañía había pedido al juez federal de Manhattan que desestimara el caso, sin embargo, los abogados de Mata se opusieron. Uno de ellos, Steven A. Schwartz, del despacho Levidow & Oberman, se negó rotundamente para lo que elaboró un informe de 10 páginas con media docena de precedentes judiciales. Todo con la ayuda de ChatGPT. Sin embargo, no sirvieron de mucho hasta que la Corte descubrió la artimaña que había utilizado el letrado.

¿Qué ocurre cuando un abogado utiliza ChatGPT?

“La Corte se encuentra ante una situación inédita. Una presentación remitida por el abogado del demandante en oposición a una moción para desestimar (el caso) está repleta de citas de casos inexistentes; seis de los casos presentados parecen ser decisiones judiciales falsas, con citas falsas y referencias falsas”, declaró el juez Kevin Castel este mes. De hecho, Castel, emitió una orden convocando una audiencia para el próximo 8 de junio para que Schwartz explique por qué no debería ser sancionado tras tratar supuestos precedentes falsos.

Los abogados de la compañía fueron los que detectaron las contradicciones en el informe, que fueron incapaces de localizarlas. Ni el propio magistrado pudo, específicamente, lo que más dificultades hubo fue en conocer quien había sido el autor.

Seis de los casos presentados parecen ser decisiones judiciales falsas, con citas falsas y referencias falsas

El mismo letrado acusado admitió haber usado ChatGPT para preparar el escrito y reconoció que la única verificación que había llevado a cabo era preguntar a la aplicación si los casos citados eran reales. “Se ha revelado como poco fiable”, admitía Schwartz.Todas estas declaraciones las hizo un día después de que el mismo presentase una declaración jurada con estas afirmaciones.

"Schwartz lamenta enormemente haber utilizado inteligencia artificial generativa para complementar la investigación legal realizada en este documento y nunca lo hará en el futuro sin una verificación absoluta de su autenticidad", destaca el comunicado.

Su defensa se estimó en que nunca había usado esta herramienta y que “no era consciente de la posibilidad de que su contenido pudiese ser falso”. El abogado subraya que no tenía ninguna intención de engañar al tribunal, por lo que, exculpó totalmente a otro abogado del mismo bufete que se expone también a las mismas sanciones.

El propio Schwartz indicando que lamenta profundamente haber usado la inteligencia artificial como apoyo de su investigación

Según la Agencia Efe, el documento se cierra con una disculpa del propio Schwartz indicando que lamenta profundamente haber usado la inteligencia artificial como apoyo de su investigación y promete no utilizarla nunca más sin verificar las citas elaboradas.

Schwartz es un veterano con tres décadas de experiencia ejerciendo la abogacía en Nueva York. Sin embargo, lo más preocupante es que el abogado consultó con el chatbot la veracidad de las referencias, algo que la IA de OpenAI respondió que “no, los otros casos que proporcioné son reales y se pueden encontrar en bases de datos acreditadas”.

ChatGPT en las empresas 

En España, el caso de ChatGPT ha provocado que la ola de la inteligencia artificial se prohíba en los empleados de algunas empresas que ya establecen esta restricción. Algunos ejemplos de esta medida en los peligros del uso de los chatbots son compañías como Samsung, Apple, Amazon o JPMorgan Chase.

La empresa de Lee Kun-hee restringe el uso de chatbots tras el caso de que varios empleados compartieran información confidencial en el código de sus productos. Para ello, la compañía introdujo algunas medidas de seguridad. Sucede lo mismo, en Apple, cuyos empleados tienen prohibido a los empleados usar ChatGPT para evitar situaciones “catastróficas”.

En el caso de Amazon, esta fue una de las primeras en restringir su uso tras detectar la filtración de datos internos, según asegura 20bits.

Las empresas españolas que se suman a esta prohibición son Telefónica, BBVA y Redeia (Red Eléctrica), según apuntan medios de comunicación como El Mundo, que limitan esta herramienta en los trabajadores. Caso similar para las empresas de Naturgy o Enagás, y Mapfre y Repsol, que se centran más en utilizar protocolos para utilizar la IA de forma segura y ética.