Una demanda presentada por un pasajero de Frontier Airlines que alegaba discriminación racial fue desestimada después de que se reveló que el demandante presentó citas legales inventadas generadas por ChatGPT. Kusmin Amarsingh, una abogada que se representa a sí misma, afirmó que le negaron el embarque en un vuelo de conexión de Filadelfia a St. Louis debido a su ascendencia india.
La disputa y los reclamos iniciales
El 13 de junio de 2023, Amarsingh se encontraba entre varios pasajeros sin asientos asignados en un vuelo con sobreventa. Según documentos judiciales, los agentes de la puerta ofrecieron vales de hasta 800 dólares para animar a los voluntarios a tomar un vuelo más tarde, pero nadie aceptó. Los pasajeros que se quedaron sin asientos incluían múltiples grupos raciales: familias afroamericanas, personas hispanas y otros pasajeros de ascendencia asiática e india.
Amarsingh alega que mientras acomodaron a otros pasajeros, ella se quedó esperando y cree que esto se debió a su raza. La aerolínea ofreció un reembolso o un cambio de reserva, pero ninguna compensación financiera. Pidió 15 millones de dólares por daños y perjuicios, citando la pérdida de 1.000 dólares en gastos, la pérdida de una reunión familiar y la supuesta angustia emocional causada por la discriminación racial.
Decisión judicial y participación de ChatGPT
El Tribunal de Apelaciones del Décimo Circuito finalmente desestimó el caso de Amarsingh, afirmando que ella no demostró que habría sido internada si no fuera por discriminación. El tribunal señaló que ella carecía de un asiento asignado, estaba entre los últimos pasajeros considerados y que los agentes de puerta habían abordado a personas de diferentes razas.
El caso dio un nuevo giro cuando se descubrió que el escrito de apelación de Amarsingh contenía siete citas de casos legales totalmente inventados. Ella culpó de los errores a ChatGPT, alegando que la IA generó referencias falsas.
Acción disciplinaria y consecuencias
Como resultado, a Amarsingh se le ordenó pagar a Frontier $1,000 en honorarios legales y la remitieron al fiscal de su estado para una posible acción disciplinaria. A pesar de esto, apeló el despido esta semana, argumentando que el tribunal malinterpretó su afirmación de que los agentes de la puerta se burlaban de su acento indio.
El incidente resalta los riesgos de confiar en contenido generado por IA en procedimientos legales y subraya la importancia de verificar todas las citaciones.
El caso sirve como una cruda advertencia contra el uso acrítico de la inteligencia artificial en contextos legales. La decisión del tribunal y la posterior acción disciplinaria envían un mensaje claro: los profesionales del derecho son responsables de la exactitud de sus presentaciones, incluso cuando utilizan herramientas de inteligencia artificial.

























