Uma ação movida por um passageiro da Frontier Airlines alegando discriminação racial foi indeferida depois que foi revelado que o reclamante apresentou citações legais fabricadas geradas pelo ChatGPT. Kusmin Amarsingh, uma advogada que se representa, alegou que lhe foi negado o embarque em um voo de conexão da Filadélfia para St. Louis devido à sua ascendência indiana.
A disputa e as reivindicações iniciais
Em 13 de junho de 2023, Amarsingh estava entre vários passageiros sem assento atribuído em um voo com overbook. De acordo com documentos judiciais, os agentes do portão ofereceram vouchers de até US$ 800 para incentivar os voluntários a embarcarem em um voo posterior, mas ninguém aceitou. Os passageiros que ficaram sem assento incluíam vários grupos raciais: famílias afro-americanas, indivíduos hispânicos e outros passageiros de ascendência asiática e indiana.
Amarsingh alega que enquanto outros passageiros eram acomodados, ela ficou esperando e acredita que isso se deveu à sua raça. A companhia aérea ofereceu reembolso ou remarcação, mas nenhuma compensação financeira. Ela pediu US$ 15 milhões em indenização, citando a perda de US$ 1.000 em despesas, a perda de uma reunião familiar e o suposto sofrimento emocional causado pela discriminação racial.
Decisão judicial e envolvimento do ChatGPT
O Tribunal de Apelações do 10º Circuito acabou por rejeitar o caso de Amarsingh, afirmando que ela não conseguiu demonstrar que teria sido abordada se não fosse por discriminação. O tribunal apontou que ela não tinha assento designado, estava entre os últimos passageiros considerados e que os agentes do portão haviam embarcado pessoas de raças diferentes.
O caso tomou outro rumo quando foi descoberto que o pedido de apelação de Amarsingh continha sete citações de casos legais totalmente fabricadas. Ela culpou o ChatGPT pelos erros, alegando que a IA gerou referências falsas.
Ação disciplinar e consequências
Como resultado, Amarsingh foi condenada a pagar à Frontier US$ 1.000 em honorários advocatícios e encaminhada ao procurador de seu estado para possível ação disciplinar. Apesar disso, ela apelou da demissão esta semana, argumentando que o tribunal entendeu mal sua alegação de que os agentes do portão zombaram de seu sotaque indiano.
O incidente destaca os riscos de depender de conteúdo gerado por IA em processos judiciais e sublinha a importância de verificar todas as citações.
O caso serve como um alerta severo contra o uso acrítico da inteligência artificial em contextos jurídicos. A decisão do tribunal e a subsequente ação disciplinar enviam uma mensagem clara: os profissionais jurídicos são responsáveis pela exatidão das suas declarações, mesmo quando utilizam ferramentas de IA.


























