ChatGPT fournit de fausses informations dans un document légal

ChatGPT fournit de fausses informations dans un document légal

2023-05-30 13:28:46

L’utilisation de ChatGPT et de laintelligence artificielle dans le secteur juridique, il a soulevé des questions sur sa fiabilité et la nécessité d’une supervision humaine. L’un des cas les plus récents met en lumière l’histoire d’un avocat qui a utilisé ChatGPT pour recueillir des informations pour une affaire judiciaire, mais qui a fait face à des conséquences imprévues.

Le défi d’utiliser ChatGPT dans le secteur juridique

L’affaire en question implique l’avocat Steven Schwartz du cabinet d’avocats Levidow et Oberman. Schwartz a décidé d’utiliser ChatGPT pour mener des recherches approfondies sur des cas similaires à celui de son client, Roberto Mata. Le client avait assigné en justice la compagnie aérienne colombienne Avianca suite à une blessure au genou causée par un chariot lors d’un vol régulier. Cependant, l’utilisation de ChatGPT a donné lieu à des informations erronées et fabriquées, qui ont été présentées comme preuve dans l’affaire judiciaire.

Utiliser ChatGPT dans une affaire judiciaire

L’avocat Steven Schwartz a décidé d’utiliser ChatGPT pour convaincre le juge fédéral de ne pas rejeter l’affaire de son client, Roberto Mata. Cependant, l’utilisation de ChatGPT a conduit à des résultats trompeurs et à des conséquences imprévues. Schwartz a confié à ChatGPT la recherche de cas similaires à celui de son client. À l’aide du chatbot, il a obtenu un document contenant une liste de cas présumés, dont « Varghese c. China Southern Airlines », « Martinez c. Delta Airlines » et « Miller c. United Airlines.”

Bien que l’avocat ait demandé à ChatGPT si l’information était vraie, le chatbot a incorrectement confirmé leur authenticitéindiquant qu’ils étaient présents dans des bases de données juridiques réputées telles que Westlaw e LexisNexis. Par la suite, l’avocat de la défense a procédé à une vérification approfondie des cas cités par ChatGPT. Il s’est avéré qu’aucun de ces cas n’existait réellement. Par exemple, l’affaire « Varghese c. China Southern Airlines Co » s’est avéré inexistant, malgré la référence au cas réel de « Zicherman v. Korean Air Lines Co.”.

Les conséquences pour l’avocat

L’utilisation d’informations inexactes dans le processus judiciaire a sérieusement miné la crédibilité de l’avocat Schwartz. Son affidavit, dans lequel il dit avoir demandé à ChatGPT s’il mentait, n’était pas suffisant pour atténuer les conséquences juridiques de fausses informations présentées au tribunal. L’avocat pourrait faire face à des amendes et le cas de Mata pourrait être compromis en raison de l’utilisation incorrecte de l’intelligence artificielle. En fait, la responsabilité de ce qui s’est passé incombe à l’avocat, qui n’a pas utilisé correctement les informations fournies par ChatGPT.

La soumission d’informations incorrectes a eu des conséquences pour l’avocat Schwartz. Il a été interpellé par un juge fédéral pour avoir présenté de fausses preuves. Malgré ses plaidoyers d’ignorance quant à la possibilité que l’information soit fausse, il a été reconnu coupable.

chatGPT

L’importance de la supervision humaine dans l’utilisation de ChatGPT

L’histoire de l’avocat Schwartz met en évidence l’importance d’un surveillance humaine prudent et responsable dans l’utilisation de ChatGPT. Cela est particulièrement vrai dans le secteur juridique. L’IA générative peut certainement être un outil utile pour la recherche et le traitement de l’information. Mais il est crucial que les avocats soient conscients des limites de ces technologies. Les avocats sont censés utiliser les informations de manière éthique et responsable. Une surveillance humaine rigoureuse est essentielle pour éviter les erreurs, les fausses informations et les conséquences juridiques involontaires.

L’histoire de l’avocat Schwartz représente une leçon importante sur l’utilisation de ChatGPT dans le secteur juridique. Il est crucial que les avocats comprennent les limites de l’IA générative et soient responsables de l’utilisation de ces outils. Mais cela s’applique généralement à tous les secteurs qui utilisent le support de l’intelligence artificielle. Il ne faut pas oublier que l’intelligence artificielle n’est qu’une alliée précieuse, mais elle ne peut remplacer l’intelligence humaine. Cette histoire prouve que les conseils et le contrôle humains sont essentiels pour éviter toute conséquence fâcheuse.



#ChatGPT #fournit #fausses #informations #dans #document #légal
1685493247

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.