Récemment, un avocat américain, Richard Bednar, a été sanctionné par la cour d’appel de l’Utah après avoir utilisé le logiciel d’intelligence artificielle ChatGPT pour rédiger des documents juridiques. Ce cas fait écho à des préoccupations croissantes concernant l’intégration de l’IA dans le monde judiciaire et les implicites d’une dépendance excessive à la technologie. L’affaire a suscité des débats sur la véracité et l’exactitude des informations générées par des systèmes automatisés dans un contexte aussi critique.
Les erreurs qui ont coûté cher
Dans le cadre d’une affaire où l’avocat a présenté une requête, il a été découvert que le document contenait des citations erronées et se référait à une affaire, « Royer v Nelson », qui n’existe tout simplement pas. Ces révélations ont été rapportées par plusieurs médias, dont The Guardian et ABC4. La situation s’est aggravée lorsque l’assistant juridique, Douglas Durbano, qui a élaboré le document à l’aide de ChatGPT, n’a pas pris la peine de vérifier les informations avant de les soumettre au tribunal.
La réaction de la cour d’appel
La cour d’appel de l’Utah a rapidement réagi à cette découverte en soulignant la nécessité de l’exactitude dans les documents juridiques. Le tribunal a noté que certaines parties de la requête semblaient clairement générées par l’IA. Des citations, qui n’avaient pas de fondement légal, ont été incluses sans vérification, comme l’indiquent les témoignages de l’avocat de la Défense. À ce stade, il est devenu évident que l’abus de la technologie pouvait avoir des serious ramifications.
Les répercussions pour Richard Bednar
Devant ces révélations, Richard Bednar a dû s’excuser publiquement pour les erreurs commises dans la requête. Lors d’une audience en avril, lui et son avocat ont admis que des informations provenant de ChatGPT avaient été utilisées sans la précaution nécessaire. En conséquence, Bednar a été condamné à payer les frais d’avocats à son client et à faire un don de 1 000 dollars à l’association à but non lucratif, And Justice for All, basée dans l’Utah.
Un outil utile mais à manipuler avec précaution
Ce incident met en lumière le débat qui fait rage sur l’utilisation de l’IA dans les affaires judiciaires. Bien que de nombreux avocats reconnaissent que l’IA peut servir de complément précieux pour la recherche juridique, il est primordial de rappeler que la responsabilité ultime incombe à l’avocat. La cour d’appel a d’ailleurs déclaré : « Nous convenons que l’utilisation de l’IA, dans la préparation des plaidoiries, est un outil de recherche qui continuera d’évoluer. Toutefois, chaque avocat a le devoir de garantir l’exactitude des documents qu’il soumet. » Cette mise en garde ne doit pas être prise à la légère.
Un précédent inquiétant
Ce n’est pas la première fois qu’un avocat se retrouve dans une situation honteuse à cause de l’utilisation de ChatGPT. En 2023, un autre avocat, Steven Schwartz, avait également utilisé le logiciel dans le cadre d’une affaire en citant des procès totalement fictifs. Ces cas révèlent un besoin urgent de régulation et d’éducation concernant l’utilisation de ces outils technologiques dans le milieu juridique, afin d’éviter de futurs faux pas.
Comme nous le voyons avec cette affaire, les outils d’intelligence artificielle offrent de nouvelles possibilités, mais ils comportent aussi leur lot de risques. Les avocats doivent naviguer prudemment dans ce paysage en évolution pour s’assurer que les principes de justice et d’exactitude demeurent au cœur de leurs pratiques. Car dans le monde du droit, chaque détail compte, et un faux pas peut coûter cher, non seulement en termes financiers, mais également en termes de crédibilité professionnelle.
Alors, futurs avocats, restez alertes et n’oubliez pas de vérifier vos sources avant de valider un document. Une simple erreur peut mener à des sanctions et, bien pire, à une justice entachée d’incertitudes. Pour en savoir plus sur cette histoire et les implications qu’elle entraîne, consultez les détails dans les articles de Daily Geek Show et BFM TV.
- Pulse : le nouvel assistant personnel de ChatGPT qui révolutionne la publicité ciblée tout en soulevant des inquiétudes sur la surveillance de masse - 3 octobre 2025
- Les 5 meilleures destinations de ski écoresponsables selon ChatGPT pour un hiver durable ! - 2 octobre 2025
- Mon thérapeute intègre ChatGPT dans ses séances - 1 octobre 2025





