Outrage au tribunal : une avocate de Toronto piégée par ses mensonges sur l’IA

Publié le 15 février 2026 à 18:30

L’usage de l’intelligence artificielle (IA) dans la pratique du droit vient de franchir une ligne rouge dans les tribunaux canadiens. L’avocate torontoise Mary Hyun-Sook Lee, également connue sous le nom de Jisuh Lee, se retrouve au cœur d’une saga judiciaire sans précédent qui mêle « hallucinations » technologiques et allégations d’outrage au tribunal.

Des citations fictives devant la Cour supérieure

L’affaire a pris racine lors du litige successoral Ko v. Li devant la Cour supérieure de justice de l’Ontario. Me Lee a présenté un factum (mémoire) contenant plusieurs références jurisprudentielles qui se sont avérées totalement inexistantes. Ces fausses citations sont le résultat de ce que les experts appellent des « hallucinations » de l’IA : l’outil génère des textes qui ont l’apparence de la vérité juridique, mais qui sont purement inventés.

De l’erreur technique à l’outrage criminel

Ce n’est pas l’utilisation de l’IA en soi qui est reprochée à l’avocate, mais plutôt le manquement à son obligation de vérification et, surtout, sa réaction subséquente.

  1. Le manque de diligence : Le juge Fred Myers a souligné que l’avocate a failli à son devoir élémentaire de valider ses sources avant de les soumettre à la cour.
  2. L'allégation de mensonge : La situation s'est aggravée lorsque des doutes ont surgi quant à l'honnêteté de Me Lee. Elle aurait initialement tenté de faire porter la responsabilité des documents à un étudiant en droit, avant d'admettre l'usage de l'IA. Cette apparente tentative de tromper le tribunal a transformé une erreur professionnelle en une possible accusation d'outrage criminel.

 

Un avertissement pour la profession

Cette affaire, qui continue de progresser devant le Tribunal du Barreau de l'Ontario, marque un tournant. Elle illustre les risques déontologiques majeurs liés à l'automatisation des tâches juridiques.

La magistrature ontarienne a profité de ce cas pour rappeler que, peu importe l'outil utilisé (ChatGPT, Grok ou autre), l'avocat demeure l'unique responsable de l'exactitude des propos tenus devant le juge. L'obligation de compétence et l'intégrité envers le tribunal ne peuvent être déléguées à un algorithme.

Ajouter un commentaire

Commentaires

Il n'y a pas encore de commentaire.