Fausse jurisprudence dans un jugement de 128 M$ : un juge de la Cour supérieure a-t-il utilisé l'intelligence artificielle?

Publié le 9 mars 2026 à 07:41

 Justice-Quebec.ca | Accès à la justice

Le juge Jocelyn Geoffroy de la Cour supérieure du Québec cite, dans un jugement condamnant un homme d'affaires à rembourser 128 millions de dollars, de la jurisprudence qui n'existe pas. Les avocats de la défense parlent d'« hallucinations associées à la rédaction assistée par intelligence artificielle ». Des experts en IA estiment que ce type d'erreurs est caractéristique des outils d'IA générative. L'utilisation de l'IA par le juge n'a été ni confirmée ni niée. Si l'hypothèse se confirme, ce serait un cas sans précédent connu au Canada pour un magistrat.

 

Un jugement de 200 pages, une référence qui n'existe pas

Le 26 novembre 2025, le juge Jocelyn Geoffroy de la Cour supérieure du Québec rendait un jugement de près de 200 pages dans la débâcle du Groupe Huot. Sa conclusion : l'homme d'affaires Robert Giroux a commis des représentations frauduleuses et mené des transactions de type Ponzi (Entreprises Bertrand Roberge ltée c. Giroux, 2025 QCCS 4157). Il est condamné à rembourser 128 millions de dollars à des investisseurs floués.

Au paragraphe 134 de sa décision, selon ce que rapporte La Presse, le juge écrit que dans l'affaire Crawford c. Crawford McGregor, la Cour suprême du Canada aurait précisé qu'aucune clause contractuelle ne peut exonérer un fiduciaire de sa négligence grossière.

Le problème : la Cour suprême du Canada n'a jamais rendu de jugement dans Crawford c. Crawford McGregor. L'affaire ne s'est pas rendue au-delà de la Cour d'appel. La référence citée mène à un jugement de 1939 concernant l'inhabilité à siéger du maire de Grand-Mère — un dossier sans aucun lien.

Pas une erreur isolée

Ce n'est pas la seule référence problématique. Comme l'a révélé La Presse le 6 mars 2026 dans une enquête signée Isabelle Hachey, le jugement contient plusieurs autres références inexistantes ou erronées.

Le juge cite Ponce c. Société d'investissement MGP pour appuyer le caractère frauduleux d'un système Ponzi. Ce dossier n'existe pas. La référence fournie mène à une affaire de droit du travail.

Pour appuyer la levée du voile corporatif, le juge s'appuie sur deux jugements qui ne traitent pas de ce sujet : l'un concerne l'attribution d'une pension alimentaire (dont le numéro de référence mène à une affaire d'extradition), l'autre ne porte pas davantage sur le voile corporatif (sa référence mène à un arrêt concernant une thérapie imposée à un toxicomane).

Les avocats de Robert Giroux, du cabinet Rigaud Legal inc., ont soumis une déclaration d'appel en décembre 2025 dans laquelle ils affirment avoir repéré une série d'erreurs similaires. Selon eux, le jugement comporte « des anomalies rappelant les hallucinations associées à la rédaction assistée par intelligence artificielle » et « certains passages citent des propos prétendument verbatim qui ne figurent nulle part dans la preuve ».

Ce qu'en disent les experts

Nicolas Vermeys, directeur du Centre de recherche en droit public et professeur à la faculté de droit de l'Université de Montréal, a formé des centaines de magistrats québécois à l'usage de l'intelligence artificielle générative. Après avoir pris connaissance des erreurs, sa réaction est claire : une erreur isolée peut arriver à tout le monde, mais l'accumulation de décisions inexistantes ou mal référencées pointe vers une cause spécifique. Selon lui, il est difficile d'imaginer que ce type d'erreurs puisse provenir d'autre chose qu'une IA générative — même s'il reconnaît que le juge a pu reprendre des références fournies par les avocats ayant plaidé devant lui. Vérification faite par La Presse, les erreurs ne figurent toutefois pas dans le plan d'argumentation de 582 pages déposé par les avocats de la poursuite.

L'avocat et chroniqueur Frédéric Bérard, interrogé par Noovo Info, qualifie la situation de « fort inquiétante ». Selon lui, un juge qui se réfère à des décisions inexistantes affecte directement la confiance du public envers l'administration de la justice. Il ajoute que si un cas est mis au jour aujourd'hui, il est fort probable que d'autres juges aient déjà utilisé l'IA sans que cela soit détecté.

Me Bérard rappelle que le Conseil de la magistrature du Québec dispose de pouvoirs pour appliquer des mesures disciplinaires à l'endroit du juge Geoffroy.

La réponse du juge et de la Cour

Le juge Geoffroy n'a pas commenté les allégations. Par courriel, il a invoqué son devoir de réserve, d'autant plus que le dossier est présentement en appel.

La Cour supérieure a également refusé de commenter, par respect pour le processus en cours.

De leur côté, les avocats des investisseurs floués cherchent à relativiser. Me François Valin souligne que le procès a duré 36 jours, que des dizaines de témoins ont été entendus et que des milliers de pages de documents ont été déposées. Il qualifie les erreurs d'« erreurs cléricales sans conséquence » et rappelle que le Code de procédure civile permet à la Cour de les corriger.

Le professeur Vermeys reconnaît d'ailleurs que le jugement pourrait se tenir même sans les références problématiques. La Cour d'appel pourrait conclure que la décision ne contient aucune erreur de droit malgré les citations erronées.

Un cas sans précédent connu au Canada pour un juge

Si la thèse des hallucinations numériques se confirme, ce serait, selon les sources consultées, un cas sans précédent connu au Canada impliquant un magistrat. Jusqu'ici, les erreurs liées à l'IA dans les tribunaux canadiens provenaient principalement de citoyens non représentés ou d'avocats.

Damien Charlotin, enseignant-chercheur à HEC Paris, recense les hallucinations d'IA dans les jugements à travers le monde. Il a identifié 61 décisions au Canada, dont 6 au Québec — toutes impliquant des plaideurs non représentés. Selon Nicolas Vermeys, il y en aurait au moins le double, voire des milliers, de cas non détectés.

À l'international, des cas similaires ont été documentés en Colombie (2023), au Brésil (2023) et aux États-Unis (2025), où deux juges fédéraux ont été réprimandés par le Sénat pour des documents contenant de fausses citations.

Le précédent Laprade : quand un citoyen est sanctionné pour la même erreur

L'affaire prend une dimension particulière lorsqu'on la met en parallèle avec un autre dossier récent de la même Cour supérieure.

En octobre 2025, le juge Luc Morin — confrère du juge Geoffroy — a imposé une amende de 5 000 $ à Jean Laprade, un citoyen qui s'était fié à ChatGPT pour se défendre. L'IA avait généré de la jurisprudence fictive. Le juge Morin avait été catégorique : l'accès à la justice ne saurait jamais s'accommoder de la fabulation.

La question que ce parallèle soulève est évidente : si un citoyen est sanctionné pour avoir cité de la fausse jurisprudence générée par l'IA, quelle est la conséquence lorsque c'est un juge qui le fait dans un jugement de 128 millions de dollars?

Ce qui existe déjà — et ce qui manque

La Cour supérieure s'est dotée en septembre 2025 d'un cadre de gouvernance en matière d'intelligence artificielle. Ce cadre précise que le contenu généré par l'IA doit toujours faire l'objet d'une vérification rigoureuse et reconnaît le risque d'erreurs, d'énoncés inexacts et d'hallucinations.

Le Barreau du Québec prévoit rendre obligatoire, au printemps 2026, une formation sur l'intelligence artificielle pour l'ensemble de ses membres.

Mais contrairement au Manitoba, qui oblige désormais les avocats et les juges à déclarer tout usage de l'IA dans la préparation de documents judiciaires, le Québec n'impose aucune obligation de déclaration. Et contrairement à la Cour fédérale, qui s'est engagée à ne pas utiliser l'IA pour rendre ses jugements sans consultations publiques préalables, la Cour supérieure du Québec n'a pas pris un tel engagement.

La question que cette affaire pose

Cette affaire dépasse le dossier Robert Giroux. Elle pose une question que tout citoyen est en droit de se poser : quand un jugement qui condamne une personne à rembourser 128 millions de dollars contient de la jurisprudence inventée, quelle confiance peut-on accorder au système?

Le juge Geoffroy a peut-être commis des erreurs d'inattention. Il a peut-être utilisé l'IA de manière imprudente. Il a peut-être repris des références fournies par d'autres sans les vérifier. Nous ne le savons pas — et son devoir de réserve l'empêche de répondre.

Ce que nous savons, c'est que la jurisprudence citée n'existe pas. Que des experts estiment que ce type d'erreurs est caractéristique de l'IA générative — sans que cela ait été confirmé de manière définitive. Et que le même tribunal a sanctionné un citoyen pour exactement la même chose, trois semaines plus tôt.

Le dossier est maintenant devant la Cour d'appel.


Sources : La Presse, Isabelle Hachey, 6 mars 2026 — Noovo Info, Me Frédéric Bérard, 6 mars 2026 — Radio-Canada, novembre 2025 — Cour supérieure du Québec, cadre de gouvernance IA, septembre 2025 — Cour fédérale, politique IA — Barreau du QuébecConseil de la magistrature du Québec.

Ce site ne fournit aucun conseil juridique. Les informations publiées sont basées sur des sources journalistiques citées, des documents publics et des décisions judiciaires accessibles. Le juge Geoffroy n'a pas confirmé ni nié l'utilisation de l'intelligence artificielle. Le dossier est présentement en appel. Toutes les personnes mentionnées bénéficient de la présomption d'innocence.

Ajouter un commentaire

Commentaires

Il n'y a pas encore de commentaire.