Dans le domaine en constante évolution des litiges en droit pénal des affaires et des enquêtes en matière d’insolvabilité, l’intelligence artificielle (IA) générative est en passe de s’imposer comme un outil de choix pour les équipes juridiques à la recherche de rapidité, de précision et d’accroissement des capacités.

Alors que les tribunaux commencent à se pencher sur son utilisation, un message clair semble toutefois se dégager : l’efficience ne doit pas être obtenue aux dépens de l’intégrité. En ce sens, la décision de la Cour supérieure du Québec dans l’affaire Specter Aviation Limited c. Laprade marque un tournant : il s’agit de la première sanction constatée au Québec pour usage inapproprié de contenu juridique généré par l’IA.

L’affaire met en évidence une intolérance judiciaire croissante envers les résultats non vérifiés et pointe la nécessité d’une gouvernance disciplinée dans le travail juridique assisté par l’IA.


Première sanction infligée officiellement au Québec pour un usage inapproprié de l’IA

Dans Specter Aviation Limited c. Laprade1, la Cour supérieure du Québec a homologué une sentence arbitrale rendue à Paris et, ce faisant, a prononcé ce qui semble être la première sanction infligée officiellement dans la province pour un usage inapproprié de l’IA générative dans le cadre d’une action en justice. Le défendeur, qui se représentait alors sans l’aide d’un avocat, a déposé une contestation citant plusieurs autorités qui, après examen par les avocats de la partie adverse et la Cour, se sont révélées fictives. Questionné sur ce point, le défendeur a admis s’être appuyé sur « toute la force possible » des outils d’IA pour préparer ses observations.

En vertu de l’article 342 du Code de procédure civile du Québec, la Cour a conclu à un manquement grave au déroulement de l’instance et l’a condamné à une sanction punitive de 5 000 $. Dans son jugement, elle a souligné que l’invocation de considérations touchant l’accès à la justice pour les plaideurs qui se représentent sans l’aide d’un avocat ne saurait justifier le recours à des autorités créées de toutes pièces.

S’appuyant sur un avis à la communauté juridique et au public publié en 2023 sur les hallucinations de sources juridiques, la Cour a rappelé deux garde-fous essentiels : prudence et intervention humaine rigoureuse. Tout en reconnaissant le potentiel de l’IA dans l’amélioration de l’accès à la justice, elle a insisté sur le fait que les résultats non vérifiés faisaient perdre du temps, alourdissaient le fardeau de la partie adverse et risquaient d’induire en erreur le tribunal. Des sanctions s’imposaient donc pour préserver l’intégrité procédurale et dissuader ce type de conduite.

Des écueils de l’IA également documentés ailleurs au Canada 

Deux récentes décisions rendues dans le reste du Canada viennent renforcer ces préoccupations et démontrer que les tribunaux agissent rapidement pour remédier aux abus liés à l’IA.

Tout d’abord, dans la décision Zhang v. Chen2, la Cour suprême de la Colombie-Britannique a été confrontée à la citation de deux affaires inexistantes (qui se sont ultérieurement révélées avoir été inventées par un outil d’IA générative) dans un avis de demande déposé par une avocate dans le cadre d’un dossier en droit de la famille.

La Cour a estimé que la citation de fausses affaires était constitutive d’un abus de procédure équivalant à une fausse déclaration devant les tribunaux et a rappelé que l’IA générative [TRADUCTION] « ne remplaçait en rien l’expertise professionnelle que le système judiciaire attend des avocats » (par. 46). Bien que la Cour ait refusé d’imposer à l’avocate des dépens spéciaux, concluant à l’absence d’intention de tromper, elle l’a toutefois tenue personnellement responsable des frais supplémentaires engagés par la partie adverse aux fins d’enquête et de traitement de la citation d’autorités fictives.

Ensuite, dans la décision Lloyd’s Register Canada Ltd. v. Choi3, la Cour fédérale a ordonné le retrait d’un dossier de demande des dossiers de la Cour après avoir appris que l’intimé, qui se représentait sans l’aide d’un avocat, s’était appuyé sur des autorités inexistantes et n’avait pas respecté les indications de la Cour en matière d’utilisation de l’IA selon lesquelles il est obligatoire de signaler le recours à l’IA dans les dossiers présentés aux tribunaux. Citant des avertissements antérieurs dans des décisions provinciales et fédérales, la Cour a insisté sur le fait que l’usage non déclaré de l’IA (particulièrement lorsque les dossiers présentés comprennent des citations hallucinées) constituait un abus grave justifiant une réparation procédurale. Elle a ainsi adjugé des dépens et souligné que même les parties qui ne retenaient pas les services d’un avocat devaient veiller à l’exactitude de leurs citations.

Incidences dans les domaines des enquêtes et de l’insolvabilité 

Les cabinets d’avocats et les services juridiques d’entreprise adoptent tous l’IA de manière responsable, et ce, dans tous les domaines de pratique, de façon à accélérer les tâches courantes, à améliorer le contrôle de la qualité et à réduire les coûts. La classification de documents, la déduplication, l’examen de premier niveau, l’établissement de chronologies et le repérage des problèmes sont déjà des tâches améliorées par des flux de travail d’IA supervisés. Dans le cadre du soutien en litiges, les garde-fous qui allient communication d’information et supervision humaine permettent d’enregistrer des gains d’efficience concrets, sans pour autant compromettre l’exactitude. La leçon à tirer de la jurisprudence récente n’est pas de mettre de côté la technologie, mais d’en professionnaliser l’utilisation.

Enquêtes internes

Dans les enquêtes internes, l’IA peut regrouper des documents, signaler des communications douteuses et relever des anomalies, mais la validation par l’humain reste essentielle. Des sommaires inexacts ou des citations hallucinées peuvent induire en erreur les décideurs, les organismes de réglementation et les autorités chargées de l’application des lois. Le mésusage de l’IA ne constitue pas un simple problème procédural, il peut engager la responsabilité criminelle de ceux qui l’emploient.

En vertu du Code criminel canadien, les infractions communes s’appliquent aux conduites liées à l’IA lorsque l’actus reus (acte coupable) et la mens rea (intention coupable) sont réunis.

La fraude (art. 380) peut viser la supercherie facilitée par l’IA qui comporte des risques de préjudice économique, tandis que le faux (art. 366) peut s’appliquer lorsqu’une personne crée sciemment de faux documents ou altère des documents authentiques; il peut s’agir d’hypertrucages (deepfakes), de citations inventées ou d’hallucinations de l’IA utilisées en toute connaissance de cause et dans l’intention de susciter une action. La falsification de livres et de documents (art. 397) pourrait s’appliquer dans les cas où l’IA est utilisée pour fabriquer ou altérer des livres comptables ou des registres d’audit avec l’intention de frauder. Quant au vol (art. 322), il a une définition plus étroite en ce qui concerne les données, qui sont généralement intangibles; toutefois, le « détournement » illicite de données informatiques peut tout de même être invoqué dans certaines circonstances.

Les organisations ne sont pas à l’abri. La culpabilité d’une entité dépend de l’état d’esprit d’un « haut dirigeant » : les organisations sont jugées responsables lorsqu’un haut dirigeant participe à l’infraction, pousse un mandataire à y participer ou s’abstient sciemment d’empêcher cette dernière.

Insolvabilité

Dans les affaires d’insolvabilité, l’IA est de plus en plus utilisée pour repérer les paiements préférentiels, les opérations avec une personne apparentée et les anomalies dans les documents financiers. Cependant, si ces signalements sont erronés, les rapports du syndic et les documents présentés aux tribunaux pourraient s’en trouver compromis. Les tribunaux commencent à remettre en question la provenance des analyses financières facilitées par l’IA.

Dans le cadre de restructurations, l’IA peut faciliter le rapprochement de réclamations, analyser les flux de liquidité et détecter les tendances de paiement inhabituelles dans les livres comptables, les livres bancaires et les communications. Réglementés comme il se doit, ces outils accélèrent le suivi des actifs, la cartographie intersociétés et des fournisseurs ainsi que le repérage des transactions avec une personne apparentée, en appuyant une prise de décisions stratégique plus éclairée et plus rapide.

Les professionnels de l’insolvabilité, y compris les conseillers juridiques et les agents nommés par le tribunal, comme les syndics, les séquestres et les contrôleurs, jouent un rôle primordial en veillant au fonctionnement approprié et efficient du système de l’insolvabilité. Leur travail est essentiel à l’avancement des objectifs stratégiques figurant dans la législation en matière d’insolvabilité. Les contrôleurs, plus particulièrement, sont souvent décrits comme « les yeux et les oreilles » du tribunal. Dans un système caractérisé par des litiges en temps réel, les évolutions rapides et la multiplicité des parties prenantes, les tribunaux s’appuient sur ces agents et ont plus que jamais besoin de ces « yeux et oreilles » pour fournir des renseignements exacts et impartiaux en temps opportun.

De la même façon, les tribunaux dépendent de l’intégrité et de la fiabilité des observations formulées par les professionnels de l’insolvabilité pendant des procédures qui évoluent à un rythme soutenu. Une confiance implicite sous-tend cette relation et son maintien est crucial pour la crédibilité du système.

Dans ce contexte, l’intégration de l’IA aux procédures d’insolvabilité et aux restructurations semble très prometteuse. Si elle est utilisée de manière responsable, elle peut accroître l’efficience, améliorer la prise de décisions et soutenir le travail des professionnels de l’insolvabilité. Toutefois, si les outils d’IA font l’objet d’un mauvais usage ou d’une dépendance prématurée, ils risquent de saper la confiance même que les tribunaux ont dans ces agents, compromettant potentiellement l’intégrité du processus et inspirant de la défiance envers le système avant que les avantages de l’IA ne se fassent pleinement sentir.

Conclusion

Laprade n’est pas qu’une simple mise en garde, c’est un précédent. Pour les professionnels en droit pénal des affaires et en insolvabilité, domaines dans lesquels la crédibilité et la précision ne sont pas négociables, la décision établit une limite claire : l’IA peut faciliter l’exercice du discernement, le processus de vérification et la reddition de comptes, mais elle ne permet pas d’en faire l’économie.

La sanction imposée dans Laprade confirme que les tribunaux ne toléreront pas le recours à des autorités fictives, même de la part de parties qui se représentent sans l’aide d’un avocat. Pour les conseillers juridiques, les implications sont encore plus claires : tout résultat obtenu au moyen de l’IA qui est utilisé dans le cadre d’un dossier doit être évalué avec la même rigueur que les sources traditionnelles.

Dans les domaines des enquêtes et de l’insolvabilité, dans lesquels l’IA est de plus en plus utilisée pour analyser les données financières, signaler les anomalies et appuyer la présentation stratégique de documents, le risque est réel. Une seule citation hallucinée ou une seule analyse erronée peut compromettre une enquête entière.

La leçon à tirer de ce qui précède est simple : l’IA est un outil, pas une protection. Il convient de l’utiliser pour accélérer les processus, et non pour se soustraire à ses obligations. Laprade établit clairement que l’intégrité procédurale est primordiale et que le coût lié à la prise de raccourcis n’est plus simplement théorique.


Notes

1  

2025 QCCS 3521 (Laprade).

2  

2024 BCSC 285 (Zhang).

3  

2025 FC 1233 (Choi).



Personnes-ressources

Associé, Chef canadien, Restructuration
Associé
Avocat

Publications récentes

Abonnez-vous et restez à l’affût des nouvelles juridiques, informations et événements les plus récents...