women stands facing computer screen filled with digital evidence at front of courtroom

Un juge de la plus haute cour de l’Ontario invite les avocats et les juges à se préparer à l’utilisation de l’IA dans les tribunaux

  • 08 octobre 2024
  • Entretien avec le juge Peter Lauwers

head-shot photo of Justice Peter LauwersDans une interview accordée au magazine JUSTE, Peter Lauwers, juge à la Cour d’appel de l’Ontario et président du sous-comité de l’intelligence artificielle du Comité des règles en matière civile, s’exprime sur certaines implications alarmantes des preuves générées par l’IA, sur les questions cruciales que les avocats plaidants devraient se poser lorsqu’ils envisagent d’introduire ou de répondre à de telles preuves, et sur ses inquiétudes quant à l’impact que pourrait avoir sur notre système judiciaire une « politique de l’autruche ».

Monsieur le juge Lauwers, vous avez créé et présidé le sous-comité de l’intelligence artificielle (IA) du Comité des règles en matière civile parce que vous vous attendiez, à juste titre, à ce que l’IA fasse bientôt son apparition dans les tribunaux de première instance. Quels sont les problèmes ou les scénarios spécifiques que vous avez observés dans d’autres juridictions, ou que vous anticipez ici, et pour lesquels des modifications ou des ajouts aux règles pourraient s’avérer nécessaires?

Il y avait trois questions provocatrices : premièrement, les précédents jurisprudentiels hallucinés susceptibles de polluer la jurisprudence. Des exemples de ces jurisprudences hallucinées présentées par des avocats se sont produits aux États-Unis et en Colombie-Britannique. Deuxièmement, l’utilisation de preuves non valides ou non fiables générées en partie par l’intelligence artificielle. Troisièmement, l’utilisation intentionnelle de fausses preuves pour induire le tribunal en erreur.

Sur quels types de questions relatives à la preuve, en ce qui concerne l’IA, le sous-comité se concentre-t-il actuellement?

Nous avons adopté des modifications de règles obligeant les avocats à authentifier les précédents judiciaires dans leurs dossiers. Nous avons également adopté des modifications des règles imposant aux experts d’authentifier les documents sources sur lesquels ils s’appuient dans leurs rapports. Nous envisageons d’obliger les parties à divulguer le programme d’intelligence artificielle qu’elles utilisent pour générer des preuves, par exemple dans les dossiers de reconstitution d’accidents de la route.

Vous avez évoqué le «tsunami de l’IA» qui s’annonce pour ceux qui travaillent dans les tribunaux. Quelle est votre perception de l’évolution rapide du paysage — en matière de fréquence et de variété des moyens par lesquels les preuves de l’IA entrent en jeu dans le processus des litiges civils?

Nous surveillons la situation, ce qui a conduit aux changements de règles que j’ai mentionnés. Certains pensent que l’IA est surestimée, mais il ne fait aucun doute que les cabinets d’avocats l’utilisent à des fins de recherche et commencent à l’utiliser pour la formulation de plaidoiries et la rédaction de contrats. L’avenir nous dira si ces utilisations s’avèrent problématiques. Ce qui m’inquiète le plus, c’est l’utilisation de l’IA dans la production de preuves.

De manière générale, quel est le degré de préparation des avocats et des juges pour naviguer sur ce terrain mouvant?

Je n’ai pas l’impression que les avocats sont particulièrement familiarisés avec cette technologie, même si certains d’entre eux ont peut-être expérimenté les grands modèles de langage (GML). Depuis un certain nombre d’années, les grands cabinets d’avocats font bon usage de l’IA dans la révision de documents assistée par la technologie, par exemple. Les juges sont nerveux et certains tribunaux ont publié des lignes directrices sur l’utilisation de l’IA dans la recherche et la rédaction juridiques. Je doute que les avocats et les juges sachent dans quelle mesure l’IA est intégrée dans la technologie standard de recherche et de traitement de texte qu’ils utilisent couramment. Le consensus est que les avocats et les juges doivent être mieux formés à cette nouvelle technologie.

Si vous étiez avocat, pour faire face à quels types de circonstances liées à l’IA dans les tribunaux formuleriez-vous de manière proactive des stratégies ou des approches — que ce soit avant ou pendant le procès?

En tant qu’avocat plaidant, je me poserais plusieurs questions : premièrement, comment puis-je utiliser l’IA, et devrais-le y avoir recours ? Deuxièmement, comment mon ami peut-il utiliser l’IA et comment dois-je y réagir ? Troisièmement, je me poserais les mêmes questions en ce qui concerne les témoins de chaque partie, en particulier les experts. Parmi les préoccupations pertinentes, il y aurait le coût de l’utilisation de l’IA en fonction de la valeur et de la nature de l’affaire.

Vous dirigez et apportez votre expertise à un nouveau programme en deux parties que l’ABO organise et qui s’intitule AI Trial Advocacy: Your Guide to Handling the Evidentiary Implications of Artificial Intelligence, qui est conçu pour permettre aux avocats de se familiariser avec ces considérations complexes et en évolution rapide. Pourquoi avez-vous estimé qu’il était important de participer à ce programme et comment pensez-vous que le format «démonstration et débreffage» sera utile aux participants?

L’intuition à l’origine du programme était que ni les avocats ni les juges ne sont suffisamment familiarisés avec l’IA pour l’utiliser ou y répondre efficacement. Je m’inquiète de « l’approche de l’autruche ». Ce programme vise à informer les juges et les avocats sur les situations typiques dans lesquelles l’IA peut être amenée à jouer un rôle prépondérant dans le déroulement d’un procès. Réfléchissez à ce qu’un sage philosophe a dit un jour : « Le but de la réflexion, de l’imagination, est de faire en sorte que vos idées meurent à votre place ». D’un point de vue plus civil, le fait d’imaginer le processus typique dans lequel l’IA est susceptible d’intervenir permettra de mieux préparer les avocats et les juges. Il est impossible d’éviter l’avenir. Alors, préparez-vous !

Quel est, selon vous, le plus grand défi à relever en matière de traitement des preuves issues de l’IA?

Les experts s’accordent à dire que les hypertrucages seront faciles à produire, mais très difficiles à détecter. Il n’est pas certain que cela devienne un problème majeur pour les tribunaux. Mais nous devons être prêts.

Quelles sont les implications de l’IA dans les tribunaux pour la perception du public et l’accès à la justice?

Je crains qu’un juge se laisse berner par un précédent halluciné par l’IA, qu’il laisse l’IA rédiger une décision, qu’il accepte des preuves non fiables dans lesquelles l’IA a joué une part ou qu’il se laisse berner par une fausse vidéo ou un faux enregistrement audio pour prendre une décision injuste. Lorsque ces possibilités deviendront des réalités connues du public, le système judiciaire subira un énorme coup.

__________

Pour en savoir plus sur les propos du juge Lauwers et d’autres experts dans ce domaine, et voir comment la preuve issue de l’IA entre en jeu dans le processus civil et comment l’aborder, accédez à la vidéo à la demande AI Trial Advocacy: Your Guide to Handling the Evidentiary Implications of Artificial Intelligence—Day 1: In Advance of Trial, le premier volet d’un programme en deux parties organisé par l’ABO dans le cadre de nos offres Real Intelligence on AI.