top of page
  • Bluesky--Streamline-Simple-Icons(1)
  • LinkedIn
  • Twitter
Rechercher

L’IA dans les cliniques juridiques : un outil pour favoriser l’aptitude à servir la justice?

L’enseignement clinique est, après tout, un apprentissage expérientiel. Il intègre théorie et pratique par un engagement structuré et supervisé auprès de véritables problèmes juridiques. Cette pédagogie favorise une pratique du droit réflexive et guidée par des valeurs, qui distingue les professionnels voués à la justice des autres.


Nourrir le désir et la capacité des étudiants à rendre justice est un processus que la professeure de droit américaine Jane Aiken appelle la formation à l’« aptitude à servir la justice » (justice-readiness). Une façon dont l’apprentissage expérientiel dans les cliniques juridiques contribue à cette formation est de soutenir les étudiants lorsqu’ils traversent des moments déstabilisants. Typiquement, cela se produit lorsque les professeurs de clinique impliquent les étudiants dans des dossiers où ils seront confrontés à l’injustice, et les encouragent à trouver des solutions juridiques créatives pour obtenir de meilleurs résultats pour leurs clients.


L’intelligence artificielle peut-elle être d’une quelconque utilité dans ce processus?

Tout dépend de la façon dont on choisit de l’utiliser. Dans un billet de blogue précédent, j’ai soutenu que les étudiants en droit et les avocats qui utilisent l’intelligence artificielle pour accélérer leurs activités professionnelles flirtent avec l’imprudence. Je maintiens cette position et la défendrais probablement encore plus fermement aujourd’hui. Cependant, la rapidité et la productivité ne sont pas les seules compétences dont un bon avocat a besoin. L’imagination, l’empathie et le respect des principes sont également les marques d’une bonne pratique du droit.


L’IA peut-elle aider à cela?

Après avoir effectué quelques tests, je crois que l’utilisation de l’IA pour développer ces qualités chez les étudiants est une voie qui mérite d’être explorée. En fait, j’ai été sincèrement impressionné par le potentiel que détient ChatGPT pour guider ceux qui souhaitent sortir des sentiers battus juridiques pour promouvoir la justice. Voici deux expériences que j’ai menées pour explorer si l’IA pouvait aider les professeurs de clinique à enseigner l’aptitude à servir la justice.


Ma première expérience a consisté à soumettre à ChatGPT un extrait de Royal de Jean-Philippe Baril-Guérard – un roman décrivant les hauts et les bas de la vie d’un étudiant en droit. L’extrait que j’ai choisi dépeint un étudiant hautain qui travaille dans une clinique juridique et peine à aider une locataire menacée d’expulsion. Je voulais voir si un système d’IA pouvait trouver des solutions juridiques créatives pour aider la locataire à rester dans son appartement malgré l’affirmation du propriétaire selon laquelle les lieux n’étaient pas sécuritaires.


ChatGPT a trouvé une solution à laquelle un étudiant de première année ayant une vision légaliste du monde n’aurait pas pensé : il m’a fourni des informations sur un service municipal aidant les locataires à nettoyer et réorganiser leur appartement pour se conformer aux règlements de la ville. Il a également remarqué que le protagoniste manquait d’empathie lorsqu’il interagissait avec sa cliente et a offert de bons conseils sur la façon de s’améliorer.


C’est plutôt intéressant, mais ce n’est rien qu’un bon professeur de clinique ne puisse faire. Pour ma prochaine expérience, je voulais voir si ChatGPT pouvait s’avérer utile pour un professeur de clinique chevronné. Pour ce faire, je me suis inspiré d’un article universitaire sur l’enseignement clinique du droit contenant des témoignages de vrais cliniciens juridiques. Je me suis concentré sur un cas où ChatGPT aurait pu profiter tant aux étudiants qu’à leur superviseur; le voici :

Un groupe d’étudiants et leur superviseur doivent rencontrer une mère qui a perdu la garde de son enfant parce qu’elle l’avait négligé. Le but de la rencontre est de l’aider à récupérer la garde de son enfant après qu’elle a complété avec succès une probation. Cependant, la mère appelle pour informer l’équipe qu’elle a passé une « mauvaise nuit » et qu’elle est coincée dans une chambre de motel sans argent. Malgré leurs efforts, ni les étudiants ni leur superviseur ne peuvent imaginer d’autre explication que l’abus d’alcool ou de drogues.
Ils décident de se rendre au motel pour confronter la femme. À leur arrivée, leurs biais et préjugés se révèlent. Contrairement à leurs attentes, la femme n’avait ni bu ni consommé de drogues. Elle avait travaillé tard comme caissière dans une épicerie et s’était retrouvée coincée là-bas parce que la voiture de son père était tombée en panne. Elle a pris un taxi pour rentrer chez elle, mais le chauffeur l’a laissée sur le bord de la route lorsqu’il a réalisé que, hormis le chèque de paie physique qu’elle venait de recevoir, elle n’avait rien pour payer la course. Elle a donc dû marcher jusqu’à un motel où elle pouvait passer la nuit.

Si l’équipe de la clinique juridique avait utilisé ChatGPT lors de sa séance de remue-méninges, elle aurait dû envisager un plus large éventail de problèmes – y compris des problèmes de transport et une crise liée au travail de nuit ou au travail supplémentaire. En effet, ce sont toutes des explications potentielles que l’agent conversationnel a fournies lorsque je lui ai demandé de m’aider à réfléchir à ce que « mauvaise nuit » pouvait signifier dans le contexte actuel. De façon réaliste, l’équipe d’étudiants n’aurait probablement pas considéré ces options comme étant les plus probables, mais un bon professeur de clinique aurait pu en faire un moment d’enseignement, le cadrant comme une occasion de réflexion expérientielle. Les encourager à se préparer à toutes les éventualités, car la pratique du droit peut être pleine de surprises. La cliente aurait probablement reçu de meilleurs services juridiques en conséquence.


Que devons-nous conclure de ces exemples? Ils montrent certainement que ChatGPT a quelque chose d’intéressant à offrir, mais la nature précise de sa contribution n’est pas entièrement claire. L’aptitude à servir la justice est un ethos, c’est intrinsèquement humain, et en sous-traiter l’enseignement à des machines semble déshumanisant. Cependant, les grands modèles de langage (LLM) ont été entraînés sur un immense corpus de textes, ce qui signifie qu’ils ont été exposés à un spectre d’idées plus large que n’importe quel humain ne l’a jamais été. Refuser d’en tirer parti dessert probablement la justice.


Lorsque les étudiants vivent des moments déstabilisants et ne parviennent pas à trouver des solutions menant à des résultats plus justes pour leur client, ils peuvent se sentir apathiques et impuissants. Certains peuvent se replier sur une posture de relativisme juridique et abandonner leur engagement envers la justice. Or, la recherche montre que l’exposition à des alternatives porteuses d’espoir est un moyen de prévenir ce type de désillusion. Utiliser les grands modèles de langage comme outils de remue-méninges pour générer des alternatives porteuses d’espoir peut ouvrir l’esprit des étudiants et les aider à voir que les choses ne sont pas obligées d’être ce qu’elles sont. En ce sens, l’IA peut contribuer à former des diplômés en droit prêts à servir la justice. Lorsqu’elle est utilisée dans l’environnement structuré et réflexif de l’éducation expérientielle, elle peut être un autre outil pour approfondir l’apprentissage des étudiants. En ces temps troubles, nous devrions probablement saisir toutes les occasions de nourrir le désir et la capacité des étudiants à « rendre justice ».


Les opinions exprimées sont celles de l’auteur et ne reflètent pas nécessairement la position de politique de la CIPPIC.

 
 
bottom of page