Auteures
Alexandra Beck
En réponse à l’adoption généralisée de l’IA par les institutions financières, l’Autorité des marchés financiers (AMF) du Québec a récemment publié un projet de ligne directrice sur l’utilisation des systèmes d’IA par les institutions financières1. La ligne directrice s’applique aux assureurs autorisés, aux coopératives de services financiers, aux sociétés de fiducie et aux institutions de dépôts autorisées. L’AMF invite les personnes intéressées à soumettre leurs commentaires sur le projet au plus tard le 7 novembre 2025.
Le rôle de l’AMF consiste à s’assurer que les professionnels et les entreprises du secteur financier respectent les lois québécoises en vigueur. L’AMF publie des lignes directrices pour veiller à ce que les institutions financières gèrent les risques de manière appropriée et efficace.
L’AMF reprend la définition de l’IA établie par l’Organisation de coopération et de développement économiques : « système automatisé qui, pour des objectifs explicites ou implicites, déduit, à partir d’entrées reçues, comment générer des résultats en sortie tels que des prévisions, des contenus, des recommandations ou des décisions qui peuvent influer sur des environnements physiques ou virtuels. Différents systèmes d’IA présentent des degrés variables d’autonomie et d’adaptabilité après déploiement »2. Le projet de ligne directrice définit également des termes et des concepts courants liés à l’IA.
La ligne directrice recommande que les institutions financières prennent les mesures suivantes :
Les institutions financières devraient se doter de processus pour évaluer le risque de chaque système d’IA utilisé afin de déterminer les politiques et procédures applicables à ce système tout au long de son cycle de vie.
Les facteurs d’évaluation pourraient comprendre ce qui suit :
L’AMF s’attend à ce que les institutions financières élaborent des processus et des contrôles pour chaque étape du cycle de vie du système d’IA, proportionnellement à la cote de risque de ce dernier. Ainsi, les systèmes d’IA dont la cote de risque est plus élevée devraient être surveillés et corrigés plus fréquemment.
La documentation de ces systèmes devrait comprendre une description des éléments techniques du système, des contrôles qui y sont assortis et de l’usage qui en est fait. Ces descriptions devraient comprendre l’évaluation de la performance, la redondance prévue en cas de déficience pour la tâche réalisée par le système, les données utilisées l’entraînement et la réalisation de tests, ainsi que les choix qui ont été faits relativement à la transparence, à l’explicabilité et à la qualité des données.
En outre, les institutions devraient prendre des mesures pour :
L’AMF s’attend à ce que les institutions financières mettent en place des mécanismes de gouvernance qui précisent les rôles et responsabilités des personnes en charge des systèmes d’IA. Chaque système d’IA devrait être sous la charge d’une personne responsable. Celle-ci devrait rendre compte à un membre de la haute direction qui est imputable pour l’ensemble des systèmes d’IA de l’institution.
La ligne directrice définit les responsabilités du conseil d’administration et de la haute direction :
La ligne directrice définit également les compétences requises pour les personnes qui s’occupent de la gestion, de l’approvisionnement et de la conception des systèmes d’IA.
Les institutions financières doivent disposer de politiques, de processus et de procédures adaptés à leurs activités, à leur profil de risque et à la cote de risque de leurs systèmes d’IA.
Le projet de ligne directrice énonce des attentes en matière de traitement équitable des clients qui s’appliquent à l’utilisation des systèmes d’IA et s’ajoutent aux attentes existantes prévues dans les autres lignes directrices de l’AMF. Ainsi, l’AMF s’attend à ce que :
Le projet de ligne directrice est bénéfique pour les institutions financières pour deux raisons : d’abord, il énonce les attentes de l’AMF à l’égard des institutions financières qui utilisent des systèmes d’IA; ensuite, il sert de référence pour évaluer les mesures de gestion des risques liés à l’IA. En se conformant avec la ligne directrice, les institutions financières s’assureront de respecter les attentes à l’égard de l’éthique et de la sécurité de l’IA au niveau international, puisque la ligne directrice reprend les principes énoncés dans le Règlement sur l’intelligence artificielle de l’Union européenne et la Recommandation du Conseil sur l’intelligence artificielle de l’OCDE.
Si vous souhaitez discuter ces enjeux et ces questions, veuillez contacter les auteurs.
Cette publication se veut une discussion générale concernant certains développements juridiques ou de nature connexe et ne doit pas être interprétée comme étant un conseil juridique. Si vous avez besoin de conseils juridiques, c'est avec plaisir que nous discuterons les questions soulevées dans cette communication avec vous, dans le cadre de votre situation particulière.
Pour obtenir la permission de reproduire l’une de nos publications, veuillez communiquer avec Janelle Weed.
© Torys, 2025.
Tous droits réservés.
Catégories
Services financiers
Réglementation des services financiers
Technologies financières (Fintech)
Droit bancaire et financement par emprunt
Services-conseils et réglementation
Gouvernance et services-conseils au conseil d’administration
Protection des renseignements personnels
Technologies
Intelligence artificielle
Montréal