Partout au Canada, des actions collectives sont intentées contre des entreprises en raison de leur utilisation (ou utilisation présumée) d’outils d’IA. Cette tendance vient des États-Unis, où de nombreuses actions collectives ont été déposées alléguant que l’utilisation d’outils liés à l’IA crée une responsabilité pour les défenderesses. Ces affaires représentent-elles une nouvelle cause d’action pour les actions collectives ou simplement une amplification des risques existants?
Dans cet article, nous expliquons que les tendances récentes au Canada exigent des entreprises de mettre l’accent sur des contrôles responsables en matière d’IA.
Les premières actions collectives liées à l’IA au Canada alléguaient que l’utilisation de données pour entraîner les grands modèles de langage (GML) viole le droit d’auteur. Les litiges intentés dans d’autres secteurs et pays sont plutôt axés sur les questions suivantes :
Dans chacun de ces scénarios, les tribunaux auront à décider si l’enjeu juridique concerne l’utilisation de l’IA comme telle ou s’il s’agit plutôt d’une question de protection des consommateurs, du droit du travail, du droit d’auteur et de la protection des renseignements personnels. Puisque l’IA ne fait pas l’objet d’une réglementation distincte, l’analyse des tribunaux peut soulever des questions inédites concernant la norme de diligence pour les entreprises qui mettent en œuvre des outils d’IA, la responsabilité dans la chaîne d’approvisionnement (allant des développeurs de GML aux utilisateurs finaux), ainsi que la détermination du lien de causalité et de la quantification des dommages-intérêts.
À l’heure actuelle, il n’existe pas de législation qui réglemente l’utilisation de l’IA dans l’ensemble des entreprises et des secteurs d’activité au Canada. Les entreprises doivent plutôt tenir compte de diverses lois provinciales et de normes volontaires qui concernent l’utilisation de l’IA dans le cadre d’activités commerciales.
En effet, la Loi sur l’intelligence artificielle et les données (LIAD) introduite par le gouvernement fédéral en 2024 n’a pas été adoptée avant les élections de 20251. En juin, le ministre de l’Intelligence artificielle, Evan Solomon, a déclaré que le gouvernement n’avait pas l’intention d’adopter la LIAD et qu’il visait plutôt à encourager l’innovation canadienne tout en apaisant les tensions internationales liées à l’innovation en matière d’IA2.
En l’absence d’une loi fédérale, les entreprises doivent tenir compte des cadres réglementaires et des lois provinciales, y compris le Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés3 d’Innovation, Sciences et Développement économique Canada; la Charte canadienne des droits et libertés4; les lois provinciales sur la consommation et la protection de la vie privée; les lois sur la responsabilité civile et délictuelle, et les lignes directrices comme la Ligne directrice E-23 - Gestion du risque de modélisation5 du BSIF. Les cadres juridiques internationaux, tels que le Règlement sur l’intelligence artificielle de l’UE6, et les normes sectorielles comme la norme ISO 420017 peuvent également être utiles pour élaborer une approche à l’égard de la gestion des risques liés à l’IA.
La législation relative à l’utilisation de l’IA et des technologies connexes évoluera probablement avec la technologie elle-même. Cependant, les entreprises doivent bien comprendre les conflits potentiels avec leurs obligations légales existantes. Voici quelques points à prendre en compte dans le cadre de l’utilisation des technologies liées à l’IA.
En l’absence d’une législation distincte, comment les entreprises peuvent-elles atténuer les risques liés à l’utilisation de l’IA?
Si vous souhaitez discuter ces enjeux et ces questions, veuillez contacter les auteurs.
Cette publication se veut une discussion générale concernant certains développements juridiques ou de nature connexe et ne doit pas être interprétée comme étant un conseil juridique. Si vous avez besoin de conseils juridiques, c'est avec plaisir que nous discuterons les questions soulevées dans cette communication avec vous, dans le cadre de votre situation particulière.
Pour obtenir la permission de reproduire l’une de nos publications, veuillez communiquer avec Janelle Weed.
© Torys, 2025.
Tous droits réservés.
Catégories
Différends et enquêtes
Actions collectives
Services-conseils et réglementation
Stratégie et gouvernance des données
Contrats technologiques
Protection du consommateur
Litige en propriété intellectuelle
Litige en concurrence
Litige en matière de droit de l’emploi et de retraite
Litige en valeurs mobilières
Technologies
Intelligence artificielle