2 octobre 2025Calcul en cours...

Les actions collectives en matière d’IA au Canada : une nouvelle cause d’action?

Partout au Canada, des actions collectives sont intentées contre des entreprises en raison de leur utilisation (ou utilisation présumée) d’outils d’IA. Cette tendance vient des États-Unis, où de nombreuses actions collectives ont été déposées alléguant que l’utilisation d’outils liés à l’IA crée une responsabilité pour les défenderesses. Ces affaires représentent-elles une nouvelle cause d’action pour les actions collectives ou simplement une amplification des risques existants?

Dans cet article, nous expliquons que les tendances récentes au Canada exigent des entreprises de mettre l’accent sur des contrôles responsables en matière d’IA.

Actions collectives en matière d’IA : affaires récentes

Les premières actions collectives liées à l’IA au Canada alléguaient que l’utilisation de données pour entraîner les grands modèles de langage (GML) viole le droit d’auteur. Les litiges intentés dans d’autres secteurs et pays sont plutôt axés sur les questions suivantes :

  • droit de la consommation : utilisation d’agents conversationnels qui fournissent de l’information fausse ou trompeuse aux consommateurs ou prennent des décisions erronées; communication de fausse information sur les capacités en matière d’IA des produits de l’entreprise;
  • droit de la concurrence : allégations selon lesquelles les outils alimentés par l’IA permettent la fixation des prix ou la collusion entre des concurrents;
  • droit de l’emploi : collecte, par les outils d’IA, de renseignements personnels d’employés à des fins d’évaluation du rendement ou de l’assiduité ou à d’autres fins de gestion; allégations de pratiques d’embauche discriminatoires par les outils de recrutement alimentés par l’IA;
  • protection des renseignements personnels : analyse des données biométriques (même si le système d’IA traite des données dépersonnalisées); atteinte à la sécurité des systèmes d’IA ou des GML.

Dans chacun de ces scénarios, les tribunaux auront à décider si l’enjeu juridique concerne l’utilisation de l’IA comme telle ou s’il s’agit plutôt d’une question de protection des consommateurs, du droit du travail, du droit d’auteur et de la protection des renseignements personnels. Puisque l’IA ne fait pas l’objet d’une réglementation distincte, l’analyse des tribunaux peut soulever des questions inédites concernant la norme de diligence pour les entreprises qui mettent en œuvre des outils d’IA, la responsabilité dans la chaîne d’approvisionnement (allant des développeurs de GML aux utilisateurs finaux), ainsi que la détermination du lien de causalité et de la quantification des dommages-intérêts.

Norme de diligence pour l’IA

À l’heure actuelle, il n’existe pas de législation qui réglemente l’utilisation de l’IA dans l’ensemble des entreprises et des secteurs d’activité au Canada. Les entreprises doivent plutôt tenir compte de diverses lois provinciales et de normes volontaires qui concernent l’utilisation de l’IA dans le cadre d’activités commerciales.

En effet, la Loi sur l’intelligence artificielle et les données (LIAD) introduite par le gouvernement fédéral en 2024 n’a pas été adoptée avant les élections de 20251. En juin, le ministre de l’Intelligence artificielle, Evan Solomon, a déclaré que le gouvernement n’avait pas l’intention d’adopter la LIAD et qu’il visait plutôt à encourager l’innovation canadienne tout en apaisant les tensions internationales liées à l’innovation en matière d’IA2.

Cadres volontaires et législation existante

En l’absence d’une loi fédérale, les entreprises doivent tenir compte des cadres réglementaires et des lois provinciales, y compris le Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés3 d’Innovation, Sciences et Développement économique Canada; la Charte canadienne des droits et libertés4; les lois provinciales sur la consommation et la protection de la vie privée; les lois sur la responsabilité civile et délictuelle, et les lignes directrices comme la Ligne directrice E-23 - Gestion du risque de modélisation5 du BSIF. Les cadres juridiques internationaux, tels que le Règlement sur l’intelligence artificielle de l’UE6, et les normes sectorielles comme la norme ISO 420017 peuvent également être utiles pour élaborer une approche à l’égard de la gestion des risques liés à l’IA.

Atténuation des risques

La législation relative à l’utilisation de l’IA et des technologies connexes évoluera probablement avec la technologie elle-même. Cependant, les entreprises doivent bien comprendre les conflits potentiels avec leurs obligations légales existantes. Voici quelques points à prendre en compte dans le cadre de l’utilisation des technologies liées à l’IA.

  • Protection des renseignements personnels : Quelles sont vos procédures de consentement et de traitement des données pour l’utilisation de l’IA? Êtes-vous en mesure de fournir suffisamment d’information pour obtenir un consentement valide au traitement des données personnelles par l’IA sans vous exposer aux risques de litige ou de mesures réglementaires? Comment votre utilisation de l’IA (et des données recueillies auprès de vos clients) est-elle énoncée dans les conditions d’utilisation?
  • Concurrence : Vos outils d’IA (algorithmes de tarification ou analyse de marché) pourraient-ils donner lieu à des allégations de fixation des prix? Quelles sont les données utilisées par vos outils d’IA (par exemple, avez-vous accès aux données sur les prix de vos concurrents)?
  • Droit d’auteur : Quelle pourrait être l’incidence d’un recours en matière de droit d’auteur contre les développeurs de GML (baisse de la qualité du produit, de la productivité des employés ou de la réputation de l’entreprise)?
  • Consommation : Comment vos agents conversationnels sont-ils entraînés pour répondre aux questions des clients, particulièrement s’ils ne sont pas certains de la réponse? Fournissez-vous de l’information exacte dans vos déclarations sur les capacités en matière d’IA de vos produits?
  • Emploi : Vos cadres de gestion des risques liés à l’approvisionnement et aux tiers sont-ils dotés de contrôles suffisants pour repérer les algorithmes ou ensembles de données discriminatoires dans les outils de recrutement? Disposez-vous de mécanismes de formation et d’encadrement pour repérer les résultats discriminatoires?
  • Valeurs mobilières : Présentez-vous correctement vos capacités en matière d’IA et votre utilisation des outils d’IA?

Conclusion : mise en place d’un cadre de conformité interne

En l’absence d’une législation distincte, comment les entreprises peuvent-elles atténuer les risques liés à l’utilisation de l’IA?

  1. En documentant les contrôles initiaux et continus pour tous les outils d’IA utilisés.
  2. En documentant la formation des utilisateurs internes, en testant les résultats et en assurant une intervention humaine pour signaler les résultats incorrects ou biaisés.
  3. En établissant une procédure d’escalade en cas de résultats imprévus.
  4. En révisant les modalités contractuelles des fournisseurs en vue d’un transfert ou d’un partage des risques financiers et d’un encadrement approprié de l’IA par les fournisseurs.
  5. En évaluant si les polices d’assurance existantes offrent une couverture suffisante pour les interruptions des activités, les pertes ou les litiges résultant de l’utilisation d’outils d’IA.

Si vous souhaitez discuter ces enjeux et ces questions, veuillez contacter les auteurs.

Cette publication se veut une discussion générale concernant certains développements juridiques ou de nature connexe et ne doit pas être interprétée comme étant un conseil juridique. Si vous avez besoin de conseils juridiques, c'est avec plaisir que nous discuterons les questions soulevées dans cette communication avec vous, dans le cadre de votre situation particulière.

Pour obtenir la permission de reproduire l’une de nos publications, veuillez communiquer avec Janelle Weed.

© Torys, 2025.

Tous droits réservés.
 

Inscrivez-vous pour recevoir les dernières nouvelles

Restez à l’affût des nouvelles d’intérêt, des commentaires, des mises à jour et des publications de Torys.

Inscrivez-vous maintenant