APERÇU DES RISQUES DE LITIGE POUR 2025

L’IA de plus en plus visée par des actions collectives

Traitant de grandes quantités de données personnelles, les systèmes d’IA font de plus en plus l’objet d’allégations d’atteinte à la sécurité des données ou de traitement inapproprié des données, particulièrement dans le cadre de la collecte, du stockage et de l’utilisation des données1. Ainsi, plusieurs actions collectives intentées aux États-Unis allèguent que des entreprises ont obtenu indûment des identifiants biométriques par l’entremise de systèmes d’apprentissage machine fondés sur l’IA2. Au Québec, une action collective en protection des renseignements personnels a été autorisée en 2024 contre une entreprise qui aurait prélevé des images de personnes sur le Web sans leur consentement3. Ces images ont été traitées et converties en vecteurs faciaux, ce qui a permis de créer une empreinte faciale de chaque personne à partir des données biométriques prélevées. Ces informations ont ensuite été vendues et transmises à des tiers.

Dans le domaine de l’emploi, l’utilisation de l’IA dans la prise de décisions liées à l’embauche a donné lieu aux États-Unis au dépôt d’actions collectives alléguant la discrimination algorithmique. Les entreprises qui développent ou utilisent des logiciels d’IA conçus pour présélectionner les candidats à l’emploi selon des critères tels que l’âge, l’origine ethnique et le handicap peuvent être poursuivies si le logiciel présente des biais d’embauche4. Il faut donc sélectionner avec soin le logiciel utilisé et surveiller activement son impact afin d’atténuer les risques de poursuite en discrimination fondée sur des biais algorithmiques. L’Ontario et la ville de New York ont d’ailleurs adopté des lois obligeant les entreprises à divulguer l’utilisation de l’IA dans leurs processus d’embauche5. Au Québec, les organisations sont tenues d’informer les personnes concernées lorsqu’elles utilisent des processus de prise de décision entièrement automatisés.

Les enjeux liés aux biais algorithmiques dépassent le cadre de l’emploi. Dans l’Illinois, par exemple, une action a été déposée contre une société d’assurance qui aurait utilisé un système d’IA discriminatoire à l’égard des assurés noirs6.

L’IA est également visée par des actions collectives alléguant la fraude à la consommation. Notamment, dans l’Illinois, une action collective a été déposée contre un service d’abonnement en ligne utilisant des « avocats robots » pour fournir des services juridiques aux consommateurs7. Soutenant que la défenderesse n’employait pas d’avocats et n’était pas autorisée à pratiquer le droit, le demandeur allègue la fraude à la consommation, des pratiques trompeuses en vertu de la loi de l’Illinois et la contrefaçon.

Dans le domaine du droit de la concurrence et des lois antitrust, l’IA est visée par des actions collectives pour son rôle dans la fixation des prix, la manipulation du marché et la collusion8. Il s’agit d’un nouveau risque pour les entreprises qui utilisent des algorithmes de comparaison et de surveillance des prix ou la technologie de la chaîne de blocs pour les contrats intelligents, particulièrement sur les marchés avec un petit nombre d’acteurs dominants. La responsabilité pour les décisions et les actions fondées sur l’IA devra être déterminée par les tribunaux au cas par cas.

La propriété intellectuelle est un autre enjeu majeur pour l’utilisation de l’IA, plusieurs actions collectives alléguant que le contenu généré par l’IA viole le droit d’auteur ou constitue de la contrefaçon9. Les tribunaux auront notamment à déterminer si les technologies d’IA enfreignent le droit d’auteur, si les données générées par l’IA constituent de la contrefaçon et dans quelle mesure la création de ces données implique la reproduction d’œuvres protégées. Plusieurs affaires ont été intentées en ce sens aux États-Unis10.

Enfin, l’influence de l’IA sur les marchés financiers donne lieu à des actions collectives en valeurs mobilières alléguant des pertes financières subies à cause d’opérations ou d’analyses frauduleuses effectuées au moyen de l’IA11.

Les développements au sud de la frontière laissent présager l’apparition d’actions collectives semblables au Canada, où l’utilisation de l’IA est tout aussi répandue. Nous restons à l’affût des nouvelles actions collectives intentées au Canada.


  1. Les auteurs remercient chaleureusement Gabrielle da Silva, stagiaire, pour sa contribution à cette publication.
  2. Voir, par exemple, ACLU v. Clearview AI, Inc, 2021 III Cir. LEXIS 292 (réglée); voir aussi Frasco v. Flo Health, Inc., 21-cv-00757-JD (N.D. Cal. déposée le 23 septembre 2024) (en cours).
  3. Voir Doan c. Clearview AI inc., 2024 QCCS 3968; Option Consommateurs c. Flo Health Inc., 2022 QCCS 4442; Lam v. Flo Health Inc., 2024 BCSC 391. Voir aussi la décision Homsy v. Google, 2024 QCCS 1324, où la Cour supérieure du Québec a autorisé une action collective alléguant que Google aurait violé les lois sur la protection des renseignements personnels en ne demandant pas le consentement des consommateurs avant de recueillir et d’utiliser leurs données biométriques à partir de photos téléversées sur Google Photos.
  4. Voir Equal Employment Opportunity Commission v. iTutorGroup, Inc. No. 1:22-cv-2565 (E.D.N.Y. déposée le 5 mai 2022), Mobley v. Workday, Inc., No. 23-cv-00770-RFL, 2024 U.S. LEXIS 126336. Voir aussi Gerald L. Maatman Jr., Alex W. Karasik et George J. Schaller, Artificial Intelligence Litigation Risks in the Employment Discrimination Context, Journal of Emerging Issues In Litigation, vol. 4, no 2, printemps 2024, p. 96.
  5. Huskey v. State Farm Fire & Cas. Co., 22 C 7014 (N.D. Ill., déposée le 11 septembre 2023).
  6. MillerKing LLC, et al. v. DoNotPay Inc., 23-CV-863 (S.D. III., déposée le 17 novembre 2023).
  7. Le Bureau de la concurrence mène des études pour mieux comprendre l’incidence de l’IA sur la concurrence. Ainsi, il a récemment publié un document de travail dans lequel il énonce des préoccupations concernant la concentration des capacités d’IA aux mains de quelques entreprises dominantes. Aux États-Unis, des particuliers et des organismes chargés de l’application de la loi ont poursuivi pour collusion des hôtels, des sociétés de gestion d’appartements et des assureurs utilisant les mêmes bases de données de tarification. Le 30 septembre 2024, le tribunal fédéral du district du New Jersey a rejeté une action intentée contre les hôtels-casinos d’Atlantic City pour avoir gonflé les prix des chambres en utilisant le logiciel Rainmaker du Cendyn Group. Une action collective déposée dans l’Illinois le 10 septembre 2024 affirme que des chaînes hôtelières et des sociétés technologiques utilisent sciemment le même algorithme de tarification pour fixer les tarifs des chambres et les niveaux d’occupation de manière à écraser la concurrence (voir Gonzalez v. Integrated Decisions and Systems, Inc. d/b/a Ideas Revenue Solutions, 1:24-cv-08262 (N.D. Ill., déposée le 10 septembre 2024)).
  8. Voir, par exemple, cet avis déposé le 8 juillet 2024, demandant à l’Office de la propriété intellectuelle du Canada de radier du registre des droits d’auteur une œuvre d’art en partie réalisée à l’aide d'un outil d’IA. Voir aussi cet article de nouvelles concernant une poursuite récemment intentée en Colombie-Britannique par CanLII, alléguant que l’entreprise CasewayAI a téléchargé et prélevé 3,5 millions de publications de la plateforme CanLII. 
  9. Récemment, le district sud de New York a rejeté une poursuite pour violation du droit d’auteur déposée par des agences de presse contre OpenAI. Le tribunal a invoqué l’absence de qualité pour agir, estimant que les demanderesses n’avaient présenté aucune preuve de l’utilisation du contenu protégé par le droit d’auteur (voir Raw Story Media, Inc. v. OpenAI, Inc., 1:24-cv-01514 (SDNY, 7 novembre 2024)). Voir aussi Guild v. OpenAI Inc.,1:23-cv-08292 (SDNY); Alter v. OpenAI Inc., 1:23-cv-10211 (SDNY); Basbanes v. Microsoft Corporation, 1:24-cv-00084 (SDNY); Andersen v. Stability AI Ltd., 3:23-cv-00201 (ND Cal); The Center for Investigative Reporting v. OpenAI, Inc., 1:24-cv-04872 (SDNY); Concord Music Group, Inc. v. Anthropic PBC, 5:24-cv-03811 (ND Cal); Daily News LP et al v. Microsoft Corporation et al, 1:24-cv-03285 (SDNY); Doe 1 v. GitHub, Inc., 4:22-cv-06823 (ND Cal); Huckabee et al v. Bloomberg LP et al, 1:23-cv-09152.
  10. Le cabinet Cornerstone Research a publié une étude de mi-exercice 2024 des actions collectives liées aux valeurs mobilières déposées aux États-Unis, selon laquelle il y aurait une hausse des recours en responsabilité des administrateurs et dirigeants liés à la communication de l’information sur l’IA. Ainsi, six actions collectives liées à l’IA ont été déposées au fédéral au premier semestre de 2024. Selon Cornerstone, [traduction] « même si ce phénomène n’est pas nouveau, l’importance croissante de l’IA dans les modèles d’entreprise pourrait conduire à une augmentation de ces litiges à l’avenir ». 

Si vous souhaitez discuter ces enjeux et ces questions, veuillez contacter les auteurs.

Cette publication se veut une discussion générale concernant certains développements juridiques ou de nature connexe et ne doit pas être interprétée comme étant un conseil juridique. Si vous avez besoin de conseils juridiques, c'est avec plaisir que nous discuterons les questions soulevées dans cette communication avec vous, dans le cadre de votre situation particulière.

Pour obtenir la permission de reproduire l’une de nos publications, veuillez communiquer avec Janelle Weed.

© Torys, 2025.

Tous droits réservés.
 

Inscrivez-vous pour recevoir les dernières nouvelles

Restez à l’affût des nouvelles d’intérêt, des commentaires, des mises à jour et des publications de Torys.

Inscrivez-vous maintenant