Traitant de grandes quantités de données personnelles, les systèmes d’IA font de plus en plus l’objet d’allégations d’atteinte à la sécurité des données ou de traitement inapproprié des données, particulièrement dans le cadre de la collecte, du stockage et de l’utilisation des données1. Ainsi, plusieurs actions collectives intentées aux États-Unis allèguent que des entreprises ont obtenu indûment des identifiants biométriques par l’entremise de systèmes d’apprentissage machine fondés sur l’IA2. Au Québec, une action collective en protection des renseignements personnels a été autorisée en 2024 contre une entreprise qui aurait prélevé des images de personnes sur le Web sans leur consentement3. Ces images ont été traitées et converties en vecteurs faciaux, ce qui a permis de créer une empreinte faciale de chaque personne à partir des données biométriques prélevées. Ces informations ont ensuite été vendues et transmises à des tiers.
Dans le domaine de l’emploi, l’utilisation de l’IA dans la prise de décisions liées à l’embauche a donné lieu aux États-Unis au dépôt d’actions collectives alléguant la discrimination algorithmique. Les entreprises qui développent ou utilisent des logiciels d’IA conçus pour présélectionner les candidats à l’emploi selon des critères tels que l’âge, l’origine ethnique et le handicap peuvent être poursuivies si le logiciel présente des biais d’embauche4. Il faut donc sélectionner avec soin le logiciel utilisé et surveiller activement son impact afin d’atténuer les risques de poursuite en discrimination fondée sur des biais algorithmiques. L’Ontario et la ville de New York ont d’ailleurs adopté des lois obligeant les entreprises à divulguer l’utilisation de l’IA dans leurs processus d’embauche5. Au Québec, les organisations sont tenues d’informer les personnes concernées lorsqu’elles utilisent des processus de prise de décision entièrement automatisés.
Les enjeux liés aux biais algorithmiques dépassent le cadre de l’emploi. Dans l’Illinois, par exemple, une action a été déposée contre une société d’assurance qui aurait utilisé un système d’IA discriminatoire à l’égard des assurés noirs6.
L’IA est également visée par des actions collectives alléguant la fraude à la consommation. Notamment, dans l’Illinois, une action collective a été déposée contre un service d’abonnement en ligne utilisant des « avocats robots » pour fournir des services juridiques aux consommateurs7. Soutenant que la défenderesse n’employait pas d’avocats et n’était pas autorisée à pratiquer le droit, le demandeur allègue la fraude à la consommation, des pratiques trompeuses en vertu de la loi de l’Illinois et la contrefaçon.
Dans le domaine du droit de la concurrence et des lois antitrust, l’IA est visée par des actions collectives pour son rôle dans la fixation des prix, la manipulation du marché et la collusion8. Il s’agit d’un nouveau risque pour les entreprises qui utilisent des algorithmes de comparaison et de surveillance des prix ou la technologie de la chaîne de blocs pour les contrats intelligents, particulièrement sur les marchés avec un petit nombre d’acteurs dominants. La responsabilité pour les décisions et les actions fondées sur l’IA devra être déterminée par les tribunaux au cas par cas.
La propriété intellectuelle est un autre enjeu majeur pour l’utilisation de l’IA, plusieurs actions collectives alléguant que le contenu généré par l’IA viole le droit d’auteur ou constitue de la contrefaçon9. Les tribunaux auront notamment à déterminer si les technologies d’IA enfreignent le droit d’auteur, si les données générées par l’IA constituent de la contrefaçon et dans quelle mesure la création de ces données implique la reproduction d’œuvres protégées. Plusieurs affaires ont été intentées en ce sens aux États-Unis10.
Enfin, l’influence de l’IA sur les marchés financiers donne lieu à des actions collectives en valeurs mobilières alléguant des pertes financières subies à cause d’opérations ou d’analyses frauduleuses effectuées au moyen de l’IA11.
Les développements au sud de la frontière laissent présager l’apparition d’actions collectives semblables au Canada, où l’utilisation de l’IA est tout aussi répandue. Nous restons à l’affût des nouvelles actions collectives intentées au Canada.
Si vous souhaitez discuter ces enjeux et ces questions, veuillez contacter les auteurs.
Cette publication se veut une discussion générale concernant certains développements juridiques ou de nature connexe et ne doit pas être interprétée comme étant un conseil juridique. Si vous avez besoin de conseils juridiques, c'est avec plaisir que nous discuterons les questions soulevées dans cette communication avec vous, dans le cadre de votre situation particulière.
Pour obtenir la permission de reproduire l’une de nos publications, veuillez communiquer avec Janelle Weed.
© Torys, 2025.
Tous droits réservés.
Catégories
Intelligence artificielle
Actions collectives
Différends et enquêtes
Arbitrage
Technologies
Litige en matière de droit de l’emploi et de retraite
Protection du consommateur
Protection des renseignements personnels
Litige en concurrence
Litige en valeurs mobilières
Litige en propriété intellectuelle
Litige commercial
Montréal