En début d’année, la Commission d’accès à l’information (CAI), organisme de protection de la vie privée au Québec, a présenté au ministère du Travail du Québec un mémoire dans le cadre de la consultation sur la transformation des milieux de travail par le numérique. La CAI a émis plusieurs recommandations sur l’utilisation d’outils et d’applications d’IA par les employeurs et a déterminé des domaines où cette utilisation présente un risque élevé.
La CAI a formulé les recommandations suivantes à l’intention des employeurs. Notant les limites des lois existantes, qui ne répondent pas à tous les enjeux liés à l’utilisation de l’IA au travail, la CAI estime que ses recommandations devraient éventuellement être intégrées dans la loi.
La CAI s’inquiète de la banalisation de la collecte de renseignements personnels par les employeurs. Toute l’information recueillie à partir de la biométrie, de la géolocalisation, de la vidéosurveillance, de l’écoute téléphonique et du suivi de comptes de médias sociaux pourrait être utilisée pour l’entraînement des systèmes de gestion algorithmique propulsés par l’IA. Selon la CAI, les décisions et les prédictions générées par ces systèmes pourraient avoir des effets significatifs sur les moyens de subsistance des personnes et les droits des travailleurs.
Par conséquent, la CAI considère qu’il s’agit de systèmes « à haut risque », à l’égard desquels les employeurs devraient :
Selon la CAI, l’intervention humaine visant à réduire les risques liés à l’IA ne devrait pas se limiter un examen sommaire des décisions prises au moyen d’un système d’IA. Il faut plutôt qu’un humain étudie l’ensemble de l’analyse pour éviter de démonter un biais d’automatisation en faisant exagérément confiance au système.
La CAI a aussi mis en garde contre une utilisation systématique des systèmes d’IA qui pourrait entraîner une situation où les algorithmes en viendraient à dicter la quasi-totalité des paramètres du travail, des conditions à l’horaire ou à la rémunération. En évaluant la nécessité et la proportionnalité de la collecte et de l’utilisation des renseignements personnels, les employeurs peuvent être biaisés par des considérations de commodité et d’efficience, l’accessibilité des systèmes d’IA et un sentiment d’urgence d’adopter ces technologies. Puisque les organisations sont elles-mêmes responsables de s’autoévaluer, la CAI craint que peu de barrières soient en place pour éviter des pratiques d’IA nuisibles.
Approche réglementaire de la CAI. Même si les recommandations de la CAI n’ont pas force de loi, elles indiquent les attentes réglementaires envers les entreprises qui utilisent l’IA. Les enjeux soulignés par la CAI (particulièrement en ce qui a trait aux systèmes d’IA considérés comme « à haut risque ») pourraient indiquer les priorités de mise en application de la CAI quant à l’IA au travail. Les employeurs qui ont des employés au Québec devraient donc envisager de mettre en œuvre les recommandations de la CAI qui lui sont applicables.
Future législation au Québec. Puisque la CAI est d’avis que ses recommandations devraient être intégrées aux lois existantes, elles pourraient représenter des exigences législatives et réglementaires potentielles à l’égard de l’utilisation de l’IA au travail dans un avenir rapproché.
Mesures à prendre. Peu importe le territoire où ils exercent leurs activités, les employeurs devraient mettre en place un cadre de gouvernance interne s’appliquant à la protection des données et à l’utilisation de l’IA au travail, de manière à se conformer aux lois existantes sur la protection de la vie privée, les droits de la personne et les normes du travail et à atténuer les autres risques liés à l’IA.
Ensuite, les organisations devraient revoir leur cadre de gouvernance et leurs pratiques à l’égard de la protection des renseignements personnels des employés à la lumière de leur utilisation actuelle ou potentielle de l’IA. Par exemple, il faudrait s’assurer d’avoir les moyens technologiques nécessaires pour donner accès aux renseignements personnels des employés dans les systèmes d’IA ou pour expliquer aux employés comment leurs renseignements personnels ont été utilisés pour parvenir à une décision automatisée.
Le cas échéant, il peut être opportun d’élargir le champ d’application de ces politiques et pratiques pour suivre ces recommandations au maximum : par exemple, en ajoutant une analyse d’impact algorithmique aux procédures existantes liées aux EFVP pour les outils d’IA ou en renforçant la formation des personnes responsables de l’examen des décisions d’IA pour s’assurer qu’elles sont capables d’effectuer une analyse approfondie d’une décision d’IA.
Pour en savoir plus sur la manière dont les employeurs peuvent cerner les risques liés à l’IA et y répondre, consultez notre guide L’IA pour les employeurs – Concilier risques et avantages.
Si vous souhaitez discuter ces enjeux et ces questions, veuillez contacter les auteurs.
Cette publication se veut une discussion générale concernant certains développements juridiques ou de nature connexe et ne doit pas être interprétée comme étant un conseil juridique. Si vous avez besoin de conseils juridiques, c'est avec plaisir que nous discuterons les questions soulevées dans cette communication avec vous, dans le cadre de votre situation particulière.
Pour obtenir la permission de reproduire l’une de nos publications, veuillez communiquer avec Janelle Weed.
© Torys, 2025.
Tous droits réservés.