22 juillet 2025

Nouvelles lignes directrices du Québec sur l’IA : quelle incidence pour les entreprises canadiennes?

La Commission d’accès à l’information (CAI), organisme de protection de la vie privée au Québec, a émis ses recommandations sur l’utilisation de l’IA au travail. Ces lignes directrices constituent un « bon outil » pour les employeurs qui souhaitent revoir leurs pratiques, explique notre associée Julie Himo dans une entrevue accordée à HR Reporter

Bien qu’elles ne soient pas exécutoires, ces nouvelles lignes directrices offrent un aperçu de ce qui pourrait bientôt devenir la norme en matière de réglementation sur l’IA et la protection de la vie privée au Canada.

« Elles nous éclairent sur la direction que compte prendre la CAI sur le plan réglementaire. De plus, elles donnent aux employeurs, qui envisagent l’intégration d’outils d’IA à leurs activités, un moyen pour relever les problèmes potentiels liés aux outils d’IA, leur nature et les risques auxquels ils pourraient s’exposer », indique Julie.

À lire : La Commission d’accès à l’information énonce les meilleures pratiques pour l’utilisation de l’IA au travail

Dans ses lignes directrices, la CAI exhorte les employeurs à ne pas se limiter aux seules exigences des lois actuelles, notamment en ce qui a trait à la transparence sur l’utilisation de l’IA. Julie souligne que ce n’est pas du tout chose facile.

« Il peut être difficile de vulgariser clairement et efficacement ce processus complexe et intégré, c’est-à-dire recueillir des données, les entrer dans un système d’IA, générer un résultat et intégrer ce résultat au processus décisionnel de l’organisation. »

Une autre recommandation de la CAI consiste à faire participer les employés au processus d’identification des risques et d’évaluation des impacts liés à tout nouvel outil d’IA – une démarche qui contribuera également à accroître la transparence au sein de l’organisation, ajoute-t-elle.

« Comme l’a souligné la CAI, il est difficile pour les employés de comprendre leurs droits s’ils ne connaissent pas suffisamment bien le fonctionnement de ces systèmes. »

« En principe, l’approche est bonne. Il s’agira donc de bien intégrer les employés et de recueillir efficacement leurs observations. »

Pour l’évaluation des impacts, la CAI propose de réaliser une « analyse d’impact algorithmique » pour prendre en considération un éventail plus large de risques, au-delà des seules questions liées à la vie privée.

« Une analyse d’impact algorithmique comprend généralement une série d’étapes : description du système d’IA, définition de ses fonctions, utilisation prévue, utilisations détournées potentielles, données utilisées, détermination des parties prenantes et conséquences possibles sur celles-ci », poursuit Julie. 

Même si les recommandations de la CAI vont dans la bonne direction, Julie suggère aux organisations qui veulent renforcer leurs mécanismes de gestion et de surveillance de l’IA de s’inspirer du règlement sur l’intelligence artificielle de l’UE, qui prévoit notamment « une évaluation adéquate des risques, une documentation et des registres d’activités détaillés, ainsi qu’une supervision humaine appropriée ».

Pour en savoir plus sur notre travail en matière de protection des renseignements personnels, consultez la page de notre pratique.

Press Contact

Richard Coombs | Senior Manager, Marketing
416.865.3815

Inscrivez-vous pour recevoir les dernières nouvelles

Restez à l’affût des nouvelles d’intérêt, des commentaires, des mises à jour et des publications de Torys.

Inscrivez-vous maintenant