Comment l’IA peut-elle être utilisée par les sociétés d’assurance?
L’IA n’est pas une nouveauté dans le secteur de l’assurance. Toutefois, les progrès technologiques récents ont élargi sa capacité à contribuer à un large éventail de tâches comme les suivantes :
- tarification et souscription;
- traitement des réclamations et gestion des prestations;
- conception et vente de produits;
- service à la clientèle et administration des polices;
- détection de la fraude.
L’utilisation de l’IA à ces fins peut réduire le temps de traitement des réclamations, diminuer les pertes et alléger la charge administrative.
Quels sont les principaux risques pour les sociétés d’assurance?
Risque de litige
Les principaux risques de litige concernent ce qui suit :
- Biais et discrimination : L’IA s’appuie sur des ensembles de données pour l’entraînement et l’analyse. Ces ensembles de données peuvent présenter des biais, ce qui peut avoir un impact sur les recommandations ou les décisions générées. Par exemple, dans l’affaire Huskey v. State Farm1, le tribunal a rejeté la demande d’une société d’assurance de rejeter une plainte alléguant que son utilisation d’un processus décisionnel algorithmique et d’un traitement automatisé des réclamations a mené à des délais de traitement plus longs et à une couverture moindre pour les propriétaires noirs que pour les propriétaires blancs.
- Information fausse ou trompeuse : Il est bien connu que l’IA générative peut faire des erreurs. Les agents conversationnels représentent un risque de litige s’ils fournissent de l’information erronée aux clients sur laquelle ceux-ci s’appuient à leur détriment. Cette question a été soulevée dans l’affaire Moffatt v. Air Canada2, dans laquelle le British Columbia Civil Resolution Tribunal a ordonné à Air Canada d’honorer la déclaration erronée de son agent conversationnel concernant sa politique pour urgence familiale sur laquelle un client s’était fié lorsqu’il a réservé un vol. Rejetant l’argumentation d’Air Canada, le tribunal a conclu que l’agent conversationnel n’était pas une entité juridique distincte.
- Rupture de contrat, bonne foi et traitement équitable : Lorsqu’elles s’appuient sur des systèmes d’IA, les compagnies peuvent aussi s’exposer à des poursuites pour traitement inéquitable, équivalant à une rupture de contrat et à un manque de bonne foi ou de loyauté, si les clients font valoir que leur contrat exclut la prise de décisions entièrement automatisée. Ainsi, les demandeurs dans une affaire en cours aux États-Unis, The Estate of Gene B Lokken et al. v. UnitedHealth Group3, allèguent qu’une société d’assurance a abusivement refusé des réclamations pour des soins médicaux essentiels sur la base de recommandations formulées par des modèles d’IA. Cette affaire soulève des questions liées à la rupture de contrat, à la bonne foi et au traitement équitable.
- Atteintes à la sécurité des données : L’utilisation de l’IA peut augmenter le risque de menaces de cybersécurité et donner lieu à des poursuites concernant une atteinte à la protection des renseignements personnels. Par exemple, l’affaire Michelle Gills v. Patagonia Inc.4 suggère que l’utilisation de l’IA pour le service à la clientèle pourrait créer un risque de litige. Dans cette action collective proposée, la demanderesse allègue que les défenderesses ont eu recours à un produit d’IA pour enregistrer, transcrire et analyser les appels des clients sans leur consentement, en violation de la California Privacy Act.
Risque réglementaire
À l’heure actuelle, il n’existe pas de législation fédérale réglementant l’IA au Canada. L’IA est assujettie à divers cadres juridiques et réglementaires existants, notamment les lois sur la protection des renseignements personnels et la propriété intellectuelle, les droits de la personne, le droit des contrats et la common law. Le Règlement sur l’intelligence artificielle de l’UE, les lois des États américains et d’autres cadres législatifs peuvent être pertinents pour certaines sociétés d’assurance et donner des indications sur la manière d’atténuer les risques avant l’adoption éventuelle d’une réglementation au Canada.
Les provinces commencent à adopter des lois ayant une incidence sur l’IA, notamment la Loi visant à œuvrer pour les travailleurs, quatre de l’Ontario et les modifications apportées aux lois sur la protection des renseignements personnels au Québec et en Alberta.
Les organismes de réglementation publient également des directives, dont celles mentionnées ci-dessous concernent particulièrement les institutions financières :
- La Ligne directrice E-23 du BSIF (Gestion du risque de modèle) définit les attentes à l’égard des institutions financières fédérales, y compris en ce qui a trait aux modèles qui utilisent l’IA ou l’apprentissage machine5. La ligne directrice entrera en vigueur en mai 2027.
- Le rapport conjoint du BSIF et de l’Agence de la consommation en matière financière du Canada sur les risques liés à l’IA pour les institutions financières fédérales6.
- Le projet de lignes directrices sur l’utilisation de l’IA publié par l’AMF au Québec (que nous avons résumé dans cet article).
Risque réputationnel
La matérialisation de l’un des risques susmentionnés peut nuire à la réputation d’une organisation en érodant la confiance qu’elle inspire. En outre, l’utilisation de l’IA elle-même véhicule une perception négative pour certains clients, particulièrement lorsqu’elle est utilisée pour remplacer des humains ou dans les décisions d’approbation ou de rejet des réclamations.
Risque de réclamations frauduleuses
Les sociétés d’assurance doivent également être à l’affût de documents générés ou augmentés par l’IA qui pourraient être utilisés pour étayer une réclamation frauduleuse. Par exemple, l’IA peut être utilisée pour créer des documents falsifiés ou des images ou vidéos de dommages ou de blessures hypertruquées. Ce risque continuera de croître à mesure que l’hypertrucage deviendra plus élaboré et répandu.
Quelles mesures les sociétés d’assurance peuvent-elles prendre pour atténuer ces risques?
- Élaborer des principes et des pratiques pour la gouvernance et l’encadrement de l’IA : Les entreprises devraient mettre en œuvre des politiques et des procédures régissant l’utilisation de l’IA, qui devraient définir les responsabilités au sein de l’organisation, assurer un encadrement humain, prioriser la sécurité des données, minimiser les biais et la discrimination et mettre en œuvre des systèmes de suivi. Les entreprises doivent également mettre en œuvre des processus d’examen minutieux des réclamations afin de se prémunir contre l’hypertrucage.
- Suivre les normes internationales et sectorielles : Il y a lieu de connaître les nouvelles lignes directrices publiées par les organismes de réglementation, en particulier dans le secteur des services financiers. Le Bureau de la concurrence, le Commissariat à la protection de la vie privée du Canada et la Commission ontarienne des droits de la personne ont également fourni des lignes directrices qui peuvent s’avérer utiles. Les entreprises peuvent également se référer aux lois sur l’IA en vigueur dans l’UE et aux États-Unis, ainsi que des normes internationales.
- Rester au fait : Même s’il est difficile de suivre l’évolution rapide de ce secteur, il est important d’être à l’affût des changements réglementaires et technologiques afin de réaliser les avantages liés à l’IA et d’en gérer les risques.