13 mars 2025Calcul en cours...

Ajout de déclarations et de garanties relatives à l’IA dans le cadre d’une acquisition

L’augmentation du nombre de fusions et acquisitions et du nombre d’investissements faisant intervenir des entreprises qui développent, vendent ou exploitent l’intelligence artificielle (IA) soulève des questions quant à la gestion optimale des risques uniques associés à cette technologie. On observe parmi les tactiques employées l’inclusion de plus en plus fréquente de déclarations et de garanties portant sur l’IA dans les conventions. Le présent bulletin énonce plusieurs points à considérer par les parties qui prévoient d’intégrer ce type de déclarations.

Ce que vous devez savoir

  • L’emploi de déclarations concernant l’IA est une méthode qui gagne en popularité pour faire face aux risques uniques que pose cette technologie.
  • Les acheteurs ou les investisseurs cherchent à intégrer des déclarations qui traitent d’une foule de sujets, notamment la protection des renseignements personnels et l’utilisation des données, la propriété intellectuelle, les fonctionnalités et l’entraînement de l’IA, les cadres de gouvernance internes de l’IA et le respect des lois et réglementations applicables.
  • L’inclusion ou non de ces déclarations dépend de l’importance de l’IA pour l’entreprise cible, de la nature de l’IA concernée et de la dynamique globale de l’opération.
  • On a le plus souvent recours à des déclarations portant spécifiquement sur l’IA en présence d’entreprises cibles dont un pan repose entièrement sur cette technologie. Selon les circonstances, ce type de déclarations peut toutefois être approprié même si la cible utilise l’IA uniquement pour certaines de ses activités.

Attention accrue accordée à l’IA dans les fusions et acquisitions

En 2024, l’intérêt des investisseurs pour les entreprises technologiques s’est accru1, et tout indique que le nombre de fusions et acquisitions et d’investissements faisant intervenir des entreprises spécialisées dans l’IA devrait augmenter en 2025. Dans ce contexte, les parties doivent garder à l’esprit que les spécificités de ces technologies doivent se tailler une place dans les modalités des opérations. En outre, comme un nombre croissant d’entreprises intègrent l’IA dans leurs processus courants, les parties tendent de plus en plus à ajouter des déclarations à leurs conventions à l’intention des cibles, et ce, peu importe si la cible est considérée comme une « entreprise d’IA ». De ce fait, les investisseurs et les acheteurs doivent prendre en compte les risques associés à l’adoption de l’IA, indépendamment du secteur d’activité.

Les répercussions qu’entraîne l’IA sur les fusions et acquisitions évoluent, y compris l’influence de cette technologie sur l’évaluation de nombreuses entreprises (bien qu’à des degrés divers). En parallèle, la réglementation et les risques associés à l’IA évoluent, eux aussi, tout comme les normes du marché à l’égard des déclarations concernant l’IA.

Déclarations et garanties concernant l’IA

Facteurs importants

Vous trouverez ci-dessous une liste non exhaustive des éléments que les parties doivent prendre en considération dans les opérations où l’IA entre en jeu. Cette liste aidera les investisseurs ou les acheteurs à gérer les risques associés à ces divers éléments, tandis que les vendeurs et les cibles peuvent s’en servir pour se préparer à une future opération (en remédiant, par exemple, à leurs lacunes potentielles ou encore en réunissant les documents de contrôle diligent et les informations à fournir).

La question de savoir si et comment les points énumérés ci-dessous doivent faire l’objet de déclarations particulières dépend d’un certain nombre de facteurs. La nature des activités de la cible et son degré de dépendance à l’IA revêtent une grande importance. Par exemple, lorsque l’IA est au cœur des activités ou de l’évaluation de la cible, les vendeurs doivent s’attendre à ce que les acheteurs sollicitent des déclarations plus exhaustives sur l’IA. La nature du ou des systèmes d’IA en question entre également en ligne de compte. Par exemple, les acheteurs seront plus susceptibles d’exiger certaines garanties lorsqu’il est question d’IA générative (IAG).

Il faut aussi tenir compte de la dynamique globale de l’opération. Le pouvoir de négociation relatif des parties, l’obtention ou non d’une assurance déclarations et garanties et les résultats des contrôles diligents menés par l’acheteur sont autant d’éléments qui influent sur les déclarations concernant l’IA. Qui plus est, la portée d’autres déclarations peut rendre redondantes certaines garanties concernant l’IA.

Points à considérer
  • Étendue de l’IA
    • Les parties doivent réfléchir à la portée des déclarations concernant l’IA et à ce que les références à l’IA devraient comprendre. Certains acheteurs seront principalement préoccupés par des types précis d’IA (IAG, par exemple) ou des cas d’utilisation particuliers de cette technologie (interaction directe de l’IA avec les clients, par exemple).
    • Dans le même ordre d’idées, il convient de se demander s’il faut définir le terme IA et, le cas échéant, dans quelle mesure. De manière générale, les définitions de l’IA doivent être rédigées en fonction du sens ordinaire de l’expression « intelligence artificielle », ce qui comprend l’IA au-delà de l’IAG et des faits entourant l’opération.
  • Entraînement de l’IA et utilisation des données
    • Les cibles utilisent peut-être des données (les leurs ou celles d’une tierce partie) pour entraîner l’IA ou exploiter des modèles d’IA. Ce point soulève la question des droits ou de l’autorisation de la cible à cet égard, sans oublier les risques associés à la fourniture de données sans autorisation suffisante. Par exemple, l’utilisation de renseignements personnels pour entraîner des modèles d’IA sans consentement suffisant ni autre autorisation pose des risques d’atteinte à la vie privée.
    • Les parties doivent également se demander si les données qui ont été utilisées pour entraîner les modèles d’IA étaient exactes et appropriées. Des données inexactes, incomplètes ou inappropriées pour d’autres raisons peuvent créer des risques, notamment en ce qui concerne les fonctionnalités de l’IA. Par exemple, un modèle d’IA développé pour servir de robot conversationnel dans le service à la clientèle ne fonctionnera pas correctement s’il a été formé uniquement sur la base de textos échangés entre amis.
    • Lorsque la cible a développé son propre modèle d’IA, les acheteurs voudront sans doute savoir s’il a été développé de manière appropriée, auquel cas ils se référeront peut-être aux normes ou pratiques du secteur. Dans la mesure où la cible intégrerait du code et du contenu de sources ouvertes dans ses processus de développement de produits et services, les acheteurs chercheront plausiblement à obtenir aussi des garanties quant aux politiques et procédures appropriées mises en place par la cible pour encadrer l’utilisation, l’intégration et la distribution de ce type de code et de contenu, afin de gérer les droits de propriété et les risques liés au non-respect des licences ouvertes.
  • Droits de propriété et licences
    • Les parties doivent se demander si la cible possède ou détient les droits, licences ou autorisations appropriés pour utiliser (i) les données introduites dans le modèle d’IA (y compris les données qui ne servent pas à l’entraînement), (ii) le modèle d’IA lui-même et (iii) les extrants du modèle d’IA.
    • Ces points importent particulièrement aux acheteurs lorsqu’il est question d’IAG.
  • Utilisation et fonctionnalités
    • Les parties devraient examiner si des garanties peuvent ou doivent être données en ce qui concerne les fonctionnalités et la performance globale du modèle d’IA, y compris son exactitude, sa fiabilité, sa robustesse et sa sécurité. De même, les acheteurs chercheront possiblement à obtenir des garanties concernant les fonctionnalités du modèle d’IA, conformément à la documentation et aux caractéristiques techniques publiées par la cible, en s’assurant, entre autres, que les limites d’utilisation de ce modèle d’IA sont clairement documentées et que cette documentation est à jour et exacte.
    • Il importe aussi aux acheteurs de confirmer que les modèles d’IA sont exempts de biais involontaires ou indésirables. Les parties doivent donc se demander si des mesures s’imposent pour remédier aux biais relevés et, dans l’affirmative, quelles mesures prendre, au juste.
    • Selon la situation, la question de savoir si le personnel de la cible possède le savoir-faire suffisant pour assumer les diverses fonctions de surveillance, d’utilisation, de maintenance, etc., au sein de l’organisation devra également être prise en considération.
  • Gouvernance et surveillance
    • Les mesures de gouvernance et de surveillance établies par la cible pour atténuer les risques découlant de l’IA doivent également figurer au nombre des points à considérer par les parties. Ces mesures peuvent comprendre (i) des politiques, des procédures et des pratiques documentées; (ii) la formation des utilisateurs et les attestations connexes; (iii) des tests, des mesures de suivi et le signalement des incidents; et (iv) des exigences quant à la nécessité d’une intervention humaine dans le processus.
    • Dans certaines circonstances, les acheteurs chercheront à confirmer que les modèles d’IA sont suffisamment journalisés et que les résultats qu’ils génèrent sont suffisamment explicables et vérifiables.
    • Les questions relatives à la gouvernance des données, y compris celles liées aux périodes de conservation, aux droits sur les données et à la séparation des données, sont également monnaie courante dans le cadre de l’évaluation des risques posés par l’IA.
  • Utilisation d’IA de tierces parties ou de code de sources ouvertes
    • Lorsque la cible utilise des systèmes ou des produits d’IA venant de tiers, les acheteurs s’intéresseront probablement aux contrats applicables et dans quelle mesure ils sont respectés.
    • De même, si le système ou le produit d’IA contient du code de sources ouvertes ou a été développé à l’aide d’un tel code, les acheteurs chercheront sans doute à savoir si la cible respecte les modalités des licences régissant ce code ainsi que les effets potentiels de ces licences et de ce code sur le code exclusif de la cible.
  • Conformité aux lois en vigueur et aux normes du secteur
    • Les acheteurs voudront savoir si l’utilisation et le développement de l’IA par la cible ne contreviennent pas aux lois applicables. Étant donné que de nombreux territoires en Amérique du Nord ne disposent pas encore de législation pour encadrer l’IA, ils s’appuieront alors vraisemblablement sur les normes sectorielles comme référence.
    • Les vendeurs, eux, se demanderont si les lois et la réglementation qu’ils citent doivent se limiter à celles alors en vigueur. Il s’agit d’éviter d’inclure dans les déclarations d’éventuels avis ou décisions ambigus, compte tenu de la nature évolutive de la législation sur l’IA.
    • Dans la mesure du possible, les références aux lois et aux normes doivent être aussi précises que possible afin de parer à toute ambiguïté. Par exemple, les lois peuvent être applicables à chaque partie ou à l’IA elle-même.
    • En l’absence de consensus sur les normes sectorielles applicables, ou lorsque ces normes ne sont pas suffisamment définies, les parties peuvent être mieux servies en rédigeant des déclarations sectorielles adéquates pour assurer le respect de ces normes.
  • Incidents et litiges
    • Les parties doivent examiner (i) s’il existe des cas où l’utilisation de l’IA par la cible a causé un préjudice à des personnes ou suscité des biais indésirables; (ii) s’il existe des plaintes concernant l’utilisation de l’IA par la cible et (iii) s’il existe des litiges imminents ou en instance liés à l’utilisation de l’IA par la cible.

Autres points à retenir pour les entreprises

L’importance des contrôles diligents

Dans le cadre des contrôles diligents, les acheteurs doivent s’assurer qu’ils comprennent comment la cible exploite actuellement l’IA, comment elle entend l’exploiter dans l’avenir, et quelles politiques et procédures elle a mises en place pour encadrer cette utilisation. Les efforts pour mener des contrôles diligents doivent, bien entendu, être proportionnels au niveau de risque, un aspect plus difficile à jauger en début de processus. À cette étape, il est donc important de disposer d’une expertise juridique et technique suffisante pour comprendre précisément les risques liés à l’IA de l’entreprise cible.

Dans le même ordre d’idées, les vendeurs doivent se préparer à donner des explications sur leur utilisation de l’IA. Avant l’opération, ils doivent déterminer comment la cible utilise l’IA et comme elle gère les risques correspondants.

Les différents risques liés à l’IA

Nous invitons les entreprises à surveiller de près les risques liés à l’IA au fur et à mesure qu’ils évoluent2. De nombreux pays, y compris le Canada et les États-Unis, ne disposent peut-être pas de lois, de règles, ni de réglementations applicables qui traitent de manière exhaustive et précise du développement et du déploiement de cette technologie. Une série d’exigences réglementaires et de lignes directrices a néanmoins commencé à voir le jour. Alors que l’IA continue de progresser et que les pays adoptent des lois pour combler les lacunes en matière de surveillance, la réglementation régissant l’IA reste en mouvement. Les tendances en matière d’actions collectives et de surveillance réglementaire indiquent également un risque croissant associé à certaines initiatives faisant intervenir l’IA.

Avant l’acquisition, les vendeurs doivent accorder une attention particulière aux risques, car ceux-ci peuvent donner une idée des attentes de l’acheteur et des points névralgiques à ses yeux. De même, les acheteurs doivent comprendre la réglementation qui prévaut et s’applique à l’investissement potentiel.

Après l’acquisition, les acheteurs doivent suivre de près les risques, car de nouveaux risques ou de nouvelles exigences risquent d’apparaître, ce qui crée de nouvelles obligations en matière de conformité pour l’entité acquise. Si l’acheteur a l’intention d’utiliser l’IA autrement, il doit également réfléchir à ce nouveau cas d’utilisation et à son effet potentiel sur les contrôles diligents effectués précédemment.

Lorsqu’il est question d’IA dans les opérations de fusion et acquisition, les parties doivent également noter qu’à mesure que les risques évoluent, les normes du marché évoluent elles aussi.

Conclusion

Les entreprises doivent continuer à suivre l’évolution rapide du marché et des risques liés à l’IA. Les deux s’influencent et peuvent avoir des conséquences importantes sur les entreprises qui misent sur l’IA. Pour en savoir plus sur les avantages et les risques que comporte l’IA, nous publions régulièrement des conseils sur notre page présentant les ressources sur l’IA à l’intention des dirigeants d’entreprise.


  1. Voir le Rapport sur le capital-investissement de 2025 pour découvrir d’autres tendances en 2025.
  2. Dans un récent bulletin, notre équipe a analysé l’état des règles sur la protection des renseignements personnels et sur l’IA au Canada maintenant que le projet de loi C-27, la solution législative proposée pour aborder ces questions, risque d’être abandonné. Nous vous invitons également à consulter notre bulletin portant sur la réglementation de l’IA au Canada et à l’étranger.

Si vous souhaitez discuter ces enjeux et ces questions, veuillez contacter les auteurs.

Cette publication se veut une discussion générale concernant certains développements juridiques ou de nature connexe et ne doit pas être interprétée comme étant un conseil juridique. Si vous avez besoin de conseils juridiques, c'est avec plaisir que nous discuterons les questions soulevées dans cette communication avec vous, dans le cadre de votre situation particulière.

Pour obtenir la permission de reproduire l’une de nos publications, veuillez communiquer avec Janelle Weed.

© Torys, 2025.

Tous droits réservés.
 

Inscrivez-vous pour recevoir les dernières nouvelles

Restez à l’affût des nouvelles d’intérêt, des commentaires, des mises à jour et des publications de Torys.

Inscrivez-vous maintenant