Comme nous en avions déjà fait état à l’occasion de la saison des procurations de 2025, le rapide développement de l’intelligence artificielle (IA) a fait de cette technologie une préoccupation fondamentale en matière de gouvernance pour les actionnaires. Alors que l’IA continue de défrayer la chronique, l’urgence de trouver un équilibre entre les impératifs de transparence, d’imputabilité et de rendement pour les investisseurs est susceptible d’entraîner une augmentation du nombre de propositions d’actionnaires liées à l’IA au cours des années à venir.
Pour s’adapter à cette réalité en pleine évolution, il est important que les émetteurs élaborent une stratégie efficace de gestion des risques liés à l’IA, notamment en divulguant expressément les efforts que déploie l’entreprise à cet égard, en développant une expertise en matière d’IA et en engageant un dialogue constructif avec les actionnaires sur le sujet.
Élaboration d’une stratégie efficace
L’utilisation généralisée croissante de l’IA amène les actionnaires à prendre conscience des risques que posent ces technologies et des occasions qu’elles recèlent. Le potentiel transformateur de l’IA est élevé, mais son utilisation comporte également des risques liés à la mésinformation et à la désinformation ainsi qu’en matière d’obtention de données, de protection de la vie privée, de droits d’auteur et de droits de la personne.
En conséquence, les actionnaires s’attendent de plus en plus à ce que les conseils d’administration adoptent des stratégies claires et efficaces pour gérer ces risques, en particulier lorsque les entreprises tirent parti de l’IA dans le cadre de leurs activités et au sein de leurs systèmes ou dès lors qu’il devient évident qu’elles seront appelées à le faire.
La société américaine de conseil en matière de procurations Glass Lewis, chef de file de son domaine, recommande dans ses lignes directrices de 2025 à l’intention du marché canadien (en anglais seulement) que toutes les sociétés qui utilisent les technologies d’IA ou participent à leur développement envisagent l’adoption de normes internes robustes afin d’encadrer ce volet de leurs activités, notamment en divulguant clairement la manière dont les conseils d’administration supervisent l’utilisation ou l’élaboration de l’IA au sein des sociétés, et en développant leur expertise en la matière afin de mieux comprendre les tenants et aboutissants de ces technologies.
Transparence et gestion des risques
En 2024, plus de 31 % des sociétés composant l’indice S&P 500 avaient mis en place une certaine supervision en matière d’IA par leur conseil d’administration, selon un bulletin de la faculté de droit de l’Université Harvard (en anglais seulement). De telles mesures étaient surtout présentes au sein des entreprises du secteur des technologies (51 %), suivies de celles des secteurs des communications (37 %), des soins de santé (35 %) et des services de communication (35 %). Les entreprises peuvent démontrer que leur conseil d’administration assure une supervision adéquate en matière d’IA de différentes manières, y compris en établissant un comité ad hoc chargé de la question ou en mettant sur pied un conseil d’éthique axé sur les enjeux d’IA, en élargissant le mandat d’un comité déjà en place (généralement le comité d’audit ou de gestion des risques) afin d’inclure des responsabilités liées à l’IA, en s’assurant que des administrateurs ont une expertise suffisante en la matière, et en offrant de la formation continue aux membres de la direction.
Glass Lewis recommande à toutes les entreprises qui utilisent l’IA ou contribuent à son développement dans le cadre de leurs activités de divulguer clairement le rôle que joue leur conseil d’administration dans la mise en œuvre de stratégies de gestion des risques que pose pour la société l’utilisation de cette technologie.
Expertise du conseil d’administration
Lorsque l’IA est au cœur des activités stratégiques d’une société, les actionnaires s’attendent de plus en plus à ce que des experts en la matière siègent au conseil d’administration. La nomination d’administrateurs chevronnés dotés d’expérience dans le domaine de l’IA peut se révéler cruciale pour gagner la confiance des actionnaires et démontrer que l’entreprise saura faire face aux risques connexes.
Parmi les sociétés qui composent le S&P 500, 20,5 % comptaient au moins un administrateur possédant de l’expertise en IA en 2024, contre 10,5 % en 2022, soit presque le double. Manifestement, les compétences en matière d’IA revêtent une importance de tout premier plan aux yeux des actionnaires et des conseils d’administration.
Dialogue fructueux avec les actionnaires
La saison des procurations de 2025 a révélé que l’IA est de plus en plus perçue comme un enjeu de gouvernance fondamental par les actionnaires. À titre d’exemple, au Québec, en 2025, le Mouvement d’éducation et de défense des actionnaires (MÉDAC) a soumis des propositions activistes portant sur la question auprès de 14 des plus importants émetteurs canadiens, dont Dollarama, BCE Inc. et toutes les grandes banques du pays.
Compte tenu du vide législatif entourant l’utilisation de l’IA et les mesures d’atténuation des risques connexes, les propositions du MÉDAC avaient pour objectif d’inciter les émetteurs à signer le Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés (le « code ») mis au point par le gouvernement fédéral en septembre 2023. Ce code définit les mesures que devraient prendre les organisations qui développent ou gèrent les opérations de tout système d’IA, dans le but de gérer et d’atténuer les risques que pose cette technologie.
Dans neuf cas, la proposition du MÉDAC a été rejetée lors du vote (mais avec un appui notable s’élevant à 17,4 % des voix dans un cas). Quant aux cinq autres émetteurs, la proposition a été retirée après que la direction eut engagé un dialogue constructif avec le MÉDAC. Bien que ces propositions n’aient recueilli que des appuis somme toute modestes, il y a lieu de croire que les enjeux d’IA continueront d’être soumis au scrutin des assemblées d’actionnaires au cours des années à venir. Les sociétés ont tout intérêt à prendre les devants et à mettre au point des stratégies et des outils de gestion des risques liés à l’IA pour être en mesure de réagir avec toute la compétence voulue au besoin.
Les auteurs tiennent à remercier Celine Xu, stagiaire, pour son aide dans la préparation de la présente actualité juridique.