Pourquoi l’IA vous concerne en tant qu’investisseur responsable
L’Intelligence Artificielle (IA) transforme les activités opérationnelles des entreprises— et également notre quotidien. Elle est omniprésente, des recommandations de produits personnalisées au diagnostic médical. Mais un grand pouvoir implique de grandes responsabilités. Au-delà de créer de nouveaux modèles économiques, l’IA peut bouleverser les emplois et les secteurs économiques, tout en soulevant des préoccupations environnementales et éthiques majeures. L’IA jouera un rôle déterminant dans la croissance économique future, mais elle doit être développée de manière responsable pour éviter des risques à long terme — pour la société dans son ensemble comme pour votre portefeuille.
Croissance rapide, adoption massive
L’adoption de l’IA a été fulgurante : plus de 75 % des entreprises l’utilisent, et OpenAI a déclaré plus de 500 millions d’utilisateurs hebdomadaires début 2025, selon CNBC. Les gouvernements investissent massivement pour soutenir sa croissance — par exemple, les 500 milliards de dollars du programme Stargate aux États-Unis ou les 200 milliards d’euros du plan IA en Europe. Parallèlement, les géants de la tech - Microsoft, Amazon et Nvidia entre autres - investissent massivement dans les serveurs et infrastructures d’IA.
L'IA pour le bien commun
L’IA n’est pas seulement un moteur de croissance financière — elle est aussi un outil puissant pour relever certains des plus grands défis environnementaux et sociaux dans le monde.
D’un côté, elle offre des solutions favorisant la durabilité environnementale : gestion plus efficace des réseaux électriques, réduction des déchets, prévisions en matière de pollution. Elle permet aux agriculteurs de mettre en place des stratégies adaptatives fondées sur l’étude de données sur le climat, le sol ou les récoltes pour améliorer la stabilité des rendements agricoles. Elle peut également accroître la fiabilité des énergies renouvelables, comme le solaire et l’éolien, en anticipant la disponibilité des sources d’énergie.
De l’autre, l’IA peut répondre à des enjeux sociaux via ses applications dans la santé (détection des maladies, traitements personnalisés, découverte de médicaments), l’éducation (apprentissage personnalisé, feedback en temps réel) et en matière d’inclusion financière (nouvelles méthodes de notation de crédit) — contribuant ainsi aux Objectifs de Développement Durable de l’ONU (ODD) dans de nombreux cas d’usage.
Les inconvénients, voire les dérives ?
L’IA révolutionne les chaînes d’approvisionnement, le service client et l’innovation. Mais sa montée en puissance rapide entraîne aussi des défis environnementaux et sociaux majeurs qui, s’ils ne sont pas maîtrisés, peuvent se transformer en risques financiers.
L’entraînement des grands modèles d’IA consomme énormément d’électricité, et les centres de données pourraient plus que doubler leur consommation d’énergie d’ici cinq ans — ce qui aurait un impact sur les coûts et les émissions carbone. Les entreprises qui négligent cet aspect risquent des contrecoups économiques ou des sanctions réglementaires.
La consommation en eau représente également une préoccupation majeure en amont de la chaîne de valeur de l’IA, notamment lors de l’extraction minière et de la fabrication du matériel informatique qui héberge les logiciels d’IA — les usines de semi-conducteurs, par exemple, consomment d’importantes quantités d’eau ultrapure. Les pénuries d’eau auxquelles l’IA peut ainsi contribuer nuisent aux écosystèmes, mais génèrent aussi des risques pour la production, entraînant des coûts plus élevés pour les entreprises.
La prise de conscience des risques de durabilité liés à l’IA a donc un double impact : financier (sur la valeur des portefeuilles des investisseurs), et environnemental.
Sur le plan social, l’un des grands défis est le remplacement des emplois. L’IA devrait automatiser de nombreux postes (comme le service client, par exemple) — jusqu’à 40 % des emplois dans le monde pourraient être concernés. En l’absence de programmes de reconversion et de transition professionnelle, les inégalités pourraient s’aggraver.
Par ailleurs, le paysage géopolitique devient de plus en plus fragmenté, les pays se livrant une concurrence féroce pour dominer le secteur de l’IA.
Réglementation et gouvernance
Le cadre réglementaire de l’IA évolue rapidement, les décideurs politiques cherchant à traiter à la fois les risques en matière de durabilité et les implications technologiques au sens large. Si l’Union européenne mène la marche avec l’AI Act, la régulation aux États-Unis reste fragmentée, en l’absence de cadre fédéral unifié.
Face à des innovations qui progressent plus vite que la réglementation, les initiatives issues de l’industrie de l’IA jouent un rôle essentiel pour définir des pratiques d’IA responsable [1]. Tandis que divers cadres mondiaux (OCDE, ONU…) promeuvent un développement de l’IA compatible avec les principes de durabilité, les droits humains et la responsabilisation des acteurs, de plus en plus d’entreprises reconnaissent que l’IA éthique constitue à la fois un impératif de gouvernance et un potentiel avantage concurrentiel.
Les entreprises qui intègrent des garde-fous éthiques, mènent des audits indépendants et mettent en place des structures de gouvernance claires seront mieux armées pour profiter d’une croissance durable.
Développer une approche ESG de l’IA
L’IA présente une combinaison unique d’opportunités et de risques dont les implications seront importantes pour les investisseurs. Un cadre analytique ESG peut être un outil précieux pour évaluer de manière robuste et structurée la manière dont les entreprises gèrent ces risques liés à l’IA.
Ce cadre d’analyse doit être adapté et flexible, en raison de la diversité des applications de l’IA et des types d’exposition des entreprises à cette technologie. Au-delà de la simple question de savoir si une entreprise utilise l’IA, les investisseurs doivent s’attacher à comment elle l’utilise, et quelles structures de gouvernance elle a mises en place pour gérer les risques potentiels.
Cela implique d’analyser l’adoption des principes d’IA responsable par l’entreprise, ainsi que sa transparence quant à l’évaluation des risques pour les droits humains — et de comprendre comment ces principes se traduisent concrètement dans la prise de décision de la société, ses chaînes d’approvisionnement et ses interactions avec les clients.
L’engagement actionnarial constitue un levier puissant pour les investisseurs. Il permet non seulement de prendre des décisions d’investissement plus éclairées, mais aussi d’encourager, par le dialogue actif avec les entreprises, la participation à des initiatives collaboratives, ou, par l’exercice du droit de vote, une plus grande transparence sur les risques liés à l’IA et les mesures mises en place pour les encadrer.
Il permet également de mieux comprendre les pratiques de gouvernance là où les informations publiques sont insuffisantes, et de favoriser le développement d’une IA plus responsable.
L'IA pour un monde meilleur ?
An ESG lens is a powerful tool for assessing the risks and opportunities generated by the AI revolution. As stewards of capital, investors have a critical role to play in shaping AI’s trajectory by actively engaging with companies to promote responsible AI practices and mitigate the environmental and social challenges that AI poses. Moreover, collaboration with policymakers, industry leaders, and civil society is necessary to create a more transparent, accountable, and sustainable AI ecosystem.
By focusing their efforts through the ESG lens, investors can ensure that AI’s potential is harnessed for the greater good, driving long-term value and contributing to a more sustainable world.
Le prisme ESG est un outil puissant pour évaluer les risques et opportunités générés par la révolution de l’IA. En tant que détenteurs du capital, les investisseurs ont un rôle déterminant à jouer dans l’orientation de l’IA, en promouvant activement des pratiques responsables et en contribuant à maîtriser les défis environnementaux et sociaux qu’elle soulève.
De plus, une collaboration étroite avec les décideurs publics, les leaders industriels et la société civile est nécessaire pour bâtir un écosystème d’IA plus transparent, responsable et durable.
En concentrant leurs efforts à travers le prisme ESG, les investisseurs peuvent s’assurer que le potentiel de l’IA est exploité pour le bien commun, génère de la valeur à long terme et contribue à un monde plus durable.
[1] L’IA responsable d’signe le développement et l’utilisation de l’intelligence artificielle de manière éthique, transparente, équitable et responsable, en donnant la priorité à la protection de la vie privée des utilisateurs, en minimisant les biais et en prévenant les impacts néfastes