19 avril 2024
Bilan carbone de l’intelligence artificielle : analyse et axes d’amélioration
De la santé à la finance en passant par l’automobile, l’intelligence artificielle (IA) a révolutionné de nombreux domaines. Cependant, cette révolution technologique inquiète. On s’interroge non seulement sur son impact sur la société, mais aussi sur son empreinte environnementale. En effet, l’utilisation de l’IA implique la consommation de ressources importantes, en énergie et en eau, ainsi que le rejet de gaz à effet de serre (GES). Quel est le bilan carbone de l’IA et quelles sont les améliorations possibles ?
Le bilan carbone de l’IA et l’impact du numérique sur l’environnement
Comme toute activité humaine, l’IA possède sa propre empreinte écologique. Celle-ci est mesurée par le bilan carbone. Les besoins en puissance de calcul, en stockage de données et en énergie, sont autant de facteurs contributifs. Avec l’utilisation massive d’applications d’intelligence artificielle générative grand public, telle que ChatGPT depuis 2022, la demande en ressources ne cesse d’augmenter.
Cette demande s’inscrit dans le contexte plus large de l’impact environnemental du numérique. En effet, les technologies numériques sont aujourd’hui omniprésentes. L’étude de l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep) dresse un constat alarmant. Des data centers aux appareils connectés, l’empreinte environnementale du numérique se situe entre 3 à 4 % des émissions des GES dans le monde et 2,5 % en France. Ces émissions pourraient augmenter de 60 % d’ici 2040.
Matériel informatique, serveurs et centres de données : les éléments clés de l’écosystème des IA
Dans le domaine de l’intelligence artificielle, le matériel informatique, les serveurs et les centres de données jouent un rôle essentiel. Ces composants technologiques sont au cœur de la capacité des systèmes d’IA à accomplir leurs tâches, que ce soit la reconnaissance d’images ou la génération de texte. Ils fournissent l’infrastructure nécessaire au traitement des données et à l’exécution des algorithmes.
La fabrication de ces éléments clés implique un besoin croissant en matériaux qui aggrave l’empreinte écologique de l’IA. Cala inclut notamment des métaux tels que l’aluminium, le cuivre et le fer, ainsi que du plastique. La fabrication, l’extraction et la gestion de ces matériaux ont un impact environnemental et climatique significatif. Elles consomment des ressources et produisent des déchets et des polluants sur l’ensemble du cycle de vie.
De plus, serveurs, réseaux et data centers consomment énormément d’énergie. Selon l’analyse de l’Arcep et de l’ADEME, en 2022, les équipements et infrastructures numériques représentent 10 % de la consommation annuelle d’électricité en France.
Autre facteur aggravant : la nécessité de refroidir les centres de données et de services cloud pour éviter la surchauffe. En effet, le refroidissement représente une part non négligeable de l’empreinte écologique et hydrique de l’IA. Ce processus exige souvent d’importantes quantités d’eau. Selon le rapport environnemental 2023, les data centers de Google ont consommé près de 20 millions de litres d’eau en 2022.
L’impact caché des processus d’entraînement des modèles sur le bilan carbone de l’IA
Les processus d’entraînement des modèles d’IA, apparemment simples, dissimulent un impact important sur l’environnement. En surface, on peut assimiler l’apprentissage d’un modèle à une série de calculs informatiques standard. En réalité, celui-ci nécessite une puissance de calcul massive et une utilisation intensive de ressources matérielles.
La durée et l’intensité de l’entraînement d’un modèle d’IA dépendent de divers facteurs :
- taille et complexité du modèle ;
- quantité et qualité des données d’apprentissage ;
- ressources matérielles disponibles.
Cependant, l’apprentissage peut être effectué à grande échelle et de manière répétée, qu’il s’agisse d’un modèle d’IA simple ou complexe. Pour optimiser les performances des modèles, des millions, voire des milliards, de paramètres sont ajustés de manière itérative. Cela implique le traitement de données volumineuses et l’exécution répétée d’algorithmes d’apprentissage complexes. Des processeurs et des unités de traitement graphique (GPU) performants sont nécessaires, ainsi qu’une consommation importante d’électricité.
Calcul du bilan carbone de l’IA : une empreinte environnementale variable selon les modèles
L’évaluation du bilan carbone de l’IA nécessite un outil spécifique. À ce jour, il n’existe cependant pas de méthode standard. Toutefois, les modèles prenant en compte toutes les étapes du cycle de vie sont privilégiés. De la fabrication des équipements informatiques à leur utilisation quotidienne, en passant par leur recyclage, chaque étape est minutieusement analysée. Cette évaluation est enrichie par l’étude de cas concrets comme les centres de données d’entreprise ou les applications d’IA dans le domaine de la logistique.
On constate ainsi que l’empreinte carbone varie selon le type d’IA. Les systèmes, basés sur le deep learning, nécessitent énormément de données d’apprentissage et de puissance de calcul. Ils peuvent donc avoir une empreinte carbone plus importante que les systèmes symboliques ou basés sur la logique. De plus, les IA polyvalentes sont moins efficaces et plus énergivores que les IA spécialisées.
La façon dont les systèmes d’IA sont déployés et utilisés influence également leur impact environnemental. Par exemple, les systèmes centralisés qui nécessitent des infrastructures informatiques massives sont plus énergivores que les systèmes d’IA décentralisés. En effet, ces derniers s’exécutent sur une multitude d’appareils locaux. Cela réduit le transfert de données sur de longues distances et le besoin en ressources.
Comparaison de l’empreinte carbone : intelligence artificielle vs moteurs de recherche
En comparaison avec d’autres technologies numériques, l’empreinte carbone de l’intelligence artificielle peut sembler relativement modeste. Selon les estimations, ChatGPT émettrait 8,4 tonnes de dioxyde de carbone par an, alors que les émissions de Google s’élèvent à plusieurs millions de tonnes par an.
En effet, les moteurs de recherche contribuent de manière significative à l’empreinte carbone du web. Par exemple, une requête Google simple génère environ 0,2 gramme de dioxyde de carbone et une requête ChatGPT, 0,382 gramme. La différence essentielle réside dans le nombre de requêtes quotidiennes. Avec des milliards de recherches effectuées chaque jour, l’empreinte carbone cumulative des moteurs de recherche est considérable. Néanmoins, l’impact de l’IA chez Google ne peut être facilement isolé des autres activités.
Comment réduire le coût énergétique et l’empreinte carbone de l’intelligence artificielle ?
Alors que l’IA devient omniprésente dans notre société, il est impératif d’explorer des solutions pour minimiser son impact environnemental. Cela passe notamment par la conception de modèles plus efficaces et l’utilisation de sources d’énergie renouvelable.
Développement de matériel éco-énergétique : l’innovation au service d’une intelligence artificielle durable
La réduction de l’empreinte carbone de l’IA nécessite le développement de processeurs, de serveurs et de systèmes de refroidissement éco-énergétiques. Les chercheurs travaillent sur de nouvelles technologies pour minimiser la consommation d’énergie des centres de données. Cela comprend notamment les processeurs basse consommation et les systèmes de refroidissement par immersion.
Optimisation des algorithmes et des architectures de l’intelligence artificielle
En concevant des modèles d’IA plus efficaces et en réduisant leur complexité, il est possible de minimiser la consommation de ressources. Cette optimisation impacte aussi bien la phase d’entraînement que le déploiement des modèles. Pour cela, plusieurs techniques peuvent être mises en œuvre :
- Compression de modèle : la compression de réseau neuronal permet de réduire la taille d’un modèle sans perte de performance. Cette technique réduit les volumes de mémoire et de calcul nécessaires pour le stockage et l’exécution du modèle.
- Quantification de modèle : cette technique convertit les poids des paramètres en une représentation de données plus compacte. La quantification réduit la précision des données.
- Distillation de modèle : cette méthode d’apprentissage permet d’entraîner un modèle plus petit et plus simple, le modèle étudiant, en utilisant pour cibles les prédictions d’un modèle plus grand et plus complexe, le modèle enseignant. Ainsi, les connaissances et la capacité de généralisation de l’enseignant sont transférées à l’étudiant. Le système final moins complexe devient plus efficace en termes de vitesse d’exécution.
Utilisation des énergies renouvelables pour lutter contre le changement climatique et la pollution informatique
Il est possible de réduire significativement le bilan carbone de l’IA grâce aux sources d’énergie propre. Les centres de données et les infrastructures d’IA peuvent être alimentés par le solaire, l’éolien ou l’hydroélectricité. De nombreuses entreprises investissent dans des projets d’énergie renouvelable pour alimenter leurs systèmes centralisés. D’autres développent des infrastructures d’IA décentralisées. Celles-ci sont généralement moins énergivores. Elles peuvent aussi être alimentées par des sources d’énergie renouvelable locales.
La technologie numérique révolutionne notre vie quotidienne. L’utilisation massive d’un outil tel que ChatGPT engendre des préoccupations concernant son impact environnemental. Des solutions existent pourtant pour réduire le bilan carbone de l’IA. De l’optimisation des algorithmes à l’utilisation d’énergies renouvelables, il est impératif d’explorer des approches durables conciliant progrès technologique et meilleure gestion des ressources.