NEWS #Digitale : envie de recevoir nos meilleurs articles ?  Inscription → 

Impact environnemental de l’IA : pourrait-elle un jour devenir verte ?

Découvrez comment la consommation d’énergie de l’IA pourrait être réduite de 70% d’après l’Université de Copenhague.

40 recharges de smartphone, c’est beaucoup et c’est ce que représenterait la consommation énergétique d’un seul prompt sur ChatGPT. Face à ce constat, d’après une étude de l’université de Copenhague il serait pourtant possible de réduire cette consommation de 70 à 80%.
Site écoresponsable

L’impact environnemental de l’IA

D’après Penn Today, la croissance rapide des modèles d’apprentissage en profondeur, tels que ceux utilisés dans les produits comme ChatGPT, a entraîné une augmentation de la consommation d’énergie dans les centres de données.

Ces installations, qui hébergent l’infrastructure informatique nécessaire au traitement des données, consomment une quantité d’énergie considérable pour maintenir en fonctionnement et refroidir les ordinateurs.

La consommation énergétique de l’IA, en particulier celle des grands modèles de traitement du langage comme ChatGPT, peut être considérable. Selon une estimation mentionnée dans un article de Nature, un seul prompt de ChatGPT peut consommer autant d’énergie que 40 recharges de smartphone.

Cette situation est exacerbée par la nécessité de construire de nouveaux centres de données pour répondre à la demande croissante​ (Penn Today)​.

Un pas vers l’environnement

L’étude mentionnée par Nature souligne que l’industrie de l’IA pourrait privilégier l’utilisation de moins d’énergie, développer des modèles plus efficaces et repenser la conception des centres de données pour limiter leur impact écologique.

Cela est illustré par le projet BigScience en France, qui a développé le modèle BLOOM, de taille similaire à GPT-3 d’OpenAI, mais avec une empreinte carbone nettement inférieure​ (Nature)​.

Ecoresponsabilité et performance : un défi à relever ?

Selon une étude menée par des chercheurs de l’Université de Copenhague, il serait possible de réduire considérablement l’empreinte carbone des modèles d’intelligence artificielle sans sacrifier leur efficacité.

Cette recherche, qui sera présentée à la conférence ICASSP-2024, montre qu’en intégrant l’efficacité énergétique dès la conception des modèles d’IA, on pourrait diminuer leur empreinte carbone de 70 à 80%, tout en maintenant une performance élevée.

L’étude a analysé plus de 400 000 modèles de réseaux de neurones convolutifs, utilisés pour des applications comme l’analyse d’images médicales, la traduction linguistique, et la reconnaissance d’objets et de visages.

Basés sur ces analyses, les chercheurs ont créé une collection de modèles d’IA qui utilisent moins d’énergie pour accomplir une tâche donnée, tout en conservant des performances similaires.

En choisissant des modèles alternatifs ou en ajustant les modèles existants, des économies d’énergie de 70 à 80% pourraient être réalisées lors des phases d’entraînement et de déploiement, avec seulement une baisse de 1% ou moins en termes de performance. Ces résultats sont considérés comme une estimation conservatrice.

Pour plus de détails sur cette recherche et ses implications, la source complète peut être trouvée sur le site de l’Université de Copenhague.

Avant de se quitter…

Si cet article sur l’impact environnemental de l’IA vous a plu, n’hésitez pas à le partager sur les réseaux sociaux, à vous abonner à notre newsletter digitale et/ou à nous suivre sur Google Actualités pour recevoir nos prochains articles.

Vous pouvez également suivre nos meilleurs articles via notre flux RSS : https://www.leptidigital.fr/tag/newsletter-digitale/feed/ (il vous suffit de l’insérer dans votre lecteur de flux RSS préféré (ex : Feedly)).

Nous sommes aussi actifs sur LinkedIn, X, Facebook, Threads et YouTube. On s’y retrouve ?

Un avis ? post

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *