Découvrez comment la consommation d’énergie de l’IA pourrait être réduite de 70% d’après l’Université de Copenhague.
Découvrez comment la consommation d’énergie de l’IA pourrait être réduite de 70% d’après l’Université de Copenhague.
D’après Penn Today, la croissance rapide des modèles d’apprentissage en profondeur, tels que ceux utilisés dans les produits comme ChatGPT, a entraîné une augmentation de la consommation d’énergie dans les centres de données.
Ces installations, qui hébergent l’infrastructure informatique nécessaire au traitement des données, consomment une quantité d’énergie considérable pour maintenir en fonctionnement et refroidir les ordinateurs.
La consommation énergétique de l’IA, en particulier celle des grands modèles de traitement du langage comme ChatGPT, peut être considérable. Selon une estimation mentionnée dans un article de Nature, un seul prompt de ChatGPT peut consommer autant d’énergie que 40 recharges de smartphone.
Cette situation est exacerbée par la nécessité de construire de nouveaux centres de données pour répondre à la demande croissante (Penn Today).
L’étude mentionnée par Nature souligne que l’industrie de l’IA pourrait privilégier l’utilisation de moins d’énergie, développer des modèles plus efficaces et repenser la conception des centres de données pour limiter leur impact écologique.
Cela est illustré par le projet BigScience en France, qui a développé le modèle BLOOM, de taille similaire à GPT-3 d’OpenAI, mais avec une empreinte carbone nettement inférieure (Nature).
Selon une étude menée par des chercheurs de l’Université de Copenhague, il serait possible de réduire considérablement l’empreinte carbone des modèles d’intelligence artificielle sans sacrifier leur efficacité.
Cette recherche, qui sera présentée à la conférence ICASSP-2024, montre qu’en intégrant l’efficacité énergétique dès la conception des modèles d’IA, on pourrait diminuer leur empreinte carbone de 70 à 80%, tout en maintenant une performance élevée.
L’étude a analysé plus de 400 000 modèles de réseaux de neurones convolutifs, utilisés pour des applications comme l’analyse d’images médicales, la traduction linguistique, et la reconnaissance d’objets et de visages.
Basés sur ces analyses, les chercheurs ont créé une collection de modèles d’IA qui utilisent moins d’énergie pour accomplir une tâche donnée, tout en conservant des performances similaires.
En choisissant des modèles alternatifs ou en ajustant les modèles existants, des économies d’énergie de 70 à 80% pourraient être réalisées lors des phases d’entraînement et de déploiement, avec seulement une baisse de 1% ou moins en termes de performance. Ces résultats sont considérés comme une estimation conservatrice.
Pour plus de détails sur cette recherche et ses implications, la source complète peut être trouvée sur le site de l’Université de Copenhague.
Avant de se quitter…
Si cet article sur l’impact environnemental de l’IA vous a plu, n’hésitez pas à le partager sur les réseaux sociaux, à vous abonner à notre newsletter digitale et/ou à nous suivre sur Google Actualités pour recevoir nos prochains articles.
Vous pouvez également suivre nos meilleurs articles via notre flux RSS : https://www.leptidigital.fr/tag/newsletter-digitale/feed/ (il vous suffit de l’insérer dans votre lecteur de flux RSS préféré (ex : Feedly)).
Nous sommes aussi actifs sur LinkedIn, X, Facebook, Threads et YouTube. On s’y retrouve ?
À l’heure actuelle, je me consacre au journalisme avec une spécialisation en cybersécurité, intelligence artificielle et culture internet, tout en nourrissant un vif intérêt pour les domaines relatifs aux sciences humaines. Mon objectif principal est d’éclaircir et rendre accessible des sujets fréquemment perçus comme obscures ou complexes. Pour me contacter : [email protected]