"L’intelligence artificielle (IA) de demain sera-t-elle plus durable ?", c’est l’une des questions inévitables qui s’est posée au Sommet pour l’IA, le 10 et 11 février au Grand Palais de Paris. Alors que son impact environnemental est régulièrement décrié, les modèles open source présentent l’avantage de pouvoir répondre aux défis de transparence, d’accessibilité et de durabilité de l’IA.
Plusieurs grandes entreprises et institutions ont mis en avant l’importance de rendre les modèles d’IA plus ouverts afin de permettre un contrôle plus large des algorithmes et d’éviter leur centralisation par quelques acteurs privés. Par exemple, un modèle open source peut être affiné (fine-tuning) avec des ensembles de données spécifiques plutôt que d’être reconstruit entièrement, réduisant ainsi la consommation d’électricité et les émissions de CO₂ liées aux calculs intensifs.
Lire aussi : Emmanuel Macron annonce 109 milliards d'euros d'investissement dans l'IA
Des initiatives durables pour l’IA
Annoncé pendant le Sommet, le projet Roost (Robust Open Online Safety Tools), lancé par OpenAI, Google et Discord et d’autres entreprises tech, exploite des modèles d’IA avancés pour renforcer la sécurité en ligne. Il propose une suite d’outils open source destinés à protéger les mineurs et à combler les lacunes en cybersécurité. Avec un financement de 27 millions de dollars, Roost vise à rendre les solutions de protection plus accessibles et efficaces.
Parmi les nouveaux outils numériques évoqués, le projet Open-R1, développé par l’entreprise franco-américaine Hugging Face, cherche à rendre le modèle chinois DeepSeek-R1 totalement open source. Malgré son code en open source, Deepseek n’a pas rendu publics ses jeux de données d’entraînement, ni son fonctionnement. Hugging Face entend donc décrypter ces zones d’ombre par un processus de rétro-ingénierie dont chaque étape fera l’objet de documentation publique sur la plateforme collaborative GitHub.