CET ARTICLE A INITIALEMENT ÉTÉ PUBLIÉ DANS ARCHIMAG N°379
Au sommaire :
- Dossier : digitalisation responsable : l'IA rebat les cartes
- Des éditeurs décidés à concilier IA et sobriété numérique
- Consommer l'IA générative : oui, mais avec modération !
- Les données au cœur de la mesure de l’impact social et environnemental
Découvrez Le Brief de l'IT, la newsletter thématique gratuite d'Archimag qui vous informera sur les sujets de la digitalisation, de l'intelligence artificielle, de l'IT, de l'information et des data. Toujours plus en phase avec vos problématiques et vos projets du quotidien, retrouvez cette newsletter toutes les deux semaines.
Quoi de mieux qu’une intelligence artificielle (IA) générative pour répondre à une question sur elle-même : combien consomme une intelligence artificielle générative pour apporter une réponse à un prompt (une requête) ? Pour ChatGPT, "la consommation d’un prompt dépend de plusieurs facteurs, notamment de la longueur du texte, du type de modèle utilisé et de la manière dont il est configuré. En général, chaque mot ou “token” dans un prompt peut correspondre à une certaine quantité d’unités de calcul. Pour des estimations précises, il faudrait connaître les spécificités du modèle et la façon dont il est déployé. En gros, plus le prompt est long, plus il consomme de ressources".
Une réponse prudente, proche de celle de Gemini (l’IA générative de Google) qui reconnaît la difficulté de la question : "la consommation d’un prompt, c’est-à-dire la quantité de ressources informatiques nécessaires pour traiter une requête dans un modèle de langage comme moi, est un sujet complexe qui dépend de plusieurs facteurs : complexité de la requête, modèle de langage utilisé, infrastructure informatique…"
Heureusement, certains chercheurs - bien humains, ceux-là - sont plus concrets. Selon Shaolei Ren (Université de Californie), une réponse d’une centaine de mots générée par ChatGPT reviendrait à consommer une bouteille d’eau et à allumer 14 ampoules Led pendant une heure.
Pour une empreinte de l’IA aussi légère que possible
De son côté, la filière numérique française s’interroge également sur le coût environnemental de l’intelligence artificielle générative. Lors de sa première intervention en tant que secrétaire d’État en charge de l’intelligence artificielle et du numérique, le 24 septembre dernier devant le Conseil économique, social et environnemental, Clara Chappaz n’a pas manqué de rappeler les réalités : "je ne peux m’empêcher de penser à l’impact environnemental de ces algorithmes : la consommation des ressources, l’impact sur la biodiversité, l’importance de penser avec frugalité…"
Une culture d'écoconception
Les acteurs du numérique, quant à eux, ont planché sur le thème de la sobriété et rendu un rapport qui regorge de recommandations en matière d’usages : "AI for Green & Green AI". "Il est devenu évident que l’IA peut non seulement coexister avec la décarbonation, mais devenir une véritable alliée dans cette quête", indique ce rapport, coécrit par Numeum, l’Institut G9+, le Cigref, Planet Tech'Care et le Hub France IA. "Nous sommes convaincus que nous sommes tous capables de contribuer à ce que l’empreinte de l’IA sur notre planète soit aussi légère que possible".
La première recommandation porte sur le développement d’une culture d’écoconception et d’écoconsommation : "mettez en place des formations régulières pour les dirigeants et employés sur les avantages environnementaux et économiques du Green AI et de l’AI for Green, mettant en lumière des cas d’usage réussis et les meilleures pratiques sectorielles". Il est également conseillé de ne lancer que des projets IA qui répondent à un vrai besoin de l’organisation. Le cas échéant, "éduquez et outillez les consommateurs et les utilisateurs finaux pour qu’ils comprennent leur impact environnemental lorsqu’ils utilisent l’IA." Une démarche qui passe par le concept de "moins, mais mieux" concernant l’utilisation des technologies.
Repenser sa relation avec l’IA
Autre recommandation, l’adoption de pratiques centrées sur les données. Une démarche qui vise à reconnaître les données comme pivot central de transformation et d’intégration de l’IA dans tous les secteurs de l’entreprise. "Considérez les données comme le cœur de la stratégie durable de l’entreprise (…) Transformez les données en un levier de changement, capable de décloisonner et d’amplifier l’impact de l’IA, tout en sensibilisant les employés à leur rôle critique dans la gestion durable des données."
Pour autant, la mise en place de ces préconisations va inévitablement buter sur la complexité de l’intégration de l’IA dans les stratégies de décarbonation. Celles-ci devront probablement être déployées par paliers en tenant compte des retours d’expérience des uns et des autres. "Ces recommandations se veulent être un socle pour une transformation durable, invitant chaque acteur à repenser activement sa relation avec l’IA sous l’angle de l’écologie", précisent les auteurs du rapport. "En adoptant ces principes, nous ouvrons la voie à une ère où l’IA peut se mesurer à l’aune de son efficacité, de son innovation et de son harmonie avec notre environnement."
Le fine-tuning par défaut
Autre association en pointe sur la question environnementale, Data For Good a recensé en 2023, dans le livre blanc "Les grands défis de l’IA générative", les bonnes pratiques à destination des utilisateurs au sens large : les internautes dans le cadre des loisirs, mais aussi les data scientist dans le cadre professionnel, par exemple. Les premiers sont invités à s’interroger sur leurs pratiques et à limiter l’usage des modèles génératifs au nécessaire. "Il faut envisager et préférer des solutions techniques moins gourmandes quand cela est nécessaire (recours à des templates, des moteurs de recherche classiques)". Un conseil qui prend tout son sens si l’on songe aux 5,4 milliards de personnes connectées à internet dans le monde, soit 66 % de la population mondiale susceptibles de faire chauffer les serveurs !
Pour les seconds, les recommandations sont évidemment plus exigeantes : "le fine-tuning [le réglage fin] d’un modèle de classification est beaucoup plus pertinent, frugal et facile à entraîner avec des techniques de few shot learning qu’avec de l’IA générative". Le few shot learning désigne une méthode d’apprentissage automatique où un modèle est entraîné à classer des items en fonction de leur similarité à partir de très peu de données. De façon très concrète, il s’agit de ne pas recourir systématiquement au modèle d’IA générative le plus puissant (ChatGPT-4, par exemple). Cela peut également prendre la forme de systèmes de routage automatiques qui choisiront le modèle le plus pertinent et le plus frugal en fonction du cas d’usage.
Lire aussi : L'Afnor publie une méthodologie pour mesurer et réduire l'impact environnemental de l'IA
Prévenir plutôt que guérir
Aux yeux de l’association Data For Good, la partie se joue donc en amont et un principe doit prévaloir : prévenir plutôt que guérir. "Cette réflexion autour de la sobriété commence avant même la conception d’un modèle d’IA en en étudiant ses usages. Le travail du data scientist consistera d’abord à valider l’intérêt du futur modèle auprès de ses potentiels utilisateurs, qu’ils soient internes à une entreprise ou auprès du grand public, puis à définir son champ d’application et à être transparent sur les choix techniques".
Qui est prêt à jouer le jeu ?
Une question demeure : qui est prêt à jouer le jeu ? Selon Data For Good, au fur et à mesure que l’IA générative s’est démocratisée, l’information disponible sur les méthodes et les durées d’entraînement a "drastiquement diminué pour ce qui concerne les acteurs privés". Il semble désormais que la course aux plus gros modèles soit bel et bien lancée. Selon une fuite d’informations, GPT-4 posséderait 170 000 milliards de paramètres, contre 175 milliards pour la version antérieure GPT-3.5…