Article réservé aux abonnés Archimag.com

L’IA générative pour les professionnels : les défis et les enjeux à relever

  • ia-generative-professionnels-defis-enjeux-relever

    ia-generatives-defis-professionnels
    L'IA générative est vectrice de changement et d'adaptation pour les professionnels (Freepik).
  • En quelques mois, l’essor de l’intelligence artificielle (IA), et en particulier de l’IA générative, a révolutionné nos pratiques et nos usages. Ces technologies, qui fascinent autant qu’elles inquiètent, redéfinissent notre rapport à l’information et au travail, tout en posant de sérieux défis quant à leur encadrement et leur impact environnemental.

    enlightenedCET ARTICLE A INITIALEMENT ÉTÉ PUBLIÉ DANS LE GUIDE PRATIQUE ARCHIMAG N°77
    mail Découvrez les différentes newsletters thématiques gratuites proposées par Archimag dédiées aux professionnels de l'information !


    47,6 milliards de dollars. C’est ce que pèse le marché européen de l’intelligence artificielle (IA) en 2024 selon IDC (International Data Corporation). Et ce bébé dodu est promis à une belle poussée dans les années qui viennent, puisqu’il devrait enregistrer un taux de croissance annuel composé de 33,7 % d’ici 2027. Selon IDC, cette croissance est particulièrement stimulée par les dépenses en IA génératives, qui augmentent trois fois plus vite que les autres dépenses, ainsi que par le segment des dépenses en logiciels, qui dépasse à lui seul ceux des matériels et des services réunis.

    Nouvel entrant dans la gouvernance de l’information

    Comme partout ailleurs, l’IA fait évidemment partie des sujets émergents dans le domaine de l’information numérique, des données et des documents. Le 13e Rapport annuel de la gouvernance de l’information numérique, réalisé par le groupe Serda Archimag et publié en février 2024, confirme cette percée de l’IA : “nouvel entrant dans la gouvernance de l’information, l’IA joue un rôle de plus en plus important en apportant des solutions à différentes étapes, notamment en ce qui concerne la gestion, l'analyse ou la protection des données au sein des organisations”, peut-on lire dans ce rapport.

    L'IA bientôt incontournable pour les professionnels

    Quelques chiffres permettent de mesurer si les usages actuels et à venir de l’IA pourraient peser bientôt sur la gouvernance de l’information (GI). Si 37 % des professionnels ne perçoivent pas encore la place de l’IA au sein de la gouvernance et si 20 % se montrent dubitatifs, 43 % des répondants sont déjà convaincus que l’IA a bien sa place dans un programme de GI. Trois domaines de la gouvernance sont particulièrement identifiés comme pouvant bénéficier des apports de l’IA : la Ged (gestion électronique de documents) et l’ECM (gestion de contenu d’entreprise), pour 54 % des répondants, l’automatisation des flux (53 %) et la veille (51 %). 

    1. La fiabilité de l’information à l’épreuve de l’IA générative

    “Les métiers de l’information sont parmi les mieux placés pour s’emparer des nouvelles technologies et notamment de l’intelligence artificielle”, confirmait Arnaud Tupinier, responsable du développement au sein d’Esprits Co, lors de la table ronde inaugurale de l’édition 2024 du salon I-Expo, fin mars 2024. Car la fiabilité de l’information fait partie des défis de l’IA. “La qualité des contenus qui alimentent l’IA est cruciale”, ajoutait Denis Berthault, ancien président du Groupement français de l’industrie de l’information (gf2i) lors de cette même table ronde. “Les détenteurs de contenus à haute valeur informationnelle (journaux, revues…) ont de l’or entre les mains. Mais ils vont devoir descendre au fond de la mine et se battre pour la valoriser”.

    ia-conversationnelle-fiabilite.jpgL’illusion de la fiabilité

    La question de la fiabilité de l’information et de sa confiance n’est pas nouvelle. Les plateformes numériques et les réseaux sociaux ont joué un rôle prépondérant dans l’essor et la diffusion des fake news et contribué à l’émergence d’une méfiance, et parfois même une défiance, vis-à-vis des sources officielles. Plus récemment, l’IA générative a permis la démocratisation des “deep fakes” et d’autres contenus faux ou discriminants. La mise à disposition du grand public de ChatGPT d’OpenAI, en novembre 2022, a permis à chacun d’identifier les opportunités phénoménales de cet outil… comme l’une de ses failles : la génération de contenus plausibles et convaincants, présentés comme fiables et authentiques, et au sein desquels il est souvent difficile de distinguer le vrai du faux. 

    En avril 2023, Jean-Gabriel Ganascia, spécialiste de l’IA, ex-président du Comité d’éthique du CNRS et membre du conseil scientifique de l’Observatoire B2V des Mémoires, commentait dans Archimag les propos de Jean-Noël Barrot, alors ministre chargé du Numérique, qui avait comparé ChatGPT à un “perroquet approximatif” : “le propos du ministre est plutôt juste, car ChatGPT répète des paroles comme un perroquet. Il peut faire illusion pendant un moment, mais il n’a aucun sens des réalités. On pourrait ajouter que ChatGPT est menteur comme un perroquet, mais cela n’est même pas vrai, car il n’a pas le sens de la réalité !”.

    Besoin de transparence

    En la matière, l’association Data For Good a développé un certain nombre de recommandations au sein d’un livre blanc. Aux utilisateurs, elle conseille de “ne pas faire une confiance aveugle aux modèles génératifs, et plus généralement à l’information diffusée sur internet”. Elle recommande par ailleurs de préciser le modèle utilisé et les conditions d'usage lors de l’utilisation d’un modèle génératif. “Il est important d’être transparent sur le travail effectivement réalisé pour que le lecteur final puisse adapter son niveau de confiance”, préconise Data For Good.

    Pour renforcer la fiabilité de l’information transmise par ce que l’association appelle “les rapporteurs d’informations artificiels”, c’est-à-dire les LLM (grands modèles de langage), elle recommande aux data scientists de porter attention à la véracité des sources utilisées lors de l’entraînement des modèles, de favoriser les approches pouvant citer leurs sources précisément et de surveiller les demandes effectuées et les réponses apportées. “A minima, les entités diffusant des modèles doivent pouvoir documenter les requêtes et réponses apportées aux sujets sensibles”, affirme Data For Good.

    Lire aussi : IA : comment Leboncoin améliore la pertinence de son moteur de recherche grâce aux LLM

    2. Encadrement et sécurité de l’IA

    Une enquête publiée par Archimag en juin 2024 révèle que 77 % des professionnels de l’information utilisent une ou plusieurs solutions d’IA génératives (gratuites ou payantes) personnelles dans le cadre de leur travail, c’est-à-dire des outils d’IA “clandestine” qui échappent au cadre de sécurité des organisations et donc à toute gouvernance.

    S’il existe bien sûr des solutions d’hébergement avec des espaces dédiés et fermés, ou encore des alternatives open source d’IA génératives pouvant être installées sur des serveurs locaux, rappelons néanmoins qu’en dehors de ces systèmes sécurisés, les textes rédigés par les utilisateurs d’agents conversationnels peuvent être collectés et partagés à des tiers, notamment pour améliorer les modèles, ouvrant la porte à la divulgation de données confidentielles ou même à l’espionnage industriel. En mai 2023, Bloomberg révélait que l’entreprise Samsung avait interdit à ses employés d’utiliser des chatbots basés sur l’IA. Cette mesure a été prise après la fuite accidentelle d’un code source interne sensible suite à son téléchargement sur ChatGPT par un ingénieur de l’entreprise.

    Le plan d’action de la Cnil

    Appréhender le fonctionnement des systèmes d’IA et leurs impacts pour les personnes (et notamment la protection des données transmises par les utilisateurs) fait justement partie du plan d’action de la Cnil relatif aux systèmes d’IA qu’elle a publié en mai 2023. “Les techniques innovantes utilisées pour la conception et le fonctionnement des outils d’IA posent des questions nouvelles sur la protection des données”, rappelle la Cnil, qui évoque notamment la loyauté et la transparence des traitements de données sous-jacents au fonctionnement de ces outils, la protection des données transmises par les utilisateurs lorsqu’ils utilisent ces outils, allant de leur collecte (via une interface) à leur éventuelle réutilisation, en passant par leur traitement par les algorithmes d’apprentissage automatique, ou encore les conséquences sur les droits des personnes sur leurs données, tant en ce qui concerne celles collectées pour l’apprentissage de modèles que celles qui peuvent être fournies par ces systèmes, telles que les contenus créés dans le cas d’IA génératives.

    En plus de ce premier axe de travail, la Cnil a développé trois autres volets dans son plan d’action : permettre et encadrer le développement d’IA respectueuses de la vie privée, fédérer et accompagner les acteurs innovants de l’écosystème IA en France et en Europe, et enfin auditer et contrôler les systèmes d’IA et protéger les personnes.

    L'AI Act impose aux entreprises de se conformer

    Rappelons également que la loi de régulation de l’intelligence artificielle, ou AI Act, a été largement adoptée par le Parlement européen le 13 mars 2024, puis par le Conseil de l’Union européenne le 21 mai. En plus de s'intéresser à l’harmonisation des règles concernant la mise sur le marché et l’utilisation de systèmes d’IA, la loi servira de garde-fou en matière d’exigences éthiques et de sécurité. “L'Europe est maintenant une référence mondiale en matière d'IA”, s’était réjoui Thierry Breton, commissaire européen au marché intérieur sur X en mars dernier. “Nous réglementons le moins possible, mais autant que nécessaire !”. Anticipant l’entrée en application du texte, et compte tenu du risque financier qu’il comporte pour les entreprises qui ne seraient pas en conformité avec lui, Forrester prédisait fin 2023 que 50 % des grandes entreprises européennes investiront de manière proactive dans la conformité en matière d’IA au cours de l’année 2024. 

    La cybersécurité face aux avancées technologiques

    Moins optimiste, ce même cabinet d’études prévoyait également qu’au moins trois violations de données seraient publiquement imputées à des codes générés par l’IA non sécurisée cette même année. “Les cybercriminels qui utiliseront ChatGPT pourront produire le texte de leurs attaques de phishing plus rapidement et automatiser l’opération pour créer des malwares simples”, expliquait à Archimag Stanislav Protassov, executive board member et cofondateur d’Acronis, entreprise spécialiste en cyberprotection, en avril 2023. “La technologie ne permet pas encore de créer de nouveaux malwares sophistiqués. Dans son état d’avancement actuel, elle ne perturbera pas le paysage des menaces autrement que par l’intensification de la fréquence des attaques.” 

    Au regard de l'impact des nouvelles menaces engendrées par le déploiement d'outils d'IA générative (IAG), notamment sur la confidentialité des données ou sur l'intégrité des systèmes d'information, l’Anssi a publié un guide de recommandations de sécurité pour les systèmes d'IAG reposant sur des LLM à destination des entreprises et des administrations.

    Lire aussi : AI Act : le calendrier d’application des mesures

    3. Un coût environnemental tout sauf artificiel 

    L’impact environnemental de l’IA générative constitue un autre enjeu important, et en la matière, c’est la phase d’entraînement des modèles qui est généralement pointée du doigt. Des chercheurs de l’Université de Berkeley, en Californie, se sont intéressés dès 2021 à la consommation d’énergie et à l’empreinte carbone de plusieurs grands modèles (T5, Meena, GShard, Switch Transformer et GPT-3). Selon eux, l’impact environnemental de leur phase d’entraînement est estimé à 552 tonnes CO2eq sur 15 jours, soit une énergie consommée de 1 287 MWh (environ 200 allers-retours entre Paris et New York ou 2 536 765 km parcourus en voiture).

    ia-act-conformite-cybersecurite.jpgDe nouveaux modèles plus énergivores 

    D’autres études ont été analysées, notamment l’évaluation de l’impact environnemental de Bloom, qui s’est révélé 18 fois inférieur à celui de GPT-3. “Différents facteurs entrent en compte dans la consommation d’énergie, comme le profil de consommation des serveurs utilisés, la durée de l’entrainement ou encore l’architecture du modèle”, indique Data For Good dans son livre blanc, tout en indiquant que la part des émissions de gaz à effet de serre liées à la phase d’inférence (exécution et déploiement du modèle) pourrait largement dépasser celle liée à l’entraînement : “dans ce cas, l’utilisation du modèle prend le dessus sur son entraînement en termes d’impact, notamment poussé par le nombre d’utilisateurs. Autrement dit, la consommation unitaire est plus faible, mais le volume est beaucoup plus élevé”. L’association s’est également penchée sur le cas de GPT-4 : “GPT-4 serait composé de 8 sous-modèles, chacun plus gros que GPT-3 pour un nombre total de paramètres d’environ 1 760 milliards”, explique Data For Good. “L’énergie consommée et les impacts à l’usage d’un tel modèle sont probablement entre 10 et 100 fois plus importants”.

    Vers une IA frugale ?

    “L’IA générative ne pourra se développer sans une remise en question de son empreinte écologique”, confirmait Laure Soulier, maîtresse de conférences à Sorbonne Université au sein de l’équipe “Machine Learning and Information Access”, dans la revue Polytechnique Insights en février dernier. “Ses modèles exigent, en effet, énormément de données et de puissance de calcul. Une nouvelle voie est ainsi déjà explorée, afin d’optimiser les ressources nécessaires : l’IA frugale”.

    Cette quête d’une IA plus “verte” intéresse en effet les chercheurs. Un article de CNRS Le journal confirme ces explorations, mais témoigne de l’absence d’une solution technique miracle qui permettrait d’augmenter l’efficacité de ces technologies en réduisant drastiquement leur demande énergétique. En la matière, la responsabilité des usagers reste, pour le moment, la piste essentielle.

    La place sociétale de l'IA à réimaginer

    impact-environnement-ia-generative-responsabilite.jpg“Il ne faut pas se leurrer, l’IA est considérée comme un vecteur de croissance économique par beaucoup de secteurs d’activité”, reconnaît dans cet article Gilles Sassatelli, directeur de recherche au Laboratoire d’informatique, de robotique et de microélectronique de Montpellier. “En l’état, tous les progrès scientifiques en l’efficacité énergétique des IA seront annulés par effet rebond”. Selon lui, les économies énergétiques réalisées ne sont pas vouées à être pérennisées, mais plutôt perçues comme une opportunité d’utiliser davantage les outils numériques. “Pour l’instant, aucun de ces modèles “émergents” ne passe réellement à l’échelle et ne peut rivaliser avec ceux d’IA conventionnels en production”, ajoute-t-il. “La question est finalement plus sociétale que scientifique : quelle place souhaitons-nous que les IA occupent dans la société de demain ?”

    Lire aussi : Un référentiel pour réduire l’impact environnemental de l’intelligence artificielle

    4. Emploi : serons-nous remplacés par l’IA ?

    Si la grande majorité des salariés navigue entre optimisme (40 %) et incertitude (41 %), un salarié français sur cinq (19 %) estime néanmoins que l’IA aura une répercussion négative sur son emploi. Il faut pourtant reconnaître que des signaux (de moins en moins faibles) ont donné quelques sueurs froides aux professionnels : dans nos domaines, citons notamment la société spécialisée dans la veille médiatique Onclusive, qui a annoncé en septembre 2023 procéder à un plan massif de licenciements visant près de la moitié de ses effectifs (plus de 200 personnes) en invoquant “un service plus rapide et plus fiable” grâce à l’apport de l’IA. En mars 2024, c’était au tour d’IBM France d’annoncer réduire ses équipes de 5 % (plus de 200 emplois) pour “profiter des gains de productivité offerts par l'intelligence artificielle (IA) afin de nous concentrer sur nos activités à forte valeur ajoutée”. Enfin, en avril dernier, l’entreprise Konica Minolta annonçait elle aussi la suppression prochaine de 6 % de ses effectifs (2 400 emplois) au sein de ses différentes filiales dans le monde. “Les investissements seront renforcés, y compris l’utilisation de l’IA générative, afin de déplacer le capital humain vers des opérations à forte valeur ajoutée”, précisait le groupe japonais. 

    5 % des emplois sur la sellette

    Mais alors, si l’IA générative peut remplacer les humains sur certaines tâches, s’apprête-t-elle à mettre des millions de personnes au chômage ? “L’IA ne doit susciter ni excès de pessimisme ni excès d’optimisme”, tempérait la Commission de l’IA dans un rapport remis en mars 2024. “Nous n’anticipons ni chômage de masse ni accélération automatique de la croissance. Dans les prochaines années, l’IA ne remplacera pas l’humain, de même qu’elle ne sera pas la solution à tous les défis de notre temps”. Et pour cause, selon ce rapport, seuls 5 % des emplois d’un pays comme la France pourraient être directement remplacés par l’IA. 

    La fonction publique sera plus durement touchée par la baisse d'emplois

    Si la Commission conclut que la diffusion de l’IA créera des emplois dans de nouveaux et d’anciens métiers, elle reconnaît néanmoins que certains secteurs pourraient connaître des baisses nettes d’emplois. C’est à cette question que se sont intéressés les élèves de l’Inet (Institut national des études territoriales), et plus précisément au sein de la fonction publique. Selon leur étude, 20 % des postes d'une commune témoin sont concernés, voire très concernés, par l’IA générative (5 % de ces postes sont très concernés et 15 % concernés). "Les filières administrative et culturelle sont nettement plus concernées que les filières technique, sociale et médico-sociale", constatent les auteurs. "Ce point est cohérent avec la capacité de l’IA générative d’effectuer des tâches de métiers de bureau ou de création, plutôt que des tâches manuelles". Deux fonctions semblent particulièrement visées : agent d’accueil et assistant de gestion. “Les agents de catégorie C représentent la part la plus importante des métiers très concernés par des évolutions potentielles", affirme l’Inet.

    Lire aussi : L'IA bouleverse le marché de l'emploi du secteur de l'information et de la communication

    ia-generatives-defis-emploi.jpgProtéger son emploi grâce à la formation

    Pour le secteur privé, c’est le cabinet de conseil et d’audit PwC qui a publié la dernière étude en date. Celle-ci confirme que 69 % des dirigeants d'entreprises s'attendent à ce que l'IA exige de nouvelles compétences de la part de leurs salariés. Surtout, elle révèle que le secteur de l'information et de la communication fait partie des domaines qui connaissent déjà une véritable transformation de leurs pratiques et réclament des professionnels formés à ces nouvelles technologies, avec une demande de candidats disposant de compétences en IA multipliée par cinq.

    Ce baromètre affirme aussi qu'il existe une corrélation positive en France entre les professions fortement exposées à l'IA et leur évolution de compétences. Un constat que partage le centre de formation Serda Compétences dans son enquête annuelle, publiée dans Archimag en mai dernier. Elle révèle que 76 % des professionnels de l’information-communication déclarent devoir consolider leurs compétences autour des IA. 8 % des répondants ont d’ailleurs déjà suivi une formation dans ce domaine et 65 % souhaitent se former rapidement, dans les 18 prochains mois.

    La maîtrise des algorithmes : une compétence à laquelle se former

    Cette envie de se former chez les professionnels de nos domaines explique certainement l’enthousiasme constaté au sein de nos professions face à la révolution annoncée de l’IA, car c’est cette montée en compétences qui permettra de nourrir leur employabilité. “Je ne pense pas que les professionnels de l'information vont être remplacés par des algorithmes, mais ils risquent d'être remplacés par des personnes qui maîtrisent ces algorithmes", indiquait la consultante et formatrice Véronique Mesguich à nos journalistes sur le salon Documation en mars 2024. Et d’ajouter : “je suis optimiste, car la majorité des professionnels vont se former pour utiliser au mieux l'IA”.  
     

    À lire sur Archimag
    Les podcasts d'Archimag
    Êtes-vous prêts à renoncer à des services numériques ou à vos appareils électroniques pour le bien commun ? Face à l'urgence climatique, notre rapport au progrès et à la technologie est souvent remis en question. Archimag Podcast a rencontré Alexandre Monnin, philosophe, directeur du master Sciences, Stratégie et Design pour l’Anthropocène à l’ESC Clermont Business School et auteur de l'ouvrage "Politiser le renoncement", aux Éditions Divergences. Il est aussi co-initiateur du courant de la redirection écologique, dont il nous explique le principe.
    Publicité

    Serda Formations Data 2023