Article réservé aux abonnés Archimag.com

IA générative : comment utiliser les grands modèles de langage au quotidien

  • utiliser-grand-modele-langage-quotidien.jpg

    Utiliser-grand-modele-langage-quotidien
    Les possibilités de structuration de contenus des modèles de langage sont également une de leurs grandes forces. Il est très facile pour les LLM de formater le même contenu textuel sous des formes différentes. (freepik)
  • Depuis plus d’un an déjà, les intelligences artificielles génératives sont annoncées comme un bouleversement pour les professionnels de l’information. Examinons dans cet article des cas d’usage concrets ne nécessitant pas d’abonnements à des outils payants (sauf exception).

    enlightenedRETROUVEZ CET ARTICLE ET PLUS ENCORE DANS NOTRE GUIDE PRATIQUE : IA GÉNÉRATIVE : L'UTILISER DANS SES PROJETS PROFESSIONNELS
    mail Découvrez toutes les newsletters thématiques gratuites d'Archimag dédiées aux professionnels de la transformation numérique, des bibliothèques, des archives, de la veille et de la documentation.


    1. Marketing documentaire et LLM 

    Le marketing documentaire, qui consiste, pour les documentalistes et les veilleurs, à promouvoir en interne les produits et services qu’ils proposent, devrait être l’aspect nécessitant le plus d’investissement de leur part. En effet, c’est là que tout le travail effectué préalablement devient visible et potentiellement utile. Malheureusement, il s’agit d’une partie du processus trop souvent négligée, notamment lors de la phase initiale de projets documentaires. 

    Cette approche nécessite des compétences et des appétences pour la communication et la promotion, qui ne sont pas si courantes dans nos métiers. Les intelligences artificielles génératives peuvent ici nous être utiles à plusieurs niveaux. 

    Analyse critique de livrables

    Les modèles de langage (LLM) peuvent nous aider à évaluer des livrables de manière critique et proposer des suggestions d’amélioration. Bien entendu, notre regard reste primordial, car aucun LLM n’aura jamais suffisamment de compréhension du contexte pour bien appréhender pleinement nos objectifs de communication ("jamais" n’étant pas si catégorique qu’on le souhaiterait si l’on se projette dans dix ans...). Ils peuvent néanmoins offrir des idées et perspectives pour réviser, orienter ou réorganiser nos contenus, agissant en somme comme un regard externe sur nos productions.

    Voici un exemple de prompt à utiliser pour l’amélioration de livrables. Notez que le document à évaluer peut être copié-collé ou, mieux, téléchargé dans ChatGPT-4 ou Copilot :

    Critique le livrable ci-joint/ci-dessous, identifie ses forces et faiblesses, et propose des recommandations pour l’améliorer.
    ###Éléments pour préciser les objectifs###
    [Spécifiez ici les objectifs du livrable : public cible, objectifs stratégiques, etc.]
    ###Critères d’évaluation###

    • Pertinence et clarté des informations
    • Support aux objectifs stratégiques
    • Identifie les problèmes, comme par exemple le manque de personnalisation ou la surcharge d’informations

    ###Recommandations###
    Présente tes recommandations et propose, si nécessaire, une structure révisée du livrable.

    Création de personas

    Les personas sont très utilisées dans le marketing pour créer des représentations archétypales d’utilisateurs ou de clients. Basés sur des données réelles ou réalistes, ces profils sont développés pour permettre de mieux saisir les besoins, les comportements et les objectifs des utilisateurs vis-à-vis d’un produit ou d’un service. 

    Dans un premier temps, nous utiliserons donc un modèle de langage pour générer des personas qui reflètent les caractéristiques de nos clients internes. Dans un second temps, nous engagerons un dialogue avec elles, afin de mieux saisir leurs perspectives. Bien qu’il soit tout à fait évident que ces simulations n’auront jamais la richesse d’interactions réelles avec nos clients internes, cette méthode peut être très utile pour anticiper leurs réactions et préparer des éléments de réponses avant de réelles rencontres.

    Exemple de prompt de création de persona :

    Pour développer une persona détaillée, veuillez fournir les informations suivantes :

    • Département ou fonction : indiquez le département ou la fonction de la persona au sein de l’organisation ;
    • Rôle et responsabilités : quels sont les principales responsabilités et le rôle de cette persona dans l’organisation ?
    • Objectifs professionnels : quels sont les objectifs professionnels de cette persona ?
    • Challenges internes : quels défis internes cette persona rencontre-t-elle régulièrement ?
    • Préférences de communication : comment cette persona préfère-t-elle communiquer au sein de l’organisation (e-mail, réunions, messagerie instantanée, etc.) ?
    • Attentes vis-à-vis des services supports : qu’attend cette persona des services ou produits internes proposés par l’organisation ?

    Création de logos et d’illustrations pour les livrables

    L’amélioration des livrables peut également passer par les intelligences artificielles (IA) génératives, comme Midjourney ou DALL-E, qui peuvent nous donner des idées de mise en page d’un document, de chartes graphiques ou encore de logos. C’est en passant par des prompts adaptés que nous obtiendrons ce type d’aide.

    Voici le prompt utilisé (doit être traduit en anglais pour Midjourney) : 

    Génère l’image d’un rapport interne d’une entreprise fictive dont le nom est [NOM]. La double page  doit être conçue avec un texte concis et des éléments visuels tels que des diagrammes et des graphiques [TYPES DE GRAPHIQUES] qui représentent les données. Les couleurs à utiliser pour la charte graphique sont [COULEURS]. Pas trop chargé.

    gp77_3_4_illustr_1_exemple_livrable.jpg
    Exemple de rapport interne factice généré par Midjourney. (DR)

    Une fois la maquette obtenue, il faudra passer par un outil d’aide à la conception comme Canva, qui est suffisamment simple pour être utilisé par des non-graphistes et intègre également des IA génératives (texte et images). D’autres services, comme Gamma, sont en mesure de générer des rapports ou des présentations (diapositives) à partir d’un texte déjà rédigé.

    gp77_3_4_illustr_2_exemple_presentation_gamma.jpg
    Exemple de présentation de texte générée automatiquement par Gamma (y compris l’image). (DR)

    2. Recherche assistée par l’IA

    Certains services combinent les fonctionnalités génératives des modèles de langage et les résultats issus du web. Ils utilisent des moteurs de recherche traditionnels pour collecter les données puis les synthétisent. Des tests récents (́voir cet article) nous amènent à mettre en avant Copilot et Perplexity qui permettent ce fonctionnement en mode dit "RAG" (retrieval augmented generation ou génération augmentée de récupération).

    Recherche d’information

    Perplexity est capable de mener des recherches précises, notamment si on utilise le mode "Pro" (30 recherches gratuites par 24 heures). Le système tente alors de mieux "comprendre" le besoin informationnel en passant par plusieurs étapes, puis propose une réponse synthétique à la question, avec lien vers les sources.

    gp77_3_4_illustr_3_exemple_recherche_perplexity_0.jpg
    Exemple de synthèse de recherche proposée par Perplexity. (DR)

    Recherche de mots-clés associés à un thème

    Ces services peuvent également être particulièrement utiles pour définir et enrichir un champ lexical spécifique : 

    Donne-moi le champ lexical du terme "métadonnées".

    gp77_3_4_illustr_4_exemple_mots-cles_metadonnees_copilot.jpg
    Résultats proposés par Copilot. (DR)

    Cela permet d’obtenir très facilement du vocabulaire pertinent pour lancer des recherches sur les moteurs web ou les bases de données.

    Sourcing

    Ces services peuvent également s’avérer utiles pour repérer des sources, notamment lorsque l’on doit travailler sur un sujet nouveau.

    Voici un exemple de prompt de sourcing :

    Quelles sources web surveiller pour faire une veille sur le secteur de la gestion de l’eau en France ? Donne-moi les URL.

    gp77_3_4_illustr_5_exemple_sourcing_veille_eau_copilot.jpg
    Résultats du sourcing dans Copilot. (DR)

    Et si l’on souhaite continuer à lancer des requêtes booléennes avancées dans Google, on peut toujours demander à AI Search Whisperer (google.digitaldigging.org/index2.html) de nous aider à les créer à partir d’une question en langage naturel :

    Propose-moi des rapports ou des documents récents traitant de veille stratégique ou d’intelligence économique.

    gp77_3_4_illustr_6_exemple_sourcing_veille_ai_search_whisperer.jpg
    Propositions de requêtes booléennes à lancer dans Google par AI Search Whisperer. (DR) 

    3. Exploiter les informations issues de la veille

    L’exploitation de l’information collectée par le dispositif de veille ou suite à des recherches ponctuelles est le cœur du dispositif, puisque c’est ici que se crée la valeur apportée par les veilleurs et les analystes. L’expertise humaine, qui va enrichir et relier les informations, est au cœur de cette phase. Elle prendra la forme d’étapes successives incluant généralement le traitement, l’analyse, la synthèse et l’interprétation.

    Indexation automatique

    Ainsi, le traitement documentaire débute généralement par une phase d’indexation qui consiste à ajouter des métadonnées aux éléments collectés afin de mieux les retrouver ultérieurement. Des fonctionnalités de suggestion automatique existaient déjà sur nombre de plateformes de gestion documentaire, mais n’utilisaient pas la puissance des LLM. En passant par cette technologie, elles vont se généraliser tant pour les tâches de classification de documents que pour celles de proposition d’ajouts de métadonnées.

    En attendant, on peut facilement tester ces possibilités en utilisant des prompts adaptés :

    Analyse le texte suivant selon les critères spécifiés :
    1. Classifie le contenu du texte par matière (par exemple, juridique, éducatif, technique, etc.) ;
    2. Indexe les principaux sujets et mots-clés trouvés dans le texte.
    TEXTE : [COLLER LE TEXTE À ANALYSER]

    Aide à l’analyse

    Aucun modèle de langage n’a, pour l’instant, de capacités d’analyse propres. Toutefois, ils peuvent simuler un processus de raisonnement en se basant sur les informations qu’ils ont assimilées à ce sujet durant leur phase d’entraînement. En cela, ils peuvent être intéressants pour stimuler notre réflexion, en proposant des angles et points de vue variés, susceptibles de nous apporter de nouvelles perspectives sur un sujet.

    Là encore, il faudra passer par des prompts ayant pour objectif de "challenger" notre vision de l’existant. Ceux où l’on fait jouer des rôles au LLM (role prompting) sont particulièrement adaptés à ces tâches. Par exemple :

    En tant qu’expert en sciences de l’information, quelles questions te poserais-tu pour comprendre les défis liés à la gestion des données massives dans la recherche en sciences humaines ?

    On peut également leur demander de nous accompagner dans la création de scénarios dans un objectif d’anticipation :

    En tant qu’expert en sociologie de l’environnement, peux-tu me donner cinq prédictions sur les changements dans les attitudes et pratiques sociales en matière de durabilité environnementale sur les cinq prochaines années ?

    Notez qu’afin d’obtenir des résultats plus qualitatifs, il est possible d’utiliser une persona "experte" du domaine à traiter que vous aurez préalablement générée via le LLM.

    Exploitation de documents

    Les modèles de langage peuvent nous aider à exploiter des documents ou des corpus documentaires existants. C’est d’ailleurs le principal type de projet de nombreuses organisations, publiques et privées, qui souhaitent les faire travailler sur des bases de connaissances existantes (remontées d’incidents clients, Ged, contenus présents dans des plateformes ou répertoires de veille) et... qui découvrent soudainement l’importance d’avoir des métadonnées propres et des bases de données entretenues.

    Deux types de services existent pour cela : les premiers, plus simples, permettent de "dialoguer" avec un seul document à la fois ; d’autres proposent d’interroger un corpus documentaire (́retrouvez un test d’une cinquantaine
    de ces services ici). ChatPDF est un bon exemple de service du premier type. Il peut être utilisé gratuitement pour des documents conséquents et propose des "invites à questions" qui facilitent la compréhension initiale de leur contenu.

    gp77_3_4_illustr_7_exemple_chatpdf_0.jpg
    Interface de ChatPDF montrant les "invites à questions" proposées par le système, ainsi qu’une première réponse. Ici sur un ouvrage de 70 pages. (DR)

    Si vous souhaitez vous familiariser avec des outils "RAG" permettant de traiter des corpus documentaires, vous pouvez par exemple tester Cody.ai ou encore des services orientés sur l’exploitation de publications scientifiques, comme Scispace ou Elicit.

    gp77_3_4_illustr_8_interface_scispace.jpg
    Interface d’interrogation de Scispace. (DR)

    Attention : ne chargez pas dans ces services de documents à usage interne ou susceptibles de comporter des contenus personnels ou confidentiels. Pour cela, il faudra attendre de disposer d’un LLM interne et sécurisé.

    4. Diffuser et communiquer sa veille

    La diffusion et la communication de livrables peuvent grandement bénéficier des apports des IA génératives, comme nous l’avons déjà vu ci-dessus. Mais d’autres usages existent :

    Résumé automatique

    Le résumé automatique fait partie des fonctionnalités les plus populaires proposées par les LLM. Il est facile à mettre en œuvre à partir d’un simple prompt, mais il existe aussi de nombreuses extensions pour navigateur qui facilitent cette tâche. C’est par exemple le cas de Suite ChatGPT, qui va résumer en un clic la page web ou le contenu de la vidéo YouTube sur laquelle vous vous trouvez.

    gp77_3_4_illustr_9_suite_chatgpt_-_resumez_tout_0.jpg
    Exemple de résumé automatique d’un article en ligne par Suite ChatGPT - Résumez tout ! (DR)

    Réécriture

    Le propre d’un modèle de langage est de générer du texte à l’infini. Ainsi, si vous lui demandez de réécrire un texte existant, il est capable d’en générer une nouvelle variante à chaque itération, jusqu’à épuisement des possibilités. Réécrire un "chapô", une conclusion d’article ou tout autre élément, tout en conservant son sens initial, est donc en passe de devenir une commodité comme une autre, au même titre que la correction automatique ou la traduction. Encore faudra-t-il voir ce qu’en diront les jurisprudences, qui ne manqueront pas de sortir sur ces sujets.

    Voici un exemple de prompt à utiliser pour cela :

    Réécris ce texte ou Reformule ce texte ou Améliore ce texte
    [COLLEZ LE TEXTE A TRAITER]

    Simplification, adaptation aux différents publics

    Afin d’adapter des contenus à des publics internes variés, il est possible de demander de l’aide aux LLM, qui sont parfaitement capables de "comprendre" ce que sont les registres de langage. Dans cet objectif, vous pouvez tester et adapter le prompt suivant :

    Adapte le texte suivant selon le niveau de complexité spécifié :

    • Niveau 1 (Débutant) : utilise des phrases très simples et des mots courants ;
    • Niveau 2 (Intermédiaire) : utilise un langage clair avec quelques termes techniques simplifiés ;
    • Niveau 3 (Avancé) : résume le texte en préservant les détails techniques essentiels.

    Niveau de complexité choisi : [Insérez ici le niveau 1, 2 ou 3]
    Texte Original : [Insérez le texte à simplifier ici]

    Utiliser les capacités de présentation / structuration des LLM

    Les possibilités de structuration de contenus des modèles de langage sont également une de leurs grandes forces. Il est très facile pour les LLM de formater le même contenu textuel sous des formes différentes. 

    Testez par exemple ce prompt :

    Présente ce texte dans 3 formats différents :
    1. Liste à puces ;
    2. Paragraphe de 280 caractères pour publication sur X ;
    3. Tableau.
    Texte : [COLLEZ ICI LE TEXTE A ADAPTER]

    Mais ils peuvent être aussi utilisés pour créer des cartes heuristiques. Il faut simplement leur demander un format qui pourra être importé dans un logiciel ou un service de mindmapping. 

    Vous pouvez par exemple utiliser ce prompt :

    Génère le code Markmap d’une mindmap structurée par thèmes à partir du texte
    suivant : [COLLEZ ICI LE TEXTE A TRANSFORMER EN MINDMAP]

    Il s’agira ensuite de copier le code fourni par le LLM (ChatGPT 3.5, Copilot) et de le coller dans le service gratuit Markmap.js.org (markmap.js.org/repl).

    gp77_3_4_illustr_10_carte_heuristique_chatgpt3.5_1.jpg
    Exemple de carte heuristique générée avec ChatGPT 3.5. (DR)

    5. Conclusion

    Comme on a pu le constater, les usages des IA génératives dans le cadre des métiers de l’information sont innombrables et le champ d’expérimentation infini. Les fonctionnalités et usages que l’on peut tester à ce jour, souvent en passant par des outils et services tiers (́vous pouvez compléter les outils et ressources présentés dans cet article par ce "Kit de démarrage pour une utilisation quotidienne des modèles de langage"), seront de plus en plus intégrés dans les plateformes documentaires, de veille ou d’archivage existantes. Mais aussi dans les suites bureautiques, comme on peut déjà le constater avec certaines versions d’Office 365 ou de Google Docs. 

    Une fois encore, la meilleure chose que les professionnels de l’information puissent faire est d’apprivoiser ces nouveaux outils afin de les maîtriser. Plutôt que l’inverse...

    À lire sur Archimag
    Les podcasts d'Archimag
    Rencontre avec Stéphane Roder, le fondateur du cabinet AI Builders, spécialisé dans le conseil en intelligence artificielle. Également professeur à l’Essec, il est aussi l’auteur de l’ouvrage "Guide pratique de l’intelligence artificielle dans l’entreprise" (Éditions Eyrolles). Pour lui, "l’intelligence artificielle apparaît comme une révolution pour l’industrie au même titre que l’a été l’électricité après la vapeur".
    Publicité