Publicité

IA génératives : un danger pour la protection des données personnelles

  • protection-donnees-personnelles-chatgpt.jpg

    rgpd-protection-donnees-personnelles-danger-intelligence-artificielle-generative
    « Sans accompagnement, l’IA générative menace la vie privée », explique Patrick Blum délégué générale de l'AFCDP. (Freepik)
  • A travers la voix de son délégué général, Patrick Blum, l’Association française des correspondants à la protection des données à caractère personnel (AFCDP) alerte sur l’usage des intelligences artificielles (IA) génératives.

    mail Découvrez toutes les newsletters thématiques gratuites d'Archimag dédiées aux professionnels de la transformation numérique, des bibliothèques, des archives, de la veille et de la documentation.

    Si l’AFCDP reconnaît les avancées technologiques qu’apportent les agents conversationnels, tels que ChatGPT ou encore Bard, elle met en avant différents points de vigilance.

    Dans une tribune portée par son délégué général Patrick Blum, l’Association française des correspondants à la protection des données à caractère personnel pointe les risques d’utilisations malveillantes pour la production de fausses informations, d’images, de textes biaisés ou trafiqués pour induire en erreur et ce, de manière industrialisée, mais aussi d’entorses à la propriété intellectuelle.

    Lire aussi : ChatGPT, Bard... les IA génératives vont-elles bouleverser vos métiers ?

    « Avec la prolifération de contenus générés automatiquement, il devient nécessaire d’apprendre à détecter leur toxicité éventuelle. Demain, saura-t-on contrer le détournement de ces outils vers la multiplication d’armes de désinformation massive conçues pour nuire aux entreprises ou pour déstabiliser des états ? », se questionne Patrick Blum. 

    Fake news industrialisées grâce aux IA génératives

    Outre ces dérives, la question de la protection de la vie privée représente un danger majeur pour l’AFCD. Notamment à cause d’un usage massif et non encadré des données personnelles.

    La problématique de la protection des données personnelles fait déjà l’objet de plaintes de la part de pays européens comme l’Espagne et l’Italie. La Péninsule à d’ailleurs ordonné l'arrêt du service pour non-respect du RGPD.

    Lire aussi : ChatGPT : L'Italie ordonne l'arrêt du service pour non respect du RGPD

    « En France, plusieurs plaintes ont également été déposées auprès de la CNIL, dont celle du député Eric Bothorel qui a noté que le service introduisait de nombreuses erreurs dans sa propre biographie, sans permettre la moindre rectification possible », reprend Patrick Blum. « Le CEPD/EDPB (Comité européen de la protection des données) vient de créer une “task force” sur le sujet pour coordonner les actions des autorités de contrôle nationales. »

    Un usage massif des données personnelles

    En prenant le cas de ChatGPT, l’AFCD explique en quoi l’agent conversationnel pose problème. « En pratique, le service présente de nombreuses infractions au RGPD », détaille Patrick Blum. « Tout d’abord, une insuffisance d’information sur le traitement des données. Si, dans les mentions légales sur ses usages, l’éditeur indique la nature des données traitées, il reste imprécis sur la finalité de son service et sur la base juridique applicable. En pratique, ces informations ne semblent concerner que les données d’accès et d’utilisation du service, mais pas les données collectées et restituées par le moteur conversationnel. Et en cas de restitution inexacte d’informations personnelles, l’utilisateur ne peut ni proposer une correction ni faire opposition au traitement de ses données. »

    Lire aussi : Moratoire sur les intelligences artificielles : faut-il mettre les IA sur pause ?

    Autre problématique soulevée : l'imprécision autour de l’étendue chronologique et les sources des corpus analysés. 

    Pour l’association, ces risques de diffusion d’informations confidentielles et ou de données personnelles via les requêtes adressées à l’IA sont amplifiés à l'échelle de l’entreprise. « Ces renseignements emmagasinés nourrissent la base de connaissances d’OpenAI », constate Patrick Blum.

    « Du point de vue de l’AFCDP, ChatGPT et ses usages restent à encadrer, plutôt qu’à interdire », déclare Patrick Blum. « Sans attendre le futur Règlement européen sur l’intelligence artificielle, qui risque d’ailleurs d’être dépassé par les outils d’IA conversationnelle, il convient certainement d’imposer aux éditeurs concernés la plus grande transparence sur les sources exactes de données de l’IA générative, en particulier celles contenant des données à caractère personnel, et le respect des obligations de base prévues par le RGPD, en particulier le droit d’accès, le droit de rectification et le droit d’opposition. » 

    À lire sur Archimag
    Les podcasts d'Archimag
    Êtes-vous prêts à renoncer à des services numériques ou à vos appareils électroniques pour le bien commun ? Face à l'urgence climatique, notre rapport au progrès et à la technologie est souvent remis en question. Archimag Podcast a rencontré Alexandre Monnin, philosophe, directeur du master Sciences, Stratégie et Design pour l’Anthropocène à l’ESC Clermont Business School et auteur de l'ouvrage "Politiser le renoncement", aux Éditions Divergences. Il est aussi co-initiateur du courant de la redirection écologique, dont il nous explique le principe.
    Publicité