Sans surprise, l'intelligence artificielle est devenue pour les délégués à la protection des données (DPO) un sujet de discussion incontournable. Selon le baromètre trimestriel réalisé par l'AFCDP, 67% des DPO estiment que leur fonction sera impactée par le futur règlement européen sur l'intelligence artificielle (AI Act). Parce qu'elle touche aux données personnelles, l'IA "représente des défis en raison de sa capacité à traiter d'énormes quantités de données" explique l'association représentative des DPO ; "l'IA peut potentiellement accéder, analyser et utiliser des informations sensibles sur les individus."
Pour autant, près d'un quart des DPO (23%) considèrent que l'IA n'est pas, à ce jour, un sujet de préoccupation car aucun projet d'intelligence artificielle n'est engagé dans leur organisation.
Accorder l'innovation technologique et la conformité réglementaire
Dans tous les cas, les DPO devront probablement ajouter une corde à leur arc avec la révolution IA. Pour Paul-Olivier Gibert, Président de l’AFCDP, "revient ici la difficulté déjà rencontrée maintes fois par nos membres, d'accorder l'innovation technologique et la conformité réglementaire, voire l’éthique. Protéger sans freiner le développement et l’innovation. Le challenge ne va, encore une fois, pas être simple."
L'AI Act est une proposition de règlement européen qui a pour objectif de réguler les usages de l'IA en Europe. Il classe les systèmes d'intelligence artificielle en quatre catégories selon leur niveau de risque pour les droits fondamentaux dans l'Union européenne en fonction du type d'application (risque minime, limité, élevé ou inacceptable). L'entrée en vigueur du texte est prévue en 2026.