Quelques jours avant le Sommet pour l'action sur l'Intelligence Artificielle (IA) qui se tiendra à Paris les 10 et 11 février, le gouvernement français vient d’annoncer la création de l'Institut national pour l'évaluation et la sécurité de l'intelligence artificielle (INESIA). Ses travaux porteront sur l'analyse des risques systémiques liés à l'IA dans le domaine de la sécurité nationale, le soutien à la mise en œuvre de la régulation de l'IA et l'évaluation de la performance et de la fiabilité des modèles d'IA.
Lire aussi : Intelligence artificielle : la France espère lever 2,5 milliards d'euros "au service de l'intérêt général"
Un hub d'expertises pour une IA de confiance
Piloté conjointement par le Secrétariat général de la défense et de la sécurité nationale (SGDSN) et la Direction générale des entreprises (DGE), l’INESIA ambitionne de devenir un centre d'expertise unique. Sans créer de nouvelle structure juridique, l'institut regroupera des acteurs clés tels que l'Agence nationale de la sécurité des systèmes d'information (Anssi), l'Institut national de recherche en sciences et technologies du numérique (Inria), le Laboratoire national de métrologie et d'essais (LNE) et le Pôle d'expertise de la régulation numérique (PEReN).
Cette initiative fait suite à la Déclaration de Séoul de mai 2024, où l’Union européenne et onze autres pays, dont les États-Unis, se sont engagés pour une IA sûre, novatrice et inclusive. L'INESIA a pour objectif de fédérer des acteurs nationaux et de renforcer la position de la France parmi les leaders mondiaux de l'IA.
Lire aussi : Confiance numérique et encadrement de l'IA au cœur des engagements stratégiques de la Cnil
Une collaboration internationale pour un développement responsable
L'INESIA s'inscrit au sein du réseau international d'AI Safety Institutes, dédié à la collaboration et au partage d’expertise technique entre des organisations similaires au Canada, en Corée du Sud, aux États-Unis, au Japon, au Kenya et à Singapour, ainsi qu'avec l'AI Office de la Commission européenne. Cette coopération internationale vise à promouvoir une vision commune de l'IA, axée sur la sécurité, l'inclusivité et la confiance.