17.02.2025
Anastasiia Chabaniuk
Auteur, expert financier chez Traders Union
17.02.2025

La France renforce la sécurité et la gouvernance de l’IA avec INESIA

La France renforce la sécurité et la gouvernance de l’IA avec INESIA La France crée INESIA pour renforcer la sécurité et la gouvernance mondiale de l’intelligence artificielle.

​Face aux enjeux croissants liés à l’intelligence artificielle, la France inaugure INESIA, un institut dédié à l’évaluation et à la sécurisation des systèmes d’IA. 

Dans un effort majeur pour assurer la transparence et la sécurité de l’intelligence artificielle, la France a officiellement annoncé la création de l’Institut national pour l’évaluation et la sécurité de l’IA (INESIA). Placé sous l’autorité du gouvernement, l’institut vise à encadrer les modèles d’IA et à établir des normes internationales en matière de sécurité et de transparence. Le but étant de renforcer la gouvernance de l’IA par la recherche, l’évaluation et la coopération internationale.

Un institut sous l’égide de la défense nationale

D’après In Diplomacy, INESIA sera placé sous la tutelle du Secrétariat général de la défense et de la sécurité nationale (SGDSN) relevant du cabinet du Premier ministre, en collaboration avec la Direction générale des entreprises (DGE). Son objectif principal est de développer des outils techniques avancés et des cadres réglementaires robustes afin de garantir que les systèmes d’IA soient sûrs et éthiques avant leur déploiement.

L’initiative française s’aligne sur un mouvement mondial visant à encadrer l’IA, notamment avec le réseau international des ‘AI Safety Institutes’, lancé lors du sommet de Bletchley Park en 2023. INESIA rejoint ainsi une série d’instituts similaires à travers le monde qui collaborent pour établir des normes globales en matière d’évaluation et de gouvernance des modèles d’IA.

Vers une IA plus responsable et sécurisée

Dans le cadre d’une coopération internationale, la France a participé à un exercice conjoint d’évaluation des modèles d’IA, spécifiquement pour les applications en cybersécurité. Singapour, le Japon et le Royaume-Uni ont joué un rôle clé dans ce projet, tandis que la France a fourni des bases de données essentielles aux tests de cybersécurité. Cette collaboration vise à améliorer la sûreté des modèles d’IA à travers plusieurs langues et contextes d’application. Le lancement d’INESIA marque une étape significative dans la construction d’un écosystème de l’IA plus transparent et sécurisé. En alliant expertise scientifique, régulations et partenariats internationaux, la France entend jouer un rôle central dans la définition des futures normes de sûreté pour l’intelligence artificielle.

Ce matériel peut contenir des avis de tiers, ne constitue pas un conseil financier et peut inclure du contenu sponsorisé.