L’IA dans la gendarmerie

21 juillet 20255 min

Pour faire face à l’évolution de la cybercriminalité et assister le gendarme dans ses tâches quotidiennes, la Gendarmerie nationale se forme et utilise l’intelligence artificielle. Le point avec Général Patrick Perrot, conseiller IA auprès du commandement du ministère de l’intérieur dans le cyber espace.

Général Patrick Perrot, conseiller IA auprès du commandement ©Gendarmerie nationale

Comment appréhendez-vous l’IA à la Gendarmerie nationale ?

Patrick Perrot. Nous avons construit depuis 4 ans une stratégie qui repose sur quatre piliers :

  • la formation : cela va de l’acculturation des gendarmes et des citoyens avec une revue bimestrielle Cultur’IA que l’on publie depuis 4 ans pour expliquer l’IA dans le champ de la sécurité intérieure jusqu’à la thèse de doctorat. On a créé une chaire IA et sécurité avec l’Institut supérieur électronique de Paris qui permet d’avoir des parcours doctoraux dans le domaine de l’IA. On fait aussi des formations auprès des forces de sécurité européennes par exemple ;
  • l’éthique, la réglementation et la conformité. Nous avons publié une charte éthique en 2021, participé aux discussions autour de l’IA Act et à l’expérimentation JOP 2024. Pour la conformité, nous avons une politique d’assurance qualité, très orientée sur l’analyse des risques systémiques de l’IA, à savoir les risques cyber et ceux sur les droits fondamentaux ;
  • les partenariats et la valorisation : l’idée c’est de ne pas travailler tout seul, d’avoir des partenariats avec des think tanks pour une ouverture sur la société, avec des industriels pour voir la capacité à développer nos systèmes, avec des centres de recherche pour anticiper les menaces à venir. C’est un devoir de redevabilité et de transparence. Si on associe IA et sécurité intérieure, on voit très vite Minority Report et le fantasme de la société de surveillance. Nous voulons expliquer ce que l’on fait ;
  • la recherche et le développement d’outils opérationnels. Il est essentiel de pouvoir avoir la maitrise des conditions d’utilisation des systèmes d’IA et de leur compréhension et disposer d’outils sur mesure. C’est la raison pour laquelle, nous développons des applications qui ont vocation à répondre aux missions très spécifiques qui sont les nôtres. Cela n’empêche nullement bien entendu l’achat de solutions sur étagère.

En IA, vous l’aurez compris, il est essentiel d’avoir une vision pour anticiper les bouleversements à venir de la criminalité en veillant à prévenir toute myopie stratégique encouragée par les effets de mode qui ne manquent pas.

Quels sont ces outils développés en interne ?

P. P. Nous disposons par exemple d’un outil d’analyse de vidéos pour détecter des objets particuliers. Un projet de détection des images à caractère pédopornographique est également en cours pour faciliter le travail du gendarme, le protéger psychologiquement et lui permettre d’être plus efficient. Nous travaillons aussi sur la détection des deepfakes même si c’est une course continue parce que les deepfakes s’améliorent tous les jours. Nous avons un outil de transcription automatique de la parole et un outil de traduction automatique qui utilisent l’IA. Il existe aussi des outils qu’on utilise à la carte dans des domaines très spécialisés comme les sciences criminalistiques pour améliorer la détection des empreintes digitales par exemple. Nous testons aussi des outils de vieillissement/rajeunissement de personnes dans le domaine de la recherche.

On participe également à des projets de recherche européens pour essayer d’améliorer la compréhension par l’IA des enquêtes judiciaires.

Nous pouvons exploiter des outils open source mais avons également bien conscience du risque inhérent à ces derniers.

Est-ce que les criminels utilisent beaucoup l’IA ?

P. P. Oui et de plus en plus. Dans le domaine de la pédopornographie, nous avons de nombreux cas d’utilisation des techniques de deepnudes et de deepfakes. Dans le domaine de l’entreprise, l’utilisation de deepfakes est aussi largement répandue et beaucoup plus courante qu’on ne le pense. On peut citer l’exemple d’un salarié d’une multinationale de Hong Kong qui avait transféré 26 millions de dollars à des escrocs après s’être fait piéger lors d’une « fausse » visioconférence. Les deepfakes peuvent également être à l’origine d’atteintes à la réputation des entreprises ou des personnes. L’IA constitue un catalyseur d’optimisation de l’efficacité, offre une plus grande surface d’attaque aux cybercriminels et génère de nouvelles formes d’attaques.

Quels sont d’après vous les enjeux à venir ?

P. P. L’enjeu prioritaire, c’est l’IA dans le champ cyber avec des attaques par l’IA sur les systèmes d’IA. On voit bien que c’est le terrain d’action des criminels aujourd’hui avec notamment les attaques adverses. Ces attaques faussent l’interprétation d’un système d’IA avec l’injection d’un bruit optimisé par exemple ou l’empoisonnement des données. On pourrait imaginer de fausses empreintes digitales injectées dans la base d’empreintes digitales de la police et de la gendarmerie. Imaginez les dégâts pour reconnaître un individu par exemple. Cela nous oblige à mieux sécuriser nos bases et à trouver des parades. Ne pas considérer comme une priorité l’IA dans le champ cyber serait une erreur manifeste en sécurité intérieure et entraînerait une incapacité à faire face à l’évolution de plus en plus technologique de la criminalité.

Il y a aussi un enjeu autour du cadre légal qu’il faut réussir à accélérer pour nous permettre de lutter à armes égales contre cette nouvelle criminalité. Si on veut garder notre souveraineté, il faut qu’on soit à la hauteur de ce défi. L’idée n’est pas simplement de développer les outils, c’est aussi de suivre leur évolution et leur utilisation dans la durée. Parce qu’un outil d’intelligence artificielle, ça évolue et ça peut dériver. Il est donc essentiel que nous mettions des garde-fous.

Enfin, il y a l’enjeu du développement des méthodes et aujourd’hui nous voyons poindre des systèmes d’IA de plus en plus autonomes qui compliqueront dans les années à venir la détermination des responsabilités tant sur le plan civil que pénal.

Partagez cet article !


Article extrait du n° 608 de Face au Risque : « Vidéosurveillance algorithmique » (juillet-août 2025).

Gaëlle Carcaly – Journaliste

Les plus lus…

Icône newsletter 2024

Inscrivez-vous
à notre
newsletter

Recevez toutes les actualités et informations sûreté, incendie et sécurité.

Logo WhatsApp 538px

Rejoignez notre
chaîne WhatsApp