fr
Terrorism free logo from Wikipedia Commons
25 Mar 2024

Experts en sécurité : Les moteurs d'IA gratuits pourraient être piratés pour aider les terroristes

fr

Les modèles d'IA gratuits sur l'internet se sont révélés faciles à pirater et les experts en sécurité craignent désormais que l'IA ne soit utilisée pour renforcer les capacités des terroristes.

Dans un article paru sur SVT.se, la police secrète suédoise s'inquiète du fait que l'IA pourrait être utilisée pour multiplier la capacité des terroristes à faire des dégâts lors d'attaques.

Le journal télévisé suédois a récemment réalisé un court reportage dans lequel il a rencontré le jeune entrepreneur Oliver Edholm, qui a piraté un modèle d'IA téléchargeable sur l'internet et a supprimé les verrous de sécurité afin de lui poser des questions auxquelles il lui serait normalement interdit de répondre.

Normalement, les modèles d'IA ont pour instruction de ne pas répondre à des questions sur la destruction massive ou sur la manière de nuire aux gens. Dans cet exemple, le modèle d'IA déverrouillé donne des exemples sur la manière dont une attaque de destruction massive pourrait être menée contre Stockholm en empoisonnant l'approvisionnement en eau.

"Je pense qu'il est bon que les gens soient informés du fait que cela est possible", déclare Edholm à SVT.se.

"S'il y a des terroristes ou des acteurs étatiques qui, auparavant, ne pouvaient pas mettre à exécution une menace complexe, peut-être qu'aujourd'hui, grâce à l'IA, ils peuvent gagner en capacité", déclare Anders Arpteg, responsable de l'IA et des données au sein de la police secrète suédoise, Säpo.

L'IA pourrait être utilisée pour nuire de diverses manières

Dans un article publié en 2024 sur le site web du Combating Terrorism Center, Generating Terror : The Risks of Generative AI Exploitationdes inquiétudes sont exprimées quant à la possibilité d'utiliser l'IA pour générer et distribuer des contenus de propagande plus rapidement et plus efficacement que jamais auparavant. Ce contenu peut être utilisé à des fins de recrutement ou pour diffuser des discours de haine et des idéologies radicales. Les robots alimentés par l'IA peuvent également amplifier ces contenus, ce qui les rend plus difficiles à détecter et à contrer :

Attaques automatisées : Les terroristes peuvent utiliser l'IA pour mener des attaques de manière plus efficace, par exemple en utilisant des drones ou d'autres véhicules autonomes.

Exploitation des médias sociaux : L'IA peut également être utilisée pour manipuler les médias sociaux et d'autres plateformes numériques afin de diffuser de la propagande et de recruter des partisans.

Cyberattaques : L'IA peut être utilisée par des groupes extrémistes pour améliorer leur capacité à lancer des cyberattaques contre des cibles, ce qui peut causer des dommages importants.

Dans la publication de 2021 Algorithmes et terrorisme : L'utilisation malveillante de l'intelligence artificielle à des fins terroristesles Nations unies s'inquiètent du fait qu'à mesure que l'IA se répand, les barrières à l'entrée seront abaissées en réduisant les compétences et l'expertise technique nécessaires pour l'utiliser.

"Le risque que des technologies sophistiquées déjà développées tombent entre de mauvaises mains est toujours présent. L'intérêt croissant pour les drones et leur utilisation dans les zones de conflit, ainsi que pour le développement et le déploiement de systèmes d'armes de plus en plus autonomes dans les environnements de combat, fait craindre que ces armes puissent être saisies ou achetées ou acquises illégalement par des acteurs non étatiques, tels que des groupes terroristes. Cette possibilité est d'ailleurs l'un des arguments souvent utilisés par les experts qui demandent l'interdiction du développement de systèmes d'armes autonomes", conclut le rapport.