Selon une nouvelle étude, la technologie de l’intelligence artificielle pourrait être exploitée de diverses manières par des groupes terroristes du monde entier, tandis que les agences de réglementation gouvernementales et les entreprises technologiques semblent terriblement mal préparées à faire face à cette menace croissante.
L’étude « IA générative et terrorisme », menée par le professeur Gabriel Weimann de l’Université de Haïfa, sera publiée dans son prochain livre, AI in Society.
Weimann démasque les menaces réelles et pertinentes associées à l’intérêt croissant des terroristes et des extrémistes pour les outils basés sur l’IA, depuis les manuels en ligne sur la façon d’utiliser l’IA générative pour renforcer les tactiques de propagande et de désinformation, jusqu’à un groupe affilié à Al-Qaïda annonçant qu’il commencerait à organiser des ateliers d’IA en ligne, jusqu’au guide d’assistance technique de l’État islamique sur la façon d’utiliser en toute sécurité les outils d’IA générative tels que les chatbots comme ChatGPT.
« Nous sommes au milieu d’une révolution technologique rapide, pas moins importante que la révolution industrielle des XVIIIe et XIXe siècles – la révolution de l’intelligence artificielle », écrit Weimann.
« Cette révolution multidimensionnelle et spectaculaire fait craindre que la société humaine ne soit pas préparée à l’essor de l’intelligence artificielle. »
L’étude décrit les risques les plus probables associés à l’accès des terroristes à la technologie de l’IA :
Propagande efficace, où l’IA peut être utilisée pour produire et distribuer du contenu influent à diverses populations cibles, plus rapidement et plus efficacement que jamais, et diffuser des discours de haine, des idéologies radicales et violentes à des fins de recrutement.
La diffusion de désinformation peut servir aux terroristes dans leurs campagnes de peur, et les modèles d’IA peuvent être une arme puissante dans les guerres de désinformation modernes en utilisant des technologies comme les deep fakes qui peuvent rapidement atteindre un large public dans un laps de temps extrêmement court.
Recrutement interactif où les chatbots basés sur l’IA peuvent faciliter et améliorer le recrutement d’individus pour des complots terroristes en automatisant les interactions virtuelles avec des individus ciblés et peuvent améliorer la portée de l’interactivité virtuelle des individus et des groupes ciblés.
Améliorer les capacités d’attaque, où les modèles d’apprentissage profond tels que ChatGPT ont le potentiel de permettre aux terroristes d’apprendre, de planifier et de coordonner leurs activités avec une efficacité, une précision et un impact plus grands que jamais.