IA: Quels enjeux pour la sécurité numérique?
Qu’est-ce que l’IA aujourd’hui ?
« Le couteau qui coupe la viande est le même qui peut blesser. »
L’intelligence artificielle (IA) est un ensemble de techniques informatiques qui permettent à des machines d’accomplir des tâches normalement réservées aux humains. Concrètement, ce sont des programmes capables d’apprendre à partir de données : par exemple, on entraîne une IA avec des milliers d’images de chats jusqu’à ce qu’elle reconnaisse un chat toute seule.
Aujourd’hui, l’IA est partout : elle recommande des vidéos sur nos téléphones (publicité ciblée), traduit des textes automatiquement et peut même tenir une conversation (les fameux chatbots comme ChatGPT, Deepseek, Gimini, etc.). Elle sait créer des images réalistes à partir de rien, ou encore imiter des voix humaines.
Cette avancée fulgurante fait rêver, mais elle a aussi un côté obscur : des individus malintentionnés peuvent exploiter l’IA pour tromper, manipuler ou nuire en ligne. En particulier, la sécurité numérique – c’est-à-dire la protection de nos informations et de nos systèmes informatiques – est directement concernée par ces usages détournés de l’IA.
Deepfakes et désinformation : quand le faux semble vrai
« Quand la bouche ment, le regard trahit. »
Mais si l’IA commence à manipuler aussi le regard… que nous reste-t-il pour reconnaître la vérité ?
Parmi les menaces les plus répandues de l’IA figure le phénomène des deepfakes. Il s’agit de fausses vidéos ou audio ultra-réalistes générés par des algorithmes entraînés sur des vidéos existantes. En remplaçant le visage ou la voix d’une personne par une autre, on peut faire dire n’importe quoi à n’importe qui – et obtenir un résultat bluffant.
Ces “hyper trucages” peuvent servir à la manipulation et à la désinformation : par exemple, diffuser une fausse déclaration d’un chef d’État en vidéo, ou créer de toutes pièces un discours audio attribué à une personnalité publique. La diffusion de deepfakes sur le web constitue ainsi une nouvelle menace technologique à l’ère des fake news. Manipulation, humiliation, diffamation... les dangers des deepfakes se multiplient et deviennent de plus en plus préoccupants à mesure que la technologie progresse.
Ces contenus falsifiés peuvent avoir des conséquences bien réelles. En 2019, dans un pays africain, une vidéo controversée de son premier responsable– que certains soupçonnaient d’être un deepfake – a semé le doute sur son état de santé et contribué à une crise politique majeure. C’est peut-être la première fois qu’une simple suspicion de deepfake a pu déstabiliser un pays, et ce ne sera sûrement pas la dernière.
Sur d'autres contrées, on a vu apparaître de fausses vidéos pendant des conflits. L'on se souvient de cette vidéo truquée (deepfake) d’un chef suprème des armées demandant à ses troupes de déposer les armes qui a circulé sur internet. Cela illustre à quel point l'IA peut servir à propager une campagne de désinformation à grande échelle.
Ces cas illustrent un problème de fond : à mesure que l’IA rend les faux contenus indiscernables du réel, il devient difficile de démêler le vrai du faux. Le danger est double. D’une part, des individus malveillants peuvent fabriquer de toutes pièces des infos pour manipuler l’opinion. D’autre part, le public risque de perdre confiance en toute image ou vidéo, y compris les vraies – on parle du “bénéfice du menteur”, quand plus rien n’est cru authentique. Dans un monde déjà saturé d’infox (fake news), l’IA risque d’enfoncer le clou.
Cyberattaques automatisées l’IA, un outil au service des hackers
« Le voleur d’hier avait besoin de crocheter la serrure. Celui d’aujourd’hui n’a besoin que d’un clic. »
Les moyens du mal ont évolué, il faut aussi moderniser nos moyens de défense.
Moins visibles que les deepfakes, d’autres menaces tout aussi sérieuses se développent dans l’ombre : l’IA peut devenir, s'il ne l'est pas déjà, le bras droit des cybercriminels. En effet, elle permet d’automatiser et d’améliorer certaines attaques informatiques. Par exemple, le très classique hameçonnage (phishing) – ces emails frauduleux cherchant à voler nos mots de passe ou notre argent – devient bien plus efficace grâce à l’IA.
Jadis, on repérait souvent ces arnaques à leurs fautes d’orthographe ou à leur style maladroit. Désormais, une IA comme ChatGPT peut rédiger des messages parfaitement convaincants, dans un français impeccable et adapté à la culture locale. Elle peut même personnaliser le texte en intégrant des informations vous concernant, récupérées sur les réseaux sociaux. En automatisant cette ingénierie sociale, l’IA permet de générer en masse de faux emails, de faux sites web et même de faux profils sur mesure.
Aussi, vous pourriez recevoir un jour un message apparemment légitime de votre banque ou de votre patron, alors qu’il s’agit d’une arnaque finement élaborée par une intelligence artificielle. La victime clique plus facilement, et l’attaque passe sous le radar.
Au-delà du phishing, les pirates informatiques explorent l’IA pour d’autres usages. Des chercheurs en cybersécurité ont montré qu’il est possible de détourner des IA du commerce (comme ChatGPT) afin de générer du code malveillant – virus, rançongiciels (ransomware) ou logiciels espions. De fait, selon un rapport de la société CheckPoint, des hackers utilisent ChatGPT pour développer de puissants outils de piratage et même créer de faux chatbots se faisant passer pour de jeunes victimes afin de piéger des cibles.
Autrement dit, l’IA sert à fabriquer de nouvelles armes numériques. Ce qui autrefois nécessitait de solides compétences en informatique est désormais à la portée de tous.
Cette démocratisation des cyberattaques fait froid dans le dos. Un individu malintentionné, même inexpérimenté, peut lancer des offensives sophistiquées en s’appuyant sur des outils d’IA faciles d’accès (souvent gratuits).
Imaginez des malware capables de modifier leur code en continu pour échapper aux antivirus, ou des attaques coordonnées par des bots intelligents 24h/24 : le champ de bataille numérique est en train de changer d’échelle.
Usurpation d’identité 2.0 : l’IA peut se faire passer pour vous
« Le masque peut cacher le visage, mais pas les intentions. »
Mais si le masque devient parfait, comment reconnaître celui qui vous trompe ?
L’autre grand risque lié à l’IA touche à l’usurpation d’identité et à l’arnaque personnalisée. On connaissait les faux profils sur Facebook ou les emails de “prince nigérian” peu crédibles ; mais l’IA permet désormais d’imiter fidèlement votre voix, votre visage, voire votre façon d’écrire. Cette capacité ouvre la porte à des arnaques d’un genre nouveau, bien plus troublantes.
Un exemple parlant : en 2019, une entreprise britannique a été escroquée de 243 000 dollars – plus de 140 millions de francs CFA – par des criminels ayant imité la voix de son PDG grâce à l’IA.Les malfaiteurs ont fait passer un coup de téléphone en se faisant passer pour le patron et ont ordonné un virement de fonds à un compte frauduleux. Les employés n’y ont vu que du feu, convaincus d’avoir affaire à leur directeur tant la voix au bout du fil semblait authentique.
Plus récemment, aux États-Unis d'Amérique, une mère de famille en Arizona a vécu un véritable cauchemar : elle a reçu un appel d’un inconnu qui prétendait avoir kidnappé sa fille, et pour la convaincre, il lui a fait entendre en direct les pleurs de sa fille implorant de l’aide. Sauf que la jeune fille n’était pas en danger.Il s'agissait plutôt d'une voix clonée par une IA, reproduisant parfaitement les intonations et l’émotion de l’adolescente après quelques secondes d’enregistrement.
Qui ne serait pas bouleversé en croyant entendre un proche en détresse au bout du fil ?
Au-delà des arnaques par téléphone ou vidéo, l’IA menace aussi nos systèmes de sécurité biométrique. De plus en plus, nos visages et nos voix servent de mots de passe : on déverrouille son smartphone par reconnaissance faciale, on s’authentifie par la voix (système de contrôle d'accès, banque, service client, etc.) … Or des pirates peuvent utiliser l’IA pour “berner” ces systèmes. Des outils de deepfake vidéo permettent d’usurper un visage sur une caméra ; il existe même des techniques de « morphing » qui génèrent à partir d’une simple photo un visage hybride capable de tromper certains algorithmes de reconnaissance.
Ainsi, sans jamais vous voir en personne, un escroc pourrait se faire passer pour vous auprès d’une institution en ligne, ouvrir un compte à votre nom ou accéder à vos informations privées. L’IA offre aux voleurs d’identité un arsenal inédit. Là où il fallait voler des papiers ou apprendre à imiter une signature, il suffit maintenant de récupérer quelques données publiées sur internet (une photo, une vidéo, un enregistrement) pour fabriquer un “double numérique” crédible.
L’IA : un formidable outil à encadrer avec vigilance
« Le fleuve qui déborde peut fertiliser… ou tout emporter. »
C’est en érigeant les bonnes digues qu’on canalise sa force.
Face à cette liste de menaces, une précision essentielle s’impose : l’IA n’est pas “un mal” en soi. C’est un outil puissant, qui peut servir autant le bien que le mal. Utilisée de manière vertueuse, l’intelligence artificielle peut améliorer la sécurité numérique au lieu de la compromettre. Par exemple, les mêmes techniques d’IA peuvent aider à détecter plus rapidement les cyberattaques ou à filtrer les fake news. On développe des IA capables d’identifier les deepfakes en analysant des anomalies invisibles à l’œil nu.
L’IA aide aussi les entreprises à repérer des activités anormales sur leurs réseaux, renforçant ainsi la cybersécurité défensive. Plus largement, dans la vie quotidienne, elle apporte des progrès : meilleure analyse médicale, aides à l’éducation, services plus personnalisés. .
Cependant, comme toute technologie disruptive, l’IA est un couteau à double tranchant. Pour que le tranchant utile l’emporte sur le tranchant dangereux, il faut absolument poser un cadre.
Des réflexions sont en cours un peu partout dans le monde : par exemple, l’UNESCO a adopté en 2021 une recommandation internationale pour une IA éthique et responsable. De même, l’Union africaine et plusieurs pays africains commencent à se pencher sur des stratégies nationales ainsi que notre pays en matière d’IA, conscientes qu’il faut en tirer parti pour le développement tout en protégeant les citoyens.
Il est indispensable d’encadrer légalement les usages de l’IA (interdire par exemple les deepfakes malveillants, punir les escroqueries à l’IA, exiger de la transparence sur les contenus générés). Il faut également investir dans la formation et la sensibilisation : apprendre aux utilisateurs à repérer un faux contenu, former les ingénieurs aux questions d’éthique, doter les forces de l’ordre des moyens de traquer la cybercriminalité 2.0.
L’IA doit rester notre alliée, pas devenir une menace incontrôlable. Cela passe par une mobilisation à tous les niveaux.
Pour une vigilance collective face à l’IA
« Un seul bras ne peut pas entourer l’arbre. »
Ce n’est qu’ensemble que nous pouvons faire face à un défi aussi vaste que l’intelligence artificielle.
En définitive, l’intelligence artificielle ouvre un nouveau chapitre de la révolution numérique, qui concerne aussi le Burkina Faso et l’Afrique toute entière. Nos sociétés, de plus en plus connectées, ne seront pas épargnées par ces tendances mondiales. Mais nous avons une chance : celle d’anticiper et de nous préparer dès maintenant. La vigilance face aux risques de l’IA doit désormais être l’affaire de tous.
Ainsi, l'Agence Nationale de Sécurité des Systèmes d'Information du Burkina Faso (ANSSI) recommande entre autres :
- Aux citoyens : Informez-vous sur ces nouveaux dangers, exercez votre esprit critique. Ne croyez pas trop vite une vidéo choc ou un message alarmiste sans vérifier sa source. Protégez vos données personnelles en ligne et méfiez-vous de tout contact inhabituel qui prétend être un proche ou un représentant d'une structure publique ou privée – une vérification supplémentaire peut éviter bien des drames.
- Aux jeunes : Vous qui maniez les outils numériques au quotidien, soyez à l’avant-garde de la prudence. Sensibilisez vos amis, vos parents, à ces enjeux. Apprenez à reconnaître un contenu potentiellement falsifié (il existe des astuces pour déceler les deepfakes, et des outils en ligne peuvent aider[1]). Ne participez pas vous-mêmes à diffuser de fausses informations, même pour rire : le tort causé peut être énorme.
- Aux médias : Continuez de jouer votre rôle de décodeurs (mission d'analyse, de vérification et d'explication). Chaque fois qu’un doute existe sur une vidéo ou une info virale, menez l’enquête et expliquez au public comment vous avez authentifié (ou invalidé) le contenu. Parlez davantage des risques liés à l’IA, pour éviter que la population ne les découvre trop tard. Vos tribunes, vos émissions, sont essentielles pour l'éducation et à l’information à l’ère de l’IA.
- Aux décideurs : Politiques, chefs d’entreprise, responsables associatifs… il vous appartient de mettre en place les garde-fous. Adaptez le cadre juridique à l'évolution du numérique. Soutenez la recherche et les initiatives locales pour développer notre propre expertise en IA – ne laissons pas uniquement les autres définir les règles du jeu. Accompagnez les programmes de sensibilisation grand public. Une population bien informée est la meilleure défense contre les abus.
En conclusion, l’intelligence artificielle est une révolution passionnante, porteuse d’innombrables avancées. Mais elle comporte aussi des risques concrets pour la sécurité numérique. Deepfakes, désinformation, cyberarnaques, usurpation d'identité, cyberattaques automatisées … ces menaces peuvent sembler techniques, lointaines, voire dignes d’un film de science-fiction. Pourtant, elles sont bien réelles , et concernent autant un internaute burkinabè qu’un autre à l’autre bout du monde. Ne cédons ni à la panique ni à la paralysie : misons sur la connaissance, la prudence et l’action collective. C’est ensemble – citoyens, jeunes, médias, décideurs – que nous pourrons tirer le meilleur de l’IA en déjouant ses pièges. Restons vigilants, et l’avenir numérique n’en sera que plus sûr et prometteur.
« Quand les fourmis s’unissent, elles peuvent déplacer un éléphant. »
Avec vigilance et solidarité, nous ferons de l’intelligence artificielle un moteur de progrès… et non une menace.
A travers cet article, l'ANSSI ouvre une série de publications dédiée à la cybersécurité pour mieux saisir les enjeux et les défis qui façonnent notre cyberespace.
[1] Cette partie fera l’objet d’un autre article
0 COMMENTAIRE(S)
Laisser un commentaire