Le FMI publie un avertissement dont la sévérité est inhabituelle pour l'institution : les violations de cybersécurité des institutions financières assistées par l'IA sont qualifiées d'"inévitables", et le risque qu'elles font peser sur la stabilité financière mondiale est qualifié de "systémique". La distinction est analytiquement cruciale : un risque systémique n'est pas un risque qu'une institution peut gérer individuellement par des investissements en cybersécurité — c'est un risque qui, s'il se matérialise, se propage à travers les interconnexions du système financier indépendamment des protections de chaque acteur.
Dans le cadre d'analyse du FMI, le risque systémique de l'IA en cybersécurité ne réside pas dans la gravité d'une brèche individuelle (bien que celle-ci puisse être catastrophique). Il réside dans la capacité de l'IA à reproduire une même attaque simultanément contre des centaines d'institutions, en adaptant automatiquement le vecteur à chaque cible. Une attaque classique exige une adaptation manuelle pour chaque cible : l'attaquant doit étudier l'infrastructure, trouver les failles spécifiques, développer un exploit sur mesure. Une attaque assistée par IA peut automatiser cette phase de reconnaissance et d'adaptation, permettant une échelle d'attaque sans précédent — des centaines ou des milliers d'institutions touchées simultanément par des variantes d'une même brèche. C'est cette échelle — et non la gravité unitaire — qui constitue le risque systémique.
IA entraînée sur les patterns de vulnérabilités→ Reconnaissance automatisée des failles à grande échelle→ Adaptation automatique de l'attaque à chaque cible→ Centaines d'institutions compromises simultanément→ Propagation via les interconnexions interbancaires→ Crise systémique indépendante de la qualité de défense individuelle
Anthropic confirme que Mythos — son modèle d'IA avancé — a "réécrit l'approche de Firefox en cybersécurité" en trouvant des dizaines de bogues que les méthodes traditionnelles n'avaient pas détectés. Cette annonce est le symétrique défensif de l'alerte du FMI : la même technologie qui permet d'automatiser les attaques à grande échelle permet aussi d'automatiser la détection de vulnérabilités à une profondeur que les auditeurs humains ne peuvent pas atteindre. L'asymétrie est dans le rapport de vitesse entre les deux usages.
La différence structurelle entre l'IA offensive et l'IA défensive n'est pas la technologie — les deux utilisent les mêmes modèles. Elle est dans le cycle de déploiement. Une IA offensive peut scanner, trouver une faille et lancer une attaque en continu, sans contrainte de processus, de validation ou de déploiement. Une IA défensive (comme Mythos pour Firefox) trouve une vulnérabilité, mais sa correction doit passer par un cycle humain de validation, de développement de correctif, de test de régression et de déploiement — un processus qui prend des jours, des semaines ou des mois. L'attaquant peut donc exploiter la faille avant qu'elle ne soit corrigée, et l'IA offensive peut déjà avoir trouvé la faille suivante pendant que la première est en cours de correction. Cette asymétrie temporelle est le problème structurel fondamental que ni le FMI ni les institutions financières n'ont encore résolu.
IA défensive trouve une vulnérabilité (instantané)→ Correction nécessite cycle humain (jours à mois)→ IA offensive trouve et exploite la même faille (heures)→ Pendant la correction, l'IA offensive trouve la faille suivante→ L'écart attaque/défense se creuse structurellement avec le temps
Decrypt révèle que les chatbots IA partagent les données utilisateurs avec Meta, TikTok et Google — des acteurs dont le modèle économique est fondé sur la collecte et la monétisation de données. Ce canal de fuite n'est pas une "cyberattaque" au sens traditionnel : c'est une exfiltration passive et structurelle, intégrée dans le fonctionnement normal des chatbots, qui échappe aux cadres de cybersécurité classiques parce qu'elle n'est pas le produit d'une intrusion mais d'une architecture de partage de données consentie par les conditions d'utilisation.
Pour une institution financière, le risque ne vient pas seulement des attaques externes. Il vient de l'intérieur : les employés utilisent des chatbots IA pour analyser des documents, résumer des rapports, rédiger des communications — et ce faisant, ils soumettent des données potentiellement sensibles (informations clients, analyses de marché, documents internes) à des systèmes dont les flux de données secondaires (vers Meta, TikTok, Google) ne sont ni audités ni contrôlés par la DSI. La surface de vulnérabilité n'est plus seulement le périmètre réseau de l'institution : elle inclut tous les services SaaS et IA que les employés utilisent de manière non supervisée. Cette extension du périmètre de fuite est structurellement nouvelle et non intégrée dans les modèles de risque des régulateurs.
Wired révèle l'existence de milliers d'applications "vibe-codées" — générées par IA avec des prompts de développement, souvent par des non-développeurs, sans aucun audit de sécurité — qui exposent des données corporate et personnelles sur le web ouvert. Le phénomène du vibe-coding (créer une application en décrivant ce qu'elle doit faire à une IA, sans comprendre le code généré) crée une nouvelle classe de risque : des applications fonctionnelles mais structurellement non sécurisées, déployées en production par des utilisateurs qui n'ont pas la compétence pour auditer leur sécurité, et qui échappent aux processus de gouvernance IT des organisations.
Code généré par IA, déployé sans audit, par des non-développeurs
Le vibe-coding crée une boucle de prolifération auto-renforçante : l'IA abaisse le coût de création d'applications à zéro, ce qui augmente le nombre d'applications créées, ce qui augmente la surface de vulnérabilité totale, sans que les processus de sécurisation (audit, pentest, gouvernance) ne puissent suivre le rythme de création. Le ratio applications créées / applications auditées tend vers l'infini — ce qui signifie qu'une proportion croissante du code en production n'a jamais été examinée pour ses vulnérabilités. Ce phénomène n'est pas limité aux particuliers ou aux startups : il affecte aussi les grandes organisations où des employés créent des outils internes via IA sans passer par la DSI.
IA abaisse le coût de création de code à zéro→ Explosion du nombre d'applications créées→ Majorité du code non audité pour la sécurité→ Surface de vulnérabilité totale augmente exponentiellement→ Capacité d'audit humaine reste constante→ Ratio code vulnérable / code audité tend vers l'infini
Les trois phénomènes documentés — alerte FMI sur les attaques, fuites par chatbots, prolifération d'apps non auditées — ne sont pas indépendants. Ils sont les trois canaux d'une même dynamique structurelle : l'IA amplifie le risque cybernétique plus vite qu'elle ne fournit les moyens de l'absorber. L'asymétrie est inscrite dans la nature même de la technologie : l'IA est un multiplicateur de productivité, et elle multiplie autant la productivité des attaquants que celle des défenseurs — mais les attaquants n'ont pas de cycle de validation, de comité de sécurité, de contrainte de déploiement ou de responsabilité légale qui ralentirait leur usage de l'outil.
- Asymétrie de vitesse attaque/défense : l'IA offensive itère en heures, la correction défensive prend des semaines à mois. Cet écart temporel est structurel et croissant — chaque amélioration de l'IA réduit le temps d'attaque sans réduire proportionnellement le temps de défense, qui reste contraint par des processus humains et organisationnels.
- Propagation systémique via les interconnexions financières : le système financier est un graphe dense d'interdépendances (compensation, correspondance bancaire, marchés interbancaires). Une brèche simultanée sur plusieurs institutions — rendue possible par l'IA — se propage via ces connexions indépendamment de la santé individuelle de chaque acteur. C'est la définition même du risque systémique identifié par le FMI.
- Périmètre de fuite non maîtrisé : les employés utilisent des chatbots et des outils IA sans supervision DSI. Les données sensibles quittent le périmètre de l'institution sans être détectées comme une exfiltration — elles sont simplement "partagées" dans le cadre du fonctionnement normal de l'outil. Les cadres de compliance existants ne capturent pas ce vecteur.
- Prolifération du code non audité : le vibe-coding crée une surface de vulnérabilité croissante que les processus d'audit traditionnels ne peuvent pas absorber. Le ratio code vulnérable / code audité augmente de manière structurelle, et aucune solution de scaling de l'audit n'est actuellement déployée à l'échelle du problème.
- Régulation en retard : le FMI alerte mais n'a pas de pouvoir réglementaire. Les régulateurs nationaux (SEC, BCE, AMF) n'ont pas encore intégré le risque IA dans leurs stress tests de cybersécurité. Le cadre réglementaire évolue à la vitesse de la régulation (années), tandis que la menace évolue à la vitesse de l'IA (mois).