L’IA peut-elle prédire la faillite d’un pays ?
Les outils d’intelligence artificielle peuvent-ils aider à mieux anticiper les catastrophes économiques et financières ? En intégrant une information plus fraiche et plus qualitative, il serait possible d’identifier des signaux faibles bien en amont de la crise. Mais gare, le recours à ces outils expose à de nouveaux risques qu’il ne faut pas minorer.
Prédire plus tôt la faillite d’un pays permet de limiter les pertes financières, de mieux préparer les réponses politiques et économiques, et surtout d’atténuer les conséquences sociales. Pour les institutions internationales et les gouvernements, c’est l’occasion de mettre en place des plans d’aide ou de restructuration avant que la crise n’explose. Et pour la population, cela peut éviter des mesures brutales : effondrement bancaire, coupures dans les services publics, hausse soudaine du chômage ou flambée des prix. En somme, anticiper, c’est gagner du temps pour agir avec plus de maîtrise, réduire la casse économique et sociale, et éviter de gérer la crise dans l’urgence et la panique.
En mars 2020, alors que les marchés s’effondraient en pleine pandémie, peu d’institutions avaient anticipé l’ampleur de la crise pour les pays émergents. Pourtant, dans les mois suivants, la Zambie, le Sri Lanka et le Liban se retrouvaient en défaut de paiement. Aujourd’hui, avec l’essor de l’intelligence artificielle (IA), une question se pose : l’IA peut-elle prédire la faillite d’un État mieux que les modèles classiques ?
Les limites des modèles traditionnels
Jusqu’ici, les grands outils d’alerte – comme le Système d’Alerte Précoce (Early Warning System, EWS) du FMI – reposaient sur des agrégats macroéconomiques classiques : dette extérieure, croissance, réserves de change, solde courant… Bien qu’utiles, ces indicateurs sont souvent publiés avec retard, et sensibles à des manipulations comptables.
Les agences de notation (S&P, Moody’s, Fitch…), quant à elles, fondent encore largement leurs évaluations sur des analyses humaines, avec un décalage temporel important.
À lire aussi :
Quand commence un krach boursier ? Et qu’appelle-t-on ainsi ?
Une incapacité à capter les signaux comportementaux
De fait, les modèles traditionnels de prédiction des risques souverains s’appuient principalement sur des indicateurs macroéconomiques agrégés : ratio dette/PIB, niveau des réserves de change, balance courante, inflation, ou encore notation des agences de crédit. Ces approches, souvent inspirées des modèles économétriques ou statistiques classiques (logit, probit, etc.), ont deux limites majeures :
-
des données trop lentes et trop agrégées : Les statistiques macroéconomiques sont publiées avec des délais parfois de plusieurs mois, trimestres, voire années. Elles lissent les signaux faibles et masquent les dynamiques de court terme comme les retraits massifs de capitaux ou les paniques bancaires naissantes.
-
une incapacité à capter les signaux comportementaux et politiques : Les crises souveraines ne sont pas seulement économiques. Elles sont aussi sociales, politiques et parfois géopolitiques. Or, les modèles traditionnels peinent à intégrer des variables non quantitatives comme l’instabilité politique, la polarisation sociale, les mouvements de protestation ou les négociations discrètes avec des bailleurs de fonds internationaux.
Le fait que le Liban ait été noté B jusqu’en 2019 alors qu’il méritait probablement un D illustre plusieurs dysfonctionnements majeurs dans les systèmes traditionnels de notation souveraine. Les agences préfèrent réagir que prévenir, ce qui biaise leurs notations à la hausse, surtout pour les pays fragiles.
Signaux faibles
De nouveaux modèles émergent, fondés sur l’apprentissage automatique (machine learning) et le traitement du langage naturel (NLP). Fitch, Moody’s et S&P testent déjà des IA capables de traiter des milliers de sources d’information en temps réel : flux financiers, déclarations publiques, mais aussi données satellites, transactions Swift anonymisées et commentaires sur Twitter/X.
Ces outils détectent des signaux faibles, invisibles aux yeux des analystes traditionnels : une série de transferts vers des comptes offshore, une chute anormale des volumes bancaires ou encore une brusque montée des hashtags du type #default #bankrun dans une langue locale.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le précédent libanais
En 2019, bien avant l’effondrement officiel du système bancaire libanais, plusieurs signaux faibles étaient visibles. Des rumeurs circulaient sur WhatsApp et Twitter. Les transferts de fonds sortants explosaient. Des vidéos montraient des manifestants réclamant des comptes à la Banque centrale. Pourtant, les agences de notation, de même que le FMI, tardaient à alerter.
Malgré des signes alarmants en amont, le FMI est resté prudent dans son langage et n’a pas émis d’alerte franche avant l’effondrement du système bancaire libanais en 2019–2020. Un modèle IA entraîné sur les comportements non linéaires de retrait d’espèces, les mentions de panique financière dans les réseaux sociaux ou la disparition progressive des produits importés aurait pu détecter un risque élevé de défaut bien avant les agences.
Le cas du Pakistan : une surveillance en temps réel
Le Pakistan, régulièrement au bord du défaut, illustre un autre usage de l’IA. Le laboratoire de l’ESCE a récemment mis au point un outil combinant flux de données bancaires anonymisées (volumes de dépôts par région), données satellites sur les niveaux d’activité portuaire, analyse sémantique de discours politiques (fréquence de termes comme « aide d’urgence », « moratoire », « négociation FMI »), volume de vols directs sortants depuis Jinnah, discussions en penjabi et urdu sur X et Facebook… En croisant ces éléments, le modèle a anticipé dès la fin 2022 une nouvelle demande de plan de sauvetage… annoncée publiquement seulement en avril.
L’asymétrie de pouvoir entre les États et les autres acteurs économiques entretient la récurrence des crises financières systémiques, dont les impacts sur les grands équilibres macroéconomiques sont souvent massifs.
L’IA ajoute une couche dynamique aux modèles de risque pays, avec des alertes basées sur des tendances comportementales et des « bruits faibles ». Là où les systèmes classiques peinent à intégrer la psychologie collective ou les effets de contagion sur les marchés, l’IA excelle.
L’IA, un nouveau risque ?
Attention cependant aux biais algorithmiques. Les données issues des réseaux sociaux sont bruitées, et leur analyse peut être influencée par des campagnes coordonnées.
De plus, les IA ne sont pas neutres : elles peuvent intégrer des représentations inégalitaires du risque pays, notamment en surestimant les tensions dans des pays politiquement ou socialement instables mais solvables.
L’IA n’est pas un oracle. Les données non structurées (réseaux sociaux, médias, forums) sont dites “ bruyantes”, dans le sens où une mauvaise qualité d’entraînement et un mauvais filtrage peuvent conduire à des « faux positifs » alarmants. Si le modèle est entraîné sur des crises passées, il risque de surpondérer certains types de signaux et de sous-estimer des configurations inédites, voire d’ »halluciner ». Ces hallucinations surviennent souvent en raison de problèmes liés aux données utilisées pour entraîner les modèles de langage, des limitations de l’architecture des modèles et de la manière dont les grands modèles de langage (LLMs) interprètent les données économiques et financières.
Problème de gouvernance
De plus, les sources peuvent elles-mêmes être biaisées par des campagnes de désinformation. Les modèles d’IA les plus performants sont des « boîtes noires », dont la logique interne est difficilement interprétable. Pour un investisseur institutionnel ou un analyste-crédit, cela peut poser un problème de gouvernance : comment justifier une décision d’investissement ou de désinvestissement fondée sur un score algorithmique non explicable ?
Face à l’accélération et la complexité croissante des chocs économiques, sociaux et géopolitiques, des institutions comme le FMI, la Fed ou la BCE, de même que certains fonds d’investissement et banques, expérimentent désormais des intelligences artificielles capables de simuler des scénarios de crise en temps réel. L’objectif n’est plus seulement de prédire la prochaine défaillance, mais de la prévenir en ajustant les politiques économiques de manière beaucoup plus réactive, grâce à des modèles adaptatifs nourris par des flux de données continus et dynamiques.
Mais ces outils ne remplaceront pas de sitôt le regard critique et le discernement humain. Car là où l’IA excelle dans la détection de signaux faibles et le traitement massif de données, elle reste vulnérable à des biais et des hallucinations statistiques si elle est livrée à elle-même. La vraie rupture viendra donc d’un modèle hybride : un dialogue permanent entre l’intuition géopolitique et sociale des analystes humains et la capacité de calcul de l’intelligence artificielle.
Finalement, il ne s’agit plus de choisir entre l’humain et la machine, mais d’orchestrer intelligemment leurs forces respectives. L’enjeu n’est pas seulement de voir venir les crises, mais d’avoir les moyens d’agir avant qu’elles n’éclatent.
Serge Besanger a été directeur intérimaire d’une filiale du FMI.
Auteur : Serge Besanger, Professeur à l’ESCE International Business School, INSEEC U Research Center, ESCE International Business School
Aller à la source