« La désinformation n'est plus un sujet politique. C'est devenu un risque stratégique pour les entreprises. »
- amonniermihi
- 17 mars
- 5 min de lecture

Pendant longtemps, la désinformation a semblé être un sujet pour d'autres. Pour les politiques, les journalistes, les plateformes. Quelque chose d'important, certes, mais extérieur au quotidien des entreprises et des équipes de communication.
Deux études publiées en 2025-2026 invitent à changer radicalement cette lecture. L'une, produite par le Tech & Global Affairs Innovation Hub de Sciences Po, propose un nouveau cadre conceptuel pour penser la crise de l'information. L'autre, signée Sopra Steria, en chiffre les conséquences économiques mondiales. Ensemble, elles posent une idée simple et dérangeante : la désinformation n'est plus seulement une menace démocratique. C'est un risque stratégique pour toute organisation.
Du « faux » à l'écosystème : un changement de lunettes
Pendant des années, le débat public a tourné autour des « fake news ». Identifier le mensonge, le corriger, le supprimer. Cette approche, aussi utile soit-elle, a montré ses limites — et le terme lui-même a fini par être retourné contre ceux qui l'utilisaient, chaque camp accusant l'autre d'être la source du faux.
Le document de Sciences Po propose un déplacement de perspective. Plutôt que de se concentrer uniquement sur les contenus trompeurs, il introduit la notion d'intégrité de l'information. L'idée est simple à comprendre : ce n'est pas seulement le mensonge qui pose problème, c'est l'environnement qui le rend possible, profitable et parfois indiscernable du vrai.
Pensez-y comme à la qualité de l'eau que vous buvez. On peut toujours analyser chaque verre suspect. Mais à un moment, c'est le réseau de distribution entier qu'il faut regarder. L'intégrité de l'information, c'est exactement cette logique appliquée à l'espace informationnel : non plus seulement traquer le faux, mais construire les conditions du fiable.
Les plateformes et l'IA ont changé les règles du jeu
Pour comprendre pourquoi ce changement de cadre est nécessaire, il faut regarder ce qui s'est passé au cours des dix dernières années.
Les grandes plateformes numériques — Meta, TikTok, YouTube, X — sont devenues les infrastructures centrales par lesquelles l'information circule. Elles ne se contentent pas de diffuser des contenus : leurs algorithmes décident de ce qui est visible, de ce qui est amplifié, de ce qui disparaît. Et leurs modèles économiques sont fondés sur la captation de l'attention, pas sur la qualité de l'information. Ce qui génère de l'engagement est promu. Ce qui génère de l'engagement, c'est souvent ce qui provoque une réaction émotionnelle forte. Le vrai n'a ici aucun avantage structurel sur le faux.
À cela s'ajoute désormais l'intelligence artificielle générative. Le rapport Sopra Steria le documente précisément : l'IA ne crée pas seulement de nouveaux risques, elle industrialise des pratiques existantes. Produire un faux témoignage, cloner une voix, générer des milliers de variantes d'un même contenu trompeur en plusieurs langues — tout cela était autrefois coûteux, lent, complexe. Aujourd'hui, c'est rapide, peu cher, et accessible. La désinformation est passée de l'artisanat à la production en série.
417 milliards de dollars. Ce que cache ce chiffre
Le rapport Sopra Steria estime le coût économique mondial de la désinformation à 417 milliards de dollars en 2024. C'est le chiffre qui frappe. Mais ce qui est encore plus intéressant, c'est ce qu'il agrège.
Il ne s'agit pas seulement de fraudes directes ou d'arnaques en ligne, même si celles-ci sont massives — les escroqueries de type pig butchering, ces manipulations sentimentales et financières dopées à l'IA, ont causé à elles seules 5,5 milliards de dollars de pertes dans le secteur des cryptomonnaies en 2024. Il s'agit aussi de l'érosion de la confiance, qui agit comme un frein économique diffus mais profond.
Selon l'OCDE, seuls 39 % des citoyens déclarent aujourd'hui faire confiance à leur gouvernement. Des recherches citées par Allianz Research évaluent entre 157 et 318 milliards de dollars les pertes de consommation liées à la polarisation politique sur quatre ans aux États-Unis et en Europe. Quand la confiance s'effondre, les gens consomment moins, investissent moins, décident moins. La défiance est un poison économique lent.
Pour les entreprises, cela se traduit concrètement : le rapport évalue entre 12 et 18 milliards de dollars les dépenses mondiales de protection et de défense informationnelle en 2024. Ce budget n'existait pas il y a dix ans.
La Roumanie, ou ce que coûte un choc informationnel
Pour rendre la menace tangible, les deux études s'appuient sur un même exemple récent : l'annulation de l'élection présidentielle roumaine en décembre 2024.
En quelques semaines, une campagne de manipulation coordonnée, amplifiée par les algorithmes et des outils d'IA, a modifié la trajectoire politique d'un pays. Le coût de la réorganisation du scrutin est estimé à 280 millions de dollars — et cela sans compter l'instabilité politique durable ni la perte de confiance dans les institutions.
Cet exemple est utile précisément parce qu'il traduit l'abstraction en réalité concrète. La désinformation ne produit pas seulement du bruit ou de la confusion. Elle désorganise, elle retarde, elle coûte. Elle transforme un problème d'image en problème de gouvernance.

Et si le risque de censure était la vraie question ?
C'est l'objection légitime que tout le monde a en tête : à vouloir lutter contre la désinformation, ne risque-t-on pas de justifier la censure ? De confier à une autorité le soin de décider ce qui est vrai ?
Le document de Sciences Po la prend au sérieux. Et c'est précisément pour cela que le cadre de l'intégrité de l'information est utile : il ne repose pas sur une « vérité d'État ». Il repose sur des conditions — transparence des algorithmes, accès des chercheurs aux données des plateformes, certification indépendante des médias, pluralisme garanti — qui permettent à chacun de s'informer dans un environnement plus fiable, sans qu'aucune entité unique n'ait le monopole du vrai.
La protection contre la désinformation et la protection contre la censure ne sont pas opposées. Elles sont, bien construites, les deux faces d'un même projet démocratique.
Ce que tout cela change pour les communicants
On arrive ici au cœur du sujet pour notre métier.
Dans un environnement où les contenus plausibles peuvent être générés à bas coût et en quantité industrielle, la communication ne peut plus se contenter d'être visible. Elle doit être crédible dans la durée.
Cela change beaucoup de choses en pratique. Cela redonne de la valeur à des éléments que certains avaient relégués au second plan : la cohérence des messages dans le temps, la qualité des preuves, la solidité des porte-parole, la pédagogie des sujets complexes, la relation avec des tiers de confiance — journalistes, experts, institutions — capables de contextualiser et de valider une parole.
Les relations presse, notamment, retrouvent ici un rôle qui dépasse la simple visibilité. Dans un espace saturé de contenus auto-publiés, la médiation journalistique redevient un mécanisme de validation externe. Une parole relayée par un média qui applique des règles déontologiques n'a pas la même robustesse qu'un post publié directement. Elle est plus difficile à attaquer, plus difficile à décrédibiliser, plus difficile à noyer dans le bruit.
Plus largement, ces deux études suggèrent que les communicants vont devoir changer d'échelle dans leur réflexion. Il ne s'agira plus seulement de produire de l'attention. Il faudra organiser les conditions de la confiance.
Ce n'est pas un changement d'outil. C'est un changement de métier.
Sources : « Beyond Fake News — How Information Integrity Creates a Building Ground for Disinformation-Resilient Societies », Sciences Po Tech & Global Affairs Innovation Hub, mars 2026. « L'impact économique mondial de la désinformation », Sopra Steria, 2025.



Commentaires