Bienvenue, curieux voyageur

Avant que vous ne commenciez à rentrer dans les arcanes de mes neurones et sauf si vous êtes blindés de verre sécurit, je pense qu'il serait souhaitable de faire un petit détour préalable par le traité établissant la constitution de ce Blog. Pour ce faire, veuillez cliquer là, oui là!

10 janv. 2025

999. Le monde hyper lucratif de la censure

 

(On Web version, use BlogTranslator dropdown menu on top-right of this post to read it in your language)

LE MONDE HYPER LUCRATIF DE LA CENSURE
L'industrie en expansion silencieuse des combattants de la désinformation : au service des gouvernements occidentaux et des grandes marques mondiales

Mark Zuckerberg a annoncé il y deux-trois jours que Meta allait abandonner son programme de vérification des faits, optant plutôt pour un système rappelant les notes de la communauté (community notes) de X. 
Zuckerberg a présenté ce changement comme un retour aux « racines de Meta », mettant l'accent sur la liberté d'expression plutôt que sur ce qu'il a décrit comme « trop d'erreurs » et « trop de censure » de la part de vérificateurs de faits politiquement biaisés genre Rudy Reichstadt, Julien Pain ou .Tristan Mendès-France pour ne citer que ces trois vendus notoires en ce qui concerne la France.

Cette décision marque un tournant important dans la manière dont Meta prévoit de gérer le contenu sur ses plateformes comme Facebook, Instagram et Threads, en commençant d'abord par les États-Unis. La logique de Zuckerberg était claire : les récentes élections ont semblé être un « point de bascule culturel » vers la priorisation de la parole, conduisant à une approche axée sur la communauté où les utilisateurs, plutôt que des vérificateurs de faits genre les deux cités plus haut, fourniraient un contexte et des corrections aux informations potentiellement trompeuses.

Cette annonce a pas été faite dans le vide. Elle intervient à un moment où le concept même de vérité à l’ère numérique est en cours de renégociation, avec souvent des conséquences financières et politiques alarmantes.

Depuis le cirque des élections US de 2016, le marché des soi-disant « combattants de la désinformation » a explosé, amassant plus de 300 millions de dollars, principalement grâce à l’argent des gouvernements. Ces start-ups, genre Conspiracy Watch, qui se font passer pour les gardiennes de la vérité, ne sont devenues rien d’autre que des censeurs bien financés, les contribuables payant sans le savoir la facture de cette mascarade orwellienne comme avec l'arnaque frauduleuse du Fonds Marianne.

Prenons l’exemple de NewsGuard, qui, avec 21 millions de dollars dans ses caisses, s’est octroyé le droit divin de juger les médias. En faisant pression sur les annonceurs et les fournisseurs tiers pour qu’ils mettent sur liste noire ceux qu’ils jugent « peu fiables », NewsGuard joue pas seulement le rôle de chien de garde ; il agit comme le bourreau de la liberté d’expression. Il s’agit pas de garantir l’intégrité de l’information ; il s’agit de contrôler le récit par l’étranglement économique.

Blackbird.AI se vante d’avoir levé 20 millions de dollars en série B l’an dernier et affirme avoir protégé 2 000 entreprises et « organismes de sécurité nationale » contre l’épouvantail des « attaques narratives ». Mais soyons pas naïfs : protéger contre la « désinformation » n’est qu’un euphémisme pour étouffer la dissidence et contrôler le discours public.

L’idée même qu’une entreprise puisse décider de ce qui constitue une « attaque narrative » constitue une atteinte directe aux principes démocratiques, selon lesquels chaque voix devrait avoir la chance d’être entendue, et pas seulement celles qui correspondent aux programmes ou aux narratifs des gouvernements ou des entreprises.

Storyzy, un autre acteur de ce jeu dystopique, propose au gouvernement britannique une « surveillance 24 heures sur 24 », traquant ce qu’il appelle « les tendances de désinformation et les faux acteurs ». Il ne s’agit plus seulement de surveillance, mais d’une forme sophistiquée de police de la pensée.

Malgré tout ce faste et ces dépenses, il n’existe que peu de preuves – pratiquement aucune – que la désinformation ait jamais influencé une élection. Tout ça c’est rien que la poudre aux yeux, une industrie de plusieurs millions de dollars construite sur le mythe selon lequel le public est trop crédule pour penser par lui-même.

Il s’agit pas de protéger la démocratie, mais de la manipuler, de s’assurer que seules les vérités approuvées parviennent aux oreilles des électeurs. La véritable désinformation ici pourrait bien être l’idée selon laquelle ces entreprises feraient du bien.

L’arrestation du fondateur de Telegram, Pavel Durov, par les autorités du président Manu le honni Macron fin août n’aurait pas dû être une surprise, surtout pour Durov lui-même. L’UE avait intensifié sa rhétorique contre Telegram pendant des mois, atteignant son paroxysme à l’approche des élections européennes de juin 2024. Les responsables criaient pratiquement à l’ordre du jour en se disant « inondés » de désinformation, mais appelons les choses par leur nom : une tentative à peine voilée de museler les plateformes qui se pliaient pas à leurs exigences de censure.

Si toutes les grandes plateformes ont été critiquées, Telegram a fait l’objet d’une attention particulière, non pas parce qu’elle était la pire des contrevenantes, mais parce qu’elle a osé tenir bon. Un mois avant les élections, l’UE a lancé une enquête pour déterminer si Telegram était une « grande plateforme en ligne » au sens du Digital Services Act (DSA), entré en vigueur en février.
Le véritable objectif ici ? Forcer Telegram à se conformer au même cadre réglementaire oppressif qui écrase la liberté d’expression sous couvert de « protection » contre la désinformation.

En mai 2024 , la chihuahua-pitbull Otanienne et première ministre estonienne a pas mâché ses mots , accusant Telegram de laisser la désinformation se propager « ouvertement et sans aucun contrôle ». Mais sa plainte, et celle de ses collègues de l'UE, ne concernait pas seulement la désinformation ; elle concernait le refus de Telegram de jouer le jeu de la censure.

Mais ne vous laissez pas tromper en pensant que le contenu de Telegram n'a pas été surveillé. Au cours de la dernière décennie, un marché lucratif a vu le jour, destiné aux gouvernements et aux marques désireuses de contrôler le discours. Entrez dans l'industrie du « MDM » (Mésinformation, Désinformation et Malinformation) où les entreprises étiquettent, suivent et suppriment le contenu jugé gênant ou « mauvais pour vous », même s'il s'agit de la vérité.

Cette industrie est en train de devenir un mastodonte, avec des startups qui engrangent du capital-risque comme si qu'elles étaient en train de disparaître, et des entreprises bien établies qui décrochent des contrats valant des milliards. Ces entreprises créent un nouveau marché du contrôle de la pensée, où la frontière entre la vérité et le mensonge est tracée par ceux qui ont les poches les plus profondes et qui ont le plus à gagner de l'ignorance du public.

Alors que l'UE intensifiait sa surveillance de Telegram, de l'autre côté de la Manche, le Government Communication Service International du Royaume-Uni s'efforçait de faire appel à la plateforme OSINT basée à Paris, Storyzy, pour ce qu'ils appellent une « surveillance 24 heures sur 24 ».

Cette initiative orwellienne, qui ne coûte que la bagatelle de 50 000 dollars par post publié, vise à traquer les « tendances de désinformation et les faux acteurs » sur des plateformes comme Telegram. Non content de ça, Storyzy a également rejoint le projet ATHENA , une initiative de l’UE dotée de 3,35 millions de dollars pour détecter les « manipulations et interférences d’informations étrangères », un terme fantaisiste pour faire taire la dissidence.

Le monde du capital-risque a vu de l'or dans ce nouveau marché de la police de la pensée. La société londonienne Logically, avec son « IA avancée pour lutter contre la désinformation », a réussi à lever 37 millions de dollars , tandis que Factmata, autrefois soutenue par Biz Stone et Mark Cuban, a été engloutie en 2022.

Clarity, qui se concentre sur la détection des deep fakes générés par l’IA, a empoché 16 millions de dollars, et Reken, dirigé par un ancien responsable de la confiance et de la sécurité de Google, a levé 10 millions de dollars pour « se protéger contre les menaces générées par l’IA ». ActiveFence, sous couvert de renforcer la « confiance et la sécurité », a amassé 100 millions de dollars. Selon Crunchbase, ces 16 startups ont à elles seules englouti plus de 300 millions de dollars, le tout au nom de la « lutte contre la désinformation ».

L'ironie du sort ? Les gouvernements sont pas seulement des régulateurs, ils sont aussi leurs plus gros clients. Par exemple, il est logique que l'entreprise ait été liée de manière lucrative au gouvernement britannique par le biais de contrats d'une valeur de 1,3 million de dollars avec la National Security Online Information Team (NSOIT), autrefois connue sous le nom de Counter Disinformation Unit.

Ils ont utilisé cette technologie pour signaler, entre autres, un tweet du Dr Alex de Figueiredo remettant en cause les politiques de vaccination des enfants et une interview de Julia Hartley-Brewer discutant des expériences de confinement. Le changement de marque du NSOIT après les réactions négatives n'a pas changé sa mission ; il vise toujours à « comprendre les récits de désinformation » pour s'assurer que le gouvernement puisse « prendre les mesures appropriées », ce qui, en termes clairs, signifie faire taire l'opposition.

Et oublions pas l'organisme britannique de surveillance de la liberté d'expression, Big Brother Watch, qui a dénoncé Logically pour avoir espionné des citoyens britanniques, y compris leur propre directeur, simplement pour avoir interagi avec des publications ou les avoir aimées. Logically a également dénoncé Hartley-Brewer au gouvernement pour avoir partagé des statistiques fournies par le gouvernement sur les décès dus au cancer pendant le confinement, que des associations caritatives de lutte contre le cancer avaient mises en avant.

« Je pense qu’il y a une explosion massive de la prolifération de ces sociétés de vérification des faits ou de lutte contre la désinformation, basées sur l’IA », a déclaré Mark Johnson, responsable du plaidoyer chez Big Brother Watch. Ironiquement, Johnson a trouvé son propre nom dans un rapport de Logically au NSOIT en raison d’ un tweet contenant un lien vers une pétition parlementaire contre les passeports vaccinaux. « Ils s’inscrivent dans une tendance plus large, qui consiste essentiellement à censurer – les plateformes et les autres grands acteurs diront qu’ils modèrent – ​​mais en réalité, ils censurent les discours en fonction de leur véracité et de leur exactitude perçues. C’est une tendance qui se manifeste dans tout le monde occidental en ce moment. » — Mark Johnson

Aux États-Unis, cette collaboration entre les entreprises de gestion des données de référence à but lucratif et le gouvernement s’est encore renforcée. En 2021, le ministère de la Défense a attribué un contrat de 979 millions de dollars à Peraton pour « lutter contre la désinformation » pour le compte du commandement central des États-Unis, qui supervise les opérations au Moyen-Orient et en Asie. Peraton, filiale de Veritas Capital (qui possédait autrefois Raytheon Aerospace), est issue de la branche de services informatiques de Northrop Grumman, un acteur majeur du complexe militaro-industriel dans la branche avionique et missiles.

Voyons maintenant l'histoire de cette alliance obscure qui forme un « ministère de la vérité » numérique, où les géants des réseaux sociaux collaborent avec des entreprises soutenues par la CIA comme Fire Eye pour faire taire la dissidence, tandis que NewsGuard, avec le soutien du gouvernement, censure les vérités dérangeantes. Découvrez la vérité derrière les affirmations exagérées sur l'impact de la désinformation sur la démocratie et comment ce récit façonne notre paysage numérique.

Pendant ce temps, En 2018, les principales plateformes de médias sociaux comme Google, Facebook et Twitter ont décidé de désactiver des milliers de comptes signalés par Fire Eye, une entreprise qui se qualifiait fièrement d’« opération de renseignement du secteur privé ». Cette étiquette était inconfortablement appropriée puisque parmi les investisseurs de Fire Eye figure IQT, la branche de capital-risque de la CIA chargée de l’innovation technologique.

Cette intensification de la coopération entre le gouvernement et le secteur privé sur la gestion des données de sécurité a débuté après les élections américaines de 2016, où le récit diffusé par les médias, les forces de l’ordre et les services de renseignement faisait état d’une ingérence étrangère massive, en particulier russe. Cependant, des recherches ultérieures ont démenti cette affirmation, montrant que l’influence russe n’avait pratiquement aucun impact.

Une étude publiée dans le Journal of Economic Perspectives a analysé une base de données de fausses nouvelles et a conclu que l’impact sur les parts de vote était minime – « de l’ordre de quelques centièmes de point de pourcentage » – bien trop faible pour modifier le résultat de l’élection.

« Une grande partie des recherches sur la mésinformation et la désinformation sont de mauvaise qualité ». « Il essaie de peindre une image plus négative de la désinformation – la désinformation ayant un impact plus direct sur la démocratie que ce que je pense être une vision plus équilibrée de celle-ci. » — Jacob Mchangama, directeur du Future of Free Speech Institute à l’université Vanderbilt

Mchangama soutient que ceux qui amplifient l’effet supposé de MDM sur les élections opèrent selon un modèle de « seringue hypodermique », où la désinformation est considérée comme étant directement injectée dans la société, alors qu’en réalité, sa propagation est souvent diffuse et son impact négligeable.

Malgré les preuves qui démentent l’impact significatif de MDM, le discours selon lequel il représente une menace colossale n’a fait que s’amplifier, atteignant son apogée en 2024 lorsque le Forum économique mondial l’a qualifié de plus grand risque à court terme, éclipsant les guerres en cours au Moyen-Orient et entre la Russie et l’Ukraine.

« 2024 a été l’année où de nombreux experts, mais aussi des gouvernements, ont déclaré que, comme il y avait deux milliards de personnes en âge de voter, ce serait une sorte de super année électorale, mais il existe un risque aigu que la démocratie soit noyée dans la désinformation générée par l’IA. Bien qu’il existe certainement des exemples de cela, il n’y a jamais eu de campagne coordonnée ou de tentative de perturber ces élections à notre connaissance. » — Mchangama

Cependant, le résultat des élections de 2016, qui ont vu Trump accéder à la présidence, a envoyé des ondes de choc dans l’establishment, provoquant une panique à propos de la « désinformation ». Les recherches Google sur la « désinformation » ont augmenté après l’élection, décuplé par rapport à avant, alimentées par les médias déclarant qu’il s’agissait de la question politique centrale.

The Intercept, par exemple, a affirmé sans nuance que « la désinformation, et non les fausses nouvelles, a fait élire Trump », faisant écho aux accusations antérieures de Clinton concernant une « vaste conspiration de droite », mais désormais dirigées contre l’ingérence étrangère plutôt que contre les ennemis politiques nationaux.

À peine deux semaines plus tard, cet appel a apparemment été entendu lorsque le président Obama a signé le National Defense Authorization Act pour l’année fiscale 2017, qui a élargi le mandat du Global Engagement Center du département d’État, de la simple lutte contre le terrorisme à la lutte contre « les efforts de propagande et de désinformation des États et des organisations non gouvernementales étrangères ».

C’est dans ce nouveau climat politique qu’est apparu l’un des acteurs les plus influents de la gestion de la désinformation à but lucratif. NewsGuard, cofondé en 2018 par Steven Brill, le cerveau de Court TV, et Gordon Crovitz, ancien directeur du Wall Street Journal, a rapidement capitalisé sur l’occasion.

Avec un investissement initial de 6 millions de dollars, qui a grimpé à 21,5 millions de dollars, NewsGuard a tiré parti des vastes réseaux des fondateurs et a obtenu le soutien d'investisseurs de premier plan comme le collectionneur d'art Eijk van Otterloo et le conglomérat publicitaire français Publicis Group. Cette combinaison de connexions et de capitaux a permis à NewsGuard de naviguer rapidement et de dominer le paysage commercial en plein essor dédié à la gestion de la désinformation numérique.

Le produit phare de NewsGuard est son « Label nutritionnel » pour les sites d'information, accessible via une extension de navigateur à 4,95 $ par mois. À l'aide de neuf critères, ils notent les sites de 0 à 100, ornant les sites d'une coche verte pour la fiabilité ou d'un point d'exclamation rouge pour le contraire. À première vue, ça peut sembler être un exercice de liberté d'expression inoffensif, voire bien intentionné. Cependant, le problème ne réside pas seulement dans les notes ; il s'agit de la manière dont NewsGuard exploite ces notes pour faire respecter son discours en faisant pression sur les annonceurs et les fournisseurs pour qu'ils mettent sur liste noire les sites non conformes.

NewsGuard ne se contente pas de filtrer la désinformation ; elle s’efforce activement de nettoyer Internet des contenus qui menacent les résultats financiers des grands annonceurs, ce qui semble faire partie intégrante de son modèle économique.

En 2021, ils se sont associés à IPG Mediabrands pour tester la solution Responsible Advertising for News Segments (RANS), qui fournit essentiellement aux annonceurs une liste noire de sites, en particulier ceux qui diffusent des récits non approuvés sur la COVID-19 et les vaccins.

Cette initiative a été particulièrement poignante au plus fort de la crise sanitaire mondiale, l’une de ses principales caractéristiques étant « d’exclure tous les sites Web signalés comme non fiables par NewsGuard pour avoir publié des canulars sur la santé tels que de faux remèdes, de la désinformation anti-vaccin ou d’autres faussetés médicales ».

La même année, Pfizer a choisi IPG Mediabrands comme responsable créatif et Publicis Groupe, un investisseur important de NewsGuard, comme agence média, ce qui témoigne d’un conflit d’intérêts évident.

De plus, NewsGuard a ciblé de manière agressive les éditeurs de renom dont le contenu pourrait porter atteinte à ces intérêts commerciaux. En mai 2021, PragerU, une association éducative conservatrice à but non lucratif, a été prise au dépourvu lorsque son service d'hébergement vidéo, JW Player, l'a informé d'un avertissement de NewsGuard. Cela a conduit JW Player à rompre ses liens avec PragerU, leur donnant seulement 30 jours pour relocaliser leur contenu.

NewsGuard a justifié cette action en invoquant la couverture de la COVID-19 par PragerU, critiquant en particulier un hébergeur pour avoir déclaré que le virus ne tuait pas d'enfants sans fournir ce que NewsGuard considérait comme une « source adéquate ». Ils ont également contesté les affirmations de Dennis Prager concernant l'hydroxychloroquine, suggérant que ses déclarations entraînaient des décès inutiles.

Le ton de la correspondance de NewsGuard était aussi effrayant que son contenu : légaliste et censuré, impliquant presque une culpabilité sans procès. PragerU a fourni de nombreuses justifications pour ses choix éditoriaux en réponse à Eric Effron, ancien journaliste de Reuters Legal et aujourd’hui directeur éditorial de NewsGuard. Cependant, ces échanges, qui ont duré des semaines, n’ont fait qu’entraîner de nouvelles accusations de violations.

La PDG de PragerU, Marissa Streit, a déclaré lors d’une interview téléphonique qu’après leur rencontre avec NewsGuard, elle avait pris contact avec d’autres éditeurs conservateurs qui avaient eu des ennuis similaires. « Au début, ces éditeurs ont essayé d’éviter d’être étiquetés dans la zone rouge de NewsGuard pour éviter les problèmes avec les fournisseurs, en acceptant des changements et des adaptations », a-t-elle expliqué.
Ces exigences comprenaient la transparence sur le financement, la liste de tous les contributeurs et même la modification du contenu. « [Ils] ont réalisé que ce n’était qu’un spectacle. Peu importe ce que vous faites. Ils utilisent la zone rouge pour vous contrôler. Ils vous redonneront quelques points, juste assez pour vous garder engagé, mais c’est une question de contrôle. »

Mais là où NewsGuard exerce vraiment son influence, c’est par le biais de ses alliances avec les principaux organismes publicitaires. NewsGuard était un outil clé utilisé par la Global Alliance for Responsible Media (GARM), une initiative de la Fédération mondiale des annonceurs qui représente 90 % des annonceurs actuels.

Lancée en 2019, GARM, qui a récemment été dissoute suite aux menaces juridiques d'Elon Musk, s'est rapidement associée au Forum économique mondial pour amplifier son discours sur la sécurité numérique. Ce partenariat a permis à GARM de travailler avec certains des plus grands annonceurs du monde, notamment des géants comme Google, LEGO, Unilever et Proctor & Gamble.

Un rapport de la Chambre des représentants, basé en partie sur le témoignage de Robert Rakowitz, responsable de l’initiative GARM, a révélé que GARM « pousse ses membres à utiliser des organismes de classement de l’actualité, comme le Global Disinformation Index (GDI) et NewsGuard, qui classent de manière disproportionnée les médias d’information de droite comme étant de la désinformation. »

Grâce à cette approbation, NewsGuard a pu intégrer son système de notation dans l’infrastructure publicitaire mondiale. Dans un cas, Rakowitz a conseillé aux membres d’utiliser les notations de NewsGuard pour les articles sur le conflit Russie-Ukraine afin de « s’assurer que vous travaillez avec une liste d’inclusion et d’exclusion informée par des partenaires de confiance tels que NewsGuard et GDI. »

En 2020, NewsGuard s’est aventuré dans des eaux plus troubles en collaborant avec le Global Engagement Center (GEC) du Département d’État US, qui a financé en partie ses opérations avec une part de 25 000 $ sur une subvention de 3 millions de dollars. Ce lien financier a conduit à une action en justice menée par des organes de presse conservateurs, The Daily Wire et The Federalist, aux côtés du Texas, affirmant que le département d'État manipulait le marché des médias pour rendre certains médias non rentables.

Si le rôle du gouvernement a fait de cette question une question relevant du Premier Amendement sur la liberté d'expression, NewsGuard était le bras opérationnel de cette stratégie. Le procès a fait valoir que NewsGuard et le Global Disinformation Index créent des listes noires pour discréditer et démonétiser les médias américains, redirigeant ainsi le soutien financier vers ceux qui ont des perspectives plus proches.

Bien que la subvention initiale du département d'État ait été modeste, des fonds plus importants ont afflué en septembre 2021 lorsque NewsGuard a obtenu un contrat de 750 000 $ du ministère de la Défense pour son outil Misinformation Fingerprints, que NewsGuard avait auparavant, de manière quelque peu trompeuse, appelé une « subvention ».

Les liens étroits de NewsGuard avec le gouvernement ne sont guère surprenants, étant donné que son conseil consultatif comprend des poids lourds comme le général Michael Hayden, ancien directeur de la NSA et de la CIA, Tom Ridge, premier secrétaire à la Sécurité intérieure, et Anders Fogh Rasmussen, ancien Premier ministre danois et secrétaire général de l'OTAN.

Plus récemment, NewsGuard a fait l'objet d'un autre procès de la part de Consortium News, dont les archives complètes ont été frappées d'un drapeau rouge sur la base de seulement quatre articles critiqués par le système d'étiquetage nutritionnel de NewsGuard.

Pourtant, NewsGuard ne montre aucun signe de ralentissement. L'entreprise a étendu ses partenariats à la technologie, en travaillant avec des startups comme SafetyKit et Zefr. Surtout, elle s'est alignée sur le Microsoft du tueur en série Bill Gates, qui intègre l'extension NewsGuard dans son navigateur Edge, détenant environ 13 % du marché des navigateurs de bureau. Il s'agit d'intégrer l'influence de NewsGuard dans l'infrastructure même de la navigation sur Internet, en façonnant subtilement les informations jugées crédibles par des millions d'utilisateurs quotidiens.

Le département d’État américain ayant qualifié la MDM de menace étrangère, le discours politique est passé du discours politique à celui de la cybersécurité, l’attirant ainsi dans le domaine des entreprises. Blackbird.AI est l’une de ces startups qui surfe sur cette vague, affirmant protéger 2 000 entreprises et « organisations de sécurité nationale » contre « les attaques narratives créées par la désinformation et la mésinformation ». Fondée après les élections de 2016 dans la même veine que de nombreuses autres dans ce domaine, Blackbird a obtenu une série B de 20 millions de dollars, son client initial n’étant autre que le ministère de la Défense.

« Lorsque vous considérez la mésinformation, la désinformation et la manipulation (MDM) de la perception publique comme une sorte de cyberattaque », a déclaré le PDG de Blackbird, Wasim Khaled, plus tôt cette année, « cela aide à la définir. Les cyberattaques sont venues avec le renseignement informatique et avec les attaques narratives, vous avez essentiellement besoin de renseignement narratif. »
Cependant, lorsqu’on lui a demandé comment Blackbird distingue la vérité du mensonge, Khaled a concédé que cela se transforme souvent en « une conversation philosophique » sur ce qu’est réellement la vérité.

Tout comme les grandes marques ont fait passer la diversité, l’équité et l’inclusion (DEI) des salles universitaires au marché, elles se lancent désormais dans le domaine de la gestion des données de marque. Bank of America alerte ses clients sur le fait que « la désinformation et la mésinformation émergent comme des cybermenaces importantes pour les entreprises du monde entier ». SAP met en garde contre le rôle de la désinformation dans la déstabilisation des gouvernements, en soulignant sa propagation numérique rapide. PwC, le géant du conseil, pose la question : « Les attaques de désinformation sont arrivées dans le secteur des entreprises. Êtes-vous prêt ? »

Pourtant, il y a un manque flagrant de preuves tangibles reliant la gestion des données de marque à un impact significatif sur les résultats électoraux. On sait que la gestion des données de marque existe, mais c’est à peu près là que s’arrête la justification. Des études, comme celle de 2019 dans Science, révèlent que seulement 1 % des individus ont consommé 80 % des « fake news » concernant l’élection de 2016 sur Twitter. 
Une autre étude du National Bureau of Economic Research a montré que 80 % du contenu politique sur Twitter au cours de ce cycle électoral était en réalité démocrate, un contraste frappant avec 2012, lorsque les comptes républicains dominaient les tweets liés à Romney. Une étude de Nature Human Behavior a encore démystifié les mythes en montrant que l'exposition à des sites Web peu fiables était exagérée.

Dans une démarche ambitieuse, le Carnegie Endowment for International Peace, aujourd’hui dirigé par un ancien directeur de la CIA, a proposé en 2022 la création d’un « CERN pour l’information », ou l’Institut de recherche sur l’environnement informationnel (IRIE), pour étudier en profondeur le paysage informationnel. « Là où le CERN « existe pour comprendre le mystère de la nature au profit de l’humanité », l’IRIE existera pour comprendre le mystère de l’environnement informationnel au profit des démocraties et de leurs citoyens », affirme la proposition ambitieuse, appelant à l’équivalent d’un grand collisionneur de hadrons pour les études sur l’information.

Avec la révélation de Mark Zuckerberg sur la pression de la Maison Blanche sur Meta pour censurer les publications sur le COVID-19, on a eu un aperçu de ces « mystères » que l’IRIE proposé vise à explorer. Alors que de plus en plus de cas de ce genre sont révélés, la question demeure : les révélations seront-elles acceptables ou exposeront-elles une vérité qui dérange sur qui contrôle réellement le récit ?

Cet incident illustre l'évolution de la position de Mark Zuckerberg sur la modération des contenus. Il est passé d'un fervent défenseur de la vérification des faits (fact-checking) par le gouvernement à un partisan de la transparence axée sur les utilisateurs, avec sa récente décision de remplacer les vérificateurs de faits par des notes communautaires, similaires à celles de X. Ce changement pourrait être considéré comme une réaction aux pressions qu'il a lui-même reconnues, reflétant une tendance plus large du secteur où l'équilibre entre la liberté d'expression et le contrôle des contenus est en train d'être réévalué.

Il est évident que le scepticisme du public à l'égard de la modération centralisée des contenus augmente, favorisant les systèmes où la communauté elle-même peut contrer la désinformation. Ceci correspond à l'évolution de Zuckerberg vers un modèle où le récit n'est pas dicté par quelques-uns mais débattu par le plus grand nombre, ce qui pourrait remodeler la façon dont les plateformes numériques gèrent la vérité à une époque où le contrôle de l'information est à la fois un pouvoir et une responsabilité.

Maintenant, faut pas se leurrer, je considère le geste de Zuckerberg comme typique d’un sociopathe. Les eugénistes sont tous pareils dans leur façon de penser que leurs perceptions, comme les gens, sont facilement malléables en fonction de la vision qui leur convient pour le moment. Donnez-leur une semaine et ça peut changer du tout au tout avec un nouveau contexte. 
Ils sont parfaitement à l’aise en disant que leur nouvelle vision est celle qu’ils ont toujours eue, mais que vous étiez trop stupide pour les écouter. On a besoin d’une période d’auto-éducation approfondie et intensive pour que tout le monde puisse repérer ces personnes. Il y en a beaucoup au-delà des quelques pour cent habituels revendiqués. Ils se situent sur un spectre de gravité et mon estimation est de l’ordre de 15 % et plus de toute population. Les quelques cas graves attirent le soutien de ce groupe et c’est ainsi que des institutions entières deviennent des prédateurs comme Pfizer, le DOJ, la CIA, le Parlement européen, les syndicats de l'éducation nationale, etc.

Je vois beaucoup de travail à venir devant nous !