Radio JLa Machine à Fake News : Comment les Portails d'Information Amplifient la Désinformation
La Machine à Fake News : Comment les Portails d'Information Amplifient la Désinformation
Kevin : "L’info en continu est-elle devenue une machine à fake news ? Ce matin, Stéphane Zibi — consultant en technologies émergentes, pionnier du web en France, expert en innovations et en intelligence artificielle — nous alerte sur un phénomène discret mais redoutable : la manière dont les portails comme Yahoo Actualités ou Google News amplifient la désinformation… sans jamais en payer le prix."
Bonjour à toutes et à tous, bonjour Kevin.
Imaginez que vous cherchiez des informations, sur un événement d'actualité. Vous tapez quelques mots dans Google, et là, en première position, apparaît un article de Yahoo Actualités avec un titre choc : "Un champ de massacre : le gouvernement israélien accusé d'avoir ordonné à son armée de tuer délibérément des civils à Gaza". L'information (pourtant maintes fois démontrée comme fausse) vous interpelle, vous cliquez, vous lisez, et peut-être même vous partagez. Mais savez-vous que cet article n'est qu'une copie conforme d'un article de BFMTV, republié tel quel, par Yahoo, sans aucune valeur ajoutée journalistique ?
Kevin : "Mais Stéphane, comment ces portails peuvent-ils continuer à propulser ce genre d’info, sans même vérifier ?"
Ce phénomène révèle un dysfonctionnement majeur de notre écosystème informationnel. Les portails d'agrégation comme Yahoo Actualités, Google News, ou Bing News, sont devenus de véritables amplificateurs d'information, parfois douteuses, grâce à leur puissance de référencement naturel.
Dans cette bataille de la visibilité en ligne, les armes ne sont pas égales.
Le Mécanisme de l'Amplification
Yahoo Actualités ne fait que republier mécaniquement le contenu de BFMTV, sans vérification supplémentaire ni mise en perspective éditoriale. Parce que oui, parfois, je dis bien parfois, BFM peut s’avérer être une source peu fiable. L'algorithme de sélection privilégie, en effet, le potentiel viral au détriment de la vérification factuelle. Résultat : une information non vérifiée se retrouve propulsée en première page, bénéficiant, de la crédibilité supposée, de la source originale et du portail qui la diffuse.
Cette dynamique révèle plusieurs problèmes structurels. D'abord, l'automatisation aveugle : les portails utilisent des algorithmes qui privilégient l'engagement plutôt que la véracité. Ensuite, la déresponsabilisation éditoriale : en se contentant de republier des contenus de sources "réputées", ces portails se déchargent de toute responsabilité. Enfin, l'effet de légitimation : quand une information douteuse est reprise par Yahoo Actualités, elle acquiert une légitimité supplémentaire, qu’elle n’aura jamais du avoir.
Cette dynamique crée une asymétrie redoutable dans la bataille de l'information. Lorsqu'une fake news est reprise par ces portails, elle bénéficie instantanément d'un référencement naturel puissant. Google News, Yahoo Actualités, Bing News indexent et mettent en avant ces contenus, leur conférant une visibilité démultipliée.
Face à cette machine, les voix qui tentent de contredire ou de nuancer l'information partent avec un handicap considérable. Elles ne disposent ni de la même force de frappe éditoriale ni du même pouvoir de référencement. Un fact-checking rigoureux mettra des heures, voire des jours à émerger, quand la fake news aura déjà été partagée des milliers de fois et lue par des millions d'internautes. L'effet de primauté joue à plein : la première information, même fausse, s'ancre plus profondément dans les esprits que les corrections ultérieures.
Kevin "On comprend bien l’urgence… Mais qui pourrait — ou devrait — vraiment agir pour enrayer ce phénomène ?"
La Responsabilité Éditoriale Cachée
Contrairement aux apparences, ces contenus en une ne sont pas sélectionnés automatiquement. Derrière Yahoo Actualités ou Google News, des équipes éditoriales humaines prennent des décisions de mise en avant. Ces choix, guidés par la recherche d'audience, privilégient souvent le sensationnel au factuel.
L'article de BFM TV repris par Yahoo illustre cette logique : un titre percutant, des accusations graves, un potentiel de controverse maximal. Tous les ingrédients sont là. Peu importe que l'information soit basée sur des témoignages anonymes dans un contexte où la vérification est complexe. L'important est de capter l'attention et de générer du trafic. Une des raisons pourrait venir du fait que dans certaines rédactions, les journalistes ont été remplacés par des rédacteurs, donc non soumis à un devoir de vérification des faits, parfois même ces rédactions sont gérées par des responsables spécialistes, d’abord, de référencement naturel.
Le Paradoxe des Droits Voisins
Bref. Ironiquement, cette situation s'inscrit dans un contexte où Google verse des sommes considérables aux médias français au titre des droits voisins. Plus de 450 publications ou sites de presse en France perçoivent ces rémunérations. Cette relation financière crée une dépendance mutuelle, qui peut s’avérer problématique.
Mais cette mécanique économique ne prévoit aucune clause de qualité éditoriale. Google paie pour le contenu, peu importe sa véracité. Les médias touchent de l'argent pour leur production, qu'elle soit rigoureuse ou bâclée. Cette absence de conditionnalité qualitative participe à la déresponsabilisation générale.
Kevin : Et du côté de l’IA, est-ce qu’il existe de vraies alternatives pour contrer cette dérive ?"
Perplexity : Une Fausse Alternative
Face à ces problèmes, certains voient en Perplexity une solution. Cette plateforme, une sorte de mix entre ChatGPT et Google, promet de fournir des réponses précises en citant systématiquement ses sources, permettant théoriquement de croiser les informations et de détecter les incohérences. Contrairement aux portails, qu’on a cités et qui republient, on l’a vu, mécaniquement. Perplexity utilise son IA pour synthétiser l'information à partir de multiples sources.
Mais une analyse approfondie révèle des failles majeures qui remettent en question cette promesse. Une étude de 2024 montre que Perplexity n'a que 49% de précision dans ses citations, ce qui signifie que plus de la moitié, des sources citées, sont inexactes. Avec 31,6% d'hallucinations, Perplexity présente aussi un risque majeur de désinformation.
Pire, il peut légitimer de fausses informations en les présentant avec des "sources" incorrectes et une apparence qu’on pourrait qualifier de scientifique. Cette "fausse autorité technologique" est particulièrement dangereuse car elle exploite la confiance parfois aveugle du public envers l'IA. Au lieu de résoudre le problème de la désinformation, Perplexity finalement la sophistique.
Kevin : "Donc, si on résume : il faudrait que ça coûte, je dirai enfin, quelque chose de diffuser de la fausse information ?"
Vers une Responsabilisation Financière
Exactement Kevin. La solution passe par une conditionnalité des droits voisins à la qualité éditoriale. Google et les autres plateformes pourraient introduire des clauses de qualité dans leurs accords avec les médias, prévoyant des sanctions financières en cas de diffusion avérée de fake news.
Concrètement : quand un média publie une fake news avérée, les portails qui l'ont reprise et amplifiée devraient payer une amende proportionnelle à la diffusion donnée. Cette responsabilité financière inciterait les plateformes à être plus sélectives et à investir dans des systèmes de vérification, comme l’a fait, étonnamment, l’AFP avec Factuel.
La solution pourrait venir d’un nouveau type d’agence comme la WarRoom, fondée, par Benoît Thieulin, ex-président du Conseil national du numérique, qui se présente comme la première agence offensive de riposte cognitive et stratégique face à la désinformation, aux manipulations numériques et à la guerre des récits.
Car aujourd'hui, amplifier une fake news ne coûte rien aux portails d'agrégation, mais leur rapporte des clics et de l'argent. Il faut inverser cette logique en rendant la désinformation coûteuse pour ceux qui la diffusent massivement.
Cette question dépasse l'enjeu économique. Dans un contexte où la désinformation devient un enjeu majeur, nous ne pouvons plus laisser des algorithmes amplifier aveuglément n'importe quelle information. Les portails ont acquis un pouvoir considérable. Ce pouvoir s'accompagne de responsabilités qu'il est temps d'assumer.
Israël a sûrement gagné militairement la guerre contre le Hamas, le Hezbollah et l’Iran mais elle l’a perdue, peut-être, diplomatiquement et surtout sur le terrain de la communication entre autres pour les raisons que nous venons d’évoquer ce matin.
L'équation est donc simple, Kevin : tant que mentir rapportera plus que dire la vérité, la machine à fake news continuera de tourner. Il est urgent d'inverser cette logique avant que notre capacité collective à distinguer le vrai du faux ne soit définitivement compromise. Car une démocratie sans information fiable, ce n'est plus vraiment une démocratie.
Bonne journée à toutes et à tous!