Partager

TikTok : 25% des contenus d’information que vous voyez sont trompeurs selon une étude européenne

SoonNight - TikTok : 25% des contenus d'information que vous voyez sont trompeurs selon une étude européenne

Une étude européenne révèle que TikTok affiche 25% de contenus d'information trompeurs, loin devant Facebook, YouTube et Instagram.

Une étude européenne publiée en mars 2026 révèle un constat alarmant sur la plateforme chinoise TikTok. Environ un contenu d’information sur quatre y serait trompeur. Cette enquête massive a analysé près de 3 millions de publications issues de six grandes plateformes numériques.

Les réseaux sociaux restent donc durablement perméables aux fake news. De plus, les contenus trompeurs génèrent davantage d’engagement que les sources fiables. Ce phénomène inquiète les chercheurs et les régulateurs européens.

Une enquête européenne d’ampleur sur la désinformation

Le rapport scientifique a été publié par l’organisation Science Feedback. L’agence de vérification de Radio France a pu le consulter en amont. Ce travail s’inscrit dans le projet SIMODS, mené avec plusieurs partenaires européens.

L’objectif de cette initiative est clair. Il s’agit de mesurer de manière indépendante la présence et la diffusion de la désinformation. Les grandes plateformes en ligne sont ainsi passées au crible par des experts.

L’étude repose sur l’analyse de publications collectées en octobre 2025. Six plateformes ont été examinées : Facebook, Instagram, LinkedIn, TikTok, X et YouTube. Quatre pays européens, dont la France, ont été concernés par cette recherche.

« Les contenus qui suscitent le plus d’émotion et de réactions sont mis en avant, et la désinformation en profite. »

TikTok en tête des réseaux touchés par les fausses informations

Sur TikTok, environ 25% des contenus d’information vus par les utilisateurs sont trompeurs. Cette estimation concerne aussi uniquement les publications relevant de l’information. Ainsi, les domaines de la santé, de la politique et du climat sont concernés.

En incluant les contenus dits « limites » ou problématiques, la proportion atteint environ 43%. Ces contenus comprennent les appels à la haine et les publications toxiques. Par conséquent, près de la moitié de ce que voient les utilisateurs pose problème.

Les autres plateformes ne sont pas épargnées

Sur les autres réseaux, la part de désinformation reste significative. Facebook affiche environ 15% de contenus trompeurs. YouTube suit avec 12%, puis X avec 11% et Instagram avec 8%.

En revanche, LinkedIn se distingue avec un niveau très faible. Seulement 1% des contenus y seraient problématiques. Cette différence s’explique sans doute par la nature professionnelle de ce réseau.

  • TikTok : environ 25% de contenus d’information trompeurs
  • Facebook : environ 15% de contenus trompeurs
  • YouTube : environ 12% de contenus trompeurs
  • X : environ 11% de contenus trompeurs
  • LinkedIn : environ 1% de contenus trompeurs

Les chercheurs ont constitué un échantillon aléatoire pondéré par le nombre de vues. Cette méthode permet de mesurer l’exposition réelle des utilisateurs. Des fact-checkeurs professionnels ont ensuite analysé et qualifié les contenus.

Une « prime à la désinformation » mise en évidence

Le rapport met en évidence un phénomène préoccupant. À audience comparable, les comptes diffusant des contenus trompeurs génèrent bien plus d’engagement. Sur X, cet écart atteint jusqu’à 10 fois plus d’engagement.

Des tendances similaires apparaissent sur YouTube et Facebook. Emmanuel Vincent, directeur de Science Feedback, évoque aussi un effet structurel. Cet effet serait lié aux logiques d’engagement des plateformes dont l’objectif est d’obtenir l’attention des utilisateurs.

L’intelligence artificielle amplifie le phénomène

L’étude observe la progression des contenus générés par intelligence artificielle. Sur TikTok, environ 24% des contenus trompeurs identifiés sont produits par IA. Sur YouTube, cette proportion atteint aussi 19%.

Seule une minorité de ces contenus est signalée comme telle. Autrement dit, peu sont estampillés « généré par IA ». Les chercheurs observent notamment la multiplication de fausses vidéos mettant en scène des avatars.

Ces avatars se font parfois passer pour des professionnels de santé. Ainsi, des informations médicales erronées circulent sans être identifiées. Ce phénomène représente un risque sanitaire réel pour les utilisateurs.

Le rapport souligne que ces contenus restent largement monétisés. Sur YouTube, 81% des chaînes diffusant aussi souvent des informations trompeuses continuent de voir leurs contenus monétisés. Ces chaînes remplissent les critères d’éligibilité à la monétisation.

Un manque de transparence pointé du doigt

Les auteurs pointent un manque de transparence des plateformes. Malgré des demandes fondées sur le règlement européen sur les services numériques (DSA), les réponses restent insuffisantes. Seule LinkedIn a fourni les données demandées.

Cette situation limite la capacité des chercheurs. Ils ne peuvent aussi pas évaluer correctement les risques systémiques liés à la désinformation. Selon Emmanuel Vincent, certaines plateformes pourraient être en infraction avec le DSA.

Ces résultats confirment ceux d’une première vague d’analyses publiée en septembre 2025. Cette précédente étude portait aussi sur 2,6 millions de publications collectées au printemps. La cohérence entre les deux vagues renforce aussi l’idée d’un phénomène durable.

Partager