Le New York Times revient sur de nouvelles études portant sur l’influence des médias sociaux. Ces études racontent une histoire complexe.
Rédigés par des chercheurs d’élite issus d’universités américaines, les articles parus dans Nature et Science examinent chacun différents aspects de l’une des questions de politique publique les plus passionnantes de notre époque : la manière dont les médias sociaux façonnent nos connaissances, nos croyances et nos comportements.

En s’appuyant sur les données recueillies auprès de centaines de millions d’utilisateurs de Facebook pendant plusieurs mois, les chercheurs ont constaté que, sans surprise, la plateforme et ses algorithmes exerçaient une influence considérable sur les informations que les utilisateurs voyaient, sur le temps qu’ils passaient à faire défiler les pages et à naviguer en ligne, ainsi que sur leur connaissance des événements d’actualité. Facebook a également eu tendance à montrer aux utilisateurs des informations provenant de sources avec lesquelles ils étaient déjà d’accord, créant ainsi des « bulles de filtre » politiques qui renforcent les visions du monde des gens, et a été un vecteur de désinformation, principalement pour les utilisateurs politiquement conservateurs.
Mais la plus grande nouvelle est venue de ce que les études n’ont pas trouvé : malgré l’influence de Facebook sur la diffusion de l’information, rien ne prouve que la plateforme ait un effet significatif sur les croyances sous-jacentes des gens ou sur les niveaux de polarisation politique.
Ce ne sont là que les derniers résultats en date qui suggèrent que la relation entre les informations que nous consommons et les convictions que nous avons est bien plus complexe qu’on ne le pense généralement.
Les études, prises ensemble, suggèrent que la première partie de la théorie de la « bulle de filtre » est prouvée. La plupart des fausses informations étaient concentrées dans un coin conservateur du réseau social, ce qui fait que les utilisateurs de droite sont beaucoup plus susceptibles de rencontrer des mensonges politiques sur la plateforme.
En ce qui concerne la deuxième partie de la théorie, à savoir que ce contenu filtré façonnerait les croyances et les visions du monde des gens, souvent de manière préjudiciable, les articles n’ont trouvé que peu de soutien. La suppression de l’influence de l’algorithme sur les fils d’actualité des utilisateurs, de sorte qu’ils ne voient plus que le contenu dans l’ordre chronologique, « n’a pas modifié de manière significative les niveaux de polarisation thématique, de polarisation affective, de connaissances politiques ou d’autres attitudes clés », ont constaté les chercheurs.
« Dans le domaine où j’effectue mes recherches, la conclusion qui s’est dégagée au fur et à mesure de l’évolution du domaine est que les informations factuelles modifient souvent les opinions factuelles des gens, mais que ces changements ne se traduisent pas toujours par des attitudes différentes »
Brendan Nyhan
Brendan Nyhan, qui étudie les perceptions politiques erronées et qui est l’auteur principal de l’une des études, a déclaré que les résultats étaient frappants parce qu’ils suggéraient un lien encore plus lâche entre l’information et les croyances que ce qui avait été démontré dans des recherches antérieures.
Mon commentaire
Ces résultats, s’ils se confirmaient, impactent les questions éducatives relativement aux volet d’éducation aux médias de nos plans d’études (curriculum). En effet, les différents dispositifs de cette éducation relative souvent aux questions de dispositifs d’enseignement traitant des fake news ou du fact checking ont peu de chances d’être effectives si le plus important réside dans les croyances des individus. D’autant plus, si ces croyances sont établies très tôt chez les individus, par exemple au début de l’adolescence.
L’article intégral (en anglais, réservé aux abonnés) : Does Information Affect Our Beliefs?
Laisser un commentaire