Une série de quatre articles consacrés à la circulation des opinions politiques sur Facebook, fruit d’une collaboration entre le réseau social et plusieurs grandes universités américaines, est parue mardi 25 juillet dans les journaux scientifiques Science et Nature. Ces publications tirent le bilan de plusieurs expériences menées durant l’élection présidentielle américaine de 2020 par des scientifiques, qui ont modifié le contenu des fils Facebook de milliers de volontaires afin de mesurer les conséquences sur leur polarisation politique.
Les chercheurs ont mesuré les comportements politiques des participants à l’entrée et à la sortie des expériences : la plupart n’ont mesuré aucun changement significatif. Selon Nick Clegg, responsable de la communication du groupe Meta, ces recherches mettent à mal la thèse selon laquelle les algorithmes de Meta « [fournissent] aux gens des contenus qui les divisent ».
Une affirmation cependant contestée par les auteurs des études, interrogés par le Wall Street Journal et le magazine Wired. Ces scientifiques soulignent la durée très courte de leurs travaux – trois mois. A leurs yeux, l’absence d’inflexions des comportements politiques sur une si courte durée ne prouve pas que les algorithmes de l’entreprise n’ont aucun impact sur le temps long.
Ils soulignent que ces expériences ont eu lieu à la toute fin d’une campagne largement couverte par les chaînes de TV américaines, une autre source d’influence majeure pour les électeurs américains. Et que durant la campagne, les modérateurs de Meta ont fait preuve d’un zèle particulier dans leur lutte contre la désinformation.
Surtout, si ces études n’établissent pas que l’algorithme de Facebook peut influer sur les opinions politiques de ses utilisateurs, elles montrent qu’il modifie grandement la nature des contenus qui leur parviennent.
Des changements pas si anodins
En bloquant les contenus repartagés par les amis des participants, la première étude a ainsi pu déterminer que la quantité d’articles politiques a baissé de 60 % dans les fils d’actualité des volontaires, et la quantité de messages provenant de sources non fiables de 30 %. La même expérience montre que les participants voient diminuer la part des contenus exprimant des opinions qu’ils partagent de 5 %, tandis que ceux provenant de sources modérées progressaient de 16 %. Les contenus agressifs progressaient, eux, de 6 %.
La deuxième étude, parue dans Science, a forcé chez les participants l’affichage des contenus par ordre chronologique – ceux-ci sont normalement distribués selon un algorithme à la logique complexe. Sur les fils Facebook des volontaires, la proportion de contenus provenant de sources aux opinions équivalentes aux leurs a chuté de 10 %. Les contenus de sources modérées progressaient de 36 % – ce qui n’empêche pas, dans le même temps, la quantité de contenus issus de sources peu fiables d’exploser elle aussi : + 69 %.
Finalement, si le taux d’articles politiques progressait de 40 %, l’intérêt des internautes pour la plate-forme, lui, diminuait drastiquement : leur fréquentation de Facebook a chuté de 42 % à la suite du passage au fil chronologique.
La troisième étude a tenté de réduire d’un tiers, dans le fil des volontaires, le nombre de publications faisant état d’opinions politiques proches des leurs – sans observer de changement de leur comportement politique au bout du compte. Les chercheurs ont cependant relevé que les contenus politiques ne constituaient qu’une petite partie de ce qui s’affiche dans le fil Facebook des internautes américains. Et qu’une vaste majorité de ceux-ci proviennent de sources aux opinions proches des leurs.
Le Monde
Offre spéciale étudiants et enseignants
Accédez à tous nos contenus en illimité à partir de 8,99 euros par mois au lieu de 10,99 euros
S’abonner
La quatrième étude enfin a étudié les différences entre la totalité des publications que les participants auraient pu voir et celles qu’ils ont réellement consultées. Elle montre que la désinformation est beaucoup plus courante dans les contenus d’orientation conservatrice que leur contrepartie libérale. Elle révèle également que la polarisation politique est beaucoup plus forte dans les contenus issus des groupes que dans ceux publiés par les amis.
Des conclusions qui se verront enrichir dans les prochains mois par une douzaine d’autres études issues de la même initiative.