Comment l’algorithme de X modifie les attitudes politiques


Avec l’avènement des algorithmes de flux, les flux des réseaux sociaux ne sont plus de simples listes chronologiques de publications provenant des comptes que les utilisateurs suivent. Au contraire, les algorithmes sélectionnent ce que les utilisateurs voient en insérant des publications provenant de comptes qu’ils ne suivent pas et en remaniant l’ordre du contenu, ce qui peut faire descendre et, par conséquent, masquer efficacement les publications des comptes suivis. Les algorithmes sélectionnent des flux personnalisés principalement afin de maximiser l’engagement des utilisateurs sur la plateforme, mais aussi potentiellement à d’autres fins. Les inquiétudes quant au fait que les algorithmes des réseaux sociaux puissent fausser les attitudes et influencer les résultats sociaux et politiques sont très répandues (par exemple, Pariser 2011, Settle 2018, Sunstein 2018, Persily et Tucker 2020, Rose-Stockwell 2023, Braghieri et al. 2025). Ces algorithmes peuvent promouvoir des contenus qui attirent l’attention des utilisateurs, tels que des publications extrêmes et toxiques. Ils peuvent également donner la priorité aux publications qui renforcent les croyances et les idées fausses existantes des utilisateurs, contribuant ainsi à la création d’environnements d’information polarisés, appelés « bulles de filtrage ».

Pourtant, étonnamment, des expériences rigoureuses à grande échelle menées précédemment ont montré que les attitudes politiques n’étaient pas affectées par la désactivation des algorithmes de flux (Guess et al. 2023). En particulier, une étude menée avec Meta pendant les élections américaines de 2020 a montré que le remplacement du flux des utilisateurs, passé d’un flux organisé par un algorithme à un flux chronologique, modifiait ce que les utilisateurs voyaient sur leur flux, diminuait leur engagement, mais n’avait pas d’effet mesurable sur leurs attitudes politiques, leur partisanerie ou leur polarisation.

Cette conclusion soulève d’importantes questions : les inquiétudes couramment exprimées au sujet des algorithmes sont-elles injustifiées ? L’exposition aux flux algorithmiques pourrait-elle avoir des effets sur les attitudes qui persistent même après la désactivation de l’algorithme, ce qui impliquerait une asymétrie entre les effets de l’activation et de la désactivation d’un flux algorithmique ? Ces résultats peuvent-ils être généralisés à d’autres plateformes ? Faut-il s’attendre à ce que certaines attitudes politiques soient plus malléables et plus facilement influencées par l’algorithme que d’autres dans des environnements fortement polarisés et partisans ?

L’expérience

Dans un nouvel article (Gauthier et al. 2026), nous présentons les résultats d’une expérience que nous avons menée sur X (anciennement Twitter) au cours de l’été 2023. X a offert une occasion rare d’étudier les algorithmes de flux sans la coopération de la plateforme. Les utilisateurs pouvaient choisir entre deux flux : un flux chronologique (onglet « Abonnés ») qui affichait les publications des comptes suivis par les utilisateurs dans l’ordre chronologique inverse, et un flux algorithmique (onglet « Pour vous ») qui réorganisait le contenu et ajoutait des publications provenant de comptes que les utilisateurs ne suivaient pas. Nous avons recruté environ 5 000 utilisateurs actifs de X, les avons répartis de manière aléatoire entre le flux algorithmique et le flux chronologique, et les avons rémunérés pour qu’ils conservent le paramètre de flux qui leur avait été attribué pendant sept semaines.

Certains participants ont donc dû changer de paramètre de flux, tandis que d’autres ont conservé leur paramètre de flux précédent. Cette conception nous a permis d’étudier deux traitements distincts : l’activation de l’algorithme pour les utilisateurs qui utilisaient auparavant un flux chronologique, et sa désactivation pour les utilisateurs qui utilisaient auparavant le flux algorithmique. Nous avons mesuré les effets de cette intervention sur l’engagement des utilisateurs, leurs opinions politiques et leurs choix de comptes à suivre.

L’activation de l’algorithme a fait basculer les opinions vers la droite ; sa désactivation n’a eu aucun effet.

Tout d’abord, comme on pouvait s’y attendre, l’algorithme maximisant l’engagement, les utilisateurs qui sont passés du fil chronologique au fil algorithmique ont passé plus de temps sur X que ceux qui sont restés sur le fil chronologique. Notre deuxième conclusion est nouvelle par rapport à la littérature antérieure : les opinions politiques ont été fortement et significativement influencées par l’activation de l’algorithme. L’exposition au flux algorithmique a fait évoluer les opinions politiques des utilisateurs dans un sens pro-républicain. Après sept semaines d’exposition au flux algorithmique induite par l’expérience, ces utilisateurs étaient plus enclins à privilégier les questions politiques généralement mises en avant par les républicains, telles que l’inflation, l’immigration et la criminalité, plutôt que les questions politiques généralement mises en avant par les démocrates, telles que la santé et l’éducation, par rapport aux utilisateurs qui sont restés sur le flux chronologique.

Ils étaient également, en moyenne, plus enclins à considérer les enquêtes criminelles sur Donald Trump comme inacceptables, les considérant comme portant atteinte à la démocratie et à l’État de droit. Ils étaient également plus susceptibles d’adopter une position pro-Kremlin concernant l’invasion de l’Ukraine par la Russie et d’exprimer des sentiments négatifs à l’égard des dirigeants ukrainiens et du soutien de Joe Biden à l’Ukraine. Nous illustrons certains de ces effets à l’aide de résultats sélectionnés dans le panneau (a) de la figure 1.

Figure 1 Effets de l’activation et de la désactivation de l’algorithme sur l’engagement et certaines attitudes politiques

(a) Utilisateurs initialement sur le fil chronologique passés au fil algorithmique

(b) Les utilisateurs initialement sur le fil d’actualité algorithmique sont passés au fil d’actualité chronologique

Remarques : résultats sélectionnés en matière d’attitudes. Le panneau (a) montre les effets du passage des utilisateurs du fil chronologique au fil algorithmique ; le panneau (b) montre les effets du passage des utilisateurs du fil algorithmique au fil chronologique. Les barres indiquent les résultats moyens de l’enquête (engagement avec X, priorités politiques, opinions sur les enquêtes concernant Donald Trump et sentiments à l’égard du président ukrainien Volodymyr Zelenskyy et des enquêtes concernant le président américain Donald Trump) après sept semaines d’exposition au fil d’actualité attribué, regroupés par fil d’actualité initial des utilisateurs (panneaux a et b) et par fil d’actualité de traitement (barres grises et rouges). Intervalles de confiance à 95 % indiqués. Pour plus de détails, voir Gauthier et al. (2026).
Source : Gauthier et al. (2026).

Ces résultats sont dus aux effets observés chez les utilisateurs qui se sont déclarés républicains ou indépendants dans l’enquête préalable au traitement, ce qui correspond à une conclusion courante dans la littérature sur la persuasion, selon laquelle la persuasion est plus efficace auprès d’un public déjà prédisposé (par exemple, Adena et al. 2015).

Ce que nous ne constatons pas est tout aussi frappant. Premièrement, le fait de faire passer les utilisateurs du flux algorithmique au flux chronologique n’a eu pratiquement aucun effet sur leurs attitudes politiques (figure 1, panneau (b)). Cela correspond tout à fait à l’étude Meta (Guess et al. 2023) et suggère la validité générale des conclusions de Meta et de nos expériences.

Deuxièmement, nous n’avons constaté aucun effet sur la partisanerie ou la polarisation autodéclarées, que l’algorithme soit activé ou désactivé. Cela suggère que les algorithmes peuvent modifier les opinions sur les questions politiques actuelles et les priorités politiques, mais pas l’identité partisane plus rigide des utilisateurs.

Comment les algorithmes laissent une empreinte durable

À première vue, l’asymétrie des effets de l’activation et de la désactivation de l’algorithme sur les attitudes politiques est déroutante. Si la curation algorithmique pousse les opinions dans une direction, pourquoi sa suppression n’inverse-t-elle pas ces effets ? La réponse réside dans la manière dont l’algorithme façonne le comportement des utilisateurs.

Pour comprendre ce mécanisme, nous avons analysé à la fois le contenu présenté aux utilisateurs sur leur fil d’actualité et les comptes qu’ils ont choisi de suivre. Tout d’abord, nous avons demandé aux utilisateurs d’utiliser une extension Google Chrome spécialement conçue à cet effet, qui téléchargeait le contenu de leurs fils d’actualité dans les deux configurations. Ces données ont fourni des preuves directes de ce que l’algorithme X a promu au cours de l’été 2023. Par rapport au fil d’actualité chronologique, le fil d’actualité algorithmique affichait beaucoup plus de publications qui avaient déjà généré un engagement élevé (likes, commentaires et reposts).

En ce qui concerne la politique, le fil d’actualité algorithmique présentait une part nettement plus importante de contenu politique, et parmi celui-ci, il privilégiait beaucoup plus le contenu de droite que celui de gauche. Il affichait beaucoup plus de publications provenant d’activistes politiques (définis comme des utilisateurs réguliers qui publient beaucoup sur la politique et qui ne peuvent être classés comme médias, gouvernements ou organisations), tant à droite qu’à gauche, mais affichait moins de publications provenant de médias traditionnels, également tant à droite qu’à gauche. Même si nous avons constaté une hétérogénéité importante dans la part de contenu de droite dans les flux des utilisateurs républicains et démocrates, la part de contenu de droite parmi l’ensemble du contenu politique était nettement plus élevée pour les deux groupes d’utilisateurs. Nous illustrons le contenu promu par l’algorithme dans la figure 2. (Les différences de contenu entre les paramètres chronologiques et algorithmiques du flux sont les mêmes, que nous incluions ou non les effets fixes des utilisateurs).

Figure 2 Ce que l’algorithme promeut, selon l’appartenance politique déclarée

(a) Démocrates

(b) Républicains et indépendants

Remarques : Contenu des flux, par affiliation politique déclarée. Contenu moyen présenté aux utilisateurs dans chaque paramètre de flux : le flux chronologique (gris) et le flux algorithmique (rouge). Intervalles de confiance à 95 % indiqués. Pour plus de détails, voir Gauthier et al. (2026).
Source : Gauthier et al. (2026).

Deuxièmement, nous constatons que l’exposition à l’algorithme modifie les comptes que les utilisateurs choisissent de suivre. Les utilisateurs qui sont passés au flux algorithmique sont plus enclins à suivre des comptes d’activistes politiques, en particulier ceux de droite. En revanche, nous ne constatons aucun changement dans les comptes suivis par les utilisateurs qui sont passés au fil d’actualité chronologique. Cela explique l’asymétrie des effets. Cela implique que l’algorithme incite les utilisateurs à découvrir de nouvelles sources, et que ceux-ci continuent à les suivre même après la désactivation de l’algorithme (c’est-à-dire que les utilisateurs d’ s ne se désabonnent pas activement de ces comptes). L’influence de ces sources persiste donc même lorsque le fil d’actualité algorithmique est désactivé.

Implications pour la politique et la conception des plateformes

Ces résultats ont des implications importantes pour le débat sur la réglementation des algorithmes des réseaux sociaux.

Nos résultats suggèrent fortement que les algorithmes des flux des réseaux sociaux ne sont pas politiquement neutres. Ils peuvent influencer les opinions des gens, et ces effets peuvent durer plus longtemps que l’algorithme lui-même, car ils affectent le comportement en ligne des utilisateurs et, plus particulièrement, le choix des comptes suivis. Cela nécessite une discussion sérieuse sur la réglementation des algorithmes des flux.

En outre, nos conclusions soulignent que les algorithmes peuvent façonner les attitudes politiques sans accroître la polarisation partisane déclarée ou modifier l’identité partisane, du moins pas à court terme. Cela remet en question la tendance courante à assimiler l’influence politique uniquement à la polarisation. Des changements subtils dans les priorités et les convictions concernant l’actualité peuvent avoir des conséquences tout aussi importantes pour les résultats démocratiques. De plus, si les gens utilisent ces plateformes pendant des années, on ne peut exclure que l’influence sur ces priorités et ces convictions s’accumule au fil du temps et finisse par modifier également les identités politiques les plus profondément ancrées.

Enfin, notre étude souligne l’importance d’étudier les plateformes de manière indépendante et dans des conditions réelles. Étant donné que les algorithmes, le contenu et le comportement des utilisateurs peuvent évoluer rapidement et que leurs effets dépendent des choix de conception et des incitations propres à chaque plateforme, un suivi systématique des algorithmes des médias sociaux est nécessaire (Aridor et al. 2025).

Note de la rédaction : Cet article est une traduction automatique. L’original est disponible ici : How X’s algorithm shifts political attitudes

Y a-t-il un problème avec cette traduction ? Veuillez envoyer un courriel à [email protected].

Références

Adena, M, R Enikolopov, M Petrova, V Santarosa, and E Zhuravskaya (2015), “Radio and the rise of the Nazis in prewar Germany”, The Quarterly Journal of Economics 130(4): 1885–940.

Aridor, G, R Jiménez-Durán, R Levy, and L Song (2025), “A practical guide to running social media experiments”, VoxEU.org, 8 June.

Braghieri, L, S Eichmeyer, R Levy, and M Mobius (2025), “Article-level slant and polarisation of news consumption on social media”, VoxEU.org, 17 April.

Gauthier, G, R Hodler, P Widmer, and E Zhuravskaya (2026), “The political effects of X’s feed algorithm”, Nature, doi:10.1038/s41586-026-10098-2.

Guess, M, N Malhotra, J Pan, et al. (2023), “How do social media feed algorithms affect attitudes and behavior in an election campaign?”, Science 381(6656): 398–404.

Pariser, E (2011), The filter bubble: How the new personalized web is changing what we read and how we think, Penguin Press.

Persily, N, and J Tucker, eds. (2020), Social media and democracy: The state of the field, prospects for reform, Cambridge University Press.

Rose-Stockwell, T (2023), Outrage machine: How tech amplifies discontent, disrupts democracy – and what we can do about it, Hachette Books.

Settle, J E (2018), Frenemies: How social media polarizes America, Cambridge University Press.

Sunstein, C R (2018), Republic: Divided democracy in the age of social media, Princeton University Press.



Source link

  • Related Posts

    AI Producer Launches AI Producer in Teams as a Managed Application for Enterprises

    PALO ALTO, Calif., Feb. 27, 2026 (GLOBE NEWSWIRE) — AI Producer in Teams provides AI-assisted production and meeting enhancements with preset production formats, branding, overlays, custom layouts, high-quality video playback,…

    Friday assorted links

    1. A paraphrase of Heidegger? 2. Jimi Hendrix as systems engineer. 3. NYT on the possible Nevis charter city. 4. New teen mental health problems in Australia? 5. Jacinda Ardern…

    Leave a Reply

    Your email address will not be published. Required fields are marked *

    You Missed

    AI Producer Launches AI Producer in Teams as a Managed Application for Enterprises

    Bill Clinton to testify before House committee investigating Epstein links | Bill Clinton

    Bill Clinton to testify before House committee investigating Epstein links | Bill Clinton

    La Liga: date, time, channels and lineups for FC Barcelona – Villarreal

    La Liga: date, time, channels and lineups for FC Barcelona – Villarreal

    ‘Like it’s 2024 again’: Trump takes centre stage in 2026 midterm elections | Donald Trump News

    ‘Like it’s 2024 again’: Trump takes centre stage in 2026 midterm elections | Donald Trump News

    Tyler McGregor, Natalie Wilkie named Canada’s flag bearers for Paralympics

    Tyler McGregor, Natalie Wilkie named Canada’s flag bearers for Paralympics

    Tell us what Pokémon means to you | Pokémon

    Tell us what Pokémon means to you | Pokémon