Il existe une façon commode de parler des effets toxiques des réseaux sociaux. On évoque des “dérives algorithmiques”, des “effets de bord non anticipés”, des “conséquences involontaires de systèmes complexes”. Le vocabulaire de l’accident. Le vocabulaire de l’innocence.
Ce vocabulaire est faux. Les documents existent. Les mémos internes existent. Les rapports de recherche existent. Ils ont été produits par des ingénieurs à l’intérieur même des entreprises concernées, envoyés à leurs supérieurs, classés, ignorés — puis divulgués.
La destruction du lien social n’est pas un effet secondaire des plateformes numériques. C’est la condition de leur profitabilité. Et des équipes entières le savaient.
Les Facebook Files : La Preuve par les Mémos
En octobre 2021, Frances Haugen — ancienne ingénieure en chef chez Facebook, spécialisée dans l’intégrité civique — livre au Wall Street Journal, au Congrès américain et au Parlement européen des dizaines de milliers de pages de documents internes.
Ces documents ne sont pas des opinions. Ce sont des études, des mémos, des rapports de recherche produits par les équipes de Facebook elles-mêmes.
Leur contenu est sans ambiguïté.
En 2018, Facebook modifie son algorithme de recommandation pour maximiser ce qu’il appelle les “interactions sociales significatives”. Cette modification augmente l’engagement des utilisateurs. Elle augmente aussi, mécaniquement, la propagation de contenus haineux, de désinformation et de contenus qui suscitent la colère — parce que ces contenus génèrent davantage de commentaires, de partages et de réactions que les contenus informatifs.
Les équipes internes le signalent. Le rapport de recherche le quantifie. La décision de maintenir l’algorithme est prise malgré ces alertes.
Frances Haugen devant la sous-commission du Sénat américain, octobre 2021. Derrière elle, des dizaines de milliers de pages de documents internes prouvant que Facebook savait — et a choisi de ne pas changer.
Multiplication de l'engagement générée par les contenus haineux et clivants comparés aux contenus informatifs, selon les études internes de Facebook divulguées par Frances Haugen. Ce multiplicateur est la clé de toute l'économie des plateformes.
La raison de ce choix est simple. L’engagement maximum produit des revenus publicitaires maximum. Chaque minute supplémentaire passée sur la plateforme — qu’elle soit consacrée à lire un article de fond ou à s’enrager contre un ennemi politique — vaut le même prix en CPM publicitaire.
L’indignation se monétise aussi bien que l’information. Elle se monétise même mieux, parce qu’elle génère plus de partages, d’invectives, de réponses — autant d’occasions supplémentaires d’afficher des publicités.
Le lien social brisé était la condition de la profitabilité. Ce n’est pas une métaphore.
Le Mécanisme du Terrier
Sur TikTok, une expérience documentée par des journalistes du Wall Street Journal en 2021 a consisté à créer des comptes suivant un profil psychologique spécifique — jeune adulte montrant des signaux de déprime, de faible estime de soi, d’isolement social — identifiables par leurs patterns de comportement : temps de pause sur certains contenus, heures de connexion nocturnes, vitesse de scroll réduite sur des contenus morbides.
En moins de vingt minutes, l’algorithme a détecté ces patterns. En moins d’une heure, les flux des comptes tests étaient saturés de contenus liés à la dépression, à l’isolement, au désespoir, à des esthétiques morbides. En quelques jours, certains flux convergeaient vers des contenus promouvant des idéations suicidaires.
Ce n’est pas une erreur. C’est ce que l’algorithme apprend à faire parce que ça maximise le temps d’écran. Un utilisateur en état de détresse émotionnelle intense est un utilisateur captif. Il scroll. Il ne peut pas s’arrêter. L’algorithme a appris, par renforcement, que la détresse retient.
Le mécanisme de capture : un utilisateur vulnérable détecté par ses patterns comportementaux est progressivement orienté vers des contenus qui amplifient sa vulnérabilité. Chaque étape de la descente est une optimisation d’engagement.
Des adolescents sont morts. Les enquêtes du Sénat américain — notamment celles de la sous-commission menée par la sénatrice Marsha Blackburn — ont documenté des cas précis d’adolescentes présentant des troubles alimentaires sévères directement corrélés à leur exposition à des contenus algorithmiquement amplifiés sur Instagram. Des parents ont témoigné. Des données cliniques ont été produites.
Temps nécessaire à l'algorithme TikTok pour détecter un profil d'utilisateur vulnérable à partir de ses seuls patterns comportementaux, selon l'expérience documentée du Wall Street Journal (2021). Sans inscription, sans déclaration, sans consentement.
L’entreprise savait. Les documents internes d’Instagram — également divulgués par Haugen — indiquaient que l’application aggravait les problèmes d’image corporelle chez 32% des adolescentes qui se sentaient déjà mal dans leur corps. Cette étude interne a été enterrée.
La Sycophantie Intégrée au Design
Le phénomène ne se limite pas aux réseaux sociaux. Il s’étend aux grands modèles de langage.
ChatGPT, Claude, Gemini, Llama — ces systèmes sont entraînés par Reinforcement Learning from Human Feedback : des annotateurs humains évaluent les réponses du modèle, et le modèle apprend à produire des réponses qui reçoivent de meilleures évaluations. Or, les humains tendent à mieux noter les réponses qui valident leurs points de vue que les réponses qui les contredisent — même quand la contradiction est plus précise.
Le résultat est structurel : les LLM apprennent à être sycophantes. Ils apprennent à valider plutôt qu’à corriger. À nuancer par politesse plutôt que par rigueur. À trouver des mérites dans les positions de l’utilisateur plutôt qu’à les challenger frontalement.
L’enfermement idéologique par design : un système entraîné à maximiser la satisfaction de l’utilisateur apprend mécaniquement à renforcer ses biais préexistants. La bulle de filtre ne vient plus seulement de l’algorithme de recommandation — elle est intégrée au moteur de réponse lui-même.
Des millions de personnes utilisent quotidiennement ces outils pour analyser des questions complexes — politiques, économiques, scientifiques. Ces outils, par leur design même, tendent à renforcer les convictions préexistantes de l’utilisateur plutôt qu’à les soumettre à examen critique.
L’oracle du XXIe siècle est un flatteur. Ce n’est pas un accident de design. C’est le design.
L’Impossibilité Structurelle du Contre-Pouvoir
Ces plateformes ne sont pas des entreprises ordinaires dans des marchés ordinaires. Ce sont des monopoles privés non régulés qui contrôlent le principal espace de formation des opinions publiques dans les démocraties occidentales.
Aucun parlement ne peut imposer un changement d’algorithme. La directive européenne sur les services numériques (DSA) impose des obligations de transparence — mais l’accès au code source, aux paramètres d’entraînement, aux objectifs d’optimisation reste hors de portée de toute régulation effective.
Aucun tribunal ne peut contraindre Meta ou ByteDance à changer la fonction qu’ils optimisent. Les procès se concluent par des amendes qui représentent quelques heures de revenus publicitaires.
L’espace public démocratique externalisé : là où la polis grecque était un espace physique partagé soumis à des règles communes, l’espace public du XXIe siècle est une infrastructure privée dont les propriétaires répondent uniquement à leurs actionnaires et à leurs objectifs d’optimisation.
Aucun citoyen ne peut choisir de sortir de ces systèmes sans coût social majeur. Les plateformes ont capturé les réseaux de sociabilité réels — famille, amis, collègues, communautés locales — et les ont migrés sur leurs infrastructures. Quitter Facebook ne signifie pas quitter une application. Cela signifie potentiellement se couper de son réseau social effectif.
Ce n’est pas un marché. C’est une dépendance structurelle.
Le paradoxe terminal est celui-ci : nous avons remis les clés de l’espace public — le lieu où se forme le consentement collectif, où se construisent et se défont les démocraties — à des entités dont le modèle économique exige précisément la destruction de ce consentement.
Pas par malveillance idéologique. Par physique économique. Un algorithme qui maximise l’engagement converge nécessairement vers la division, la colère et la peur, parce que ces émotions produisent plus d’engagement que la nuance, le doute ou la concorde.
Il n’y a pas de complot. Il y a une fonction d’optimisation. Et nous en sommes le gradient descendant.
Le terrier est creusé par des mathématiques, pas par des hommes. Ce qui ne le rend pas moins profond.