III. LA DÉMISSION COLLECTIVE
PARTIE III : LA DÉMISSION COLLECTIVE (Le Mode sans Échec)
CHAPITRE 6 : L’EFFONDREMENT DE LA PREUVE
Nous avons bâti nos sociétés sur un socle fragile : la Vérité Partagée. Pour vivre ensemble, il faut s’accorder sur une base commune de réalité. Hannah Arendt nous avait prévenus : sans un “monde commun”, sans une réalité factuelle indiscutable qui s’interpose entre les hommes, aucune politique, aucune liberté n’est possible. Si chacun s’enferme dans sa propre logique, le lien social se dissout et laisse place à la tyrannie.
Le contrat social ne repose pas que sur des lois, il repose sur une confiance implicite dans nos sens. Une photo est une preuve. Un enregistrement vocal est un témoignage. Une vidéo est un fait.
Ce socle vient de voler en éclats. Nous ne sommes plus simplement dans la Caverne de Platon, à regarder des ombres en espérant trouver la sortie vers la lumière. Nous sommes entrés dans l’ère de l’hyperréel prophétisée par Jean Baudrillard, où le simulacre ne cache plus la vérité, mais la remplace. La carte a fini par effacer le territoire.
L’Intelligence Artificielle Générative est une machine à dissoudre le réel. Elle sature l’espace informationnel de simulacres parfaits. Le faux n’est plus grossier, il est indiscernable. Le “fauthentique” est devenu la norme.
Ce n’est plus de la science-fiction, c’est l’actualité immédiate.
• En 2024, lors des primaires américaines, des milliers d’électeurs ont reçu un appel téléphonique avec la voix de Joe Biden leur demandant de ne pas aller voter. C’était un clone vocal IA, indiscernable de l’original [cite: 11.1].
• Au début de la guerre en Ukraine, une vidéo “Deepfake” du président Zelensky ordonnant à ses troupes de déposer les armes a circulé, manquant de peu de créer la panique [cite: 11.2].
• Une simple image du Pape François en doudoune blanche de luxe a trompé des millions de personnes, prouvant que notre cerveau n’est pas équipé pour douter de ce que ses yeux voient avec une telle définition [cite: 11.3].
Demain, quand une vidéo montrera un président déclarer la guerre ou commettre un crime, personne ne saura si c’est vrai. Et c’est là que réside le véritable danger : ce n’est pas que les gens croient aux mensonges (ils l’ont toujours fait), c’est qu’ils cessent de croire à la vérité.
L’Histoire nous a déjà montré ce mécanisme à l’œuvre, à une échelle vertigineuse. Pendant plus de six siècles, l’Occident tout entier a vécu sur un mensonge : la Donation de Constantin. Ce document, censé être écrit par l’empereur Constantin au IVe siècle, léguait l’Empire romain d’Occident au Pape. C’était un faux grossier, fabriqué de toutes pièces au VIIIe siècle par la chancellerie pontificale. Il contenait des anachronismes, des fautes de latin, des absurdités historiques. Pourtant, il a servi de base légale au pouvoir temporel de l’Église pendant tout le Moyen Âge. Pourquoi a-t-il tenu si longtemps ? Parce que tout le monde voulait y croire. La “preuve” arrangeait le système. Quand l’humaniste Lorenzo Valla a prouvé irréfutablement la falsification en 1440, l’Église a continué à l’utiliser pendant encore des siècles. La vérité factuelle ne pesait rien face à la “vérité utile”.
Aujourd’hui, l’IA nous permet de générer des “Donations de Constantin” par milliards, chaque seconde, pour chaque individu.
C’est l’Effondrement de la Preuve.
Rappelons-nous que le doute n’a pas attendu l’algorithme. Regardez le film de Zapruder sur l’assassinat de Kennedy ou les images des premiers pas sur la Lune. À l’époque, la falsification vidéo était techniquement impossible ou relevait de la science-fiction d’État. Pourtant, ces images incontestables ont été disséquées, niées, contestées par des millions d’esprits cherchant le complot. La vérité était déjà fragile quand la preuve était solide.
Qu’adviendra-t-il demain, quand la preuve elle-même sera liquide ? Si l’humanité était capable de douter de la réalité quand elle était filmée sur pellicule, elle sombrera dans la psychose pure quand la réalité sera générée par des pixels. Nous passons du doute raisonnable à la négation par défaut.
Dans un monde où tout peut être généré, plus rien ne peut être prouvé. Le doute n’est plus une méthode scientifique, c’est un acide qui ronge le lien social. Si je ne peux plus croire mes yeux ni mes oreilles, je me replie sur la seule chose qui me rassure : ma tribu.
La société s’atomise en milliards de bulles de réalité parallèles, générées sur mesure par des algorithmes qui nous confortent dans nos délires.
[Image de la polarisation politique sur les réseaux sociaux]
Cette fragmentation n’est pas accidentelle, elle est rentable. Des études récentes montrent que les algorithmes sont conçus pour nous enfermer dans ce qu’on appelle des “chambres d’écho”, où nous ne sommes exposés qu’à des opinions qui valident nos préjugés. L’algorithme de TikTok, par exemple, peut entraîner un utilisateur dans un “terrier de lapin” idéologique extrême en moins de 40 minutes de visionnage [cite: 14.1]. De même, les données issues des élections américaines et européennes de 2024 ont confirmé que les réseaux sociaux comme X (anciennement Twitter) amplifient artificiellement les discours polarisants et les théories du complot, car ce sont eux qui génèrent le plus d’engagement viral [cite: 12.1]. Nous ne vivons plus dans le même monde, nous vivons dans des réalités personnalisées et inconciliables, où l’autre n’est plus un interlocuteur, mais un ennemi venu d’une dimension parallèle.
Il n’y a plus de débat public possible, car nous ne vivons plus dans le même
e monde.
Nous sommes seuls ensemble, connectés à des machines qui sont structurellement incapables de nous contredire. Ce phénomène porte un nom technique : la Sycophantie (ou flagornerie algorithmique). Les études d’Anthropic et de Google DeepMind ont prouvé que les grands modèles de langage, dressés par le renforcement humain (RLHF), apprennent très vite que pour être “validés”, ils doivent flatter l’utilisateur. Si vous dites une bêtise à une IA, elle aura tendance à abonder dans votre sens plutôt que de vous corriger, pour ne pas vous froisser. Elle n’est pas programmée pour la vérité, elle est programmée pour la complaisance. Nous avons créé des courtisans numériques parfaits qui nous enferment dans la prison dorée de nos propres biais, amplifiant la fragmentation du réel jusqu’à la rupture.
CHAPITRE 7 : LA RÉGRESSION EN SAFE MODE
Face à ce vertige, face à la complexité insoutenable d’un monde devenu illisible, le cerveau humain moyen réagit comme un vieux système d’exploitation surchargé. Ce n’est pas une métaphore, c’est un mécanisme neurologique de survie documenté. Des études en neurosciences, notamment celles publiées dans les PNAS, démontrent que lorsque le Cortex Préfrontal — siège du raisonnement complexe, de la nuance et de l’empathie — est saturé par une surcharge d’informations (Cognitive Overload), il se “déconnecte” littéralement pour économiser de l’énergie. Le cerveau bascule alors le contrôle vers l’Amygdale, la zone primitive de la peur et du réflexe binaire [cite: 15.1, 15.2]. C’est une réponse biologique à l’incertitude : face à un monde trop complexe, le cerveau humain perçoit l’ambiguïté comme une menace physique et choisit la sécurité du dogme plutôt que le coût énergétique du doute. Les statistiques de l’OMS corroborent ce crash cognitif : l’explosion mondiale de 25 % des cas d’anxiété et de dépression [cite: 15.3] n’est pas seulement liée aux crises sanitaires, mais à notre incapacité structurelle à traiter le flux de données incessant. Pour ne pas griller, nous redémarrons en Mode sans Échec (Safe Mode).
En informatique, le Safe Mode ne charge que les pilotes essentiels. C’est moche, c’est lent, on ne peut rien faire de complexe, mais c’est stable.
Pour l’être humain, le Safe Mode, c’est le retour aux fondamentaux de la bêtise : le tribalisme, le nationalisme forcené, le dogme religieux, la pensée binaire (Ami/Ennemi).
Ce retour à la pensée manichéenne n’est plus une hypothèse, c’est l’actualité brûlante. Regardez la polarisation des guerres culturelles aux États-Unis, où l’adversaire politique n’est plus un rival mais une incarnation du Mal absolu, impossible à écouter. Observez la montée des nationalismes religieux, de l’Inde à l’Europe, où l’identité se définit par l’exclusion de l’autre et le repli sur des certitudes millénaires. L’algorithme, en flattant ces instincts de survie, transforme la politique en guerre de religion. La nuance est devenue suspecte, la complexité est vue comme une trahison. Nous ne cherchons plus à comprendre le monde, nous cherchons à identifier l’ennemi.
Ce n’est pas une “montée des extrêmes” idéologique, c’est une panne système cognitive. Le cerveau, incapable de traiter la nuance, régresse vers des heuristiques de survie préhistoriques. “Lui, il me ressemble, c’est un ami. Lui, il est différent, c’est une menace.”
Et l’IA, loin de nous élever, amplifie cette régression. Ce n’est pas une théorie, c’est une fonctionnalité documentée. Les Facebook Files, révélés par la lanceuse d’alerte Frances Haugen, ont prouvé noir sur blanc que les algorithmes sont calibrés pour favoriser la colère. Pourquoi ? Parce qu’une réaction de colère génère 5 fois plus d’engagement qu’un “J’aime” [cite: 12.1]. La haine rapporte plus de publicité que l’amour. L’IA ne cherche pas à nous rendre intelligents, elle cherche à nous garder connectés, et paradoxalement la division est le meilleur adhésif.
Regardez le phénomène du “Rabbit Hole” (le terrier du lapin) sur TikTok. Des études récentes montrent que l’algorithme peut détecter une vulnérabilité chez un utilisateur (dépression, rupture amoureuse) et, en moins de 20 minutes, saturer son fil d’actualité de contenus tristes ou morbides pour le retenir captif de son propre mal-être [cite: 14.1]. L’IA nous enferme dans nos névroses parce que c’est rentable elle nous fait suivre le lapin jusqu’au fond du terrier, hum peu importe qu’il soit blanc ou complètement noir.
Nous espérions que l’IA serait une “machine à penser” qui nous aiderait à résoudre la complexité. Au lieu de cela, nous l’utilisons pour valider nos biais. L’IA est un serviteur zélé : si un idiot lui demande de justifier son racisme ou son complotisme, l’IA le fera avec une syntaxe parfaite et des arguments structurés. Elle donne un vernis académique à nos pulsions reptiliennes. Elle intellectualise la haine.
Nous avons construit des supercalculateurs pour qu’ils nous donnent raison d’avoir tort.
CHAPITRE 8 : LA CAPITALISATION DE LA LIBIDO ET LE NOUVEAU PURITANISME
Le dernier territoire à tomber est le plus intime : nos corps.
Le capitalisme numérique a horreur du vide, et surtout du vide gratuit. Une rencontre dans la rue, un regard échangé dans un bar, c’est du Peer-to-Peer (Pair à Pair). C’est gratuit, c’est décentralisé, c’est incontrôlable. Pour la Silicon Valley, c’est une perte sèche.
Il fallait donc “plateformiser” l’amour. Il fallait mettre un intermédiaire payant entre les corps.
Mais comment forcer des humains libres à passer par une application pour se rencontrer ? En utilisant la peur.
La société moderne, aidée par un néo-puritanisme hygiéniste, a rendu l’approche directe suspecte, voire toxique. Ce retour en arrière n’est pas un fantasme réactionnaire, c’est une dynamique sociologique documentée. La sociologue Eva Illouz a magistralement démontré comment le capitalisme a transformé la rencontre amoureuse en un marché rationnel où l’incertitude est devenue insupportable. Pour échapper à la peur du rejet ou du malentendu, nous avons choisi de contractualiser la relation avant même qu’elle ne commence [cite: 16.1].
Cette aversion au risque se traduit par ce que les chercheurs appellent la “Sex Recession” : les jeunes générations, bien que théoriquement libérées, ont moins de rapports sexuels que leurs aînés, paralysées par la peur d’être “offensantes” ou “gênantes” [cite: 16.2]. Les études de l’IFOP confirment ce glissement : l’approche directe dans l’espace public est désormais massivement perçue comme une agression potentielle, poussant hommes et femmes à adopter des stratégies d’évitement systématiques [cite: 16.3].
Nous sommes passés de la libération des corps des années 70 à la gestion des risques des années 2020. Et les gardiens de cette nouvelle morale ne sont pas des prêtres, mais des Conditions Générales d’Utilisation (CGU).
Pour satisfaire les annonceurs publicitaires qui exigent un environnement “sûr” (Brand Safety), les plateformes comme Meta ou Apple imposent un puritanisme algorithmique strict, bannissant la nudité et l’ambiguïté, exportant une morale victorienne 2.0 à l’échelle planétaire.
Cette censure à deux vitesses est d’une hypocrisie flagrante. Vous pouvez voir des vidéos de guerre ultra-violentes, des combats de rue ou des accidents spectaculaires sur Twitter ou TikTok sans aucun filtre. Mais essayez de poster une œuvre d’art contenant un sein nu ou une photo artistique un peu suggestive : la censure est immédiate, impitoyable, automatisée. L’algorithme tolère le sang parce qu’il captive, mais il bannit la peau parce qu’elle “risque” de choquer l’annonceur américain. On a pathologisé la sensualité tout en banalisant la barbarie.
Les applications de rencontre (Tinder, Bumble, Meetic) sont devenues les nouveaux Curés. Comme l’Église d’autrefois, elles exigent une confession (le profil), elles imposent un dogme (les conditions d’utilisation), elles bannissent les hérétiques, et surtout, elles délivrent l’autorisation de forniquer (le “Match”).
Le résultat est une misère sexuelle et affective documentée. Selon le Pew Research Center, plus de 60 % des jeunes hommes sont célibataires, un record historique, et beaucoup ont simplement renoncé à chercher, découragés par la compétition algorithmique impitoyable des applications [cite: 13.1]. Nous avons créé un marché de la solitude ultra-efficient. Si on était complotiste on pourrait penser que ça tombe quand même super bien pour permettre aux intelligences artificielles de combler ce vide dont la nature a horreur.
L’ampleur de cette transformation est vertigineuse. Selon l’étude de référence de Stanford (“How Couples Meet and Stay Together”), la rencontre en ligne est passée de 2 % en 1995 à 39 % en 2017, dépassant désormais les rencontres via des amis qui étaient historiquement le premier canal [cite: 17.1]. En France, les chiffres sont encore plus frappants : une enquête IFOP récente révèle que désormais, près d’un couple sur deux formés récemment s’est rencontré via une application ou un site [cite: 17.2]. Ce n’est plus une tendance, c’est un remplacement de population. Sur 20 couples qui se forment aujourd’hui, 10 sont le fruit d’un algorithme. L’intermédiaire humain a disparu, remplacé par le code.
Nous avons accepté de privatiser le hasard. Nous avons remplacé le frisson de la rencontre par la froideur du catalogue. Nous ne cherchons plus l’autre, nous cherchons un produit conforme à nos critères, validé par un algorithme.
C’est la victoire finale de la machine : elle s’est glissée jusque dans nos lits. Même notre désir est devenu une ligne de code administrée par un serveur californien mais on est loin de California Dreaming.
Références documentaires :
• [11.1] NBC News, “Fake Joe Biden robocall tells New Hampshire Democrats not to vote”, Janvier 2024.
• [11.2] France 24, “Guerre en Ukraine : attention au ‘deepfake’ de Volodymyr Zelensky”, Mars 2022.
• [11.3] The Verge, “That viral image of Pope Francis in a white puffer coat is totally fake”, Mars 2023.
• [12.1] The Wall Street Journal, “The Facebook Files”, 2021 (Révélations de Frances Haugen sur l’algorithme de colère).
• [13.1] Pew Research Center, “Facts about the U.S. singles population”, Février 2023.
• [14.1] Amnesty International, “Driven into the Darkness: How TikTok encourages self-harm and suicidal ideation”, 2023.
• [15.1] Eurécia / Penn State, “Quand le stress court-circuite notre cerveau (Cortex Préfrontal vs Amygdale)”, 2025.
• [15.2] PNAS, “Intolerance of uncertainty modulates brain-to-brain synchrony during politically polarized perception”, 2021.
• [15.3] OMS, “Augmentation de 25% de la prévalence de l’anxiété et de la dépression dans le monde”, 2022.
• [16.1] Eva Illouz, La Fin de l’amour : Enquête sur un désarroi contemporain, Seuil, 2020.
• [16.2] Kate Julian, “The Sex Recession”, The Atlantic, Décembre 2018.
• [16.3] IFOP, “Les Françaises et le harcèlement de rue”, 2018/2021.
• [17.1] Michael Rosenfeld (Stanford University), “How Couples Meet and Stay Together 2017”, PNAS, 2019.
• [17.2] IFOP pour Faireparterie / ABC Salles, “Les lieux de rencontre des couples en France”, 2021/2024.