Le marché de l'attention à mille milliards de dollars
Comment les plateformes monétisent la cognition humaine
Le marché mondial de la publicité numérique a atteint 1 170 milliards de dollars en 2025 — ✓ Établi — soit 72,9 % de l'ensemble des dépenses publicitaires mondiales [1]. Ceci n'est pas une histoire technologique. C'est une histoire d'extraction. La matière première extraite est l'attention humaine, et l'appareil d'extraction est le système d'ingénierie comportementale le plus sophistiqué jamais construit.
Pour comprendre l'économie de l'attention, commençons par les revenus. Dans son rapport annuel FY2025, Meta Platforms a déclaré un chiffre d'affaires publicitaire total de 200,1 milliards de dollars [1]. Ce chiffre représente une seule entreprise — un nœud dans un réseau de plateformes qui ont collectivement généré 1 170 milliards de dollars grâce à la publicité numérique au cours d'une seule année civile. Le revenu moyen par utilisateur (ARPU) mondial est passé à 57,03 dollars, contre 49,63 dollars en 2024. Aux États-Unis et au Canada, l'ARPU a atteint 68,44 dollars — le plus élevé de toutes les régions [1]. Chaque utilisateur vaut, en termes purement financiers, davantage chaque trimestre. Le produit n'est pas le réseau social. Le produit, c'est la personne qui l'utilise.
TikTok, malgré des menaces réglementaires existentielles aux États-Unis, a généré un chiffre d'affaires estimé à 33,1 milliards de dollars en 2025, avec un ARPU spécifique aux États-Unis de 96,71 dollars — près du double de la moyenne mondiale de Meta [7]. Le chiffre d'affaires publicitaire de YouTube a atteint 40,4 milliards de dollars [1]. Alphabet, Amazon et Microsoft y ont ajouté collectivement des centaines de milliards supplémentaires. Ce ne sont pas des entreprises technologiques au sens traditionnel. Ce sont des opérations de récolte de l'attention qui se trouvent utiliser la technologie comme mécanisme de récolte.
La logique structurelle est simple. Les annonceurs paient les plateformes pour accéder à l'attention humaine. Les plateformes optimisent donc la quantité et l'intensité de cette attention. Chaque décision de conception — le défilement infini, la lecture automatique, la cadence des notifications, le fil algorithmique — est subordonnée à un seul indicateur : le temps passé sur la plateforme. Plus un utilisateur reste engagé longtemps, plus la plateforme peut vendre d'inventaire publicitaire. Plus la plateforme peut profiler précisément le comportement de cet utilisateur, plus le prix par impression est élevé. Ce n'est pas une théorie du complot. C'est le modèle économique décrit dans les rapports SEC et les présentations aux investisseurs de chaque grande plateforme [1].
L'ampleur de ce marché a des conséquences qui dépassent largement les bilans comptables des entreprises. Lorsque 72,9 % de toutes les dépenses publicitaires mondiales transitent par les plateformes numériques, celles-ci acquièrent un pouvoir structurel sur les écosystèmes d'information, la production culturelle, la distribution de l'information et le discours politique. L'économie de l'attention n'est pas simplement un phénomène économique — c'est un phénomène infrastructurel. Elle façonne ce que les gens voient, combien de temps ils le voient, et ce qu'ils font ensuite. Et elle le fait conformément à une seule fonction d'optimisation : maximiser l'engagement pour maximiser les revenus.
Ce chiffre établit l'économie de l'attention comme le modèle économique dominant pour la distribution de l'information à l'échelle mondiale. La concentration des dépenses publicitaires dans les canaux numériques — passée de 52 % en 2020 — signifie que les indicateurs d'engagement des plateformes déterminent désormais la viabilité financière du journalisme, du divertissement, de l'éducation et du discours public [1].
Considérons ce que cette structure de marché signifie en pratique. Un journaliste en concurrence pour l'attention des lecteurs opère dans le même environnement algorithmique qu'un complotiste, une opération de propagande étatique et une marque de cosmétiques. La plateforme ne distingue pas ces acteurs parce que son modèle de revenus ne l'exige pas. L'engagement, c'est l'engagement. Un clic motivé par l'indignation génère le même inventaire publicitaire qu'un clic motivé par la curiosité. Dans l'économie de l'attention, la vérité n'est pas une variable dans la fonction d'optimisation — et ce n'est pas un dysfonctionnement. C'est l'architecture.
La trajectoire est claire. La part de la publicité numérique dans les dépenses publicitaires totales a augmenté chaque année pendant deux décennies, passant de moins de 10 % en 2005 à 72,9 % en 2025 [1]. Les 27,1 % restants — télévision, presse écrite, radio, affichage — continuent de décliner. Cela signifie que l'économie de l'attention n'est pas simplement importante ; elle est en train de devenir la seule économie par laquelle l'information atteint un public de masse. Les plateformes ne sont pas en concurrence avec les médias traditionnels. Elles ont déjà gagné. La question est désormais de savoir ce que coûte cette victoire.
L'ingénierie de la compulsion
Machines à sous, défilement infini et architecture de l'addiction
L'économie de l'attention ne se contente pas de capter l'attention — elle ingénie la compulsion. Les schémas de conception intégrés aux plateformes de médias sociaux modernes ne sont pas accidentels. Ils sont le produit d'une ingénierie comportementale délibérée, s'inspirant directement des mécaniques des machines à sous et du conditionnement opérant [11]. ✓ Établi
En 2006, Aza Raskin — alors jeune concepteur d'interfaces chez Humanised — a inventé le défilement infini. L'innovation a éliminé le signal d'arrêt naturel que la pagination fournissait. Là où un utilisateur devait auparavant prendre la décision consciente de cliquer sur « page suivante », le défilement infini a supprimé cette friction entièrement. Le contenu apparaissait simplement, sans fin, sous le pouce de l'utilisateur. Raskin cofonderait plus tard le Center for Humane Technology et estimerait publiquement que sa création gaspille environ 200 000 vies humaines par jour [11]. ✓ Établi Le défilement infini n'a pas été conçu pour nuire. Il a été conçu pour supprimer les signaux d'arrêt. Le préjudice a découlé inévitablement du modèle économique qui l'a adopté.
Le mécanisme psychologique au cœur de l'utilisation compulsive des plateformes est le renforcement à ratio variable — le même programme de récompense qui fait des machines à sous la forme de jeu d'argent la plus rentable. Dans un programme à ratio variable, la récompense (un « j'aime », un commentaire, une publication virale, une vidéo intéressante) arrive de manière imprévisible. Le système dopaminergique du cerveau répond plus intensément aux récompenses incertaines qu'aux récompenses prévisibles. Comme l'a observé l'ancien éthicien du design de Google, Tristan Harris, le geste de tirer pour actualiser sur un smartphone est « étrangement similaire à une machine à sous » — l'utilisateur tire le levier et attend de voir ce qui apparaît [11]. La décharge de dopamine ne provient pas de la réception de la récompense, mais de l'anticipation de savoir si elle arrivera.
Ce n'est pas une métaphore. C'est de la neuroscience appliquée à la conception d'interfaces. Les ingénieurs des plateformes — dont beaucoup ont été recrutés directement dans l'industrie du jeu vidéo — utilisent des tests A/B à grande échelle pour identifier le timing des notifications, le séquençage du contenu et les intervalles de récompense qui maximisent la rétention des utilisateurs. Chaque élément de l'expérience utilisateur a été optimisé à travers des millions d'expériences sur des milliards d'utilisateurs. La couleur d'un badge de notification (rouge, pour déclencher l'urgence), le délai avant l'affichage du nombre de « j'aime » (pour créer l'anticipation), le séquençage algorithmique du contenu (pour alterner entre expériences satisfaisantes et frustrantes) — rien de tout cela n'est un choix de conception arbitraire. Ce sont les résultats de systèmes d'optimisation conçus pour maximiser une seule variable : le temps passé sur la plateforme.
Le renforcement à ratio variable est le programme de conditionnement opérant le plus puissant connu des sciences du comportement. Le cerveau reçoit la plus grande décharge de dopamine non pas en recevant une récompense, mais face à l'incertitude de savoir si elle arrivera. Chaque geste de tirer pour actualiser, chaque vérification de notification, chaque défilement dans un fil d'actualité active les mêmes circuits neuronaux qui maintiennent un joueur devant une machine à sous. La différence : les machines à sous sont réglementées, soumises à des restrictions d'âge et confinées dans des lieux spécifiques. Les plateformes de médias sociaux sont dans chaque poche, accessibles 24 heures sur 24, et commercialisées auprès des enfants.
Les documents internes de TikTok, divulgués lors d'enquêtes des procureurs généraux des États en 2024, fournissent les preuves les plus détaillées d'une conception compulsive délibérée. La recherche interne a identifié 260 vidéos comme le seuil précis de formation de l'habitude — le point à partir duquel un nouvel utilisateur est susceptible de devenir un utilisateur habituel et compulsif [7]. ✓ Établi Les mêmes documents notaient que « pour la plupart des indicateurs d'engagement, plus l'utilisateur est jeune, meilleure est la performance » [7]. Ce n'est pas une observation sur les préférences des utilisateurs. C'est une observation sur la vulnérabilité. Les utilisateurs plus jeunes sont plus sensibles au renforcement à ratio variable parce que leur cortex préfrontal — la région du cerveau responsable du contrôle des impulsions — n'est pas pleinement développé avant l'âge de vingt-cinq ans.
La boîte à outils de conception s'étend bien au-delà du défilement infini. Le mécanisme de « streak » de Snapchat, introduit en 2011, crée des obligations sociales artificielles — les utilisateurs doivent échanger des messages quotidiennement sous peine de perdre leur compteur de série, générant anxiété et comportement de vérification compulsive. La fonction de lecture automatique de YouTube, lancée en 2013, supprime le point de décision entre les vidéos, transformant le visionnage actif en consommation passive. Les Stories d'Instagram, introduites en 2016 comme un clone direct du contenu éphémère de Snapchat, créent l'urgence par le biais de contenu qui disparaît — consultez maintenant ou ratez-le pour toujours. Chacune de ces fonctionnalités a été conçue, testée et déployée parce qu'elle augmentait les indicateurs d'engagement. Aucune n'a été conçue avec le bien-être de l'utilisateur comme contrainte principale.
Des documents divulgués lors d'enquêtes des procureurs généraux des États révèlent que les propres recherches de TikTok ont identifié le niveau d'engagement exact auquel les utilisateurs passent d'un usage occasionnel à un usage compulsif. Les mêmes documents notaient que les indicateurs d'engagement s'améliorent avec les utilisateurs plus jeunes — une constatation qui décrit la vulnérabilité, non la préférence [7].
L'évolution la plus récente est peut-être la plus lourde de conséquences. À partir de 2023 et en s'accélérant en 2024, les grandes plateformes sont passées de fils basés sur le graphe social — montrant le contenu des personnes qu'un utilisateur suit — à des fils algorithmiquement sélectionnés dominés par le contenu d'inconnus. TikTok a été le pionnier de ce modèle ; Instagram, YouTube et Facebook l'ont adopté. L'effet est de maximiser la nouveauté et l'imprévisibilité — les variables précises qui amplifient le renforcement à ratio variable. Les utilisateurs ne défilent plus parmi les mises à jour de leurs amis. Ils défilent à travers une séquence de stimuli algorithmiquement optimisée, conçue pour maintenir l'engagement au niveau neurologique. Le réseau social est devenu une boîte de Skinner à l'échelle civilisationnelle.
Aucun de ces choix de conception n'est une conséquence inévitable de la technologie numérique. Les fils chronologiques, les listes de contenu finies et la friction délibérée sont tous techniquement triviaux à mettre en œuvre. Ils ne sont pas mis en œuvre parce qu'ils réduisent les indicateurs d'engagement. Et une réduction de l'engagement signifie une réduction des revenus. L'ingénierie de la compulsion n'est pas un effet secondaire de l'économie de l'attention. C'est le produit central de l'économie de l'attention.
Ce que les plateformes savaient déjà
Recherche interne, lanceurs d'alerte et preuves dissimulées
Les preuves les plus accablantes contre l'économie de l'attention ne proviennent pas des chercheurs universitaires, des régulateurs ou des groupes de défense. Elles proviennent des plateformes elles-mêmes. Des documents internes — divulgués par des lanceurs d'alerte, des enquêtes du Congrès et des litiges menés par les procureurs généraux des États — révèlent que les grandes plateformes étaient conscientes des préjudices psychologiques causés par leurs produits et ont choisi de donner la priorité à la croissance plutôt qu'à la sécurité des utilisateurs [4] [14]. ✓ Établi
En septembre 2021, le Wall Street Journal a publié « The Facebook Files » — une série de reportages d'investigation fondés sur des dizaines de milliers de documents internes fournis par l'ancienne cheffe de produit de Facebook, Frances Haugen [4]. Les documents ont révélé que les propres chercheurs de Facebook avaient étudié l'impact d'Instagram sur les utilisateurs adolescents et étaient parvenus à des conclusions que l'entreprise n'a jamais rendues publiques. La recherche interne a constaté que 32 % des adolescentes déclaraient qu'Instagram les faisait se sentir plus mal dans leur corps [4]. Parmi les adolescents ayant déclaré avoir eu des pensées suicidaires, 13 % des utilisateurs britanniques et 6 % des utilisateurs américains attribuaient l'origine de ces pensées à Instagram [4]. ✓ Établi Il ne s'agissait pas d'allégations externes. C'étaient des résultats produits par les propres équipes de recherche de Facebook, à partir des propres données de Facebook, et diffusés dans les propres systèmes de communication interne de Facebook.
Les documents ont en outre révélé que Facebook était au courant de ces résultats et avait choisi de ne pas agir de manière structurellement significative. Des présentations internes discutaient des préjudices en termes cliniques. Les chercheurs recommandaient des changements. Ces recommandations n'ont pas été mises en œuvre lorsqu'elles entraient en conflit avec les indicateurs d'engagement. Comme Haugen l'a témoigné devant la commission du Commerce du Sénat des États-Unis en octobre 2021 : « La direction de l'entreprise sait comment rendre Facebook et Instagram plus sûrs, mais ne veut pas apporter les changements nécessaires parce qu'elle a placé ses profits astronomiques avant les personnes » [14]. Haugen a ensuite témoigné devant le Parlement britannique et le Parlement européen, fournissant le même corpus de preuves aux législateurs de trois juridictions.
Facebook a systématiquement résolu les conflits entre ses propres profits et notre sécurité en faveur de ses propres profits. Le résultat a été un système qui amplifie la division, l'extrémisme et la polarisation — sapant les sociétés à travers le monde.
— Frances Haugen, témoignage devant la commission du Commerce du Sénat des États-Unis, octobre 2021Les documents internes de TikTok, divulgués par une coalition d'enquêtes des procureurs généraux des États en octobre 2024, ont dressé un tableau tout aussi sombre [7]. Les documents — initialement déposés sous de lourdes rédactions, puis partiellement descellés par un tribunal du Kentucky — ont révélé que les propres chercheurs de TikTok avaient identifié le seuil de formation de l'habitude de 260 vidéos et en comprenaient les implications pour les utilisateurs plus jeunes. Un document interne déclarait clairement : « Pour la plupart des indicateurs d'engagement, plus l'utilisateur est jeune, meilleure est la performance » [7]. Un autre décrivait l'algorithme de recommandation de la plateforme comme une « boîte noire » — opaque même pour nombre des propres ingénieurs de TikTok. Les communications internes incluaient l'observation selon laquelle la relation de la plateforme avec les jeunes utilisateurs ressemblait à celle d'une « drogue » — une caractérisation formulée non par des critiques extérieurs mais par les propres employés de TikTok.
Les communications internes de Meta, divulguées dans le cadre de litiges distincts, contenaient des aveux tout aussi francs. Des journaux de discussions internes obtenus par des procédures de divulgation incluaient des échanges dans lesquels les employés décrivaient Instagram comme « une drogue » et le rôle de l'entreprise comme celui de « dealers ». Ces caractérisations n'étaient pas faites par plaisanterie. Elles ont été formulées dans le contexte de discussions internes sur les stratégies de rétention des utilisateurs et les indicateurs d'engagement. Les employés comprenaient les mécanismes de ce qu'ils construisaient. L'entreprise comprenait les conséquences. Les produits n'ont pas été modifiés parce que les conséquences n'étaient pas supportées par l'entreprise — elles étaient externalisées sur les utilisateurs, en particulier les plus jeunes.
Ce résultat a été produit par les propres chercheurs de Facebook et diffusé en interne. Parmi les adolescents ayant des pensées suicidaires, 13 % des utilisateurs britanniques et 6 % des utilisateurs américains attribuaient ces pensées à Instagram. Facebook n'a pas rendu cette recherche publique, ne l'a pas communiquée aux régulateurs et n'a pas mis en œuvre les changements structurels recommandés par ses propres chercheurs [4].
Le schéma est constant d'une plateforme à l'autre. La recherche interne identifie le préjudice. Les chercheurs recommandent des changements. Les recommandations sont évaluées au regard de l'impact sur l'engagement et les revenus. Les changements qui réduiraient l'engagement sont mis de côté ou dilués. L'entreprise met en place des mesures de sécurité cosmétiques — contrôles parentaux, rappels de limites de temps, comptes restreints pour les adolescents — tout en laissant intacte l'architecture sous-jacente de maximisation de l'engagement. ⚖ Contesté La propre équipe de sécurité interne de Meta a signalé l'insuffisance de ces mesures cosmétiques, notant une « utilisation peu fréquente, une faible adoption et des charges élevées pour les parents » [4]. L'engagement affiché de l'industrie en faveur de la sécurité des utilisateurs est contredit par les propres évaluations internes de l'industrie concernant ses outils de sécurité.
La suppression de la recherche n'est pas accessoire au modèle économique — elle en fait partie intégrante. La divulgation publique des résultats internes sur les préjudices aurait créé une pression réglementaire, un risque de litige et des dommages réputationnels. En gardant la recherche interne, les plateformes ont maintenu l'asymétrie d'information qui leur permettait de continuer à optimiser l'engagement tout en affirmant publiquement donner la priorité à la sécurité. Ce n'est pas un échec de gouvernance d'entreprise. C'est la gouvernance d'entreprise fonctionnant exactement comme la structure d'incitations l'exige. L'économie de l'attention exige que les véritables coûts de l'extraction de l'attention restent invisibles pour les personnes à qui elle est extraite.
Le coût cognitif
Capacités d'attention, boucles dopaminergiques et recâblage de la concentration
L'économie de l'attention ne se contente pas de capter du temps. Elle restructure la cognition. Les recherches sur les capacités d'attention, les schémas d'interruption par notifications et les relations dose-réponse entre temps d'écran et résultats de santé mentale révèlent un tableau cohérent : l'exposition prolongée aux plateformes maximisant l'engagement dégrade la capacité de pensée concentrée [8]. ◈ Preuves solides
Gloria Mark, professeure d'informatique à l'Université de Californie à Irvine, a passé deux décennies à mesurer la manière dont les individus répartissent leur attention. Ses recherches, menées à travers de multiples études longitudinales et publiées avec le WorkLab de Microsoft, documentent un déclin soutenu de la durée d'attention moyenne sur un seul écran : d'environ 150 secondes en 2004 à seulement 47 secondes en 2024 [8]. ◈ Preuves solides Le déclin n'est pas linéaire — il s'est accéléré ces dernières années, coïncidant avec la prolifération des contenus vidéo courts et des applications mobiles à forte intensité de notifications. Les recherches de Mark établissent en outre que retrouver sa concentration après une seule interruption nécessite en moyenne 25 minutes [8]. Dans un environnement numérique conçu pour interrompre — par des notifications, la lecture automatique et le séquençage algorithmique du contenu — le coût cognitif cumulé est considérable.
L'environnement de notifications auquel fait face l'adolescent moyen amplifie dramatiquement ces effets. L'étude « Constant Companion » de Common Sense Media en 2023 a révélé que les adolescents reçoivent en moyenne 237 notifications push par jour, dont 25 % pendant les heures de cours et 5 % la nuit [10]. ✓ Établi La génération Z reçoit en moyenne 181 alertes quotidiennes toutes applications confondues [10]. Chaque notification représente une interruption potentielle — un stimulus conçu pour détourner l'attention de l'utilisateur de ce qu'il fait à ce moment-là et la rediriger vers la plateforme. À 237 notifications par jour, avec 25 minutes nécessaires pour se reconcentrer après chaque interruption, la perte d'attention théorique maximale dépasse 98 heures par jour — un chiffre évidemment impossible qui illustre l'impossibilité de s'engager pleinement dans l'environnement de notifications tout en maintenant une quelconque forme d'activité cognitive soutenue.
Le mécanisme neurologique sous-jacent à ces schémas implique le système dopaminergique — spécifiquement la voie mésolimbique qui régule l'anticipation de la récompense et le plaisir. Les plateformes de médias sociaux exploitent ce système par le renforcement à ratio variable, comme décrit dans la Section 02. Mais les conséquences à long terme dépassent les moments individuels d'engagement. L'activation répétée du système dopaminergique par des stimuli artificiels — « j'aime », notifications, contenus algorithmiques percutants — produit un phénomène que les neuroscientifiques décrivent comme un déficit dopaminergique. Au fil du temps, le niveau de base de dopamine diminue, ce qui signifie que l'utilisateur éprouve moins de plaisir dans les activités hors plateforme et a besoin d'une stimulation de plateforme de plus en plus intense pour obtenir la même réponse hédonique. La plateforme crée le besoin qu'elle promet de satisfaire.
La neuroscience de l'utilisation compulsive des plateformes suit un cycle prévisible. L'engagement initial déclenche une libération de dopamine — le signal de récompense. L'engagement répété élève le seuil d'activation de la dopamine — l'habituation. Le niveau de base de dopamine de l'utilisateur descend en dessous de son état pré-plateforme — le déficit. L'utilisateur éprouve désormais moins de plaisir dans les activités hors plateforme et retourne sur la plateforme pour restaurer ses niveaux de dopamine — la dépendance. Au fil du temps, la plateforme elle-même devient moins satisfaisante, nécessitant un engagement plus fréquent et plus intense pour obtenir le même effet neurologique. Le produit crée le besoin qu'il promet de satisfaire. Ce n'est pas une métaphore de l'addiction. C'est le mécanisme de l'addiction.
Les données dose-réponse renforcent l'hypothèse d'une relation causale entre l'intensité du temps d'écran et le préjudice psychologique. L'analyse du CDC en 2025 des indicateurs de santé mentale des adolescents a révélé qu'un temps d'écran quotidien de quatre heures ou plus était associé à des risques significativement élevés dans de multiples domaines : dépression (rapport de cotes ajusté 1,61), anxiété (RCa 1,45), problèmes de comportement (RCa 1,24) et symptômes de TDAH (RCa 1,21) [13]. ◈ Preuves solides La même étude a notamment constaté que l'activité physique médiatise entre 30 % et 39 % de l'association entre temps d'écran et résultats de santé mentale — suggérant que le déplacement de l'activité physique est un mécanisme significatif par lequel le temps d'écran génère des préjudices [13]. Le préjudice n'est pas purement neurologique. Il est aussi physique : les heures sédentaires passées sur les plateformes déplacent l'exercice qui autrement protégerait contre la dépression et l'anxiété.
Le rapport de l'OCDE de 2025 sur le temps d'écran et le bien-être subjectif est parvenu à un constat complémentaire : un temps d'écran élevé ou déséquilibré est systématiquement associé à des résultats de santé mentale inférieurs, tandis qu'une utilisation modérée et intentionnelle peut en réalité favoriser le bien-être [15]. Le schéma n'est pas que tout temps d'écran est nocif. Le schéma est que le type de temps d'écran que les plateformes sont conçues pour maximiser — la consommation passive, prolongée, algorithmiquement pilotée — est le type le plus systématiquement associé à des résultats négatifs. Les plateformes n'optimisent pas pour une utilisation modérée et intentionnelle. Elles optimisent pour l'inverse, parce que l'inverse génère plus de revenus.
Les recherches de Mark révèlent également un constat particulièrement préoccupant : l'auto-interruption dépasse désormais l'interruption externe [8]. Les utilisateurs ne se contentent pas de répondre aux notifications — ils les anticipent, vérifiant les plateformes de manière compulsive même en l'absence de tout déclencheur externe. L'ingénierie comportementale a été intériorisée. La machine à sous n'a plus besoin de sonner. L'utilisateur tire le levier de lui-même.
L'urgence adolescente
Pourquoi les enfants ne sont pas de petits adultes — et pourquoi la conception s'en moque
Quatre-vingt-quinze pour cent des adolescents américains âgés de 13 à 17 ans utilisent les médias sociaux [2]. Quarante-six pour cent déclarent être en ligne « presque constamment ». L'adolescent moyen passe 4,8 heures par jour sur les plateformes de médias sociaux [2]. ✓ Établi Ces plateformes n'ont pas été conçues pour les cerveaux adolescents. Elles ont été conçues pour les indicateurs d'engagement. Le cerveau adolescent se trouve être la cible la plus riche en engagement disponible.
En mai 2023, le médecin général des États-Unis a publié un avis officiel sur les médias sociaux et la santé mentale des jeunes — un instrument réservé aux questions de santé publique urgente [2]. L'avis indiquait clairement : « Nous ne disposons pas encore de preuves suffisantes pour déterminer si l'utilisation des médias sociaux est suffisamment sûre pour les enfants et les adolescents. » La formulation est significative. Elle ne dit pas que les médias sociaux sont sûrs. Elle dit que les preuves sont insuffisantes pour conclure qu'ils sont sûrs. Le médecin général a en outre noté que les adolescents utilisant les médias sociaux plus de trois heures par jour font face à un risque doublé de symptômes de dépression et d'anxiété [2]. ◈ Preuves solides L'adolescent américain moyen dépasse déjà ce seuil.
L'Association américaine de psychologie (APA) a publié son propre avis le même mois, adoptant une position plus nuancée : l'utilisation des médias sociaux « n'est pas intrinsèquement bénéfique ou nocive pour les jeunes » [3]. Les effets, a conclu l'APA, dépendent de « facteurs individuels et environnementaux », notamment le type de contenu consommé, la qualité des interactions en ligne et la présence ou l'absence de supervision parentale. L'APA a recommandé que les adultes surveillent l'utilisation des médias sociaux des enfants de 10 à 14 ans et que la formation à la littératie numérique devienne impérative dans tous les milieux éducatifs [3]. La nuance est importante — et c'est précisément ce que le modèle économique de l'économie de l'attention est conçu pour submerger. Les facteurs individuels et environnementaux sont pertinents, mais ils sont submergés par l'ampleur et la sophistication de la conception maximisant l'engagement.
The Anxious Generation de Jonathan Haidt, publié en mars 2024 et ayant passé 52 semaines sur la liste des meilleures ventes du New York Times, a présenté l'argumentaire populaire le plus complet en faveur d'une relation causale entre les médias sociaux et le déclin de la santé mentale des adolescents [5]. Haidt identifie ce qu'il appelle le « Grand Recâblage de l'Enfance » — la période entre 2010 et 2015 durant laquelle l'adoption du smartphone parmi les adolescents américains est passée d'une minorité à une quasi-universalité. Au cours de cette même période, les symptômes dépressifs chez les adolescents ont augmenté de 33 %, et le taux de suicide chez les filles de 10 à 14 ans a augmenté de 65 % [5]. ◈ Preuves solides Haidt soutient que la coïncidence temporelle, combinée à sept lignes de preuves indépendantes — incluant des études corrélationnelles, des recherches longitudinales, des expériences et des données internes d'entreprise — établit la causalité au-delà de tout doute raisonnable.
L'avis du médecin général des États-Unis en 2023 a identifié une relation dose-réponse entre l'intensité de l'utilisation des médias sociaux et le risque de santé mentale chez les adolescents. Le seuil de trois heures est significatif parce que l'utilisation moyenne des médias sociaux par les adolescents le dépasse déjà, à 4,8 heures par jour. Cela signifie que la majorité des adolescents utilisateurs de médias sociaux aux États-Unis se trouvent dans la catégorie de risque élevé [2].
Les mécanismes spécifiques de préjudice chez les adolescents sont bien documentés, même là où la question causale globale reste débattue. La distorsion de l'image corporelle est parmi les plus solidement établies : la propre recherche de Facebook a révélé que 32 % des adolescentes déclaraient qu'Instagram les faisait se sentir plus mal dans leur corps [4]. La comparaison sociale — un processus auquel les adolescents sont développementalement plus susceptibles que les adultes — est amplifiée par des plateformes qui présentent des images sélectionnées, filtrées et souvent numériquement altérées comme normatives. Les troubles alimentaires, la dysmorphie corporelle et l'anxiété liée à l'apparence ont tous été associés à une utilisation intensive des médias sociaux dans les populations adolescentes, en particulier chez les filles.
Parmi les adolescents ayant déclaré avoir eu des pensées suicidaires, 13 % des utilisateurs britanniques et 6 % des utilisateurs américains attribuaient l'origine de ces pensées à Instagram. Les propres chercheurs de Facebook ont produit ces résultats en 2019. L'entreprise ne les a pas rendus publics. Ils n'ont été divulgués que par le témoignage de la lanceuse d'alerte Frances Haugen deux ans plus tard [4] [14]. Lorsque la propre recherche d'une entreprise établit un lien entre son produit et l'idéation suicidaire chez les enfants, et que cette entreprise supprime la recherche pour protéger ses indicateurs de croissance, le mot « négligence » ne rend pas compte de la situation.
La perturbation du sommeil représente une autre voie bien établie. Les notifications arrivant la nuit — 5 % de la moyenne quotidienne de 237+, selon Common Sense Media [10] — perturbent l'architecture du sommeil d'une manière qui aggrave la vulnérabilité des adolescents. La lumière bleue émise par les écrans supprime la production de mélatonine, mais le stimulus psychologique du contenu des médias sociaux est le perturbateur le plus significatif. Les adolescents qui consultent les médias sociaux dans l'heure précédant le coucher rapportent une qualité de sommeil significativement inférieure, ce qui à son tour exacerbe la dépression, l'anxiété et les troubles cognitifs. Les plateformes ne font pas de pause pour l'heure du coucher. Elles sont conçues pour ne pas en faire.
L'asymétrie développementale est le facteur le plus déterminant et le moins discuté. Le cortex préfrontal — responsable du contrôle des impulsions, de l'évaluation des risques et de la planification à long terme — n'arrive pas à pleine maturité avant l'âge d'environ vingt-cinq ans. Les adolescents sont neurologiquement moins équipés pour résister aux schémas de conception compulsive que les adultes. Ils sont également plus sensibles à la récompense sociale et au rejet social, ce qui rend le renforcement à ratio variable des « j'aime », des commentaires et des abonnés plus puissant neurologiquement pour les adolescents que pour tout autre groupe démographique. Les propres données des plateformes le confirment : les documents internes de TikTok notent explicitement que les utilisateurs plus jeunes produisent de meilleurs indicateurs d'engagement [7]. La conception ne tient pas compte de la vulnérabilité développementale parce que d'en tenir compte réduirait l'engagement. Et réduire l'engagement réduirait les revenus. ⚖ Contesté Le débat sur la causalité — exploré dans la Section 07 — est légitime. Mais il ne devrait pas occulter la question plus fondamentale : est-il acceptable qu'une industrie à mille milliards de dollars déploie des systèmes maximisant l'engagement contre des cerveaux en développement pendant que la communauté scientifique résout des désaccords méthodologiques ?
La génération Z consacre désormais en moyenne 9 heures par jour au temps d'écran — nettement au-dessus de la moyenne mondiale de 6 heures et 38 minutes [2]. Ce n'est pas un hasard. C'est le résultat conçu de plateformes optimisées pour maximiser le temps passé sur la plateforme. L'urgence adolescente n'est pas un échec parental. C'est un succès d'ingénierie.
La réponse réglementaire
Ce que font les gouvernements — et pourquoi ce n'est pas suffisant
L'action réglementaire contre l'économie de l'attention s'accélère dans de multiples juridictions — du Règlement sur les services numériques de l'UE à l'interdiction australienne des médias sociaux pour les moins de 16 ans [6] [12]. Mais la réponse réglementaire reste structurellement dépassée par les incitations économiques qui alimentent la conception compulsive. ✓ Établi
Le Règlement sur les services numériques (DSA) de l'Union européenne, entré en pleine application en février 2024, représente le cadre réglementaire le plus complet actuellement en vigueur. En février 2026 — deux ans après sa mise en œuvre — la Commission européenne avait infligé sa première amende majeure : 120 millions d'euros contre X (anciennement Twitter) pour des pratiques de conception trompeuse violant les dispositions du DSA sur les dark patterns et la transparence [6]. ✓ Établi TikTok Lite — une version allégée de TikTok qui offrait des récompenses en pièces pour le visionnage de vidéos — a été définitivement retirée du marché européen à la suite de mesures d'exécution [6]. Quatorze enquêtes sur les grandes plateformes restent en cours. Le cadre du DSA est significatif parce qu'il traite non seulement de la modération de contenu mais de la conception même des plateformes — spécifiquement l'utilisation de dark patterns et d'interfaces maximisant l'engagement qui exploitent les vulnérabilités psychologiques.
L'Australie a pris la mesure réglementaire la plus radicale de toutes les juridictions en novembre 2024, en adoptant le Online Safety Amendment (Social Media Minimum Age) Act, qui interdit l'accès aux médias sociaux pour les enfants de moins de 16 ans — sans exception de consentement parental [12]. ✓ Établi L'interdiction est entrée en vigueur en décembre 2025, avec des pénalités pour les plateformes non conformes pouvant atteindre 49,5 millions de dollars australiens [12]. Les plateformes assument la responsabilité de la vérification de l'âge, et non les parents ou les enfants. La législation a été adoptée avec un soutien bipartisan écrasant, reflétant une préoccupation publique largement partagée quant à l'impact des médias sociaux sur les jeunes Australiens. Toutefois, l'efficacité à long terme de l'interdiction reste incertaine — l'application dépend d'une technologie de vérification de l'âge encore en maturation, et les mineurs déterminés pourraient trouver des moyens de contourner les systèmes de vérification.
Aux États-Unis, le Kids Online Safety Act (KOSA) progresse au Congrès mais n'est pas encore devenu loi. La législation exigerait des plateformes qu'elles activent par défaut les paramètres de confidentialité et de sécurité les plus stricts pour les utilisateurs de moins de 17 ans et imposerait un devoir de diligence aux plateformes pour prévenir les préjudices envers les mineurs. En septembre 2024, 42 procureurs généraux d'États des deux partis ont exigé du Congrès qu'il impose des étiquettes d'avertissement sur les plateformes de médias sociaux — une invocation délibérée du précédent réglementaire du tabac [2]. ◈ Preuves solides Le médecin général a soutenu l'approche des étiquettes d'avertissement. Cependant, le processus législatif aux États-Unis reste lent par rapport au rythme d'évolution des plateformes, et le lobbying de l'industrie continue de diluer les dispositions proposées.
L'approche de la Chine offre un récit d'avertissement sur les limites de l'application. En 2021, la Chine a imposé des limites strictes sur les jeux vidéo pour les mineurs — restreignant l'accès à une heure par jour les week-ends et jours fériés uniquement. La politique a d'abord été saluée comme l'intervention la plus agressive au monde contre le temps d'écran chez les mineurs. Cependant, des recherches ultérieures ont révélé un taux de contournement de 77 %, les mineurs contournant les exigences de vérification d'identité en utilisant les comptes de proches ou en achetant un accès aux comptes sur des marchés secondaires [6]. ✓ Établi L'expérience chinoise démontre que l'intention réglementaire sans infrastructure d'application robuste produit un théâtre de conformité plutôt qu'un changement comportemental.
Le Online Safety Act du Royaume-Uni, adopté en octobre 2023, a habilité l'Ofcom en tant que régulateur de la sécurité en ligne et a imposé de nouvelles obligations aux plateformes concernant les contenus illégaux, l'accès des enfants et l'évaluation des risques. La France et l'Espagne mènent une initiative à l'échelle de l'UE visant à établir un âge minimum de 15 ans pour les médias sociaux, qui compléterait les dispositions du DSA axées sur la conception par une restriction d'accès basée sur l'âge. Le Brésil a adopté une réglementation des médias sociaux pour les mineurs en 2025, avec une mise en application débutant en mars 2026. La tendance mondiale est indéniable : les gouvernements s'engagent dans la réglementation de l'économie de l'attention. La question est de savoir s'ils avancent assez vite, et avec une sophistication technique suffisante, pour devancer la capacité d'adaptation des plateformes.
| Approche réglementaire | Efficacité | Évaluation |
|---|---|---|
| Modèle d'application du DSA européen | Premières amendes majeures infligées mais l'application progresse lentement face à la vitesse d'itération des plateformes. L'amende de 120 M€ représente 0,06 % du chiffre d'affaires annuel de Meta — une erreur d'arrondi, non un effet dissuasif. | |
| Interdictions basées sur l'âge (modèle australien) | Fort soutien public mais application techniquement difficile et risque d'exclure les communautés de jeunes vulnérables, en particulier les adolescents LGBTQ+ qui dépendent du soutien entre pairs en ligne. | |
| Cadres de consentement parental | Transfère la charge aux familles. La propre recherche interne de Meta montre une faible adoption des outils parentaux disponibles. Ne traite pas les mécanismes de conception addictive sous-jacents. | |
| Obligations de conception des plateformes | Approche la plus structurellement efficace — traite la cause profonde. Mais nécessite une expertise technique dont les régulateurs manquent actuellement ; l'industrie résistera agressivement par le lobbying. | |
| Approche des étiquettes d'avertissement (proposition américaine) | Le parallèle avec le tabac est politiquement convaincant mais les plateformes sont des produits interactifs, non passifs. Les étiquettes seules sont insuffisantes sans changements structurels de conception. |
L'inadéquation structurelle entre la capacité réglementaire et la capacité des plateformes est le défi déterminant. Les entreprises de plateformes emploient des milliers d'ingénieurs qui peuvent itérer sur la conception des produits en quelques jours. Les enquêtes réglementaires prennent des mois, voire des années. Une amende de 120 millions d'euros — la première sanction majeure du DSA — représente 0,06 % du chiffre d'affaires publicitaire annuel de Meta. Ce n'est pas un effet dissuasif. C'est un coût d'exploitation. ⚖ Contesté L'efficacité des interdictions basées sur l'âge reste particulièrement incertaine : l'interdiction australienne est trop récente pour être évaluée, et l'expérience chinoise suggère que les systèmes de vérification de l'âge sont poreux. L'approche la plus structurellement prometteuse — imposer des changements à la conception même des plateformes, tels qu'exiger des fils chronologiques ou interdire les algorithmes maximisant l'engagement pour les mineurs — est aussi celle qui fait face à l'opposition la plus intense de l'industrie. Les dépenses de lobbying des plateformes aux États-Unis seuls dépassent 100 millions de dollars par an. Les régulateurs ne sont pas simplement surpassés en armement. Ils sont surpassés en dépenses, en vitesse et souvent en expertise.
Le débat sur la causalité
Ce que la science tranche réellement — et ce qu'elle ne tranche pas
La question la plus controversée dans la littérature sur l'économie de l'attention est de savoir si l'utilisation des médias sociaux cause le déclin de la santé mentale des adolescents ou si elle n'en est que corrélée. Le débat est méthodologiquement légitime — et stratégiquement exploité par une industrie qui tire profit de l'incertitude perpétuelle. ⚖ Contesté
L'argumentaire le plus solide en faveur de la causalité a été présenté par Jonathan Haidt, dont The Anxious Generation présente sept lignes de preuves indépendantes convergeant vers la conclusion que les médias sociaux sont une « cause majeure » de la crise de santé mentale des adolescents [5]. La base de preuves de Haidt comprend des études corrélationnelles montrant une coïncidence temporelle entre l'adoption du smartphone et le déclin de la santé mentale, des études longitudinales établissant une antériorité temporelle (l'utilisation des médias sociaux prédit la dépression ultérieure, et non l'inverse), des études expérimentales démontrant des effets sur l'humeur de l'exposition aux plateformes, et des données internes d'entreprise confirmant la propre connaissance des préjudices par les plateformes. L'argumentaire cumulatif, soutient Haidt, est écrasant — comparable en force aux preuves liant le tabagisme au cancer du poumon dans les années 1960.
L'argumentaire le plus solide contre la causalité provient d'Andrew Przybylski de l'Oxford Internet Institute, dont l'étude de 2024 — l'une des plus vastes jamais menées sur le sujet — a analysé les données de plus de deux millions de personnes dans 168 pays [9]. L'étude n'a trouvé que « des changements mineurs dans la santé mentale mondiale au cours de deux décennies de connectivité en ligne croissante » et « aucune preuve cohérente liant l'adoption de Facebook à un bien-être négatif » [9]. Przybylski et ses co-auteurs soutiennent que les tailles d'effet rapportées dans la plupart des études sur les préjudices des médias sociaux sont faibles à modérées, que les études transversales dominent la littérature (rendant l'inférence causale inappropriée), que les données auto-déclarées de temps d'écran ne sont pas fiables, et que les variables confondantes — incluant la pauvreté, l'instabilité familiale, la pression scolaire et la pandémie de COVID-19 — ont été insuffisamment contrôlées dans la plupart des analyses.
Les arguments en faveur de la causalité
L'utilisation des médias sociaux au Temps 1 prédit la dépression au Temps 2, et non l'inverse. Ce schéma apparaît dans de multiples jeux de données indépendants et groupes d'âge.
La propre recherche de Meta a révélé que 32 % des adolescentes déclaraient qu'Instagram aggravait leur image corporelle. TikTok a identifié le seuil de 260 vidéos. Les entreprises savaient et n'ont pas agi.
Les essais contrôlés randomisés dans lesquels les participants réduisent ou éliminent l'utilisation des médias sociaux montrent systématiquement des améliorations de l'humeur, de la qualité du sommeil et du bien-être auto-déclaré.
Haidt identifie des preuves corrélationnelles, longitudinales, expérimentales, internes aux entreprises, quasi-expérimentales, neuroscientifiques et démographiques pointant toutes dans la même direction.
Les données du CDC montrent une augmentation graduelle du risque de dépression (RCa 1,61), d'anxiété (RCa 1,45) et de TDAH (RCa 1,21) à mesure que le temps d'écran dépasse quatre heures par jour.
Les arguments en faveur de la prudence
La plupart des études rapportent des tailles d'effet comparables à celles de la consommation de pommes de terre ou du port de lunettes. Les critiques soutiennent qu'elles sont trop faibles pour justifier une alarme au niveau de la population ou une intervention réglementaire.
L'étude d'Oxford menée par Przybylski sur plus de 2 millions de personnes dans 168 pays n'a trouvé que des changements mineurs de la santé mentale sur deux décennies de connectivité croissante.
La plupart des études mesurent l'utilisation des médias sociaux et la santé mentale à un seul moment, rendant impossible de déterminer si les médias sociaux causent le préjudice ou si les individus en détresse utilisent davantage les médias sociaux.
Les études reposant sur le temps d'écran auto-déclaré ne sont pas fiables. Les études de mesure objective montrent que les individus surestiment ou sous-estiment régulièrement leur utilisation réelle de 30 à 50 %.
La pauvreté, l'instabilité familiale, la pression scolaire, la COVID-19, les inégalités économiques et l'accès réduit aux services de santé mentale coïncident tous temporellement avec l'adoption des médias sociaux.
L'avis de l'APA occupe un juste milieu délibérément mesuré : « L'utilisation des médias sociaux n'est pas intrinsèquement bénéfique ou nocive pour les jeunes » [3]. Les effets, conclut l'APA, dépendent de facteurs individuels (âge, stade développemental, conditions de santé mentale préexistantes), de facteurs environnementaux (implication parentale, contexte scolaire, statut socio-économique) et des modes d'utilisation (défilement passif versus création active, exposition à des contenus nocifs versus communautés de soutien). Cette nuance est scientifiquement appropriée. Elle est aussi, dans le contexte de l'économie de l'attention, stratégiquement hors de propos — parce que les plateformes ne sont pas conçues pour une utilisation modérée, intentionnelle et contextuellement appropriée. Elles sont conçues pour un engagement maximal indépendamment des caractéristiques de l'utilisateur.
L'utilisation des médias sociaux n'est pas intrinsèquement bénéfique ou nocive pour les jeunes. Les effets dépendent des facteurs individuels et environnementaux, et des types de contenus et de fonctionnalités auxquels ils sont exposés.
— Association américaine de psychologie, avis sanitaire sur l'utilisation des médias sociaux à l'adolescence, mai 2023Les limites méthodologiques des deux côtés du débat sont réelles. Les critiques de Haidt notent à juste titre que les preuves corrélationnelles ne peuvent établir la causalité, que les tailles d'effet sont souvent modestes, et que la thèse du « Grand Recâblage » surestime l'homogénéité d'un ensemble très divers de plateformes, de modes d'utilisation et de contextes culturels. Les critiques de Przybylski notent à juste titre que les analyses au niveau de la population peuvent masquer des effets de sous-groupes (un constat d'« absence de préjudice moyen » peut coexister avec un préjudice grave pour des sous-populations vulnérables), que le design écologique de l'étude d'Oxford ne peut détecter les voies causales au niveau individuel, et que l'absence de preuve n'est pas preuve d'absence. ⚖ Contesté
Mais l'observation la plus importante sur le débat de la causalité n'est pas méthodologique. Elle est stratégique. L'industrie du tabac a entretenu un débat sur la causalité entre tabagisme et cancer du poumon pendant des décennies — non parce que les preuves étaient véritablement ambiguës, mais parce que l'ambiguïté servait les intérêts commerciaux de l'industrie. Chaque année où le débat se poursuivait était une année de retard pour la réglementation. La relation de l'économie de l'attention avec le débat sur la causalité suit une structure identique. Les plateformes financent des recherches qui soulignent l'incertitude. Elles amplifient les résultats qui jettent le doute sur le préjudice. Elles invoquent la complexité de la science comme raison de prudence réglementaire. Le débat est réel. L'exploitation du débat l'est aussi. Les deux faits peuvent coexister.
Le cadrage lui-même contient une erreur logique qui mérite attention. On n'a pas besoin de prouver que les machines à sous causent l'addiction au jeu pour réglementer leur installation dans les écoles primaires. On n'a pas besoin de prouver que les cigarettes causent le cancer du poumon pour interdire leur vente aux enfants. Le standard pour réglementer l'accès d'une industrie aux mineurs n'est pas la « preuve de causalité au-delà de tout différend méthodologique ». C'est le principe de précaution : lorsqu'il existe des preuves crédibles de préjudice, et lorsque la population à risque a une capacité réduite d'autoprotection, la charge de la preuve incombe à l'entité qui déploie le produit, et non aux enfants qui y sont exposés. Selon ce standard, les preuves ne sont pas simplement suffisantes. Elles sont accablantes.
Ce que les preuves nous disent réellement
Le problème d'ingénierie, pas le problème parental
La désinformation centrale de l'économie de l'attention est le cadrage lui-même. L'utilisation compulsive des médias sociaux est présentée comme un problème parental — un échec de la volonté, de la discipline ou de la surveillance familiale. Les preuves racontent une histoire différente. C'est un problème d'ingénierie, soutenu par un modèle économique de 1 170 milliards de dollars, et le cadrage qui l'obscurcit n'est pas accidentel [1] [11]. ◈ Preuves solides
L'asymétrie structurelle est le fait le plus important de l'ensemble de ce rapport. D'un côté : une industrie de 1 170 milliards de dollars employant des dizaines de milliers d'ingénieurs, de scientifiques du comportement et d'analystes de données, déployant la technologie de persuasion la plus sophistiquée jamais construite, optimisée à travers des millions de tests A/B sur des milliards d'utilisateurs, soutenue par un capital virtuellement illimité, et opérant selon un modèle économique qui génère plus de revenus à mesure que le produit devient plus compulsif [1]. De l'autre côté : des utilisateurs individuels — y compris des enfants dès l'âge de dix ans — équipés d'outils grand public de gestion du temps d'écran dont les études montrent qu'ils produisent au mieux une réduction de 20 à 30 % de l'utilisation, et des parents qui sont eux-mêmes les cibles des mêmes systèmes maximisant l'engagement. Ce n'est pas un combat équitable. Il n'est pas conçu pour l'être.
Le Center for Humane Technology, fondé en 2018 par Tristan Harris (ancien éthicien du design chez Google) et Aza Raskin (l'inventeur du défilement infini), représente le contrepoids organisationnel le plus éminent face à l'économie de l'attention [11]. L'organisation a eu un impact significatif — son plaidoyer a contribué à des modifications de produits chez Facebook, Apple et Google, et ses campagnes publiques ont façonné le discours réglementaire aux États-Unis et dans l'UE. L'apparition de Harris dans le documentaire Netflix The Social Dilemma a atteint des dizaines de millions de spectateurs et a considérablement sensibilisé le public à l'ingénierie de l'attention. Mais la disparité structurelle demeure : le Center for Humane Technology fonctionne avec un budget annuel d'environ 10 millions de dollars. L'industrie qu'il combat génère 1 170 milliards de dollars.
L'économie de l'attention génère 1 170 milliards de dollars par an. Le Center for Humane Technology — la contre-organisation la plus éminente — fonctionne avec un budget d'environ 10 millions de dollars. Voici le ratio : 117 000 contre 1. Le cadrage de l'utilisation compulsive des plateformes comme un problème parental n'est pas une observation. C'est une stratégie. Elle transfère la charge de résistance aux systèmes d'engagement à mille milliards de dollars des entreprises qui les ont conçus aux familles qu'ils ciblent. Chaque fois que le discours se concentre sur les « limites de temps d'écran » plutôt que sur les « algorithmes maximisant l'engagement », l'industrie gagne.
Les outils de gestion du temps d'écran — Screen Time d'Apple, Digital Wellbeing de Google, les rappels « Faites une pause » d'Instagram — représentent des outils de sensibilisation, non des solutions structurelles. Ils alertent les utilisateurs sur leur propre comportement sans changer l'environnement qui le façonne. C'est l'équivalent d'installer un compteur de vitesse dans une voiture sans freins. L'utilisateur peut observer à quelle vitesse il va. Il ne peut pas changer la conception de la route qui encourage la vitesse. Les études sur les outils de gestion du temps d'écran montrent systématiquement des réductions modestes à court terme de l'utilisation (typiquement 20 à 30 %), suivies d'un retour progressif au niveau initial à mesure que les utilisateurs apprennent à ignorer ou contourner les outils [15]. Les plateformes qui construisent ces outils comprennent leurs limites. Elles les construisent parce que ces outils remplissent une fonction de relations publiques, non de réduction des préjudices.
Les plateformes alternatives éthiques démontrent que des choix de conception différents sont techniquement possibles. Bluesky, Mastodon et d'autres plateformes de médias sociaux décentralisées proposent des fils chronologiques, des algorithmes contrôlés par l'utilisateur et des modèles économiques non dépendants des revenus publicitaires. Ces plateformes prouvent que le réseautage social n'exige pas une conception maximisant l'engagement. Cependant, elles démontrent aussi pourquoi l'économie de l'attention est auto-renforçante : la conception maximisant l'engagement n'est pas simplement une caractéristique des grandes plateformes — c'est leur avantage concurrentiel. Les plateformes qui optimisent l'engagement attirent plus d'utilisateurs, génèrent plus de données, vendent plus de publicité et investissent davantage dans l'optimisation ultérieure de l'engagement. Les alternatives éthiques ne peuvent pas rivaliser avec cette boucle de rétroaction à grande échelle. Le problème n'est pas que de meilleures conceptions soient impossibles. C'est que le marché récompense les pires conceptions.
Un changement structurel nécessiterait des interventions s'attaquant au modèle économique lui-même, et non simplement à ses symptômes. Les réformes structurelles les plus couramment proposées comprennent : l'interdiction des algorithmes maximisant l'engagement pour les utilisateurs de moins de 18 ans, l'obligation de fils chronologiques comme paramètre par défaut pour tous les utilisateurs (avec les fils algorithmiques disponibles en option), l'imposition de l'interopérabilité pour réduire les effets de réseau et permettre la concurrence, l'imposition de devoirs fiduciaires aux plateformes d'agir dans l'intérêt des utilisateurs, et la taxation des revenus publicitaires fondés sur l'attention pour financer des programmes de littératie numérique et de santé mentale. Chacune de ces propositions réduirait directement les revenus générés par la conception compulsive. C'est pourquoi chacune fait face à une opposition intense de l'industrie. Les propositions sont structurellement efficaces précisément parce qu'elles menacent les incitations structurelles qui produisent le préjudice.
Les preuves présentées dans ce rapport ne prouvent pas que les médias sociaux sont la seule cause du déclin de la santé mentale des adolescents. La science est plus complexe que cela, et une analyse responsable doit reconnaître les limites méthodologiques et les résultats contestés. Mais les preuves établissent — au-delà de tout doute raisonnable — les faits suivants : les plateformes sont délibérément conçues pour un usage compulsif ; les documents internes prouvent que les plateformes savaient que leurs produits causaient des préjudices aux adolescents ; la réponse réglementaire, bien qu'en accélération, reste structurellement dépassée par les ressources et la vitesse d'adaptation de l'industrie ; et le cadrage de la captation de l'attention comme un problème de responsabilité personnelle sert les intérêts commerciaux de l'industrie qui a conçu le produit.
La question n'est pas de savoir si les individus devraient exercer la prudence dans leur utilisation des médias sociaux. Bien sûr qu'ils le devraient. La question est de savoir si la prudence individuelle constitue une réponse suffisante face à une industrie à mille milliards de dollars conçue pour la surmonter. Les preuves sur cette question ne sont pas ambiguës. La prudence individuelle est nécessaire. Elle n'est pas suffisante. L'économie de l'attention est un problème d'ingénierie. Elle nécessite une solution d'ingénierie — soutenue par la force réglementaire, éclairée par la science, et proportionnée au modèle économique de 1 170 milliards de dollars qui la soutient.
Les plateformes le savent. Leurs propres ingénieurs, dans leurs propres communications internes, à partir de leurs propres données, l'ont dit eux-mêmes. La seule question restante est de savoir si la volonté politique existe pour agir sur ce qui est déjà connu — ou si le débat sur la causalité servira, comme il a servi pour le tabac, de tactique dilatoire pendant plusieurs décennies tandis que l'extraction se poursuit.