INTELLIGENCE REPORT SERIES MARCH 2026 OPEN ACCESS

SERIES: ECONOMIC INTELLIGENCE

La economía de la atención — Extracción por diseño

Las plataformas de redes sociales generan 1,17 billones de dólares en ingresos publicitarios anuales mediante la ingeniería de la interacción compulsiva. Documentos internos de Meta, TikTok y Google revelan decisiones de diseño deliberadas que explotan vulnerabilidades psicológicas, particularmente en adolescentes. La respuesta regulatoria sigue siendo estructuralmente insuficiente frente a los incentivos económicos que impulsan el diseño compulsivo.

Reading Time36 min
Word Count9,603
Published26 March 2026
Evidence Tier Key → ✓ Established Fact ◈ Strong Evidence ⚖ Contested ✕ Misinformation ? Unknown
Contents
36 MIN READ
EN FR JP ES
01

El mercado de la atención de un billón de dólares
Cómo las plataformas monetizan la cognición humana

El mercado mundial de publicidad digital alcanzó los 1,17 billones de dólares en 2025 — ✓ Hecho establecido — lo que representa el 72,9 % de todo el gasto publicitario mundial [1]. Esto no es una historia tecnológica. Es una historia de extracción. La materia prima que se extrae es la atención humana, y el aparato de extracción es el sistema de ingeniería conductual más sofisticado jamás construido.

Para comprender la economía de la atención, hay que empezar por los ingresos. En su informe anual del ejercicio fiscal 2025, Meta Platforms reveló unos ingresos publicitarios totales de 200.100 millones de dólares [1]. Esa cifra representa una sola empresa —un nodo en una red de plataformas que generaron colectivamente 1,17 billones de dólares por publicidad digital en un solo año natural—. El ingreso medio global por usuario (ARPU) subió a 57,03 dólares, frente a los 49,63 dólares de 2024. En Estados Unidos y Canadá, el ARPU alcanzó los 68,44 dólares —el más alto de cualquier región— [1]. Cada usuario vale, en términos puramente financieros, más cada trimestre. El producto no es la red social. El producto es la persona que la utiliza.

TikTok, pese a enfrentarse a amenazas regulatorias existenciales en Estados Unidos, generó unos ingresos estimados de 33.100 millones de dólares en 2025, con un ARPU específico de EE. UU. de 96,71 dólares —casi el doble de la media global de Meta— [7]. Los ingresos publicitarios de YouTube alcanzaron los 40.400 millones de dólares [1]. Alphabet, Amazon y Microsoft añadieron colectivamente cientos de miles de millones más. No se trata de empresas tecnológicas en ningún sentido tradicional. Son operaciones de recolección de atención que utilizan la tecnología como mecanismo de recolección.

La lógica estructural es directa. Los anunciantes pagan a las plataformas por el acceso a la atención humana. Por tanto, las plataformas optimizan la cantidad e intensidad de esa atención. Cada decisión de diseño —el desplazamiento infinito, la reproducción automática de vídeos, la cadencia de notificaciones, el feed algorítmico— se subordina a una única métrica: el tiempo en la plataforma. Cuanto más tiempo permanece un usuario interactuando, más inventario publicitario puede vender la plataforma. Cuanto más precisamente la plataforma puede perfilar el comportamiento de ese usuario, mayor es el precio por impresión. Esto no es una teoría conspirativa. Es el modelo de negocio descrito en los informes ante la SEC y las presentaciones a inversores de todas las grandes plataformas [1].

La escala de este mercado tiene consecuencias que se extienden mucho más allá de los balances corporativos. Cuando el 72,9 % de todo el gasto publicitario mundial fluye a través de plataformas digitales, esas plataformas adquieren un poder estructural sobre los ecosistemas de información, la producción cultural, la distribución de noticias y el discurso político. La economía de la atención no es meramente un fenómeno económico: es un fenómeno infraestructural. Determina lo que las personas ven, cuánto tiempo lo ven y qué hacen después. Y lo hace conforme a una única función de optimización: maximizar la interacción para maximizar los ingresos.

1,17 B $
Mercado mundial de publicidad digital (2025)
Meta FY2025 Annual Report, feb. 2026 · ✓ Hecho establecido
200.100 M $
Ingresos publicitarios de Meta (ejercicio fiscal 2025)
Meta FY2025 Annual Report, feb. 2026 · ✓ Hecho establecido
96,71 $
ARPU de TikTok en EE. UU. (2025)
TikTok Internal Documents, oct. 2024 · ✓ Hecho establecido
40.400 M $
Ingresos publicitarios de YouTube (2025)
Meta FY2025 Annual Report, feb. 2026 · ✓ Hecho establecido
✓ Hecho establecido La publicidad digital mundial alcanzó los 1,17 billones de dólares en 2025, lo que representa el 72,9 % de todo el gasto publicitario a nivel global

Esta cifra establece la economía de la atención como el modelo económico dominante para la distribución de información a escala global. La concentración del gasto publicitario en canales digitales —que pasó del 52 % en 2020 al nivel actual— significa que las métricas de interacción de las plataformas determinan ahora la viabilidad financiera del periodismo, el entretenimiento, la educación y el discurso público [1].

Considérese lo que esta estructura de mercado significa en la práctica. Un periodista que compite por la atención del lector opera en el mismo entorno algorítmico que un teórico conspirativo, una operación de propaganda estatal y una marca de cosméticos. La plataforma no distingue entre estos actores porque su modelo de ingresos no lo requiere. Interacción es interacción. Un clic impulsado por la indignación genera el mismo inventario publicitario que un clic impulsado por la curiosidad. En la economía de la atención, la verdad no es una variable en la función de optimización, y eso no es un defecto. Es la arquitectura.

La trayectoria es clara. La cuota de la publicidad digital sobre el gasto publicitario total ha crecido cada año durante dos décadas, pasando de menos del 10 % en 2005 al 72,9 % en 2025 [1]. El 27,1 % restante —televisión, prensa, radio, publicidad exterior— sigue cayendo. Esto significa que la economía de la atención no es meramente grande; se está convirtiendo en la única economía en la que la información llega a audiencias masivas. Las plataformas no compiten con los medios tradicionales. Ya han ganado. La cuestión ahora es cuánto cuesta esa victoria.

02

La ingeniería de la compulsión
Máquinas tragaperras, desplazamiento infinito y la arquitectura de la adicción

La economía de la atención no se limita a capturar la atención: diseña la compulsión. Los patrones de diseño integrados en las plataformas modernas de redes sociales no son accidentales. Son el producto de una ingeniería conductual deliberada, extraída directamente de la mecánica de las máquinas tragaperras y el condicionamiento operante [11]. ✓ Hecho establecido

En 2006, Aza Raskin —entonces un joven diseñador de interfaces en Humanised— inventó el desplazamiento infinito. La innovación eliminó la señal de parada natural que proporcionaba la paginación. Donde antes el usuario debía tomar una decisión consciente de hacer clic en «siguiente página», el desplazamiento infinito eliminó esa fricción por completo. El contenido simplemente aparecía, sin fin, bajo el pulgar del usuario. Raskin cofundaría posteriormente el Center for Humane Technology y estimaría públicamente que su creación desperdicia aproximadamente 200.000 vidas humanas al día [11]. ✓ Hecho establecido El desplazamiento infinito no se diseñó para causar daño. Se diseñó para eliminar señales de parada. El daño fue consecuencia inevitable del modelo de negocio que lo adoptó.

El mecanismo psicológico en el núcleo del uso compulsivo de las plataformas es el refuerzo de razón variable —el mismo programa de recompensas que convierte a las máquinas tragaperras en la forma más rentable de juego—. En un programa de razón variable, la recompensa (un «me gusta», un comentario, una publicación viral, un vídeo interesante) llega de forma impredecible. El sistema dopaminérgico del cerebro responde con mayor intensidad a las recompensas inciertas que a las predecibles. Como observó el exdiseñador ético de Google, Tristan Harris, el gesto de deslizar para actualizar en un teléfono inteligente es «inquietantemente similar a una máquina tragaperras» —el usuario tira de la palanca y espera a ver qué aparece— [11]. La descarga de dopamina no procede de recibir la recompensa, sino de la anticipación de si llegará una.

Esto no es una metáfora. Es neurociencia aplicada al diseño de interfaces. Los ingenieros de las plataformas —muchos reclutados directamente de la industria de los videojuegos— emplean pruebas A/B a escala masiva para identificar la temporización de notificaciones, la secuenciación de contenidos y los intervalos de recompensa que maximizan la retención de usuarios. Cada elemento de la experiencia de usuario ha sido optimizado mediante millones de experimentos sobre miles de millones de usuarios. El color de la insignia de notificación (rojo, para desencadenar urgencia), el retraso antes de mostrar el recuento de «me gusta» (para crear anticipación), la secuenciación algorítmica del contenido (para alternar entre experiencias satisfactorias y frustrantes): ninguna de estas son decisiones de diseño arbitrarias. Son el resultado de sistemas de optimización diseñados para maximizar una única variable: el tiempo en la plataforma.

La máquina tragaperras en tu bolsillo

El refuerzo de razón variable es el programa de condicionamiento operante más poderoso conocido por la ciencia conductual. El cerebro recibe la mayor descarga de dopamina no al recibir una recompensa, sino ante la incertidumbre de si llegará una. Cada gesto de deslizar para actualizar, cada comprobación de notificaciones, cada desplazamiento por un feed activa los mismos circuitos neuronales que mantienen a un jugador frente a una máquina tragaperras. La diferencia: las máquinas tragaperras están reguladas, tienen restricciones de edad y se limitan a ubicaciones específicas. Las plataformas de redes sociales están en cada bolsillo, son accesibles las 24 horas del día y se comercializan entre niños.

Los documentos internos de TikTok, divulgados a través de investigaciones de fiscales generales estatales en 2024, proporcionan la evidencia más detallada de un diseño compulsivo deliberado. La investigación interna identificó 260 vídeos como el umbral preciso de formación de hábito —el punto en el que un nuevo usuario es probable que se convierta en un usuario habitual y compulsivo— [7]. ✓ Hecho establecido Los mismos documentos señalaban que «en la mayoría de las métricas de interacción, cuanto más joven es el usuario, mejor es el rendimiento» [7]. Esto no es una observación sobre preferencias de los usuarios. Es una observación sobre vulnerabilidad. Los usuarios más jóvenes son más susceptibles al refuerzo de razón variable porque su corteza prefrontal —la región cerebral responsable del control de impulsos— no se desarrolla completamente hasta los veinticinco años.

El conjunto de herramientas de diseño va mucho más allá del desplazamiento infinito. La mecánica de rachas de Snapchat, introducida en 2011, crea obligaciones sociales artificiales —los usuarios deben intercambiar mensajes diariamente o perder su recuento de rachas, lo que genera ansiedad y comportamiento de comprobación compulsiva—. La función de reproducción automática de YouTube, lanzada en 2013, elimina el punto de decisión entre vídeos, transformando la visualización activa en consumo pasivo. Las Stories de Instagram, introducidas en 2016 como un clon directo del contenido efímero de Snapchat, crean urgencia a través de contenido que desaparece: revísalo ahora o piérdelo para siempre. Cada una de estas funciones fue diseñada, probada y desplegada porque aumentaba las métricas de interacción. Ninguna fue diseñada con el bienestar del usuario como restricción primaria.

2006
Se inventa el desplazamiento infinito — Aza Raskin crea el desplazamiento infinito en Humanised, eliminando las señales naturales de parada de la navegación web. Adoptado posteriormente por todas las grandes plataformas.
2009
Se lanza el botón «Me gusta» de Facebook — Introduce la aprobación social cuantificada. Mecanismo de recompensa variable: los usuarios comprueban repetidamente si sus publicaciones recibieron «me gusta».
2011
Se introducen las rachas de Snapchat — Crea una obligación diaria artificial. Los usuarios deben intercambiar contenido cada 24 horas o perder el recuento acumulado de rachas, generando interacción impulsada por la ansiedad.
2013
Se despliega la reproducción automática de YouTube — Elimina el punto de decisión entre vídeos. El consumo pasivo reemplaza la elección activa, aumentando la duración media de sesión un 60 %.
2016
Se lanzan las Stories de Instagram — El contenido efímero crea urgencia mediante la escasez artificial. El contenido desaparece en 24 horas, obligando a visitas frecuentes de retorno.
2017
TikTok se lanza globalmente — El vídeo corto a pantalla completa, con reproducción automática y secuenciado algorítmicamente se convierte en el motor de interacción más potente jamás desplegado a escala de consumo.
2019
TikTok identifica el umbral de 260 vídeos — La investigación interna determina el nivel exacto de interacción en el que los nuevos usuarios pasan de un uso casual a uno habitual y compulsivo.
2020
Comienza la carrera armamentística del vídeo corto — Instagram lanza Reels, YouTube lanza Shorts, Snapchat lanza Spotlight. Todas las grandes plataformas clonan el modelo de diseño compulsivo de TikTok.
2024
La recomendación por IA sustituye al grafo social — Las plataformas pasan de mostrar contenido de personas que el usuario sigue a contenido seleccionado algorítmicamente de desconocidos, maximizando la novedad y la imprevisibilidad.
✓ Hecho establecido Los documentos internos de TikTok identifican 260 vídeos como el umbral preciso para la formación de hábito

Los documentos divulgados a través de las investigaciones de los fiscales generales estatales revelan que la propia investigación de TikTok identificó el nivel exacto de interacción en el que los usuarios pasan de un uso casual a uno compulsivo. Los mismos documentos señalaban que las métricas de interacción mejoran con los usuarios más jóvenes —un hallazgo que describe vulnerabilidad, no preferencia— [7].

La evolución más reciente es quizá la más trascendental. A partir de 2023 y acelerándose a lo largo de 2024, las grandes plataformas pasaron de feeds basados en el grafo social —que mostraban contenido de personas que el usuario seguía— a feeds curados algorítmicamente dominados por contenido de desconocidos. TikTok fue pionero en este modelo; Instagram, YouTube y Facebook lo adoptaron. El efecto es maximizar la novedad y la imprevisibilidad —precisamente las variables que amplifican el refuerzo de razón variable—. Los usuarios ya no se desplazan por actualizaciones de amigos. Se desplazan por una secuencia de estímulos algorítmicamente optimizada diseñada para mantener la interacción a nivel neurológico. La red social se ha convertido en una caja de Skinner a escala civilizatoria.

Ninguna de estas decisiones de diseño es una consecuencia inevitable de la tecnología digital. Los feeds cronológicos, las listas finitas de contenido y la fricción deliberada son todos triviales de implementar técnicamente. No se implementan porque reducen las métricas de interacción. Y una menor interacción significa menores ingresos. La ingeniería de la compulsión no es un efecto secundario de la economía de la atención. Es el producto central de la economía de la atención.

03

Lo que las plataformas ya sabían
Investigación interna, denunciantes y evidencia suprimida

La evidencia más condenatoria contra la economía de la atención no procede de investigadores académicos, reguladores o grupos de defensa. Procede de las propias plataformas. Documentos internos —divulgados mediante denunciantes, investigaciones del Congreso y litigios de los fiscales generales estatales— revelan que las grandes plataformas eran conscientes del daño psicológico que causaban sus productos y optaron por priorizar el crecimiento sobre la seguridad de los usuarios [4] [14]. ✓ Hecho establecido

En septiembre de 2021, el Wall Street Journal publicó «The Facebook Files» —una serie de reportajes de investigación basados en decenas de miles de documentos internos proporcionados por la exdirectora de producto de Facebook, Frances Haugen— [4]. Los documentos revelaron que los propios investigadores de Facebook habían estudiado el impacto de Instagram en los usuarios adolescentes y habían llegado a conclusiones que la empresa nunca hizo públicas. La investigación interna encontró que el 32 % de las adolescentes afirmaba que Instagram les hacía sentirse peor con su cuerpo [4]. Entre los adolescentes que informaron experimentar pensamientos suicidas, el 13 % de los usuarios británicos y el 6 % de los estadounidenses rastrearon el origen de esos pensamientos hasta Instagram [4]. ✓ Hecho establecido No se trataba de acusaciones externas. Eran hallazgos producidos por los propios equipos de investigación de Facebook, utilizando los propios datos de Facebook, y difundidos dentro de los propios sistemas de comunicación interna de Facebook.

Los documentos revelaron además que Facebook era consciente de estos hallazgos y optó por no actuar sobre ellos de ninguna manera estructuralmente significativa. Las presentaciones internas discutían el daño en términos clínicos. Los investigadores recomendaron cambios. Esas recomendaciones no se implementaron cuando entraban en conflicto con las métricas de interacción. Como declaró Haugen ante el Comité de Comercio del Senado de Estados Unidos en octubre de 2021: «La dirección de la empresa sabe cómo hacer que Facebook e Instagram sean más seguros, pero no realizará los cambios necesarios porque ha antepuesto sus astronómicos beneficios a las personas» [14]. Haugen declaró posteriormente ante el Parlamento del Reino Unido y el Parlamento Europeo, proporcionando el mismo cuerpo de evidencia a legisladores de tres jurisdicciones.

Facebook resolvió sistemáticamente los conflictos entre sus propios beneficios y nuestra seguridad a favor de sus propios beneficios. El resultado ha sido un sistema que amplifica la división, el extremismo y la polarización, y que socava sociedades en todo el mundo.

— Frances Haugen, declaración ante el Comité de Comercio del Senado de EE. UU., octubre de 2021

Los documentos internos de TikTok, divulgados a través de una coalición de investigaciones de fiscales generales estatales en octubre de 2024, pintaron un panorama igualmente crudo [7]. Los documentos —presentados inicialmente bajo fuertes redacciones, luego parcialmente desclasificados por un tribunal de Kentucky— revelaron que los propios investigadores de TikTok habían identificado el umbral de formación de hábito de 260 vídeos y comprendían sus implicaciones para los usuarios más jóvenes. Un documento interno afirmaba de forma llana: «En la mayoría de las métricas de interacción, cuanto más joven es el usuario, mejor es el rendimiento» [7]. Otro describía el algoritmo de recomendación de la plataforma como una «caja negra» —opaca incluso para muchos de los propios ingenieros de TikTok—. Las comunicaciones internas incluían la observación de que la relación de la plataforma con los usuarios jóvenes se asemejaba a la de una «droga» —una caracterización realizada no por críticos externos, sino por los propios empleados de TikTok—.

Las comunicaciones internas de Meta, divulgadas a través de litigios separados, contenían admisiones igualmente francas. Los registros internos de chat obtenidos mediante procesos de descubrimiento incluían intercambios en los que los empleados describían Instagram como «una droga» y el papel de la empresa como el de «camellos». Estas caracterizaciones no se hicieron en broma. Se hicieron en el contexto de debates internos sobre estrategias de retención de usuarios y métricas de interacción. Los empleados comprendían la mecánica de lo que estaban construyendo. La empresa comprendía las consecuencias. Los productos no se modificaron porque las consecuencias no las asumía la empresa: se externalizaban sobre los usuarios, en particular los más jóvenes.

✓ Hecho establecido La propia investigación interna de Facebook encontró que el 32 % de las adolescentes afirmaba que Instagram les hacía sentirse peor con su cuerpo

Este hallazgo fue producido por los propios investigadores de Facebook y difundido internamente. Entre los adolescentes que experimentaban pensamientos suicidas, el 13 % de los usuarios británicos y el 6 % de los estadounidenses rastrearon esos pensamientos hasta Instagram. Facebook no hizo pública esta investigación, no la comunicó a los reguladores ni implementó los cambios estructurales que sus propios investigadores recomendaron [4].

El patrón en todas las plataformas es consistente. La investigación interna identifica el daño. Los investigadores recomiendan cambios. Las recomendaciones se evalúan en función de su impacto en la interacción y los ingresos. Los cambios que reducirían la interacción se archivan o se diluyen. La empresa implementa funciones de seguridad cosméticas —controles parentales, recordatorios de límite de tiempo, cuentas restringidas para adolescentes— mientras deja intacta la arquitectura subyacente de maximización de la interacción. ⚖ Controvertido El propio equipo interno de seguridad de Meta señaló que estas medidas cosméticas eran insuficientes, destacando su «uso infrecuente, baja adopción y elevada carga para los padres» [4]. El supuesto compromiso de la industria con la seguridad del usuario queda contradicho por las propias evaluaciones internas de la industria sobre sus herramientas de seguridad.

La supresión de la investigación no es incidental al modelo de negocio: es parte integral de él. La divulgación pública de los hallazgos internos sobre daños habría generado presión regulatoria, riesgos de litigación y daño reputacional. Al mantener la investigación interna, las plataformas preservaron la asimetría informativa que les permitía seguir optimizando la interacción mientras afirmaban públicamente priorizar la seguridad. Esto no es un fracaso de la gobernanza corporativa. Es la gobernanza corporativa funcionando exactamente como la estructura de incentivos exige. La economía de la atención requiere que los verdaderos costes de la extracción de atención permanezcan invisibles para las personas de quienes se extrae.

04

El coste cognitivo
Capacidad de atención, bucles dopaminérgicos y la reconfiguración de la concentración

La economía de la atención no se limita a capturar tiempo. Reestructura la cognición. La investigación sobre la capacidad de atención, los patrones de interrupción por notificaciones y las relaciones dosis-respuesta entre el tiempo de pantalla y los resultados de salud mental revela un panorama consistente: la exposición prolongada a plataformas que maximizan la interacción degrada la capacidad de pensamiento concentrado [8]. ◈ Evidencia sólida

Gloria Mark, catedrática de informática en la Universidad de California en Irvine, ha dedicado dos décadas a medir cómo las personas distribuyen su atención. Su investigación, realizada a través de múltiples estudios longitudinales y publicada con el WorkLab de Microsoft, documenta un descenso sostenido de la duración media de la atención en una sola pantalla: de aproximadamente 150 segundos en 2004 a tan solo 47 segundos en 2024 [8]. ◈ Evidencia sólida El descenso no es lineal —se ha acelerado en los últimos años, coincidiendo con la proliferación del contenido de vídeo corto y las aplicaciones móviles con alta carga de notificaciones—. La investigación de Mark establece además que recuperar la concentración tras una sola interrupción requiere una media de 25 minutos [8]. En un entorno digital diseñado para interrumpir —mediante notificaciones, reproducción automática y secuenciación algorítmica del contenido— el coste cognitivo acumulado es abrumador.

El entorno de notificaciones al que se enfrenta el adolescente medio agrava estos efectos drásticamente. El estudio «Constant Companion» de Common Sense Media de 2023 encontró que los adolescentes reciben una media de 237 notificaciones push al día, con un 25 % de ellas llegando durante el horario escolar y un 5 % por la noche [10]. ✓ Hecho establecido La generación Z recibe una media de 181 alertas diarias en todas las aplicaciones [10]. Cada notificación representa una potencial interrupción —un estímulo diseñado para desviar la atención del usuario de lo que esté haciendo y redirigirla hacia la plataforma—. Con 237 notificaciones al día, y 25 minutos necesarios para reenfocarse tras cada interrupción, la pérdida máxima teórica de atención supera las 98 horas diarias —una cifra obviamente imposible que ilustra la imposibilidad de interactuar plenamente con el entorno de notificaciones manteniendo cualquier forma de actividad cognitiva sostenida—.

47 s
Capacidad media de atención en una sola pantalla (2024)
Gloria Mark, UC Irvine / Microsoft WorkLab, 2024 · ◈ Evidencia sólida
25 min
Tiempo necesario para reenfocarse tras una sola interrupción
Gloria Mark, UC Irvine / Microsoft WorkLab, 2024 · ◈ Evidencia sólida
237+
Media de notificaciones push diarias recibidas por los adolescentes
Common Sense Media, sep. 2023 · ✓ Hecho establecido
1,61×
Multiplicador de riesgo de depresión con ≥4 horas diarias de pantalla
CDC, 2025 · ◈ Evidencia sólida

El mecanismo neurológico subyacente a estos patrones involucra el sistema dopaminérgico —específicamente la vía mesolímbica que media la anticipación de recompensas y el placer—. Las plataformas de redes sociales explotan este sistema mediante el refuerzo de razón variable, como se describió en la Sección 02. Pero las consecuencias a largo plazo van más allá de los momentos individuales de interacción. La activación repetida del sistema dopaminérgico mediante estímulos artificiales —«me gusta», notificaciones, impactos algorítmicos de contenido— produce un fenómeno que los neurocientíficos describen como déficit de dopamina. Con el tiempo, el nivel basal de dopamina disminuye, lo que significa que el usuario experimenta menos placer con actividades fuera de la plataforma y requiere una estimulación cada vez más intensa de la plataforma para lograr la misma respuesta hedónica. La plataforma crea el deseo que promete satisfacer.

El ciclo del déficit de dopamina

La neurociencia del uso compulsivo de plataformas sigue un ciclo predecible. La interacción inicial desencadena la liberación de dopamina —la señal de recompensa—. La interacción repetida eleva el umbral de activación dopaminérgica —habituación—. El nivel basal de dopamina del usuario cae por debajo de su estado previo a la plataforma —déficit—. El usuario ahora experimenta menos placer con las actividades fuera de la plataforma y regresa a la plataforma para restaurar los niveles de dopamina —dependencia—. Con el tiempo, la propia plataforma se vuelve menos satisfactoria, requiriendo una interacción más frecuente y más intensa para lograr el mismo efecto neurológico. El producto crea el deseo que promete satisfacer. Esto no es una metáfora de la adicción. Es el mecanismo de la adicción.

Los datos de dosis-respuesta refuerzan el argumento a favor de una relación causal entre la intensidad del tiempo de pantalla y el daño psicológico. El análisis de los CDC de 2025 sobre indicadores de salud mental adolescente encontró que un tiempo de pantalla diario de cuatro horas o más se asociaba con riesgos significativamente elevados en múltiples dominios: depresión (odds ratio ajustado 1,61), ansiedad (ORa 1,45), problemas de conducta (ORa 1,24) y síntomas de TDAH (ORa 1,21) [13]. ◈ Evidencia sólida Cabe destacar que el mismo estudio encontró que la actividad física media entre el 30 % y el 39 % de la asociación entre tiempo de pantalla y resultados de salud mental —lo que sugiere que el desplazamiento de la actividad física es un mecanismo significativo a través del cual el tiempo de pantalla genera daño— [13]. El daño no es puramente neurológico. También es físico: las horas sedentarias en las plataformas desplazan el ejercicio que de otro modo amortiguaría la depresión y la ansiedad.

El informe de la OCDE de 2025 sobre tiempo de pantalla y bienestar subjetivo llegó a una conclusión complementaria: un tiempo de pantalla elevado o desequilibrado se asocia consistentemente con peores resultados de salud mental, mientras que un uso moderado y con propósito puede respaldar el bienestar [15]. El patrón no es que todo tiempo de pantalla sea dañino. El patrón es que el tipo de tiempo de pantalla que las plataformas están diseñadas para maximizar —consumo pasivo, prolongado y dirigido algorítmicamente— es el tipo más consistentemente asociado con resultados negativos. Las plataformas no optimizan para un uso moderado y con propósito. Optimizan para lo opuesto, porque lo opuesto genera más ingresos.

La investigación de Mark también revela un hallazgo particularmente preocupante: la autointerrupción ahora supera la interrupción externa [8]. Los usuarios no se limitan a responder a las notificaciones: las anticipan, comprobando las plataformas compulsivamente incluso en ausencia de cualquier estímulo externo. La ingeniería conductual se ha internalizado. La máquina tragaperras ya no necesita sonar. El usuario tira de la palanca por sí mismo.

05

La emergencia adolescente
Por qué los niños no son adultos pequeños — y por qué al diseño le da igual

El 95 % de los adolescentes estadounidenses de 13 a 17 años usa redes sociales [2]. El 46 % declara estar en línea «casi constantemente». El adolescente medio pasa 4,8 horas diarias en plataformas de redes sociales [2]. ✓ Hecho establecido Estas plataformas no se diseñaron para cerebros adolescentes. Se diseñaron para métricas de interacción. El cerebro adolescente resulta ser el objetivo más rico en interacción disponible.

En mayo de 2023, el director general de Salud Pública de Estados Unidos emitió un aviso formal sobre redes sociales y salud mental juvenil —un instrumento reservado para asuntos de preocupación urgente en salud pública— [2]. El aviso afirmaba de forma llana: «Todavía no tenemos suficiente evidencia para determinar si el uso de las redes sociales es suficientemente seguro para los niños y adolescentes». La formulación es significativa. No dice que las redes sociales sean seguras. Dice que la evidencia es insuficiente para concluir que lo sean. El director general señaló además que los adolescentes que usan redes sociales durante más de tres horas diarias se enfrentan al doble de riesgo de síntomas de depresión y ansiedad [2]. ◈ Evidencia sólida El adolescente estadounidense medio ya supera este umbral.

La Asociación Estadounidense de Psicología (APA) emitió su propio aviso el mismo mes, adoptando una posición más matizada: el uso de redes sociales «no es inherentemente beneficioso ni perjudicial para los jóvenes» [3]. Los efectos, concluyó la APA, dependen de «factores individuales y ambientales», incluyendo el tipo de contenido consumido, la calidad de las interacciones en línea y la presencia o ausencia de supervisión adulta. La APA recomendó que los adultos supervisaran el uso de redes sociales de niños entre 10 y 14 años y que la formación en alfabetización digital se hiciera imperativa en todos los entornos educativos [3]. El matiz es importante —y es precisamente lo que el modelo de negocio de la economía de la atención está diseñado para abrumar—. Los factores individuales y ambientales son relevantes, pero se ven desbordados por la escala y sofisticación del diseño que maximiza la interacción.

The Anxious Generation de Jonathan Haidt, publicado en marzo de 2024 y con 52 semanas en la lista de superventas del New York Times, presentó el argumento popular más completo a favor de una relación causal entre las redes sociales y el deterioro de la salud mental adolescente [5]. Haidt identifica lo que denomina la «Gran Reconfiguración de la Infancia» —el período entre 2010 y 2015 durante el cual la adopción de teléfonos inteligentes entre los adolescentes estadounidenses pasó de ser minoritaria a casi universal—. Durante ese mismo período, los síntomas depresivos entre los adolescentes aumentaron un 33 % y la tasa de suicidio entre las niñas de 10 a 14 años se incrementó un 65 % [5]. ◈ Evidencia sólida Haidt argumenta que la coincidencia temporal, combinada con siete líneas de evidencia independientes —incluyendo estudios correlacionales, investigación longitudinal, experimentos y datos internos de las empresas— establece la causalidad más allá de toda duda razonable.

◈ Evidencia sólida Los adolescentes que usan redes sociales durante más de tres horas diarias se enfrentan al doble de riesgo de síntomas de depresión y ansiedad

El aviso del director general de Salud Pública de EE. UU. de 2023 identificó una relación dosis-respuesta entre la intensidad del uso de redes sociales y el riesgo de salud mental en adolescentes. El umbral de tres horas es significativo porque el uso medio de redes sociales por parte de los adolescentes ya lo supera, con 4,8 horas diarias. Esto significa que la mayoría de los adolescentes que usan redes sociales en Estados Unidos se encuentran en la categoría de riesgo elevado [2].

Los mecanismos específicos de daño en adolescentes están bien documentados, incluso donde la cuestión causal general sigue debatiéndose. La distorsión de la imagen corporal se encuentra entre los más sólidamente establecidos: la propia investigación de Facebook encontró que el 32 % de las adolescentes afirmaba que Instagram les hacía sentirse peor con su cuerpo [4]. La comparación social —un proceso al que los adolescentes son evolutivamente más susceptibles que los adultos— se amplifica con plataformas que presentan imágenes curadas, filtradas y a menudo digitalmente alteradas como normativas. Los trastornos alimentarios, la dismorfia corporal y la ansiedad relacionada con la apariencia se han vinculado al uso intensivo de redes sociales en poblaciones adolescentes, particularmente entre las chicas.

El coste humano

Entre los adolescentes que declararon experimentar pensamientos suicidas, el 13 % de los usuarios británicos y el 6 % de los estadounidenses rastrearon el origen de esos pensamientos hasta Instagram. Los propios investigadores de Facebook produjeron estos hallazgos en 2019. La empresa no los hizo públicos. Solo se divulgaron a través del testimonio de la denunciante Frances Haugen dos años después [4] [14]. Cuando la propia investigación de una empresa vincula su producto con la ideación suicida en niños, y esa empresa suprime la investigación para proteger sus métricas de crecimiento, la palabra «negligencia» se queda corta.

La alteración del sueño representa otra vía bien establecida. Las notificaciones que llegan por la noche —el 5 % de la media diaria de más de 237, según Common Sense Media— [10] interrumpen la arquitectura del sueño de formas que agravan la vulnerabilidad adolescente. La luz azul emitida por las pantallas suprime la producción de melatonina, pero el estímulo psicológico del contenido de redes sociales es el disruptor más significativo. Los adolescentes que consultan redes sociales en la hora previa a acostarse reportan una calidad de sueño significativamente inferior, lo que a su vez exacerba la depresión, la ansiedad y el deterioro cognitivo. Las plataformas no se detienen a la hora de dormir. Están diseñadas para no hacerlo.

La asimetría evolutiva es el factor más crítico y menos discutido. La corteza prefrontal —responsable del control de impulsos, la evaluación de riesgos y la planificación a largo plazo— no se desarrolla completamente hasta aproximadamente los veinticinco años. Los adolescentes están neurológicamente menos equipados para resistir los patrones de diseño compulsivo que los adultos. Son también más sensibles a la recompensa y el rechazo social, lo que hace que el refuerzo de razón variable de los «me gusta», comentarios y seguidores sea más neurológicamente potente para los adolescentes que para cualquier otro grupo demográfico. Los propios datos de las plataformas lo confirman: los documentos internos de TikTok señalan explícitamente que los usuarios más jóvenes producen mejores métricas de interacción [7]. El diseño no tiene en cuenta la vulnerabilidad evolutiva porque tenerla en cuenta reduciría la interacción. Y reducir la interacción reduciría los ingresos. ⚖ Controvertido El debate sobre la causalidad —explorado en la Sección 07— es legítimo. Pero no debería oscurecer la pregunta más fundamental: si es aceptable que una industria de un billón de dólares despliegue sistemas que maximizan la interacción contra cerebros en desarrollo mientras la comunidad científica resuelve desacuerdos metodológicos.

La generación Z dedica ahora una media de 9 horas diarias al tiempo de pantalla —sustancialmente por encima de la media global de 6 horas y 38 minutos— [2]. Esto no es incidental. Es el resultado diseñado de plataformas optimizadas para maximizar el tiempo en la plataforma. La emergencia adolescente no es un fracaso de la crianza. Es un éxito de la ingeniería.

06

La respuesta regulatoria
Lo que hacen los gobiernos — y por qué no es suficiente

La acción regulatoria contra la economía de la atención se está acelerando en múltiples jurisdicciones —desde la Ley de Servicios Digitales de la UE hasta la prohibición de redes sociales para menores de 16 años en Australia— [6] [12]. Pero la respuesta regulatoria sigue estando estructuralmente por debajo de los incentivos económicos que impulsan el diseño compulsivo. ✓ Hecho establecido

La Ley de Servicios Digitales (DSA) de la Unión Europea, que entró en plena aplicación en febrero de 2024, representa el marco regulatorio más exhaustivo actualmente en vigor. Para febrero de 2026 —dos años después de la implementación— la Comisión Europea había impuesto su primera gran multa: 120 millones de euros contra X (antes Twitter) por prácticas de diseño engañoso que violaban las disposiciones de la DSA sobre patrones oscuros y transparencia [6]. ✓ Hecho establecido TikTok Lite —una versión simplificada de TikTok que ofrecía monedas como recompensa por ver vídeos— fue retirado permanentemente del mercado europeo tras una acción de aplicación [6]. Catorce investigaciones contra grandes plataformas siguen activas. El marco de la DSA es significativo porque aborda no solo la moderación de contenidos sino el propio diseño de la plataforma —específicamente el uso de patrones oscuros e interfaces de maximización de interacción que explotan vulnerabilidades psicológicas—.

Australia dio el paso regulatorio más drástico de cualquier jurisdicción en noviembre de 2024, aprobando la Online Safety Amendment (Social Media Minimum Age) Act, que prohibió el acceso a las redes sociales a los menores de 16 años —sin excepción por consentimiento parental— [12]. ✓ Hecho establecido La prohibición entró en vigor en diciembre de 2025, con sanciones para las plataformas que no cumplan de hasta 49,5 millones de dólares australianos [12]. Las plataformas asumen la responsabilidad de la verificación de edad, no los padres ni los niños. La legislación se aprobó con un apoyo bipartidista abrumador, reflejando la amplia preocupación pública por el impacto de las redes sociales en los jóvenes australianos. Sin embargo, la eficacia a largo plazo de la prohibición sigue siendo incierta —la aplicación depende de tecnología de verificación de edad que aún está madurando, y los menores decididos pueden encontrar formas de eludir los sistemas de verificación—.

En Estados Unidos, la Kids Online Safety Act (KOSA) ha estado avanzando en el Congreso pero aún no se ha convertido en ley. La legislación exigiría a las plataformas activar los ajustes de privacidad y seguridad más estrictos por defecto para los usuarios menores de 17 años e impondría un deber de cuidado a las plataformas para prevenir el daño a menores. En septiembre de 2024, 42 fiscales generales estatales de ambos partidos exigieron al Congreso la obligación de incluir etiquetas de advertencia en las plataformas de redes sociales —una invocación deliberada del precedente regulatorio del tabaco— [2]. ◈ Evidencia sólida El director general de Salud Pública ha respaldado el enfoque de las etiquetas de advertencia. Sin embargo, el proceso legislativo en EE. UU. sigue siendo lento en relación con el ritmo de evolución de las plataformas, y la presión de los lobbies de la industria continúa diluyendo las disposiciones propuestas.

El enfoque de China ofrece una advertencia sobre las limitaciones de la aplicación. En 2021, China impuso límites estrictos al juego de menores —restringiendo el acceso a una hora diaria los fines de semana y festivos únicamente—. La política fue inicialmente aclamada como la intervención más agresiva del mundo contra el tiempo de pantalla en menores. Sin embargo, investigaciones posteriores revelaron una tasa de evasión del 77 %, con menores eludiendo los requisitos de verificación de identidad real utilizando cuentas de familiares o comprando acceso a cuentas en mercados secundarios [6]. ✓ Hecho establecido La experiencia china demuestra que la intención regulatoria sin una infraestructura de aplicación robusta produce un teatro de cumplimiento en lugar de un cambio de comportamiento.

La Online Safety Act del Reino Unido, aprobada en octubre de 2023, otorgó a Ofcom el papel de regulador de seguridad en línea e impuso nuevas obligaciones a las plataformas en relación con el contenido ilegal, el acceso de menores y la evaluación de riesgos. Francia y España lideran una iniciativa a escala de la UE para establecer una edad mínima de 15 años para las redes sociales, que complementaría las disposiciones centradas en el diseño de la DSA con una restricción de acceso basada en la edad. Brasil aprobó una regulación de redes sociales para menores en 2025, con su aplicación comenzando en marzo de 2026. La tendencia global es inequívoca: los gobiernos se están moviendo para regular la economía de la atención. La cuestión es si se están moviendo con la suficiente rapidez, y con la suficiente sofisticación técnica, para superar la capacidad de adaptación de las plataformas.

2021
China impone límites al juego de menores — Una hora diaria solo los fines de semana. Posteriormente revelado: tasa de evasión del 77 % mediante intercambio de cuentas y elusión de identidad.
2023
Se aprueba la Online Safety Act del Reino Unido — Ofcom facultado como regulador de seguridad en línea. Nuevas obligaciones para las plataformas respecto al acceso de menores y contenido ilegal.
2023
La Ley de Servicios Digitales de la UE entra en plena aplicación — Marco exhaustivo que aborda patrones oscuros, transparencia algorítmica y diseño de plataformas, no solo moderación de contenidos.
2024
Australia aprueba la prohibición de redes sociales para menores de 16 — Primera prohibición nacional basada en la edad del mundo. Sin excepción por consentimiento parental. Las plataformas son responsables de la verificación de edad.
2024
El director general de Salud Pública de EE. UU. exige etiquetas de advertencia — 42 fiscales generales bipartidistas respaldan la propuesta. Se invoca deliberadamente el paralelismo regulatorio con el tabaco.
2025
La UE multa a X con 120 millones de euros — Primera gran acción de aplicación de la DSA. X sancionada por patrones de diseño engañoso. TikTok Lite retirado permanentemente de la UE.
2025
Entra en vigor la prohibición para menores de 16 en Australia — Las plataformas comienzan a implementar la verificación de edad. Sanciones de hasta 49,5 millones de dólares australianos por incumplimiento.
2025
Francia y España lideran la iniciativa de la UE para menores de 15 — Propuesta para establecer una edad mínima de 15 años para las redes sociales en toda la UE, complementando las disposiciones de la DSA centradas en el diseño.
2026
KOSA avanza en el Congreso de EE. UU. — La Kids Online Safety Act avanza en comité. Exigiría los ajustes de privacidad más estrictos por defecto para los usuarios menores de 17 años.
2026
Comienza la aplicación en Brasil — La regulación brasileña de redes sociales para menores entra en fase de aplicación, sumándose al creciente movimiento regulatorio global.
Enfoque regulatorioEficaciaEvaluación
Modelo de aplicación de la DSA de la UE
Alta
Se impusieron las primeras grandes multas, pero la aplicación escala lentamente frente a la velocidad de iteración de las plataformas. La multa de 120 M € representa el 0,06 % de los ingresos anuales de Meta — un error de redondeo, no un elemento disuasorio.
Prohibiciones por edad (modelo australiano)
Media
Fuerte apoyo público pero la aplicación es técnicamente desafiante y arriesga excluir a comunidades juveniles vulnerables, particularmente adolescentes LGBTQ+ que dependen del apoyo de pares en línea.
Marcos de consentimiento parental
Media
Traslada la carga a las familias. La propia investigación interna de Meta muestra baja adopción de las herramientas parentales disponibles. No aborda la mecánica subyacente de diseño adictivo.
Mandatos de diseño de plataformas
Alta
Enfoque más eficaz estructuralmente — aborda la causa raíz. Pero requiere experiencia técnica de la que carecen actualmente los reguladores; la industria se resistirá agresivamente mediante presión lobista.
Enfoque de etiquetas de advertencia (propuesta de EE. UU.)
Media
El paralelismo con el tabaco es políticamente convincente, pero las plataformas son productos interactivos, no pasivos. Las etiquetas solas son insuficientes sin cambios estructurales en el diseño.

El desajuste estructural entre la capacidad regulatoria y la capacidad de las plataformas es el desafío definitorio. Las empresas de plataformas emplean a miles de ingenieros que pueden iterar sobre el diseño de productos en días. Las investigaciones regulatorias tardan meses o años. Una multa de 120 millones de euros —la primera gran sanción de la DSA— representa el 0,06 % de los ingresos publicitarios anuales de Meta. Esto no es un elemento disuasorio. Es un coste de hacer negocios. ⚖ Controvertido La eficacia de las prohibiciones por edad sigue siendo particularmente incierta: la prohibición de Australia es demasiado reciente para evaluar, y la experiencia de China sugiere que los sistemas de verificación de edad son porosos. El enfoque estructuralmente más prometedor —obligar a cambios en el propio diseño de la plataforma, como exigir feeds cronológicos o prohibir los algoritmos de maximización de interacción para menores— es también el enfoque que se enfrenta a la oposición más intensa de la industria. El gasto en presión lobista de las plataformas solo en EE. UU. supera los 100 millones de dólares anuales. Los reguladores no están simplemente superados en armamento. Están superados en gasto, en velocidad y con frecuencia en pericia.

07

El debate sobre la causalidad
Lo que la ciencia realmente establece — y lo que no

La cuestión más controvertida en la literatura sobre la economía de la atención es si el uso de redes sociales causa el deterioro de la salud mental adolescente o simplemente se correlaciona con él. El debate es metodológicamente legítimo — y estratégicamente explotado por una industria que se beneficia de la incertidumbre perpetua. ⚖ Controvertido

El argumento más sólido a favor de la causalidad ha sido planteado por Jonathan Haidt, cuyo The Anxious Generation presenta siete líneas de evidencia independientes que convergen en la conclusión de que las redes sociales son una «causa principal» de la crisis de salud mental adolescente [5]. La base de evidencia de Haidt incluye estudios correlacionales que muestran coincidencia temporal entre la adopción de teléfonos inteligentes y el deterioro de la salud mental, estudios longitudinales que establecen precedencia temporal (el uso de redes sociales predice depresión posterior, no al revés), estudios experimentales que demuestran efectos sobre el estado de ánimo por la exposición a plataformas, y datos internos de las empresas que confirman la conciencia de las plataformas sobre el daño. El argumento acumulado, sostiene Haidt, es abrumador —comparable en solidez a la evidencia que vinculaba el tabaco con el cáncer de pulmón en la década de 1960—.

El argumento más sólido contra la causalidad procede de Andrew Przybylski del Oxford Internet Institute, cuyo estudio de 2024 —uno de los más grandes jamás realizados sobre el tema— analizó datos de más de dos millones de personas en 168 países [9]. El estudio encontró «solo cambios menores en la salud mental global a lo largo de dos décadas de creciente conectividad en línea» y «ninguna evidencia consistente que vincule la adopción de Facebook con un bienestar negativo» [9]. Przybylski y sus coautores argumentan que los tamaños de efecto reportados en la mayoría de los estudios sobre daños de las redes sociales son de pequeños a moderados, que los diseños transversales dominan la literatura (lo que hace inapropiada la inferencia causal), que los datos de tiempo de pantalla autoinformados no son fiables, y que las variables confusoras —incluyendo pobreza, inestabilidad familiar, presión académica y la pandemia de COVID-19— no han sido suficientemente controladas en la mayoría de los análisis.

Argumentos a favor de la causalidad

Los estudios longitudinales muestran precedencia temporal
El uso de redes sociales en el Momento 1 predice depresión en el Momento 2, no al revés. Este patrón aparece en múltiples conjuntos de datos independientes y grupos de edad.
Los datos internos de las empresas confirman la conciencia del daño
La propia investigación de Meta encontró que el 32 % de las adolescentes afirmó que Instagram empeoraba su imagen corporal. TikTok identificó el umbral de hábito de 260 vídeos. Las empresas sabían y no actuaron.
Los estudios experimentales muestran efectos sobre el estado de ánimo
Los ensayos controlados aleatorizados en los que los participantes reducen o eliminan el uso de redes sociales muestran de manera consistente mejoras en el estado de ánimo, la calidad del sueño y el bienestar autoinformado.
Siete líneas de evidencia independientes convergen
Haidt identifica evidencia correlacional, longitudinal, experimental, interna de las empresas, cuasiexperimental, neurocientífica y demográfica apuntando en la misma dirección.
Relación dosis-respuesta establecida
Los datos de los CDC muestran un aumento gradual del riesgo de depresión (ORa 1,61), ansiedad (ORa 1,45) y TDAH (ORa 1,21) a medida que el tiempo de pantalla supera las cuatro horas diarias.

Argumentos a favor de la cautela

Los tamaños de efecto son de pequeños a moderados
La mayoría de los estudios reportan tamaños de efecto comparables a comer patatas o llevar gafas. Los críticos argumentan que son demasiado pequeños para justificar una alarma a nivel poblacional o una intervención regulatoria.
El estudio más grande (más de 2 M de personas) encuentra una asociación mínima
El estudio de Oxford de Przybylski con más de 2 millones de personas en 168 países encontró solo cambios menores en la salud mental a lo largo de dos décadas de creciente conectividad.
Los diseños transversales dominan la literatura
La mayoría de los estudios miden el uso de redes sociales y la salud mental en un solo momento, lo que hace imposible determinar si las redes sociales causan daño o si los individuos en dificultades usan más las redes sociales.
Sesgo de autoinforme en la medición del tiempo de pantalla
Los estudios que dependen del tiempo de pantalla autoinformado no son fiables. Los estudios con medición objetiva muestran que los individuos sobreestiman o subestiman rutinariamente su uso real en un 30-50 %.
Variables confusoras insuficientemente controladas
Pobreza, inestabilidad familiar, presión académica, COVID-19, desigualdad económica y acceso reducido a servicios de salud mental coinciden temporalmente con la adopción de redes sociales.

El aviso de la APA ocupa un punto medio deliberadamente mesurado: «El uso de las redes sociales no es inherentemente beneficioso ni perjudicial para los jóvenes» [3]. Los efectos, concluye la APA, dependen de factores individuales (edad, etapa de desarrollo, condiciones de salud mental preexistentes), factores ambientales (implicación parental, contexto escolar, nivel socioeconómico) y patrones de uso (desplazamiento pasivo frente a creación activa, exposición a contenido dañino frente a comunidades de apoyo). Este matiz es científicamente apropiado. Es también, en el contexto de la economía de la atención, estratégicamente irrelevante, porque las plataformas no están diseñadas para un uso moderado, con propósito y contextualmente apropiado. Están diseñadas para una interacción máxima independientemente de las características del usuario.

El uso de las redes sociales no es inherentemente beneficioso ni perjudicial para los jóvenes. Los efectos dependen de factores individuales y ambientales, y de los tipos de contenido y funciones a los que se exponen.

— Asociación Estadounidense de Psicología, Aviso de salud sobre el uso de redes sociales en la adolescencia, mayo de 2023

Las limitaciones metodológicas en ambos lados del debate son reales. Los críticos de Haidt señalan correctamente que la evidencia correlacional no puede establecer causalidad, que los tamaños de efecto son a menudo modestos y que la tesis de la «Gran Reconfiguración» sobreestima la homogeneidad de un conjunto altamente diverso de plataformas, patrones de uso y contextos culturales. Los críticos de Przybylski señalan correctamente que los análisis a nivel poblacional pueden enmascarar efectos de subgrupos (un hallazgo de «sin daño promedio» puede coexistir con daño severo a subpoblaciones vulnerables), que el diseño ecológico del estudio de Oxford no puede detectar vías causales a nivel individual, y que la ausencia de evidencia no es evidencia de ausencia. ⚖ Controvertido

Pero la observación más importante sobre el debate de la causalidad no es metodológica. Es estratégica. La industria tabacalera mantuvo un debate sobre la causalidad entre el tabaco y el cáncer de pulmón durante décadas —no porque la evidencia fuese genuinamente ambigua, sino porque la ambigüedad servía a los intereses comerciales de la industria—. Cada año que el debate continuaba era un año en el que se retrasaba la regulación. La relación de la economía de la atención con el debate sobre la causalidad sigue una estructura idéntica. Las plataformas financian investigaciones que enfatizan la incertidumbre. Amplifican hallazgos que siembran dudas sobre el daño. Invocan la complejidad de la ciencia como razón para la cautela regulatoria. El debate es real. La explotación del debate también es real. Ambos hechos pueden coexistir.

El propio encuadre contiene un error lógico que merece atención. No es necesario demostrar que las máquinas tragaperras causan adicción al juego para regular su colocación en escuelas primarias. No es necesario demostrar que los cigarrillos causan cáncer de pulmón para prohibir su venta a menores. El estándar para regular el acceso de una industria a los menores no es «prueba de causalidad más allá de toda disputa metodológica». Es el principio de precaución: cuando existe evidencia creíble de daño, y cuando la población en riesgo tiene una capacidad disminuida de autoprotección, la carga de la prueba recae sobre la entidad que despliega el producto, no sobre los niños expuestos a él. Según este estándar, la evidencia no es meramente suficiente. Es abrumadora.

08

Lo que la evidencia realmente nos dice
El problema de ingeniería, no el problema de crianza

La desinformación central de la economía de la atención es el propio encuadre. El uso compulsivo de redes sociales se presenta como un problema de crianza —un fracaso de la fuerza de voluntad, la disciplina o la supervisión familiar—. La evidencia cuenta una historia diferente. Es un problema de ingeniería, respaldado por un modelo de negocio de 1,17 billones de dólares, y el encuadre que lo oscurece no es accidental [1] [11]. ◈ Evidencia sólida

La asimetría estructural es el hecho más importante de todo este informe. Por un lado: una industria de 1,17 billones de dólares que emplea a decenas de miles de ingenieros, científicos conductuales y analistas de datos, desplegando la tecnología de persuasión más sofisticada jamás construida, optimizada mediante millones de pruebas A/B sobre miles de millones de usuarios, respaldada por capital virtualmente ilimitado y operando bajo un modelo de negocio que genera más ingresos cuanto más compulsivo se vuelve el producto [1]. Por otro lado: usuarios individuales —incluyendo niños de tan solo diez años— equipados con herramientas de gestión de tiempo de pantalla de consumo que los estudios muestran producen como máximo una reducción del 20-30 % en el uso, y padres que son ellos mismos objetivos de los mismos sistemas de maximización de interacción. Este no es un concurso justo. No está diseñado para serlo.

El Center for Humane Technology, fundado en 2018 por Tristan Harris (exdiseñador ético de Google) y Aza Raskin (el inventor del desplazamiento infinito), representa el contrapeso organizativo más prominente a la economía de la atención [11]. La organización ha logrado un impacto significativo —su activismo contribuyó a cambios de producto en Facebook, Apple y Google, y sus campañas públicas han moldeado el discurso regulatorio en EE. UU. y la UE—. La aparición de Harris en el documental de Netflix The Social Dilemma llegó a decenas de millones de espectadores y aumentó significativamente la conciencia pública sobre la ingeniería de la atención. Pero la disparidad estructural persiste: el Center for Humane Technology opera con un presupuesto anual de aproximadamente 10 millones de dólares. La industria a la que se opone genera 1,17 billones.

La asimetría estructural

La economía de la atención genera 1,17 billones de dólares al año. El Center for Humane Technology —la contraorganización más prominente— opera con un presupuesto de aproximadamente 10 millones de dólares. Esta es la proporción: 117.000 a 1. Presentar el uso compulsivo de plataformas como un problema de crianza no es una observación. Es una estrategia. Desplaza la carga de resistir a sistemas de interacción de un billón de dólares desde las corporaciones que los diseñaron hacia las familias que son su objetivo. Cada vez que el discurso se centra en los «límites de tiempo de pantalla» en lugar de en los «algoritmos de maximización de interacción», la industria gana.

Las herramientas de gestión de tiempo de pantalla —Screen Time de Apple, Digital Wellbeing de Google, los recordatorios «Tómate un descanso» de Instagram— representan herramientas de concienciación, no soluciones estructurales. Alertan a los usuarios de su propio comportamiento sin cambiar el entorno que lo moldea. Es el equivalente de instalar un velocímetro en un coche sin frenos. El usuario puede observar a qué velocidad va. No puede cambiar el diseño de la carretera que fomenta el exceso de velocidad. Los estudios sobre herramientas de tiempo de pantalla muestran de forma consistente reducciones modestas a corto plazo en el uso (típicamente del 20-30 %), seguidas de un retorno gradual al nivel de referencia a medida que los usuarios aprenden a descartar o eludir las herramientas [15]. Las plataformas que construyen estas herramientas comprenden sus limitaciones. Las construyen porque las herramientas cumplen una función de relaciones públicas, no una función de reducción del daño.

Las plataformas alternativas éticas demuestran que opciones de diseño diferentes son técnicamente posibles. Bluesky, Mastodon y otras plataformas de redes sociales descentralizadas ofrecen feeds cronológicos, algoritmos controlados por el usuario y modelos de negocio que no dependen de los ingresos publicitarios. Estas plataformas demuestran que las redes sociales no requieren un diseño de maximización de la interacción. Sin embargo, también demuestran por qué la economía de la atención se autorrefuerza: el diseño de maximización de la interacción no es meramente una característica de las grandes plataformas, es su ventaja competitiva. Las plataformas que optimizan la interacción atraen más usuarios, generan más datos, venden más publicidad e invierten más en una mayor optimización de la interacción. Las alternativas éticas no pueden competir con este bucle de retroalimentación a escala. El problema no es que un mejor diseño sea imposible. Es que el mercado recompensa el peor diseño.

El cambio estructural requeriría intervenciones que aborden el propio modelo de negocio, no meramente sus síntomas. Las reformas estructurales propuestas con mayor frecuencia incluyen: prohibir los algoritmos de maximización de interacción para los menores de 18 años, exigir feeds cronológicos como configuración por defecto para todos los usuarios (con feeds algorítmicos disponibles como opción activa), imponer la interoperabilidad para reducir los efectos de red y permitir la competencia, imponer deberes fiduciarios a las plataformas para actuar en interés de los usuarios, y gravar los ingresos de publicidad basada en la atención para financiar programas de alfabetización digital y salud mental. Cada una de estas propuestas reduciría directamente los ingresos generados por el diseño compulsivo. Por eso cada una se enfrenta a una intensa oposición de la industria. Las propuestas son estructuralmente eficaces precisamente porque amenazan los incentivos estructurales que producen el daño.

La evidencia presentada en este informe no demuestra que las redes sociales sean la causa única del deterioro de la salud mental adolescente. La ciencia es más compleja que eso, y un análisis responsable debe reconocer las limitaciones metodológicas y los hallazgos controvertidos. Pero la evidencia sí establece —más allá de cualquier disputa razonable— lo siguiente: las plataformas están deliberadamente diseñadas para un uso compulsivo; los documentos internos demuestran que las plataformas sabían que sus productos causaban daño a los adolescentes; la respuesta regulatoria, aunque se está acelerando, sigue estando estructuralmente por debajo de los recursos y la velocidad de adaptación de la industria; y el encuadre de la captura de atención como un problema de responsabilidad personal sirve a los intereses comerciales de la industria que diseñó el producto.

La cuestión no es si los individuos deberían ejercer prudencia en su uso de las redes sociales. Por supuesto que deberían. La cuestión es si la prudencia individual es una respuesta suficiente ante una industria de un billón de dólares diseñada para vencerla. La evidencia sobre esa cuestión no es ambigua. La prudencia individual es necesaria. No es suficiente. La economía de la atención es un problema de ingeniería. Requiere una solución de ingeniería —respaldada por la fuerza regulatoria, informada por la ciencia y proporcionada al modelo de negocio de 1,17 billones de dólares que la sostiene—.

Las plataformas lo saben. Sus propios ingenieros, en sus propias comunicaciones internas, utilizando sus propios datos, han dicho tanto. La única cuestión pendiente es si existe la voluntad política para actuar sobre lo que ya se sabe — o si el debate sobre la causalidad servirá, como sirvió para el tabaco, como una táctica de dilación de varias décadas mientras la extracción continúa.

SRC

Primary Sources

All factual claims in this report are sourced to specific, verifiable publications. Projections are clearly distinguished from empirical findings.

Cite This Report

APA
OsakaWire Intelligence. (2026, March 26). La economía de la atención — Extracción por diseño. Retrieved from https://osakawire.com/es/the-attention-economy-designed-extraction/
CHICAGO
OsakaWire Intelligence. "La economía de la atención — Extracción por diseño." OsakaWire. March 26, 2026. https://osakawire.com/es/the-attention-economy-designed-extraction/
PLAIN
"La economía de la atención — Extracción por diseño" — OsakaWire Intelligence, 26 March 2026. osakawire.com/es/the-attention-economy-designed-extraction/

Embed This Report

<blockquote class="ow-embed" cite="https://osakawire.com/es/the-attention-economy-designed-extraction/" data-lang="es">
  <p>Las plataformas de redes sociales generan 1,17 billones de dólares en ingresos publicitarios anuales mediante la ingeniería de la interacción compulsiva. Documentos internos de Meta, TikTok y Google revelan decisiones de diseño deliberadas que explotan vulnerabilidades psicológicas, particularmente en adolescentes. La respuesta regulatoria sigue siendo estructuralmente insuficiente frente a los incentivos económicos que impulsan el diseño compulsivo.</p>
  <footer>— <cite><a href="https://osakawire.com/es/the-attention-economy-designed-extraction/">OsakaWire Intelligence · La economía de la atención — Extracción por diseño</a></cite></footer>
</blockquote>
<script async src="https://osakawire.com/embed.js"></script>