INTELLIGENCE REPORT SERIES APRIL 2026 OPEN ACCESS

SERIES: MEDIA INTELLIGENCE

La máquina de la desinformación — Cómo funciona realmente

Análisis estructural del ecosistema de la desinformación: amplificación algorítmica, colapso del periodismo local y por qué la economía de la información financiada por publicidad recompensa sistemáticamente la falsedad.

Reading Time38 min
Word Count7,587
Published1 April 2026
Evidence Tier Key → ✓ Established Fact ◈ Strong Evidence ⚖ Contested ✕ Misinformation ? Unknown
Contents
38 MIN READ
EN FR ES JP
01

La escala de la máquina
Una amenaza global que opera a velocidad industrial

Las noticias falsas tienen un 70 % más de probabilidades de ser retuiteadas que las verdaderas y alcanzan a 1.500 personas seis veces más rápido ✓ Hecho establecido — una conclusión extraída del mayor estudio longitudinal sobre falsedades en línea jamás realizado, que analizó 126.000 historias compartidas por tres millones de personas durante once años [1]. La máquina de la desinformación no es un fallo del ecosistema informativo. Es el ecosistema.

El Informe sobre Riesgos Globales 2025 del Foro Económico Mundial clasificó la desinformación y la información errónea como el principal riesgo global en un horizonte de dos años, por segundo año consecutivo ✓ Hecho establecido [2]. Más de 900 expertos de 136 países la situaron por delante de los fenómenos meteorológicos extremos, los conflictos armados y la polarización social. En un horizonte de diez años, sigue figurando entre los cinco principales riesgos. No es un problema que los expertos esperen que se resuelva por sí solo.

Las cifras que describen la exposición pública son escalofriantes. En 25 países encuestados por el Pew Research Center, una mediana del 72 % de los ciudadanos considera que la difusión de información falsa en línea supone una amenaza grave para su país [11]. Se estima que el 86 % de los ciudadanos del mundo han estado expuestos directamente a desinformación ◈ Evidencia sólida. Los investigadores calculan que aproximadamente el 40 % del contenido que se comparte en las redes sociales es falso — una proporción que convierte la experiencia en estas plataformas en algo más parecido al azar que a un canal de información fiable [11].

70 %
Más probabilidades de que las noticias falsas sean retuiteadas frente a las verdaderas
MIT/Science, 2018 · ✓ Hecho establecido
Más rápido que las noticias falsas alcanzan a 1.500 personas frente a las verdaderas
MIT/Science, 2018 · ✓ Hecho establecido
N.º 1
Clasificación de la desinformación como riesgo global (horizonte de dos años, FEM 2025)
Riesgos Globales FEM, 2025 · ✓ Hecho establecido
78.000 M $
Coste económico global anual de la desinformación en línea
CHEQ/Univ. de Baltimore · ◈ Evidencia sólida

El coste económico no es hipotético. Un estudio conjunto de la empresa de ciberseguridad CHEQ y la Universidad de Baltimore estimó que la desinformación en línea le cuesta a la economía mundial 78.000 millones de dólares anuales ◈ Evidencia sólida [14]. Esta cifra engloba las perturbaciones en los mercados financieros causadas por informes económicos falsos, los costes sanitarios derivados de la desinformación médica y los daños reputacionales a empresas víctimas de narrativas fabricadas. La cifra es casi con toda seguridad una subestimación: se calculó antes de que la IA generativa redujera drásticamente el coste de producir falsedades convincentes.

Una encuesta de la UNESCO/Ipsos realizada en 16 países — que agrupan naciones con 2.500 millones de votantes que acudieron a las urnas en 2024 — reveló que el 85 % de las personas se muestran preocupadas por las repercusiones de la desinformación en línea ✓ Hecho establecido [5]. Por su parte, el 97 % de los encuestados en otro sondeo global afirmó creer que la desinformación es perjudicial para la sociedad [11]. La opinión pública no ignora el problema. Simplemente carece de medios estructurales para resolverlo.

Lo que distingue el momento actual de los precedentes históricos — la propaganda existe desde la Antigüedad — es la combinación de velocidad, escala e incentivación económica. Una afirmación falsa puede llegar hoy a millones de personas en cuestión de minutos, a coste marginal cero, a través de sistemas explícitamente diseñados para maximizar la difusión de contenidos que desencadenen reacciones emocionales. La imprenta tardó décadas en transformar la dinámica informativa. Las redes sociales lo lograron en menos de diez años.

La asimetría de la velocidad

La información falsa viaja a la velocidad de la emoción humana — la indignación, el miedo, la novedad. Las correcciones viajan a la velocidad del proceso institucional: revisión editorial, verificación de hechos, autorización jurídica. Esta asimetría temporal no es accidental; es la característica estructural definitoria del ecosistema informativo moderno. Para cuando la verdad alcanza a la mentira, el daño ya está hecho.

El hallazgo más significativo del estudio del MIT no tenía que ver con los bots ni con los algoritmos, sino con las personas. Las noticias falsas se difundieron principalmente a través del comportamiento de compartición humana, impulsado por la novedad y la excitación emocional que generan los contenidos falsos [1]. La falsedad se difundió de forma significativamente más amplia, más rápida, más profunda y en mayor medida que la verdad en todas las categorías de información, aunque los efectos fueron especialmente pronunciados en el caso de las noticias políticas falsas. La máquina de la desinformación funciona con psicología humana. La tecnología simplemente elimina la fricción.

02

El modelo de negocio detrás de las mentiras
Por qué las plataformas se benefician de la falsedad

El mercado de la publicidad digital vale 625.000 millones de euros ✓ Hecho establecido, y su incentivo fundamental es la interacción — no la exactitud [13]. Los modelos de negocio de las plataformas de redes sociales incentivan estructuralmente la propagación de desinformación porque la indignación, el miedo y la novedad generan más clics que el análisis ponderado.

La Comisión de Ciencia y Tecnología del Parlamento británico lo afirmó con total claridad: los modelos de negocio de las plataformas de redes sociales «incentivan la difusión de discurso dañino (desinformación, información errónea, contenido polarizador, discurso del odio)» ✓ Hecho establecido [13]. No se trata de una acusación proveniente de activistas o académicos. Es la conclusión oficial de una investigación parlamentaria sobre la relación estructural entre los ingresos publicitarios y la calidad de la información.

El mecanismo es sencillo. Las plataformas venden publicidad en función de la atención de los usuarios. Cuanto más tiempo pasan estos en una plataforma, más publicidad visualizan. El contenido que genera reacciones emocionales intensas — indignación, enfado, miedo, sorpresa — retiene la atención durante más tiempo y se difunde con mayor amplitud que el contenido meramente exacto. Un estudio sobre el posicionamiento según el nivel de interacción publicado en el Journal of Public Economics concluyó que los algoritmos de las redes sociales diseñados para maximizar la interacción amplifican sistemáticamente los contenidos sensacionalistas y divisivos [13]. La plataforma no necesita tener la intención de difundir desinformación — el incentivo económico la produce de forma automática.

✓ Hecho establecido La propia investigación interna de Facebook confirmó que sus algoritmos favorecen la indignación y la desinformación

Un estudio interno de Facebook publicado en la red interna de la empresa en diciembre de 2019 afirmaba que los algoritmos de la plataforma «no son neutrales» y que «la indignación y la desinformación tienen más probabilidades de volverse virales» [3]. No se trataba de una acusación externa, sino de los propios científicos de datos de Facebook describiendo las consecuencias estructurales de los algoritmos de maximización de la interacción.

Frances Haugen, la exdirectora de producto de Facebook que filtró decenas de miles de documentos internos en 2021, declaró ante el Congreso de Estados Unidos que la empresa «eligió sistemáticamente maximizar su crecimiento en lugar de implementar salvaguardias» [3]. La investigación «Facebook Files» del Wall Street Journal, basada en esos documentos, reveló que los propios investigadores de la compañía habían identificado los daños y propuesto medidas correctoras — que fueron rechazadas porque habrían reducido las métricas de interacción [3].

Este problema no es exclusivo de Meta. El incentivo estructural afecta a todas las plataformas financiadas por publicidad. El contenido tranquilo, matizado y veraz genera menos interacción que el sensacionalista, divisivo o falso. El modelo de ingresos de las plataformas crea una subvención invisible para la desinformación — el contenido falso no se tolera simplemente; el mismo sistema que genera los ingresos de la plataforma lo recompensa funcionalmente.

Los modelos de aprendizaje automático que maximizan la interacción también favorecen la polémica, la desinformación y el extremismo: dicho llanamente, a la gente le encantan las cosas escandalosas.

— MIT Technology Review, análisis de las revelaciones de Frances Haugen, octubre de 2021

El modelo publicitario también genera una dependencia estructural en las organizaciones teóricamente llamadas a contrarrestar la desinformación. Las organizaciones de verificación de hechos, los medios de comunicación y los periodistas de investigación compiten por los mismos ingresos publicitarios que fluyen de manera abrumadora hacia las plataformas. La Red Internacional de Verificación de Hechos (IFCN) informó de que aproximadamente el 60 % de las organizaciones de verificación participaba en el programa de verificación por terceros de Meta [8]. En promedio, esas organizaciones obtenían el 45 % de sus ingresos de Meta [8]. Las entidades encargadas de verificar las falsedades dependían económicamente de la empresa cuyos algoritmos las propagaban.

En enero de 2025, Meta puso fin al programa en su totalidad en Estados Unidos ✓ Hecho establecido [9]. El consejero delegado Mark Zuckerberg anunció que la empresa sustituiría la verificación por terceros por un modelo de Notas de la Comunidad similar al de X, con efecto desde el 7 de abril de 2025. La empresa eliminó simultáneamente las políticas de contenido sobre inmigración, género y otros temas políticamente sensibles, y dio marcha atrás en los cambios que habían reducido el contenido político en los feeds de los usuarios [9].

La trampa de la dependencia

Cuando el mayor financiador de la verificación de hechos a escala global decide retirarse, toda la infraestructura de verificación queda en riesgo — no porque la verificación haya fracasado, sino porque el modelo de negocio que la financiaba nunca fue diseñado para priorizar la verdad. El ecosistema de verificación se construyó sobre una contradicción estructural: depender de los ingresos de las mismas plataformas cuyos productos tenía el cometido de escrutar.

La lógica económica es inequívoca. La desinformación no es una externalidad de la economía de la atención — es un producto de ella. Los mismos sistemas que generan cientos de miles de millones de dólares en ingresos publicitarios anuales también generan las condiciones en las que la falsedad supera sistemáticamente a la verdad. Reformar la moderación de contenidos sin abordar el modelo de negocio subyacente equivale a tratar los síntomas mientras se prescribe la enfermedad.

03

El acelerador algorítmico
Cómo los sistemas de recomendación amplifican la falsedad

Los algoritmos no crean desinformación — pero determinan lo que ven miles de millones de personas. Los sistemas de recomendación diseñados para maximizar la interacción crean bucles de retroalimentación que favorecen sistemáticamente los contenidos emocionalmente cargados, divisivos y con frecuencia falsos por encima del periodismo veraz ◈ Evidencia sólida [13].

La relación entre la amplificación algorítmica y la desinformación está hoy ampliamente documentada. Una revisión sistemática publicada en Frontiers in Communication en 2025 sintetizó las evidencias sobre la influencia de las redes sociales en el juicio informativo, el desarrollo de audiencias y la amplificación de la polarización y la desinformación [13]. La revisión concluyó que la curación algorítmica no se limita a reflejar las preferencias de los usuarios — las moldea activamente, creando cámaras de eco en las que los usuarios están expuestos predominantemente a puntos de vista que confirman sus creencias previas.

Una investigación publicada en Information Systems Research demostró que los algoritmos de recomendación de plataformas como X sesgan sistemáticamente la exposición hacia cuentas de gran popularidad, de modo que tanto los usuarios de izquierda como los de derecha ven amplificada su exposición a contenidos afines a su posición política, mientras se reduce la exposición a puntos de vista contrarios [12]. El algoritmo no discrimina entre información verdadera y falsa; discrimina entre contenidos que generan interacción y los que no la generan. Dado que el contenido falso es sistemáticamente más atractivo — el estudio del MIT lo confirmó en todas las categorías [1] —, el algoritmo se convierte en un acelerador de la falsedad.

El mecanismo opera a través de lo que los investigadores describen como un bucle de «interacción humano-algoritmo». Los seres humanos tienen sesgos cognitivos documentados hacia los contenidos novedosos, emocionalmente estimulantes y moralmente cargados. Los algoritmos detectan y refuerzan estos sesgos promoviendo los contenidos que generan las mayores señales de interacción — me gusta, comparticiones, comentarios, tiempo en pantalla. Los contenidos que maximizan estas señales son desproporcionadamente sensacionalistas, divisivos o falsos [1]. El algoritmo entonces muestra más contenidos del mismo tipo al mismo usuario, creando un ciclo de refuerzo que distorsiona progresivamente su entorno informativo.

◈ Evidencia sólida Los algoritmos refuerzan los impulsores sociales preexistentes de la desinformación más que crear nuevos

Una revisión exhaustiva en PMC concluyó que las evidencias existentes apuntan a que los algoritmos «refuerzan en su mayoría los impulsores sociales ya existentes» de la desinformación, un hallazgo que «subraya la importancia de reflexionar sobre los algoritmos en el contexto social más amplio que engloba el individualismo, la política populista y el cambio climático» [13]. Los algoritmos no son la causa raíz de la desinformación — pero son el acelerador que transforma las falsedades localizadas en fenómenos globales.

El efecto de cámara de eco resulta especialmente preocupante en el ámbito de la información política. Las investigaciones sobre X/Twitter durante las elecciones presidenciales de Estados Unidos de 2024 revelaron que el algoritmo de la plataforma amplificaba la exposición a contenidos políticamente afines mientras reducía la exposición a puntos de vista contrarios [12]. Los usuarios de ambos lados del espectro político recibían una versión distorsionada de la realidad política — no mediante una censura deliberada, sino a través de la optimización para la interacción. El resultado es que los usuarios con diferentes inclinaciones políticas habitan cada vez más realidades informativas distintas, cada una de ellas reforzada por la curación algorítmica.

La irrupción de la IA generativa ha añadido una nueva dimensión a la amplificación algorítmica. Las herramientas habilitadas por IA — en particular los grandes modelos de lenguaje y los algoritmos de optimización de la interacción — son ya capaces de producir desinformación a escala industrial con una intervención humana mínima [15]. Aunque los vídeos falsos (deepfakes) atrajeron la mayor atención pública, la amenaza más significativa impulsada por la IA es la capacidad de generar grandes cantidades de texto verosímil, inundar las secciones de comentarios con opiniones sintéticas y crear comportamientos inauthénticos coordinados a una fracción del coste anterior.

El problema del volumen

La principal amenaza de la IA a la integridad informativa no reside en la sofisticación de los deepfakes individuales — sino en la capacidad de producir volúmenes enormes de desinformación convencional a coste prácticamente nulo. Un único operador puede generar hoy miles de narrativas falsas únicas y contextualmente apropiadas por hora. La infraestructura de verificación fue diseñada para una era en la que producir falsedades convincentes requería esfuerzo. Esa restricción ya no existe.

Las respuestas de las plataformas a la amplificación algorítmica han sido limitadas y con frecuencia meramente declarativas. Instagram y Facebook introdujeron etiquetas de «reducción» que desclasificaban el contenido señalado — aunque el umbral para dicha señalización requería denuncias de usuarios o la intervención de verificadores, ambos procesos que quedan muy por detrás de la velocidad del contenido viral. YouTube ajustó su algoritmo de recomendación en 2019 para reducir el «contenido límite» — pero una auditoría de 2024 constató que los contenidos inflamatorios y engañosos seguían apareciendo de forma destacada en las recomendaciones de los usuarios políticamente activos [13].

El reto fundamental es que la amplificación algorítmica de la desinformación no es un error — es una característica del diseño orientado a la maximización de la interacción. Ajustar el algoritmo para relegar el contenido falso implicaría que las plataformas sacrificasen sus métricas de interacción y, por extensión, sus ingresos publicitarios. El incentivo estructural va directamente en contra del interés público en la información veraz. Mientras ese incentivo no cambie, la amplificación algorítmica seguirá funcionando como el principal acelerador de la máquina de la desinformación.

04

El vacío subyacente
El colapso del periodismo local y el vacío informativo

Estados Unidos ha perdido más de 270.000 empleos en la prensa escrita desde 2005 — un descenso del 75 % ✓ Hecho establecido [4]. El colapso del periodismo local ha creado vacíos informativos en vastas extensiones del país — vacíos que la desinformación llena por defecto.

El informe Medill/Northwestern sobre el estado del periodismo local 2025 documenta una crisis que ha pasado del declive al colapso estructural. Más de 130 periódicos cerraron solo en el último año [4]. El número de condados que son desiertos informativos completos — condados sin ninguna fuente de noticias locales — ascendió a 208, frente a los 204 de 2023 ✓ Hecho establecido [4]. Pero la magnitud real del problema es aún mayor: más de la mitad de los 3.143 condados del país disponen de escasa o nula cobertura informativa local. Casi 55 millones de estadounidenses viven en comunidades con acceso limitado o nulo al periodismo local [4].

75 %
Caída en el empleo periodístico en EE. UU. desde 2005 (más de 270.000 empleos perdidos)
Medill/Northwestern, 2025 · ✓ Hecho establecido
208
Condados estadounidenses que son desiertos informativos completos (2025)
Medill/Northwestern, 2025 · ✓ Hecho establecido
55 M
Estadounidenses con acceso limitado o nulo al periodismo local
Medill/Northwestern, 2025 · ✓ Hecho establecido
8,2
Periodistas por cada 100.000 residentes en EE. UU. (frente a los 40 anteriores)
Medill/Northwestern, 2025 · ✓ Hecho establecido

La ratio de periodistas por habitante muestra la situación con brutal claridad. Hace menos de 25 años, Estados Unidos contaba con aproximadamente 40 periodistas por cada 100.000 residentes. Ese número ha caído a 8,2 — un descenso de casi el 80 % ✓ Hecho establecido [4]. En 39 estados, quedan menos de 1.000 periodistas. Más de mil condados estadounidenses — uno de cada tres — carecen del equivalente a un solo periodista local a jornada completa. No se trata de lagunas menores. Son ausencias estructurales en la infraestructura informativa que requiere el autogobierno democrático.

El motor financiero es evidente. Los ingresos publicitarios de la prensa escrita estadounidense alcanzaron su pico de 49.400 millones de dólares en 2005. En 2024, habían caído a aproximadamente 10.500 millones de dólares — un descenso del 79 % ✓ Hecho establecido [4]. Esos ingresos no desaparecieron — migraron a las plataformas digitales. El mismo ecosistema publicitario que financia la amplificación algorítmica de la desinformación extrajo los cimientos financieros de las instituciones diseñadas para producir información local veraz.

El efecto del vacío informativo

Cuando el periodismo local desaparece, las necesidades informativas de una comunidad no desaparecen con él. Los residentes siguen necesitando saber qué hace su gobierno local, cómo se gasta el dinero de sus impuestos y qué ocurre en sus escuelas y hospitales. En ausencia de un periodismo profesional, esas necesidades son satisfechas por las redes sociales, los boletines partidistas y el boca a boca — canales sin estándares editoriales, sin verificación de hechos y sin rendición de cuentas. El desierto informativo no es simplemente una ausencia de periodismo — es una invitación permanente a la desinformación.

El patrón geográfico de los desiertos informativos no es aleatorio. Las comunidades rurales, las ciudades más pequeñas y las zonas económicamente desfavorecidas son las más afectadas. Aunque en los últimos cinco años han surgido más de 300 nuevos medios locales — el 80 % de los cuales son exclusivamente digitales —, la gran mayoría se concentra en áreas metropolitanas [4]. Las comunidades más vulnerables a la desinformación son precisamente las que menos se benefician del ecosistema informativo digital emergente.

Las investigaciones han vinculado sistemáticamente los desiertos informativos con un mayor desapego cívico, menor participación electoral, mayores costes de endeudamiento municipal y mayor vulnerabilidad a la corrupción. Cuando nadie vigila, la rendición de cuentas se evapora. Cuando la información local veraz no está disponible, los residentes recurren a los medios nacionales de carácter partidista y a las redes sociales — canales que priorizan la interacción sobre la relevancia local y la exactitud.

2005
Pico de ingresos de la prensa estadounidense — 49.400 millones de dólares en ingresos publicitarios. Aproximadamente 40 periodistas por cada 100.000 residentes.
2006
Facebook se abre al público — La plataforma supera el ámbito universitario. Twitter se lanza. Comienza la migración publicitaria.
2008
La crisis financiera acelera el declive — La publicidad en prensa cae bruscamente. Las grandes cadenas inician procedimientos de quiebra. Los recortes de plantilla se extienden por todo el sector.
2012
La publicidad digital supera a la impresa — Los ingresos publicitarios en línea superan por primera vez a los de la prensa impresa. El cambio estructural se vuelve irreversible.
2016
Crisis de desinformación electoral — La desinformación en redes sociales durante las elecciones presidenciales de Estados Unidos dispara las alarmas a escala global. Facebook inicia su programa de verificación por terceros.
2018
Publicación del estudio del MIT — Vosoughi, Roy y Aral publican su investigación pionera que demuestra que las noticias falsas se difunden más rápido y con mayor amplitud que las verdaderas en todas las categorías.
2021
Las revelaciones de Frances Haugen — La exempleada de Facebook filtra decenas de miles de documentos internos que revelan que la empresa sabía que sus algoritmos amplificaban la desinformación.
2024
Anulación de las elecciones en Rumanía — Primer país europeo en anular unas elecciones presidenciales a causa de una campaña coordinada de desinformación en TikTok.
2025
Meta pone fin a la verificación de hechos — Meta cancela su programa de verificación por terceros en EE. UU. 208 condados estadounidenses son desiertos informativos completos. Solo el 28 % de los estadounidenses confía en los medios.

El colapso del periodismo local y el auge de la desinformación no son tendencias paralelas — están causalmente vinculados. Los ingresos publicitarios que antes financiaban las redacciones financian ahora las plataformas que amplifican la falsedad. Los vacíos informativos creados por el cierre de redacciones son llenados por contenidos no verificados distribuidos a través de algoritmos de maximización de la interacción. La máquina de la desinformación no se limitó a reemplazar al periodismo local — consumió los cimientos económicos que lo hacían posible.

05

La weaponización de la información
Actores estatales, elecciones y campañas coordinadas

En diciembre de 2024, Rumanía se convirtió en el primer país europeo en anular unas elecciones presidenciales tras una campaña coordinada de desinformación en TikTok ✓ Hecho establecido [10]. La weaponización de las redes sociales para la manipulación política ha pasado de ser una preocupación teórica a una realidad documentada — con las elecciones democráticas como objetivo principal.

El caso rumano es la ilustración más rotunda hasta la fecha de la capacidad de la desinformación para subvertir los procesos democráticos. Las elecciones del 24 de noviembre de 2024 presenciaron un repunte inesperado del apoyo al candidato ultranacionalista Călin Georgescu, quien había obtenido resultados de un solo dígito en los sondeos, pero quedó en primer lugar en la primera vuelta [10]. La investigación posterior reveló una campaña coordinada que implicaba aproximadamente 25.000 cuentas de TikTok y una financiación encubierta estimada en un millón de euros, presuntamente vinculada a intereses del Estado ruso [10].

Las autoridades rumanas documentaron más de 85.000 intentos de intrusión cibernética contra la infraestructura electoral antes y durante la primera vuelta — una escala y sofisticación que apuntaban a actores patrocinados por el Estado [10]. El Tribunal Constitucional confirmó inicialmente los resultados, para posteriormente dar marcha atrás el 6 de diciembre, tras la desclasificación por parte del presidente Iohannis de inteligencia de seguridad nacional que detallaba la operación de influencia extranjera. La Comisión Europea abrió a continuación una investigación formal sobre el papel de TikTok en el asunto [6].

✓ Hecho establecido Rumanía anuló sus elecciones presidenciales de 2024 — un hecho sin precedentes en la historia europea — tras documentar una campaña coordinada de desinformación en TikTok

El Tribunal Constitucional de Rumanía anuló la primera vuelta de las elecciones presidenciales el 6 de diciembre de 2024, después de que los servicios de inteligencia documentasen una campaña de desinformación de un millón de euros que utilizó 25.000 cuentas coordinadas de TikTok para impulsar al candidato de extrema derecha Călin Georgescu [10]. Más de 85.000 intentos de intrusión cibernética tuvieron como objetivo la infraestructura electoral, lo que apunta a una implicación patrocinada por el Estado.

El año 2024 fue el mayor año electoral de la historia de la humanidad, con más de 2.500 millones de votantes acudiendo a las urnas en decenas de países [5]. En India — donde el Foro Económico Mundial situó el riesgo de desinformación en el nivel más alto — casi el 80 % de los votantes primerizos recibieron una avalancha de noticias falsas en las redes sociales [2]. Los temores se centraron en los deepfakes generados por IA de candidatos rivales y en grabaciones de audio falsificadas. En Brasil, el Tribunal Electoral ordenó la retirada de miles de contenidos falsos y suspendió temporalmente aplicaciones de mensajería que no controlaban la desinformación [2].

Sin embargo, el temido «apocalipsis deepfake» de 2024 no se materializó en la magnitud prevista. Un análisis de Recorded Future concluyó que menos del 1 % de toda la desinformación electoral verificada era de generación artificial ◈ Evidencia sólida [15]. Los «cheap fakes» — imágenes burdamente manipuladas, vídeos fuera de contexto y capturas de pantalla engañosas — se emplearon siete veces más que los sofisticados deepfakes de IA [15]. La amenaza de la desinformación sigue siendo principalmente un problema de producción humana, no de producción artificial — al menos por ahora.

La paradoja del deepfake

La amenaza del deepfake puede ser más insidiosa que los propios deepfakes. La mera existencia de falsificaciones de IA convincentes crea un «dividendo del mentiroso» — la capacidad de cualquier persona filmada de alegar que las imágenes son fabricadas. Los deepfakes no necesitan desplegarse a gran escala para erosionar la confianza; su mera posibilidad contamina toda la evidencia visual. El arma no es la falsificación — es la duda.

Las democracias consolidadas con ecosistemas institucionales robustos — poder judicial independiente, medios profesionales, sociedad civil activa — demostraron ser más resilientes frente a las campañas de desinformación que las democracias más recientes o frágiles [2]. El marco legislativo de la UE, en particular el Reglamento de Servicios Digitales y el Reglamento de Mercados Digitales, obligó a las plataformas a realizar evaluaciones de riesgo sistémico y proporcionó herramientas regulatorias que se desplegaron durante la crisis rumana [6]. Los países sin dichos marcos resultaron significativamente más vulnerables.

La weaponización de la información no se limita a la interferencia extranjera. Actores políticos nacionales en Estados Unidos, el Reino Unido, India, Brasil y Turquía han recurrido todos a la desinformación como estrategia electoral deliberada [15]. El presidente turco Erdoğan empleó un deepfake para vincular a un líder opositor con grupos terroristas. Partidos políticos de Brasil y Pakistán recurrieron a audios falsificados para hacer campaña negativa. La distinción entre «interferencia extranjera» y «desinformación interna» es cada vez más difusa — y las plataformas que alojan ambas se benefician independientemente del origen.

El ciclo electoral de 2024 demostró que la máquina de la desinformación no es una amenaza futura — es un arma operativa del presente. La pregunta ya no es si la guerra informativa puede influir en las elecciones, sino si las defensas institucionales existentes son suficientes para resistirla. La respuesta de Rumanía fue la anulación — una salvaguarda democrática de último recurso que reconocía implícitamente el fracaso de todas las defensas precedentes.

06

La infraestructura de respuesta
Regulación, verificación de hechos y sus límites estructurales

La UE multó a X con 120 millones de euros en diciembre de 2025 en virtud del Reglamento de Servicios Digitales ✓ Hecho establecido [6]. Fue una acción sancionadora histórica — y sin embargo el desequilibrio estructural entre las instituciones diseñadas para contrarrestar la desinformación y las fuerzas económicas que la producen sigue siendo enorme.

El Reglamento de Servicios Digitales representa el marco regulatorio más completo desarrollado hasta la fecha para la responsabilidad de las plataformas. Desde su plena entrada en vigor en febrero de 2024, ha impuesto evaluaciones de riesgo para las plataformas sistémicas, ha exigido transparencia en la toma de decisiones algorítmicas y ha establecido la base jurídica para sanciones económicas significativas [6]. La multa de 120 millones de euros contra X en diciembre de 2025 — por prácticas de diseño engañosas, violaciones de la transparencia publicitaria y negativa a facilitar acceso a datos a los investigadores — marcó la primera vez que una plataforma importante se enfrentó a una sanción de nueve cifras específicamente por incumplimiento del Reglamento de Servicios Digitales [6].

Un hito relevante se produjo en febrero de 2025, cuando la Comisión Europea y el Consejo Europeo de Servicios Digitales respaldaron la integración del Código de Buenas Prácticas en materia de Desinformación en el marco corregulatorio del Reglamento de Servicios Digitales [6]. A partir de julio de 2025, el código anteriormente voluntario — suscrito, entre otros, por Google, Meta, Microsoft y TikTok — adquirió rango jurídico formal. El primer ciclo completo de informes, correspondiente al periodo julio-diciembre de 2025, incluyó presentaciones de plataformas, verificadores, investigadores y organismos de la sociedad civil [6].

RiesgoGravedadEvaluación
Modelo de negocio basado en la interacción
Crítico
El incentivo económico fundamental para que las plataformas maximicen la interacción con independencia de la exactitud del contenido permanece absolutamente sin abordar por la regulación vigente. Ningún marco regulatorio en ninguna jurisdicción intenta alterar el modelo de negocio subyacente.
Desfinanciación de la verificación de hechos
Crítico
La retirada de Meta de la verificación de hechos eliminó la mayor fuente de ingresos única para las organizaciones de verificación a escala global. La congelación de las subvenciones de la USAID redujo aún más la financiación de los verificadores internacionales. Subsisten 443 proyectos, pero su sostenibilidad financiera es precaria.
Fragmentación regulatoria
Alto
La UE lidera la regulación de plataformas; EE. UU. carece de un equivalente federal. La desinformación fluye a través de jurisdicciones mientras la regulación sigue siendo nacional. Las plataformas pueden escoger la jurisdicción más permisiva.
Contenido generado por IA a escala
Alto
La IA generativa ha reducido drásticamente el coste de producir desinformación convincente. Aunque los deepfakes son menos frecuentes de lo que se temía, la capacidad de generar grandes volúmenes de texto verosímil desborda la capacidad de verificación existente.
Colapso del periodismo local
Alto
La desaparición de los medios locales crea vacíos informativos que la desinformación llena por defecto. Ningún marco regulatorio aborda la desfinanciación estructural del sector periodístico por parte de la misma economía publicitaria que financia las plataformas.

La crisis de Rumanía proporcionó la primera gran prueba operativa del Reglamento de Servicios Digitales. Tras la anulación de las elecciones presidenciales en diciembre de 2024, la Comisión Europea activó los requisitos de transparencia y moderación de contenidos del Reglamento contra TikTok, lo que desembocó en una investigación formal [6]. En otro caso, un tribunal de Berlín falló a favor de organizaciones alemanas de derechos civiles y ordenó a X proporcionar acceso a datos a los investigadores para monitorizar la desinformación antes de las elecciones en Alemania [6]. Estas acciones sancionadoras demostraron que el Reglamento proporciona instrumentos jurídicos eficaces — aunque también pusieron de relieve el carácter reactivo del marco: la actuación se produce después del daño, no antes.

El modelo de Notas de la Comunidad — adoptado ahora tanto por X como por Meta — representa un enfoque fundamentalmente diferente para la verificación de contenidos: colaborativo, descentralizado y ostensiblemente neutral. Las investigaciones sobre la implementación de X han arrojado resultados mixtos. Las publicaciones que recibieron Notas de la Comunidad visibles registraron una caída del 46 % en las republicaciones y del 44 % en los me gusta ◈ Evidencia sólida [12]. Los autores tenían un 32 % más de probabilidades de eliminar sus publicaciones cuando se les adjuntaba una nota pública [12].

Pero las limitaciones son severas. En promedio, las Notas de la Comunidad tardan 15 horas en publicarse ◈ Evidencia sólida [12]. Para cuando aparece una nota, una publicación ha alcanzado típicamente el 80 % de su audiencia total. Además, el 91 % de las notas propuestas nunca alcanzan el estado de «útil» y, por tanto, nunca se muestran [12]. El sistema exige consenso entre colaboradores con distintas perspectivas políticas — un diseño que previene el abuso partidista, pero también impide la corrección oportuna de falsedades evidentes cuando el acuerdo político es inalcanzable.

La desinformación no es una consecuencia imprevista, sino el resultado predecible de un sistema que recompensa la interacción por encima de todo.

— Comisión de Ciencia y Tecnología del Parlamento del Reino Unido, Social Media, Misinformation and Harmful Algorithms, 2024

La infraestructura global de verificación de hechos se encuentra bajo una presión severa. El Informe sobre el Estado de los Verificadores de Hechos 2024 de la IFCN reveló que las presiones financieras y el acoso son las principales preocupaciones de los verificadores en todo el mundo [8]. La retirada de Meta suprimió un pilar de financiación. El Duke Reporters' Lab contabilizó 443 proyectos de verificación activos a escala global — por debajo de los 451, un descenso del 2 % —, aunque la trayectoria apunta a una contracción adicional a medida que las fuentes de ingresos alternativas resultan difíciles de conseguir [8]. Los verificadores latinoamericanos han sido especialmente afectados por la pérdida simultánea de subvenciones periodísticas y la congelación de la financiación de la USAID para organizaciones de medios internacionales [8].

07

El debate sobre la causalidad
¿Son las plataformas la causa o el espejo?

La cuestión de si los algoritmos de las redes sociales causan la desinformación o simplemente reflejan tendencias humanas preexistentes es una de las más trascendentes — y debatidas — de las ciencias de la información ⚖ Controvertido. La respuesta determina si la reforma de las plataformas puede resolver el problema o si sus causas son más profundas que cualquier tecnología.

La posición de que «los algoritmos causan la desinformación» cuenta con un respaldo empírico sustancial. La propia investigación interna de Facebook — revelada por Frances Haugen en 2021 — demostró que los algoritmos de maximización de la interacción de la empresa favorecían activamente la indignación y la desinformación [3]. El Parlamento británico concluyó que los modelos de negocio de las redes sociales «incentivan la difusión de discurso dañino» [13]. El argumento estructural es convincente: eliminar el acelerador algorítmico y la desinformación pierde su principal mecanismo de distribución.

Pero el estudio del MIT complica significativamente este planteamiento. Vosoughi, Roy y Aral descubrieron que las noticias falsas se difundían principalmente a través del comportamiento de compartición humana — no mediante bots ni mediante la promoción algorítmica [1]. Las personas compartían contenido falso porque era novedoso y emocionalmente estimulante. «Las noticias falsas son más novedosas que las verdaderas», escribieron los investigadores, «lo que sugiere que las personas son más propensas a compartir información novedosa» [1]. La implicación es incómoda: incluso sin amplificación algorítmica, la psicología humana por sí sola puede impulsar la difusión preferencial de la falsedad.

Los algoritmos son el principal motor

Evidencia interna
La propia investigación de Facebook (2019) reveló que sus algoritmos favorecen la indignación y la desinformación — un mecanismo causal identificado por la propia empresa.
Incentivo del modelo de negocio
Un mercado publicitario de 625.000 millones de euros recompensa estructuralmente la interacción por encima de la exactitud. El incentivo no es neutral — subvenciona activamente la falsedad.
Creación de cámaras de eco
Los algoritmos de recomendación crean burbujas informativas autorreinforciadas que impiden a los usuarios encontrarse con puntos de vista correctores.
Escala y velocidad
La distribución algorítmica permite que el contenido falso alcance a millones de personas en minutos — una capacidad que no existe sin la infraestructura de las plataformas.
Testimonios regulatorios
El Parlamento del Reino Unido, la Comisión Europea y varios fiscales generales estatales han concluido que el diseño de las plataformas habilita estructuralmente la desinformación.

La psicología humana es la causa raíz

Evidencia del MIT
El mayor estudio jamás realizado sobre noticias falsas concluyó que las personas — no los bots ni los algoritmos — fueron el principal motor de la difusión de desinformación, al compartir contenido falso por su novedad.
Precedente histórico
La desinformación precede a las redes sociales en milenios. Desde las monedas propagandísticas romanas hasta el Gran Engaño Lunar de 1835, los seres humanos siempre han producido y consumido falsedades.
Sesgos cognitivos
El sesgo de confirmación, la heurística de disponibilidad y el sesgo endogrupal operan con independencia de cualquier tecnología. Las personas buscan información que confirme sus creencias previas.
Persistencia entre plataformas
La desinformación se propaga en plataformas con algoritmos diferentes — lo que sugiere que el motor es el contenido y la audiencia, no el mecanismo específico de curación.
Contexto societal
Las investigaciones apuntan a que los algoritmos «refuerzan en su mayoría los impulsores sociales ya existentes», entre ellos el individualismo, la política populista y el declive de la confianza institucional.

Una revisión exhaustiva publicada en 2024 intentó conciliar estas posiciones, concluyendo que «las evidencias existentes apuntan a que los algoritmos refuerzan en su mayoría los impulsores sociales ya existentes» de la desinformación [13]. Este enfoque — los algoritmos como aceleradores más que como originadores — tiene implicaciones significativas para las políticas públicas. Si los algoritmos son la causa principal, la reforma de las plataformas puede abordar el problema. Si son aceleradores de tendencias humanas preexistentes, la reforma de las plataformas es necesaria pero insuficiente.

La crisis de confianza añade otra dimensión. La encuesta de Gallup de 2025 reveló que solo el 28 % de los estadounidenses confía en los medios de comunicación de masas — la cifra más baja en los 50 años de historia del sondeo y la primera vez que la confianza ha caído por debajo del 30 % ✓ Hecho establecido [7]. La brecha partidista es extrema: la confianza entre los republicanos se sitúa en el 8 %, mientras que entre los demócratas es del 51 % [7]. Cuando los medios institucionales no son de fiar, la audiencia para la desinformación se amplía — no porque las personas sean crédulas, sino porque han perdido la confianza en las instituciones que debían proporcionarles alternativas fiables.

La paradoja de la confianza

El declive de la confianza en los medios institucionales crea una paradoja: cuanto menos confían las personas en el periodismo profesional, más vulnerables son a la desinformación — y cuanta más desinformación encuentran, menos confían en todas las fuentes de información, incluidas las que intentan corregir el registro. El déficit de confianza es a la vez causa y consecuencia del ecosistema de la desinformación. Romper este ciclo requiere no solo una mejor moderación de contenidos, sino la restauración de un periodismo creíble, accesible y arraigado en la comunidad.

La valoración honesta es que ambas posiciones contienen verdades significativas. La psicología humana crea la demanda de desinformación — novedad, excitación emocional, confirmación de creencias previas. La amplificación algorítmica crea la oferta — un mecanismo de distribución capaz de entregar contenido falso a millones de personas en minutos, a coste cero, sin ningún control editorial. La interacción entre la vulnerabilidad humana y la amplificación algorítmica produce la máquina de la desinformación. Abordar uno sin el otro no resolverá el problema.

El debate tiene también una dimensión estratégica. Las empresas de plataformas han enfatizado sistemáticamente la explicación del «comportamiento humano» porque externaliza la responsabilidad. Si la desinformación es un problema de la naturaleza humana, no se puede esperar que las plataformas lo resuelvan — son meros conductos neutrales. Los documentos internos revelados por Haugen sugieren que este encuadre es interesado: Facebook sabía que sus algoritmos amplificaban la desinformación y decidió no corregir el problema porque hacerlo reduciría la interacción [3]. El debate sobre la causalidad no es meramente académico — es el terreno en el que se dirime la responsabilidad.

08

La asimetría estructural
Por qué el problema empeora en lugar de mejorar

La máquina de la desinformación crece más rápido que las instituciones diseñadas para contrarrestarla ◈ Evidencia sólida. Los ingresos publicitarios que financian la amplificación algorítmica se expanden. El sector periodístico que antes proporcionaba información veraz se contrae. La respuesta regulatoria, aunque se acelera, sigue estando estructuralmente superada por las fuerzas económicas que impulsan el problema.

Cabe considerar la asimetría en términos económicos. El mercado de la publicidad digital vale 625.000 millones de euros y continúa creciendo [13]. Los ingresos publicitarios de la prensa estadounidense han caído de 49.400 millones de dólares en 2005 a 10.500 millones de dólares en 2024 [4]. El sector de la verificación de hechos — 443 organizaciones en todo el mundo — está perdiendo su principal fuente de financiación a medida que Meta se retira [8]. La proporción de recursos dedicados a producir desinformación frente a los destinados a verificar la información no es simplemente desigual — diverge de forma exponencial.

◈ Evidencia sólida El ecosistema informativo padece una asimetría estructural que las intervenciones actuales no están diseñadas para abordar

Una economía publicitaria digital de 625.000 millones de euros incentiva la interacción por encima de la exactitud. El periodismo — con un 75 % menos de empleos que en 2005 — no puede competir en atención ni en ingresos [4]. Las 443 organizaciones de verificación de hechos en todo el mundo están financiadas a una fracción del coste de los ingresos anuales de una sola plataforma. Las Notas de la Comunidad tardan 15 horas en aparecer sobre contenidos que han alcanzado al 80 % de su audiencia en ese lapso [12]. La asimetría estructural no se está cerrando — se está ampliando.

La asimetría temporal es igualmente rotunda. La desinformación viaja a la velocidad de la emoción humana amplificada algorítmicamente. Las correcciones viajan a la velocidad del proceso editorial, el procedimiento regulatorio y el consenso colaborativo. Las Notas de la Comunidad tardan en promedio 15 horas en aparecer [12]. Las acciones sancionadoras de la UE se desarrollan en el curso de meses. Las investigaciones del Congreso llevan años. Para cuando las respuestas institucionales se materializan, la desinformación ya ha configurado la percepción pública, influido en las elecciones y causado daños medibles.

La IA generativa agrava la asimetría. El coste de producir desinformación convincente se ha desplomado. Un único operador con acceso a un gran modelo de lenguaje puede generar hoy miles de narrativas falsas únicas y contextualmente apropiadas por hora. El coste de verificar una sola afirmación — que requiere conocimiento experto, evaluación de fuentes y análisis contextual — permanece esencialmente inalterado. La proporción coste-de-producción/verificación ha pasado de desfavorable a catastrófica [15].

El déficit de confianza institucional amplifica aún más la asimetría. Con solo el 28 % de los estadounidenses confiando en los medios de comunicación de masas [7], las correcciones emitidas por las instituciones periodísticas son descartadas por una mayoría de la población antes de ser siquiera leídas. Cuando la confianza republicana en los medios se sitúa en el 8 %, las verificaciones publicadas por los medios convencionales no solo son ignoradas por esa audiencia — son interpretadas activamente como evidencia de sesgo, reforzando aún más la desinformación que pretenden corregir. El modelo de verificación de hechos daba por supuesta una credibilidad institucional compartida que ya no existe.

La convergencia de crisis

Tres crisis convergen simultáneamente: el colapso económico del periodismo, la desfinanciación de la infraestructura de verificación de hechos y el crecimiento exponencial del contenido generado por IA. Cada una sería manejable por separado. Juntas, representan una transformación estructural del ecosistema informativo para la que los marcos regulatorios actuales no fueron diseñados. La máquina de la desinformación no solo supera a sus adversarios — la brecha se acelera.

¿Cómo sería una respuesta estructuralmente adecuada? Las evidencias apuntan a varias intervenciones necesarias — aunque políticamente difíciles. En primer lugar, el propio modelo publicitario debe ser abordado. Mientras las plataformas generen ingresos maximizando la interacción con independencia de la exactitud, el incentivo económico para la desinformación persistirá. Las opciones incluyen impuestos sobre la publicidad digital, transparencia algorítmica obligatoria o el requisito de que las plataformas compartan ingresos con los medios cuyo contenido impulsa la interacción en sus sistemas.

En segundo lugar, la inversión pública en periodismo debe tratarse como infraestructura, no como subvención. Las necesidades informativas de una sociedad democrática no se autofinancian en un mercado de economía de la atención. Países como Dinamarca, Noruega y Finlandia, que han mantenido sistemas de medios públicos robustos, obtienen sistemáticamente las calificaciones más bajas en vulnerabilidad a la desinformación. La correlación entre la inversión pública en periodismo y la resistencia a la falsedad no es casual — es estructural.

En tercer lugar, la asimetría temporal debe abordarse mediante el diseño sistémico, no mediante la corrección a posteriori. Los marcos regulatorios que actúan después de que la desinformación viral ya se ha propagado son intrínsecamente insuficientes. La verificación predistribución, la fricción algorítmica para las afirmaciones no verificadas y el etiquetado obligatorio de fuentes desplazarían la carga desde la corrección reactiva hacia la prevención proactiva.

Las evidencias son claras. La máquina de la desinformación no es un problema de contenido resoluble mediante una mejor moderación. Es un problema estructural incrustado en la arquitectura económica del ecosistema informativo moderno — una arquitectura en la que la verdad se ve perjudicada por diseño. El modelo publicitario recompensa la interacción por encima de la exactitud. El sector periodístico que antes ejercía de contrapeso ha sido económicamente vaciado. La respuesta regulatoria, aunque en desarrollo, opera a velocidad institucional frente a una amenaza que se mueve a velocidad algorítmica. La asimetría estructural no es un fallo solucionable. Es la característica definitoria de la era de la información — y abordarla requerirá soluciones estructurales que estén a la altura de la escala de la máquina.

La cuestión estructural

La pregunta no es si la desinformación puede ser eliminada — no puede, del mismo modo que la propaganda no pudo ser eliminada en siglos anteriores. La pregunta es si las sociedades democráticas construirán infraestructuras informativas en las que la verdad tenga una ventaja estructural — o si seguirán operando dentro de un ecosistema en el que la falsedad es más rápida, más barata y más rentable que el hecho. La respuesta a esa pregunta determinará la viabilidad del gobierno democrático para la generación venidera.

SRC

Primary Sources

All factual claims in this report are sourced to specific, verifiable publications. Projections are clearly distinguished from empirical findings.

Cite This Report

APA
OsakaWire Intelligence. (2026, April 1). La máquina de la desinformación — Cómo funciona realmente. Retrieved from https://osakawire.com/es/the-misinformation-machine-how-it-actually-works/
CHICAGO
OsakaWire Intelligence. "La máquina de la desinformación — Cómo funciona realmente." OsakaWire. April 1, 2026. https://osakawire.com/es/the-misinformation-machine-how-it-actually-works/
PLAIN
"La máquina de la desinformación — Cómo funciona realmente" — OsakaWire Intelligence, 1 April 2026. osakawire.com/es/the-misinformation-machine-how-it-actually-works/

Embed This Report

<blockquote class="ow-embed" cite="https://osakawire.com/es/the-misinformation-machine-how-it-actually-works/" data-lang="es">
  <p>Análisis estructural del ecosistema de la desinformación: amplificación algorítmica, colapso del periodismo local y por qué la economía de la información financiada por publicidad recompensa sistemáticamente la falsedad.</p>
  <footer>— <cite><a href="https://osakawire.com/es/the-misinformation-machine-how-it-actually-works/">OsakaWire Intelligence · La máquina de la desinformación — Cómo funciona realmente</a></cite></footer>
</blockquote>
<script async src="https://osakawire.com/embed.js"></script>