机器的规模
一个以工业速度运转的全球性威胁
虚假新闻被转发的概率比真实新闻高出70%,传播至1500人的速度快六倍 ✓ 已证实——这一结论来自迄今规模最大的网络虚假信息纵向研究,该研究分析了三百万用户在十一年间分享的12.6万条信息 [1]。虚假信息机器并非信息生态系统中的偶发故障,它本身就是这个生态系统。
世界经济论坛(WEF)《2025年全球风险报告》将虚假信息与误导信息列为两年期全球第一大风险——这已是连续第二年蝉联榜首 ✓ 已证实 [2]。来自136个国家的900余位专家将其排在极端天气事件、武装冲突和社会极化之前。在十年期展望中,该风险仍位居前五。专家们并不认为这一问题会自行消解。
公众暴露于虚假信息的数据令人触目惊心。皮尤研究中心对25个国家的调查显示,中位数达72%的受访者认为网络虚假信息的传播对本国构成重大威胁 [11]。据估计,全球约86%的公民曾直接接触过虚假信息 ◈ 有力证据。研究人员估计,社交媒体上约40%的分享内容为虚假信息——这一比例意味着平台体验更接近于抛硬币,而非可靠的信息渠道 [11]。
经济代价绝非纸上谈兵。网络安全公司CHEQ与巴尔的摩大学的联合研究估计,网络虚假信息每年给全球经济造成780亿美元的损失 ◈ 有力证据 [14]。这包括虚假财务报道引发的股市动荡、医疗虚假信息导致的公共卫生成本,以及企业因捏造话语而遭受的声誉损失。考虑到生成式人工智能时代大幅降低了制造逼真虚假信息的成本,这一数字几乎可以肯定被低估了。
联合国教科文组织(UNESCO)与益普索(Ipsos)在16个国家开展的调查——覆盖2024年面临选举的25亿选民所在国——发现85%的受访者对网络虚假信息的后果感到忧虑 ✓ 已证实 [5]。与此同时,另一项全球调查中97%的受访者认为虚假信息对社会有害 [11]。公众并非对问题毫无察觉,只是在结构上缺乏解决问题的手段。
当下与历史先例的根本区别——宣传自古有之——在于速度、规模与经济激励的三重叠加。一条虚假言论如今可以在几分钟内以零边际成本触达数百万人,借助的正是专为激发情绪反应而设计的传播系统。印刷术用了数十年才重塑信息格局,社交媒体仅用不到十年便做到了这一点。
虚假信息以人类情绪——愤怒、恐惧、猎奇——的速度传播。更正信息则以机构流程的速度行进:编辑审核、事实核查、法律审批。这种时间上的不对称并非偶然,它是现代信息生态系统最根本的结构性特征。当真相终于追赶上来时,损害早已造成。
麻省理工学院那项研究最重要的发现并非关于机器人或算法——而是关于人本身。虚假新闻主要通过人类的分享行为传播,驱动力是虚假内容所激发的新奇感和情绪唤起 [1]。在每一个信息类别中,虚假信息的传播范围更广、速度更快、层级更深、覆盖面更大——但对虚假政治新闻的放大效应最为显著。虚假信息机器以人类心理为燃料运转,技术只是消除了摩擦。
谎言背后的商业模式
平台为何从虚假信息中获利
数字广告市场规模达6250亿欧元 ✓ 已证实,其根本激励机制是用户参与度——而非准确性 [13]。社交媒体平台的商业模式在结构上激励虚假信息的传播,因为愤怒、恐惧和猎奇比理性分析产生更多点击。
英国议会科学技术委员会的结论直截了当:社交媒体平台的商业模式“” ✓ 已证实 [13]。这不是活动人士或学者的指控,而是一项议会调查对广告收入与信息质量之间结构性关系的正式裁定。
其运作机制并不复杂。平台依据用户注意力出售广告。用户在平台停留的时间越长,看到的广告就越多。能引发强烈情绪反应——愤怒、义愤、恐惧、惊讶——的内容比仅仅准确的内容更能留住注意力、传播更远。发表在《公共经济学杂志》上的一项关于参与度排序的研究发现,以最大化参与度为目标的社交媒体算法系统性地放大耸动和分裂性内容 [13]。平台无需蓄意制造虚假信息——经济激励会自动产生这一结果。
2019年12月发布在Facebook内部网络上的一项研究表明,该平台的算法“”,“” [3]。这并非外部指控——而是Facebook自己的数据科学家对参与度最大化算法产生的结构性后果的描述。
弗朗西丝·豪根(Frances Haugen)是Facebook前产品经理,2021年披露了数万份内部文件。她在美国国会作证时表示,该公司“” [3]。《华尔街日报》基于这些文件开展的“”调查揭示,公司内部研究人员已识别出危害并提出了缓解方案——但方案遭到否决,原因是会降低参与度指标 [3]。
这并非Meta独有的问题。这一结构性激励适用于所有广告驱动的平台。冷静、细致、准确的内容产生的参与度低于耸动、分裂或虚假的内容。平台的收入模式为虚假信息创造了一种隐形补贴——虚假内容不仅被容忍,更在产生平台收入的同一系统中获得了功能性奖励。
最大化参与度的机器学习模型同时也偏好争议、虚假信息和极端主义:简而言之,人们就是喜欢耸动的东西。
— MIT Technology Review,关于弗朗西丝·豪根披露文件的分析,2021年10月广告驱动模式还造成了另一种结构性依赖:理论上应对抗虚假信息的机构反而依赖于同一收入来源。事实核查组织、新闻媒体和调查记者都在争夺同一批广告收入,而这些收入绝大部分流向了平台。国际事实核查网络(IFCN)报告称,约60%的事实核查组织参与了Meta的第三方事实核查项目 [8]。这些组织平均45%的收入来自Meta [8]。负责核查虚假信息的机构在财务上依赖于那家算法正在传播虚假信息的公司。
2025年1月,Meta在美国全面终止了这一项目 ✓ 已证实 [9]。首席执行官马克·扎克伯格(Mark Zuckerberg)宣布,公司将以类似X平台的“”模式取代第三方事实核查,于2025年4月7日生效。与此同时,公司取消了围绕移民、性别及其他政治敏感话题的内容政策,并撤回了此前减少用户信息流中政治内容的调整 [9]。
当全球事实核查领域最大的单一资助方决定撤资时,整个核查基础设施便岌岌可危——不是因为事实核查本身失败了,而是因为资助它的商业模式从一开始就不是为追求真相而设计的。事实核查生态建立在一个结构性矛盾之上:依赖其产品正是自身审查对象的平台的收入。
经济逻辑不容含糊。虚假信息并非注意力经济的外部性——它是注意力经济的产物。产生数千亿美元年广告收入的同一系统,也制造了虚假信息系统性胜过真相的条件。在不触及底层商业模式的前提下改革内容审核,无异于对症下药的同时继续开出致病的处方。
算法催化剂
推荐系统如何放大虚假信息
算法并不制造虚假信息——但它决定了数十亿人看到什么。以最大化参与度为目标的推荐系统形成正反馈循环,系统性地偏向情绪化、分裂性且往往不实的内容,而非准确的报道 ◈ 有力证据 [13]。
算法放大与虚假信息之间的关系如今已有大量文献记录。2025年发表在《传播学前沿》的一篇系统性综述,整合了社交媒体对新闻判断、受众发展以及极化与虚假信息放大效应的研究证据 [13]。综述发现,算法策展不仅反映用户偏好,更主动塑造偏好,形成信息茧房,使用户主要接触到与既有信念相符的观点。
发表在《信息系统研究》上的一项研究表明,X等平台的推荐算法系统性地使曝光偏向高人气账号,无论左倾还是右倾用户都会看到更多与自身政治立场一致的内容,而对立观点的曝光则被削弱 [12]。算法并不区分真假信息,它区分的是引发参与和不引发参与的内容。鉴于虚假内容始终更具参与吸引力——麻省理工学院的研究在每个信息类别中都证实了这一点 [1]——算法便成为虚假信息的催化剂。
该机制通过研究者所称的“”循环运作。人类对新奇、情绪唤起和道德色彩浓厚的内容具有经过记录的认知偏向。算法检测并强化这些偏向,推送产生最高参与信号——点赞、分享、评论、停留时长——的内容。最能激发这些信号的内容往往耸动、分裂或不实 [1]。算法随即向同一用户推送更多同类内容,形成逐步扭曲其信息环境的强化循环。
一篇发表于PMC的综合综述发现,现有证据表明算法“”,这一发现“” [13]。算法并非虚假信息的根源——但它是将局部谬误转化为全球现象的催化剂。
信息茧房效应在政治信息领域尤为值得关注。对2024年美国总统大选期间X/Twitter的研究发现,平台算法放大了与用户政治立场一致的内容,同时减少了对立观点的曝光 [12]。不同政治倾向的用户所看到的政治现实是被扭曲的——并非通过刻意审查,而是通过对参与度的优化。结果是,持有不同政治倾向的用户日益生活在不同的信息现实中,且各自的信息茧房不断被算法策展所加固。
生成式人工智能为算法放大增添了新维度。人工智能工具——尤其是大语言模型和参与度优化算法——如今能够以最少的人力投入在工业化规模上生产虚假信息 [15]。虽然深度伪造吸引了最多公众关注,但更具实质威胁的是生成大量看似合理文本、在评论区制造合成舆论以及以远低于以往成本实施协调虚假行为的能力。
人工智能对信息完整性的首要威胁不在于个别深度伪造的精度——而在于以接近零成本生产海量常规虚假信息的能力。单个操作者现在每小时便可生成数千条独特的、契合语境的虚假叙事。事实核查基础设施是为一个制造令人信服的虚假信息尚需付出努力的时代而设计的。这一约束条件已不复存在。
平台对算法放大效应的应对措施有限,且往往流于形式。Instagram和Facebook推出“”标签来降低被标记内容的优先级——但触发标记需要用户举报或事实核查人员介入,两者都远远滞后于病毒式传播的速度。YouTube在2019年调整了推荐算法以减少“”——但2024年的一项审计发现,煽动性和误导性内容仍在政治活跃用户的推荐中占据显著位置 [13]。
根本挑战在于:算法对虚假信息的放大不是漏洞——而是参与度最大化设计的内在特性。修复算法以降低虚假内容的优先级,将要求平台牺牲参与度指标,进而牺牲广告收入。结构性激励与公众对准确信息的利益背道而驰。只要这一激励不改变,算法放大就将继续充当虚假信息机器的首要催化剂。
脚下的真空
地方新闻业的崩溃与信息真空
自2005年以来,美国已失去超过27万个报业岗位——降幅达75% ✓ 已证实 [4]。地方新闻业的崩溃在全国大片区域制造了信息真空——而虚假信息在缺省情况下填补了这些真空。
梅迪尔/西北大学《2025年地方新闻状况》报告记录了一场已从衰退演变为结构性崩塌的危机。仅过去一年就有130余家报纸倒闭 [4]。完全“”县——即没有任何本地新闻来源的县——数量升至208个,高于2023年的204个 ✓ 已证实 [4]。但实际情况更为严峻:全国3143个县中,超过一半几乎没有本地新闻报道。近5500万美国人生活在缺乏或完全没有地方新闻报道的社区中 [4]。
记者与人口的比例以残酷的清晰度讲述了这个故事。不到25年前,美国每10万居民约有40名记者。如今降至8.2人——降幅近80% ✓ 已证实 [4]。在39个州,记者总数不足千人。超过一千个美国县——每三个中就有一个——甚至不具备相当于一名全职地方记者的报道力量。这些不是微小的缺口,而是民主自治所需的信息基础设施中的结构性缺失。
财务驱动因素一目了然。2005年美国报纸广告收入达到494亿美元的峰值。到2024年,已降至约105亿美元——降幅达79% ✓ 已证实 [4]。这笔收入并未消失——它流向了数字平台。资助虚假信息算法放大的广告生态系统,正是从专业地方报道赖以生存的机构中抽走了经济基础。
地方新闻业消失之时,社区的信息需求并不会随之消失。居民仍需了解当地政府的所作所为、税款的用途,以及学校和医院的状况。在缺乏专业报道的情况下,这些信息需求由社交媒体、党派通讯和口耳相传来满足——而这些渠道没有编辑标准、没有事实核查、没有问责机制。新闻荒漠不仅仅是新闻业的缺位——它是一份对虚假信息的长期邀请。
新闻荒漠的地理分布并非随机。农村社区、中小城市和经济弱势地区受影响尤为严重。尽管过去五年中涌现了300余家地方新闻初创机构——其中80%为纯数字媒体——但绝大多数集中在大都市地区 [4]。最容易受虚假信息侵害的社区,恰恰是新兴数字新闻生态覆盖最薄弱的地方。
研究一再证实,新闻荒漠与公民参与下降、投票率降低、市政借贷成本上升和腐败风险增加之间存在关联。当无人监督时,问责便无从谈起。当准确的本地信息无法获取时,居民转向全国性党派媒体和社交媒体——这些渠道优先考虑的是参与度,而非本地相关性和准确性。
地方新闻业的崩溃与虚假信息的兴起并非平行趋势——两者存在因果关联。曾经资助新闻编辑室的广告收入如今资助着放大虚假信息的平台。新闻编辑室关闭所制造的信息真空,被通过参与度最大化算法分发的未经核实内容所填补。虚假信息机器不仅取代了地方新闻业——它吞噬了使地方新闻业得以存续的经济基础。
信息的武器化
国家行为者、选举与协调行动
2024年12月,罗马尼亚成为欧洲首个因TikTok协调虚假信息运动而宣告总统选举无效的国家 ✓ 已证实 [10]。社交媒体被武器化用于政治操纵,已从理论上的担忧变为有据可查的现实——民主选举首当其冲。
罗马尼亚案例是迄今最鲜明的例证,展示了虚假信息颠覆民主进程的能力。2024年11月24日的选举中,极端民族主义候选人克林·乔治斯库(Călin Georgescu)此前民调仅为个位数,却在首轮投票中意外拔得头筹 [10]。随后的调查揭露了一场涉及约2.5万个TikTok账号和估计100万欧元秘密资金的协调行动,据称与俄罗斯国家利益相关 [10]。
罗马尼亚当局记录了首轮投票前后针对选举基础设施的逾8.5万次网络入侵尝试——其规模和精密程度指向国家支持的行为者 [10]。宪法法院最初确认了选举结果,后于12月6日在约翰尼斯(Iohannis)总统解密揭示外国影响行动的国家安全情报后撤销了裁定。欧盟委员会随后就TikTok在此事件中的角色启动了正式调查 [6]。
罗马尼亚宪法法院于2024年12月6日宣告总统选举首轮投票无效,此前情报机构查明一场耗资100万欧元、动用2.5万个协调TikTok账号为极右翼候选人乔治斯库造势的虚假信息运动 [10]。逾8.5万次针对选举基础设施的网络入侵尝试表明有国家支持介入。
2024年是人类历史上规模最大的选举年,数十个国家超过25亿选民走向投票站 [5]。在世界经济论坛将虚假信息风险评估为最高的印度,近80%的首次投票者在社交媒体上遭遇了大量虚假新闻轰炸 [2]。忧虑主要集中在人工智能生成的政治对手深度伪造视频和捏造的音频录音上。在巴西,选举法院下令删除数千条虚假内容,并临时暂停了未能控制虚假信息的即时通讯应用 [2]。
然而,2024年令人担忧的“”并未如预期般到来。Recorded Future的分析发现,在所有经事实核查的选举虚假信息中,人工智能生成的内容不到1% ◈ 有力证据 [15]。“”——粗糙剪辑的图片、断章取义的视频和误导性截图——的使用频率是精密人工智能深度伪造的七倍 [15]。虚假信息威胁在目前阶段仍主要是人为制造的问题,而非人工智能制造的问题。
深度伪造的威胁或许比深度伪造本身更为隐蔽。仅仅是令人信服的人工智能伪造物的存在,就创造了一种“”——使任何被镜头捕捉到的人都可以声称视频是伪造的。深度伪造无需大规模部署就能瓦解信任;其存在的可能性本身就污染了所有视觉证据的可信度。真正的武器不是伪造——而是怀疑。
拥有健全制度生态——独立司法、专业媒体、活跃公民社会——的成熟民主国家在抵御虚假信息运动方面表现出更强的韧性 [2]。欧盟的立法框架,尤其是《数字服务法》(Digital Services Act)和《数字市场法》(Digital Markets Act),要求平台进行系统性风险评估,并提供了在罗马尼亚危机中得以运用的监管工具 [6]。缺乏此类框架的国家则明显更为脆弱。
信息的武器化并不限于外国干预。美国、英国、印度、巴西和土耳其的国内政治行为者都曾将虚假信息作为蓄意的选举策略加以运用 [15]。土耳其总统埃尔多安(Erdoğan)利用深度伪造将反对派领导人与恐怖组织挂钩。巴西和巴基斯坦的政党部署捏造音频进行负面竞选。“”与“”之间的界限日益模糊——而承载两者的平台无论信息来源如何,都从中获利。
2024年选举周期证明,虚假信息机器不是未来的威胁——它是当下已在运作的武器。问题已不再是信息战能否影响选举,而是现有的制度防线是否足以抵御。罗马尼亚的答案是宣告选举无效——这是一种最后手段的民主保障,隐含地承认了此前所有防线的失败。
应对基础设施
监管、事实核查及其结构性局限
2025年12月,欧盟依据《数字服务法》对X处以1.2亿欧元罚款 ✓ 已证实 [6]。这是一次里程碑式的执法行动——然而,旨在对抗虚假信息的制度与制造虚假信息的经济力量之间的结构性落差依然巨大。
《数字服务法》是迄今为止针对平台问责制定的最全面的监管框架。自2024年2月全面生效以来,它要求系统性平台进行风险评估,要求算法决策透明化,并确立了施加重大经济处罚的法律基础 [6]。2025年12月对X处以的1.2亿欧元罚款——针对欺骗性设计、广告透明度违规以及未能向研究人员提供数据访问——是首次有大型平台因违反《数字服务法》而面临九位数罚款 [6]。
2025年2月出现了一个重要进展:欧盟委员会和欧洲数字服务委员会批准将《虚假信息行为准则》纳入《数字服务法》的共同监管框架 [6]。自2025年7月起,此前属于自愿性质的准则——由Google、Meta、Microsoft和TikTok等签署——获得了正式法律效力。覆盖2025年7月至12月的首个完整报告周期纳入了平台、事实核查机构、研究人员和公民社会组织的提交材料 [6]。
| 风险 | 严重程度 | 评估 |
|---|---|---|
| 参与度驱动的商业模式 | 平台以最大化参与度为目标、不顾内容准确性的根本性经济激励,目前完全未被任何监管措施触及。任何司法管辖区的监管框架都没有试图改变底层商业模式。 | |
| 事实核查资金断裂 | Meta退出事实核查项目,移除了全球核查组织最大的单一收入来源。美国国际开发署拨款冻结进一步削减了国际事实核查机构的资金。443个项目仍在运行,但财务可持续性岌岌可危。 | |
| 监管碎片化 | 欧盟在平台监管方面处于领先地位,美国则没有联邦层面的同等立法。虚假信息跨越司法管辖区流动,而监管仍以国家为单位。平台可以选择最宽松的监管环境“”。 | |
| 人工智能规模化生成内容 | 生成式人工智能大幅降低了制造令人信服的虚假信息的成本。尽管深度伪造的实际使用量低于预期,但生成海量似是而非文本的能力已压垮现有核查能力。 | |
| 地方新闻业崩溃 | 地方新闻的消失制造了虚假信息在缺省情况下填补的信息真空。没有任何监管框架针对同一广告经济对新闻业的结构性资金抽离问题。 |
罗马尼亚危机为《数字服务法》提供了首次重大实战检验。2024年12月总统选举被宣告无效后,欧盟委员会援引《数字服务法》的透明度和内容审核要求对TikTok启动调查,并最终发展为正式调查程序 [6]。在另一案件中,柏林法院支持了德国公民权利组织的诉求,裁定X必须向研究人员提供数据访问权以监测德国大选前的虚假信息 [6]。这些执法行动表明《数字服务法》提供了切实有效的法律工具——但也凸显了该框架的事后反应性特征:行动发生在损害之后,而非之前。
“”模式——如今已被X和Meta同时采用——代表了一种根本不同的内容核查方式:众包、去中心化且表面上中立。对X平台实施情况的研究结果喜忧参半。获得可见“”标注的帖子转发量下降了46%,点赞量下降了44% ◈ 有力证据 [12]。当帖子被附上公开笔记时,作者删帖的概率提高了32% [12]。
然而局限性同样严峻。平均而言,一条“”需要15小时才能发布 ◈ 有力证据 [12]。到笔记出现时,帖子通常已触达其总受众的80%。此外,91%的拟议笔记从未达到“”状态,因而从未被展示 [12]。该系统要求具有不同政治立场的贡献者之间达成共识——这一设计特性防止了党派滥用,但也导致在政治分歧难以弥合时,明显的虚假信息无法得到及时纠正。
虚假信息不是一个意外后果,而是一个将参与度置于一切之上的系统的可预见产物。
— 英国议会科学技术委员会,《社交媒体、虚假信息与有害算法》,2024年全球事实核查基础设施本身正承受巨大压力。IFCN《2024年事实核查员状况报告》发现,财务压力和骚扰是全球事实核查人员最关切的问题 [8]。Meta的撤出拆掉了一根资金支柱。杜克记者实验室统计全球有443个活跃的事实核查项目——较451个减少了2%——但这一趋势预示着进一步萎缩,因为替代收入来源难以获得 [8]。拉丁美洲的事实核查机构受到的影响尤为严重,同时面临新闻拨款削减和美国国际开发署冻结对国际媒体组织资助的双重打击 [8]。
因果之辩
平台是原因还是镜像?
社交媒体算法究竟是造成虚假信息的原因,还是仅仅反映了人类预存的倾向?这是信息科学领域最具影响力也最具争议的问题之一 ⚖ 有争议。答案将决定平台改革能否解决问题,抑或症结比任何技术都更为深远。
“”的立场有充分的证据支撑。豪根在2021年披露的Facebook内部研究表明,该公司的参与度最大化算法主动偏向愤怒情绪和虚假信息 [3]。英国议会的结论是社交媒体商业模式“” [13]。结构性论证颇为有力:移除算法催化剂,虚假信息就失去了主要的分发机制。
但麻省理工学院的研究显著地复杂化了这一叙事。沃索吉、罗伊和阿拉尔发现,虚假新闻主要通过人类分享行为而非通过机器人或算法推送传播 [1]。人们分享虚假内容是因为其新奇且能引发情绪。研究者写道:“” [1] 这一含义令人不安:即使没有算法放大,人类心理本身也可能驱动虚假信息的优先传播。
算法是主要驱动力
Facebook自身的研究(2019年)发现其算法偏向愤怒和虚假信息——这是公司自行识别出的因果机制。
6250亿欧元的广告市场在结构上奖励参与度而非准确性。这种激励并非中立——它主动补贴虚假信息。
推荐算法创造了自我强化的信息泡沫,阻止用户接触纠偏性观点。
算法分发使虚假内容能够在几分钟内触达数百万人——这种能力离开平台基础设施便不复存在。
英国议会、欧盟委员会和多位州检察长均得出结论:平台设计在结构上为虚假信息提供了便利。
人类心理才是根本原因
迄今最大规模的虚假新闻研究发现,虚假信息传播的主要驱动力是人类——而非机器人或算法——分享虚假内容源于对新奇感的追求。
虚假信息的历史远早于社交媒体。从罗马帝国的宣传货币到1835年的“”,人类向来既生产也消费虚假信息。
确认偏差、可得性启发和群体内偏好独立于任何技术运作。人们主动寻求与既有信念相符的信息。
虚假信息在采用不同算法的多个平台间传播——这表明驱动力在于内容和受众,而非特定的策展机制。
研究表明算法“”,包括个人主义、民粹政治和制度信任的衰退。
2024年发表的一篇综合综述试图调和这两种立场,结论是“” [13]。这一框架——算法是催化剂而非发起者——对政策具有重要启示。若算法是主因,平台改革便能解决问题。若算法是人类固有倾向的催化剂,平台改革虽然必要但远远不够。
信任危机增添了另一层维度。盖洛普2025年调查发现,仅28%的美国人信任大众媒体——创下该调查50年历史的最低纪录,也是信任度首次跌破30% ✓ 已证实 [7]。党派分化极为显著:共和党人信任度为8%,民主党人为51% [7]。当制度化媒体不受信任时,虚假信息的受众就会扩大——不是因为公众易受蒙蔽,而是因为他们对本应提供可靠替代选择的制度失去了信心。
对制度化媒体信任度的下降形成了一个悖论:人们越不信任专业新闻业,就越容易受到虚假信息的侵害——而接触到的虚假信息越多,就越不信任所有信息来源,包括那些试图纠正错误的机构。信任赤字既是虚假信息生态系统的成因,也是其后果。打破这一循环不仅需要更好的内容审核,更需要恢复可信赖、可触达、植根社区的新闻业。
坦诚的评估是:两种立场都包含重要的真理。人类心理创造了对虚假信息的需求——对新奇的追求、情绪唤起、对既有信念的确认。算法放大则创造了供给侧——一种能在数分钟内以零成本、不经编辑把关便将虚假内容投送到数百万人面前的分发机制。人类脆弱性与算法放大的交互作用催生了虚假信息机器。仅应对其一而忽视其二,无法解决问题。
这场辩论还有其策略性维度。平台公司一直强调“”这一解释,因为这将责任外化。若虚假信息是人性问题,就不能指望平台来解决——它们不过是中立的传输管道。豪根披露的内部文件表明这一框架具有自利性:Facebook明知其算法放大虚假信息,却选择不修复问题,因为修复将降低参与度 [3]。因果之辩不仅是学术问题——它是问责博弈的竞技场。
结构性不对称
问题为何愈演愈烈
虚假信息机器的扩张速度快于旨在对抗它的制度的发展速度 ◈ 有力证据。资助算法放大的广告收入仍在增长。曾经提供准确信息的新闻业正在萎缩。监管应对虽在加速,但在结构上仍不敌驱动问题的经济力量。
从经济角度审视这种不对称。数字广告市场规模达6250亿欧元且仍在增长 [13]。美国报纸广告收入已从2005年的494亿美元降至2024年的105亿美元 [4]。事实核查领域——全球仅443个组织——正因Meta的撤出而失去主要资金来源 [8]。用于制造虚假信息与用于核实信息的资源之比不仅不平等——差距正以指数级速度扩大。
时间上的不对称同样触目惊心。虚假信息以经算法放大的人类情绪速度传播。更正信息则以编辑流程、监管程序和众包共识的速度行进。“”平均需要15小时才能出现 [12]。欧盟执法行动需要数月。国会调查需要数年。等到制度性回应落地时,虚假信息早已塑造了公众认知、影响了选举、造成了可量化的损害。
生成式人工智能加剧了这种不对称。制造令人信服的虚假信息的成本已经大幅下降。一个可以使用大语言模型的操作者,现在每小时便可生成数千条独特的、契合语境的虚假叙事。而核实单条信息——需要人类专业知识、来源评估和语境分析——的成本基本未变。生产与核实的成本比已从不利转变为灾难性 [15]。
制度信任赤字进一步放大了不对称。仅28%的美国人信任大众媒体 [7]。新闻机构发出的更正信息在被大多数人阅读之前就已被摒弃。当共和党人对媒体的信任度仅为8%时,主流媒体发布的事实核查不仅被该受众群体忽视——更被主动解读为偏见的证据,从而进一步固化了核查本欲纠正的虚假信息。事实核查模式的前提是存在共同的制度公信力基线,而这一基线已不复存在。
三重危机正同时汇聚:新闻业的经济崩溃、事实核查基础设施的资金断裂,以及人工智能生成内容的指数级增长。每一项单独来看尚可应对。三者叠加,则构成了现有监管框架未曾预想的信息生态系统结构性转型。虚假信息机器不仅仅在超越其对手——差距还在加速扩大。
在结构上足以应对的回应方案是什么样的?证据指向若干必要但在政治上困难的干预措施。首先,必须直面广告商业模式本身。只要平台通过最大化参与度获取收入而不顾准确性,虚假信息的经济激励就将持续存在。可行方案包括数字广告税、强制算法透明度,或要求平台与那些内容为平台带来参与度的新闻机构分享收入。
其次,对新闻业的公共投资应被视为基础设施而非补贴。民主社会的信息需求在注意力经济市场中无法自我维持。丹麦、挪威和芬兰等维持了健全公共媒体体系的国家,在虚假信息脆弱性方面一贯排名最低。公共新闻投资与抵御虚假信息能力之间的相关性并非巧合——而是结构性的。
第三,时间上的不对称必须通过系统设计而非事后纠正来解决。在病毒式虚假信息已经传播之后才采取行动的监管框架,其不足是先天性的。传播前核查、对未经核实信息的算法减速机制,以及强制性来源标注,将把重心从被动纠正转向主动预防。
证据已经清楚。虚假信息机器不是一个可以通过更好的内容审核来解决的内容问题。它是嵌入现代信息生态系统经济架构中的结构性问题——在这一架构中,真相在设计层面就处于不利地位。广告模式奖励参与度而非准确性。曾经提供制衡的新闻业已被经济掏空。监管应对虽在推进,但以制度速度运作,面对的却是以算法速度运动的威胁。结构性不对称并非可修复的故障,它是信息时代的决定性特征——应对它需要与机器本身规模相匹配的结构性方案。
问题不在于虚假信息能否被消除——正如宣传在前几个世纪无法被根除一样,虚假信息同样无法被消除。问题在于:民主社会是否会建设一种让真相具有结构性优势的信息基础设施——还是继续在一个虚假信息比事实更快、更廉价、更有利可图的生态系统中运转。这个问题的答案将塑造未来一代人民主治理的可行性。