
编者按:在信息爆炸的数字时代,我们正面临一场前所未有的认知危机。当人工智能生成的“垃圾宣传”如潮水般淹没社交媒体,真相与虚构的边界正变得日益模糊。从美伊冲突中的虚假战场影像,到乐高玩偶演绎的政治讽刺剧,这些看似荒诞的内容正在悄然侵蚀公众的判断力。本文深入剖析“垃圾宣传”的运作逻辑与潜在危害,它不仅稀释了我们的认知环境,更可能瓦解社会共识的基石。面对这场没有硝烟的战争,我们该如何守护思想的防线?以下译文将带您直面这个数字时代的认知迷局。
悉尼报道:三月初,在美以对伊朗发动首轮空袭一周后,白宫发布了一段视频,将真实美军攻击画面与热门电影、电视剧、电子游戏及动漫片段混剪在一起。
伊朗及其支持者迅速反击,用据称来自当前冲突的过时战争影像充斥社交媒体,同时辅以AI生成的袭击特拉维夫及波斯湾美军基地的内容。
最近更有一组据传由伊朗团队制作的病毒视频,将特朗普、爱泼斯坦、撒旦、内塔尼亚胡、皮特·赫格塞斯、哈梅内伊等人物全部塑造成乐高玩偶形象。
欢迎来到“垃圾宣传”的美丽新世界。
垃圾宣传的崛起
去年底,我们在《哲学通讯》发表的论文中创造了合成词“slopaganda”,特指服务于宣传目的的人工智能垃圾内容。
所谓宣传,即旨在操纵信念、情感、注意力、记忆及其他认知情感过程以实现政治目标的传播行为。叠加生成式人工智能技术,便催生了垃圾宣传。
如今垃圾宣传的泛滥程度已远超我们预期。
2025年10月,美国总统特朗普曾发布AI生成视频,描绘自己头戴王冠驾驶战斗机向美国抗议者投掷粪便的场景。近期他又发布视频,设想自己的总统图书馆是一座配备金色电梯的浮夸摩天大楼。
伊朗制作的乐高主题垃圾宣传只是最新案例。这类材料不限于视频,还包括图像、文本等任何AI能够生成的形式。
垃圾宣传如何突破心理防线
垃圾宣传究竟意欲何为?目前我们有几个发现:
首先,通过传统媒体与社交媒体的反复曝光,垃圾宣传能穿透我们惯常的心理防线。当内容具备抓人眼球、情感冲击(通常以负面方式)等特质,并推送给刷社交媒体或频繁切换网页的分心受众时,其效果尤为显著。
其次,这是用虚假信息和半真半假内容稀释认知环境——即我们自认为了解的世界——的高效手段。正如哲学家所言,ChatGPT等生成式AI工具可以成为生产漠视真相内容的机器。
垃圾宣传可被视为特殊的AI生成内容,但通过伊朗乐高视频等案例,其独特属性更加清晰:无人会真相信特朗普能驾驶F-16投掷粪便,也无人(但愿如此)认为塑料特朗普乐高会与塑料撒旦玩偶勾结。这类宣传不追求精确性,而是通过象征手法表达情感情绪,旨在建立某种关联——比如将撒旦与特朗普挂钩,将美国与邪恶画等号。
垃圾宣传如何瓦解共识真相
第三,部分垃圾宣传确实具有误导性。这可能是刻意设计,也可能因玩笑或恶搞脱离原语境被误读为严肃信息——学者称之为“语境坍塌”。在冲突危机等权威信源稀缺的特殊时期,包括深度伪造在内的误导性垃圾宣传能快速生成,满足公众的信息饥渴。
一旦误导信息或特定联想植入脑海,便难以消除。由于垃圾宣传能触达海量受众,即使在整体人群中产生微小误导效应,也可能引发重大后果。国家行为体、企业及个人都可能影响群体信念与决策,包括选举结果、抗议运动或对不受欢迎战争的普遍情绪。
第四,垃圾宣传的泛滥可能让我们怀疑一切。人们固然会更擅长识别此类材料,但也更容易将真实内容误判为垃圾。最终结果可能导致公众对真正可信的个人与机构的信任度同步下降。
当信任危机蔓延,整体效应将是公众对可信实体的普遍怀疑,进而陷入“无法确知任何事情”的虚无主义困境。在难以辨别可信来源时,人们往往选择相信让自己舒适、振奋或愤怒的内容。对于深陷经济、政治、军事、环境多重危机的极化社会而言,共同真相来源的崩坏只会让局势雪上加霜。
三大防御策略
如何应对垃圾宣传?我们在论文中提出三个层面的干预措施:
首先,提升公众数字素养,例如学会识别文字、图像、视频中的AI痕迹;养成核查信源的习惯而非仅浏览标题;直接屏蔽惯常散布垃圾宣传的源头,而非孤立评估每条内容。这有助于在信任真实新闻源的同时避免上当。
其次,行业与监管机构可通过技术手段为AI生成内容添加数字水印。部分内容甚至需要从新闻传播平台移除。
最后,应要求OpenAI、谷歌、X等科技巨头对其创造的技术承担责任。可通过征税等干预措施,为监管行动与数字素养教育提供资金支持。
垃圾宣传或许将成为常态,但凭借足够的远见与勇气,我们仍能适应甚至掌控这场认知变革。
马克·阿尔法诺系麦考瑞大学哲学副教授,米哈尔·克林塞维奇系蒂尔堡大学计算认知科学系助理教授。本文首发于The Conversation平台。