
编者按:在社交媒体疯狂刷屏的AI生成视频背后,隐藏着一场扭曲童年记忆的危机。从狐狸出轨毒蛇产下怪胎,到香蕉抛弃葡萄宝宝,这些荒诞的动画短片正在颠覆传统儿童卡通,用充满性别歧视和暴力内核的剧情收割流量。当算法将低俗当有趣,我们是否正在默许一场对下一代价值观的慢性侵蚀?请随我走进本文,看AI如何用糖果包装毒药,在笑声中重塑性别刻板印象。这不仅是数字垃圾,更是正在撕裂社会的隐形裂痕。
一只雌狐狸背叛熊与毒蛇偷情,竟产下毒蛇宝宝。一根肉桂棒吮吸咖啡拿铁的"大脑"后反被毒杀。拜金猫抛弃丈夫和子女。香蕉让两颗性感葡萄怀孕后,竟为了一只轻浮的木瓜抛弃亲生骨肉。
仅这四段视频就在TikTok上狂揽超200万点赞。
在TikTok、YouTube等社交平台上,AI生成的"垃圾内容"正在颠覆和性化儿童卡通。大量此类剪辑视频正在病毒式传播。
如果长了胸部的葡萄、猫、狐狸和茶杯还不够令人不安,这些动画角色还在上演厌女剧情。常见主题包括出轨、亲子鉴定、羞辱和暴力。女性角色被刻板化为拜金、虚伪或肤浅的形象。
这种儿童卡通与肥皂剧的荒谬混搭让无数网友欲罢不能,而算法则会继续推送更多此类视频。
看似无害的"无脑刷屏"实则暗藏危机。专家警告,这类视频会潜移默化地塑造性别观念和社会规范。
惊悚内容才是流量密码
社交媒体上的极端内容和极化观点并不新鲜。算法之所以推送这些内容,是因为它们能激发更强烈的情感反应、延长用户停留时间。但AI内容创作的便捷性已将这一现象推至全新高度。
在生成式AI出现前,一部动画短片需要数天时间进行剧本创作、分镜设计、插画绘制、动画制作、配音和剪辑,并需要多名创作者协作。如今,一个人用几分钟即可完成,仅需几百美元的月度订阅AI工具。
结果是,大量创作者用AI内容淹没社交媒体,而这些内容又被算法疯狂推送。报告显示,YouTube新用户看到的视频中超过20%是AI垃圾内容。
"大多数社交媒体平台奖励的是数量和曝光度,而非内容质量,"新加坡国立大学传播与新媒体系主任兼副教授娜塔莉·庞表示,"厌女套路能激发情绪反应,从而提高个人在社交媒体上的曝光度。算法通常被训练来识别流行趋势,因此能引发大量反应、被分享和讨论的内容往往会被放大。"
你的注意力正在被AI内容农场变现。2025年一项针对全球1.5万个热门YouTube频道的研究发现,其中278个频道完全由AI垃圾内容构成。这些频道累计获得630亿次观看,年收入超1.17亿美元。
2025年数据:278个AI垃圾频道创造630亿播放量和1.17亿美元年收入
用幽默包装的厌女毒药
我们通常不会观看出轨女性被羞辱的视频,但为何会看水果角色上演同样剧情的短片?
临床心理学家周安贝尔博士指出,夸张角色、离奇剧情和别扭旁白带来的幽默与荒诞感,像极了社交伪装。"将贬低性内容包裹在荒谬或幼稚的形式中,更容易让人接受。它看起来有趣、无害,容易被当作'只是个玩笑'。人们在思考内容含义之前就已经笑了。"
研究还发现,性别歧视的笑话会让人感觉这类内容没那么冒犯或有害,因此女性更少提出异议。即使有人想对抗这类内容,也可能被认为是太过严肃、敏感或"根本不懂幽默"。
"但幽默并不能减少伤害。当贬低性观念被反复包装成搞笑内容,人们会逐渐变得宽容,甚至可能将极端态度视为合理或可信的。"
庞副教授补充道:"此外,创建匿名账号相对容易,因此制作厌女内容的创作者几乎不需承担责任。"
这类视频会助长性别歧视,尤其是在年轻男性和女性性别态度日益两极化的当下。
"当我们反复接触相同观点,它们会变得熟悉,而熟悉感常被误认为是真相,"周博士解释,"久而久之,如果'女性不忠'或'女性只在乎金钱或地位'这类信息被不断重复,它们会不再刺耳,甚至可能开始显得合理或具有代表性——即使人们最初并没有明确认同这些观点。"
"AI视频放大了这些效应。它们的庞大数量会让这些观点显得比实际情况更普遍。"
侵蚀儿童性别认知
更令人担忧的是,部分视频被标注为#kidscartoon、#storyforkids、#kidshorts和#fruitstory。有时算法会无意中将这类内容推送给孩子。
"算法通常不会专门向年轻用户推送有害内容,包括厌女内容,"庞副教授澄清。她表示,虽然社交媒体平台有保护年轻用户安全的政策,但由于这类内容的设计方式,它们最终可能还是会被推给年轻群体。
她解释,如今合成内容数量激增,厌女内容可能嵌入视频音轨或一系列图像中。而且它们往往不是明目张胆的厌女,而是包含微妙的套路,使算法难以检测。
庞副教授补充,有时年轻用户关注的账号如果点赞或分享过这类内容,他们也可能会被推送。
周博士指出,孩子观看这些视频是因为"它们遵循了儿童节目的视觉和情感语法"。
在儿童尚未形成性别身份和批判性思维的年龄,这种影响尤其有害。
"反复接触这类内容会塑造孩子的性别观念,让他们反复接收到'男孩女孩应该是什么样、应该如何表现、应该扮演什么角色'的暗示。
"如果孩子反复接触将女孩描绘成操纵性强、自私、戏剧化、低人一等或应受责备的内容……这会强化刻板印象,塑造同伴评价,并影响孩子对两性'正常'或'预期'行为的认知。"
周博士警告,这些影响可能比许多成年人预想的更早出现。
研究显示,许多孩子在18至24个月大时就开始理解并使用"男孩""女孩"等性别标签,并用以组织他们对世界的认知。"但学龄前儿童可能还不完全理解厌女这一抽象社会概念,却已开始形成自己的性别偏见和认知脚本。"
"问题不在于四岁孩子是否能完全理解AI视频中的有害信息或出轨、亲子鉴定、背叛等主题——他们很可能不理解。
"问题在于,他们可能仍会吸收潜在的脚本:谁被描绘成坏人,谁被指责,谁被嘲笑,谁受到惩罚,谁被视为可信或不可信。"
周博士建议通过提问帮助儿童和青少年建立媒体素养,例如"这个行为是友善还是刻薄?""你觉得那个人有什么感受?""这个视频在嘲笑谁?""这个视频做出了什么假设?"
平台正在尝试监管此类内容。TikTok正在更准确地标注AI生成内容,并于2025年11月宣布测试新控制功能,允许用户调整For You feed中AI内容的数量。
社交媒体平台也有政策指导方针禁止骚扰、仇恨言论、性剥削或未经同意的图像。但大多数厌女内容往往不触及这些界限,因而被忽视。
"平台对AI生成内容的审核和标注很重要,我们需要继续推动平台提高标准,"庞副教授说。
"最让我担心的是,这些AI视频虽然看起来愚蠢、色彩鲜艳、荒谬且幼稚,但背后的观点并不新鲜。它们可能呼应了更严肃内容中的厌女信息,比如伪知识分子播客、辩论或网红内容,"周博士补充。
"当这些观点在不同的形式中重复出现,它们会开始变得不那么边缘化,更像是日常现实的一部分。"
所以,别再把AI垃圾内容只当作笑话,也别盲目消费。厌女并不可爱,就算它披着草莓脸的外皮。