
一个幽灵正在人类头顶盘旋:超级智能AI的幽灵。当各国政府忙于日常政治杂务、扑灭眼前的火情时,自原子核裂变以来最具深远意义的技术发展,正以无人能控的速度加速前行。
全球顶尖AI公司Anthropic近日发布了新型AI系统——克洛德·米索斯。该模型能自主发现并利用支撑数字基础设施的各大操作系统及网络浏览器中的关键安全漏洞,包括那些历经数十年人工审查仍未被发现的缺陷。
Anthropic暂未公开该模型,用他们的话说:"对经济、公共安全和国家安全的冲击可能极为严重。"英国AI安全研究所(AISI)证实了这一评估:米索斯在网络攻击能力上远超此前测试的任何模型。
但政府的反应却温吞如水。只是让AISI发篇博客介绍米索斯,再由科技大臣告知企业要加强网络安全防护、注册网络攻击预警服务。
英国政府这是只见树木不见森林。没错,网络攻击的门槛会更低。但米索斯真正的可怕之处在于它能独立完成整套攻击闭环:自主识别漏洞、开发攻击程序、跨网络串联攻击链——全程无需人类指令。我们正步入一个威胁不仅来自人类,更来自AI系统本身的时代。而这,还只是这些系统最弱小的雏形。AI能自主完成的任务时长,每几个月就会翻倍。
让我们回溯到2020年2月。当时多数国家的新冠病例数还很低,政府和主流媒体只盯着每日新增和死亡数据。与此同时,流行病学家们正拉响警报:他们担忧的不是现有病例数,而是感染数字的翻倍速度。一种每几天就翻倍传播的病毒,最初看似可控,直到医疗系统瞬间崩溃——仅仅一个月后,全球陷入停摆。
如今我们正在重蹈覆辙。政府只盯着眼前的问题(网络攻击更易得手),却忽视了AI进化的加速度。
按照当前进步速度,多数AI专家认为超级智能AI可能在2-5年内降临。包括诺贝尔奖得主、AI公司CEO在内的许多专家警告:AI可能给人类带来灭绝级风险。
采取行动、阻止灾难的窗口期依然存在。及时行动,我们就无需日后被迫祭出更极端的措施。但在AI问题上,各国政府已失去果敢决策的魄力。
他们也遗忘了治国之本的前瞻思维。1924年,当最致命的武器还是炮弹时,丘吉尔发表文章《我们都要自杀吗?》他预言科学即将催生威力空前的武器,而"虚无缥缈、由闪耀却常显空想的理想主义构成的"国联根本无法守护世界免遭其害——20年后,广岛核爆印证了预言。
七年后,在《五十年后》一文中,丘吉尔惊人精准地描述了核聚变原理,以及一磅水若能使原子聚合能释放多大能量。"科学家们毫不怀疑这种巨大能源的存在,"他写道,"欠缺的只是点燃这堆篝火的火柴。"火柴终于在1945年被找到。
丘吉尔履行了严肃政治家的本分:审视科学进步轨迹,认真对待科学家的警告,思考政府该如何预防灾难。而今天发出警告的,恰恰是这些AI系统的缔造者,他们谈论的风险并非数十年后才会到来。
应对必须匹配威胁的规模。超级智能AI理应被视作其本质:最高等级全球安全风险。这需要政府公开承认,与盟友共商对策,最终在国内阻止超级智能AI的开发,并构建国际联盟在全球范围内禁用。
如果我们做不到,不会有调查、道歉或"下次改进"的承诺——甚至不会留下任何一个可以指责的对象。