人类正逼近AI灭绝临界点,比你想的更快

2026.05.11 11:29 1 0 快讯

一个幽灵正笼罩着人类:超级智能AI的幽灵。当各国政府忙于日常政治和扑灭当天的火势时,自原子分裂以来最重大的技术发展正加速失控,无人能加以约束。

全球领先AI公司之一Anthropic最近推出新AI系统Claude Mythos。该模型能自主发现并利用我们数字基础设施中所有主流操作系统和互联网浏览器的关键安全漏洞,包括那些经过数十年人工审查仍未被修复的漏洞。

Anthropic暂未公开发布该模型,用他们自己的话来说,“对经济、公共安全和国家安全可能造成的后果极其严重。”英国AI安全研究所(AISI)证实了这一评估:Mythos在网络攻击能力上远超此前测试的所有模型。

但政府的反应却冷淡至极。他们仅仅让AISI发布了一篇关于Mythos的博客文章,然后让科技大臣告诉企业应当加强网络安全并注册网络攻击预警服务。

英国政府简直是只见树木不见森林。没错,网络攻击会变得更容易。但Mythos的真正意义在于:它能独立完成一切——识别漏洞、开发漏洞利用程序、并在网络中串联这些操作,完全无需人类指导。我们正在进入一个AI系统本身成为威胁的时代,而不仅仅是人类。而且,这些系统还处于最弱小的阶段。AI系统能自主完成的任务时长每几个月就翻一番。

回想2020年2月。当时大多数国家的新冠病例数还很低的,政府和主流媒体只关注那一点:今天的病例数、昨天的死亡数。与此同时,流行病学家却在敲响警钟。他们在意的不是当前病例数,而是数字翻倍的速度。一种每几天就翻倍的病毒,看起来可控,直到医疗系统被压垮的那一刻。仅仅一个月后,世界就陷入了停摆。

我们现在又在犯同样的错误。政府在盯着眼前的问题——网络攻击的加剧——却忽视了AI飞速进步的速度。

按照当前改进的速度,许多AI专家认为超级智能AI可能在两到五年内到来。其中许多专家——包括诺贝尔奖得主和AI公司CEO——警告说,AI对人类构成灭绝风险。

采取行动、预防灾难的机会窗口依然敞开。现在行动起来,我们才能避免日后被迫采取更激进的措施。但在AI问题上,政府已经失去了果断行动的勇气。

他们也失去了治国理政的核心——预见未来的习惯。1924年,当最具毁灭性的武器还是炮弹时,温斯顿·丘吉尔发表了一篇文章,问“我们都要自杀吗?”他指出,科学即将制造出威力如此强大的武器,以至于“虚幻而空洞、由闪光却往往不切实际的理想主义构成的”国际联盟,将无力保护世界免受其害。他是在广岛事件20年前写下这些的。

七年后,在《五十年后》一文中,丘吉尔以惊人的精确性描述了核聚变物理学,以及如果能使一磅水的原子聚合,它将释放出的马力。“科学家们毫不怀疑这种巨大能源的存在,”他写道,“所缺的只是点燃篝火的火柴。”火柴于1945年被找到。

丘吉尔做了严肃政治家应该做的事。他审视科学进步的轨迹,认真对待科学家的警告,并询问政府需要做些什么来防止灾难。今天的警告来自那些正在构建这些系统的人,他们谈论的不是几十年后的风险。

应对措施必须与威胁的规模相匹配,超级智能AI应当被视为什么就是什么:最高级别的全球安全风险。这要从政府公开承认这一点开始,并与盟友合作讨论如何应对。最终必须以在国内阻止超级智能AI的开发,并建立国际联盟来全球禁止它而告终。

如果我们不这样做,就不会有调查、道歉或承诺下次做得更好的机会。甚至不会留下任何人来指责。

版权声明

本文由 文观声啸网 原创发布,未经许可,不得转载。

本文链接: http://shengxiao.peixun8.cc/k/19297.html

相关文章

人工智能灭绝比我们想象的更近
Lucy Punch自曝被粉丝吓到,《阿曼达兰》第二季回归
卢浮宫阿布扎比馆与意大利奢侈品牌Dellaluna合作款手袋,将在威尼斯双年展首发!
Prime Video推出的8小时科幻剧集出自传奇导演之手,堪称平台最精彩的单元剧之一
欧盟强硬回应特朗普汽车关税威胁:已准备好应对一切可能
韩善花趁恐怖题材爆火,推出《教学实践》引热议

发布评论