首页> 软件教程> 超三千名顶级大佬齐呼吁:暂停超级智能研发 没有坚实证据确保安全

超三千名顶级大佬齐呼吁:暂停超级智能研发 没有坚实证据确保安全

作者:佚名 时间:2025-10-26 14:57:01

10月26日快科技消息,中美两国人工智能领域的顶尖专家和技术领袖联名发起一项呼吁,在科学界达成安全可控开发超级智能的广泛共识前,应暂停超级智能的研发。

这项倡议由非营利组织未来生命研究所发起,目前已获多位重量级人士签名支持,包括人工智能先驱杰弗里辛顿、苹果联合创始人史蒂夫沃兹尼亚克、维珍集团董事长理查布兰森、经济学家达龙阿西莫格鲁,以及前美国国家安全顾问苏珊赖斯。此外,哈里王子与夫人梅根、前政治顾问史蒂夫班农等公众人物也参与联署。

截至10月23日中午,联署人数已达3193人。中国学界亦有重要代表加入,包括中国科学院院士、图灵奖得主姚期智,清华大学讲席教授张亚勤,以及清华大学苏世民书院院长薛澜等。

所谓超级智能,指的是在所有认知任务上超越人类水平的人工智能形态。尽管目前大多数公司所研发的仍属于通用人工智能(AGI),但超级智能所预示的能力已引发业界普遍忧虑。

声明中指出,多家领先的AI企业正竞相投入超级智能的研发,这一趋势引发了广泛担忧,包括人类在经济上被取代与边缘化、自由与公民权利受损、尊严与控制权丧失,乃至国家安全风险,甚至可能带来人类灭绝的极端威胁。

当前,超级智能已成为AI领域的热词。从埃隆马斯克的xAI到萨姆奥特曼领导的OpenAI,多家机构正积极推进更先进的大语言模型研发。Meta甚至将其大语言模型部门直接命名为Meta超级智能实验室。

在这一背景下,科技界对人工智能发展的态度日益分化:一方视AI为推动社会进步的关键力量,主张自由发展;另一方则强调其潜在风险,呼吁加强监管。

值得注意的是,即便是马斯克、奥特曼等身处AI研发前沿的领军人物,过去也曾对超级智能的风险发出警告。例如,奥特曼在2015年的一篇博客中写道:发展超人类机器智能可能是对人类持续存在的最大威胁。

中国科学院计算技术研究所研究员曾毅指出,目前绝大多数企业所研发的仍属通用人工智能工具,并非真正意义上的超级智能。然而,超级智能所带来的风险目前在科学上仍无法有效控制。他特别提到,美国企业如Meta设立超级智能实验室,以及阿里巴巴等中国公司公开宣称研发超级智能,这些动向已超出通用人工智能工具的范畴,值得高度关注。

超三千名顶级大佬齐呼吁:暂停超级智能研发 没有坚实证据确保安全

以上就是全部内容,喜欢的话记得收藏本站,我们将持续为您带来更多精彩内容。

相关阅读

人气下载推荐