“人工智能之父”杰弗里·辛顿呼吁禁止“超级智能人工智能”

“人工智能之父”杰弗里·辛顿(Geoffrey Hinton)与政治、娱乐和技术等领域的其他知名人士一起呼吁禁止人工智能超级智能。

一群科学家和公众人物在非营利性生命未来研究所发表的一份声明中呼吁禁止开发超级人工智能,直到达成广泛的科学共识,认为超级人工智能可以安全且受控地完成。就上下文而言,超级智能人工智能是指比人类能力强得多的系统。

除辛顿外,其他签署者还包括苹果联合创始人史蒂夫·沃兹尼亚克、哈里王子、经济学家达伦·阿西莫格鲁以及美国前国家安全顾问苏珊·赖斯。

尽管早些时候有人呼吁减缓人工智能的发展,包括同一家机构的呼吁,但这一最新声明脱颖而出,因为它拥有许多来自不同专业和政治背景的新支持者。

禁止呼吁“超级智能”人工智能研究/工具

苏塞克斯公爵哈里王子在声明中表示:“人工智能的未来应该为人类服务,而不是取代人类。进步的真正考验不是我们行动有多快,而是我们驾驭得有多明智。”演员兼电影制片人约瑟夫·高登-莱维特说:“是的,我们需要特定的人工智能工具来帮助治疗疾病、加强国家安全等。但是人工智能是否也需要模仿人类、培养我们的孩子、把我们所有人变成垃圾瘾君子并通过广告服务赚取数以百万计的美元?大多数人不希望这样。但这就是这些大型科技公司在谈论建立‘超级智能’时的意思。”

基督教领袖大会主席兼白宫福音派顾问约翰尼·摩尔在一份声明中表示,“我们应该迅速开发强大的人工智能工具,帮助治愈疾病和解决实际问题,而不是无人知道如何控制的比人类更聪明的自主机器。创造超级智能机器不仅危险和不道德,而且完全没有必要。”

OpenAI、Meta 不顾禁令继续前进

这一呼吁出现之际,大型科技公司正在加速创造通用人工智能(AGI)并超越它。 Meta 的马克·扎克伯格 (Mark Zuckerberg) 去年表示,超级智能现已触手可及,而 OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 则相信超级智能可能会在 2030 年实现。仅今年一年,各公司就在人工智能基础设施上投资了数千亿美元。

就连 OpenAI 的员工 Leo Gau 也选择支持这一呼吁,这标志着奥特曼描述的专注于超级智能研究的公司内部罕见的举动。

这是生命未来研究所的第二项重大努力。它在 2023 年早些时候的信中呼吁暂停人工智能开发六个月,但这并没有减缓进展。新的活动目标更狭窄——特别是针对超级智能的风险。