微软人工智能主管穆斯塔法·苏莱曼(Mustafa Suleyman)对人工智能的未来提出了严重警告。他表示,创造比人类更聪明的人工智能系统可能会导致极其困难甚至不可能管理的结果。
感觉不安全的未来
在硅谷女孩播客的一集中,穆斯塔法·苏莱曼 (Mustafa Suleyman) 解释说,一旦人工智能达到可以超越人类极限思考、推理和行动的地步,控制其行为可能不再现实。他认为,这种先进的系统可能会发展出人类无法完全控制或限制的能力或策略。
他还表达了对由这种智能主导的世界的想法的担忧,并表示这种未来对于社会来说似乎不是一个积极或安全的方向。
超级智能作为“反目标”
如今,萨姆·奥尔特曼和马克·扎克伯格等许多科技公司高管都致力于打造更智能的机器。然而穆斯塔法·苏莱曼认为,实际上应该避免超级智能。他将其描述为“反目标”,这是人类不应该努力实现的目标。
他的观点基于一个简单的想法,即即使人工智能变得极其先进,它仍然不会像人类那样思考、感受或体验世界。这些系统感觉不到快乐或痛苦;他们仅根据模式模拟响应。正因为如此,他认为盲目追求最大智能没有任何意义,而且可能会带来不必要的风险。
以人为本的替代方案
穆斯塔法·苏莱曼(Mustafa Suleyman)并没有构建超越人类能力的人工智能,而是提倡他所谓的“人文主义”智能形式。这种方法的重点是开发强大的工具,这些工具与人类价值观保持密切联系并处于人类控制之下。
在他的愿景中,未来的人工智能系统应该帮助人们做出更好的决策、更高效地工作并解决全球挑战——而不是成为超出我们理解范围的独立代理。
科技界的差异
穆斯塔法·苏莱曼 (Mustafa Suleyman) 的谨慎做法截然不同,与其他几位行业领导者的雄心壮志形成鲜明对比。所有这些都在竞相构建人类水平甚至超人类水平的人工智能。一些人认为,达到这种智力水平可能会引发巨大的科学和技术突破。
这种愿景的差异凸显了人工智能社区和科技行业之间日益扩大的分歧,一方推动快速进步。与此同时,另一个则强调安全性、一致性和长期稳定性。
为什么他的警告很重要?
随着人工智能以前所未有的速度发展,穆斯塔法·苏莱曼的担忧加剧了关于该技术应该走多远的持续争论。他的信息很明确,在我们追求无限智能的梦想之前,我们必须首先确保我们创建的系统保持安全、可预测,并牢牢地处于人类控制之下。