下一个人工智能颠覆可能不会来自法学硕士

虽然语言模型已经占据了所有媒体空间两年,这个想法可能会令人惊讶,但人工智能的下一个突破很可能不是来自它们。因为在他们的文体轻松和分析能力背后,法学硕士仍然是为单一任务设计的架构的囚徒,即预测下一个单词。然而,这种机制尽管复杂,却无法让他们进行可靠的推理或理解现实世界的动态。

Gregory Renard 在 2023 年的人工智能播客中向我们解释道,法学硕士不知道什么是物理运动,不理解时间连续性,没有对世界的结构化记忆,无法明确操纵因果关系,也不知道如何预测行动的影响。当他“解释”物体如何下落或场景如何演变时,他并没有访问控制场景的物理定律的任何表示,而是重新组合统计相关性,这些相关性通常是正确的,有时是危险的。

这个限制不是错误,而是他们训练的直接结果,因为语言模型不观察对象、轨迹或交互。在这一点上,与人类学习的对比非常有启发性:一个四岁的孩子已经通过他的视觉吸收了比在线可访问的整个公共文本中包含的信息更多的信息。最重要的是,他通过经验学习,不断纠正他的预测。

因此,生成式人工智能遇到了结构性矛盾:尽管它生成的文本具有令人印象深刻的流动性,但它没有组织现实表示的内部机制。她会模仿,但不会理解,所以她的进步能力受到了她本性的限制。

今天,包括 Yann LeCun 在内的许多研究人员都指出了这一僵局。为了跨越真正的门槛,人工智能必须能够预测世界将如何演变。为此,它必须获得一种“内部模型”,使其能够预测、测试假设、计划多项行动并纠正错误。这正是新兴架构的承诺,将成为未来十年的核心: 世界模特联合嵌入预测架构 (JEPA)

这些模型试图填补当今人工智能的不足,随着法学硕士范式的局限性变得明显,这种新方法可能会成为创新的真正基础。这是 Yann LeCun 与他未来致力于先进机器智能的初创公司以及 Jeff Bezos 与 Prometheus 的赌注