李飞飞:大模型不具备知觉,参数再多也不行

发布时间:2024-05-25 09:30:06 编辑: 来源:
导读 相信很多大家对李飞飞:大模型不具备知觉,参数再多也不行还不知道吧,今天菲菲就带你们一起去了解一下~.~! 大模型已经具备知觉?AI教母李...

相信很多大家对李飞飞:大模型不具备知觉,参数再多也不行还不知道吧,今天菲菲就带你们一起去了解一下~.~!

大模型已经具备知觉?

AI教母李飞飞的最新回答旗帜鲜明:No。

她和斯坦福逻辑学家、哲学家John Etchemendy刚刚发表一篇合著文章,标题很直接:

文章中还写道:

这与图灵奖得主Yann LeCun的最新观点不谋而合。LeCun的言论还要更犀利一些:

两位大拿同时发声,使得围绕AI知觉的争议话题再度发酵,不少网友已经第一时间加入论战,be like:

那么,在聆听你的观点之前,我们先留下一些思考的时间,一起来看看李飞飞文章具体内容——

不,现在的AI不具备知觉

通用人工智能(AGI)是一个术语,用于描述在人类所能展示的智能的所有维度上,至少和人类具备同等水平的人工智能体。

之所以需要添加“G”,是因为由AI驱动的系统激增,但它们只专注于单一或极少数任务。IBM的“深蓝”可以击败世界冠军卡斯帕罗夫,但即使房间着火,它也不能理解是时候停止下棋了。

现在,通用智能有点像一个神话,至少如果我们自命不凡地认为我们拥有它的话。

在动物世界中可以找到大量智能行为的例子,其结果远远好于人类在类似任务上取得的成果。这么说吧,我们的智力不是完全通用的,但足够通用,足以使我们在大多数环境中完成自己想做的事。

如果我们饿了,我们会去找当地的超市。如果房间着火,我们会去找逃生出口。

通用智能的基本特征之一是“感知力”,即拥有主观体验的能力。知觉是通向通用智能的关键一步。

随着ChatGPT的发布,大语言模型(LLM)时代已经拉开序幕。这立即引发了关于这些算法是否真的具备知觉的激烈争论。

基于LLM的人工智能可能具备的知觉,不仅引发了媒体的狂欢,也深刻地影响到了全球范围内对如何监管AI的态度。

最突出的观点是,“有知觉的AI”的出现可能对人类极其危险,会带来“人类灭绝”、“生存危机”。

毕竟,有知觉的AI可能会发展出自己的欲望,人类无法保证它们不与我们发生冲突。

这篇短文源于一次群聊,目的是反驳LLM可能已经获得知觉的论点。这并不完整全面。我们的主要观点是反对“有知觉的AI”阵营提供的最常见的论点。

为什么有些人相信AI已经获得知觉

在过去几个月里,我们俩与AI领域的许多同事进行了激烈的辩论和对话,其中包括与一些最著名AI科学家的一对一对谈。

AI是否具有知觉一直是一个焦点话题。他们中的一小部分人坚信事实确实如此。以下是其中一位代表的观点:

为什么他们错了

这乍一看很有道理,但这个论点是错误的。两种情况完全不可同日而语。

当你说“我饿了”时,你正在经历饥饿,而我判断你的主观体验是基于大量的事实证据。

首先,是你说的话,也许还有一些其他行为证据,比如肚子的咕咕声。

其次,没有相矛盾的证据,比如你其实刚吃完一顿四菜一汤的大餐。

最后,也是最重要的一点,你我拥有一样的肉体,需要周期性地进食进水,冷时冷,热时热,等等。

而大模型呢?它可以产生一串音节说“我饿了”,但相似之处到此为止。大模型没有身体,根本就不会挨饿。它不具备饥饿所需要的生理机能。

所有的感觉——饥饿、疼痛、坠入爱河,都是大模型根本不具备的生理状态导致的结果。因此大模型不可能对这些状态有主观体验。换句话说,它不可能有感知力。

大模型是在芯片上编码的数学模型,并非如人类一样的具体存在。它没有需要进食、饮水、繁殖、经历情感、生病并最终死亡的“生命”。

理解人类如何生成单词序列,和大模型如何生成相同序列之间的深刻差异非常重要。

当我说“我饿了”时,我是在报告我感知到的生理状态。

当LLM生成“我饿了”这个序列时,它只是在生成当前提示中单词序列最可能的补全。这是概率补全。

我们还没有实现有知觉的人工智能,更大的语言模型也不会让我们实现这一目标。

如果我们想在AI系统中实现知觉,我们需要更好地了解知觉到底是如何在生物系统中产生的。

我们不会在下个版本的ChatGPT中偶然发现知觉。

One More Thing

本文翻译主要由Claude3完成,于是人类编辑也把这个话题抛给了Claude3。

Claude3表示:李飞飞说得对。

以上就是关于【李飞飞:大模型不具备知觉,参数再多也不行】的相关内容,希望对大家有帮助!

免责声明:本文由用户上传,如有侵权请联系删除!

热点推荐

精选文章