【新智元导读】「AI 教父」Geoffrey Hinton 在最近的采访中表达了自己对 AI 智能的理解 ——LLM 并不是简单的统计模型,已经具备了理解能力。与此同时,网友翻出了去年 12 月的「过期」视频,惊奇地发现 Hinton 早就「叛变」了,竟然对超级 AI 取代人类的未来表示支持。
最近,半退休的「AI 教父」Geoffrey Hinton 频频出现在各种采访中,输出他关于 ASI 的各种言论和观点,甚至只是聊点生涯轶事都可以引起网友们的热烈讨论。
不到一个月之前,他就揭发了爱徒 Ilya 在暑假受够了炸薯条的工作,结果投奔自己实验室的经历。
虽然这些演讲和采访内容各异,但 Hinton 始终不忘一点 —— 提示我们注意 AGI 安全和飞速发展的智能,并预告它们将代替人类的「赛博朋克」未来。
对于 AI,Hinton 的想法和感情比起我们想必要复杂许多。
在神经网络「坐冷板凳」的那些日子里,他守着自己的实验室和两名研究生「不离不弃」,最终等到了深度学习大放异彩的时代。
在 2013 年入职谷歌后,Hinton 成为「教父」,一边亲眼看着自己孩子一样的 AI 快速成长,一边逐渐担心「少年终成恶龙」。最终他选择了与自己创造的世界搏斗,过上了致力于警告 AI 安全的退休生活。
Hinton 最近一次的公开露面是 BNN 彭博社 6 月 15 日进行的独家采访。
Hinton 在采访中输出的「AI 具有理解能力」的观点引起了 Reddit 社区的广泛讨论。
如果「理解」的意思是 LLM 能否对某个概念建立复杂的内在表示,那么答案是肯定的。如果「理解」的意思是 LLM 能否用与人类相同的方式理解概念,那么答案是否定的(否则模型不会在诗歌方面如此出色的同时有如此差的算术能力)。
毕竟,「AI 能否理解」,这个问题既模糊,又在社区内存在极大的争议和分歧。
Hinton 坚决反驳了一种流行的观点,即 LLM 仅仅是统计技巧,并不能真正理解自然语言的含义。
他表示,这是完全错误的。类似于「词袋」(bag of words)或者 N 元组(N-gram)这种曾经的语言模型,内部保存了一个很大的有概率分数的单词组合表,的确是依靠统计概率工作。
说到这里,身为英国人的 Hinton 非常自然地用国菜开始举例。
比如单词表里会显示,「鱼」和「薯条」经常出现在一起。因此模型看到「鱼」这个单词,自然就会预测下一个单词是「薯条」,丝毫不考虑上下文。
这就是为什么,曾经的统计语言模型在自动补全功能上的表现很差。
但当今 LLM 的工作原理已经完全不同了。现在,模型预测下一个单词的方法是理解你到目前为止所说的话。
比如,想要回答人类的问题,LLM 必须首先理解问题的含义,否则根本无法预测答案的第一个单词。从这个角度理解,单词预测任务(next token prediction)相当于是倒逼 LLM 发展出理解能力。
Hinton 的言语中透露出,他也相信 Scaling Law 的存在。随着模型逐渐扩展,加上更多 Transformer 这样的技术突破,AI 终将变得比人类更智能,只不过是时间早晚的问题。
主持人反问他,变得更聪明的技术一定会带来风险吗?
Hinton 的回应一针见血 ——「你能举出多少例子,说明更聪明的在被不太聪明的控制?」
他提到,好友 Yann LeCun 的观点就与自己不同,认为 AI 非常安全。但 Hinton 的论据是,AI 已经达到了构建智能体(agent)的程度,能够自主创建目标。
这些目标会驱动智能体攫取更多控制权,会希望避免毁灭、建立自我保护,某种程度上这是一种自身利益,也许就是进化的开始。
那么人类呢?
Hinton 预言,如果 AI 开始进化、最强的一方获胜,人类就会被遗忘,被碾压进尘土(原话:left in the dust)。AI 将从孩子变成我们的父母,接管一切。
这听起来的确是科幻小说的场景,但对 Hinton 是认真的,「我不再认为这听起来很科幻,而是现实存在的威胁。」
上面彭博的这篇最新采访中,Hinton 谈到了 AI 取代人类的可能。
Reddit 网友随后翻出了一个去年 12 月的访谈视频,同样涉及「AI 取代人类」的话题,但这一次,Hinton 的观点更加让人惊讶 ——
他宣称,自己实际上是支持 AI 的!
事情起源于采访最后的一名观众提问,原问题是这样的:
「如果一个超级智能 AI 摧毁了人类,但客观上创造了一种意识层面上更好的物种,您个人是支持还是反对这种结果?如果反对,您建议用什么方法,在面对超级智能 AI 时维持人类意识的存在或主导地位?」
接下来,Hinton 用平静的语气回答道:「我实际上是支持的,但我认为表示反对是更明智的说法。」
采访者表示,你展开说说?
但 Hinton 只是非常谨慎地给出了一句话,「人们不喜欢被取代」。
采访者继续追问原因,Hinton 首先叠甲,「人类有很多好的方面,也有很多不那么好的方面」。
之后给出了一段令人深思的解释:「目前我们还不清楚什么是最好的智能形式。显然,从人的角度来看,一切都与人有关。但未来有一天,我们可能会把『人文主义』看成一种类似于种族主义的概念。」
这段对话在 Reddit 上同样是一石激起千层浪。
发帖的博主都十分惊讶于 Hinton 的激进态度,而且他被要求展开解释时似乎态度非常坚决,即使他心知肚明,「表示反对是更明智的说法」。
有人严厉批评,认为他不顾人类这个物种的生存和整体福祉,这是「愤世嫉俗」、「虚无主义」的表现。毕竟,人都没了,要那么先进的 AI 技术有什么用呢?
「很难想象比这更愤世嫉俗的行为了。」
「我认为很多未来主义者都嘲讽人文主义的价值,希望在任何可能的情况下将人类因素从『方程』上移走。」
但也同样有支持和理解的声音,认为 Hinton 并不是愤世嫉俗、憎恶人类,只是清醒意识到了一个现实 —— 人类不是造物的顶峰。
进化会继续,更好的物种必然出现,他只是用一种更开放、坦然的心态接受了这个事实。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。