您现在的位置是:首页 >每日动态 > 2024-06-18 14:10:10 来源:

AI教父Hinton:我支持超级AI取代人类!

导读 【新智元导读】「AI教父」Geoffrey Hinton在最近的采访中表达了自己对AI智能的理解——LLM并不是简单的统计模型,已经具备了理解能力。与...

【新智元导读】「AI教父」Geoffrey Hinton在最近的采访中表达了自己对AI智能的理解——LLM并不是简单的统计模型,已经具备了理解能力。与此同时,网友翻出了去年12月的「过期」视频,惊奇地发现Hinton早就「叛变」了,竟然对超级AI取代人类的未来表示支持。

最近,半退休的「AI教父」Geoffrey Hinton频频出现在各种采访中,输出他关于ASI的各种言论和观点,甚至只是聊点生涯轶事都可以引起网友们的热烈讨论。

不到一个月之前,他就揭发了爱徒Ilya在暑假受够了炸薯条的工作,结果投奔自己实验室的经历。

虽然这些演讲和采访内容各异,但Hinton始终不忘一点——提示我们注意AGI安全和飞速发展的智能,并预告它们将代替人类的「赛博朋克」未来。

对于AI,Hinton的想法和感情比起我们想必要复杂许多。

在神经网络「坐冷板凳」的那些日子里,他守着自己的实验室和两名研究生「不离不弃」,最终等到了深度学习大放异彩的时代。

在2013年入职谷歌后,Hinton成为「教父」,一边亲眼看着自己孩子一样的AI快速成长,一边逐渐担心「少年终成恶龙」。最终他选择了与自己创造的世界搏斗,过上了致力于警告AI安全的退休生活。

AI不是统计技巧,而是有理解能力

Hinton最近一次的公开露面是BNN彭博社6月15日进行的独家采访。

Hinton在采访中输出的「AI具有理解能力」的观点引起了Reddit社区的广泛讨论。

毕竟,「AI能否理解」,这个问题既模糊,又在社区内存在极大的争议和分歧。

Hinton坚决反驳了一种流行的观点,即LLM仅仅是统计技巧,并不能真正理解自然语言的含义。

他表示,这是完全错误的。类似于「词袋」(bag of words)或者N元组(N-gram)这种曾经的语言模型,内部保存了一个很大的有概率分数的单词组合表,的确是依靠统计概率工作。

说到这里,身为英国人的Hinton非常自然地用国菜开始举例。

比如单词表里会显示,「鱼」和「薯条」经常出现在一起。因此模型看到「鱼」这个单词,自然就会预测下一个单词是「薯条」,丝毫不考虑上下文。

这就是为什么,曾经的统计语言模型在自动补全功能上的表现很差。

但当今LLM的工作原理已经完全不同了。现在,模型预测下一个单词的方法是理解你到目前为止所说的话。

比如,想要回答人类的问题,LLM必须首先理解问题的含义,否则根本无法预测答案的第一个单词。从这个角度理解,单词预测任务(next token prediction)相当于是倒逼LLM发展出理解能力。

Hinton的言语中透露出,他也相信Scaling Law的存在。随着模型逐渐扩展,加上更多Transformer这样的技术突破,AI终将变得比人类更智能,只不过是时间早晚的问题。

主持人反问他,变得更聪明的技术一定会带来风险吗?

Hinton的回应一针见血——「你能举出多少例子,说明更聪明的在被不太聪明的控制?」「拜登当选之后就不再有了吧?」

他提到,好友Yann LeCun的观点就与自己不同,认为AI非常安全。但Hinton的论据是,AI已经达到了构建智能体(agnet)的程度,能够自主创建目标。

这些目标会驱动智能体攫取更多控制权,会希望避免毁灭、建立自我保护,某种程度上这是一种自身利益,也许就是进化的开始。

那么人类呢?

Hinton预言,如果AI开始进化、最强的一方获胜,人类就会被遗忘,被碾压进尘土(原话:left in the dust)。AI将从孩子变成我们的父母,接管一切。

这听起来的确是科幻小说的场景,但对Hinton是认真的,「我不再认为这听起来很科幻,而是现实存在的威胁。」

超级AI取代人类

上面彭博的这篇最新采访中,Hinton谈到了AI取代人类的可能。

Reddit网友随后翻出了一个去年12月的访谈视频,同样涉及「AI取代人类」的话题,但这一次,Hinton的观点更加让人惊讶——

他宣称,自己实际上是支持AI的!

事情起源于采访最后的一名观众提问,原问题是这样的:

「如果一个超级智能AI摧毁了人类,但客观上创造了一种意识层面上更好的物种,您个人是支持还是反对这种结果?如果反对,您建议用什么方法,在面对超级智能AI时维持人类意识的存在或主导地位?」

接下来,Hinton用平静的语气回答道:「我实际上是支持的,但我认为表示反对是更明智的说法。」

采访者表示,你展开说说?

但Hinton只是非常谨慎地给出了一句话,「人们不喜欢被取代」。

采访者继续追问原因,Hinton首先叠甲,「人类有很多好的方面,也有很多不那么好的方面」。

之后给出了一段令人深思的解释:「目前我们还不清楚什么是最好的智能形式。显然,从人的角度来看,一切都与人有关。但未来有一天,我们可能会把『人文主义』看成一种类似于种族主义的概念。」

这段对话在Reddit上同样是一石激起千层浪。

发帖的博主都十分惊讶于Hinton的激进态度,而且他被要求展开解释时似乎态度非常坚决,即使他心知肚明,「表示反对是更明智的说法」。

有人严厉批评,认为他不顾人类这个物种的生存和整体福祉,这是「愤世嫉俗」、「虚无主义」的表现。毕竟,人都没了, 要那么先进的AI技术有什么用呢?

「很难想象比这更愤世嫉俗的行为了。」

「我认为很多未来主义者都嘲讽人文主义的价值,希望在任何可能的情况下将人类因素从『方程』上移走。」

但也同样有支持和理解的声音,认为Hinton并不是愤世嫉俗、憎恶人类,只是清醒意识到了一个现实——人类不是造物的顶峰。

进化会继续,更好的物种必然出现,他只是用一种更开放、坦然的心态接受了这个事实。

参考资料:

https://www.youtube.com/watch?v=iWPo7Yhg7Vc&t=3327s

https://www.youtube.com/watch?v=g_Lhmhj1894