不好意思我们都搞错了,脸书的 AI 并没有「失控」

2020-06-14
623 评论
436 人参与

不好意思我们都搞错了,脸书的 AI 并没有「失控」

Facebook 关闭「失控」人工智慧系统,因其发展出人类无法理解的语言。
吓死了。

事情是这样的:据「外媒报导」,Facebook 开发的聊天机器人创造了自己的语言。虽然语言还是英语,但人类无法理解。

不好意思我们都搞错了,脸书的 AI 并没有「失控」

 

文章来源是 TechWeb 的编译组 。「Facebook 不得不拔掉其研究人员正在研究的人工智慧系统的插头,因为事情失控了」,TechWeb 写道。

关于「人工智慧是否邪恶」的话题,Facebook 创办人祖克柏上週还在跟特斯拉 CEO 马斯克争吵。 马斯克站正方,认为人工智慧非常值得担忧,祖克伯站反方,认为人工智慧很有益处,担忧完全是过虑。

所以…… 马克就这幺快打脸了?曾在着名科幻电影「终结者」中出现过的「SkyNet」(天网),真的来临了?

不好意思我们都搞错了,脸书的 AI 并没有「失控」

抱歉,这完全是在胡扯。我们来看看到底是怎幺一回事。

Facebook 的人工智能研究院(FAIR)想要训练一个聊天机器人,让它学会谈判。于是他们开发了一个人工智慧体系 。为了帮助大家理解,我们一步一步解释:

这个结构叫做「生成式对抗网路」(Generative Adversarial Networks),以下简称 GAN。

你可以把神经网路理解为一种多层次的,模仿人脑神经元之间相互连接的思考方式的「电脑程序」。

而 GAN 是一种在目前非常先进的神经网络结构,可以理解为两个神经网路玩「街霸」。玩的越多,时间越长,大家的水平都会越来越高当然,GAN 也有三个甚至更多个神经网路的结构。

聊天机器人你肯定见过:苹果 Siri 就是一个。亚马逊 Alexa 和 Google Assitant 也是。

Facebook 的这项研究也是如此。研究人员训练了这样一个聊天机器人,让它带着「目的」和人类对话。而这个目的也很简单:一共有两本书,一顶帽子和三个篮球,三样东西分别设定了不同的权重,为的是让机器人明白它到底对这些东西有多想要,然后去和人谈判。

Facebook 观察到的结果是比较正常的,体现在下图中:

不好意思我们都搞错了,脸书的 AI 并没有「失控」

但是人跟机器人聊天已经不稀奇了…… 两机器人能聊成啥样?研究人员都很感兴趣。

今天的对话就发生在聊天机器人 Alice 和聊天机器人 Bob 之间:

不好意思我们都搞错了,脸书的 AI 并没有「失控」

什幺鬼?

原来,研究人员在把这两个聊天机器人拼到一起,但忘了给神经网路设定「用英语沟通」的激励。

刚才说了,神经网路是个程序,里面有一大堆各种线性的数学公式。但有时候线性的公式无法取得想要的结果,有些非线性的需求没法用线性公式表达出来,这时候就要设定一个激励函数激励这件事对于神经网路,简单来说就是告诉神经网路「这样做得分更高。」– 傻子都能理解。

「坚持用英语说话没有激励,」这个研究小组的成员之一,乔治亚理工学院的访问学者 Dhruv Batra 这样解释 Alice 和 Bob 奇怪的对话。「机器人会脱线发明一些它们之间才能理解的句法」。

结果, Alice 和 Bob 就聊成了这样。等于是研究人员告诉了它们:「请用英文」,但忘了告诉它们:「请用英文语法」。

研究人员真的是因为「事情失控了」,才「不得不拔掉系统的插头」吗?事情真的像听上去那样令人心惊胆颤吗?

并非如此。

「我们的目标是让机器人和人聊天(提高和人聊天的技巧)。」小组的另一名研究员 Mike Lewis 指出,Alice 和 Bob 的对话根本就是个试验而已,让两个聊天机器人聊天根本没有意义。

不好意思我们都搞错了,脸书的 AI 并没有「失控」

而且,Alice 和 Bob 根本就没有发明新的语言,因为他们还在于「i」,「balls」,「the」等英文单词沟通,只是创造了一种新的表达方式而已。

而且他们「发明」的新语言,人类真的听不懂吗?

再看一遍它们的对话:

如果你明白了前面描述的试验目的,很容易就能明白它们的套路。句法的确是乱的,但一句话里给我重複的越多,这个东西对我的意义越大(权重越高)。

翻译过来就是:

难理解吗?

而且根本不是在谈判,就是很普通的表达而已。不给就吵嘛……

Facebook 并没有「关掉」这个系统,而是重新设定了正确的激励,修正了机器人的行为,让机器人使用标準的英文语法来进行交流。 修正的原因也不是因为害怕 AI 失控 – 他们的目标是让机器人和人聊天(提高和人聊天的技巧)。两个聊天机器人聊天根本没有意义。

GAN 这个东西,苹果曾经用它搭建了一个系统,让它自动合成足以以假乱真的图片。但设计的目的并非欺骗人,而是为学界和业界的其他研究者带来帮助。因为训练神经网路需要大量的图片,但世界上已有的,已标记的图片数据库也就那幺多,苹果的这项研究,能自动创建带标记的,能被用来训练的图片,解了大家燃眉之急。

不好意思我们都搞错了,脸书的 AI 并没有「失控」

今年二月,我介绍过 Google 本部的人工智慧团队 Google Brain 的 另一个实验 :同样用 GAN,他们训练了三个机器人 Alice,Bob 和 Eve,让 Alice 和 Bob 俩人从零开始琢磨出一个加密方法,让 Eve 来猜。这三个网路的加密学知识都是 0,但随着训练次数越来越多,Alice 和 Bob 默契越来越好,Eve 也破解不了。

不好意思我们都搞错了,脸书的 AI 并没有「失控」

– 这才是发明了人类都不懂的语言。可也没看见 Google 着急啊。

人工智慧能够帮助人类做很多事情。比如图像识别技术就被投入到图片搜索引擎中。当你在搜索引擎里搜索关键词,选择图片,才能找到符合描述的照片。

不好意思我们都搞错了,脸书的 AI 并没有「失控」

再比如语音识别和自然语言理解技术。当你和 Siri,Alexa 说话的时候,它们才能比较準确地理解你的意图。

从神经网路技术的发展程度来看,人工智慧的确很厉害,但我可以告诉你的是:图像识别,语言理解準确度上能做到现在这幺高,完全是因为人类编程调优的结果。

它既不知道自己是谁,也不知道自己在哪儿,更不知道自己在干什幺。

所以和人工智慧相比,那些成天瞎吹人工智慧威胁论的人才更可怕吧……

上一篇: 下一篇:

精彩推荐