Connect with us

Saaspad | China Tech & SaaS News, Trends & Insight

Facebook辟谣:AI系统并非失控 最多只算是一个技术错误

新闻

Facebook辟谣:AI系统并非失控 最多只算是一个技术错误

Facebook辟谣:AI系统并非失控 最多只算是一个技术错误

英国《太阳报》8月1日报道了一则”机器人正在接手人类主动权吗?”的新闻。文中讲到 Facebook最近关停了一项人工智能实验,因为两个机器人开始用自己的语言交流,人类并不知道它们在讲什么。

随后,Facebook关闭“失控”AI系统,机器人发展出人类无法理解的语言等类似这样的标题占据国内各大科技媒体头条。然而笔者并没有跟风,为了弄清事情的来龙去脉,给公众一个客观真实的报道,我们了解到:

Facebook并没有关闭这个AI实验项目,只是做了修正,修正也不是因为“失控”,是因为没有意义。

Facebook的AI是否创造了语言,要看如何定义「语言」。比如说,Python、JavaScript这类计算机语言并非真正的语言,但也会称之为「语言」。

为什么Facebook AI突然会火?

其实这个AI 实验项目在半个月之前都已经有媒体报道过,最近又被媒体提出来,很可能要追溯到前几天Facebook创始人马克·扎克伯格与特斯拉CEO 埃隆·马斯克在twitter 上的那场隔空论战。

马斯克认为,人工智能将威胁人类或引发恐慌,呼吁政府尽快考虑针对这一技术的相关立法与管控;而扎克伯格则认为,人工智能将会让人类的生活变得更安全和美好,那些“反对(人工智能)并鼓吹(因人工智能而引发)世界末日论”的人“非常不负责任”。马斯克随后在推特回复网友转发时说:“我和小扎讨论过这个,他对人工智能认识有限。”

他们两位业界巨头持截然相反的观点,很快便引发科技界争论,甚至学术界的专家也出来战队。这样的大新闻,媒体自然不会放过,Facebook AI项目也是趁上次的争论余热未消,引起了大家注意。

扎克伯格究竟有没有自己打脸?

并没有。

实际情况是这样的,Facebook人工智能研究院(FAIR)想要训练一个聊天机器人,让它学会和人谈判,于是他们人工智能系统开发了神经网络结构,这个结构叫做“生成式对抗网络”(Generative Adversarial Networks,简称GAN)。研究人员希望机器人可以带着“目的”和人类对话。而这个目的也很简单:一共有两本书,一顶帽子和三个篮球,三样东西分别设定了不同的权重,就是想让机器人拥有“意识”,明白它到底对这些东西有多想要,然后去和人谈判。

研究过程中,研究员突发奇想,想看看让两个机器人聊天,他们会聊什么,于是,就出现了网路上传播甚广的“机器人暗语”。

之所以会出现这段看似是英语,却用英语语法解释不通的对话,最后究其原因才发现,研究员在为系统设置激励条件时, 虽然告诉了它们“请用英文”,但忘了告诉它们“请用英文语法”。 换句话说,如果系统中编写针对英语语法的奖励机制,系统就会偏向于更符合英语语法的语言,也就不会出现现在这种情况。

说到底,这最多只能算是一个技术错误。Facebook并没有“关掉”这个系统,而是重新设定了正确的激励,修正了机器人的行为,修正的原因也不是因为害怕系统失控,而是因为这样的对话毫无意义,偏离了研究的最初目的。

本文转自上方网

Continue Reading
You may also like...
Hunter Liu的头像

Click to comment

Leave a Reply

电子邮件地址不会被公开。 必填项已用*标注

More in 新闻

Popular