深度学习成为近几年来科技领域的热门词汇,越来越多的人开始谈论这项使人工智能取得突破的技术,并畅想其对未来科技的重要意义,但一些错误的概念也随之产生。Architech Labs的机器学习专家们在
《赫芬顿邮报》撰文,对五种常见的概念混淆进行了澄清。
1.深度学习系统像婴儿一样学习
将深度学习系统比作婴儿,这意味着该系统将会自主成长,并在经历一段时间后走向成熟,但这不是深度学习系统的工作原理。用这个类比来描述深度学习的研究更为准确——因为该领域的研究正处于婴儿期。正如初为父母的人一样,我们对「婴儿期」的理解也处在初级阶段。
2.深度神经网络像大脑一样学习
深度学习系统中的人工神经网络只受到了人类大脑中生物神经网络的一点点启发。尽管深度学习使用的许多术语(例如神经元和激活)都借鉴自脑科学,但这两个系统的工作原理完全不一样。
要理解这一不同可以用深度学习的「大脑」与人类儿童的大脑做比较——至少是用我们目前所知的部分做对比(实际上我们知道得并不多)。二者最大的不同点在于,人类儿童能够探索周围世界,并能在无外部监督的情况下独自形成知识。有了这种无监督学习得来的知识,孩子们能够将所有任务分解成一个个子任务,并各个击破,从而完成任务。
到目前为止,深度学习还不具备这种能力:人们需要把所有东西教给它们,包括这是什么东西、学习完成后应该做什么。研究者们正在探索如何改进这种模型,但现在离目标还很远。
3.人工智能对人类造成了生存威胁
还记得初版《侏罗纪公园》中有一个镜头,杰夫·高布伦饰演的科学家说出了一句经典台词:「科学家太过于关注他们能做什么,而没有停下来想一想他们是否应该做这些事。」20多年后,特斯拉的CEO马斯克再一次提出了这种说法。他在麻省理工学院航空航天部的百周年纪念研讨会上警告说,人工智能为人类造成了有史以来最严重的威胁,并把我们对技术所做的事情比作「召唤恶魔」。
还有一些更温和的思想家(例如俄勒冈州立大学的AI专家Thomas G. Dietterich)则同时强调对人工智能依赖所带来的利弊,以及未来可能出现哪些假设的情形。到底何时会出现与人相当的人工智能?关于这个问题,专家学者们已经争论了很长时间,这就像一场长期上演的统计学猜谜游戏。目前来看,普遍的预计是出现在2040年~2050年之间的某个时间。
在论证时,你当然可以说:技术进步可能会因某一个事件而突然爆发,从而迅速将人类带入可怕的未知世界(有人也称为技术奇点)。你还可以对人类的任何方面做出同样的预测:人口爆炸,原材料和能量耗尽,瘟疫,自然灾害,债务,社会不平等,核战争等等。
而辩论的对方则更积极乐观些。他们认为,深度学习已经赋予了我们处理上述问题的能力,比如拥有了获取信息的更好途径、更多设计药物的先进工具以及更精巧的模型来进行科学研究,这些研究几乎涉及到所有领域。
不过,当我们决定将AI带入生活时,我们要知晓其中的利害关系并保持警戒心。目前,许多大公司都在「偷偷摸摸」挖掘我们的搜索引擎数据,以便于向我们的邮箱或社交媒体中推送精准定向的广告。对此,人们的态度十分暧昧。这距离可怕的反乌托邦情境还很远,但它让人们开始对隐私和压制展开了严肃的讨论。对任何新技术,不管是生物技术、纳米还是无人驾驶,都必须考量其未来的潜在风险,并利用假设的情景设置新的讨论框架,对技术是否符合伦理进行严肃的辩论。
4.深度神经网络已经能像人类一样理解世界
[caption id="attachment_7731" align="aligncenter" width="570"]
Robot and human touching forefingers[/caption]
现阶段,最好的深度神经网络可以在无监督的情况下从大量例证中学习,具备了保持语义连贯的组织知识的能力。例如,深度学习系统「学习」了大量文本信息之后,比如说整个维基百科,能够通过一些类比问题进行学习,比如说,国王-男人+女人=王后;或者,法国-巴黎+伦敦=英国。但是,不管这些系统的表现有多么令人印象深刻,这与人类凭借直觉来理解世界的方式还是cun zai天壤之别。
机器的终极目标是能够以人类一样的认知方式来理解世界,因此我们就能按照我们使用自身直觉的方式来使用它们。搜索引擎就是个很好的例子,我们在搜寻信息时,往往是提取出关键词输入到搜索引擎的对话框,但我们却无法保证机器一定可以理解我们的真实意图。而当我们向人类询问同样信息时,我们就可以非常顺畅的与之交流,因为我们人类对外部世界有着共同的理解。
主流搜索引擎正在将自然语言处理技术纳入其中,这将允许用户能够直接向计算机提出自己的需求,而不是输入一个个孤立的关键词。但是,就我们目前在这方面取得的进展而言,我们距离实现「人机直觉交互」还有很长的路要走。
5.拥有人工智能的机器人将很快具有自我意识
TechRada近期发表的一篇文章称,一个机器人通过了所谓的「自我意识测试」。在测试中,纽约伦斯勒理工学院的机器人学家们为一组三个机器人进行了编程:一个机器人被赋予说话的能力,另外两个则设置成沉默状态。然后,研究者询问哪个机器人能够说话,测试目的在于考察这些机器人能否理解自身状态。其中的一个机器人试着回答,「我不知道。」另外两个不能说话的机器人则无法回答。听到自己声音的那个机器人能够自我认定并回复道,「对不起,我不知道!」
一些读者对此项测试的来龙去脉缺乏深入了解,他们用测试结果来证明他们的观点——机器(意识)革命即将到来。但Facebook人工智能实验室负责人、深度学习开创者之一Yann LeCun立刻表示:我们对这种不正常的兴奋应该不予理会,人工智能离拥有自我意识还有十万八千里,人类无需有任何疑虑。
机器之心编译出品,参与成员:赵云峰、汪汪、赵赛坡。