Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

DARPA新项目:探索机器学习的极限

image-2.jpg

机器学习系统的固有局限在哪里?这是一个颇有潜力的新 DARPA 项目——学习的根本局限性( Fundamental Limits of Learning,FUN LoL)的核心问题。


据研究员们所述,FUN LoL 将解决这样一个问题:我们对终极学习机器的探索,如何能以一种系统化、原则性的方式加以测量和跟踪。


「让人工智能智能化并不容易。现在的机器学习技术通常依赖于大量的训练数据、巨大的计算资源、耗费时间的试验与误差方法论。即使如此,这个过程经常会导致已学习的概念无法较为容易地泛化到需要解决的问题上,或无法被利用以学习更加复杂的概念。推进机器学习的过程无疑会越来越有效率——那么,极限是什么呢?到目前为止,几乎没人知道:给定一个学习问题,我们所能做到的极限是什么,甚至不知道这样的极限是如何被决定的。」DARPA 如此宣称道。


在 Fun LoL 项目中,DARPA 正在寻找有有助于回答下述问题的数学框架、结构和方法方面的信息:


  • 为了达到足够准确的训练,我们所需的必要样本数量是多少?(例如:如果程序员们提供出一个关于今年的赢家机器的训练集合,其步骤少于三千万个,那么,这是否足够战胜一个 Go 的大冠军?你是怎么知道的?)

 

  • 有哪些重要的取舍,它们的结果是什么(例如:大小、准确度、处理能力考虑)?

 

  • 针对一个提出的问题,一个给定的学习算法到底多「有效」?

 

  • 人们期盼的学习算法所达到的性能表现距离它的极限还有多远?

 

  • 噪音与误差在训练数据中的影响是什么?

 

  • 哪些潜在收益可归功于生成数据的模型统计结构?


「我们已经看见机器学习和人工智能让计算机在围棋、国际象棋和 Jeopardy 上击败了人类所取得的进展。」DARPA 的项目经理 Reza Ghanadan 说道,「然而,我们所缺乏的仍然是基本理论框架去理解数据、任务、资源和性能估测之间的关系——这些可以让我们更有效地教会机器把既有知识推广到新的场景中。通过 Fun LoL,我们正在解决这样一个问题,对终极学习机器的追求,如何能以一种系统化、原则性的方式加以测量及跟踪。」


就机器学习现在的情况而言,即使任务出现一个小的变化,也需要程序员创造一个全新的机器教学过程。「例如,如果你稍微改了几条围棋规则,机器就无法根据已知的东西进行泛化。程序员也需要从头开始,重新加载一个数据组,用数以千万计的棋招来解释更新后的游戏规则。」


近来,已经有很多研究致力于支撑机器学习。谷歌就是个例子。今年早些时候,谷歌宣布了一款新的云机器学习服务的内测版,其他公司就可以借此创造一个定制化机器学习模型。为此,用户们需要利用他们存在谷歌另一个云服务中的数据。云机器学习处理数据消化与训练,接着利用导出的机器学习模型进行预测。


去年 Intelligence Advanced Research Projects Agency(IARPA) 的研究员称,他们的五年项目,即 Machine Intelligence fromCortical Networks(MICrONS)将为参与者提供一个「独一无二的好机会,他们可以提出最有望推进神经计算理论发展的生物学问题,并通过仔细规划试验和数据分析找到其中答案。」


IARPA宣称道:「项目进展过程中,随着对大脑的表征、变换以及学习规则理解的日益加深,参与者可以利用这些知识创造出更加强大的、源于神经机制的机器学习算法。MICrONS 的终极计算目标,包括执行复杂信息处理任务比如一次性学习、非监督式集群与场景解析的能力。最终,随着执行任务的人将这些洞见纳入机器学习算法的后续愿景中,他们会找到办法,设计出像人类一样熟练进行复杂信息处理的机器学习算法。」


它还说道,「尽管机器学习在过去几年取得了显著的进步,但是,现在最新进的算法依然脆弱,无法很好地泛化。与此鲜明对比的是,在出现强烈噪音和非线性变换(non-linear transformations)时,大脑仍能稳健区分、分类信号,还能从一个简单样本向外推断到所有刺激类型。」


IARPA 说,神经科学和机器学习之间有效知识传输的速率非常慢,因为不同的科学重点、资金资源、知识资料库与词汇。因此,过去几年出现的神经计算方面的观点,鲜有被现代机器学习算法吸收进去。

入门机器学习DARPA局限性产业
暂无评论
暂无评论~