清华产业来源

2018年国际大学生类脑计算大赛总决赛在清华大学成功举办

10月13日-14日,2018年国际大学生类脑计算大赛总决赛在清华大学举办。

本文由机器之心经授权转载自清华产业,未经授权禁止二次转载。


本届大赛吸引了84个国内外高校和研究所的近300支队伍报名参赛,参赛作品涵盖了硬件、算法、软件、应用等多个方面。经过严格的筛选与评审,最终组委会评选出16支队伍晋级决赛。同时大赛邀请了来自清华大学、北京大学、英国肯特大学、中科院自动化所、中科院计算所、中国传媒大学、天津大学、北京理工大学和北京灵汐科技的教授与专家担任评委。

清华大学副校长薛其坤院士

开幕式上,清华大学副校长薛其坤院士首先致辞。他代表主办方介绍了大赛举办的背景及目的,并对到场的嘉宾和参赛选手致以亲切的问候,用诙谐幽默而又富有深意的语言表达了清华大学对于本次大赛寄予的期望及信心。

清华大学人工智能研究院副院长孙茂松教授

清华大学人工智能研究院副院长孙茂松教授带来题为《运用之妙、存乎一心——从机器翻译到古诗生成》的学术报告。他阐释了自然语言处理的研究范式经过了从基于规则的理性主义到基于统计的经验主义的转变,但是当前纯粹基于统计的神经网络在处理复杂语义任务时力有不逮。通过神经网络学习高频次语言规则和在网络中加入常识,可能是解决这一问题的有效方案。

清华大学类脑中心主任施路平教授

清华大学类脑中心主任施路平教授做了题为《面向人工通用智能的类脑计算》的学术报告。他首先强调当前的人工智能在解决数据充足、知识完整、静态、确定且单一的问题上取得了巨大成功,但是在处理小样本、非确定、动态和多系统复杂任务时捉襟见肘。人工通用智能是最佳解决方案之一,将脑科学与信息科学结合发展的类脑计算是发展人工通用智能的有效方法。

总决赛晋级团队进行路演

下午,总决赛晋级团队在罗姆楼11层会议大厅进行路演。16支队伍的海报图文并茂,实物展示引人入胜,吸引了校内外各界人士前来观摩。观众徜徉在科技的海洋中,在感兴趣的海报前驻足、欣赏、提问和探讨,现场气氛热烈。经过评委现场评审,12支队伍晋级10月14日的答辩环节,角逐最终大奖。

参赛团队选手答辩

评委老师点评

10月14日,参赛选手最终答辩。闯过预赛且在路演中顺利晋级的12支队伍对自己的作品进行了15分钟的详细介绍与演示。决赛参赛作品各有千秋,评委老师针对每个作品给予点评,并指出了其未来的提升方向和研究价值。

特等奖中科院自动化所参赛团队

经过6个多小时的精彩答辩与评委们的专业评审,本届大赛最高奖——创新特等奖由来自中科院自动化所的参赛作品《基于情境信号的连续多任务学习》摘得,并获得30万人民币的奖金。

北京大学计算机科学技术系主任黄铁军教授

颁奖典礼后,北京大学计算机科学技术系主任黄铁军教授点评,本次大赛的作品应用上场景包罗万象、算法上想法层出不穷、硬件上设计各有千秋。他表示作品相比去年更加切题,报告展示完整清楚精彩,但在表达上依然有提升空间。黄铁军指出,类脑计算是一个充满机遇的前沿交叉研究领域,鼓励大家跳出思维框架,要以引领的姿态,勇于开拓新的研究方向。他特别感谢清华大学类脑计算中心为了赛事公平不让自己的学生参加比赛,这为比赛提供了一个公平竞争平台。最后黄铁军代表评审专家感谢清华大学组织举办这个在国际上具有影响力、在类脑计算领域中有代表性的比赛。

清华控股党委副书记、副总裁赵燕来

最后,清华控股党委副书记、副总裁赵燕来致闭幕词。他表示大赛的成功举办离不开清华大学对比赛筹备的大力支持,同时对带来高水平、有创意、高完成度作品的参赛队员和抽出宝贵时间到场参与评审的专家学者表示诚挚的感谢。比赛虽然结束,但类脑计算研究依然继续,希望大家在将来的类脑计算研究工作中再接再厉,再创辉煌。

 获奖名单 

特等奖获奖项目介绍

当前的神经网络所能学习的映射规则通常是单一且固定的,难以适应复杂变化的动态任务需求。大脑中的前额叶皮层会依据情境信息灵活处理当前的输入,执行不同的任务。大脑也能够序贯学习这些情境依赖的处理规则,从而使得其灵活性不断地增加。受大脑这些特性的启发,我们提出了正交权重修改(OWM)学习算法和类前额叶模块,使得神经网络具备了基于情境连续的学习不同映射规则的能力,从而能够使一个紧凑的系统逐渐学会执行多种不同的任务,实现了对于现有深度神经网络基本能力的重要提升。

本文经授权转载自清华产业,原文链接:https://mp.weixin.qq.com/s/l2bm-2LBlPeOvMyVJoNXHw
产业产业报道比赛神经网络
1
相关数据
权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

机器翻译技术

机器翻译(MT)是利用机器的力量「自动将一种自然语言(源语言)的文本翻译成另一种语言(目标语言)」。机器翻译方法通常可分成三大类:基于规则的机器翻译(RBMT)、统计机器翻译(SMT)和神经机器翻译(NMT)。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

多任务学习技术

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

推荐文章
暂无评论
暂无评论~