中国计算机学会通讯来源

一文带你了解中国计算机学会通讯 2019年01月新技术新应用

中国计算机学会通讯CCCF为中国计算机学会旗舰刊物,于2005年创建,月刊。中国计算机学会通讯面向计算领域的专业人士,宏观论述计算机领域各学科方向研究进展和发展方向的综述刊物。

本文将为大家介绍CCCF 2019年01月新技术新应用,具体如下:

01 清华量子信息中心发现具有指数加速可能的量子机器学习算法

寻找具有指数加速能力的算法是量子计算机的一个核心研究方向。迄今发现的具有指数加速可能的量子算法屈指可数,而每个具有指数加速能力的量子算法的发现,都是量子计算机研究的重要突破。

清华大学量子信息中心段路明团队发现了一种具有指数加速可能的量子机器学习算法。他们首次提出了一种基于优化多体量子纠缠态的量子生成模型,并证明了该量子生成模型在学习能力与预测能力方面都存在指数加速。在量子生成模型中,经典图中表示概率的参数由正实数扩大至复数域,这种新的量子图模型所需的参数个数相比于经典图模型(包括贝叶斯网络、马尔科夫随机场、玻尔兹曼机、深度信念网络等)有指数级的减少,这对于生成模型来说,在空间和时间的效率上都是巨大的优势。

基于这一模型,他们进而提出了启发式量子机器学习算法。该算法可以将生成模型的推断和训练问题转化成量子多体哈密顿量的基态制备问题,并由此证明量子算法的指数加速。

这一发现展示了量子计算机人工智能研究领域中的巨大潜力,该成果也发表在了科学子刊 Science Advances(《科学 • 进展》)上,题目为 A quantum machine learning algorithm based on generative models 。

02 AI 在医疗方面取得革命性突破

人工智能在医疗方面也取得了突破性进展。吴恩达团队利用深度神经网络仅通过心率数据就可以诊断患者是否心律失常。据介绍,心电图数据全部由专家标注,分成 12 种不同情况,包括 10种心律失常,窦性心律以及噪音

基于这些数据,研究人员训练了一个包含 33 个卷积层和线性输出层的神经网络。只需输入心电图数据,该系统就可以将其拆分成每个时长1.28秒的数据样本,判断每个1.28秒属于12种心率(及噪音)中的哪一种。实验表明其准确度高达 83.7%,超过了人类心脏病医生的 78.0%。目前,该研究成果已经发表在了最新的一期 Nature Medicine 上。

• https://www.nature.com/articles/s41591-018-0268-3       

另一研究成果同样发表在最新的一期 Nature Medicine 上, 题目为《通过深度学习识别遗传疾病的面部表型》( Identifying facial phenotypes of genetic disorders using deep learning)。

该研究使用了 17000 多张患者的面部图像来训练神经网络,所有这些患者被确诊的遗传综合征总计超过200种。研究人员利用两个独立的测试数据集测试该深度学习算法DeepGestalt的表现,每一个数据集都包含数百张之前经过临床专家分析的患者面部图像。对于每一张测试图像,DeepGestalt被要求列出每张面部图像可能代表的综合征,并按不同综合征的概率依次排序。在两组测试中,在 90% 左右的情况下,DeepGestalt成功的在提出的前 10 个答案中都包括了正确的综合征。虽然这项研究采用的测试数据集规模相对较小,而且没有和其他已有的识别方法或人类专家进行直接比较,但是研究结果表明人工智能有望在临床实践中,辅助罕见遗传综合征的优先级划分与诊断。

 •https://www.nature.com/articles/s41591-018-0279-0.epdf?sharedaccesstoken=62PW4OHG-NDsJk7uOtQZo9RgN0jAjWel9jnR3ZoTv0Os8H3zP0FWM-ifOxgr-DPy08bRFUpsGFc9h1bmip3gmtgoS-0vr5cLbAyWW7ei9mrVX73uG9ODN-yrWpdIFxLc_hyY5xd6TaqA5wVr8FsDwo5mSHnYezC7u-pL90IyE%3D

03 微软公开小冰系统设计

微软小冰团队发表论文公开了其聊天机器人“小冰”的开发过程,详述了设计原则、系统架构和关键组件,包括对话管理器、核心聊天、技能和移情计算模块,展示了小冰是如何在长时间的对话中动态地识别人类的情感和状态,理解用户的意图,并响应用户的需求。

研究团队在文中强调,作为一个独特的人工智能伴侣,小冰可以在情感与人们产生联系,满足人们对交流,感情和社会归属的需求。在小冰的系统设计中,智商与情商的结合是核心,同时又具有独一无二的个性。针对这样的设计原则,他们将人机社交聊天视为基于马尔可夫决策过程 (MDP) 的决策,并针对长期用户参与度和每次会话的对话轮数 (Conversation-turns Per Session, CPS) 进行优化。

自 2014 年发布以来,小冰已与超过 6.6 亿用户进行了聊天,并成功地与其中许多用户建立了长期关系。通过对大规模在线日志的分析,小冰的平均 CPS 已经达到 23轮,显著高于其他聊天机器人甚至人类之间的对话。

  • 论文地址:https://static.aminer.cn/misc/pdf/weixin/XiaoIce.pdf

04  Transformer 再升级

Transformer 是谷歌在 2017 年提出的一个革新性的 NLP 框架。在机器翻译领域 ,Transformer 已经几乎全面取代递归神经网络 RNN。近日,来自卡内基梅隆大学和谷歌的研究人员提出了 Transformer 的升级版:Transformer-XL。

尽管 Transformer 具有学习长期依赖关系的潜力,但在语言模型中受到固定长度上下文的限制。针对这一限制,Transformer-XL可以使 Transformer 能够在不破坏时间一致性的情况下学习超过固定长度的依赖关系。具体地说,Transformer-X 包含一个 segment-level 的递归机制和一种新的位置编码方案。这样不仅可以捕获长期依赖关系,还可以解决上下文碎片问题。

实验表明,Transformer-XL 学习的依赖关系比 RNN 长约 80%,比 vanilla Transformer 长 450%,在短序列和长序列上都能获得更好的性能。并且在评估过程中比 vanilla Transformer 快 1800+ 倍。 此外,这一新架构在 5 个数据集上都获得了强大的结果。目前,研究人员已经公开了 Tensorflow 和 PyTorch 版本的代码、预训练模型和超参数

  • 代码地址:https://github.com/kimiyoung/transformer-xl

  • 论文地址:https://static.aminer.cn/misc/pdf/weixin/TRANSFORMER-XL.pdf

05  欧盟将投入 200 亿欧元发展人工智能

2018 年 12 月,欧盟宣布计划在 2020 年底实现私人投资和公共投资至少 200亿欧元,用于发展人工智能。经过近六个月的会议讨论,欧盟成员国对以下内容达成一致。

• 通过合作伙伴关系最大化投资效益,投资目标包括:

  • 所有成员国将制定自己的人工智能发展战略;

  • 建立新的人工智能研究和创新合作伙伴关系;

  • 为初创公司提供支持;

  • 开发和连接欧洲人工智能卓越中心,在互联移动等领域建立世界参考测试设施,并通过数字化创新中心鼓励在整个经济中吸纳人工智能

• 创建欧洲数据空间,致力于开发人工智能技术需要用到大型、安全且可靠的数据集。

• 培养人才、技能和终身学习精神,将通过专门的奖学金等方式支持人工智能领域高等教育,充分利用蓝卡(Blue Card)系统留住和吸引欧洲的高技能人工智能专业人士。

• 开发有道德且值得信赖的人工智能,专家小组目前正在制定开发和使用人工智能的道德准则,让欧洲注重道德的方法进入全球舞台。

欧盟委员会希望通过实施其人工智能(AI)战略,促进人工智能在欧洲的开发和使用。

06 IEEE 计算机协会公布 2019 年十大技术趋势

2018 年 12 月 18 日,IEEE计算机协会(IEEE-CS)技术专家公布了他们对技术发展趋势的年度预测,提出了他们认为 2019 年会被最广泛采用的技术发展趋势。

这些技术发展趋势有:

(1)深度学习加速器,如GPU、FPGA和最近的TPU;

(2)辅助驾驶,该技术高度依赖于深度学习加速器来进行视频识别;

(3)身联网(Internet of Bodies, IoB),物联网和自我监测技术正在更加靠近人体甚至进入人体内部;

(4)社会信用算法,通过生物识别技术和混合型社交数据流的结合,可以将观察转化为对个人的好坏及是否值得得到公众社会认可的判断;

(5)先进(智能)材料和设备,他们将在医疗保健、包装、家电等领域创造激动人心的应用;

(6)主动安全保护,如在新的攻击类型暴露时能被激活的钩子以及识别复杂攻击的机器学习机制等;

(7)虚拟现实(VR)和增强现实(AR),除了游戏方面,VR和AR技术在教育、工程和其他领域也可以发挥巨大的作用;

(8)聊天机器人,除了基本客户服务、虚拟助理,业界也在寻求将这一技术作为提供治疗支持的一种方式,例如扩展到与认知障碍儿童的互动;

(9)自动语音垃圾(robocall)预防,这一技术现在可以阻止被假冒的呼叫者 ID,并拦截可以来电;

(10)人性化技术(特别是机器学习),机器学习、机器人和无人机的大规模使用将有助于改善各行各业的工作流程和工作效率。

AMiner学术头条
AMiner学术头条

AMiner平台由清华大学计算机系研发,拥有我国完全自主知识产权。系统2006年上线,吸引了全球220个国家/地区800多万独立IP访问,数据下载量230万次,年度访问量1000万,成为学术搜索和社会网络挖掘研究的重要数据和实验平台。

https://www.aminer.cn/
专栏二维码
入门聊天机器人ARVR辅助驾驶Transformer微软小冰医疗机器学习CCCF
1
相关数据
微软机构

微软是美国一家跨国计算机科技公司,以研发、制造、授权和提供广泛的计算机软件服务为主。总部位于美国华盛顿州的雷德蒙德,最为著名和畅销的产品为Microsoft Windows操作系统和Microsoft Office办公室软件,以及Xbox的游戏业务。微软是美国《财富》杂志2015年评选的世界500强企业排行榜中的第95名。

https://www.microsoft.com/en-us/about
吴恩达人物

斯坦福大学教授,人工智能著名学者,机器学习教育者。2011年,吴恩达在谷歌创建了谷歌大脑项目,以通过分布式集群计算机开发超大规模的人工神经网络。2014年5月16日,吴恩达加入百度,负责“百度大脑”计划,并担任百度公司首席科学家。2017年3月20日,吴恩达宣布从百度辞职。2017年12月,吴恩达宣布成立人工智能公司Landing.ai,并担任公司的首席执行官。2018年1月,吴恩达成立了投资机构AI Fund。

哈密顿人物

William Rowan Hamilton爵士MRIA(1805年8月4日 - 1865年9月2日)是一位爱尔兰数学家,他为经典力学、光学和代数做出了重要贡献。 虽然哈密顿不是物理学家(他认为自己是一个纯粹的数学家)他的工作对物理学起着至关重要的作用,特别是他对牛顿力学的重新定义,现在称为哈密顿力学。 这项工作已被证明是对电磁学等经典场论的现代研究以及量子力学发展的核心。 在纯数学中,他最出名的是四元数的发明者。

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

增强现实技术

增强现实,是指透过摄影机影像的位置及角度精算并加上图像分析技术,让屏幕上的虚拟世界能够与现实世界场景进行结合与互动的技术。这种技术于1990年提出。随着随身电子产品运算能力的提升,增强现实的用途也越来越广。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

虚拟现实技术

虚拟现实,简称虚拟技术,也称虚拟环境,是利用电脑模拟产生一个三维空间的虚拟世界,提供用户关于视觉等感官的模拟,让用户感觉仿佛身历其境,可以及时、没有限制地观察三维空间内的事物。用户进行位置移动时,电脑可以立即进行复杂的运算,将精确的三维世界视频传回产生临场感。

超参数技术

在机器学习中,超参数是在学习过程开始之前设置其值的参数。 相反,其他参数的值是通过训练得出的。 不同的模型训练算法需要不同的超参数,一些简单的算法(如普通最小二乘回归)不需要。 给定这些超参数,训练算法从数据中学习参数。相同种类的机器学习模型可能需要不同的超参数来适应不同的数据模式,并且必须对其进行调整以便模型能够最优地解决机器学习问题。 在实际应用中一般需要对超参数进行优化,以找到一个超参数元组(tuple),由这些超参数元组形成一个最优化模型,该模型可以将在给定的独立数据上预定义的损失函数最小化。

机器翻译技术

机器翻译(MT)是利用机器的力量「自动将一种自然语言(源语言)的文本翻译成另一种语言(目标语言)」。机器翻译方法通常可分成三大类:基于规则的机器翻译(RBMT)、统计机器翻译(SMT)和神经机器翻译(NMT)。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

噪音技术

噪音是一个随机误差或观测变量的方差。在拟合数据的过程中,我们常见的公式$y=f(x)+\epsilon$中$\epsilon$即为噪音。 数据通常包含噪音,错误,例外或不确定性,或者不完整。 错误和噪音可能会混淆数据挖掘过程,从而导致错误模式的衍生。去除噪音是数据挖掘(data mining)或知识发现(Knowledge Discovery in Database,KDD)的一个重要步骤。

玻尔兹曼机技术

玻尔兹曼机(Boltzmann machine)是随机神经网络和递归神经网络的一种,由杰弗里·辛顿(Geoffrey Hinton)和特里·谢泽诺斯基(Terry Sejnowski)在1985年发明。玻尔兹曼机可被视作随机过程的,可生成的相应的Hopfield神经网络。它是最早能够学习内部表达,并能表达和(给定充足的时间)解决复杂的组合优化问题的神经网络。但是,没有特定限制连接方式的玻尔兹曼机目前为止并未被证明对机器学习的实际问题有什么用。所以它目前只在理论上显得有趣。然而,由于局部性和训练算法的赫布性质(Hebbian nature),以及它们和简单物理过程相似的并行性,如果连接方式是受约束的(即受限玻尔兹曼机),学习方式在解决实际问题上将会足够高效。它由玻尔兹曼分布得名。该分布用于玻尔兹曼机的抽样函数。

聊天机器人技术

聊天机器人是经由对话或文字进行交谈的计算机程序。能够模拟人类对话,通过图灵测试。 聊天机器人可用于实用的目的,如客户服务或资讯获取。有些聊天机器人会搭载自然语言处理系统,但大多简单的系统只会撷取输入的关键字,再从数据库中找寻最合适的应答句。

马尔可夫决策过程技术

马尔可夫决策过程为决策者在随机环境下做出决策提供了数学架构模型,为动态规划与强化学习的最优化问题提供了有效的数学工具,广泛用于机器人学、自动化控制、经济学、以及工业界等领域。当我们提及马尔可夫决策过程时,我们一般特指其在离散时间中的随机控制过程:即对于每个时间节点,当该过程处于某状态(s)时,决策者可采取在该状态下被允许的任意决策(a),此后下一步系统状态将随机产生,同时回馈给决策者相应的期望值,该状态转移具有马尔可夫性质。

量子机器学习技术

量子机器学习是量子物理学和机器学习交叉的一个新兴的交叉学科研究领域。人们可以区分四种不同的方式来结合这两个父类学科。量子机器学习算法可以利用量子计算的优势来改进经典的机器学习方法,例如通过在量子计算机上开发昂贵的经典算法的有效实现。 另一方面,可以应用经典的机器学习方法来分析量子系统。 一般来说,可以考虑学习装置和所研究的系统都是完全量子的情况。

贝叶斯网络技术

贝叶斯网络(Bayesian network),又称信念网络或是有向无环图模型,是一种概率图型模型。例如,贝叶斯网络可以代表疾病和症状之间的概率关系。 鉴于症状,网络可用于计算各种疾病存在的概率。

生成模型技术

在概率统计理论中, 生成模型是指能够随机生成观测数据的模型,尤其是在给定某些隐含参数的条件下。 它给观测值和标注数据序列指定一个联合概率分布。 在机器学习中,生成模型可以用来直接对数据建模(例如根据某个变量的概率密度函数进行数据采样),也可以用来建立变量间的条件概率分布。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

语言模型技术

语言模型经常使用在许多自然语言处理方面的应用,如语音识别,机器翻译,词性标注,句法分析和资讯检索。由于字词与句子都是任意组合的长度,因此在训练过的语言模型中会出现未曾出现的字串(资料稀疏的问题),也使得在语料库中估算字串的机率变得很困难,这也是要使用近似的平滑n元语法(N-gram)模型之原因。

推荐文章
暂无评论
暂无评论~