Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

如何从技术的角度打造“负责任的人工智能”?

编者按:人工智能正在深刻地影响社会生活、改变世界。在引发巨大变革的同时,它也带来了诸多风险。如何从技术的角度打造“负责任的人工智能”已成为新的关注重点。作为一家负责任的技术企业,微软强调到人工智能开发应用应遵循以下六个道德原则:公平、可靠和安全、隐私和保障、包容、透明、负责。

在此背景下,由微软亚洲研究院-中国科学技术大学联合实验室举办的“负责任的人工智能” 前沿技术论坛成功举办。参会嘉宾们从隐私与安全、透明与可解释、高效可靠的类脑智能、AI 赋能民生四个方向出发,探讨了如何践行这些原则进行人工智能的开发,以道德为准绳管理人工智能,从而让其更好地造福世界。本文即是对研讨会中精彩讨论内容的回顾。

论坛合影
“细思极恐“的隐私和安全问题

主题研讨主持人

刘云新

微软亚洲研究院

高级研究员

随着人工智能的快速发展,它已经渗透到我们日常生活的方方面面。使用语音助手,人们可以与各种智能设备进行交互;基于人脸识别,人们可以进行身份认证、安检、购物等活动;利用推荐算法,人们可以方便地获取感兴趣的新闻和商品推荐;通过位置共享,人们可以实现智能交通管理等。

在给我们的日常工作和生活带来巨大方便的同时,人工智能也引起了大家对用户隐私和数据安全的广泛担忧。人工智能中有哪些独特的隐私和安全问题?从技术的角度出发,负责任的人工智能应如何保护隐私和确保安全?工业界和学术界应该如何更紧密地进行合作?参会者针对这些问题进行了热烈的讨论。

与会学者一致认为,隐私和安全是一个十分严重甚至“细思极恐”的问题,它与每一个人都紧密相关。许多手机应用都获取了用户的大量信息——除了地理位置信息,还包括通话记录、短信记录,甚至还需要麦克风、摄像头等在使用中非必要的权限。加之监控摄像头变得无处不在,以及越来越多的可穿戴设备(如智能眼镜等),大量用户信息都被自动采集和上传。有研究表明,有些应用和设备如某些输入法和智能音箱,会自动收集用户的输入内容和语音内容并上传,从而带来用户隐私和敏感信息泄露的隐患。

然而,用户对这些数据被如何使用和存储往往一无所知,对如何防止过度的数据采集更是无能为力。

为了保护用户的隐私和数据安全,已有许多相关技术,如同态加密、K匿名、基于硬件(例如Intel SGX)的保护等。这些技术各有优缺点,但并不能完全满足人工智能中隐私和安全的需要。基于人工智能的特别之处,比如为了保护模型训练中的数据隐私和安全,研究人员提出了分布式的联邦学习等。

人工智能的应用场景和与之相伴的隐私问题也值得探讨。譬如,智慧课堂利用人工智能和大数据分析,对学生的行为和学习效果进行监督,这对于改进现有填鸭式教学、实现差异化深度课堂互动、提升教学和学习的效率有很大的促进作用。然而,它也引发了社会上关于隐私保护和行为监控的广泛关注和讨论。又如,在视频通话场景中,很多用户往往不希望对方或公众看到跟私人相关的环境背景,以人工智能为基础的实时视频分割技术可以很好地过滤背景,从而保护用户的隐私,微软的视频会议软件Teams已可以实现这一功能。因此,如何针对具体场景,在用户隐私保护和满足功能需求之间取得很好的平衡,是一个值得深入研究的问题。

仅仅依赖技术手段来保护用户的隐私和数据安全是远远不够的,我们还需要法律。在这方面,欧盟的 GDPR 法案因其严格的条款而广为人知。收集个人数据的公司不仅要详细陈述如何使用用户数据,用户还权要求其删除自己的数据。微软承诺遵守 GDPR 和各国法律以保护和实现用户隐私权。中国也在不断完善相关法律法规的制定和实施。

在如何更好地保护用户隐私和数据安全方面,与会学者就几个基本原则达成了共识。首先,尽量在本地进行数据处理,能不上传数据就不上传,这也是边缘计算正在受到越来越多的关注的原因之一。其次,如果必须上传数据,一定要进行匿名化处理,将数据与个人信息解耦,使得数据能够为人工智能所用而隐私则被过滤。另外,还要有技术手段对用户的数据进行防护,抵挡可能的攻击。

针对这些研究问题,来自微软亚洲研究院与中国科学技术大学的与会学者计划在未来围绕两个重要场景进行合作:智能家居,自动驾驶中的智能感知

如何能让人工智能负责任、充分保护用户隐私和数据安全,仍然是一个任重道远的挑战。期待有兴趣在这方面开展研究工作的同仁们加入我们,一起为之努力。

打造可解释的人工智能

主题研讨主持人

谢幸

微软亚洲研究院

首席研究员

近年来,人工智能的快速发展引发了人们对其可解释性的强烈关注。在许多关键应用领域,可解释的人工智能系统有助于用户更好的理解、信任和管理它们。中国政府在《新一代人工智能发展规划》中明确提出要“实现具备高可解释性、强泛化能力的人工智能”。欧盟也在《一般数据保护条例》中要求人工智能算法能解释其输出原理。

在这个新兴且快速发展的领域中,有不少重要的问题需要我们深入思考:如何定义可解释性?可解释性的目标是什么,如何进行评测?可解释性的主要应用场景是什么?如何借助知识图谱自然语言处理技术对可解释性进行强化?

在此次研讨会中,参会者就这些问题展开了热烈讨论。大家分别结合自身研究分享了可解释性在自动驾驶、计算机视觉推荐系统自然语言处理等领域的应用和重要性,提出可解释性的重要价值在于帮助理解模型、提高模型准确性、增强模型泛化能力及增加用户对于模型的接受程度等。就现阶段而言,可解释性的定义和评测标准与具体应用场景紧密相关。围绕可解释性的研究应最终实现算法可解释性和准确性的共同提高。

在讨论中,微软亚洲研究院主管研究员王希廷介绍了她近期在可解释性方面的研究成果。她在 ICML 2019 的论文《Towards A Deep and Unified Understanding of Deep Neural Models in NLP》中提出一种方法,能对任何自然语言模型进行解释,同时保证对不同神经元、模型不同层以及不同模型之间解释的一致性。她还分享了她利用知识图谱构建深度、可解释的推荐模型的方法,以及一种结合知识图谱自然语言处理技术生成自然语言解释的可解释推荐算法。作为研究成果落地的示例,她分享了可解释性在微软必应广告中增加广告点击率,提高了用户体验的案例。

中国科技大学特任研究员连德富分享了他对智能交通领域可解释性研究的展望。随着深度学习的进步和城市数据的增加,深度学习已经成为智能交通领域最重要的分析建模方法。智能交通中的主要研究问题包括路径规划、通行时间估计、交通流预测、信号灯控制、拥堵分析与预测、交通需求预测、上车点推荐等。针对这些研究问题,基于深度卷积网络、循环神经网络深度强化学习等的建模分析算法被提出,各类任务的预测精度被大幅提升。然而,这些黑盒模型非常难以解释,算法预测的结果也通常难以理解,使得基于深度学习的智能交通算法在失效时无法做出准确诊断,其预测结果难以直接服务于用户。为此,具有模型可解释性和结果可解释性的深度学习算法将是智能交通领域的一个重要研究方向。连德富提出可以基于虚拟事实推断、知识蒸馏、重要性分析等相关技术展开智能交通算法的可解释性研究。

微软亚洲研究院首席研究员王井东则结合自己的研究领域指出,寻找合适的网络结构来解决计算机视觉任务是可解释性研究中一个重要课题。融合人的知识,而不是把网络结构当成黑盒,来帮助设计和搜索网络架构,能有效的提升网络性能,降低网络的参数和计算复杂度,提高网络的泛化能力。传统网络结构存在一些问题,比如分辨率的缺失在空间位置敏感的任务中会造成性能降低。他提出的高分辨率网络(HRNet)通过基于知识导向,在整个网络过程保持高分辨率,能够提升分割、检测、人体姿态估计等一系列空间位置敏感任务的性能。

他指出,针对人体匹配、物体关系发现等计算机视觉任务,人类还拥有很多其它知识或者尚未很好的总结出来的知识。如何将这些知识有效地、全面地、正确地以网络结构的形式表示并嵌入到整个的网络设计中去,将是有潜力的研究方向,能够同时提高模型的性能和可解释性。他将其称之为知识导向的神经网络结构设计。王井东预期,知识驱动的解决方法将在计算机视觉研究领域中成为一个重要的研究方向。

类脑智能的挑战与机遇

主题研讨主持人

熊志伟

中国科学技术大学

教授


陈雪锦

中国科学技术大学

副教授

对大脑神经运行机制的探索和发现可以启发人工智能的研究和发展,世界上多个国家都在积极布局类脑智能的研发。随着高分辨率成像技术的发展,生物学家可以在纳米级、微米级分辨率上对生物的脑组织进行切片成像,这就产生了巨量的图像数据。2019 年 8 月,谷歌与霍华德•休斯医学研究所和剑桥大学合作,重建了整个果蝇的大脑。其重建的完整果蝇大脑高达 40 万亿像素。这样巨量的大脑数据对类脑智能的研究带来了哪些挑战?本次研讨会围绕着类脑研究中的“高效可靠”所面临的相关挑战展开了讨论。

挑战之一,是如何对海量的脑图像数据进行高效的存储和传输。在当前微米级分辨率的电镜成像背景下,对 0.1 立方厘米的果蝇大脑扫描成像后需要 40 万亿像素。果蝇全脑大约有 10 万个神经元,而鼠脑的神经元个数在 1 亿左右,人的大脑神经元个数则在 10 亿左右。在探索脑神经运行机制过程中,如何对这些数据进行高效的存储和传输,促进数据资源在领域内共享,是尤为重要的。

挑战之二,在于如何对海量脑数据进行高效的分析。获取海量的数据之后,需要大量的图像处理和分析技术,对分片扫描的图像数据进行增强、对齐、拼接、重建,然后在突触级进行分析,包括神经元分割、神经元重建、神经元形态分析等等。这些海量数据的处理分析不可能依靠人力解决,这为自动化的、智能化的人工智能技术提供了广阔的应用平台。

挑战之三,是类脑智能研究如何赋能人工智能。从早期神经网络神经元单元的设计,到脉冲神经网络,科学家们都在尝试借鉴大脑的工作机制来设计高效的人工神经网络。近几年,脉冲神经网络的研究吸引了广泛注意,被看作是下一代神经网络基本架构。与会学者从脉冲神经网络在数学计算、模型性能、到硬件实现上的基本特性开展了多方位的讨论,希望探索出未来神经网络的发展趋势。

与会学者也提到,目前基于微观成像的脑与认知研究,由于其成像代价和数据规模巨大的限制,只能支持解析果蝇、小鼠、猕猴等部分模式动物的全脑或局部。而对人脑运行机制在宏观尺度上的研究和发现,例如利用脑电、核磁共振成像等无创技术获取数据来研究人脑区域活动,对人工智能的研究也有较大的借鉴意义。从显著度模型到注意力机制,这些人工智能技术的发展在很多时候都是受到了人脑认知机理的启发。

与会学者一致认为在当下,利用飞速发展的人工智能技术来对脑图像进行高效的分析和处理,对于探索脑神经的运行机制和认知机理具有非常大的意义。高校可以充分发挥其在多学科的优势,结合微软在数据处理、计算平台等优质资源,双方进一步深入合作,推动类脑智能研究进程。

人工智能赋能民生

主题研讨主持人

孙广中

中国科学技术大学

副教授

人工智能技术快速发展,已在教育、医疗卫生、交通、养老、家政服务等各个领域都得到了应用,正在改变着人们的日常生活。人工智能如何更好地赋能民生?经过研讨,与会学者将其总结为三个关键词:辅助、服务和关怀。

辅助:当前人工智能的能力和水平还不足以代替教师、医生、警察等专业人员的工作,但已经能够很好地辅助专业人员进行工作,有效减轻他们的工作负担。在教育教学领域,人工智能技术可以帮助教师更好地了解学生的学习情况,减少机械性批改作业的工作量;学生进行语言类、科学类知识的学习时,人工智能技术工具能够提供及时、准确、个性化的反馈。在医疗卫生领域,人工智能技术能够有效地辅助医生进行一些疾病的诊断,减轻医生重复性的事务工作,有利于医生更好地开展治疗工作。

服务:在公共管理领域,人工智能技术的运用能够有效提高公共管理服务的整体水平。在交通管理中,人工智能技术已用于优化控制交通流量,根据交通情况调节交通灯的使用策略,自动缓解道路拥堵状况。可以想象,当自动驾驶技术实现落地应用时,交通领域将迎来翻天覆地的变化。在社会管理其他多个具体领域,如公共安防、舆情感知、智能客服等,人工智能技术也得到了深入应用,使得政府能够为人民生活提供更好的服务。

关怀:人工智能并不是一项“冷冰冰”的技术,运用得当,它能够给予弱势群体温暖的关怀。目前已有多款陪护机器人的养老应用原型和产品,它们不仅为老人们提供了物理上的照顾,更进一步为老人们提供了感情上的陪伴。面向有听说障碍的聋哑人,人工智能技术目前已经可以提供文字到手语视频、手语视频到文字的双向转换和生成的服务。对于心理上存在障碍的人群,心理学家利用人工智能技术,能够更快、更好、更个性化地提供关怀。

结合研究兴趣,微软亚洲研究院与中国科学技术大学考虑在以下研究方向展开合作:

手语识别和手语生成:中国科学技术大学信息学院研究组在手语方面具有良好的研究基础,在理论和应用上都不断有新的进展,目前正在承担国家科技部的重大科技项目。这一研究项目体现了人工智能技术关怀弱势、服务公众的价值,有助于改善众多听说障碍人士的生活质量。

大学生学习表现评估:中国科学技术大学计算机学院联合微软亚洲研究院,在 2014 年至 2015 年开展过基于校园多源数据的智慧校园建设研究。在已有校园信息化的基础上,利用人工智能技术进行大学生学习表现评估,能够有效的辅助教育管理,为学生提供个性化的教学服务。

“负责任”不仅需要政策、法规和道德层面的管制和约束,也是技术本身应具有的属性和能力。打造“负责任的人工智能”任重道远,期待更多研究人员能与我们携手。


微软研究院AI头条
微软研究院AI头条

专注科研19年,盛产黑科技

入门微软亚洲研究院中国科学技术大学隐私保护
11
相关数据
微软亚洲研究院机构

微软亚洲研究院于1998年在北京成立,是微软公司在亚太地区设立的基础及应用研究机构,也是微软在美国本土以外规模最大的一个研究院。微软亚洲研究院从事自然用户界面、智能多媒体、大数据与知识挖掘、人工智能、云和边缘计算、计算机科学基础等领域的研究,致力于推动计算机科学前沿发展,着眼下一代革命性技术的创新,助力微软实现长远发展战略。

http://www.msra.cn
Microsoft机构

微软是美国一家跨国计算机科技公司,以研发、制造、授权和提供广泛的计算机软件服务为主。总部位于美国华盛顿州的雷德蒙德,最为著名和畅销的产品为Microsoft Windows操作系统和Microsoft Office办公室软件,以及Xbox的游戏业务。微软是美国《财富》杂志2015年评选的世界500强企业排行榜中的第95名。

https://www.microsoft.com/en-us/about
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

自动驾驶技术技术

从 20 世纪 80 年代首次成功演示以来(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自动驾驶汽车领域已经取得了巨大进展。尽管有了这些进展,但在任意复杂环境中实现完全自动驾驶导航仍被认为还需要数十年的发展。原因有两个:首先,在复杂的动态环境中运行的自动驾驶系统需要人工智能归纳不可预测的情境,从而进行实时推论。第二,信息性决策需要准确的感知,目前大部分已有的计算机视觉系统有一定的错误率,这是自动驾驶导航所无法接受的。

数据分析技术

数据分析是一类统计方法,其主要特点是多维性和描述性。有些几何方法有助于揭示不同的数据之间存在的关系,并绘制出统计信息图,以更简洁的解释这些数据中包含的主要信息。其他一些用于收集数据,以便弄清哪些是同质的,从而更好地了解数据。 数据分析可以处理大量数据,并确定这些数据最有用的部分。

深度强化学习技术

强化学习(Reinforcement Learning)是主体(agent)通过与周围环境的交互来进行学习。强化学习主体(RL agent)每采取一次动作(action)就会得到一个相应的数值奖励(numerical reward),这个奖励表示此次动作的好坏。通过与环境的交互,综合考虑过去的经验(exploitation)和未知的探索(exploration),强化学习主体通过试错的方式(trial and error)学会如何采取下一步的动作,而无需人类显性地告诉它该采取哪个动作。强化学习主体的目标是学习通过执行一系列的动作来最大化累积的奖励(accumulated reward)。 一般来说,真实世界中的强化学习问题包括巨大的状态空间(state spaces)和动作空间(action spaces),传统的强化学习方法会受限于维数灾难(curse of dimensionality)。借助于深度学习中的神经网络,强化学习主体可以直接从原始输入数据(如游戏图像)中提取和学习特征知识,然后根据提取出的特征信息再利用传统的强化学习算法(如TD Learning,SARSA,Q-Learnin)学习控制策略(如游戏策略),而无需人工提取或启发式学习特征。这种结合了深度学习的强化学习方法称为深度强化学习。

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

脉冲神经网络技术

第三代神经网络,脉冲神经网络(Spiking Neural Network,SNN),旨在弥合神经科学和机器学习之间的差距,使用最拟合生物神经元机制的模型来进行计算。脉冲神经网络与目前流行的神经网络和机器学习方法有着根本上的不同。SNN 使用脉冲——这是一种发生在时间点上的离散事件——而非常见的连续值。每个峰值由代表生物过程的微分方程表示出来,其中最重要的是神经元的膜电位。本质上,一旦神经元达到了某一电位,脉冲就会出现,随后达到电位的神经元会被重置。对此,最常见的模型是 Integrate-And-Fire(LIF)模型。此外,SNN 通常是稀疏连接的,并会利用特殊的网络拓扑。

人脸识别技术

广义的人脸识别实际包括构建人脸识别系统的一系列相关技术,包括人脸图像采集、人脸定位、人脸识别预处理、身份确认以及身份查找等;而狭义的人脸识别特指通过人脸进行身份确认或者身份查找的技术或系统。 人脸识别是一项热门的计算机技术研究领域,它属于生物特征识别技术,是对生物体(一般特指人)本身的生物特征来区分生物体个体。

规划技术

人工智能领域的「规划」通常是指智能体执行的任务/动作的自动规划和调度,其目的是进行资源的优化。常见的规划方法包括经典规划(Classical Planning)、分层任务网络(HTN)和 logistics 规划。

边缘计算技术

边缘运算(英语:Edge computing),又译为边缘计算,是一种分散式运算的架构,将应用程序、数据资料与服务的运算,由网络中心节点,移往网络逻辑上的边缘节点来处理。边缘运算将原本完全由中心节点处理大型服务加以分解,切割成更小与更容易管理的部分,分散到边缘节点去处理。边缘节点更接近于用户终端装置,可以加快资料的处理与传送速度,减少延迟。在这种架构下,资料的分析与知识的产生,更接近于数据资料的来源,因此更适合处理大数据。

注意力机制技术

我们可以粗略地把神经注意机制类比成一个可以专注于输入内容的某一子集(或特征)的神经网络. 注意力机制最早是由 DeepMind 为图像分类提出的,这让「神经网络在执行预测任务时可以更多关注输入中的相关部分,更少关注不相关的部分」。当解码器生成一个用于构成目标句子的词时,源句子中仅有少部分是相关的;因此,可以应用一个基于内容的注意力机制来根据源句子动态地生成一个(加权的)语境向量(context vector), 然后网络会根据这个语境向量而不是某个固定长度的向量来预测词。

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

知识图谱技术

知识图谱本质上是语义网络,是一种基于图的数据结构,由节点(Point)和边(Edge)组成。在知识图谱里,每个节点表示现实世界中存在的“实体”,每条边为实体与实体之间的“关系”。知识图谱是关系的最有效的表示方式。通俗地讲,知识图谱就是把所有不同种类的信息(Heterogeneous Information)连接在一起而得到的一个关系网络。知识图谱提供了从“关系”的角度去分析问题的能力。 知识图谱这个概念最早由Google提出,主要是用来优化现有的搜索引擎。不同于基于关键词搜索的传统搜索引擎,知识图谱可用来更好地查询复杂的关联信息,从语义层面理解用户意图,改进搜索质量。比如在Google的搜索框里输入Bill Gates的时候,搜索结果页面的右侧还会出现Bill Gates相关的信息比如出生年月,家庭情况等等。

推荐系统技术

推荐系统(RS)主要是指应用协同智能(collaborative intelligence)做推荐的技术。推荐系统的两大主流类型是基于内容的推荐系统和协同过滤(Collaborative Filtering)。另外还有基于知识的推荐系统(包括基于本体和基于案例的推荐系统)是一类特殊的推荐系统,这类系统更加注重知识表征和推理。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

路径规划技术

路径规划是运动规划的主要研究内容之一。运动规划由路径规划和轨迹规划组成,连接起点位置和终点位置的序列点或曲线被称为路径,构成路径的策略则被称为路径规划。路径规划在很多领域都具有广泛的应用,如机器人的自主无碰行动;无人机的避障突防飞行等。

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

图像处理技术

图像处理是指对图像进行分析、加工和处理,使其满足视觉、心理或其他要求的技术。 图像处理是信号处理在图像领域上的一个应用。 目前大多数的图像均是以数字形式存储,因而图像处理很多情况下指数字图像处理。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

知识蒸馏技术

Hinton 的工作引入了知识蒸馏压缩框架,即通过遵循“学生-教师”的范式减少深度网络的训练量,这种“学生-教师”的范式,即通过软化“教师”的输出而惩罚“学生”。为了完成这一点,学生学要训练以预测教师的输出,即真实的分类标签。这种方法十分简单,但它同样在各种图像分类任务中表现出较好的结果。

联邦学习技术

如何在保护数据隐私、满足合法合规要求的前提下继续进行机器学习,这部分研究被称为「联邦学习」(Federated Learning)。

可解释的人工智能技术

一个可以解释的AI(Explainable AI, 简称XAI)或透明的AI(Transparent AI),其行为可以被人类容易理解。它与机器学习中“ 黑匣子 ” 的概念形成鲜明对比,这意味着复杂算法运作的“可解释性”,即使他们的设计者也无法解释人工智能为什么会做出具体决定。 XAI可用于实现社会解释的权利。有些人声称透明度很少是免费提供的,并且在人工智能的“智能”和透明度之间经常存在权衡; 随着AI系统内部复杂性的增加,这些权衡预计会变得更大。解释AI决策的技术挑战有时被称为可解释性问题。另一个考虑因素是信息(信息过载),因此,完全透明可能并不总是可行或甚至不需要。提供的信息量应根据利益相关者与智能系统的交互情况而有所不同。

人体姿态估计技术

人体姿态估计是计算机视觉领域的一个重要问题,主要用于跟踪一个人的每一个小动作并实时进行生物力学分析。

推荐文章
学到