Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

亚马逊研究奖获奖名单出炉:谢赛宁、Mamba作者Albert Gu等入选

与去年的 79 位获奖者相比,2023 年「亚马逊研究奖」获得者的人数有了一定的增加,达到了 98 位。

近日,亚马逊研究奖(Amazon Research Awards,ARA)获奖名单公布,今年共有 98 名获得者,来自 15 个国家 51 所大学。

图片

完整获奖名单:https://www.amazon.science/research-awards/program-updates/99-amazon-research-awards-recipients-announced

亚马逊研究奖 (ARA) 成立于 2015 年,该计划旨在为多个学科研究主题的学术研究人员提供不受限制的资金。获奖者可以公开访问 300 多个亚马逊公共数据集,并可以使用亚马逊的 AI/ML 服务和工具。除此以外,获奖者还将与亚马逊专家建立联系,以获得咨询和建议,还可以参加亚马逊举办的活动、培训课程等。

获奖者来自以下研究领域:人工智能信息安全、自动推理、AWS 人工智能、AWS 加密和隐私、AWS 数据库服务、可持续发展。值得注意的是,今年的获奖名单中出现了很多华人学者(如有遗漏或错误,请在评论区指正)。

人工智能信息安全

Hui Liu

图片

机构:密歇根州立大学

研究课题:利用弱监督图表示学习的力量实现网络安全

Hui Liu 现在为密歇根州立大学助理教授,此前她本科、硕士均毕业于北京理工大学、博士毕业于南卫理公会大学。她的研究兴趣包括可信人工智能、为智能设备无线通信设计数据挖掘算法以及在无线通信中应用机器学习数据挖掘。她在移动数据科学方面拥有 7 年以上的研究经验。

Xiaorui Liu图片

机构:北卡罗来纳州立大学

研究课题:利用弱监督图表示学习的力量实现网络安全

Xiaorui Liu 自 2022 年 8 月起担任北卡罗来纳州立大学计算机科学助理教授。他在 2022 年获得密歇根州立大学计算机科学博士学位。在此之前,他在华南理工大学获得硕士和学士学位。他曾获得 2023 年 ACM SIGKDD 杰出论文奖(亚军)、2023 年 NCSU 数据科学院奖、2023 年 NCSU 教师研究和专业发展奖、2019 年 ICHI 最佳论文荣誉奖、2017 年 MSU 工程杰出奖学金和 2021 年云计算奖学金。他的研究兴趣包括大规模机器学习、可信人工智能和图深度学习

自动推理

Sicun Gao

图片

机构:加州大学圣迭戈分校

研究课题:dReal 中的证明优化和泛化

高思存是美国加州大学圣迭戈分校计算机科学与工程副教授。他是卡耐基梅隆大学逻辑学博士,本科毕业于北大逻辑学。高思存教授领导了 dReal 的开发,这是一种能够验证和合成复杂网络物理系统设计的自动推理工具。该工具已被美国宇航局、丰田研究所等机构采用。

AWS AI

Caiwen Ding图片

机构:康涅狄格大学 

研究课题:思维图:增强大型语言模型逻辑推理能力

Caiwen Ding 是康涅狄格大学计算机学院的助理教授。他于 2019 年在美国东北大学 (NEU) 获得博士学位。此前,他本科毕业于广西大学,硕士毕业于摩海德州立大学。Caiwen Ding 的研究兴趣包括机器学习 / 人工智能的算法系统协同设计;计算机架构和异构计算 (FPGA/GPU);隐私保护机器学习;电子设计自动化 (EDA) 的机器学习神经形态计算计算机视觉自然语言处理

Caiwen Ding 曾获得 NSF CAREER 奖、亚马逊研究奖和 CISCO 研究奖。此外,他还获得过 2023 年 AAAI DCAA 研讨会的最佳论文奖、2023 年 HPEC 杰出学生论文奖、DATE 2018 和 DATE 2021 最佳论文奖提名等。

丁雨霏(Yufei Ding)

图片

机构:加州大学圣迭戈分校

研究课题:面向高效以及可扩展 LLM 服务的整体编译器和运行时系统

丁雨霏现在为加州大学圣迭戈分校助理教授,在此之前,她获得了北卡罗来纳州立大学计算机科学博士学位和中国科学技术大学物理学学士学位。她的研究兴趣广泛,包括领域特定语言设计、架构和编译器优化以及硬件加速。她目前的研究重点是为量子计算机器学习深度学习等新兴技术构建高性能、节能和高保真度的编程框架。

她曾获得 NSF CAREER 奖(2020 年)、IEEE 计算机学会 TCHPC 早期职业研究人员高性能计算杰出奖(2019 年)、NCSU 计算机科学杰出论文奖(2018 年)、NCSU 计算机科学杰出研究奖(2016 年)和 OOPLSA 杰出论文奖(2020 年)。

Xinya Du

图片

机构:得克萨斯大学达拉斯分校

研究课题:用于回答复杂问题的过程指导型微调

Xinya Du 是得克萨斯大学达拉斯分校计算机科学系助理教授。他的研究重点是自然语言处理(NLP)和机器学习。Xinya Du 本科毕业于上海交通大学计算机系,博士毕业于康奈尔大学计算机系,曾在伊利诺伊大学厄巴纳 - 香槟分校担任博士后研究员。Xinya Du 的研究论文多次被 ACL 等顶会接收。他还获得了 2024 年 NSF CAREER 奖。

Albert Gu

图片

机构:CMU

研究课题:扩展下一代基础模型体系架构

Albert Gu 现在为卡内基梅隆大学机器学习助理教授。值得一提的是 Albert Gu 是「Mamba」的作者之一,「Mamba」在语言建模方面可以媲美甚至击败 Transformer。而且,它可以随上下文长度的增加实现线性扩展,其性能在实际数据中可提高到百万 token 长度序列,并实现 5 倍的推理吞吐量提升。

Jianbo Jiao

图片

机构:伯明翰大学

研究课题:PCo3D:物理上合理的可控 3D 生成模型

Jianbo Jiao 是伯明翰大学计算机科学学院的助理教授。在加入伯明翰大学之前,他在牛津大学生物医学图像分析 (BioMedIA) 小组和视觉几何小组 (VGG) 担任博士后研究员。

Jianbo Jiao 在香港城市大学获得计算机科学博士学位。他的研究兴趣包括计算机视觉机器学习、医疗保健和 AI4Science,特别是通过探索不同模态的辅助作用并减少对监督的依赖来学习更好的表征。

Anqi Liu

图片

机构:霍普金斯大学

研究课题:子群体偏移下的 (多) 校准主动学习

Anqi Liu 现在为约翰霍普金斯大学助理教授。在此之前,她在伊利诺伊大学芝加哥分校(UIC)计算机科学系获得博士学位,本科毕业于天津财经大学。Anqi Liu 研究兴趣在于可信人工智能机器学习

Qian Tao

图片

机构:代尔夫特理工大学

研究课题:依靠物理学和人工智能(PhAI)的 Φ- 生成式医学成像

Qian Tao 是荷兰代尔夫特理工大学成像物理系助理教授。在加入代尔夫特理工大学之前,Qian Tao 是莱顿大学医学中心放射科 LKEB 的研究员。

Qian Tao 在复旦大学获得学士和硕士学位,在荷兰特文特大学获得博士学位。她是 SCMR 成员,还曾担任 MICCAI 和 AAAI 的项目主席和领域主席。

Yapeng Tian

图片

机构:德克萨斯州大学达拉斯分校

研究课题:集成视觉对齐和文本交互的多模态音频内容生成

Yapeng Tian 是德克萨斯大学达拉斯分校计算机科学系的助理教授,在加入该校之前,他在罗切斯特大学获得博士学位,在清华大学获得硕士学位,在西安电子科技大学获得工学学士学位。

吴彤霜(Sherry Tongshuang Wu)

图片

机构:CMU

研究课题:通过自适应数据管理从自然语言指令生成可部署模型

吴彤霜现在为 CMU 助理教授,此前,她在华盛顿大学获得计算机科学博士学位,香港科技大学获得学士学位。吴彤霜的主要研究兴趣包括人机交互、NLP。

Xiaolong Wang

图片

机构:加州大学圣迭戈分校

研究课题:使用大型语言模型生成合成 3D 场景和具身任务

Xiaolong Wang 于 2020 年加入加州大学圣迭戈分校,担任电气与计算机工程系助理教授,于 CMU 获得博士学位。他的研究兴趣包括计算机视觉机器学习、机器人、自监督学习、视频理解、常识推理

Saining Xie(谢赛宁)

图片

机构:纽约大学

研究课题:图像 Sculpting:通过交互式几何控制进行精确的图像生成和编辑

谢赛宁为纽约大学计算机科学助理教授。此前,他为 FAIR(门洛帕克)的一名研究科学家。

他的硕士和博士毕业于加州大学圣迭戈分校,博士期间曾在 NEC Labs、Adobe、Facebook、Google、DeepMind 实习。他本科毕业于上海交通大学。他的主要研究兴趣包括深度学习计算机视觉

他有多篇论文被 ECCV、CVPR、ICLR 等顶会接收。2016 年底,谢赛宁作为一作发表论文《Aggregated Residual Transformations for Deep Neural Networks》,提出用于图像分类的简单、高度模块化的网络结构 ResNeXt。

另一篇与现 OpenAI 研究科学家 William Peebles 合著的论文《Scalable diffusion models with transformers》被认为与 Sora 非常相关。该论文入选了计算机视觉顶会 ICCV 2023。

Minlan Yu

图片

机构:哈佛大学

研究课题:分布式训练系统除障

Minlan Yu 为哈佛大学工程与应用科学学院(SEAS)计算机科学 Gordon McKay 教授,还是 SRC/DARPA JUMP 2.0 ACE 可演化计算中心的助理主任。她的研究兴趣包括了数据网络、分布式系统、企业与数据中心网络、网络虚拟化和软件定义的网络。

Minlan Yu 在北京大学获得计算机科学与数学学士学位,并在普林斯顿大学获得计算机科学硕士和博士学位。

Zhiru Zhang

图片

机构:康奈尔大学

研究课题:张量图优化的统一方法

Zhiru Zhang 为康奈尔大学电子与计算机工程学院副教授以及计算机系统实验室成员。他目前的研究兴趣包括异构计算系统的新算法、方法和设计自动化工具。

他本科毕业于北京大学,硕士和博士毕业于 UCLA。他基于自己对 HLS 的研究共同创立了 AutoESL,并被 Xilinx(如今的 AMD)收购。HLS 工具也演变成了 Vivado HLS(如今的 Vitis HLS),被广泛用于设计 FPGA 硬件加速器。

AWS 密码学与隐私

Peihan Miao

图片

机构:布朗大学

研究课题:为更广泛的工业应用推进私有集交叉研究

Peihan Miao 为布朗大学计算机科学助理教授。她本科毕业于上海交通大学 ACM 班,并于 2019 年获得加州大学伯克利分校博士学位。

此后她曾在 Visa Research 担任一年的研究科学家,并从 2020 年至 2022 年担任伊利诺伊大学芝加哥分校的助理教授。

目前,她的研究兴趣涉及了密码学、安全和理论计算机科学,并重点研究安全多方计算。

AWS 数据库服务

Lei Cao

图片

机构:亚利桑那大学

研究课题:SEED:利用大语言模型的简单、高效和有效数据管理

Lei Cao 为亚利桑那大学计算机科学系助理教授。他于 2016 年博士毕业于伍斯特理工学院,此后先后在 MIT CSAIL 担任博士后研究员和研究科学家。他的研究兴趣包括了异常检测算法和系统、用于数据管理的 AI(大语言模型)和用于 AI(大语言模型)的数据管理、分布式或云数据库和数据湖。

最近研究「AI 系统和系统 AI」这一新兴领域,重点是构建满足 SAUL 属性的数据管理和分析工具,即可扩展、自动和人机交互

可持续性

Can Li

图片

机构:普渡大学

研究课题:基于优化和大语言模型的可持续供应链设计与分析

Can Li 为普渡大学化学工程助理教授。2016 年,他本科毕业于清华大学,2021 年博士毕业于卡内基梅隆大学。

他的研究兴趣包括用于不确定性下优化的算法和软件、用于离散和全局优化的机器学习、可持续能源系统设计和操作、多尺度模型和算法、并行计算以及先进的计算架构。

Ming XU图片

机构:清华大学

研究课题:推进 AI 时代的可持续性实践:集成大语言模型进行自动化生命周期评估建模。

Ming XU 为清华大学环境学院教授。他先后于 2003 年、2006 年本科、硕士毕业于清华大学,2009 年博士毕业于亚利桑那州立大学。2022 年 8 月加入清华大学环境学院任教授一职。他的研究兴趣包括了环境系统工程、环境数据科学、工业生态学和生命周期评估。

产业亚马逊研究奖
相关数据
Amazon机构

亚马逊(英语:Amazon.com Inc.,NASDAQ:AMZN)是一家总部位于美国西雅图的跨国电子商务企业,业务起始于线上书店,不久之后商品走向多元化。目前是全球最大的互联网线上零售商之一,也是美国《财富》杂志2016年评选的全球最大500家公司的排行榜中的第44名。

https://www.amazon.com/
相关技术
清华大学机构

清华大学(Tsinghua University),简称“清华”,由中华人民共和国教育部直属,中央直管副部级建制,位列“211工程”、“985工程”、“世界一流大学和一流学科”,入选“基础学科拔尖学生培养试验计划”、“高等学校创新能力提升计划”、“高等学校学科创新引智计划”,为九校联盟、中国大学校长联谊会、东亚研究型大学协会、亚洲大学联盟、环太平洋大学联盟、清华—剑桥—MIT低碳大学联盟成员,被誉为“红色工程师的摇篮”。 清华大学的前身清华学堂始建于1911年,因水木清华而得名,是清政府设立的留美预备学校,其建校的资金源于1908年美国退还的部分庚子赔款。1912年更名为清华学校。1928年更名为国立清华大学。1937年抗日战争全面爆发后南迁长沙,与北京大学、南开大学组建国立长沙临时大学,1938年迁至昆明改名为国立西南联合大学。1946年迁回清华园。1949年中华人民共和国成立,清华大学进入了新的发展阶段。1952年全国高等学校院系调整后成为多科性工业大学。1978年以来逐步恢复和发展为综合性的研究型大学。

http://www.tsinghua.edu.cn/
相关技术
DeepMind机构

DeepMind是一家英国的人工智能公司。公司创建于2010年,最初名称是DeepMind科技(DeepMind Technologies Limited),在2014年被谷歌收购。在2010年由杰米斯·哈萨比斯,谢恩·列格和穆斯塔法·苏莱曼成立创业公司。继AlphaGo之后,Google DeepMind首席执行官杰米斯·哈萨比斯表示将研究用人工智能与人类玩其他游戏,例如即时战略游戏《星际争霸II》(StarCraft II)。深度AI如果能直接使用在其他各种不同领域,除了未来能玩不同的游戏外,例如自动驾驶、投资顾问、音乐评论、甚至司法判决等等目前需要人脑才能处理的工作,基本上也可以直接使用相同的神经网上去学而习得与人类相同的思考力。

https://deepmind.com/
复旦大学机构

复旦大学(Fudan University),简称“复旦”,位于中国上海,由中华人民共和国教育部直属,中央直管副部级建制,国家双一流(A类)、985工程、211工程建设高校,入选珠峰计划、111计划、2011计划、卓越医生教育培养计划、卓越法律人才教育培养计划、国家建设高水平大学公派研究生项目,九校联盟(C9)、中国大学校长联谊会、东亚研究型大学协会、环太平洋大学协会的重要成员,是一所世界知名、国内顶尖的全国重点大学。

相关技术
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

VGG技术

2014年,牛津大学提出了另一种深度卷积网络VGG-Net,它相比于AlexNet有更小的卷积核和更深的层级。AlexNet前面几层用了11×11和5×5的卷积核以在图像上获取更大的感受野,而VGG采用更小的卷积核与更深的网络提升参数效率。VGG-Net 的泛化性能较好,常用于图像特征的抽取目标检测候选框生成等。VGG最大的问题就在于参数数量,VGG-19基本上是参数量最多的卷积网络架构。VGG-Net的参数主要出现在后面两个全连接层,每一层都有4096个神经元,可想而至这之间的参数会有多么庞大。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

数据科学技术

数据科学,又称资料科学,是一门利用数据学习知识的学科,其目标是通过从数据中提取出有价值的部分来生产数据产品。它结合了诸多领域中的理论和技术,包括应用数学、统计、模式识别、机器学习、数据可视化、数据仓库以及高性能计算。数据科学通过运用各种相关的数据来帮助非专业人士理解问题。

异常检测技术

在数据挖掘中,异常检测(英语:anomaly detection)对不符合预期模式或数据集中其他项目的项目、事件或观测值的识别。 通常异常项目会转变成银行欺诈、结构缺陷、医疗问题、文本错误等类型的问题。 异常也被称为离群值、新奇、噪声、偏差和例外。

逻辑推理技术

逻辑推理中有三种方式:演绎推理、归纳推理和溯因推理。它包括给定前提、结论和规则

张量技术

张量是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在 维空间内,有 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。称为该张量的秩或阶(与矩阵的秩和阶均无关系)。 在数学里,张量是一种几何实体,或者说广义上的“数量”。张量概念包括标量、矢量和线性算子。张量可以用坐标系统来表达,记作标量的数组,但它是定义为“不依赖于参照系的选择的”。张量在物理和工程学中很重要。例如在扩散张量成像中,表达器官对于水的在各个方向的微分透性的张量可以用来产生大脑的扫描图。工程上最重要的例子可能就是应力张量和应变张量了,它们都是二阶张量,对于一般线性材料他们之间的关系由一个四阶弹性张量来决定。

计算机视觉技术

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

数据管理技术

数据管理是利用计算机硬件和软件技术对数据进行有效的收集、存储、处理和应用的过程,其目的在于充分有效地发挥数据的作用。

数据库技术

数据库,简而言之可视为电子化的文件柜——存储电子文件的处所,用户可以对文件中的数据运行新增、截取、更新、删除等操作。 所谓“数据库”系以一定方式储存在一起、能予多个用户共享、具有尽可能小的冗余度、与应用程序彼此独立的数据集合。

数据挖掘技术

数据挖掘(英语:data mining)是一个跨学科的计算机科学分支 它是用人工智能、机器学习、统计学和数据库的交叉方法在相對較大型的数据集中发现模式的计算过程。 数据挖掘过程的总体目标是从一个数据集中提取信息,并将其转换成可理解的结构,以进一步使用。

云计算技术

云计算(英语:cloud computing),是一种基于互联网的计算方式,通过这种方式,共享的软硬件资源和信息可以按需求提供给计算机各种终端和其他设备。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

图像生成技术

图像生成(合成)是从现有数据集生成新图像的任务。

神经形态计算技术

神经形态工程也称为神经形态计算,是Carver Mead在1980年代后期开发的一个概念,描述了使用包含电子模拟电路来模拟神经系统中存在的神经生物学结构的超大规模集成(VLSI)系统。 近来,神经形态(Neuromorphic)一词已被用于描述模拟、数字、混合模式模拟/数字VLSI以及实现神经系统模型(用于感知,运动控制或多感官集成)的软件系统。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

生成模型技术

在概率统计理论中, 生成模型是指能够随机生成观测数据的模型,尤其是在给定某些隐含参数的条件下。 它给观测值和标注数据序列指定一个联合概率分布。 在机器学习中,生成模型可以用来直接对数据建模(例如根据某个变量的概率密度函数进行数据采样),也可以用来建立变量间的条件概率分布。

主动学习技术

主动学习是半监督机器学习的一个特例,其中学习算法能够交互式地查询用户(或其他信息源)以在新的数据点处获得期望的输出。 在统计学文献中,有时也称为最佳实验设计。

图像分类技术

图像分类,根据各自在图像信息中所反映的不同特征,把不同类别的目标区分开来的图像处理方法。它利用计算机对图像进行定量分析,把图像或图像中的每个像元或区域划归为若干个类别中的某一种,以代替人的视觉判读。

人机交互技术

人机交互,是一门研究系统与用户之间的交互关系的学问。系统可以是各种各样的机器,也可以是计算机化的系统和软件。人机交互界面通常是指用户可见的部分。用户通过人机交互界面与系统交流,并进行操作。小如收音机的播放按键,大至飞机上的仪表板、或是发电厂的控制室。

语言模型技术

语言模型经常使用在许多自然语言处理方面的应用,如语音识别,机器翻译,词性标注,句法分析和资讯检索。由于字词与句子都是任意组合的长度,因此在训练过的语言模型中会出现未曾出现的字串(资料稀疏的问题),也使得在语料库中估算字串的机率变得很困难,这也是要使用近似的平滑n元语法(N-gram)模型之原因。

Xilinx机构

赛灵思作为FPGA、可编程SoC的发明者,一直坐稳全球最大的FPGA芯片供应商头把交椅。赛灵思的产品线覆盖45/28/20/16nm四个系列的FPGA以及Zynq SoC,旗下拥有着超过4400项技术专利、60多项行业第一的技术产品,服务着全球超过60000的客户。赛灵思耗时4年,超过1500名工程师的研发参与,超过10亿美元的研发投资,推出高度集成的多核异构自适应计算加速平台——ACAP!10月赛灵思发布了统一软件平台Vitis,成功“打破软硬件壁垒”。

https://china.xilinx.com/
相关技术
AMD机构

超威半导体(中国)有限公司专门为计算机、通信和消费电子行业设计和制造各种创新的微处理器(CPU、GPU、主板芯片组、电视卡芯片等),以及提供闪存和低功率处理器解决方案,公司成立于1969年。AMD致力为技术用户——从企业、政府机构到个人消费者——提供基于标准的、以客户为中心的解决方案。

https://www.amd.com/zh-hans
量子计算技术

量子计算结合了过去半个世纪以来两个最大的技术变革:信息技术和量子力学。如果我们使用量子力学的规则替换二进制逻辑来计算,某些难以攻克的计算任务将得到解决。追求通用量子计算机的一个重要目标是确定当前经典计算机无法承载的最小复杂度的计算任务。该交叉点被称为「量子霸权」边界,是在通向更强大和有用的计算技术的关键一步。

自监督学习技术

一个例子中的内容特别多,而用一个例子做一个任务,就等于把其他的内容浪费了,因此我们需要从一个样本中找出多个任务。比如说遮挡图片的一个特定部分,用没遮挡部分来猜遮挡的部分是一个任务。那么通过遮挡不同的部分,就可以用一个样本完成不同任务。Yann Lecun描述的这个方法被业界称作「自监督学习」

常识推理技术

常识推理是人工智能(AI)的一个分支,它关注模拟人类每天遇到的普通情境的类型和本质的假设。这些假设包括对人和物体的物理特性,目的,意图和行为的判断,以及他们的行为和相互作用的可能结果。展示常识推理的设备将能够预测结果并得出类似于人类民间心理学(人类对人们的行为和意图进行推理的天生能力)和天真物理学(人类对物理世界的自然理解)的结论。

北京理工大学机构

北京理工大学1940年诞生于延安,是中国共产党创办的第一所理工科大学,是新中国成立以来国家历批次重点建设的高校,首批进入国家“211工程”和“985工程”,首批进入“世界一流大学”建设高校A类行列。

http://www.bit.edu.cn/
相关技术
北京大学机构

北京大学创办于1898年,初名京师大学堂,是中国第一所国立综合性大学,也是当时中国最高教育行政机关。辛亥革命后,于1912年改为现名。2000年4月3日,北京大学与原北京医科大学合并,组建了新的北京大学。原北京医科大学的前身是国立北京医学专门学校,创建于1912年10月26日。20世纪三、四十年代,学校一度名为北平大学医学院,并于1946年7月并入北京大学。1952年在全国高校院系调整中,北京大学医学院脱离北京大学,独立为北京医学院。1985年更名为北京医科大学,1996年成为国家首批“211工程”重点支持的医科大学。两校合并进一步拓宽了北京大学的学科结构,为促进医学与人文社会科学及理科的结合,改革医学教育奠定了基础。

官网,http://www.pku.edu.cn/
推荐文章
暂无评论
暂无评论~