Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

无问芯穹夏立雪:目标将大模型算力成本压缩四个数量级,为算力市场带来增量

算力不足仍然是制约通用人工智能发展的重要因素。GPU Utils 今年 8 月的一份数据显示,全球目前 H100 等效算力的供给缺口达到 43 万张。在解决算力不足的问题上,除了抢购和囤积英伟达,更多的方案正在浮出水面。

清华系创业公司无问芯穹,是这个赛道上的一个答题者。

不久前,机器之心介绍了来自无问芯穹(Infinigence AI)、清华大学和上海交通大学的联合团队所提出的一种新方法 FlashDecoding++。这项工作不仅能将 GPU 推理提速 2-4 倍,还能同时支持 NVIDIA 和 AMD 的 GPU。相较于 FlashDecoding,这项工作在 NVIDIA A100 实现了推理平均加速 37% ,在 AMD MI210 上实现 300%+ 的性能提升。

基于这项工作,无问芯穹所研发的 Infini-ACC 大模型计算优化引擎通过对模型、系统以及硬件层面的系统优化,能够推动实现大模型推理速度提升 10 倍,模型存储空间降低 10 倍,部署时间降至小时级。

无问芯穹依托计算加速的核心优势,帮助现有的算力方提高算力性能与性价比。并在核心优势基础上推出了智算云、智算一体化平台,支持异构算力调度,并提供端到端的一站式大模型落地方案。

通过现有算力的效率提升以及对未利用算力的激活,无问芯穹希望能够为大模型市场带去新的算力增量。根据无问芯穹 CEO 夏立雪的测算,经过优化后的算力成本,相比 OpenAI 可压缩 2~3 个数量级,未来则将会达到 4 个数量级。这意味着,假如一个应用方原本需要向OpenAI支付100元的token费用,经过优化,这个价格最终将会被压缩到约1分钱级别。

更值得注意的是,夏立雪在机器之心的专访中透露,作为中间件向外出售系统仅仅只是无问芯穹商业化策略中的第一步,无问芯穹更长远的计划是通过与算力中心合作,优化算力成本,直接向 B 端和 C 端开发者提供可以直接调度的低成本算力。

“我们的最终目标不仅仅是作为中间层提供生态系统,而是直接为市场提供算力。未来,凡是服务和应用中涉及到大模型的,都是我们的潜在客户。”

据无问芯穹方面透露,公司成立半年内,已经完成数亿元融资,投资人包括百度、腾讯和智谱等战略合作方,以及徐汇资本、红杉中国、Monolith、启明创投、北极光创投、经纬创投、真格基金和绿洲资本等投资机构。

无问芯穹由清华大学电子系主任汪玉推动成立,拥有三位联合创始人:

联合创始人及 CEO 夏立雪毕业于清华大学,是清华大学电子系主任汪玉的第一位博士毕业生。夏立雪长期致力于深度学习系统的设计方法学研究,入选 AI2000 人工智能全球最具影响力学者榜单,以及斯坦福学科 Top2% 科学家榜单。毕业后,夏立雪在阿里云负责过大语言模型的压缩加速、生成式 AI 模型芯片等核心战略项目。曾担任用户增长产品技术负责人,帮助阿里云从 0 到 1 孵化用户增长产品,稳定获得上亿年营收。

联合创始人及 CTO 颜深根毕业于中科院软件所,是国内最早从事 AI 高性能计算的科研人员之一。为原商汤科技数据与计算平台部执行研究总监,帮助商汤搭建了两万片 GPU 的大规模高性能 AI 计算平台,并主持开发了多个深度学习系统软件,带领 200 人规模团队历时 3 年打造出上海 AI 超算原型机项目,总投入 6.7 亿。

联合创始人及首席科学家戴国浩现任上海交通大学长聘教轨副教授,清源研究院人工智能设计自动化创新实验室负责人。戴国浩在电路设计自动化、异构计算、体系架构等领域发表高水平论文 50 余篇,谷歌学术引用超千次。承担包括国家自然科学基金青年项目在内的多个纵横向项目,个人负责经费超千万元。

目前无问芯穹团队共有 100 余人,研发团队中 35% 以上来自清华大学,团队仍在快速扩张。夏立雪表示,当前公司的业务重点是商业化,以确保无问芯穹正行走在正确的商业路径上。

算力难、算力贵问题制约大模型发展

机器之心:能否简单介绍下公司成立的契机以及目标?

夏立雪:无问芯穹公司注册于今年 5 月,核心团队从 3 月份开始组建。

我们的创立与整个行业的大模型发展密切相关,大模型从去年年底开始受到大量关注,引发了对其在不同行业应用的广泛想象。

但与此同时,但是我们看到,从商业上来讲,它要大规模落地还需要解决成本问题。很多场景的成立,需要从 “赔本赚吆喝” 到至少 “算得过来帐”。

我是汪玉老师的第一个博士生,毕业后加入了阿里云。在阿里云期间,我一直与清华电子系保持着密切的交流。去年年底汪老师开始频繁地与我讨论,大模型爆发后,从电子系的位置出发能为这个产业做些什么,我们能提供的是否只是学术价值,还是也能提供产业价值?

我们最后看到的核心问题就是国内整体的算力是远远不够用的,不能光靠芯片层的工艺提升和等待多元芯片的成长去解决这个问题。

我们的目标就是去把现在能用的算力用好,以及把现在不能用的算力也用起来,能够帮助提供更多大模型产业可用且更便宜的算力。

因此,我们核心的两个技术方向就是,一是大模型在芯片上的极致性能优化;二是把多元异构算力利用起来。我们的目标是建立一个生态系统,其中不同模型可以自动部署到不同硬件上,从而使这些未被激活的算力得到有效利用。
 
机器之心:团队构成是什么样的?

夏立雪:汪玉老师是无问芯穹的发起人,核心成员是我、颜深根与戴国浩,我们负责过阿里云大模型压缩加速、生成式 AI 模型芯片、上海 AI 超算原型机、国家自然科学基金等项目。我们研发团队的成员参与过 Apache、ONNX、TensorFlow、PyTorch、PyG 等人工智能相关开源项目建设,并且是其中比较重要的贡献者。研发团队中 35% 以上来自清华大学,目前还在快速扩张。
 
机器之心:你们定义自己是在 “追求大模型落地的极致能效”,为什么选择解决这个问题,能效又具体指什么?

夏立雪:我们看到大模型落地的能效问题,一直悬在所有人的头顶上。

全球都存在 GPU 的可使用性不足,也就是 “不够用”,目前全球芯片缺口高达 43 万张 H100 等效算力。

其次是 “很难用”,大模型训练时延敏感、容错率低,部分硬件性能上本身不如英伟达,所以即使多元异构 GPU 集群建成了,实际中也很难真正把所有算力都用起来。

最后是落地时 “用不了”,大模型作为人机交互的接口,在边端应用上有很高的发挥空间,但边缘侧设备能耗敏感,算力、存储和带宽都不足,应用普及很难。

无问芯穹定义自己在追求大模型落地的极致能效,这里的能效是指技术实际发生的作用与所消耗能源量的比值。

我们认为能效水平是生产力与竞争力的测度,比如在物种竞争中,大脑皮层中的神经元数量决定智力的高低。而人类之所以能够很快超越其他物种,主要是因为人类掌握了烹饪技术,也就是掌握了如何短时间、低成本摄入大量能量,以支持大脑中大量神经元运转的高能效技术。大模型行业现在非常需要这样一种整体的、高能效的 “烹饪方案”。

放到任意经济体竞争、商业组织竞争中,同理,谁能以更快的速度、更低的能源消耗或成本实现更高的发展效果、产品质量,谁就更有可能胜出。
 
机器之心:你提到全球芯片缺口大,即使多元异构 GPU 集群建成了,实际中也很难真正把所有算力都用起来,这些算力不能被充分利用或者说能效低,可能的原因是什么?

夏立雪:在 AI 芯片市场上,全球面临的甚至都不是 “二八定律” 格局,可以说是 “一九定律” 了。英伟达占据了绝对领先的市场份额,这不仅是因为英伟达的硬件性能更强,也因为它在软件生态系统方面的优势。

软件生态反过来帮助英伟达积累了大量的应用模型信息,让它能够及时迭代下一款芯片的设计。这就形成了一个强势的生态飞轮,一旦英伟达的产能跟不上需求,就会造成全球范围内的算力紧缺。

尽管硬件厂商们都在追赶英伟达的脚步,但他们在软件生态系统的建设上仍然落后,这导致即使他们的硬件与英伟达的 A100 相当,也无法得到广泛应用。因此,构建健全的软件生态系统是当前的一个重要任务,这是我们在做的事情。

机器之心:为什么软件生态很难构建?

夏立雪:软件生态发展需要时间、耐心和机遇。像英伟达很早就投入了大量精力来构建其软件生态,经过长时间的用户培育,加上对图形计算、高性能计算需求的准确洞察,这个壁垒才逐渐构建起来,并且越来越厚。硬件厂商如果错过了这个先发机会和市场机遇,就很难再获得足够的资金同时投入优质的芯片研发及其推广使用。

机器之心:如果说国产大模型公司和芯片公司直接合作建设智算中心,来增加自己可以用的算力,这中间可能面临什么难题?

夏立雪:今天许多大模型公司和处于 “一” 这个份额空间中的芯片公司在直接合作,以期增加算力的可用性。

在这类合作中,双方都需要从主线业务中抽调大量人力和资源来做适配,并且没有人希望 “把鸡蛋都装在同一个篮子里”。这种情况下,每家公司都会与多个潜在合作伙伴投入资源,例如一家模型公司和多个芯片公司一起合作。再加上这种合作如果是基于物质基础的,需要由他们多方共同承担成本、共同定价,这就形成了一个复杂的多维合作空间。

我们的目标是帮助简化这部分的适配和优化过程,不需要客户承担合作研发的风险,并提供更好的优化效果。这本质上是打造了一个中间层的生态,一方面为算力使用方提供更多的算力供给选择,另一方面也能帮助各类硬件生态伙伴拿到真实的业务反馈,来进行下一步迭代。

我们的客户不仅限于技术能力较强的大模型公司,还包括使用模型的公司。能效对这些公司来说很重要,他们的 AI 算法与应用场景紧密相关,所以可能只能投入 3 到 10 人的团队来处理模型相关工作,有了我们的介入,他们不需要再投入 30 人来组建一个完整的工程团队。
 
中间层生态迎来机会窗口
 
机器之心:为什么你们认为现在这件事可以做了?情况发生了什么改变?

夏立雪:虽然芯片制造商通常会承担部分软件工作,能够提供一些底层的基础命令,帮助开发者直接实现一些功能。但在一些复杂任务上,比如说现在通用大模型出现了,需要有专人将大模型任务需求翻译成硬件操作的指令组合。打个比方,就像计算器上的加减按钮,通过这些基础按键的组合,我们能解决更复杂的问题。

我们看到的是,通用大模型时代,中间层能效优化可以有更多纵深了。在过去,行业内要解决一个任务,需要定制化开发一个模型。像聊天能力、翻译能力、搜索引擎…… 需要使用不同的模型来实现。任务与算法绑定,只能进行任务与算法的协同设计,落到系统上,中间层要做很多不同的工作。

汪老师过去创办的深鉴科技,跟我们现在的工作有点类似,但因为图像模型、语音模型和自然语言模型之间有巨大差异,想要不赔本,只能针对单一类型的模型去做。

而现在,我们可以使用一个通用模型去解决多个任务了。通过下游任务微调,同一个大语言模型可以实现不同任务。

由于大模型高度统一了模型结构,让生态这件事出现了一个好的机会窗口,使得我们可以专注于这样一个更狭窄的领域,应用、算法、系统之间可以进行协同优化了。完成它的投入不会大到不可靠,或者说绝对算不过来帐。

虽然不同公司的模型训练数据可能不同,但模型结构是相似的,这允许我们在这个特定时间点开发一个好的中间层工具,将不同模型映射到不同公司的硬件上。
 
机器之心:具体一点看,过去和现在两种情况下,对搭建软件生态这件事的难易程度分别是怎么样的?

夏立雪:可以预估算子数量来体现这个难易程度的变化。

比如在过去,每个领域和每种模型结构都有许多专属算子,例如 Pytorch 的算子库,算子数量约为 2000 个。但是在现在以 Transformer 系列为核心的 GPT 或其他大模型中,算子数量可能最终会减少到不超过 100 个。

这意味着,虽然总体开发量仍然超过 2000,但如果从使用量角度考虑,超过 99% 的计算量集中在这 100 个算子上。因此,我们可以专注于优化这 100 个算子。其他部分不再是优化的瓶颈。

机器之心:在这件事上,你们的优势是什么?

夏立雪:我认为我们的团队本身擅长做这件事。清华电子系一直致力于将有意义的算法与实际场景结合,创建具有商业价值的解决方案。

我们专注于模型、软件和硬件的综合优化,以降低模型推理成本,将实验室的技术成果转化为可持续的商业产品。

我们的工具有两个特点,快速且高效。这意味着,使用模型的人不需要理解底层的细节,就能高效地使用它,同时保证最佳性能。

机器之心:所谓的 “M×N” 中间层,具体是指什么?

夏立雪:前面我提到,每家公司都会与多个潜在合作伙伴投入资源,这会形成一个复杂的多维合作空间。我们的解法是,在百花齐放的模型层和多元异构芯片层之间打造一个灵活兼容的中间层,实现 “M×N”,也就是 “M 种模型” 和 “N 种芯片” 间的高效、统一部署。

图片

我们将这套工作拆解为三个着手点,分别是:

  • 从算法到芯片阶段,针对算力紧缺问题,通过大模型计算优化引擎,让算法与芯片相适配,提升芯片可用性。

  • 从芯片集群到模型阶段,针对算力池异构特性,建设智算系统层,帮助开发者们屏蔽异构硬件的影响。

  • 从模型到模型应用落地阶段,通过提供包含各模型及其高效微调、计算优化在内的端到端落地服务,降低推理计算量级、时延与成本。
  
为算力市场注入增量

机器之心:按照这个思路,你们如何为算力市场带来增量?

夏立雪: 目前,我们已经完成了整体方案的验证。

首先,我们用英伟达的显卡验证了我们优化工具的能力,在各个业界团队都在争相优化英伟达的环境下,我们的优化效果仍然达到了世界第一,比 SOTA 高出约 30%。

另外我们也验证了优化能力在不同硬件上的泛用性,在 AMD 硬件上我们的优化结果也是世界第一,测试效果提升了 300% 以上。

这表明我们的工具链在性能提升方面具有直接的益处,能够支持不同硬件上的扩展,我们有很多个行动小组,正在和 10 家以上的硬件厂商做适配。

机器之心:目前你们整体的商业模式是怎样?

夏立雪: 国内算力紧缺,所以大家并不是在抢夺客户,而是都在争取有限的资源。我们商业化的核心是提供优化过的、具有更高性价比的算力服务,扩大供给,满足客户的需求。

主要有两方面,一方面是为硬件厂商提供 “中间层封装”,提升硬件可用性,让他们能够打开大模型市场,把产品销售给更多客户。

另一方面是基于中间层能力,和算力集群共同运营、优化和提升算力供给,提升算力使用的性价比。这一块我们已经和一些算力集群签署合作协议。未来将直接对接大模型相关客户,为他们提供算力。
 
机器之心:这里第二种商业模式是通过出售算力来赚取差价吗?

夏立雪:一般来说,差价意味着以低成本获取算力,然后直接高价出售,就像中间商。但我们的目标是 “把蛋糕做大”,利用技术优化和适配能力,使未充分利用的算力发挥更大价值。这种 “差价” 实际上是我们通过技术提供的增量算力。

我们所做的包括扩大算力池,让原本用不了的卡被用起来,并提高每一块卡的效率,让一块卡的产能相当于两块卡甚至更多。这样,原本只能支持数十个业务的算力现在能支持数百个业务,这是一个增量市场。

另外,我们的最终目标不仅仅是作为中间层提供生态系统,未来凡是服务和应用中涉及到大模型的,不管是做 B 端还是做 C 端,都是我们的潜在客户。因为他们需要大模型的算力,我们可以提供性价比高且易于开发的算力服务。这些服务里面还可能包含某些开发工具。
 
机器之心:使用你们的产品后,在成本上的体现是怎么样?客户成本可以降到多少?

夏立雪:通过软硬一体协同优化,我们的目标是最终实现调用成本约 4 个数量级的下降。

前段时间我们推出了大模型无穹天权,它在处理长文本方面表现出色,有 256k token,这是当时的大模型所能处理的最长文本长度,大概是 40w 汉字长度的文本。这一方面证明了我们优化后系统架构的可靠性,一方面也强调了在长文本等对性能优化技术要求高的场景中无问芯穹的技术实力。

40w字输入给ChatGPT是很费钱的,现在行业内普遍都反映这个成本很高、做推理很贵,有的创业者甚至表示 “GPT 创业四个月,投入五六千,用户五六千,收益几十块”。多数开发者和用户是接受不了这么高昂的价格和这么低的投产比的。

目前无问芯穹已经实现了 2~3 个数量级的成本压缩,目标最终将这一价格降低 4 个数量级,让大模型落地应用不再是 “开着兰博基尼送外卖”。我们希望发挥异构算力潜能,把成本降下来,推动模型训练、推理门槛降低,让更多创造者进入这个领域。

机器之心:未来在理想化状态下,能达到什么样的程度?

夏立雪:我们的 Slogan 是 “释放无穹算力,让 AGI 触手可及”。我们希望,当你使用基于大模型开发内部或外部应用时,调用我们的算力就像使用 API 接口一样简单。使用我们的服务时,你不需要关心背后的具体技术,比如是否是某特定品牌的卡。

交流请添加本文作者微信:jjingl-(注明公司-职位-姓名)

产业无问芯穹
相关数据
清华大学机构

清华大学(Tsinghua University),简称“清华”,由中华人民共和国教育部直属,中央直管副部级建制,位列“211工程”、“985工程”、“世界一流大学和一流学科”,入选“基础学科拔尖学生培养试验计划”、“高等学校创新能力提升计划”、“高等学校学科创新引智计划”,为九校联盟、中国大学校长联谊会、东亚研究型大学协会、亚洲大学联盟、环太平洋大学联盟、清华—剑桥—MIT低碳大学联盟成员,被誉为“红色工程师的摇篮”。 清华大学的前身清华学堂始建于1911年,因水木清华而得名,是清政府设立的留美预备学校,其建校的资金源于1908年美国退还的部分庚子赔款。1912年更名为清华学校。1928年更名为国立清华大学。1937年抗日战争全面爆发后南迁长沙,与北京大学、南开大学组建国立长沙临时大学,1938年迁至昆明改名为国立西南联合大学。1946年迁回清华园。1949年中华人民共和国成立,清华大学进入了新的发展阶段。1952年全国高等学校院系调整后成为多科性工业大学。1978年以来逐步恢复和发展为综合性的研究型大学。

http://www.tsinghua.edu.cn/
相关技术
商汤科技机构

作为人工智能软件公司,商汤科技以“坚持原创,让AI引领人类进步”为使命,“以人工智能实现物理世界和数字世界的连接,促进社会生产力可持续发展,并为人们带来更好的虚实结合生活体验”为愿景,旨在持续引领人工智能前沿研究,持续打造更具拓展性更普惠的人工智能软件平台,推动经济、社会和人类的发展,并持续吸引及培养顶尖人才,共同塑造未来。

http://www.sensetime.com
深鉴科技机构

深鉴科技成立于2016年3月,定位为深度学习硬件解决方案公司,将以自主研发的深度压缩与深度学习处理器(DPU)为核心,打造最好用的解决方案和最高效的整体系统,提供硬件+芯片+软件+算法的完整方案,方便所有人使用。同时,深鉴主要瞄准智慧城市和数据中心两大市场,可帮助用户为多种智能安防场景打造稳定高效的解决方案。

相关技术
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

调度技术

调度在计算机中是分配工作所需资源的方法。资源可以指虚拟的计算资源,如线程、进程或数据流;也可以指硬件资源,如处理器、网络连接或扩展卡。 进行调度工作的程序叫做调度器。调度器通常的实现使得所有计算资源都处于忙碌状态,允许多位用户有效地同时共享系统资源,或达到指定的服务质量。 see planning for more details

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

TensorFlow技术

TensorFlow是一个开源软件库,用于各种感知和语言理解任务的机器学习。目前被50个团队用于研究和生产许多Google商业产品,如语音识别、Gmail、Google 相册和搜索,其中许多产品曾使用过其前任软件DistBelief。

映射技术

映射指的是具有某种特殊结构的函数,或泛指类函数思想的范畴论中的态射。 逻辑和图论中也有一些不太常规的用法。其数学定义为:两个非空集合A与B间存在着对应关系f,而且对于A中的每一个元素x,B中总有有唯一的一个元素y与它对应,就这种对应为从A到B的映射,记作f:A→B。其中,y称为元素x在映射f下的象,记作:y=f(x)。x称为y关于映射f的原象*。*集合A中所有元素的象的集合称为映射f的值域,记作f(A)。同样的,在机器学习中,映射就是输入与输出之间的对应关系。

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

人机交互技术

人机交互,是一门研究系统与用户之间的交互关系的学问。系统可以是各种各样的机器,也可以是计算机化的系统和软件。人机交互界面通常是指用户可见的部分。用户通过人机交互界面与系统交流,并进行操作。小如收音机的播放按键,大至飞机上的仪表板、或是发电厂的控制室。

语言模型技术

语言模型经常使用在许多自然语言处理方面的应用,如语音识别,机器翻译,词性标注,句法分析和资讯检索。由于字词与句子都是任意组合的长度,因此在训练过的语言模型中会出现未曾出现的字串(资料稀疏的问题),也使得在语料库中估算字串的机率变得很困难,这也是要使用近似的平滑n元语法(N-gram)模型之原因。

阿里云机构

阿里云创立于2009年,是全球领先的云计算及人工智能科技公司,致力于以在线公共服务的方式,提供安全、可靠的计算和数据处理能力,让计算和人工智能成为普惠科技。 阿里云服务着制造、金融、政务、交通、医疗、电信、能源等众多领域的领军企业,包括中国联通、12306、中石化、中石油、飞利浦、华大基因等大型企业客户,以及微博、知乎、锤子科技等明星互联网公司。在天猫双11全球狂欢节、12306春运购票等极富挑战的应用场景中,阿里云保持着良好的运行纪录。 阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。 2014年,阿里云曾帮助用户抵御全球互联网史上最大的DDoS攻击,峰值流量达到每秒453.8Gb 。在Sort Benchmark 2016 排序竞赛 CloudSort项目中,阿里云以1.44$/TB的排序花费打破了AWS保持的4.51$/TB纪录。在Sort Benchmark 2015,阿里云利用自研的分布式计算平台ODPS,377秒完成100TB数据排序,刷新了Apache Spark 1406秒的世界纪录。 2018年9月22日,2018杭州·云栖大会上阿里云宣布成立全球交付中心。

https://www.aliyun.com/about?spm=5176.12825654.7y9jhqsfz.76.e9392c4afbC15r
腾讯机构

腾讯,1998年11月诞生于中国深圳,是一家以互联网为基础的科技与文化公司。我们的使命是“通过互联网服务提升人类生活品质”。腾讯秉承着 “一切以用户价值为依归”的经营理念,为亿万网民提供优质的互联网综合服务。 腾讯的战略目标是“连接一切”,我们长期致力于社交平台与数字内容两大核心业务:一方面通过微信与QQ等社交平台,实现人与人、服务及设备的智慧连接;另一方面为数以亿计的用户提供优质的新闻、视频、游戏、音乐、文学、动漫、影业等数字内容产品及相关服务。我们还积极推动金融科技的发展,通过普及移动支付等技术能力,为智慧交通、智慧零售、智慧城市等领域提供有力支持。

http://www.tencent.com/
相关技术
通用人工智能技术

通用人工智能(AGI)是具有一般人类智慧,可以执行人类能够执行的任何智力任务的机器智能。通用人工智能是一些人工智能研究的主要目标,也是科幻小说和未来研究中的共同话题。一些研究人员将通用人工智能称为强AI(strong AI)或者完全AI(full AI),或称机器具有执行通用智能行为(general intelligent action)的能力。与弱AI(weak AI)相比,强AI可以尝试执行全方位的人类认知能力。

机器之心机构

机器之心,成立于2014年,是国内最具影响力、最专业、唯一用于国际品牌的人工智能信息服务与产业服务平台。目前机器之心已经建立起涵盖媒体、数据、活动、研究及咨询、线下物理空间于一体的业务体系,为各类人工智能从业者提供综合信息服务和产业服务。

https://www.jiqizhixin.com/
AMD机构

超威半导体(中国)有限公司专门为计算机、通信和消费电子行业设计和制造各种创新的微处理器(CPU、GPU、主板芯片组、电视卡芯片等),以及提供闪存和低功率处理器解决方案,公司成立于1969年。AMD致力为技术用户——从企业、政府机构到个人消费者——提供基于标准的、以客户为中心的解决方案。

https://www.amd.com/zh-hans
推荐文章
暂无评论
暂无评论~