做算法11年,思必驰为何要联手大陆最大晶圆厂「造芯」

“造芯”风潮从2018延续到2019,玩家的探索和业界的追问从未停止。

1 月 4 日机器之心消息,思必驰宣布联合中芯国际共同注资成立上海深聪半导体有限责任公司,首款芯片 TAIHANG 芯片(TH1520)在 2018 年 8 月开始流片,11 月点亮验证,今天正式对外发布。

新年开工的第一周里,两家 AI 公司相继宣布自家的芯片战略及落地计划,且均为算法公司背景,成立 11 年的语音技术服务商思必驰就是其中之一,业界话题再次聚焦到「跨界造芯」上。

思必驰发布的首款芯片 TH1520,聚焦于语音应用场景下的 AI 专用芯片,主要面向智能家居、智能终端、车载、手机等各类终端设备。据介绍,TH1520 基于双 DSP 架构,内部集成 codec 编解码器以及大容量的内置存储单元,采用 AI 指令集扩展和算法硬件加速的方式,使其相较于传统通用芯片具有 10X 以上的效率提升。

此外,TH1520 在架构上具有算力及存储资源的灵活性,支持未来算法的升级和扩展。基于 TH1520 的解决方案包含算法+芯片,具有完整语音交互功能,能实现语音处理语音识别、语音播报等功能,支持离线语音交互。

面向物联网的各类垂直场景,TH1520 强调其低功耗及实用性,采用多级唤醒模式,内置低功耗 IP,使其在 always-on 监听阶段的功耗低至毫瓦级,典型工作场景功耗仅需几十毫瓦,极端场景峰值功耗不超过百毫瓦。据介绍,这意味着即使是使用电池的设备待机时间也能够长达数周。

此外,该芯片支持单麦、双麦、线性 4 麦、环形 4 麦、环形 6 麦等全系列麦克风阵列,同时支持 USB/SPI/UART/I2S/I2C/GPIO 等应用接口和多种格式的参考音,能在各类 IOT 产品中灵活部署应用。

回归到「芯片」本身,作为集成电路的载体,是集成电路经过设计、制造、封装、测试后的最后成果,其产业链繁杂而封闭,涉及到设计、IC 制造、封装测试等各项环节。

然而,我们看到越来越多的软件算法公司、互联网公司等外围选手,无论是阿里、百度等巨头量级,还是中小规模的初创公司都在积极涌入到这个阵营里来,「术业有专攻」的边界似乎正在被打破,造芯成为科技领域里的一股风潮。

不可否认,在深度学习算法快速迭代和人工智能应用猛增的当下,各方对于算力的极致追求必将催生出更丰富的芯片生态,英伟达、英特尔高通等传统芯片巨头再次站上 C 位,但「跨界造芯」背后的必要性、可行性、价值大小、落地前景等问题的追问并没有停止——对芯片的迫切需求是否真的能够成为亲自上马「造芯」的充分条件?

借由思必驰携手中国内地最大 Foundry 公司成立独立芯片公司的契机,机器之心思必驰 CTO、深聪 CEO 周伟达进行对话,站在一家语音算法公司的角度,周伟达针对上述追问均给出了解答。

以下为机器之心思必驰 CTO、深聪 CEO 周伟的采访,内容经机器之心整理编辑。

成立一家独立公司“造芯”

机器之心:在 2009 年你就加入了思必驰了,并且作为早期高管,基于这 11 年来和公司共同成长的认知,结合内、外部因素影响如何看待思必驰切入芯片市场?

周伟达:这背后有一定必然性,因为我们很早就在考虑要做芯片这件事。一方面,因为深度学习从 2005 年提出来到现在已经获得了比较成功的应用,在提升计算效率方面效果显著,基本能达到 30-50% 的改进。

但与此同时,当深度学习包含大规模的并行乘法、复杂的非线性函数等密集计算,宽数据带宽要求时,在传统 CPU 或者 ARM 架构上运行的效率明显不够。所以我们能够看到,在云端 NVIDIA 的 GPU 起势;大公司如谷歌、微软、Facebook 也加入进来,尝试从硬件方面进行优化,甚至重新做架构。

当我们看到深度学习算法在整个人工智能时代的走势,我们就一直在考虑要不要做芯片?要做芯片是从云端开始还是从本地开始?

思必驰在 2007 年创建,到今年将近 11 年时间,我们主要提供人工智能的技术服务,包含云端训练和推理、本地的语音智能交互技术,例如前端的信号处理、本地唤醒、本地识别、声纹识别等,对接着大量的 to B 服务,特别是车载、家居、音箱、电视到智能客服。我们看到大量客户在本地也有智能化的需求,所以我们首先确定的目标是做本地端的硬件 AI 加速,或者说是成为专门优化神经网络深度学习算法的加速硬件。

这是从技术发展历程来看,因为用传统芯片,在能效、成本、功耗各方面都不适合。为了实现更好的客户需求,以及给用户带来更低的功耗和成本,我认为 AI 芯片都是一个必然,无论是不是思必驰做,包括从传统芯片设计行业转入 AI 芯片,还是之前 AI 算法扩展到芯片的研发。因为这是算法发展的需求,也是客户和市场的需求,大家都看到了这些需求,我觉得很自然的一件事。

另外一个我们决定要做芯片的原因还在于,我们对市场未来几年需求的判断。

虽然思必驰的一部分算法已经在我们的云端、在我们的客户产品里落地用起来了,但是还有相当一部分的算法停留在实验室里。我们虽然在技术上做了验证,但没法在目前的硬件平台上落地。

我举几个例子,第一个例子。在服务器端跑的大规模并行乘法移植到 ARM 平台后,我们需要进行定点化,有 32 位、16 位、8 位的。但思必驰是定点化到 1 位,也就是 1bit-net,这已经脱离了传统的计算机逻辑运算,从传统的加减乘除大于小于等于的判断变成了相对简单的 0/1 逻辑,也就是与非、异或等操作。

我们已经针对这套算法进行了验证,针对同样规模神经网络运算,我们的算法相比浮点、8bit、16bit 等定点模式性能相当。但在目前的硬件上平台跑这套算法没有任何优势,因为它需要把传统的 1byte(1byte=8bit)的存储单位通过拆除成单 bit 来操作。

我们认为这套算法本身是非常先进的,是未来人脑神经元架构的重要方向之一,但在目前的硬件架构上运行没有任何优势。

机器之心:这是思必驰算法才面临的问题?

周伟达:这只是一个例子,我们有很多本地端的算法都是因为目前受到硬件平台的限制没法上线,真正提供给客户去使用。

我再举几个例子,比如我们在本地的半监督学习是需要本地更多的计算资源来配合,包括本地的识别,本地的语义,本地的自适应,本地更自然交互,都对存储带宽提出了进一步的增强需求。

机器之心:你开始提到的思必驰自有的算法面临到传统硬件平台不匹配的地方,具体包括哪些不匹配?

周伟达:第一个就是大规模的并行乘法,当然我们可以去通过增加并行乘法单元来解决。但是随之而来的,指令和数据都需要从内存里调用逻辑计算单元,那么输入输出的带宽就会成为瓶颈。这个瓶颈是目前大家都在迫切解决的,需要打破传统的冯诺依曼架构。

再进一步,如果我们要实现神经网络的超级压缩计算,还是要突破原有架构。

机器之心:你开始提到了思必驰做芯片的一个原因在于由外界客观限制引发的动力,也就是很多在实验室中得到验证的算法无法在硬件平台上落地。还有没有其他原因?

比如近几年出现了很多做 AI 芯片的创业公司,然后包括像英特尔等巨头,他们也在积极地布局这条业务线,有没有可能找合作伙伴来做这件事情?

周伟达:你这个问题提的很好。思必驰作为一家长期做 AI 算法研究和技术服务的公司,擅长做软件的公司来切入硬件市场,我们自问我们是没有这个能力,也没有基因,对这个行业不够了解。所以很自然的想法,我们一定是跟行业内的顶尖专家、跟明白人去合作。

我们最初也是抱着这样的想法,从 16 年下半年开始花了近一年时间把整个芯片行业调研了一个遍。在调研的过程中,我们同步跟几家做芯片 Design Service 的公司将近合作了一年,希望把我们的算法移植到他们的芯片平台上,用他们的硬件针对我们的算法优化,在这个过程中,我们发现有这么几个问题一直困扰着我们,解决不了。

第一个就是软件方与硬件方的合作程度,传统的思维是算法厂商向硬件方提需求就好了,你不用管我究竟怎么实现。当我们提出需要多少计算量,多少存储,多少带宽等,到这个阶段时,硬件方都能满足。他们会建议,采用常见的 ARM 各种 A 系列 CPU、M 类的 CPU 来搭建,尽可能把主频调高,把堆叠更多的乘法单元。

但是,当我们再加上几个限制条件——需要做到多少的功耗、做到多少的面积(这就决定了芯片的生产成本)时,硬件方几乎都表示不可行。我们发现,算法公司和芯片公司的合作如果不能够彻底地开放,深度地定制仍然满足不了需求。

另外一个更重要的问题,就是在产品客户、技术服务商、芯片供应商三方合作中的话语权不对等。

我们提供语音技术服务,接触各行业的大量客户,我们对客户的场景进行了深入地了解,当我们充当中间人把实际需求反馈给做芯片方希望进行更迭时,芯片方的认可度和合作意愿并不高。

比如,在 2015 年时,我们提出多麦克风阵列设计,我们自己设计了代码,然后去跟芯片厂家提出芯片接口是否能增加六个、八个麦克风,因为当时的 SOC 芯片一般只有左右两个通道的麦克风。但芯片厂商的迟疑是「你们确认有这个需求吗?」这些需求或许在他们看来是不可思议的。

我们最后没办法,直接去用 FPGA 这种可编辑的硬件器件自己搭了一个 demo,向客户演示是双麦还是六麦效果更好,如果六麦效果更好,那芯片是否应该支持。所以作为技术提供商我们去要去硬件平台非常费劲。

在一年调研的过程中,我们对接的公司最快的至少要三个月,最慢要一年,到最后产品还上不了市。后来,我们发现无论我们如何去推动,基本上总是落后于市场,等到市场已经有人做出来了再跟进都是晚了。因为芯片的研发周期、成本、落地风险都很大,往往需要提前去规划

我们意识到,只有软件公司跟芯片公司真正将风险绑定在一起,一起去投入,才能够提前预估市场走向并真正做到事先的布局。

产业链正在被重塑

机器之心:你刚才提到如果软件公司和硬件公司要共同研发一款芯片,需要非常深层次的合作。我之前也了解过类似的案例,一家 AI 芯片公司有非常强的加速和降功耗能力,但针对算法加速时需要拿到完整的算法和数据,这对于算法提供方而言存在泄露商业机密的隐患和风险,这是一家公司可能遇到的情况,还是普遍现象?

周伟达:说句大白话,算法公司和芯片公司如何不「脱光」了坦诚相见,根本没法深度的合作。从 16 年下半年到 17 年,我们接触过各种芯片设计公司,包括 DSP 领域全球知名的 IP 厂商、国内的知名物联网芯片设计公司、以及第三方的外包做 design service 公司、新冒出的 AI 芯片创业公司,跑了将近七八十家,尝试各种层面合作,甚至有好几家我们已经谈到了合资公司的层面,但到最后都很难真正达成。

因为做芯片做硬件公司,并不局限于为一家算法公司服务,往往只是按项目走,细节需求很难满足。而如果芯片公司只是想设计通用芯片,算法公司一般也不可能将算法开放出来,如果需要适配多家,算法优化难以跟进。所以,我们认为如果不是深度合作,算法公司和芯片公司之间的 gap 很难弥补,很难做出真正高能效比的 AI 芯片。

另外,考虑到市场的需求跟传统芯片公司的脱节,以及我们在对接需求过程中的困难。所以我们希望自己做一家芯片公司。

机器之心:我们之所以对这个问题这么感兴趣也是在于,很多人都有一个先入为主的想法,当越来越多的语音算法公司切入到芯片市场,会不会是为了赶风口?现在看来这背后其实有一段更为长期和痛苦和探索。

周伟达:是的,在这之前我们曾经和国内一家专业的芯片公司合作,我们派专门的算法团队跟进合作将近做了一年,把思必驰的算法针对它的芯片做定点化移植,基于我们的算法性能瓶颈做分析,让他们来针对性做优化。双方做了一年下来,我们整个改进的加速只加速了 20%。跟对于我们真正未来把这些算法在端侧落地是远远不够的。

机器之心:在你们的预期里应该要提升多少?

周伟达:至少是 5 到 10 倍。

机器之心:如何理解?

周伟达:假设现在算力需要 1G,现在只能优化到 800MB。5 到 10 倍,就是我们预期至少优化到 100-200MB,相当于只有原先的 1/5—1/4。

机器之心:你最开始分析了外部的大趋势走向,现在结合内部来看,主要是算法公司和芯片硬件公司在合作层面遇到瓶颈。

思必驰:虽然我们花了近一年时间才验证这种合作能不能走得通,但这一年里头也给我们很大的启发,对我们接下来自己如何做芯片,掌握产业链情况提供了很多帮助。

机器之心:你开始提供过去一年里至少拜访了 70-80 家芯片公司,这让我想起一个观点整:芯片产业链正在潜移默化地改变,以前常说芯片周期长,一款芯片至少要 3 到 5 年才能落地,但是现在从生产到测试到设计各个环节都能够代工,这个周期正在缩短?

周伟达:在缩短,但是相比软件开发仍然是长周期。基本上,如果不是说这颗芯片已经成熟的,只是改改某个接口,而是重新架构,从芯片的定义到真正上市,我觉得两年是很正常的。

机器之心:除了周期缩短,还有哪些变化,是不是产业链越来越成熟,更多设计环节都能由第三方公司代工完成,做芯片更容易了?

思必驰:目前仅国内做芯片代工设计的公司将近达到千家,但是代工设计通常不是最核心的部分,很多时候他们并不能满足不你的需求,比如说其他需求都能满足的情况下功耗是数瓦,但如果提出要做到毫瓦级代工就没有办法,最核心的部分需要根据我们对算法的了解,重新从头来设计来做优化。

机器之心:其他部分,比如说 CPU、DSP 等设计已经比较成熟?

周伟达:对,这些无论是请其他公司设计,还是你自己来做,一般来说都是买其他家的 ip,然后进行 soc 级的集成。

合资公司的使命

机器之心:我们了解到这次成立的深聪 AI 芯片公司是一家合资公司,通常工商信息查询了解到,思必驰占主要股比,另外还有中芯国际和一家投资公司公司共同参与。

周伟达:2017 年我们完整地调查过一圈行业以后,内部对于要做芯片这个方向形成了统一意见。但具体怎么落地,大家是有过争论的。我们争论下来,得出的结论就是说在思必驰体内部做并不合适。

因为思必驰已经是一支具有 500 余人的中型技术公司,内部相对有话语权、能够进行决策的大都是算法背景为主。如果芯片业务由他们来知道,其实就是外行人指导内行人,是不合理的。

所以第一个共识是,我们决定不会放在思必驰内部,而是成立一家独立的公司,必须请请到业内的专家、明白人来带领我们做这件事,要充分放权。

但是另一方面,因为我们做的芯片需要跟算法深度结合,所以思必驰的算法团队一定会把思必驰最先进的算法开放给我们自己的芯片公司,这两边是紧密结合的,这也是长期的一个原则。我们调研下来就知道,如果算法不开放,只是提一个需求,很难做好。

作为合资公司,目前思必驰出于控股地位,但我们有很明确开放的心态。在融资阶段希望有更专业的人,甚至其他方向做 AI 算法的人,甚至做图像视觉的人一起投资进来,把深聪这家公司打造成专业的 AI 芯片研发公司。

机器之心:这家新公司的主要业务范围和定位是?

周伟达:首先,我们会推出能够落地的产品,向行业证明普遍认为很难达到的 5-10 倍优化通过我们的方案能够得到解决,在我们的芯片上能够实现很好的能效比;通过落地的芯片和客户产品向行业证明后,我们会以一个开放的心态需求更多的合作,包括业内的 IP 公司,芯片的设计公司,甚至做 SOC 芯片,可以授权我们的 IP,甚至联合研发一款芯片。

因为做 SoC 级芯片,在语音交互加速之外并不是我们所擅长的,其他部分可能 mtk、全志、海思等擅长。如果我们不擅长,那我们放开出来联合专业人才一起推进,然后快速去上市,快速扩大市场规模。

我们对深聪的定位是要开放做芯片,未来不仅仅是针对思必驰做语音方面的芯片,未来可以做图像,做真正类脑的人工智能芯片。

此外,我们也希望深聪能够未来通过自己团队的努力,能够真正独立去发展,包括独立融资,独立组建更强有力的团队,这也是基于我们 16-17 年对整个芯片行业的调研,我们觉得这样可能最有利于芯片公司未来的发展。

机器之心:从调研到成立新公司的时间点能再梳理一次吗?

周伟达:我们从 2016 年 11 月左右开始探索各种合作模式和调研,一直 17 年的 12 月完成一轮的探索。经过一个多月的总结和内部探讨,我们在 2018 年的 2 月份开始筹备深聪这家公司。

机器之心:目前第一款产品的进度是?

周伟达:我们从 2018 年 3 月份开始定义产品,4 月份到 8 月份进行具体的设计、集成、验证、优化;8 月份开始样品流片,11 月份样品回来我们点亮验证,同时进行软件的开发,目前已经实现多个 demo。

机器之心:这样的路径和其他语音算法公司切入芯片领域的打法不太一样。

周伟达:我想我们会更为慎重一些。做芯片不在于讲故事,周期长投入也大,在于你做出来的芯片能不能真正落地。从 55 纳米到 40 纳米到 28 纳米,做三代芯片,如果一款都没法落地,那再大的故事,再大的融资都会被烧完。

机器之心:目前团队情况如何?

周伟达:在高管方面,深聪 CTO 朱城宇毕业于复旦微电子专业跟普渡大学,曾就职于美国英特尔做 CPU,在中芯国际担任其 IP 部门负责人,2018 年加盟深聪。另外一位,执行副总裁吴耿源,毕业于台湾清华,曾在中芯国际负责市场和战略,加盟深聪后将负责我们的商务和运营。

截止春节前团队将达到 25 人,均为技术工程师,软件工程师和硬件工程师约各占 50% 的比例。

机器之心:关于你个人的工作,作为思必驰的 CTO,现在还要负责新公司的统筹,是否可能兼顾不过来?

周伟达:对于思必驰技术研发而言,经过将近十一年的成长,包括研发的骨干担当都逐渐成熟起来了,我主要是在整体和方向上进行把控。对于一家新成立的芯片公司,我最主要的角色是充当算法和芯片设计方沟通的桥梁,到底我们是针对什么样的市场,市场有什么样的需求?因为必须要对市场足够了解和足够有经验的人才能定义这件事。

另外一个十分重要的任务,帮助深聪快速组建团队规模,邀请到有大局观和行业影响力的人加入到深聪。长远来看,未来将会逐步放权给深聪自有的团队来发展。

机器之心:看起来目前正处于孵化阶段。另外一个关注度很高的问题,作为一家以芯片设计为主要业务的合资公司在挑选伙伴时,为什么不是选择类似公司,而是中芯国际,在业内印象中主要偏向 Foundry?

周伟达:这也是基于我们长期的市场调研,对于创业公司而言,从设计到做出样片并不难。但从样片到真正去量产,从量产做到 100 万,从 100 万做到 1000 万。这里头每一个都是看坎,这和供应链有密切关系。

要真正成为一家能够研发并落地,为真正消费产品大规模供货的公司,后面的运营部分非常重要。中芯国际能够在生产、产线、验证、测试等方面提供保障。尤其能够控制供货的周期和时效性。

机器之心:所以合资公司的业务里可能涉及到生产环节。

周伟达:我们本身不会参与去生产,肯定也会找 Foundry 来生产,但是作为合资公司,这将是我们可靠的资源和保障。

造芯片,卖给谁?

机器之心:沿袭思必驰的市场方向,以及考虑到目前语音处理芯片主要面向物联网方向,深聪科技面向的客户可能包括哪些?

周伟达:首先作为一款前端语音专用芯片,针对支持线性双麦、线性四麦、环形四麦、环形六麦等全系列均会支持,包括降噪算法、本地唤醒、本地识别的、声纹识别功能都会放在芯片里来实现。

我们面向的场景,包括但不限于手机、车载、音箱、电视、机顶盒、白电、教育平板、学习机、玩具、故事机等。

活动现场,深聪智能执行副总裁吴耿源介绍了上述细分市场的各自规模体量,以及深聪科技预估的市场渗透率

机器之心:在这些目标市场里,看起来手机的出货量是最可观的,我们将以什么样的方式切入?

周伟达:我们已经在与国内大厂沟通相关合作。目前,部分主流手机的音效处理、低功耗语音唤醒、语音交互等多设置单独的一颗芯片,比如小米 Mix 2。

但手机不会是我们首先切入的市场,因为手机供货严苛,对我们后面的供货量与质量都提出了很大的挑战。我们会在质量、性价比等保证候,再逐渐落地。

机器之心:就是要跟大厂去竞争?

周伟达:我们做好语音 AI,做好软硬一体化带来的性能体验会优于目前已有的,这就是思必驰的价值,未来无论是我们做芯片提供 ip 和大厂合作,或者说是我们卖芯片给各家手机厂商或者白电厂商才会有市场。如果你没有自己的核心的价值,你想竞争都没机会是吧?

机器之心:在上述提到的市场方向中,平板也是一个方向?

周伟达:是的,目前国内的平板对于语音交互的需求都开始全面对接了,语音交互将会是一个比较重要的模式。

机器之心:智能音响是在过去一年中关注度颇高的品类,虽然能够看到国内大公司的出货量已经达到百万台量级,但是价格战也十分激烈,这其中还有利润可言吗?或者说芯片的价格是否也被打压地比较厉害?

周伟达:巨头们看好这个方向,他们愿意甚至补贴去做智能音箱,我相信这背后一定存在价值。关于智能音箱的语音芯片还有没有利润这个问题,我们认为我们的芯片本身就不是为场合是哪个去做 cost down,我们是给他带来综合价值的。

比如,低功耗的部分,我们的单片再加上一颗独立的 MCU 或者 wifi 蓝牙的模组就能实现一个智能音箱的模组,成本上增加不多,但是我们能把功耗降得很低。现在的智能音箱必须充电,功耗低就可能放在带电池的音箱上,将能够实现待机状况下的唤醒……这都是客户想要的。

当「造芯」成为「主流」

机器之心:刚才有聊到你在 2009 年就加入思必驰投身智能语音市场,我们发现越来越多的语音算法公司都开始在做芯片,比如云知声、Rokid 等。相较而言,视觉算法公司的造芯势头弱一些,这会是语音市场本身决定的吗?是不是都有这种「造芯」的必然性?

周伟达:我觉得并不一定。做芯片确实是投入大周期长风险高的事情。之所以我们要做芯片,我前面也说了,我们是有很多的算法想在落地,但目前的芯片不合适。

机器之心:有一种观点认为,语音技术的门槛正在降低,市场份额也在被 BAT 等互联网公司抢占,尤其是以百度为首提出的语音交互服务的「免费战」在不断打压原有的语音技术服务商?

周伟达:目前语音市场里,收费和免费不是根本影响因素。互联网公司虽然能够提供免费服务,但据我所知基于这种战略所能占领的市场并不明显,在细分场景和语义识别上的积累有限。

我们看到的情况是,只要技术能够让产品增加价值,提升体验,大家是愿意付费。现在并不是说全行业的技术水平都一致,都能免费,免费就能够提升市场份额,目前还没到这个阶段。即使免费了,技术做不好也没人用。

机器之心:换个角度来看,语音技术服务公司尝试从底层来建立一套软硬一体的更完整的方案,会是我们在市场争夺中去抗衡巨头的一种方式吗?

思必驰:是一种方式,软硬结合在一起,竞争的优势会更大,技术的体验、产品的功耗、成本都会更加可控。

但我觉得是否做芯片真的不是三分钟热血或者跟风来决定的,也不是为了讲某个故事。

我们未来到底需不需要芯片,目前市场里已有的芯片到底能不能满足?不能满足,差距在哪里?如果做一颗芯片,定位在什么样的市场?能不能落地?这是我相信每家公司在考虑做时芯片真正需要面对的问题。

机器之心:谈到你上边的思考,多模态或者从语音切入视觉的打法你们如何考虑?

周伟达:首先让搭载我们芯片的客户产品真正能够上市,有更多事实说话后再谈布局和计划才有意义。

思必驰来说,我们这颗芯片发布完之后,是要大量去落地去推广的。所以我们从芯片定义整个周期掐得很准,8 月份流片,11 月份验证,1 月份有 demo,一季度末量产,这些都是在我们的计划范围内。

产业思必驰芯片
1
相关数据
英特尔机构

英特尔是计算创新领域的全球领先厂商,致力于拓展科技疆界,让最精彩体验成为可能。英特尔创始于1968年,已拥有近半个世纪产品创新和引领市场的经验。英特尔1971年推出了世界上第一个微处理器,后来又促进了计算机和互联网的革命,改变了整个世界的进程。如今,英特尔正转型成为一家数据公司,制定了清晰的数据战略,凭借云和数据中心、物联网、存储、FPGA以及5G构成的增长良性循环,提供独到价值,驱动日益发展的智能互联世界。英特尔专注于技术创新,同时也积极支持中国的自主创新,与产业伙伴携手推动智能互联的发展。基于明确的数据战略和智能互联全栈实力,英特尔瞄准人工智能、无人驾驶、5G、精准医疗、体育等关键领域,与中国深度合作。面向未来,英特尔致力于做中国高价值合作伙伴,在新科技、新经济、新消费三个方面,着力驱动产业协同创新,为实体经济增值,促进消费升级。

https://www.intel.com/content/www/us/en/company-overview/company-overview.html
相关技术
高通机构

高通公司(英语:Qualcomm,NASDAQ:QCOM)是一个位于美国加州圣地亚哥的无线电通信技术研发公司,由加州大学圣地亚哥分校教授厄文·马克·雅克布和安德鲁·维特比创建,于1985年成立。两人此前曾共同创建Linkabit。 高通公司是全球3G、4G与5G技术研发的领先企业,目前已经向全球多家制造商提供技术使用授权,涉及了世界上所有电信设备和消费电子设备的品牌。根据iSuppli的统计数据,高通在2007年度一季度首次一举成为全球最大的无线半导体供应商,并在此后继续保持这一领导地位。其骁龙移动智能处理器是业界领先的全合一、全系列移动处理器,具有高性能、低功耗、逼真的多媒体和全面的连接性。目前公司的产品和业务正在变革医疗、汽车、物联网、智能家居、智慧城市等多个领域。

微软机构

微软是美国一家跨国计算机科技公司,以研发、制造、授权和提供广泛的计算机软件服务为主。总部位于美国华盛顿州的雷德蒙德,最为著名和畅销的产品为Microsoft Windows操作系统和Microsoft Office办公室软件,以及Xbox的游戏业务。微软是美国《财富》杂志2015年评选的世界500强企业排行榜中的第95名。

https://www.microsoft.com/en-us/about
思必驰机构

思必驰是国内领先的人工智能语音交互技术平台公司,为企业和开发者提供自然语言交互解决方案,包括DUI开放平台、企业级智能服务、人机对话操作系统、人工智能芯片模组等,并在赋能智能终端后,丰富后端服务资源,满足用户多样化需求。

http://www.aispeech.com/
云知声机构

云知声成立于2012年,是一家专注物联网人工智能服务、拥有完全自主知识产权、世界顶尖智能语音识别技术的高新技术企业。总部位于北京,在上海、深圳、厦门设有分公司。自成立以来,发展迅速,备受人工智能行业及资本市场的广泛关注,累积融资近亿美元,合作伙伴数量也已经超过2万家 。

https://www.unisound.com/
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

半监督学习技术

半监督学习属于无监督学习(没有任何标记的训练数据)和监督学习(完全标记的训练数据)之间。许多机器学习研究人员发现,将未标记数据与少量标记数据结合使用可以显着提高学习准确性。对于学习问题的标记数据的获取通常需要熟练的人类代理(例如转录音频片段)或物理实验(例如,确定蛋白质的3D结构或确定在特定位置处是否存在油)。因此与标签处理相关的成本可能使得完全标注的训练集不可行,而获取未标记的数据相对便宜。在这种情况下,半监督学习可能具有很大的实用价值。半监督学习对机器学习也是理论上的兴趣,也是人类学习的典范。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

规划技术

人工智能领域的「规划」通常是指智能体执行的任务/动作的自动规划和调度,其目的是进行资源的优化。常见的规划方法包括经典规划(Classical Planning)、分层任务网络(HTN)和 logistics 规划。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

神经元技术

(人工)神经元是一个类比于生物神经元的数学计算模型,是神经网络的基本组成单元。 对于生物神经网络,每个神经元与其他神经元相连,当它“兴奋”时会向相连的神经元发送化学物质,从而改变这些神经元的电位;神经元的“兴奋”由其电位决定,当它的电位超过一个“阈值”(threshold)便会被激活,亦即“兴奋”。 目前最常见的神经元模型是基于1943年 Warren McCulloch 和 Walter Pitts提出的“M-P 神经元模型”。 在这个模型中,神经元通过带权重的连接接处理来自n个其他神经元的输入信号,其总输入值将与神经元的阈值进行比较,最后通过“激活函数”(activation function)产生神经元的输出。

语音识别技术

自动语音识别是一种将口头语音转换为实时可读文本的技术。自动语音识别也称为语音识别(Speech Recognition)或计算机语音识别(Computer Speech Recognition)。自动语音识别是一个多学科交叉的领域,它与声学、语音学、语言学、数字信号处理理论、信息论、计算机科学等众多学科紧密相连。由于语音信号的多样性和复杂性,目前的语音识别系统只能在一定的限制条件下获得满意的性能,或者说只能应用于某些特定的场合。自动语音识别在人工智能领域占据着极其重要的位置。

查询技术

一般来说,查询是询问的一种形式。它在不同的学科里涵义有所不同。在信息检索领域,查询指的是数据库和信息系统对信息检索的精确要求

信号处理技术

信号处理涉及到信号的分析、合成和修改。信号被宽泛地定义为传递“关于某种现象的行为或属性的信息(如声音、图像和生物测量)”的函数。例如,信号处理技术用于提高信号传输的保真度、存储效率和主观质量,并在测量信号中强调或检测感兴趣的组件。我们熟悉的语音、图像都可以看做是一种信号形式。因此,对于语音、图像的增强、降噪、识别等等操作本质上都是信号处理。

麦克风阵列技术

麦克风阵列(Microphone Array),从字面上,指的是麦克风的排列。也就是说由一定数目的声学传感器(一般是麦克风)组成,用来对声场的空间特性进行采样并处理的系统。 早在20世纪70、80年代,麦克风阵列已经被应用于语音信号处理的研究中,进入90年代以来,基于麦克风阵列的语音信号处理算法逐渐成为一个新的研究热点。而到了“声控时代”,这项技术的重要性显得尤为突出。

语音处理技术

语音处理(Speech processing),又称语音信号处理、人声处理,其目的是希望做出想要的信号,进一步做语音辨识,应用到手机界面甚至一般生活中,使人与电脑能进行沟通。

堆叠技术

堆叠泛化是一种用于最小化一个或多个泛化器的泛化误差率的方法。它通过推导泛化器相对于所提供的学习集的偏差来发挥其作用。这个推导的过程包括:在第二层中将第一层的原始泛化器对部分学习集的猜测进行泛化,以及尝试对学习集的剩余部分进行猜测,并且输出正确的结果。当与多个泛化器一起使用时,堆叠泛化可以被看作是一个交叉验证的复杂版本,利用比交叉验证更为复杂的策略来组合各个泛化器。当与单个泛化器一起使用时,堆叠泛化是一种用于估计(然后纠正)泛化器的错误的方法,该泛化器已经在特定学习集上进行了训练并被询问了特定问题。

暂无评论
暂无评论~