中国初创公司在 AI 芯片(IP)领域的机会
深度观点

中国初创公司在 AI 芯片(IP)领域的机会

不是每一个平台都适用 AI 芯片。

2017-06-19 6:47:46


作者:唐杉

去年 11 月的时候第一次思考这个题目,今年 3 月做过一次更新。短短几个月,AI 芯片领域变化不断,新闻不断,有必要再更新一下这个讨论。希望这次能把一个更为完整的分析呈现给大家。

我认为相关的市场主要可分成三大类。第一类是 Data Center(Cloud)中用于 training 和 inference 的专用芯片或者 FPGA(非 GPU/CPU 芯片)。第二类是需要较强智能的终端芯片(面向手机,安防监控,无人机,机器人,自动/辅助驾驶,VR/AR 等),或许可以叫“泛手机终端芯片”。这类应用主要也是 inference 功能,不排除未来有 training 的需求;第三,是智能需求较低的终端芯片(穿戴,玩具,智能家居等等),以下叫“弱智能终端芯片”。当然,终端设备对智能的需求是相对的,可能覆盖很大范围。这里说的第三类实际上也可以看作是指受到成本,功耗等因素限制的 inference 需求。(参考, 如何做神经网络处理器的需求分析?

还是先说结论:

Cloud training/inference(专用芯片/FPGA):可以一搏 ;泛手机终端芯片: 机会很小 ;弱智能终端芯片: 充满变数
•••     

先说说第二类吧。为什么说第二类对于初创公司基本没有机会?因为这是目前芯片产业竞争最激烈的战场。手机芯片大厂(高通,MTK,海思,展讯,苹果,三星)已经非常强大,而且还在不断把自己的技术能力推广到无人机,机器人,安防监控,自动驾驶,VR/AR 等领域。很难想象会有初创公司能够再挤进来。

那么以 IP 形式进入是否有机会?个人的看法也是机会很小。第一,从技术能力来讲,这些公司都有实力(多年做通信基带和多媒体的经验)自己设计复杂的加速器或者专用处理器;第二,传统的 IP 厂商,比如 CEVA,Synopsys,Cadence(tensilica)和 Vericilicon 也都盯着 AI IP 这个机会。最近这些公司也都频繁发布支持 AI 应用的 DSP 和硬件加速器产品(参考 神经网络 DSP 核的一桌麻将终于凑齐了)。初创公司的 IP 如果有一定的技术特点和价格上的灵活性,有可能在大厂预热过程中得到试用的机会。但最终出现在量产芯片中的可能性非常小。第三,目前很多带 AI 性质的应用,要么是在 cloud 端实现,要么就直接拿现有的硬件资源来实现,比如 ARM CPU/GPU 或者已有的 multimedia DSP 来实现。手机芯片巨头都在定义 AI 相关的 user case,是否有 killer app 需要在手机芯片中增加额外的硬件代价还有待观察。最后,ARM 前段时间也推出了面向 AI 的 DynimicIQ 方案,其中定义了 CPU 和 DL 加速器的接口;后续还可能有更多动作,可能会对这个领域有很大的冲击。而 Nvidia 开源 xavier DLA,会进一步拉低 inference 实现的门槛(从 Nvidia 开源深度学习加速器说起)。最近 MTK 最近也有所动作,可以看出 AI 在其未来战略中的重要性。

微信截图_20170618205539

不过在这个 Deep Learning IP 领域,国内的一个 Startup 可能会给我们带来好消息,值得期待。

•••

第三类弱智能计算应用,实际上可以也和第二类应用一起叫做边缘计算应用。这里加以区别,是因为这类应用对功耗、成本甚至尺寸的压力更大,主要包括一些物联网,可穿戴应用。其硬件平台的处理器能力非常有限(传统的 MCU 领域)。这类应用的总量很大,但差异化明显,需求五花八门,存在很多变数,技术上很难用一种架构来实现。相对泛手机芯片而言,这类芯片的资金投入门槛不高。随着 Nvidia 开源 DLA,如果配合开源的 RSIC-V CPU,门槛可能会进一步降低(当然,用开源的东西,技术门槛可能会更高)。所以,能不能成功的关键还得看芯片的 spec 定义是不是合理,能不能在市场出现的时候及时拿出芯片。相信未来可以看到不少初创公司在这个领域出现和死亡。目前看得比较清楚的是智能语音应用,从技术的可行性到市场的驱动都已经具备了芯片化的条件。

在这个领域,我还是比较看好由应用驱动芯片研发的公司。目前国内有很多 Startup 在图像处理,声音处理的算法和应用方面已经有了不错的积累。如果它能在某个细分领域获得领导地位,并根据应用定义和开发自己的芯片,巩固技术优势,则是一个比较好的状态。简而言之,就是顺势而为,水到渠成,而不是为了做芯片而做芯片。(当然,很多公司也是为了拿到投资而把设计芯片作为噱头的,这种情况我就不予置评了。)

•••

在 Cloud 和 Data Center 的 training 和 inference 领域,最近 Nvidia 和 Google 的密集发布引来不少口水战。我在“AI 芯片架构的争论真有意义吗?”这篇文章中已经介绍了目前的这个领域大家的竞争的重点是什么。

“对于 Data center 的 training 和 inference 系统来说,竞争已经不是在单一芯片的层面了,而是看能否扩展到 exascale 的问题(exaFLOPS,10 的 18 次方)。而和 TPU2 的同时发布 TensorFlow Research Cloud (TFRC),对于发展 TPU2 的应用和生态,才是更为关键的动作。”

所以,除了基本的需求,比如 Training 需要的强大处理器能力,高精度,高灵活性;Inference 需要的低延时,高吞吐率,高功耗效率这些因素之外;对于异构的大规模分布处理系统的 Knowhow 已经生态系统的建设也非常重要。而这一点往往是 Startup 非常欠缺的。

不过,个人还是比较看好国内的这块市场的。第一,目前很多中国的互联网巨头(包括很多小巨头)都把 AI 作为重点发展的方向,也有非常实际的需求,比如下图就是蚂蚁金服在 GMIS 上介绍的 AI 业务。

微信截图_20170618205556

第二,从竞争态势来说,目前是 NVIDIA 一家独大,利润空间很大;Intel 虽然也有很多动作,但多长时间能推出可以和 NVIDIA 抗衡的产品还很难说。第三,国内目前对 server 芯片自主设计的呼声很高,容易得到国家支持。相对 server CPU(已经有海光和华芯通在做)的复杂度和生态环境,Machine Learning 专用芯片在技术实现和应用渗透方面都要简单不少(Google 的 TPU 就是个很好的例子)。所以,目前这个领域对于国内公司来说是值得一搏的机会。成功立足的话,很有可能做大做强。不过这个领域需要大量烧钱,必须有资本实力作保障。

总的来说,不管是从技术层面,还是资金层面来看,如果能找到一个有一定规模和实际需求的互联网公司合作,也许是成功的关键。

最后,Cloud 端还有一个比较有趣的市场:基于 FPGA 的 inference 应用(比如对图像、连续视频和语音的检测和识别,实时翻译等等)。这类应用除了需要强大的处理器能力能力外,对实时性要求非常高。这类应用对成本不是很敏感,适合用 FPGA 来。首先,通用的 GPU 做 inference,不一定能满足实时性的要求,而针对特定应用优化过的 FPGA 设计,inference 效率会高很多;其次,和用专用的芯片做 inference 对比,FPGA 的灵活性又有很优势,改变算法或者网络的成本很低,非常适合人工智能领域的快速发展和变化;第三,FPGA 进入 Cloud 市场是个趋势,目前 Amazon,阿里云和腾讯云都开始提供(或者试用)FPGA 资源,机器学习应用是一个重要内容。而 FPGA 的固有缺点:成本高,能耗大(和专用芯片相比),在这个应用场景下基本可以忽略。在今年的 GMIS 上,蚂蚁金服介绍了他们的机器学习平台,其中 FPGA 已经是重要的组成部分。

微信截图_20170618205608

以上分析只是个人一点浅见,如果有不对的地方,欢迎大家批评指正,也欢迎大家和我交流。

扫码关注粹客网微信公众号,每日推送更多精彩资讯,随时随地关注业界最新动态
新锐编辑,微信号ZYC844937144,欢迎私信交流

热门评论

Copyright © 2015-2016 粹客网 | 广州市彼利熊网络科技有限公司 (粤ICP备15096117号)