扫码或点击进入无线充模块店铺
人工智能加速器芯片被大肆炒作,但这个市场究竟有多大,如今有哪些公司是真的在卖人工智能芯片的?
来自ABI Research的两份新报告详细分析了当今人工智能芯片组市场的发展状况。其中,ABI Research首席分析师Lian Jye Su谈到了正在进入这个潜在利润丰厚市场的公司和技术。
云端的人工智能
第一份题为“云AI芯片组:市场格局和厂商定位”的报告,突出了云AI推理和训练服务的快速增长情况。ABI Research由此预计,AI芯片组市场规模预计将从2019年的42亿美元增长到2024年的100亿美元。目前这一领域的领导者Nvidia和英特尔正受到来自Cambricon Technologies、Graphcore、Habana Labs和Qualcomm等公司的挑战。
据Su介绍,Nvidia仍然是这个市场明显的领导者,这主要取决于Nvidia具有成熟的开发者生态系统及先发优势。
“随着人工智能模型、库和工具包的不断变化和更新,Nvidia成为了一个很好的选择,因为它能提供通用AI芯片组。当然,随着市场的不断成熟,这些优势将逐渐弱化,但至少在可预见的未来,Nvidia仍将处于强势地位。”
今天的云AI芯片组市场可以分为三个部分:首先是托管公有云的云服务提供商,包括AWS、微软、谷歌、阿里巴巴、百度和腾讯等;其次是企业数据中心,也就是私有云;此外,还有混合云,也就是公有云和私有云(VMware、Rackspace、NetApp、HPE、Dell)的结合体。
该报告还确定了另一个新兴的细分市场——电信云,指的是电信公司为其核心网络、IT和边缘计算工作负载部署的云基础设施。
Su表示,这个新的细分市场为AI芯片组制造商带来了巨大的机遇。
“我们已经看到了像华为这样的网络基础设施厂商,还有诺基亚这样的厂商,推出了针对电信网络功能进行优化的ASIC。这是一个巨大的市场,Nvidia最近也一直在努力进入这个市场。”
2017年至2024年人工智能芯片组年销售总收入(来源:ABI Research)
虽然Su认为短时间内其他厂商无法取代Nvidia在云端AI训练领域的主导地位,但具体在AI推理领域却并非由一家厂商主导,这在一定程度上是由推理工作负载在垂直方向各有不同的性质决定的。他说,预计ASIC将从2020年开始在该细分领域实现强劲增长。
眼下,将AI推理转移到边缘设备这一趋势意味着智能手机、自动驾驶汽车和机器人等设备对云的依赖减少了,但这并不意味着推理工作负载——一些云服务提供商认为推理工作负载要比训练工作负载大——就会减少,Su这样表示。
“一些人工智能永远不会走向边缘,例如聊天机器人和会话AI、欺诈监控和网络安全系统。这些系统将从基于规则的系统发展为基于深度学习的人工智能系统,这实际上会增加推理的工作量,使其足以取代那些转向边缘的推理工作负载。”
此外,谷歌的TPU可以解决在云端进行训练和推理问题,被视为CPU和GPU技术(分别由英特尔和Nvidia主导)的强大挑战者。正如报告所述,谷歌在TPU上取得的成功为其他自主开发AI加速器ASIC的云服务提供商(CSP)提供了蓝图,例如已经行动起来的华为、AWS和百度。
如果云服务提供商都在使用他们自己的芯片组,那么对于其他芯片组提供商来说,这个细分领域还有市场空间吗?
“这对于刚开始使用自己芯片组的CSP来说是极具挑战的,我们甚至预测,到2024年CSP这个市场将下降15%至18%。而机会更多地来自于私有数据中心领域。银行机构、医疗机构、研发实验室和学术界仍然需要运行人工智能,他们会考虑使用那些针对AI工作负载进行了更多优化的芯片组,这就给Cerebras、Graphcore、Habana Labs和Wave Computing等新手提供了一些优势。
其他将从这些趋势中受益的是IP核心授权厂商,例如ARM、Cadence和VeriSilicon,他们将负责帮助那些甚至是开始自主研发的企业进行芯片组设计。
边缘的人工智能
ABI第二份题为“边缘AI芯片组:技术展望和使用案例”的报告称,2018年边缘人工智能推理芯片组市场规模为19亿美元,边缘训练市场规模为140万美元。
今天有哪些应用是在边缘位置进行训练的?Su解释说,这些数据中包括网关(历史数据库或设备Hub)和内部部署服务器(在私有云中,但物理位置是靠近AI数据生成的地方)。专为内部部署服务器的训练任务设计的芯片组包括Nvidia的DGX,华为的网关和服务器,其中包括Ascend 910芯片组,以及针对来自Cerebras System、Graphcore和Habana Labs等内部部署数据中心的系统级产品。
“‘边缘训练’市场仍然很小,因为云仍然是人工智能训练的首选,”Su说。
2017年至2024年,针对推理和培训的AI芯片组年销售总收入(来源:ABI Research)
边缘AI推理是2019年至2024年期间边缘人工智能市场实现31%复合年增长率的主要推动力。Su提到了三个主要市场(智能手机/可穿戴设备、汽车、智能家居/白色家电)以及三个利基市场。
第一个利基市场是机器人,因为依赖多种类型的神经网络,机器人通常需要异构的计算架构,例如用于导航的SLAM(同时定位和映射),用于人机界面的会话AI,用于对象检测的机器视觉,所有这些都会在不同程度上使用CPU、GPU和ASIC。目前,Nvidia、英特尔和高通正在这个领域进行激烈的竞争。
第二个利基市场是智能工业应用,涉及制造业、智能建筑、石油和天然气领域。我们看到,FPGA厂商因为遗留设备的原因在这一领域表现突出,但同时也要归功于FPGA架构的灵活性和适应性。
最后一个利基市场是“非常边缘”,即将超低功耗AI芯片组嵌入WAN网中的传感器和其他小端节点中。由于重点是超低功耗,因此这个领域主要由FPGA厂商、RISC-V设计和ASIC厂商主导。
那么到目前为止,谁在边缘人工智能推理领域领跑?
“意料外——或者意料内的——的是,智能手机AI ASIC厂商在这个领域占据领先,因为智能手机的出货量是很大的,例如苹果、海思半导体、高通、三星以及联发科等,如果说的是初创公司的话,我认为Hailo、Horizon Robotics和Rockchip似乎相对终端设备制造商来说发展势头相当快。”
Su还表示,软件对于边缘AI芯片组的商业实施和部署来说至关重要,Nvidia正在升级编译工具和构建开发人员社区,相比之下,英特尔和Xilinx的策略是初创公司合作,或者收购拥有基于软件的加速解决方案。
“芯片组厂商应该考虑向开发者社区提供工具包和库,通过开发者训练计划、竞赛、论坛和大会等方式进行,因为这能吸引开发者与芯片组厂商展开合作以开发相关应用,所有这些都不是初创公司可以轻易实现的。”
该报告给出的结论是,除了为开发者社区提供合适的软件和支持外,厂商还应该提供良好的开发路线图,以及其他技术价值链的支持,此外还需要让他们的芯片有大规模的使用案例,以及具有竞争力的定价。
目前我国的人工智能芯片行业发展尚处于起步阶段。随着大数据的发展,计算能力的提升,人工智能近两年迎来了新一轮的爆发。数据显示,2016-2019年我国智能芯片的市场规模从19亿元增长至56.1亿元,复合年均增长率为43.5%,预计2021年市场规模将进一步增长,达到86.3亿元。未来,人工智能芯片行业市场前景非常可观。
人工智能已经成为目前芯片行业的一个重要驱动力。回顾人工智能在半导体行业的发展,我们可以清晰地看到一条从云到终端的演进路线。
最初,人工智能主要是作为一种服务部署在云端。本代人工智能基于大数据和神经网络,因此在训练时候需要大量的算力,在云端部署的时候也需要算力做支撑,因此云端人工智能领域中以Nvidia为代表的GPU加速人工智能成为了关注焦点,同时也有以Graphcore、Habana为代表的云端专用人工智能芯片公司与GPU分庭抗礼。2018年之后,随着模型和芯片设计的优化,人工智能逐渐从云端下沉到手机等强智能设备终端,在手机上基于人工智能算法的超分辨、美颜、人脸识别等应用也渐渐得到了主流认可,相应的芯片(IP)也就成为了手机SoC上不可或缺的一部分
随着大数据的发展,计算能力的提升,人工智能近两年迎来了新一轮的爆发。而人工智能的实现依赖三个要素:算法是核心,硬件和数据是基础,芯片就是硬件的最重要组成部分。它其实包括两个计算过程:1、训练(Train);2、应用(Inference)。
为什么需要人工智能芯片?神经网络算法应用的不断发展,使得传统的 CPU 已经无法负担几何级增长的计算量。深度学习作为机器学习的分支,是当前人工智能研究的主流方式。简单说就是用数学方法模拟人脑神经网络,用大量数据训练机器来模拟人脑学习过程,其本质是把传统算法问题转化为数据和计算问题。所以对底层基础芯片的要求也发生了根本性改变:人工智能芯片的设计目的不是为了执行指令,而是为了大量数据训练和应用的计算。
随着深度学习技术的快速发展,以及互联网和云计算时代海量数据和高效计算能力的支撑,计算机视觉技术、语音技术、自然语言理解技术等人工智能技术取得了突破性进展,并解锁多个行业的人工智能场景,产生了巨大的商业价值,驱动了人工智能行业的发展。同时,伴随人工智能技术的复杂性不断增加,其对于人工智能计算能力的需求随之增长。
市场规模
目前我国的人工智能芯片行业发展尚处于起步阶段。随着大数据的发展,计算能力的提升,人工智能近两年迎来了新一轮的爆发。数据显示,2016-2019年我国智能芯片的市场规模从19亿元增长至56.1亿元,复合年均增长率为43.5%,预计2021年市场规模将进一步增长,达到86.3亿元。未来,人工智能芯片行业市场前景非常可观。
数据来源:中商产业研究院整理
云端高性能芯片主要面向人工智能计算中的数据中心集中计算需求,主要用在智能服务器产品和云端人工智能计算场景中。根据IDC的研究数据,2019年中国智能服务器市场规模约为19.5亿美元,2018年至2023年的年均复合增长率达到27.09%,预计到2021年市场规模将达到31.8亿美元,市场规模快速增长。
数据来源:中商产业研究院整理
智能城市、智能商业等人工智能应用需要在边缘侧进行小规模处理和分析,基于深度学习的智能NVR、XVR等边缘端设备需要人工智能芯片的专用运算能力。在中国的NVR市场,智能芯片渗透率显著高于终端感知设备。数据显示,2019年NVR产品市场规模约为52.9亿元,其中智能NVR产品渗透率约为23.5%,预计到2021年,NVR产品市场规模约为93.8亿元。
数据来源:中商产业研究院整理
未来发展前景
1.国家政策大力扶持
近年来,国家高度重视人工智能及芯片行业发展,人工智能及芯片行业成为国家战略新兴产业,相关支持政策集中出台。2020年,国务院发布《促进集成电路和软件产业高质量发展若干政策》,明确提出集成电路产业和软件产业是信息产业的核心,是引领新一轮科技革命和产业变革的关键力量,明确了对国家鼓励的相关企业或项目的税收优惠政策,促进产业发展。
2.技术进步推动产业升级
随着芯片计算能力的不断提升,人工智能芯片、云端、边缘端、终端等人工智能算力产品的快速进步,为各种人工智能解决方案的规模化部署提供了高性能、高计算密度的算力支持。人工智能技术的快速进步,为行业应用提供了前提条件,解锁了多个行业的人工智能场景,促进传统行业的变革和效率提升,产生巨大的商业价值。
3.稳定增长的市场需求持续推动人工智能行业发展
随着人工智能技术的发展,在智能城市领域,“看得懂”逐渐取代“看得到、看得远、看得清”成为推动行业进步的主要因素。2016年、2017年通过国家大力建设和企业积极创新的共同作用,2018年开始智能城市进入快速落地阶段,科技开始真正赋能产业。计算机视觉技术、语音技术、自然语言理解技术等多种人工智能技术已成为推动智能城市领域的主要力量,随着市场广度不断的拓展,各类基于人工智能技术的应用场景将继续不断涌现。
当前,我国人工智能芯片行业正处在生命周期的幼稚期。主要原因是国内人工智能芯片行业起步较晚,整体销售市场正处于快速增长阶段前夕,传统芯片的应用场景逐渐被人工智能专用芯片所取代,市场对于人工智能芯片的需求将随着云/边缘计算、智慧型手机和物联网产品一同增长,并且在这期间,国内的许多企业纷纷发布了自己的专用AI芯片。
尽管国内人工智能芯片正逐渐取代传统芯片,但是集成商或芯片企业仍在寻找新的合作模式,这样才能很好地抓住新客户的需求。
人工智能加速器芯片被大肆炒作,但这个市场究竟有多大,如今有哪些公司是真的在卖人工智能芯片的?
来自ABI Research的两份新报告详细分析了当今人工智能芯片组市场的发展状况。其中,ABI Research首席分析师Lian Jye Su谈到了正在进入这个潜在利润丰厚市场的公司和技术。
第一份题为“云AI芯片组:市场格局和厂商定位”的报告,突出了云AI推理和训练服务的快速增长情况。ABI Research由此预计,AI芯片组市场规模预计将从2019年的42亿美元增长到2024年的100亿美元。目前这一领域的领导者Nvidia和英特尔正受到来自Cambricon Technologies、Graphcore、Habana Labs和Qualcomm等公司的挑战。
据Su介绍,Nvidia仍然是这个市场明显的领导者,这主要取决于Nvidia具有成熟的开发者生态系统及先发优势。
“随着人工智能模型、库和工具包的不断变化和更新,Nvidia成为了一个很好的选择,因为它能提供通用AI芯片组。当然,随着市场的不断成熟,这些优势将逐渐弱化,但至少在可预见的未来,Nvidia仍将处于强势地位。”
今天的云AI芯片组市场可以分为三个部分:首先是托管公有云的云服务提供商,包括AWS、微软、谷歌、阿里巴巴、百度和腾讯等;其次是企业数据中心,也就是私有云;此外,还有混合云,也就是公有云和私有云(VMware、Rackspace、NetApp、HPE、Dell)的结合体。
该报告还确定了另一个新兴的细分市场——电信云,指的是电信公司为其核心网络、IT和边缘计算工作负载部署的云基础设施。
Su表示,这个新的细分市场为AI芯片组制造商带来了巨大的机遇。
“我们已经看到了像华为这样的网络基础设施厂商,还有诺基亚这样的厂商,推出了针对电信网络功能进行优化的ASIC。这是一个巨大的市场,Nvidia最近也一直在努力进入这个市场。”
2017年至2024年人工智能芯片组年销售总收入(来源:ABI Research)
虽然Su认为短时间内其他厂商无法取代Nvidia在云端AI训练领域的主导地位,但具体在AI推理领域却并非由一家厂商主导,这在一定程度上是由推理工作负载在垂直方向各有不同的性质决定的。他说,预计ASIC将从2020年开始在该细分领域实现强劲增长。
眼下,将AI推理转移到边缘设备这一趋势意味着智能手机、自动驾驶汽车和机器人等设备对云的依赖减少了,但这并不意味着推理工作负载——一些云服务提供商认为推理工作负载要比训练工作负载大——就会减少,Su这样表示。
“一些人工智能永远不会走向边缘,例如聊天机器人和会话AI、欺诈监控和网络安全系统。这些系统将从基于规则的系统发展为基于深度学习的人工智能系统,这实际上会增加推理的工作量,使其足以取代那些转向边缘的推理工作负载。”
此外,谷歌的TPU可以解决在云端进行训练和推理问题,被视为CPU和GPU技术(分别由英特尔和Nvidia主导)的强大挑战者。正如报告所述,谷歌在TPU上取得的成功为其他自主开发AI加速器ASIC的云服务提供商(CSP)提供了蓝图,例如已经行动起来的华为、AWS和百度。
如果云服务提供商都在使用他们自己的芯片组,那么对于其他芯片组提供商来说,这个细分领域还有市场空间吗?
“这对于刚开始使用自己芯片组的CSP来说是极具挑战的,我们甚至预测,到2024年CSP这个市场将下降15%至18%。而机会更多地来自于私有数据中心领域。银行机构、医疗机构、研发实验室和学术界仍然需要运行人工智能,他们会考虑使用那些针对AI工作负载进行了更多优化的芯片组,这就给Cerebras、Graphcore、Habana Labs和Wave Computing等新手提供了一些优势。
其他将从这些趋势中受益的是IP核心授权厂商,例如ARM、Cadence和VeriSilicon,他们将负责帮助那些甚至是开始自主研发的企业进行芯片组设计。
边缘的人工智能
ABI第二份题为“边缘AI芯片组:技术展望和使用案例”的报告称,2018年边缘人工智能推理芯片组市场规模为19亿美元,边缘训练市场规模为140万美元。
今天有哪些应用是在边缘位置进行训练的?Su解释说,这些数据中包括网关(历史数据库或设备Hub)和内部部署服务器(在私有云中,但物理位置是靠近AI数据生成的地方)。专为内部部署服务器的训练任务设计的芯片组包括Nvidia的DGX,华为的网关和服务器,其中包括Ascend 910芯片组,以及针对来自Cerebras System、Graphcore和Habana Labs等内部部署数据中心的系统级产品。
“‘边缘训练’市场仍然很小,因为云仍然是人工智能训练的首选,”Su说。
2017年至2024年,针对推理和培训的AI芯片组年销售总收入(来源:ABI Research)
边缘AI推理是2019年至2024年期间边缘人工智能市场实现31%复合年增长率的主要推动力。Su提到了三个主要市场(智能手机/可穿戴设备、汽车、智能家居/白色家电)以及三个利基市场。
第一个利基市场是机器人,因为依赖多种类型的神经网络,机器人通常需要异构的计算架构,例如用于导航的SLAM(同时定位和映射),用于人机界面的会话AI,用于对象检测的机器视觉,所有这些都会在不同程度上使用CPU、GPU和ASIC。目前,Nvidia、英特尔和高通正在这个领域进行激烈的竞争。
第二个利基市场是智能工业应用,涉及制造业、智能建筑、石油和天然气领域。我们看到,FPGA厂商因为遗留设备的原因在这一领域表现突出,但同时也要归功于FPGA架构的灵活性和适应性。
最后一个利基市场是“非常边缘”,即将超低功耗AI芯片组嵌入WAN网中的传感器和其他小端节点中。由于重点是超低功耗,因此这个领域主要由FPGA厂商、RISC-V设计和ASIC厂商主导。
那么到目前为止,谁在边缘人工智能推理领域领跑?
“意料外——或者意料内的——的是,智能手机AI ASIC厂商在这个领域占据领先,因为智能手机的出货量是很大的,例如苹果、海思半导体、高通、三星以及联发科等,如果说的是初创公司的话,我认为Hailo、Horizon Robotics和Rockchip似乎相对终端设备制造商来说发展势头相当快。”
Su还表示,软件对于边缘AI芯片组的商业实施和部署来说至关重要,Nvidia正在升级编译工具和构建开发人员社区,相比之下,英特尔和Xilinx的策略是初创公司合作,或者收购拥有基于软件的加速解决方案。
“芯片组厂商应该考虑向开发者社区提供工具包和库,通过开发者训练计划、竞赛、论坛和大会等方式进行,因为这能吸引开发者与芯片组厂商展开合作以开发相关应用,所有这些都不是初创公司可以轻易实现的。”
该报告给出的结论是,除了为开发者社区提供合适的软件和支持外,厂商还应该提供良好的开发路线图,以及其他技术价值链的支持,此外还需要让他们的芯片有大规模的使用案例,以及具有竞争力的定价。
扫码或点击进入无线充模块店铺