为什么很多国内公司在做 AI 芯片?
- 2020 年 10 月 9 日
- 筆記
据网上搜到的新闻报道,截止2019年,已经有20家企业投入到 AI 芯片的研发中,其中有很多厂商的芯片已经流片甚至商用了。为何有这么多公司在做AI芯片呢?简单来讲就是四个字:有利可图。具体来说有以下三点。
1. 算法对算力需求很大
其实神经网络、反向传播的算法早在1986年就提出来了,但是深度学习从2012年开始才大放异彩,原因是它需要输入海量数据和非常大的算力,在当时不具备这样的条件。如今随着人工智能在图像识别、语音识别、自动翻译等领域的飞速发展,新的模型每天都在出现。他们对算力的要求越来越高,据统计算力需求在2012年之后每3.4个月翻一番。算力即完成任务所需的计算次数。Google 2019年提出的 EfficientNet B7的深度学习模型,每次推理需要360亿次基本运算,是七年前同类模型(AlexNet)运算需求的50倍。人工智能领域所涉及运算常具有大运算量、高并发、访存带宽高的特点。
2. AI 落地对能效要求高
首先明确两个概念:能效和通用性。能效指单位功耗内能做多少次运算,通用性指能覆盖多大应用面。能效使用TOPS/W(Tera Operations per Second per Watt),即每秒每瓦可进行的十亿次操作数量来衡量。AI 专用芯片可以做到 100 TOPS/W以上,是 CPU 的万倍,GPU 的百倍以上。
传统芯片的速度和能效难以满足大规模深度学习应用的需求。传统的 CPU 等通用处理器类似瑞士军刀,什么都可以做,但是效果一般。比如在某些特定领域如深度学习类型的运算上速度不够快。GPU 因为支持大规模并发,可以用于深度学习运算。但是它最初是面向图形渲染领域,并不是专用于神经网络运算的,所以能效并不高,价格很贵,只适合在服务器上使用。2016年 Alpha Go 与李世石对弈时,用了1202个CPU和176个GPU,每盘棋耗资上千美元的电费,而人类选手李世石的功耗仅为20瓦。
目前 AI 行业迅猛发展,市场容量越来越大,单纯安防这个视频分析领域就能诞生四个独角兽,所以研究机构及公司就有动力去设计制造更专用的处理器芯片。设计芯片的目标就是算的更快、更精确,价格更低。未来每台计算机可能都需要配备 AI 芯片,就跟现在的 GPU 一样。目前国内的一些 AI 厂商在落地时,成本中有一大半是硬件的成本,而硬件中绝大部分成本都在 GPU 上。所以目前深度学习的落地成本还很高,要想让 AI 走进寻常百姓家还有待时日。
3. 国家政策支持
自2015年以来,国务院、工信部、国家发改委、财政部等陆续颁布了很多针对性的优惠政策,确定了很多重大专项,明确了要重点突破高端处理器领域。这些政策为行业提供了财政、税收、技术和人才等多方面的支持,可以说 AI 及芯片领域未来可期。
国内多家做 AI 芯片的公司
今年年中上市的寒武纪做通用的 AI 芯片,产品覆盖云边端,有推理也有训练。华为在19年前在手机上采用的寒武纪芯片,后来自研的芯片出来之后跟寒武纪分道扬镳。华为产品也是覆盖云边端,强调云边一体的开发体验。创业公司地平线主要做自动驾驶和AIoT场景下的边缘侧芯片。紫光展锐推出的“虎贲”和“春藤”,主要覆盖通信和物联网芯片。还有一些区块链企业,比如嘉楠科技和比特大陆。一线互联网公司如阿里平头哥的玄铁910,百度昆仑,腾讯云等。新晋的人工智能企业如依图也发布了了自己的AI芯片求索。
如果希望看到更多人工智能领域的科普,请点右下角“推荐”!