第155期
2024 年 3 月 20 日
  北美智权官网 智权报文章分类/搜寻   历期智权报   订阅北美智权报  
 
AI芯片不止NVIDIA,科技巨头与新创期望迎头赶上
林宗辉/北美智权报 编辑部

人工智能(AI) 技术的突破与应用正在经历爆炸式成长。从自然语言处理、计算机视觉到自动驾驶,AI正在改变我们生活的各个面向。而推动AI发展的关键之一,正是专为AI运算打造的芯片。随着AI应用的热潮席卷全球,AI芯片的需求也急遽上升,成为半导体产业的新战场。

AI之所以能够如此盛行,背后有几个重要原因。首先,机器学习与深度学习算法的重大进步,让AI系统能够从大量数据中自主学习、提炼出有价值的见解。这些算法的突破,例如卷积神经网络 (CNN)在影像识别方面的卓越表现,大幅提升了AI的感知和理解能力。其次,因特网时代累积的大量数据,为AI提供了丰富的"养分"。

据估计,全球每天产生的数据量高达2.5艾字节 (EB),这为AI模型的训练提供了庞大的数据基础。再者,运算能力的持续提升,尤其是GPU的广泛应用,让复杂的AI模型得以训练与执行。

以NVIDIA的H100 GPU为例,其单精度浮点运算能力高达14 TFLOPS,是前代A100的3倍之多。最后,AI在各行各业的应用情境不断扩展,从智能制造、自动驾驶到医疗诊断等,AI正在创造巨大的商业价值。据麦肯锡全球研究院估计,到2030年,AI可为全球经济贡献13兆美元的产出。

然而传统的芯片架构已经难以满足AI运算的特殊需求。与传统的程序设计模式不同,AI模型通常需要大量的平行运算和数据传输。这就催生了一系列专为AI设计的芯片,例如NVIDIA的GPU、Google的TPU等。

这些AI芯片在矩阵运算、内存带宽等方面进行了优化,大幅提升了AI运算的速度和效率。以Google的TPU为例,其第一代产品就实现了在机器学习推论任务上,比现有的GPU和CPU快15到30倍。随着AI应用的爆发,AI芯片市场也迎来了爆发式成长。

目前,NVIDIA凭借在GPU领域的多年积累,在AI芯片市场占据领先地位。NVIDIA的GPU不仅为AI模型训练提供了强大的运算能力,也为AI开发者提供了完整的软件工具与生态系统,例如CUDA平台和cuDNN函式库。而NVIDIA最新推出的GH200超级芯片,单精度浮点运算能力高达150 TFLOPS,更将进一步巩固其在AI芯片领域的优势。据NVIDIA预估,到2024年,其数据中心业务每季收入有望突破150亿美元,AI芯片功不可没。

AI芯片的竞争格局

不过,NVIDIA并非AI芯片市场的唯一玩家。科技巨头们纷纷意识到AI芯片的战略价值,开始投入巨资研发自己的AI芯片。亚马逊发表了名为Inferentia的AI推论芯片,单芯片可提供每秒128兆次的推论能力(TOPS),并支持多种机器学习框架。谷歌也推出了TPUv4,其单芯片峰值运算量高达200 TFLOPS,并透过封装技术,将多达4096个TPU芯片整合为一个EXA POD系统。脸书则发表了名为HANABI的AI训练ASIC芯片,号称是「世界上最快的AI训练芯片」。微软也正在打造自己的AI超级计算机,其中就包含了自行研发的AI芯片。此外,中国手机大厂华为,也推出自家的Ascend系列AI芯片,由于技术不成熟,且制程受限,目前主打卖点与NVIDIA的A100性能相当,但性能不是最大卖点,而是该芯片是中国国产,可避开欧美的制裁手段。

传统芯片厂商也不甘示弱。英特尔收购了AI芯片新创Habana Labs,并推出了号称效能领先的Ponte Vecchio GPU,单GPU理论峰值高达600 TFLOPS。超威半导体则发布了Instinct系列GPU,MI300X的矩阵运算能力高达380 TFLOPS,此前斥资350亿美元收购赛灵思 (Xilinx),也是意在强化AI与边缘运算领域的布局。

除科技巨头和传统芯片厂商,一批AI芯片的新创公司也正在异军突起。例如英国的Graphcore主打IPU(Intelligence Processing Unit),其二代产品GC200的峰值运算能力高达250 TFLOPS,获得了超过4.5亿美元的融资。美国新创Cerebras Systems则打造了有史以来最大的芯片——芯片级水冷系统WSE(Wafer Scale Engine),搭载了1.2兆个晶体管,让AI运算达到了前所未有的规模。Groq则由前Google工程师创立,专注于打造专用于推论的低功耗TPU,在ResNet-50基准检验中,其峰值推论能力高达21700 IPS/瓦。

随着各路玩家竞相投入,AI芯片市场呈现百家争鸣之势。据统计,2019年全球AI芯片初创公司数量已超过80家,总融资额超过35亿美元。根据研究机构预估,到2025年,ASIC芯片将在AI芯片市场中占据43%的比重,GPU占29%,FPGA占19%,CPU占9%。

AI芯片的未来发展

展望未来,AI芯片的创新仍在持续。除了运算能力的提升,AI芯片在架构、功耗、整合度等方面还有很大的优化空间。例如,通过先进的封装技术,多个AI芯片可紧密整合,大幅提升系统带宽和能效。AI专用的内存技术,如高带宽内存(HBM)、压缩内存等,也将得到更广泛的应用。

同时,随着5G和物联网的发展,AI芯片在边缘运算领域的应用前景十分广阔。例如自动驾驶汽车、智慧城市等情境,都需要在终端装置上进行实时的AI推论。为此,各家厂商纷纷推出了专用于边缘推论的AI芯片,如NVIDIA的Jetson系列、Intel的Movidius、Google的Edge TPU等。这些终端AI芯片往往采用极低功耗设计,可嵌入各类终端装置,实现前所未有的智能化应用。

除了技术创新,AI芯片的生态系统建设也至关重要。NVIDIA的CUDA平台经过多年发展,已经形成了庞大的开发者社群和丰富的软件资源,这是其竞争力的重要保证。以CUDA平台为例,其生态系统涵盖了1400余个GPU加速应用,500多个高校和研究机构,以及逾20万名开发者。

其他厂商也纷纷效仿,围绕自己的AI芯片建构生态系统,争取开发者的支持。Google推出了基于TPU的TensorFlow深度学习框架,并开源了相关程序代码;AMD收购了开源机器学习平台Xilinx;Intel推出了OneAPI开发工具套件,试图统一CPU、GPU和AI加速器的程序开发接口。未来,AI芯片市场很可能呈现"群雄逐鹿"的局面,不同的芯片在性能、功耗、成本等方面各有擅长,满足不同的应用需求。

结论:

AI芯片竞赛正如火如荼地展开,NVIDIA凭借先发与生态优势暂时领先,但科技巨头、传统芯片厂商、新创公司构成了AI芯片的多元竞争格局。AI芯片的创新与生态系统建设,将很大程度上决定未来AI产业的发展方向。对于半导体公司来说,AI浪潮既是巨大的市场机会,也是不小的挑战。

 

好消息~北美智权报有微信公众号了!

《北美智权报》内容涵盖世界各国的知识产权新闻、重要的侵权诉讼案例分析、法规解析,以及产业与技术新知等等。

立即关注北美智权微信公众号→ NAIP_IPServices

~欢迎读者分享与转发~


作者: 林宗辉
现任: 北美智权报资深编辑
学历: 台湾大叶大学
经历: 电子时报半导体资深分析师
MIT Techreview中文版研究经理
财讯双周刊撰述委员
美国波士顿Arthur wood投资顾问公司分析师

 


 





感谢您阅读「北美智权报」,欢迎分享智权报连结。如果您对北美智权电子报内容有任何建议或欲获得授权,请洽:Editorial@naipo.com
本电子报所登载之文章皆受著作权保护,未经本公司授权, 请勿转载!
© 北美智权股份有限公司 & 北美联合专利商标事务所 版权所有 234 台湾地区新北市永和区福和路389号五楼 TEL:+886-2-8923-7350