AI时代来临,以ChatGPT为代表的新兴AI应用带动了算力需求呈“爆炸式”增长。

本刊特约作者 李赟/文


(资料图片)

算力是数字经济发展的重要底座。随着AI与数字经济的发展,算力规模不断扩大,需求持续攀升。

4月5日,OpenAI停止了ChatGPT Plus的销售,官网中给出的理由为“由于需求量过大,我们暂停升级服务”。ChatGPT Plus是OpenAI提供的一项订阅服务,使用价格为20美元/月。订阅ChatGPT Plus服务的会员可享受三个福利:在高峰时代可以访问ChatGPT、更快速的响应以及优先访问新功能。

AI进入“大模型”时代。OpenAI自发布GPT1.0模型之后,一直在持续迭代,陆续发布GPT2.0、GPT3.0和GPT3.5,近期发布GPT4.0是其持续投入AI大模型的必然阶段。相比前几个模型,GPT-4的参数量更大,模型迭代时间更长,也能够给出更准确的结果。新版本的发布是大模型循序渐进发展的必然成果,未来大模型将成为AI开发范式。

东方证券认为,此次ChatGPT Plus停售事件是因为需求量过大,计算资源供不应求。AI浪潮来袭,智能算力需求将快速提升,AI芯片、AI服务器以及云计算算力需求将持续提升。ChatGPT的训练需要上万片英伟达的GPU。同时,在推理端,微软已经在Azure的六十多个数据中心中部署了几十万张GPU,为ChatGPT的超高访问量提供支持。然而,还是似乎因为计算资源供不应求导致此次ChatGPT Plus停售。

AI浪潮来袭,通用大模型的训练、行业大模型的训练、基于通用大模型的行业应用以及推理皆需要大量智能算力提供支持。AI芯片、AI服务器以及云计算算力需求将持续提升。

事实上,算力作为数字经济的核心生产力,已成为国民经济发展的重要基础设施,中国智能算力规模正在高速增长。

IDC预测,2022年中国智能算力规模将达到268.0 EFLOPS(每秒百亿亿次浮点运算),超过通用算力规模,预计到2026年智能算力规模将达到1271.4 EFLOPS。2021-2026年,预计中国智能算力规模年复合增长率达52.3%,同期通用算力规模年复合增长率为18.5%。华为更是预测,未来10年人工智能算力需求将会增长500倍以上!

未来算力网络一定会成为国家经济发展的一个新的基础设施,根据国家信息中心联合浪潮信息发布的《智能计算中心创新发展指南》显示,目前全国已有超过30个城市在建或筹建智算中心。近日,科技部也表态推动算力网建设,打造超算、智算的算力底座。日前,贵州省大数据发展管理局发布《关于印发面向全国的算力保障基地建设规划的通知》。从能力指标、质量指标、结构指标、通道指标、产业指标共5个维度提出未来三年的建设目标。5大指标均为爆发式扩张,其中机架规模从10.8万架提高到80万架,三年时间扩张达7倍;算力总规模从0.81 EFLOPS提高至10 EFLOPS,扩张超11倍。

同时,AI计算需要多元异构算力提供支持,将极大拉动GPGPU、AISC等AI芯片的需求。中国AI芯片市场规模有望快速增长,据艾瑞咨询预测2027年将达到2164亿元,国内相关企业坚持迭代升级,其产品性能日益提升,有望获得更多市场份额,实现国产替代。另外,随着大模型的成熟部署,对性能要求稍低的推理芯片的占比将日益提升,也有益于国产AI芯片占比提升。

“智能革命”的起点

回顾历史,人类社会目前经历了三次重大的产业变革:蒸汽时代、电气时代、信息时代,其分别对应了18世纪60年代末期英国人詹姆斯·瓦特制造的第一代具有实用价值的蒸汽机、美国在19世纪60年代实现了电力的广泛应用以及电灯被发明、1946年美国制造出人类第一台二进制计算机。每一次的产业革命都具有几个共通点,首先均有标志性的产品面世,其次持续时间较长以及对于世界发展影响深远。

如今,人类社会或已处在人工智能时代的临门一脚。2022年11月,ChatGPT的发布让世界看到了无限的可能性,这仅仅只是“智能革命”的起点,未来或将呈现出各行业各接纳人工智能,人工智能助推世界发展的景象。

自2022年11月底以来,美国初创公司OpenAI发布的人工智能对话聊天机器人软件(模型)ChatGPT迅速在社交媒体上走红,短短5天,注册用户数就超过100万,并在2个月内突破1亿,成为史上增长最快的消费类应用。

以ChatGPT为代表的AI大模型开启了新一轮生产力革新的科技浪潮,大模型展现出了理解人类语言的潜力,颠覆过去互联网发展中的许多业态,并对实体经济和产业发展产生深远的影响。也因此,GPT被微软创始人比尔·盖茨评价为自图形界面以来最重要的技术进步,被英伟达创始人黄仁勋称作是人工智能领域的iPhone时刻。

ChatGPT使得人与机器可以直接对话,机器能够理解人复杂的意图并能够做出恰当的反应,人与机器不再局限于简单的指令式交互,可以流利地与机器对话,进行复杂的交互。机器可以理解人复杂的意图,辅助人类干更多的工作,人类生产力将会大幅提高,个人AI时代即将到来。从历史经验来看,新一轮交互革命引发的浪潮高度与速度都会远超上一代,目前个人AI时代仍处于萌芽状态,未来给人类社会带来的改变不可估量。

同时,ChatGPT也引发了国内外大厂争相布局,海外方面微软、谷歌、亚马逊等大厂均采取投资或商用的方式与OpenAI保持紧密合作,国内方面腾讯、科大讯飞、京东等公司先后宣布与ChatGPT结合上线的业务线,百度、阿里巴巴、昆仑万维已发或筹备类ChatGPT产品。

国外方面,Meta于近日发布图像分割基础模型SAM(Segment Anything Model)。SAM模型能够在未经过同类数据训练的情况下,自动分割图像中的所有内容,自动根据提示词进行图像分割。

SAM的发布堪称图像识别行业的“GPT-3”时刻。国盛证券表示,图像识别与分割是当前许多智能化场景的基础。例如智能驾驶中就需要对摄像头呈现出的图像进行分割与识别,从而让车辆做出反应。医学影像诊断中需要对病变位置进行分割来进行判断。过去,图像分割往往只能通过对预先打包的数据进行训练,并针对海量的特定场景进行调优,效率和成本均不占优。此次Meta发布的SAM模型,能使得AI通过已有数据的训练,获得面对未知内容的自动识别能力。

国盛证券认为,可以把这个过程比作人类的视觉,人类所拥有看见新事物时自动处理并理解的能力。这将改变传统的图像识别训练模式,加快图像识别行业的发展。

视觉大模型,算力要先行。相较于传统的图像识别解决方案,SAM更加偏向于LLM模型(大型语言模型)的模式,即通过海量的预先训练与扩大模型参数,来使得模型获得自主识别和学能力,最终实现图像“AGI”。这类模式对于算力基础设施的需求程度远大于传统的小模型或者垂直模型,同时图像模型包含的数据量更大,训练过程中需要的计算能力,通信能力和存储能力相较于文字模型更多。因此,视觉大模型的前提是海量的算力基建,算力的重要性在LLM模式迈入图像领域时被再度提升。

国内方面,以百度为代表的科技公司主导国内AI基础生态是大势所趋。在这一生态下,一批基于大模型底座进行应用开发的公司将在文字、图像、音视频生成、数字人、3D生成等领域大显身手,“AI+”应用端有望呈现百花齐放。

4月10日,商汤科技发布“日日新”大模型体系,含自然语言生成、照片生成服务、感知模型预标注、模型研发。1800亿参数中文语言大模型应用平台“商量”支持超长文本知识理解,支持问答、理解与生成等中文语言能力。

而商汤科技下一代软件开发范式是AI for AI,代码=80% AI生成+20%人工。超10亿参数自研文生图生成模型“秒画”,支持二次元等多种生成风格。单卡A100支持,2秒生成1张512K分辨率的图片。用户可基于单卡A100自训练。基于平台发布的模型,可设置to B服务API(应用程序编程接口),结合商汤大算力对外提供服务。

数据、算力与算法是人工智能时代的三大基石,三者相互促进带动AI+应用快速落地,大语言模型在丰富的场景中带动AIGC类应用全面发展,开启了新一轮人工智能创新周期,将带动算力、服务器、通信等多领域的发展。

算力需求黄金时代

AI奇点的到来也将会成就算力领域的黄金时代。

算力是指计算机系统能够完成的计算任务量,通常用来描述计算机的处理能力。算力的单位通常采用FLOPS(Floating Point Operations Per Second)表示每秒钟能够完成的浮点运算或指令数。以英伟达在2020年发布的A100产品为例,根据英伟达官方介绍,A100的理论浮点运算性能可以达到19.5 TFLOPS,即每秒195万亿次浮点运算。

算力可分为通用算力、智能算力以及超算算力,对应着三种计算模式:基础计算、智能计算以及超级计算。不同的场景所需的算力种类不同,其对应的计算精度也不尽相同。

AI大模型是“大数据+大算力+强算法”结合的产物,凝聚了大数据内在精华的“隐式知识库”,希望逻辑结构能够自发地从模型的训练过程中涌现。AI大模型包含了“预训练”和“大模型”两层含义,即模型在大规模数据集上完成了预训练后形成特征和规则,无需或仅需要少量数据的微调,就能直接支撑各类应用。

人工智能实现方法之一为机器学,而深度学是用来实现机器学的技术,通常可分为“训练”和“推理”两个阶段。训练阶段:需要基于大量的数据来调整和优化人工智能模型的参数,使模型的准确度达到预期,核心在于算力;推理阶段:训练结束后,建立的人工智能模型相可用于推理或预测待处理输入数据对应的输出(例如给定一张图片,识别该图片中的物体),这个过程为推理阶段,对单个任务的计算能力不及训练,但总计算量也相当可观。

比于传统AI算法,大模型在参数规模上得到大幅提升,参数一般达到千亿甚至万亿规模。例如OpenAI的GPT系列,最开始的GPT-1拥有1.17亿个参数,到GPT-3的参数已经到达1750亿个,而相应的能力也得到大幅提升。

GPT-3开启了大模型时代。GPT-3使用了大量的语料库进行预训练,使其能够理解语言的规则和模式,并生成与输入文本相关的自然语言文本,GPT-3的主要特点是它具有大规模的预训练模型,而同时大规模的训练模型与之对应的便是庞大的算力需求。

根据OpenAI团队成员2020年发表的论文《Language Models are Few-Shot Learners》,GPT-3模型拥有约1750亿个参数,这使得GPT-3拥有其他较少参考量模型来说更高的准确性。同时基于1750亿个参数的模型仅需少量的样本训练,就能够接近于BETR模型使用大量样本训练后的效果。

大模型无论在性能还是在学能力上,相较于其他模型都具备明显优势,未来或将成为行业趋势。伴随大模型的明显优势,与之而来的则是对于算力要求的显著提升。以GPT-3为例,如果以英伟达旗舰级GPU产品A100对其进行训练,1024块A100卡需要耗费超过1个月(大于30天),按比例可以计算出,如果需要单日完成训练,需要的A100数量则将超过30000块。

OpenAl的数据也显示,从2012年到2020年,其算力消耗平均每3.4个月就翻倍一次,8年间算力增长了30万倍。OpenAI首席执行官Sam Altman接受公开采访表示,GTP-4参数量为GTP-3的20倍,需要的计算量为GTP-3的10倍;GTP-5在2024年底至2025年发布,它的参数量为GTP-3的100倍,需要的计算量为GTP-3的200-400倍。

此外,AI时代算力的增长也远远超过了摩尔定律每18个月翻番的速率,根据中国信息通信研究院的估算,2021年全球超算算力规模大约为14EFLOPS,预测到2030年全球超算算力将达到0.2ZFLOPS,平均年增速超过34%。

而ChatGPT仅仅是AI大规模应用的开始,更多的AI应用尚在路上,海量的数据将会产生且非结构化数据居多,这些数据需要更大带宽的网络设备进行传输,更多的AI算力进行处理。

AI渗透千行百业,拉动智能算力规模高速增长。2022年,各行各业的AI应用渗透度都呈不断加深的态势,尤其是在金融、电信、制造以及医疗领域,为实现业务增长、保持强大竞争力、从而占据更大的市场份额,企业纷纷入局AI领域,通过新技术提升传统业务用户体验,人工智能应用增长迅速。

据IDC和浪潮信息联合发布的《2022-2023中国人工智能计算力发展评估报告》,预计到2023年年底,中国将有50%的制造业供应链环节采用人工智能技术实现业务体验提升。在未来,随着AI技术对传统行业赋能作用日益凸显,催生出更大智算需求成为必然。

显然,算力已成为数字化时代的关键生产要素。越来越多的国家会认识到算力对宏观经济的重要性,算力资本与物质资本形成互补效应,共同促进GDP增长,算力势必会成为各国未来主要的角逐点。

随着全球数字化进程的全面开启,算力作为重要支持,赋能作用已经有所显现。《2021-2022全球计算力指数评估报告》的评估结果显示,15个重点国家的计算力指数平均每提高1点,国家的数字经济和GDP将分别增长3.5‰和1.8‰,并预计该趋势在2021-2025年将继续保持。

随着全球数字化进程的推进,云计算、人工智能、无人驾驶、AR/VR等新兴数字科技产业蓬勃发展,全球数据总量呈现爆发式增长。据IDC预测,2021-2025年,全球新增和复制的数据量复合增长率达到23%,与此同时,全球算力规模也在同步高增长。根据华为的预测,到2030年全球通用计算算力将达3.3 ZFLOPS(FP32,每秒十万亿亿次浮点计算),AI计算算力将达到105 ZFLOPS(FP16),增长500倍。

在2022世界人工智能大会上,华为轮值董事长胡厚崑做出了上述预测,他提议“AI先行”,让国家的算力网络的建设从这个最大的增量开始,通过新建人工智能计算中心,形成人工智能算力的网络,也为国家推行东数西算的战略的落地先行先试。他大胆预测,未来,算力网络将像电网、通讯网、高铁一样,会成为国家新的基础设施,为国家整体经济的发展提供强大的动力。

随着数字化进程推进,算力需求持续增长,数据中心的市场规模不断扩大。国内外云计算龙头企业亚马逊、微软、谷歌等纷纷加大资本开支,主要用于数据中心基础设施的建设。服务器作为数据中心建设成本的最大部分,市场规模快速扩张。

东吴证券表示,ChatGPT引爆的AI浪潮将拉动云服务器数量的增长,其国内相关供应厂商将有望受益于下游AI+级应用所带来的算力需求增长,国内云服务器与算力相关厂商有望直接受益。

AI服务器算力底座

数据海量增加,算法模型愈加复杂,应用场景的深入和发展,带来了对算力需求的快速提升。

根据IDC测算,国内智能算力规模正在高速增长,2021年中国智能算力规模达155.2 EFLOPS,2022年智能算力规模将达到268.0 EFLOPS,预计到2026年智能算力规模将进入ZFLOPS级别,达到1271.4 EFLOPS。2021-2026年期间,预计中国智能算力规模年复合增长率达52.3%。通用算力规模也正在高速增长,根据IDC测算,2021年中国通用算力规模达47.7 EFLOPS,预计到2026年通用算力规模将达到111.3 EFLOPS。2021-2026年期间,预计中国通用算力规模年复合增长率为18.5%。

目前,AI服务器通常选用CPU和加速芯片组来满足其庞大算力需求,其中加速芯片包括GPU、FPGA、ASIC等逻辑芯片,其中GPU由于其具有最强的计算能力同时具备深度学等能力,成为服务器中加速芯片的首选。

根据中商产业研究院数据,2021年全球服务器出货量达1315万台,同比增长7.8%,对应全球市场规模达995亿美元。根据Counterpoint预计,2022年全球服务器市场规模有望达到1117亿美元,同比增长17.0%。预计云服务提供商数据中心扩张增长驱动力主要来自于汽车、5G、云游戏和高性能计算。

根据TrendForce数据,截至2022年全球搭载GPGPU的AI服务器(推理)出货量占整体服务器比重约1%,同时TrendForce预测2023年伴随AI相关应用加持,年出货量增速达到8%,2022-2026年CAGR为10.8%。

根据IDC发布的《全球人工智能市场半年度追踪报告》显示,2021年全球人工智能服务器市场规模达156.3亿美元,约合人民币1045亿元,全球年度人工智能服务器市场首次突破千亿元人民币,同比2020年增速达39%。其中,浪潮信息、戴尔、HPE分别以20.9%、13.0%、9.2%的市占率位列前三,三家厂商总市场份额占比达43.1%。人工智能服务器市场预计将继续高速增长,预计2026年全球人工智能服务器市场规模将达到347.1亿美元,5年复合增长率为17.3%。

国内市场方面,根据IDC数据,2021年中国人工智能服务器市场规模达到59.2亿美元,与2020年相比增长68.2%,其中,浪潮信息、新华三、宁畅、安擎、华为等诸多中国厂商正加速推动人工智能基础设施产品的优化更新。预计到2026年,中国人工智能服务器市场规模将达到123.4亿美元。

安信证券表示,随着ChatGPT模型的不断升级,其参数量和模型规模也不断增大,因此对计算资源的需求也越来越高。尤其是在推理过程中,需要将模型加载到计算节点上进行运算,因此需要高性能的计算设备来支持模型的推理。同时,由于ChatGPT模型需要进行海量的预训练和微调,因此需要大量的算力资源来支持这些任务。ChatGPT的发展将带来算力需求的大幅提升。

经安信证券测算,到2024年底,若ChatGPT每日用户数量达5亿人,则需要23万台服务器;若用户数量达10亿人,则需要46万台服务器。2022-2024年CAGR分别达51.7%、114.5%。

随着GPT模型在各个领域的应用越来越广泛,对算力的需求也在不断增加。一方面,由于GPT模型的参数量越来越大,每次训练需要的算力也越来越大;另一方面,GPT模型的应用场景也在不断拓展,例如自然语言处理、计算机视觉、语音识别等领域,这些领域对算力的需求也越来越高。预计未来每日访客数量将有巨大提升空间,算力需求短期内有较大提升空间,AI服务器数量有较大增长空间。

AI芯片算力“明珠”

AI芯片是提供算力的基础,包括人工智能芯片、服务器、计算架构、算法及应用等方面。

全球人工智能技术发展逐渐成熟,数字化基础设施不断建设完善,推动全球人工智能芯片市场高速增长。IDC全球范围调研显示,人工智能芯片搭载率(attach rate)将持续增高。根据Tractica、寒武纪招股书相关数据,全球人工智能芯片2022年市场规模预计约395亿美元,预计到2025年将达到726亿美元,年复合增长率达到22%。

国内市场方面,随着大数据的发展和计算能力的提升,根据寒武纪招股书,2022年中国人工智能芯片市场规模预计达368亿元,预计2024年市场规模将达到785亿元,复合增速有望达到46%。

根据IDC数据,2021年中国AI芯片市场中,GPU的市场占有率近90%。因此,GPU也成为算力的核心硬件。

GPU是图形处理器的简称,它是一种专门用于处理图形、视频、游戏等高性能计算的硬件设备。GPU相对于传统的中央处理器(CPU)而言,其拥有更多的计算核心和更快的内存带宽,能够大幅度提高计算效率和图形渲染速度。

现阶段,随着例如英伟达A100、H100等型号产品的发布,GPU在算力方面的优势相较于其他硬件具有较大优势,GPU的工作也从一开始的图形处理逐步转化为计算,成为最适合支撑人工智能训练和学的硬件。

国盛证券认为,其原因主要在于一是拥有更多处理单元:GPU相比于CPU等其他硬件有更多的处理单元(核心数更多),因此可以并行处理更多的数据。主要系GPU最初是为了图形渲染而设计的,而图形渲染涉及的计算是高度并行化的。这种并行化的特性使GPU非常适合进行机器学和深度学这样的大规模数据并行计算。

二是具有更高的内存带宽和更大的内存容量:在进行深度学等计算时,需要大量的内存和高速的内存带宽来存储和处理海量数据。GPU相比于其他硬件(如CPU),具有更高的内存带宽和更大的内存容量,可以更有效地存储和处理数据,从而提高计算速度。

三是具有专门的计算单元:相较于其他硬件,GPU具有例如张量核心和矩阵乘法等计算单元,可以更快地执行常见的机器学和深度学操作:如卷积和矩阵乘法。这些计算单元与通用计算单元相比,具有更高的效率和更快的速度。

基于上述优势,通用图形处理单元(GPGPU)也因运而生,其主要利用GPU的功能来执行CPU的任务,虽然在设计初期是为了更好地图形处理,但是多内核多通道的设计使其非常适合科学计算,发展至今GPGPU也成为了专为计算而设计的硬件。

GPU市场规模的大小取决于多种因素,其中游戏和娱乐市场一直是GPU市场的主要驱动力,因为这些领域需要高性能的GPU来支持更高质量的游戏画面和娱乐内容。同时人工智能和机器学的发展对GPU市场也有着巨大的影响,因为这些技术需要大量的计算能力,而GPU可以提供比CPU更高的效率。此外,科学和研究领域的需求以及新兴市场(如游戏机和数据中心)也对GPU市场的规模产生了影响。根据Verified Market Research的数据,2021年全球GPU市场规模为334.7亿美元,预计到2030年将达到4473.7亿美元,期间CAGR达到33.3%。

目前,GPU在AI服务器中价值量占比接近50%。据国盛证券测算,以英伟达的DGX A100为例,其搭载了8张A100 Tensor GPU,根据新浪科技数据,DGX A100售价约为19.9万美元; A100 Tensor价格为1.00万-1.20万美元。按照1.20万美元售价计算可得出GPU在DGX A100价值量占比约为48.24%。

根据TrendForce的预计,2023年全球AI服务器(推理)出货大约在14.4万台,到2026年预计实现出货量20.0万台。假设训练AI服务器和推理AI服务器的比例为1:4,则可以得到2023年、2026年训练服务器的数量大约为3.60万、5.00万台。由于两种AI 服务器对应的模型训练阶段不同,假设推理AI服务器和训练AI服务器使用的GPU数量分别为4张和8张,则可以计算出2023年、2026年全球AI服务器领域所需GPU数量约为86.4万张和120万张,以A100 Tensor约1.20万美元的价格作为参考计算出2023年、2026年AI服务器所需GPU的价值分别为103.7亿美元和144.0 亿美元。

此外,汽车智能化也将带动GPU的算力需求。辅助驾驶成为汽车研发的重点方向,L1至L5级别越高自动化水平越高,对于算力的需求也随之大幅提升。为了实现L2或者更高等级的自动驾驶,往往需要部署如摄像头、激光雷达在内的多种传感器,例如Tesla Model 3车型中包括了8个摄像头和12个超声波雷达。多传感器带来的是庞大的数据处理需求,伴随携带自动驾驶功能的汽车销量持续提升,相关算力硬件需求也逐步扩大。

目前,英伟达自动驾驶平台NVIDIA DRIVE Thor能够提供2000 TFLOPS算力,为自动驾驶、车载AI、停车辅助等多功能提供所需算力需求。

目前,全球GPU市场基本被海外企业垄断。全球范围内,人工智能、云端计算和独立GPU主要为英伟达主导,旗下深度学旗舰GPU产品A100和H100最高浮点算力分别实现19.5 TFLOPS和67 TFLOPS;PC GPU由于涵盖集成GPU,英特尔由于为全球CPU龙头,使其在PC GPU中份额最高。

根据Jon Peddie Research数据,2022年四季度PC GPU中,英特尔、英伟达、AMD份额分别为71%、17%、12%;2022年四季度独立GPU中,英特尔、英伟达、AMD 份额分别为6%、85%、9%。

2022年10月,美国对中国半导体进行三方面限制,在AI领域限制中国获取等效8 Int 600 TOPS 算力的芯片。英伟达针对中国市场推出了符合新规的A800芯片,相比A100芯片,A800互联标准由600GB/s降为400GB/s,国产大模型算力需求和国内AI产业发展面临阻碍。

高端型号产品的出口限制将在很大程度上影响国内相关领域的发展,根据国盛证券的计算,GPT-3当日完成训练需要的A100数量将超过3万块,国内公司百度旗下大模型ERNIE3.0 Titan,参数量达到2600亿,高于GPT-3的1750亿,其所需的同规格GPU数量也将远大于GPT-3。同时,未来AI倘若进入大模型时代,相关算力需求将快速增加,届时对于国产高算力GPU需求将进一步提升, GPU国产化进程迫在眉睫。

东吴证券表示,以GPU细分赛道来看,目前国内自研GPU的领军企业主要是寒武纪、景嘉微、华为昇腾等,其中成立最早的是景嘉微,主打产品有JH920独立显卡。行业内专家称,从产品参数来看,景嘉微的JH920的性能与英伟达在2016年发布的GTX 1050相仿,虽然仅相差6年,但考虑到模型与算力发展之迅速,整体而言国产GPU的现状并不算乐观,虽然在特殊领域可满足部分的需求,但是在中高端领域及硬核的算力需求仍存在较长的追赶道路。

国产替代加速期

东方证券表示,人工智能一直是中美两国科技竞争的重要领域,而中美在AI的三大技术数据、算法、算力中各有优势。中国的数据优势较为明显,然而算法和智能算力却明显落后于美国。智能算力对于中国发展AI、数据要素以及社会全方位的发展都有着重大的战略意义。

从智能算力总额来看,美、中处于领先地位。从人均智能算力的角度,中国仍处于全球中等水平。据《中国算力指数发展白皮书(2022)》,美、中的智能算力处于全球领先地位,分别占全球比重的45%和28%。然而从人均算力的高低来衡量,中国仅处于中等水平。据IMB研究发现,人均算力的水平与一国的智能化水平高度相关,中国积极发展智能算力、打造智算中心是打造国际竞争力、发展综合国力的关键。

近年来,国家制定一系列政策,在全国范围内推动信息基础设施建设,智算中心的建设是其中的关键环节。2020年4月20日,国家发改委首次明确新型基础设施范围,将智能计算中心作为算力基础设施的重要代表纳入信息基础设施范畴。2021年5月,国家发改委等四部门联合发布了《全国一体化大数据中心协同创新体系算力枢纽实施方案》,提出布局全国算力网络枢纽节点。2022年2月17日,国家发改委、中央网信办、工业和信息化部、国家能源局联合印发通知,同意在京津冀、长三角、粤港澳大湾区、成渝、内蒙古、贵州、甘肃、宁夏8地启动建设国家算力枢纽节点,并规划了10个国家数据中心集群。“东数西算”工程正式全面启动。而智算中心承载的以模型训练为代表的非实时性计算尤为适合“东数西算”。

随着全国一体化算力网络和“东数西算”工程的部署,中国智能计算中心也加快布局。根据国家信息中心与相关部门联合发布的《智能计算中心创新发展指南》,当前超过30个城市正在建设或提出建设智算中心,整体布局以东部地区为主,并逐渐向中西部地区拓展。根据ICPA智算联盟统计,截至2022年3月,全国已投运的人工智能计算中心有近20个,在建设的人工智能计算中心超20个。

另外,科技部出台政策推动人工智能公共算力平台建设,要求在混合部署的公共算力平台中,自主研发芯片所提供的算力标称值占比不低于60%,并优先使用国产开发框架,使用率不低于60%,此举将推动中国AI芯片等国产化进程。

随着智能计算资源需求的大幅增加,东方证券认为 AI芯片、AI服务器以及云计算算力需求将持续提升,国产化替代有望加速。

AI计算需要多元异构算力提供支持,将极大拉动GPGPU、AISC等AI芯片的需求。中国AI芯片市场规模有望快速增长,据艾瑞咨询发布的《2022年中国人工智能产业研究报告(Ⅴ)》,预计2027年达到2164亿元。目前,英伟达凭借其AI芯片的超高性能,占中国加速卡市场的80%以上。根据东方证券研报,海光信息、寒武纪等巨头坚持迭代升级,其产品性能日益提升,有望获得更多市场份额,实现国产替代。另外,随着大模型的成熟部署,对性能要求稍低的推理芯片的占比将日益提升,也有益于国产AI芯片占比提升。

AI计算需求提升有望持续拉动AI服务器需求,国产AI服务器龙头有望持续受益。相比于AI芯片,AI服务器的技术壁垒较低,浪潮信息、中科曙光等中国服务器厂商占领了AI服务器绝大部分市场,有望持续受益于智能算力需求提升。根据东方证券研报,浪潮信息的AI服务器在世界市场和中国市场均蝉联第一位,是AI服务器行业的顶尖巨头。而中科曙光是高性能计算的龙头,响应国家号召建设曙光5A级智算中心,覆盖全算力精度,赋能人工智能应用场景落地。拓维信息和四川长虹则是华为的亲密合作伙伴,依托“昇腾+鲲鹏”打造AI服务器。

随着AI算法的计算需求不断增加,将有越来越多的企业使用云计算平台来满足其计算需求,中立云计算厂商有望持续受益。云计算厂商可以为企业提供灵活的计算资源,帮助企业更好地管理其计算需求,提高其计算效率和灵活性,减少部署和管理本地计算基础设施的复杂性。根据东方证券研报,除了华为云等国内外云计算巨头,优刻得、深桑达旗下中国电子云等第三方中立厂商也在积极参与AI云服务,有望持续受益于AI算力需求的提升。一方面,这些厂商可以作为客户除云大厂外的第二选择。另外,这些厂商具有中立方的身份优势,不会和下游客户产生竞争,更容易获得客户信任。

推荐内容