芯派科技股份有限公司-云顶国际

欢迎访问芯派科技股份有限公司官方网站!

一家集研发、生产和销售为一体的高新技术企业

20年专业经验 前沿技术研发新产品

芯派科技咨询热线:

86-13510282288 86-13510292288

芯派科技股份有限公司-行业资讯-从chatgpt看芯片产业机遇
芯派新闻中心

芯派科技

微信公众号

从chatgpt看芯片产业机遇

时间:2023/3/29 12:47:15浏览次数:85

一、chatgpt激起ai浪潮,多场景创新产业链空间广阔

1.1、ai创新浪潮兴起,多模态赋能下游行业

chatgpt快速渗透,ai产业迎发展新机

chatgpt是由openai公司开发的人工智能聊天机器人程序,于2022年11月发布,推出不久便在全球范围内爆火。根据 world of engineering数据显示,chatgpt达到1亿用户量用时仅2个月,成为史上用户增长速度最快的消费级应用程序。与之 相比,tiktok达到1亿用户用了9个月,instagram则花了2年半的时间。从用户体验来看,chatgpt不仅能实现流畅的文字聊 天,还可以胜任翻译、作诗、写新闻、做报表、编代码等相对复杂的语言工作。

chatgpt爆火的背后是人工智能算法的迭代升级。chatgpt是基于gpt-3.5微调得到的新版本模型,能够借助人类反馈的强 化学习(rlhf)技术来指导模型训练,实现模型输出与人类预期的需求,使对话内容更加人性化和富有逻辑性。从2008年 第一代生成式预训练模型gpt-1诞生以来,gpt系列模型几乎按照每年一代的速度进行迭代升级,未来随着大语言模型 (llm)技术的不断突破,ai相关应用有望加速落地,ai产业或将迎来新一轮发展机遇。

chatgpt激起ai浪潮,大算力芯片迎来产业机遇

chatgpt是生成式人工智能技术(aigc)的一种,与传统的决策/分析式ai相比,生成式ai并非通过简单分析已有数据来进 行分析与决策,而是在学习归纳已有数据后进行演技创造,基于历史进行模仿式、缝合式创作,生成全新的内容。aigc的应 用非常广泛,包括自然语言生成、图像生成、视频生成、音乐生成、艺术创作等领域。 aigc产业链主要分为上游算力硬件层、中游数据/算法软件层和下游行业应用层。硬件层依靠高性能ai芯片、服务器和数据 中心为aigc模型的训练提供算力支持,是承载行业发展的基础设施;数据/算法层软件层主要负责ai数据的采集、清洗、标注 及模型的开发与训练,多方厂商入局自然语言处理、计算机视觉、多模态模型等领域;行业应用层目前主要涉及搜索、对话、 推荐等场景,未来有望在多个行业呈现井喷式革新。

多模态赋能下游行业智慧化升级

多模态大模型有望成为ai主流,赋能下游行业智能升级。生成式ai主要依赖于人工智能大模型,如transformer、bert、 gpt系列等。这些模型通常包含数十亿至数万亿个参数,需要庞大的数据集进行训练,致使ai算力的需求也呈现出指数级的 增长。多模态是一种全新的交互、生成模式,集合了图像、语音、文本等方式,因其可以结合多种数据类型和模态的学习, 将有望彻底改变我们与机器互动的方式,快速占据人工智能主导地位。我们认为多模态大模型长期来看不仅可以从成本端 降本增效,需求端也将通过快速渗透推广为下游行业带来持续增长需求,从而快速推动下游行业智慧化应用升级。

gpt-4性能提升显著,aigc应用市场空间广阔

多模态模型是实现人工智能应用的关键。3月14日openai发布gpt-4多模态大模型,拥有1)强大的识图能力;2)文字输 入限制提升至2.5万字;3)回答准确性显著提高;4)能够生成歌词、创意文本、实现风格变化。在各种专业和学术基准上, gpt-4已具备与人类水平相当表现。如在模拟律师考试中,其分数在应试者前10%,相比下gpt-3.5在倒数10%左右。多模态 大模型在整体复杂度及交互性上已有较大提升,模型升级有望加速细分垂直应用成熟,赋能下游智慧化升级,带动需求快 速增长。

1.2、算力芯片迎来产业机遇

ai芯片是人工智能的底层基石

ai人工智能的发展主要依赖两个领域的创新和演进:一是模仿人脑建立起来的数学模型和算法,其次是半导体集成电路ai 芯片。ai的发展一直伴随着半导体芯片的演进过程,20世纪90年代,贝尔实验室的杨立昆(yann lecun)等人一起开发了 可以通过训练来识别手写邮政编码的神经网络,但在那个时期,训练一个深度学习卷积神经网络(convolutional neural network,cnn)需要3天的时间,因此无法实际使用,而硬件计算能力的不足,也导致了当时ai科技泡沫的破灭。

chatgpt激起ai浪潮,大算力芯片迎来产业机遇

算力硬件层是构成aigc产业的核心底座,主要包括ai芯片、ai服务器和数据中心。 ai芯片是算力硬件层的基石。ai芯片主要分为cpu、gpu、fpga和asic四类,cpu是ai计算的基础,gpu、fpga、asic 作为加速芯片协助cpu进行大规模计算。目前ai芯片主要被国际厂商垄断,根据counterpoint、idc数据,intel和amd共计 占2022年全球数据中心 cpu 市场收入的92.45%,nvidia占2021年中国加速卡市场份额的80%以上。

ai 服务器是ai芯片的系统集成。ai服务器采用cpu 加速芯片的架构形式,在进行模型的训练和推断时会更具有效率优势。 与国外ai芯片厂商的垄断局面不同,中国ai服务器水平位于世界前列。据idc数据,在2021h1全球 ai 服务器市场竞争格局 中,浪潮信息以20.2%的份额排名第一,联想和华为分别以6.1%和4.8%的份额位列第四、五名。数据中心的计算服务是承接ai算力需求的直接形式。aigc的模型训练是通常是通过云计算服务完成的,其本质是aigc模型 厂商借助idc的算力资源,在云端实现模型的训练。目前国内的数据中心厂商主要包括三大运营商、华为、联想、中科曙光 等,提供云计算的厂商主要有阿里、腾讯等互联网企业。

二、芯片是chatgpt底层土壤

2.1、ai芯片有望率先受益,cpu xpu异构形式成为主流

ai芯片根据下游应用可分为训练、推断两类

机器学习主要包括训练(training)和推断(inference)两个步骤,通常需要不同类型的ai芯片来执行。训练是指通过大数 据训练出一个复杂的神经网络模型,通过大量标记过的数据来训练相应的系统,使其能够适应特定的功能;推理是指利用 训练好的模型,使用新数据推理出各种结论。 训练芯片:通过大量的数据输入,构建复杂的深度神经网络模型的一种ai芯片。需要较高的计算性能、能够处理海量的数 据、具有一定的通用性,以便完成各种各样的学习任务,注重绝对的计算能力。 推断芯片:推断芯片主要是指利用训练出来的模型加载数据,计算“推理”出各种结论的一种ai芯片,注重综合指标,侧 重考虑单位能耗算力、时延、成本等性能。

全球ai芯片有望达到726亿美元规模

ai芯片是ai算力的核心,需求有望率先扩张。ai芯片是用于加速人工智能训练和推理任务的专用硬件,主要包括gpu、 fpga、asic等,具有高度并行性和能够实现低功耗高效计算的特点。 随着ai应用的普及和算力需求的不断扩大,ai芯片需求有望率先扩张。根据idc预测,中国ai算力规模将保持高速增长,预 计到2026年将达1271.4eflops,cagra(2022-2026年)达52.3%。在此背景下,idc预测异构计算将成为主流趋势,未来 18个月全球人工智能服务器gpu、asic和fpga的搭载率均会上升,2025年人工智能芯片市场规模将达726亿美元。

云端/边缘端芯片同步发展

深度学习的应用开发可分成云端与边缘侧两大部分。云端指的是数据中心或超级计算机,具有强大的计算能力,利用海量 数据进行模型训练,也可以进行推理。边缘侧指的是数据中心外的设备,如自动驾驶汽车、机器人、智能手机、无人机或 iot设备,用训练好的模型进行推理。根据场景不同,形成了两种不同要求的ai芯片: 云端芯片:具有最大的计算能力和最高的性能,主要对深度学习算法模型进行训练,有时也进行推断。目前云端主要以 cpu gpu异构计算为主,根据wind数据,在机器学习服务器和高性能服务器中,cpu gpu的成本占比分别为83%与51%。

边缘端芯片:计算性能有限,主要使用从云端传来的训练好的模型和数据进行推断。在边缘侧或手机等端侧设备中,很少 有独立的芯片,ai加速通常由 soc上的一个ip实现。例如,苹果智能手机里最大的应用处理器(application processor,ap) 芯片就是一块带有ai核的soc,这类soc的性能一般可以达到5~10 tops。

ai芯片有望率先受益,cpu xpu异构形式成为主流

云端训练和推断计算主要由 al 服务器完成,底层算力芯片包括 cpu、gpu、fpga、asic 等。 cpu是ai计算的基础,负责控制和协调所有的计算操作。在ai计算过程中,cpu用于读取和准备数据,并将数据来传输到 gpu等协处理器进行计算,最后输出计算结果,是整个计算过程的控制核心。根据idc数据,cpu在基础型、高性能型、推 理型、训练型服务器中成本占比分别为32%、23.3%、25%、9.8%,是各类服务器处理计算任务的基础硬件。

gpu、fpga、asic是ai计算的核心,作为加速芯片处理大规模并行计算。具体来看,gpu通用性较强,适合大规模并行计 算,且设计及制造工艺较成熟,目前占据ai芯片市场的主要份额;fpga具有开发周期短、上市速度快、可配置性等特点, 目前被大量应用于线上数据处理中心和军工单位;asic根据特定需求进行设计,在性能、能效、成本均极大的超越了标准 芯片,非常适合 ai 计算场景,是当前大部分ai初创公司开发的目标产品。

cpu:底层核心算力芯片

cpu(central processing unit)中央处理器:是计算机的运算和控制核心(control unit),是信息处理、程序运行的最终执 行单元,主要功能是完成计算机的数据运算以及系统控制功能。 cpu擅长逻辑控制,在深度学习中可用于推理/预测。在深度学习中,模型的训练和推理是两个不同的过程: 在训练过程中,模型需要进行大量的矩阵运算,因此通常使用gpu等擅长并行计算的芯片进行处理; 在推理过程中,需要对大量的已经训练好的模型进行实时的推理/预测操作,而这种操作通常需要高效的逻辑控制能力和低 延迟的响应速度,这正是cpu所擅长的。

gpu:ai高性能计算王者

gpu(graphics processing unit)图形处理器:gpu最初是为了满足计算机游戏等图形处理需求而被开发出来的,但凭借 高并行计算和大规模数据处理能力,逐渐开始用于通用计算。根据应用场景和处理任务的不同,gpu形成两条分支: 传统gpu:用于图形图像处理,因此内置了一系列专用运算模块,如视频编解码加速引擎、2d加速引擎、图像渲染等。 gpgpu:通用计算图形处理器(general-purpose gpu)。为了更好地支持通用计算,gpgpu减弱了gpu图形显示部分的能 力,将其余部分全部投入到通用计算中,同时增加了专用向量、张量、矩阵运算指令,提升了浮点运算的精度和性能,以 实现人工智能、专业计算等加速应用。

fpga:可编程芯片加速替代

fpga(field programmable gate array)现场可编程门阵列:fpga最大的特点在于其现场可编程的特性,无论是cpu、 gpu还是asic,在芯片制造完成后功能会被固定,用户无法对硬件功能做出更改,而fpga在制造完成后仍可使用配套软件 对芯片进行功能配置,将芯片上空白的模块转化为自身所需的具备特定功能的模块。 可编程性、高并行性、低延迟、低功耗等特点,使得fpga在ai推断领域潜力巨大。fpga可以在运行时根据需要进行动态 配置和优化功耗,同时拥有流水线并行和数据并行能力,既可以使用数据并行来处理大量数据,也能够凭借流水线并行来 提高计算的吞吐量和降低延迟。根据与非网数据,fpga(stratix 10)在计算密集型任务的吞吐量约为cpu的10倍,延迟与 功耗均为gpu的1/10。

asic:云计算专用高端芯片

asic(application specific integrated circuit)专用集成电路:是一种为专门应特定用户要求和特定电子系统的需要而设 计、制造的集成电路。asic具有较高的能效比和算力水平,但通用性和灵活性较差。能效方面:由于asic是为特定应用程序设计的,其电路可以被高度优化,以最大程度地减少功耗。根据bob broderson数据, fpga的能效比集中在1-10 mops/mw之间。asic的能效比处于专用硬件水平,超过100mops/mw,是fpga的10倍以上。算力方面:由于asic芯片的设计目标非常明确,专门为特定的应用场景进行优化,因此其性能通常比通用芯片更高。根据 头豹研究院数据,按照cpu、gpu、fpga、asic顺序,芯片算力水平逐渐增加,其中asic算力水平最高,在1万-1000万 mhash/s之间。

2.2、国产芯片厂商加速布局

国产cpu多点开花加速追赶

全球服务器cpu市场目前被intel和amd所垄断,国产 cpu 在性能方面与国际领先水平仍有差距。根据counterpoint数据, 在2022年全球数据中心cpu市场中,intel以70.77%的市场份额排名第一,amd以19.84%的份额紧随其后,剩余厂商仅占据 9.39%的市场份额,整体上处于垄断局面;目前国内cpu厂商主有海光、海思、飞腾、龙芯、申威等。通过产品对比发现, 目前国产服务器cpu性能已接近intel中端产品水平,但整体上国内cpu厂商仍在工艺制程、运算速度(主频)、多任务处理 (核心与线程数)方面落后于国际先进水平。

生态体系逐步完善,国产gpu多领域追赶

全球gpu芯片市场主要由海外厂商占据垄断地位,国产厂商加速布局。全球gpu市场被英伟达、英特尔和amd三强垄断, 英伟达凭借其自身cuda生态在ai及高性能计算占据绝对主导地位;国内市场中,景嘉微在图形渲染gpu领域持续深耕,另 外天数智芯、壁仞科技、登临科技等一批主打ai及高性能计算的gpgpu初创企业正加速涌入。 图形渲染gpu:目前国内厂商在图形渲染gpu方面与国外龙头厂商差距不断缩小。芯动科技的“风华2号”gpu采用5nm工 艺制程,与nvidia最新一代产品rtx40系列持平,实现国产图形渲染gpu破局。景嘉微在工艺制程、核心频率、浮点性能等 方面虽落后于nvidia同代产品,但差距正逐渐缩小。

fpga/asic国产替代正当时

fpga全球市场呈现“两大两小”格局,altera与xilinx市占率共计超80%,lattice和microsemi市占率共计超10%;整体来 看,安路科技、紫光同创等厂商处于国际中端水平,仍需进一步突破。工艺制程方面,当前国产厂商先进制程集中在28nm, 落后于国际16nm水平;在等效lut数量上,国产厂商旗舰产品处于200k水平,仅为xilinx高端产品的25%左右。 asic不同于cpu、gpu、fpga,目前全球asic市场并未形成明显的头部厂商,国产厂商快速发展;通过产品对比发现, 目前国产厂商集中采用7nm工艺制程,与国外asic厂商相同;算力方面,海思的昇腾910在bf16浮点算力和int8定点算力方 面超越googel最新一代产品tpuv4,遂原科技和寒武纪的产品在整体性能上也与googel比肩。未来国产厂商有望在asic领 域继续保持技术优势,突破国外厂商在ai芯片的垄断格局。

2.3、ai算力需求,存储芯片受益

ai算力需求,存储芯片受益

chatgpt带动ai服务器需求,存储芯片受益。 chatgpt的数据获取、数据整理、训练、推理除大算力芯片外,还需存储芯片支持。 服务器成本构成:服务器成本包括算力芯片、存储器等,根据idc 2018年服务器成本构成,在高性能服务器/推理型服务器/机 器学习型服务器中存储占比29%/25%/16%。ai服务器,除了内存需要128gb或更大容量的高性能hbm和高容量服务器dram, 还需硬盘去存储大量数据。 存储下游市场:智能手机 服务器 pc是主要下游。智能手机端出货量增速有限,单机容量提升是主要推动力;服务器端,受 益人工智能、物联网和云计算等应用兴起,服务器出货量及单机容量提升推动增长。

ai高算力对高带宽内存的需求

ai大算力需要的内存:大容量服务 器dram和高带宽内存hbm。 按照应用场景,dram分成标准 ddr、lpddr、gddr三类。 jedec定义并开发了以下三类 sdram 标准,以帮助设计人员满足 其目标应用的功率、性能和尺寸要求。 1)标准型ddr:针对服务器、云计 算、网络、笔记本电脑、台式机和消 费类应用程序,与cpu配套使用 。2)lpddr:low power ddr,针对 尺寸和功率非常敏感的移动和汽车领 域,有低功耗的特点。3)gddr:graphics ddr,针对高 带宽(例如显卡和 ai)的两种不同的存 储器架构是 gddr 和 hbm。

ai助力企业级ssd市场扩容

ai助力企业级ssd市场扩容。 ssd为固态硬盘,由nand颗粒、主控芯片等构成,其中nand颗粒占成本的70%。ssd按照用途分为消费级、企业级 及其他行业级产品。近年来随着云计算、大数据发展,互联网服务加速普及,企业加快数字化转型,数据呈现井喷状 态,企业级ssd市场需求与规模不断攀升。 idc 数据显示,企业级 ssd 全球出货量将从 2020 年的约 4750万块增长到 2021 年的 5264 万块左右,年均增长率为 10.7%,预计到 2025 年,将增加到 7436 万块左右。

三、芯片需求增长拉动产业链机会

3.1、封测:chiplet是ai芯片大势所趋

ai产业机会-封测:chiplet是ai芯片大势所趋

当前ai芯片呈现几大趋势: 1)制程越来越先进。从2017年英伟达发布tesla v100 ai芯片的12nm制程开始,业界一直在推进先进制程在ai芯片上的应用。 英伟达、英特尔、amd一路将ai芯片制程从16nm推进至4/5nm。 2)chiplet封装初露头角。2022年英伟达发布h100 ai芯片,其芯片主体为单芯片架构,但其gpu与hbm3存储芯片的连接, 采用chiplet封装。在此之前,英伟达凭借nvlink-c2c实现内部芯片之间的高速连接,且nvlink芯片的连接标准可与chiplet业 界的统一标准ucle共通。而amd2023年发布的instinct mi300是业界首次在ai芯片上采用更底层的chiplet架构,实现cpu和 gpu这类核心之间的连接。3)2020年以来头部厂商加速在ai芯片的布局。ai芯片先行者是英伟达,其在2017年即发布tesla v100芯片,此后2020以来 英特尔、amd纷纷跟进发布ai芯片,并在2022、2023年接连发布新款ai芯片,发布节奏明显加快。

ai产业机会-封测:chiplet是ai芯片大势所趋

制程越先进、芯片组面积越大、小芯片(chips)数量越多,chiplet封装较soc单芯片封装,成本上越有优势: chiplet主要封装形式有mcm/info/2.5d这三种。 14nm制程下,当芯片面积超过700mm²时,chiplet封装中的mcm成本开始较soc低,当面积达900mm²时,mcm较soc成本 低近10%(2颗chips)、或低20%(3颗chips)、或低25%(5颗chips); 7nm制程下,芯片面积超过400mm²时,mcm成本开始低于soc,面积超过600mm²时,info成本开始低于soc,当面积达 900mm²时,5颗chips情况下,mcm较soc成本低40%、info较soc成本低20%; 5nm制程下,芯片面积超过300mm²时,mcm成本开始低于soc,成本超过500mm²时,info成本开始低于soc,当面积达 900mm²时,5颗chips情况下,mcm较soc成本低50%、info较soc成本低40%、2.5d较soc成本低28%。

鉴于当前ai芯片朝高算力、高集成方向演进,制程越来越先进,chiplet在更先进制程、更复杂集成中降本优势愈发明显, 未来有望成为ai芯片封装的主要形式。

3.2、pcb:ai服务器基石

ai产业机会-pcb:ai服务器基石

chatgpt数据运算量增长快速,带动服务器/交换机/显卡等用量提升,布局相应领域pcb公司显著受益。 chatgpt带来了算力需求的激增,与之对应亦带来相应服务器/交换机等作为算力核心载体和传输的硬件,带来pcb需求大幅 增长,同时随着对算力的要求越来越高,对于大容量、高速、高性能的云计算服务器的需求将不断增长,对pcb的设计要求 也将不断升级,提升对于高层数、大尺寸、高速材料等的应用。

以23年发布的新服务器平台为例,pcie 5.0服务器用pcb层数、材料、设计工艺均有升级,pcb价格提升显著,其层数从4.0 的12-16层升级至16-20层,根据 prismark 的数据,2021 年 8-16 层板的价格为 456 美元/平米,而18 层以上板的价格为 1538 美元/平米,pcb 价值量增幅明显;另外配套新服务器,交换机、传输网产品都需要同步升级,预计400g、800g交换机对 pcb板子拉动巨大,进一步带动数通板景气度提升。


chatgpt带动服务器用量增长及平台升级,预计2025年服务器pcb市场超160亿美元,2021-2025cagr达21%。 随着chatgpt对服务器用量增长及平台升级,对应pcb的板材、层数、工艺复杂的均显著提升,预计2025年全球服务器pcb 市场规模超160亿美元,2021-2025年cagr达21%,成为pcb增长最快的下游之一。



报告出品方/作者:中泰证券



网站地图