欢迎访问澳门金沙网赌平台官网!

澳门金沙官网动态

电子行业深度报告:底部已确认,等估值春风

频道:澳门金沙官网动态 日期: 浏览:82

(报告出品方/作者:首创证券,何立中、韩杨)

1 复盘:电子涨幅排名已进入上升期

2023 电子涨幅排名大幅上升,新周期已开启。从 A 股行业指数年度涨幅排名看, 电子板块排名垫底年份的下一年有较好的相对排名。除了 2006 年之外,其他年份只要 当年电子板块涨幅排名进入倒数前三名,下一年的相对排名表现较好。截至 2023 年 11 月 30 日,电子指数排名第七。

电子板块的涨幅排名变化具有明显的周期性规律。当年排名垫 底,下一年排名较好。从 2007 年至今,电子板块涨幅相对排名呈现约 4 年的周期性 2007~2011(4 年)、2011~2014(3 年)、2014~2018(4 年)、2018~2022(4 年),2023 年 电子板块涨幅排名大幅上升,从去年的 30 名上升到 2023 年的第七名,周期或已开启。

2 半导体相关基金增多

2.1 最近 3 年名称含半导体相关的新发基金增多

2018 年之前基金名称里面含“半导体”数量(是指基金名称里面有“半导体、芯片、 集成电路、半导体材料设备”)的基金是零。 2018~2023 年前 11 个月,新发基金名称里面含“半导体”的基金个数分别为 1、4、 4、14、12、12 只。

2018 年年底基金名称含“半导体”的基金份额 2 亿份,2019~2023 前 11 个月,名 称包含“半导体”的当年新发基金年底合计份额分别为 28 亿份、260 亿份、56 亿份、 35 亿份、16 亿份。

截至 2023 年 11 月底,全市场基金名称里面含“半导体、芯片、集成电路、半导体 材料设备”的基金一共有 47 只,合计规模 1302 亿元。

2.2 半导体相关占比超过 25%

按新增基金个数统计,截至 2023 年 11 月 30 日,全市场行业指数基金&主题指数基 金新增个数为 61 只,其中半导体相关新增 12 只,占所有类型的新增基金数量的比例为 20%。 按新增基金份额统计,截至 2023 年 11 月 30 日,全市场行业指数基金&主题指数基 金份额新增 2066 亿份,其中半导体相关新增 538 亿份,占比 26%。 从半导体相关基金占比看,半导体较受投资人欢迎。若保持新发基金的占比,半导 体板块的股价表现有望强于其他板块,或整体市场。

2.3 机构持股占比超 30%

截至 2023 年三季报,半导体板块(SW 分类)市值 30618.8 亿元,机构持股总市值 9285 亿元,占比 30.3%。按照流通股比例看,机构持股占半导体板块流通比例达到 41%。

3 下游终端:AI 带动销量有望回暖

3.1 国内手机销量有筑底回暖迹象

从月度视角看,国内手机出货量从 2023 年 1 月的 1890 万部波动上升至九月的 3328 万部,同比增速从年初的-42.8%提升至 59.1%,实现由负转正。 2016 年~2020 年,国内手机销量总体呈现减少趋势。从月度出货量及增速看, 2020~2022 三年国内手机出货量横盘波动,从 2023 年三季度出货量看,国内手机市场或 已完成筑底,有回暖迹象。

从年度视角看,国内手机出货量存在周期性波动,2022年度国内手机出货量达27151 万部,同比减少 22.6%,2023 年 1-9 月实现出货量 20047 万部,同比增长 2.3%,2023 年 度有望实现同比再度增长。

3.2 全球手机 2024 或出现反弹,同比增长 4%

根据 Canalys 数据,预计 2023 年度全球手机将实现销量 11.3 亿部,同比下降 5%, 实现同比进一步修正。报告预测 2024 年将会成为转折点,预计手机销量将达到 11.7 亿 部,同比增长 4%,实现由负转正。

分地区看,根据 Canalys 数据显示,印度第三季度智能手机出货量为 4300 万部, 同比降幅低达 3%,市场复苏迹象明显。2023 年第二季度中东地区(不含土耳其)智能 手机出货量达 950 万部,同比增长 2%,相较于全球市场同期下降 10%,增长势头良好。

3.3 折叠手机 2024 年有望增长 83%

折叠手机市场逐渐高端化,根据京东官网,华为新品 Mate X5 折叠手机 12+512G 售 价 13999 元,销量较好的 Mate X3 1TB 售价 12694 元。三星新品 Galaxy Z Fold5 售价 10799 元,W24 Flip 12+512G 售价 8699 元。

根据 Counterpoint Research 数据,2022 年度全球折叠手机出货量达 1300 万台,对于智 能手机整体市场渗透率为 1.1%。预计 2023-2024 年全年出货量将达到 1670 和 3060 万 台,2024 年出货量同比增长 83%,渗透率分别达到 1.5%和 2.6%。

3.4 全球 PC 出货量有望继续保持增长

从年度视角看,2022 年度全球 PC 出货量为 2.86 亿台,同比减少 15.77%,相较于 2021 年度 3.4 亿台出货量以及 9.93%的同比增长,增速明显放缓。

进入 2023 年,2023 年度第一到三季度全球 PC 出货量分别为 5690、6160 和 6820 万台,呈现增长态势,同比增速由第一季度的-29.3%逐步修正至第三季度的-8.2%,降幅 逐渐收窄。

根据群智咨询的预测,随着 AI CPU 和 Windows 12 的发布,明年将成为 AI PC 的规 模性出货元年,全球 AI PC 整机的出货量预计将达到约 1300 万台。

3.5 人工智能服务器值得期待

2023 年度第一季度全球服务器整机出货量超过 300 万台,且在第二季度和第三季 度都保持了 8%的环比增速。根据 TrendForce 预测,这一数据将在 2024 年度保持较为稳 定的趋势,特别是 2024 年 Q2~Q3 环比增速有望超过 5%。

伴随生成式 AI 在各应用领域加速渗透,AI 服务器需求持续上扬。根据 Trendforce, 2022 年全球 AI 服务器出货量为 85.5 万台,预计 2023 年将达到 118.3 万台,预计 2024 年增长 27.1%达到 150.4 万台,2026 年在 23 年基础上翻倍,达到 236.9 万台。

4 半导体周期:或已筑底,开启下一轮增长周期

4.1 国内集成电路产量连续 7 个月正增长

从国内集成电路增速看,半导体周期或已经见底。国内集成电路产量月度增速自 2023 年 4 月转正以来,连续 7 个月份实现正增长,并且增速在提升。2023 年 10 月国内 集成电路产量 312.8 亿块,同比增长 34.5%。

4.2 全球半导体销售额增速有望见底

从全球范围看,随着时间推移半导体销售额增速有筑底的可能性在增加。根据半导 体产业协会(SIA)公布的 2023 年 10 月全球半导体产业销售总额为 466 亿美元,较 2023 年 9 月的 449 亿美元增长 3.9%,同比降幅继续收窄至-0.7%。 从全球半导体月度销售额增速变化趋势看,同比增速在 2023 年 4 月达到最低的21.6%以来,降幅在持续收窄。2023 年 4 月-10 月增速分别为-21.6%、-21.1%、-17.3%、 -11.8%、-6.8%、-4.5%、-0.7%。

4.3 全球半导体有望回升

全球半导体市场目前正稳步好转。WSTS 将 2023 年第 2 季度的数据从之前的 4.2%修 订为 6.0%。2023 年第 3 季度较 2023 年 2 季度增长 6.3%。根据 Semiconductor Intelligence2023 年第四季度增长 3%的预测,2024 年第一季度的同比增长率将为正 6%。 这将为 2024 年的同比增长奠定基础。

进入 2023 年年末,国际第三方机构对 2024 年全球半导体市场规模做出预测,六家 机构对 2024 年的增速预测分布在 9%-20%之间。相比较 2023 年增速有明显回升。

4.4 人工智能带动存储&计算表现较好

Semiconductor Intelligence 认为 2024 年收入增长最强劲的有三类半导体公司: 1、内存公司,如三星、SK 海力士和美光。2、PC 和计算的公司。如英伟达、英特尔 和 AMD。3、智能手机的公司,如高通和联发科。而主要专注于汽车、工业和物联网的公 司,如 TI、Infineon、ST、NXP 和 Analog Devices 的收入增长相对较少。 WSTS 预测 2024 全球半导体市场 5883.64 亿美元,比上年增长 13.1%。WSTS 同样看 好生成型人工智能相关产品需求持续增长。 根据 WSTS 预测,2024 年按产品类别划分的市场规模如下:分立半导体将增长 4.2% 至 375 亿美元,光电子将增长 1.7%至 433 亿美元,传感器将增长 3.7%至 201 亿美元, 整体 IC 将同比增长 15.5%至 4875 亿美元。其中:存储器增长 44.8%、逻辑增长 9.6%、 微处理器/控制器增长 7.0%,模拟销售额增长 3.7%。

4.5 美光季度收入增速有望在 2024 年实现转正

美光科技从事 DRAM、NAND 闪存业务,美光自 2008 年以来,季度收入增速和毛利率 变化趋势有明显的周期性,并且收入增速和毛利率保持同步变化趋势。 2008 年至今有 4 个明显负增长的区间,分别是 2008Q4~2009Q3、2011Q2~2012Q4、 2015Q2~2016Q3、2019Q1~2020Q1,每次负增长的时间长度分别为 4 个季度、7 个季度、 6 个季度、5 个季度。 从 2022Q3 开始的负增长已经持续 5 个季度,从收入增速规律看,按照过去的规律, 美光的收入增速有望在 2024 年实现季度正增长。

5 AI 需求爆发高端显卡供不应求,国产算力技术突破产品迭代

5.1 智能算力需求爆发,英伟达高端算力芯片供不应求

算力是对信息数据进行处理并输出目标结果的计算能力,主要通过 CPU、GPU、FPGA、 ASIC 等各类计算芯片实现。根据中国信通院的分类,算力可以分为通用算力、智能算力 和超算算力。其中,通用算力基于搭载 CPU 芯片的服务器,2022 年我国通用服务器出货 量为 384.6 万台,同比增长 3%;智能算力基于搭载 GPU、FPGA、ASIC 等芯片的加速计 算平台,2022 年 AI 服务器出货量 28 万台,同比增长 23%;超算算力基于超级计算机等 高性能计算集群,用于处理极端复杂或数据密集型问题。

在通用算力方面,全球 CPU 服务器处理器出货量稳定增长。根据中国信通院数据, 2021 年全球 CPU 服务器的处理器出货量为 3600 万(unit),同比增长 10%。

在全球数据中心 CPU 市场,基于 X86 架构的 Intel 和 AMD 占据市场主导地位。根据 Counterpoint,2022 年 Intel 以 70.77%的市场份额绝对领先其他对手,但是相较 2021 年市场份额下降了近 10 个百分点;AMD 以 19.84%的市场份额位列第二,较 2021 年提升 8.1pp。同时,基于 ARM 架构的处理器市场份额不断提升,2022 年收入首次超过 10 亿 美元。

大模型参数量指数级增长,智能算力需求水涨船高。模型的参数量越大,训练数据 量越大,模型泛化能力越强,但与此同时对算力的要求越高。根据浪潮信息 Owen ZHU 在 NPCon 大会的演讲,2019 年 2 月,GPT-2 的模型参数量为 15 亿,对应算力当量为 8.7PD(PetaFlops-Day),2020 年 3 月,GPT-3 的模型参数提高至 1750 亿,对应算力当 量为 3640PD,是上一代 GPT-2 的 418 倍,谷歌 2023 年 5 月推出的 PaLM-2 参数量为 3400 亿,算力当量已经达到 85000PD。

在众多适用密集型计算的芯片种类中,GPU 目前仍是最主流的选择。根据 TrendForce 2023 年 5 月发布的报告,全球 AI 服务器市场中,英伟达 GPU 市场份额约占 60-70%,其他厂商自主研发的 ASIC 芯片市场份额超过 20%。而根据 IDC,2021 年中国数 据中心加速计算中 GPU 芯片市占率近 90%,NPU、ASIC、FPGA 等约 10%。

大规模算力需求下,GPU 规模高速扩张。根据中商情报网的预测,2030 年全球 GPU 市场规模将会达到 4773.7 亿美元,2021-2030 CAGR 34.4%。

英伟达在 GPU 市场保持着绝对的龙头地位。除了不断推出的性能强大的 GPU,英伟 达还凭借其 CUDA 生态不断拓宽自身护城河。根据 JPR 统计数据,2Q23 英伟达在独立显 卡市场中份额为 80%,在 GPU 市场了保持着领先的市场份额。

英伟达 GPU 产品主要分为游戏、设计、数据中心三条线,Hopper 架构的 H200 是目 前数据中心条线最强 GPU。英伟达 GPU 产品线主要分为面向游戏娱乐领域的 GeForce GTX/RTX 系列显卡、面向专业设计和虚拟化领域的 NVIDIA RTX/Quadro 系列显卡,以及 面向数据中心的高算力 GPU。根据英伟达官网,数据中心产品线目前在售产品主要包括 Ampere 系列,Hopper 系列,Ada Lovelace 系列和 Turing 系列。其中,最新推出的 H200 是首款采用 HBM3e 的 GPU,显存配置较上一代显著提升。H200 显存 141GB,是 H100 的1.8 倍,显存带宽 4.8TB/s,是 H100 的 2.4 倍,在处理 700 亿参数的大语言模型 Llama2 时,H200 的推理速度是 H100 的 1.9 倍。

英伟达护城河之一:算力,持续架构迭代提升 GPU 性能。2010 年,英伟达推出世界 上第一个完整的 GPU 架构 Fermi,此后,英伟达不断通过扩展 Cuda 核心种类,增加 CUDA Core 数量,引入并升级 Tensor Core & RT core 等等途径,增强 GPU 在深度学习、AI 运算方面的性能。2022 年英伟达推出全新的 Ada Lovelace 架构和 Hopper 架构,其中专 为数据中心打造的 Hopper 架构采用了台积电 4nm 制造工艺,与上一代相比,Hopper 将 TF32、FP64、FP16 和 INT8 精度的 FLOPS 提高了 3 倍。

英伟达护城河之二:生态,CUDA 工具降低开发门槛。CUDA 是英伟达 2006 年推出的 并行计算框架,本质是一系列用于优化计算的编程函数,通过提供包括数据索引、内核 函数、线程分配等在内的完整的工具套件,方便开发者针对不同任务对处理器进行编程, 从而让 GPU 的功能由图形处理拓展至通用计算,具有了解决复杂计算问题的能力。但 CUDA 并非开源生态,英伟达拥有大量专利壁垒。随着不断迭代,CUDA 在针对 AI 或神经 网络深度学习领域推出了非常多的加速库,构成了 CUDA 的软硬件生态站。完善的功能 吸引更多开发者使用,大量的开发者亦不断完善 CUDA 生态,从而形成正向循环。截至 2023 年 5 月,CUDA 注册开发者增加至 400 万人。 在算力和生态双重支撑下,英伟达 H100 毛利或高达 90%。英伟达作为芯片设计公 司,主要制造成本为购买 BOM(物料清单)的支出和委托第三方的制造封装成本。根据 晚点 LatePost 的测算,收入方面,一颗 H100 售价超 3 万美元,制造成本方面,BOM 支 出主要为从 SK 海力士采购的 HBM3 内存芯片约 2000 美元,委托台积电制造封测预计花 费 878 美元,粗略测算英伟达 H100 毛利或高达 90%。

英伟达高端芯片供不应求,货期最长可达 52 周。在庞大的需求与紧张的供货下, H100 最长需要 52 周才能交付。同时,大多数服务器 GPU 都供应给了超大规模云服务 提供商,而服务器原始设备制造商(如戴尔、联想、HPE)目前还无法获得足够的 AI 和 HPC GPU。根据 Omdia 数据,Meta 与微软是 H100 最大的客户,预计 2023 年订购量为 15 万张,谷歌、亚马逊等预计订购 5 万张。

5.2 英伟达下游客户持续投入 AI 芯片自研,全球 ASIC 市场百花齐放

一方面,英伟达直接竞争对手持续进行升级。2023 年 12 月 7 日,AMD 推 出最新数据中心芯片 Instinct MI300X GPU,在算力和显存方面均实现了对 H100 的超越。算力方面,TF32(Sparsity)等指标是 H100 的 1.3 倍,FP64 (Vector)等指 标是 H100 的 2.4 倍;显存方面,MI300X 有 192GB 的 HBM3 显存容量,容量是 H100 的 2.4 倍,显存带宽 5.3TB/s,是 H100 的 1.6 倍。

另一方面,众多英伟达客户投入 ASIC 芯片研发中,ASIC 市场高速发展。 ASIC 不同于 CPU、GPU、FPGA,目前全球 ASIC 市场并未形成明显的头部厂商。在庞大需求与有限供应的不对称影响下,一方面出于自身业务需求,另一方 面寻求新的高利润增长点,许多云服务提供商以及新兴创业公司投入 ASCI 芯片 研发中。根据贝哲斯咨询统计,2022 年全球 ASIC 市场规模到达到了 1005.51 亿 人民币,预计 2028 年市场规模将达到 1677.49 亿人民币,2022-2028 CAGR 9 %。

微软:进军 AI 芯片领域,推出两款自研 AI 芯片。2023 年 11 月,微软推出 两款自研 AI 芯片 Azure Maia 100 GPU 和 Azure Cobalt 100 CPU。Maia100 芯片 基于台积电的 5 纳米工艺打造,总共包含 1050 亿个晶体管,据 semianalysis, Maia 100 在 MXInt8 下的性能为 1600 TFLOPS。Cobalt 100 基于 Arm 架构,据 semianalysis,Cobalt 100 包含 128 个 Neoverse N2 内核和 12 个 DDR5 通道。

谷歌:推出新一代高性价比 TPU 芯片 TPUv5e。TPU 是谷歌专为机器学习 和深度学习设计的专用 AI 加速芯片。2023 年 8 月,Google 推出新一代 AI 芯片 TPUv5e。根据谷歌 9 月 MLPerfTM 3.1 推理基准测试结果,TPUv5e 每美元推理 性能是 TPU v4 的 2.7 倍;根据谷歌 11 月 MLPerfTM 3.1 训练基准测试结果, TPUv5e 每美元训练性能是 TPU v4 的 2.3 倍。

亚马逊:推出 Trainium2,训练速度较上一代提升四倍。2023 年 11 月,亚 马逊发布最新 AI 训练芯片 Trainium2。Trainium2 专为数万亿参数的基础模型 (FM,foundation model)和大语言模型(LLM,large language models)的高性 能训练设计,相较第一代芯片 Trainium,Trainium2 的训练速度快 4 倍,存储容 量大 3 倍,能源效率提升 2 倍。Amazon EC2 Trn2 实例将采用 Trainium2 芯片, 从而支持客户在下一代 EC2 UltraCluster 中大规模扩展至多 10 万张 Trainium2 芯 片,通过 AWS EFA 的 PB 级网络连接,能够提供高达 65 exaflops(1018flops)的 算力。

5.3 禁令下国产替代重要性凸显,国内厂商技术持续突破

GPT3.5 横空出世带领 LLM 实现革命性突破,我国 AI 大模型行业顺应趋 势快速扩张。2022 年 6 月 GPT-3.5 的发布,为语言大模型(LLM)行业带来革 命性影响,2022 年中国 LLM 行业规模达到 668 亿元,根据头豹研究所和弗若斯 特沙利文预测,2027 年市场规模将会达到 1713 亿元,2022-2027 CAGR 20.7%。 除了 LLM,AI 大模型还包括视觉大模型和多模态大模型,2022 年中国 AI 大模 型规模达到 891 亿元,根据头豹研究所和弗若斯特沙利文预测,2027 年市场规模将增至 2778 亿元,2022-2027 CAGR 25.5%。

大模型装备竞赛下国内对高端算力芯片需求旺盛,高端算力芯片国产替代 正当时。大模型能力的提升需要算力硬件进行支撑,算力充足与否,直接决定了 AI 产品供应商能否长期稳定的提供服务,从而保持行业竞争力。根据头豹研究 所和沙利文联合发表的白皮书,2022 年中国 AI 芯片市场规模为 368 亿元,预计 2027 年将达到 3400 亿元,2022-2027 CAGR 56%。

2023 年 10 月 BIS 加强对华高端半导体管控,英伟达多款高端算力芯片限制对华出 售。2023 年 10 月 17 日,美国商务部工业与安全局(BIS)发表政策文件,针对高端半 导体出口政策进行限制。芯片方面,BIS 新引入总算力性能 TPP 和性能密度 TP 参数来明 确芯片性能,对于符合 ECCN 3A090.a 和 3A090.b 规定的算力芯片进行出口限制。根据 英伟达在 17 日提交给 SEC 的文件,其多款高性能计算芯片受到出口限制,包含 A100、A800、H200、H100、H800、L40、L40S 等。

龙芯中科:龙链技术加速片间互联,9A1000 显卡明年流片。龙芯中科推出最新的龙 链技术,对标英伟达 NVLink、CXL,可以实现片间高速互联,是破解 Chiplet 的关键技 术。龙芯中科表示,龙链技术与公司目前使用的片间一致性互联接口相比,能够有效降 低互联延迟,成倍提升实测带宽。目前公司正在进行国产显卡的研发,9A1000 计划于 2024 年 Q3 流片,对标 AMD RX550,INT8 大概 32TOPS。此外,应用龙链技术可以实现 9A1000 多片互联,形成更高性能。

海光信息:深算二号 DCU 性能翻番,三号研发顺利。深算系列为海光 DCU 产品,以 GPGPU 架构为基础,可用于大数据处理、人工智能、商业计算等应用领域。公司在招股 书中表示,在典型应用场景下,深算一号指标达到国际上同类型高端产品的水平。目前, 公司已经推出深算二号,性能相较于深算一号提升 100%以上,深算三号正处于研发中。

寒武纪:思元 370,国内首款支持 LPDDR5 的云端 AI 芯片。寒武纪云端智能芯片产 品线包含思元 100,思元 270,思元 290,思元 370。其中,思元 370 基于 7nm 制程,是 寒武纪首款采用 chiplet 技术的 AI 芯片,INT8 下的峰值算力达到 256TOPS,是思元 270 算力的 2 倍。思元 370 在业内率先支持 LPDDR5 内存,内存带宽是上一代产品的 3 倍。

除了硬件升级,国内持续在前沿技术方面突破。在芯片制造材料方面,2023 年 11 月华为公布了和哈工大联合申请的全新芯片专利,是“一种基于硅和金刚石的三维集成 芯片的混合键合方法” ,突破了现有三维集成以硅为衬底的基础,利用金刚石作为连接 材料,实现硅基半导体与金刚石之间的无缝融合,从而提高芯片集成度,降低制造成本, 提升产品性能。在芯片制造设备方面,2022 年 12 月,复旦大学研究团队发明的晶圆级 硅基二维互补叠层晶体管在国际顶尖期刊《自然-电子学》上发表,该技术可以在不依赖 EUV 光刻工艺下,在相同工艺节点下实现器件集成密度的翻倍,从而显著提高性能。 国内算力芯片厂商前景广阔。需求方面,生成式 AI 逐步渗透,同步带动相关算力 需求集中释放,高端芯片蓝海市场;供给方面,BIS 禁令切断我国人工智能产业从国外 进口高端芯片的途径,算力缺口提供了国产化芯片即时补位的窗口机遇,国内芯片厂商 加速升级满足市场需求。在广阔市场需求和不断技术突破背景下,我看好国产算力芯片板块发展。

6 数字芯片:AI 驱动硬件创新,边缘算力重点布局

6.1 AI 算力正逐渐向边缘端拓展

ChatGPT 引爆生成式 AI 应用热潮,人工智能应用有望迎来高速增长。2023 年上 半年迎来了以 GPT 为代表的人工智能大模型热潮。人工智能大模型技术的创新突破为 社会、经济、产业发展等带来变革,更多应用场景的落地将进一步拓展产业生态。在大 模型技术不断成熟的基础上,大模型的小型化、专业化也会加速推进,生成式 AI 的潜 在应用场景不断扩大,将逐渐渗透到教育、金融、医疗、文娱、智能家居、消费电子等 行业,将引发未来人工智能应用的高速增长。 伴随生成式 AI 的飞速发展,算力从云端逐渐向边缘端拓展将是大势所趋。生成式 AI 的快速发展带来了大量的算力需求,将 AI 处理逐渐从云端向边缘端扩展能够保证 AI 实现规模化扩展并实现最大潜能。与仅在云端进行处理不同,混合 AI 架构在云端和边 缘终端之间分配并协调 AI 工作负载。云端和边缘终端如智能手机、汽车、个人电脑和 物联网终端协同工作,能够实现更强大、更高效且高度优化的 AI。

云端和终端协同工作,可形成成本、能耗、性能、隐私、安全和个性化等多方面优 势。将 AI 处理从云端转移到边缘端可以减轻云基础设施的压力并减少开支,同时边缘 终端能够以更低的能耗运行生成式 AI 模型,尤其是将处理和数据传输相结合时。并且 端侧 AI 还可以在无网络连接时正常运行生成式 AI 应用。由于查询和个人信息保留在终 端上,端侧 AI 还可以从本质上保护用户的隐私,且提供个性化的体验。

将自动语音识别等模型工作负载转移至端侧可以节省计算和连接带宽。在混合 AI 架构中,当用户对着智能手机说话时,自动语音识别模型可以将语音转换为文字,然后 将其作为请求提示发送至云端,并在云端运行大语言模型,随后将生成的文本回复至终 端,终端侧运行文本生成语音模型,给予用户语音回复。随着大语言模型变为多模态并 支持图像输入,计算机视觉处理也可以在终端上运行,以进一步分流计算任务并减少连 接带宽,从而节省成本。 伴随生 AI 模型逐渐变小且端侧处理能力的提升,更多的 AI 模型可以在端侧运行。 端侧嵌入式 AI 算力载体从 CPU、GPU、DSP 发展到 ASIC 架构,推动了基于深度学习 的语音识别、人脸识别、图文识别、AIGC、目标检测、超分辨率、ADAS 等技术的广泛 应用。目前参数在 10 亿至 100 亿之间的部分模型已经可以在端侧顺利运行,如 Stable Diffusion 等参数超过 10 亿的模型已经能够在手机上运行,且性能和精确度达到与云端 处理类似的水平。

6.2 生成式 AI 有望促进 XR 加速创新

下一代 AI 渲染工具将赋能内容创作者使用如文本、语音、图像或视频等各种类型 的提示,生成 3D 物体和场景,并最终创造出完整的虚拟世界。此外,内容创作者将能 够利用文本生成文本的大语言模型,为能够发出声音并表达情绪的虚拟化身生成类人对 话。

6.4 国产数字 SoC 厂商积极布局端侧算力

6.4.1 瑞芯微:紧跟 AI 快速发展趋势,提供多种算力平台。

边缘计算领域已有多年积累,头部客户合作关系良好。公司边缘计算是公司的重要 的产品线之一,公司在边缘计算领域已有多年积累。从 RK3288、RK3399、RK3568 到 RK3588 等,公司多款产品与众多头部企业已有合作。公司十分看好边缘计算市场的发 展前景,积极主动拥抱 AI 发展大势。2023 年,公司持续拓展更多边缘计算领域的客户, 已取得一定成绩。 公司可提供 0.5T-6T 的多算力芯片,满足下游客户边缘计算需求。公司的芯片在靠 近物或数据源头的一侧就近提供比云计算更快、更稳定的服务响应,满足各个行业在实 时性、可靠性、应用智能、安全与隐私保护等方面的关键需求。公司提供从 0.5T 到 6T 的不同算力芯片,在不同芯片之间可实现算法快速移植、更新迭代,从而帮助客户缩短 研发周期、节省研发投入,快速推出不同定位、不同算力的产品。

既有平台开发 AI 技术满足客户需求,持续升级人工智能 NPU IP 和相关工具链。 在既有的芯片平台上,公司从算法和软件层面出发,持续研发各种应用场景需要的 AI 技术,更好地匹配客户产品的需求。在芯片设计上,公司持续升级人工智能 NPUIP 和相 关工具链,更好地支持基于 Transformer 底层技术的各种大模型,同时针对不同定位的 平台,设计不同的算力性能以满足客户的差异化需求。

6.4.2 全志科技:各下游应用领域积极拥抱AI。

随着 AI 算法在市场的持续渗透,各类场景对 AI 专用算力的需求日益增长,公司深 入分析 AI 算法的应用场景,主动积极推进 NPU 和 DSP 的 AI 专用算力在终端产品应用的落地,同时在大算力&大数据总线架构、多核异构、AI 专用处理器、低功耗系统架构、 先进工艺平台等方向持续研究和突破。 智能音箱:搭载公司 R329 芯片的天猫精灵已训练出“鸟鸟分鸟”。公司早在 2020 年 就已推出主打 AI 语音专用的 R329 芯片,这是全志科技首款搭载 Arm 中国全新 AI 处理 单元(AIPU)的高算力、低功耗 AI 语音专用芯片。通过集成高性能的 AIPU、DSP、 CPU,将为智能音箱、智能家居带来崭新的 AI 交互体验,2023 年基于公司 R329 芯片 的天猫精灵 SOUND 系列已接入标杆客户大模型终端操作系统。

智能机器人:面向中高端推出新一代 MR 系列高性能八核+AI 专用算力芯片。针对 扫地机器人避障不够智能的用户痛点,下游客户推出了集成 AI 物体识别及避障功能的 中高端产品,公司面对这一产品趋势,推出了新一代 MR 系列高性能八核+AI 专用算力 芯片及解决方案,满足高端扫地机产品对新功能和体验的需求。此外,伴随 AI 的快速 发展,公司已提前布局商用服务机器人和割草机等市场,实现机器人领域的产业全覆盖。

6.4.3 炬芯科技:从智能音频入局,打造低功耗端侧 AI 算力。

AI 模型在音频领域有许多应用场景,部分场景下对能耗比提出较高要求。AI 模型 在音频领域的应用场景包括语音识别、噪音抑制、语音翻译、语音/音频关键词识别、人 声增强、人声分离等,具有广阔的市场前景。同时满足更高的算力与低功耗将成为端侧 AI 处理器芯片的重要需求,低功耗装置对于端侧人工智能算力提出新的挑战和需求。 发挥公司传统技术优势,专攻低功耗端侧AI算力。炬芯科技是国内领先的低功耗AIoT 芯片设计厂商,凭借在低功耗音频等领域的多年积累,面对 AI 热潮,公司从智能音频 入局,率先发力。公司将基于多核异构 AI 计算架构,在产品中逐步整合 AI 加速引擎, 打造低功耗端侧 AI 算力,致力于提供高能耗比、高集成度、高性能和高安全性的端侧 AIoT 芯片产品。 公司最新一代三核异构高端 AI 音频芯片预计将于 2024 年开始 Sample。公司将推 出最新一代升级为 CPU+DSP+NPU 三核异构的高端 AI 音频芯片 ATS286X,预计在 2024 年开始 Sample。其中 NPU 将采用 CIM(Compute-in Memory)架构达成高能效比, 为便携式产品提供低功耗下的大算力,将为 AI 降噪、人声分离、人声隔离等应用带来 高品质的提升,未来将广泛应用于智能音频、智能办公、智能教育、智能陪护等多个市 场领域。

6.4.4 乐鑫科技:低成本领域布局 AI SoC,高端方案第三方合作。

高端方案领域:使用自身 Wi-Fi 产品进行数据传输,搭配第三方复杂 AI 算法应用。 生成式 AI 的蓬勃发展下,未来 AI 的应用领域将逐渐多元,面对高算力复杂应用领域, 公司选择与第三方积极合作,各取所长,互利共赢。目前公司现有产品线 ESP32-S3 已 可对接 OpenAI 的 ChatGPT 或百度的“文心一言”等云端 AI 应用。在高端方案领域,公 司提供连接方案搭配第三方复杂 AI 算法共同实现 AI 应用。 低成本方案:研发 AI MCU 与无线连接功能集成的 SoC。面向低成本的下游终端 应用领域,公司在自有的 SoC 中加入 AI 功能使得下游客户可以直接应用。如公司已在 ESP32-S3 中集成了加速神经网络计算和信号处理等工作的向量指令。AI 开发者们将可 以使用指令优化后的软件库,实现本地的图像识别、语音唤醒和识别等应用。目前公司 已同步研发基于 ESP32-S3 芯片的离线语音唤醒/识别的技术,可实现多达 200 条离线命 令词,可被广泛应用于智能家居设备,目前已有客户开始订制唤醒词和命令词。

7 模拟芯片:消费电子新机发布拉动需求,关注新品新领域扩展

7.1 平台厂商发布 AI 主控芯片,有望拉动换机需求

高通推出首款专为生成式 AI 打造的移动平台骁龙 8 Gen 3。2023 年 10 月 24 日,高通发布第三代骁龙 8 移动平台,是高通首个支持多模态生成式 AI 模型的平台,该平 台能够在终端侧运行高达 100 亿参数的 AI 模型,面向 70 亿参数的大语言模型每秒生成 高达 20 个 token。这意味着,各类虚拟助手、GPT 聊天机器人、Stable Diffusion 等 LLM 等都可以在手机等终端正常运行。

小米 14 首发搭载高通骁龙 8 Gen 3,开售前五分钟首销销量是上代手机的 6 倍。目 前小米自研的 60 亿参数大模型已经在第三代骁龙 8 上流畅运行,小米 14 Pro 也通过将 本地 AI 大模型植入到小米澎湃 OS 操作系统中,支持 AI 创作、AI 扩图、AI 魔法消除 Pro、AI 写真和 AI 搜图等一系列功能,为用户带来全新生成式 AI 体验。开售仅 5 分钟, 小米 14 系列首销销量已猛增至上代首销总量的 6 倍。 联发科发布天玑 9300,率先搭载基于硬件的生成式 AI 引擎。2023 年 11 月 6 日, 联发科正式发布天玑 9300,基于 MediaTek 第 7 代 APU 架构内建硬件级的生成式 AI 引 擎,能够实现更快速且安全的边缘 AI 计算,率先实现 330 亿参数 AI 大预言模型移动芯 片成功运行,70 亿参数 AI 大语言模型高达 20 tokens/秒,Stable Diffusion 文生图速度少 于 1 秒。

7.2 终端库存去化尾声,消费电子需求率先复苏

伴随消费电子终端客户库存去化逐步进入尾声,消费类占比高的模拟公司率先复苏。 尽管手机等消费电子终端设备出货量在 2023Q3 同比仍在下滑,但经过几个季度的消化, 各终端厂商库存水位也逐渐接近正常,受三四季度消费电子旺季需求的拉动,终端厂商 于 Q2 开始逐步加大备货。 下游对应手机等消费电子占比高的模拟公司营收在 Q2 开始环比呈现大幅增长,其 中,希荻微、艾为电子、汇顶科技、帝奥微、英集芯和南芯科技 2023Q2 收入环比增速 分别高达 240.45%、62.37%、39.58%、38.95%、33.77%和 31.20%。

7.3 关注国产模拟公司新产品和新领域扩展

模拟芯片是一种处理连续性模拟信号的集成电路芯片,广泛应用于消费电子、通讯、工控、医疗、汽车等各下游终端。全球龙头 TI 的产品种类多达 8 万种以上。国内模拟 芯片公司持续向新料号和新的下游应用领域持续拓展。

圣邦股份:车规模拟深入布局,车规料号已超 100 颗。 公司在快速增长的汽车芯片市场领域积极布局,不断扩大产品品类,提升产品性能 品质,增强国际竞争力。自主研发多品类的符合汽车应用标准的车规级电源管理及信号 链类模拟芯片,包括各类驱动芯片、隔离芯片、DC/DC 电源转换芯片、LDO、运放及比 较器、电压基准芯片、小逻辑芯片等。在现已披露的 30 个产品大类中,每个品类下都 有车规级的产品在研发、验证阶段或已进入销售阶段,总计 100 余颗。

帝奥微:重点发力汽车电子,围绕马达驱动和车灯完善产品系列。 公司推出了国内首款用于汽车车身控制的 15A 的 H 桥直流电机驱动产品,围绕马 达驱动,还将推出步进马达、域区直流马达等用于汽车热管理,头灯,空调风门、水泵, 油泵,风扇等领域的产品。车灯方面,公司已经布局了包括 12 路/16 路/24 路的贯穿式 尾灯;多拓扑架构头灯驱动、BUCK-BOOST 头灯驱动和矩阵管理器(ADB)等头灯产 品;以及具有控制单元的氛围灯等产品 。 必易微:DC/DC 产品稳步放量,支持级联式 BMS AFE 芯片加速研发。 公司于 2022 年推出了 4.5-40V 电压段、0.6-6A 电流范围 DC-DC 芯片全系列产品并 实现量产,广泛应用于电工照明、家用电器、网络通讯、安防监控等领域,目前正处于 稳步快速放量阶段。BMS AFE 产品方面,针对 200-800V 高电压段应用,公司积极研发 支持菊花链级联式 BMS AFE 芯片,同时推进 ISO26262 功能安全标准的认证,目标领 域为大型储能系统、新能源汽车。

南芯科技:手机充电端新产品快速导入,围绕汽车电子重点布局。 2023 年公司推出了高集成度的 AC/DC 产品,其集成了原边、副边、协议、隔离等 技术,全整合方案有望加速公司产品在客户端导入。汽车电子方面,公司 USB 及无线 充电方案在客户端实现大规模量产;高性能 DC-DC 电源芯片、高边开关等新产品在客 户端实现规模送样,部分客户已经进入项目定点设计阶段。 晶丰明源:多款多相控制器已完成客户送样,1 颗 DrMOS 已经通过客户测试。 公司从大电流 DC/DC 多相方案入手,研发主要为 CPU 和 GPU 供电的多相控制器 和 DrMos。2023H1 公司 DC/DC 产品线共 27 款产品进入研发阶段、14 款产品完成研发; 公司推出的 16 相多相控制器产品已完成客户送样,应用于个人电脑和服务器的 40A、 50A、70A 及 90A 等多款 DrMOS 产品均已完成内部评估,进入客户送样阶段,1 颗 DrMOS 已经通过客户测试。

8 功率半导体:国产替代持续推进,关注 SiC 渗透率拐点

8.1 国产替代持续推进,新能源占比大幅提升

经过前期的验证导入,2023 年国内 IGBT 公司收入的下游结构从以工控为主转向以 新能源领域为主要收入来源。其中,斯达半导 2023H1 在新能源领域实现收入 9.92 亿元, 占收入比重从 2022 年的 53.82%提升至了 58.78%;宏微科技 2023 年 1-9 月新能源发电 领域收入占比约 40%,电动汽车领域收入占比约 20%。

光伏 IGBT 模块大幅放量,国产替代向深水区迈进。2023H1 斯达半导基于第七代 第七代微沟槽 Trench Field Stop 适用于光储行业的 IGBT 芯片以及模块开始批量供货, 预计下半年市场份额将迅速提高。2023H1 宏微科技光伏用 400A/650V 三电平定制模块 开发顺利,已开始批量交付,目前产能稳定,终端表现良好。扬杰科技针对光伏领域, 成功研制了 650V/400A 三电平 IGBT 模块并投放市场,同时着手开发下一代 950V/600A 三电平 IGBT 模块。

8.2 碳化硅深入布局,关注渗透率拐点

根据 IHS 数据,受新能源汽车行业庞大的需求驱动,以及光伏风电和充电桩等领域 对于效率和功耗要求提升的影响,预计到 2027 年碳化硅功率器件的市场规模将超过 100 亿美元,2018-2027 年的复合增速接近 40%。由于碳化硅材料具有宽禁带、高饱和漂移 速度、高临界击穿电场等优异的性能,能够提升光伏风电和充电桩等领域对于效率和功 耗要求,国内功率半导体公司积极布局。

斯达半导:自建产线布局 SiC 芯片,车规 SiC MOSFET 模块持续放量。碳化硅领 域,斯达半导除拥有 SiC MOSFET 模块封装产线外,公司还通过募投项目自建 SiC 芯片 产线,IDM 模式抢先布局 SiC 市场。项目建成后,公司车规级 6 吋 SiC MOSFET 芯片 产能将达6万片/年。2023H1公司应用于新能源汽车主电机控制器的车规级SiC MOSFET 模块持续放量,在 800V 系统的主电机控制器领域,公司新增多个车规级 SiC MOSFET 模块项目定点,预计将拉动公司未来 SiC 领域收入。 宏微科技:SiC 混合模块已批量出货,SiC MOS 预计 2024Q1 交付客户。2022 年公 司几款 SiC 混合模块已批量出货,2022 年底资产 SiC SBD 单管样品在客户端测试,目 前公司 SiC 二极管已在客户端开展验证工作,SiC MOS 实现样品产出,预计于 2024Q1 将成品交付客户使用。

扬杰科技:车规全国产主驱 SiC 模块计划于 2025 年批量上车。车载模块方面,公 司自主开发的 HPD 以及 DCM 全碳化硅主驱模块将在 2023 年完成 A 样试制,目前已 经获得多家 Tier1 和终端车企的测试及合作意向,计划于 2025 年完成全国产主驱碳化 硅模块的批量上车。第三代半导体产品的持续推出,为公司实现半导体功率器件全系列 产品的一站式供应奠定了坚实的基础。 新洁能:部分 SiC MOSFET 已批量销售,GaN HEMT 部分产品已开发完成。1200V SiC MOSFET 产品方面,公司已完成23mohm~62mohm系列产品开发。650V SiC MOSFET 产品方面,公司新开发了部分产品应用于新能源汽车 OBC、光伏储能、工业及自动化等 行业,相关产品通过客户验证,并实现小规模销售。GaN HEMT 部分产品开发完成并通 过可靠性测试。

(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

精选报告来源:【未来智库】。未来智库 - 官方网站

关键词: