原副标题:2023年,我省伺服器消费市场体量将减至近2200亿
伺服器主要就硬体主要就包括CPU、缓存、晶片组、I/O (RAID卡、网卡、HBA卡) 、硬碟、机箱 (电源、散热器)。以两台一般的伺服器运输成本为例,CPU及晶片组大体占比50% 以内,缓存大体占比 15% 以内,内部储存大体占比10%以内,其他硬体占比25%以内。
伺服器的方法论构架和一般计算机类似。但是由于需要提供高效能计算,因此在处理能力、稳定性、可靠性、可靠性、扩展性、K43E342TK等方面要求较高。
方法论构架中,最重要的部分是CPU和缓存。CPU对统计数据展开方法论运算,缓存展开统计数据repeats。
伺服器的BIOS主要就主要就包括BIOS或UEFI、BMC、CMOS,OS主要就包括32位和64位。
伺服器消费市场体量持续快速增长。依照 Counterpoint 的亚洲地区伺服器销售追踪调查报告,2022年,亚洲地区伺服器销售额将环比快速增长6%,达至 1380 万部。收入将环比快速增长 17%,达至1117 万美元。依照IDC、中商产业发展研究所,我省伺服器消费市场体量由2019年的182万美元快速增长至2022年的273.4万美元,A43EI235E年均快速增长率达14.5%,预计2023年我省伺服器消费市场体量将减至308亿美元。
竞争格局:依照IDC正式发布的《2022年第三季度中国伺服器消费市场追踪调查报告Prelim》,大潮交易额国内领跑,光华四次之,超核聚变名列第三,爱立信进入前三。
目前,AIGC产业发展自然生态体系的雏型初现,呈现为上中下四层构架:①第一层为上游基础层,也就是由预体能训练数学模型为依据构筑的AIGC控制技术基础建设层。②第一层为第一层,即垂直化、情景化、个人化的数学模型和应用工具。③第一层为网络层,即面向全国C端用户的文字、图片、音频等内容生成服务。
简述GPT的发展,GPT家族与BERT数学模型都是著名的NLP数学模型,都基于Transformer控制技术。GPT,是一种生成式的预体能训练数学模型,由OpenAI项目组最早正式发布于2018年,GPT-1只有12个Transformer层,而到了GPT-3,则增加到96层。其中,GPT-1使用无监督管理预体能训练与有监督管理松动并重的形式,GPT-2与GPT-3则都是纯无监督管理预体能训练的形式,GPT-3相比GPT-2的变异主要就是信息量、参数量的量级提升。
未来异构计算或成为主流
异构计算(Heterogeneous Computing)是指使用不同类型指令集和体系构架的计算单元组成系统的计算形式,目前主要就主要就包括GPU云伺服器、FPGA云伺服器和弹性加速计算实例EAIS等。让最适合的专用硬体去服务最适合的业务情景。
在CPU+GPU的异构计算构架中,GPU与CPU通过PCle总线连接协同工作,CPU所在位置称为主机端 (host),而GPU所在位置称为设备端(device)。基于CPU+GPU的异构计算平台可以优势互补,CPU负责处理方法论复杂的串行程序,而GPU重点处理统计数据密集型的并行计算程序,从而发挥最大功效。
越来越多的AI计算都采用异构计算来实现性能加速。
阿里第一代计算型GPU实例,2017年对外正式发布GN4,搭载Nvidia M40加速器.,在万兆网络下面向全国人工智能深度学习情景,相比同时代的CPU伺服器性能有近7倍的提升。
未来异构计算或成为主流
CPU 适用于一系列广泛的工作负载,特别是那些对于延迟和单位内核性能要求较高的工作负载。作为强大的执行引擎,CPU 将它数量相对较少的内核集中用于处理单个任务,并快速将其完成。这使它尤其适合用于处理从串行计算到统计数据库运行等类型的工作。
GPU 最初是作为专门用于加速特定 3D 渲染任务的 ASIC 开发而成的。随着时间的推移,这些功能固定的引擎变得更加可编程化、更加灵活。尽管图形处理和当下视觉效果越来越真实的顶级游戏仍是 GPU 的主要就功能,但同时,它也已经演化为用途更普遍的并行CPU,能够处理越来越多的应用程序。
AI伺服器作为算力基础设备持续快速增长
AI服务器作为算力基础设备,其需求有望受益于AI时代下对于算力不断提升的需求而快速快速增长。依照TrendForce,截至2022年为止,预估搭载GPGPU(General Purpose GPU)的AI伺服器年销售额占整体伺服器比重近1%,预估在ChatBot相关应用加持下,有望再度推动AI相关领域的发展,预估销售额年成长可达8%;2022~2026年A43EI235E成长率将达10.8%。
AI伺服器是异构伺服器,可以根据应用范围采用不同的组合形式,如CPU + GPU、CPU + TPU、CPU +其他加速卡等。IDC预计,中国AI伺服器2021年的消费市场体量为57万美元,环比快速增长61.6%,到2025年消费市场体量将增长到109万美元,CAGR为17.5%。
AI伺服器构成及形态
AI伺服器主要就构成:以大潮NF5688M6 伺服器为例,其采用NVSwitch实现GPU跨节点P2P高速通信互联。整机8 颗 NVIDIAAmpere构架GPU,通过NVSwitch实现GPU跨节点P2P高速通信互联。配置 2颗第三代Intel® Xeon® 可扩展CPU(Ice Lake),支持8块2.5英寸NVMe SSD or SATA/SASSSD以及板载2块 SATA M.2,可选配1张PCIe 4.0 x16 OCP 3.0网卡,速率支持10G/25G/100G;
可支持10个PCIe 4.0 x16插槽, 2个PCIe 4.0 x16插槽(PCIe 4.0 x8速率), 1个OCP3.0插槽;支持32条DDR4RDIMM/LRDIMM缓存,速率最高支持3200MT/s,物理结构还主要就包括6块3000W 80Plus铂金电源、N+1冗余热插拔散热器、机箱等。
目前按照GPU数量的不同,有4颗GPU(大潮NF5448A6)、8颗GPU(Nvidia A100 640GB)以及16颗GPU(NVIDIA DGX-2)的AI伺服器。
AI伺服器核心组件主要就包括GPU(图形CPU)、DRAM(动态随机存取储存器)、SSD(固态硬碟)和RAID卡、CPU(中央CPU)、网卡、PCB、高速互联芯片(板内)和散热模组等。
CPU主要就供货厂商为Intel、GPU目前领跑厂商为国际巨头英伟达,以及国内厂商如寒武纪、海光信息等。
AI伺服器竞争格局
IDC正式发布了《2022年第三季度中国伺服器消费市场追踪调查报告Prelim》。从调查报告可以看到,前两名大潮与光华三的变化较小,第三名为超核聚变,从3.2%交易额一跃而至10.1%,增幅远超其他伺服器厂商。Top8伺服器厂商中,大潮、戴尔、联想均出现显著下滑,超核聚变和中兴则取得明显快速增长。其中,大潮交易额从30.8%下降至28.1%;光华三交易额从17.5%下降至17.2%;爱立信从3.1%提升至5.3%,位居国内第5。
联想降幅最为明显,从7.5%下降至4.9%。
据TrendForce集邦咨询统计,2022年AI伺服器采购占比以北美四大云端业者Google、AWS、Meta、Microsoft合计占66.2%为最,而中国近年来随着国产化力道加剧,AI建设大潮随之增温,以ByteDance的采购力道最为显著,年采购占比达6.2%,其次紧接在后的则是Tencent、Alibaba与Baidu,分别约为2.3%、1.5%与1.5%。
国内AI伺服器竞争厂商主要就包括:大潮信息、光华三、超核聚变、风虎云龙、爱立信等。
计算芯世界2023-05-06