Azure的A100租赁零售价相较此前的市场平均价均有不同程度上涨。在AI应用加速迭代等各方面因素作用下,
从需求层面来看,AI大模型正在加速“燃烧”算力,需求持续旺盛。据国信证券测算,以1750亿参数的ChatGPT大模型为例,按照一周日访客数量2500万、单字消耗350ms等标准计算,每天需要3.04万片A100 GPU同时计算,才可满足当前ChatGPT的访问量。
多模态大模型训练阶段在数据源、模型结构、计算操作方面更加复杂,这导致其需要更大量的训练数据,从而进一步增加算力消耗。据国泰君安测算,GPT-4对于算力的需求在同等训练时长下相比GPT-3增长445倍,GPT-4训练成本或达上亿美元。
推理成本则受到计算集群的规模、能力、使用效率、批次大小以及集群的管理策略等因素的影响。上述机构进一步指出,GPT-4V计算集群庞大,推理成本远超GPT-3。随着应用场景的丰富,并发需求的增长,推理端所需的算力将持续提升。
供应层面,人工智能领域的主流芯片A100、H100持续供不应求,且价格高昂。以H100为例,近期,H100在eBay平台的售价已经高达4.5万美元,且货源较上半年也显著减少。业内代理商亦透露,英伟达GPU交货周期也被拉长。
OpenAI开发者大会结束后不久,由于访问量远超预期,ChatGPT和API服务经历了将近2小时的故障,OpenAI的最大竞争对手Anthropic也遇到了服务器无法响应的问题。
OpenAI首席执行官Sam Altman在X平台上宣布,将暂时暂停新的ChatGPT Plus注册。“开发日后使用量的激增超出了我们的承受能力,我们希望确保每个人都有良好的体验。”他表示。
对此,国盛认为,云化、调优、调度是将纸面算力变为可用算力的先期步骤,云化使算力变成用户可以便捷调用的“数字能源”,调优则是从通信和模型层面压榨GPU利用率,实现算力降本增效的必经之路。调度是将全国乃至全球的算力资源统筹分配,实现成本优化、入网即有算力的核心环节。
具体来看,由于大模型训练时的主要壁垒依然是数据并行下的通信瓶颈和长期积累的AI大工程经验,这三个涉及显卡数据交换与流通的环节的竞争壁垒将不断提高,其发挥的价值也将持续显现——OpenAI单位token成本降低,或因OpenAI解决了此前算力利用率低、GPU平均故障时间较长的问题,算力调优从降本维度加速了AI飞轮的旋转。