据富国银行统计,目前,英伟达在数据中心AI市场拥有98%的市场份额。
新一轮人工智能(AI)热潮引发大模型算力需求大增,使得英伟达AI芯片供不应求,加之算力成本不断攀升,让AI巨头们或将选择“围剿”英伟达。
北京时间2月2日,科技巨头Meta platforms对外证实,该公司计划今年在其数据中心部署最新的自研定制芯片,并将与其他GPU芯片协调工作,旨在支持其AI大模型发展。
研究机构SEMianalysis创始人Dylan Patel表示,考虑到Meta的运营规模,一旦大规模成功部署自研芯片,有望将每年节省数亿美元能源成本,以及数十亿美元芯片采购成本。
更早之前,OpenAI持续推进“造芯”计划。公司CEO萨姆·奥尔特曼(SaM AltMan)日前到访韩国,与芯片巨头三星、SK海力士探讨合作。据报道,双方会议讨论的主要话题之一是高带宽存储(HBM)芯片,有消息称,若合作达成三星和SK海力士可能会为OpenAI定制开发以及生产存储芯片。
不止是Meta和OpenAI,据The information统计,截至目前,全球有超过18家用于AI大模型训练和推理的芯片设计初创公司,融资总额已超过60亿美元,企业整体估值共计超过250亿美元。
这些公司背后的投资方包括红杉资本、OpenAI、五源资本、字节跳动等。如果加上微软、英特尔、AMD等科技巨头和芯片龙头的“造芯”行动,对标英伟达的AI芯片企业数量最终就将超过20家。
如今,即使“杀不死”市值达1.63万亿美元的GPU(图形处理器)芯片龙头英伟达,全球也要有数十家AI公司全力“围剿”它。
不仅加速造AGI,奥尔特曼还要投资百亿下场“造芯”
目前在大模型领域,AI算力主要受限于两个方面:AI模型训练需求暴增,以及算力成本越来越高。
首先是需求增长。
据OpenAI开发平台服务状态显示,1月29日,ChatGPT平台的应用编程接口(API)出现断链,时长近20分钟,并且导致ChatGPT回答的错误率飙升。OpenAI表示,这主要是由于应用访问量激增,进而导致服务器“宕机”。
有消息称,目前ChatGPT平台主要使用英伟达A100和H100 GPU卡,训练一次大约需要2.5万块A100芯片。如果训练GPT-5,则还需要5万张H100。市场分析认为,随着GPT模型的不断迭代升级,未来GPT-5或将出现无“芯”可用的情况。
除了需求之外,算力成本也是AI芯片采购的核心要素之一。
公开数据显示,英伟达H100的价格已经飙升至2.5万-3万美元,这意味着ChatGPT单次查询的成本将提高至约0.04美元。如果要把ChatGPT能力与谷歌搜索对抗的话,不仅约481亿美元的AI芯片投入,而且每年还需要约160亿美元的芯片才能维持运作。
如今,英伟达已经成为了AI大模型训练当中必不可少的关键合作方。
据富国银行统计显示,目前,英伟达在数据中心AI市场拥有98%的市场份额,而AMD公司的市场份额仅有1.2%,英特尔则只有不到1%。
据CounteRpoint ReSeaRch,2023年,英伟达的营收将飙升至303亿美元,比2022年的163亿美元增长86%,跃升为2023年全球第三大半导体厂商。富国银行则预计,英伟达2024年将会在数据中心市场获得高达457亿美元的营收,或创下历史新高。
富国银行在报告中提到,尽管AMD在2023年的AI芯片营收仅为4.61亿美元,但是2024年将有望增长到21亿美元,届时市场份额将攀升至4.2%,英特尔也可能拿到将近2%的市场份额,而这将导致英伟达份额下降至94%。
对于OpenAI而言,作为大模型厂商,成本和满足需求是两个核心要素,而这两点却被“卡脖子”,受制于英伟达,因此,我们就不难理解奥尔特曼非得“自己造芯片”的原因——更安全和更长期可控的成本,减少对英伟达的依赖。
奥尔特曼曾多次“抱怨”AI芯片短缺问题,称目前英伟达的芯片产能已不足以满足未来的需求。
去年10月的WSJ Live活动上,奥尔特曼首次回应传闻称:不排除自研芯片这一选项。
“对于是否采用定制硬件(芯片),我们还在评估中。我们正努力确定如何扩大规模以满足世界的需求。虽然有可能不会研发芯片,但我们正在与做出卓越成果的伙伴保持良好合作。”奥尔特曼表示。
“围剿”英伟达,新老守卫者能否脱颖而出?
除了OpenAI之外,此次“围剿”英伟达的队伍主要包括三类:
一是英特尔、AMD这类芯片巨头,与英伟达“亦敌亦友”很久的时间,对于GPU技术也有非常多的了解,如今希望“挑战”英伟达;
二是Meta、亚马逊、微软这类互联网和云服务厂商,他们对于云端大模型技术很了解,希望能借此降低成本且减少对英伟达的依赖;
三是近五年内成立的芯片设计初创企业,如TensTorRent、CeRebRas、GRaphcoRe、Etched、ExtRopic和MatX等公司,因此其借助新一轮AI浪潮,或将推动其产品销售迅速增长。
不过,The information并不看好这么多AI芯片公司未来都持续存在。
该报道指出,上一轮2015年崛起的多个与AI、自动驾驶芯片初创公司,最终却随着大公司入局和大规模并且而倒闭消失。
那么,企业如何构建AI芯片技术、产品和商业化壁垒,是这场“围剿”英伟达之战的重要因素。
黄仁勋近期公开表示,华为、英特尔以及美国政府的出口管制,已经对英伟达在AI芯片市场的主导地位构成了严峻挑战。
2月1日,有消息传出,英伟达针对美国最新出口管制新规而研发的三款中国“特供版”芯片HGX H20,将于2024年第一季度开始小批量预定和交付,预计二季度开始大批量交付。据悉,H20芯片性能还不到H100的20%,而整体价格H20定价为每张卡1.2万美元至1.5万美元,最终销售价格约为11万元人民币(约合15320美元),与华为Ascend 910B定价基本持平。
另据经销商公开信息,配置8颗AI芯片的英伟达H20服务器售价为140万元。相比之下,采用8颗H800芯片服务器去年售价高达200万元左右。
对于英伟达将要发布的特定AI芯片新品,阿里巴巴、腾讯、新华三等公司早在2023年11月就开启测试。但多个消息显示,这些企业对于今年向英伟达订购的芯片数量或将远远少于此前的计划。
英伟达在中国销售高端显卡变得越来越难,而后面还有更多厂商进行“追赶”,比如OpenAI“造芯”。因此,随着AI芯片市场竞争加剧,新老守卫者当中,谁会从这场AI炒作浪潮中脱颖而出成为赢家,未来这一重要市场如何变化,这都将值得期待。
“很多人认为算力会迅速下降,商业模式会随着算力下降而成立,但我们判断,未来算力成本不会下降,很长时间算力成本仍将持续位于高位。”小冰公司CEO李笛近日对钛媒体app表示。