ChatGPT遭“卡脖子”,传OpenAI计划自研AI芯片挑战英伟达
文章转载来源:AI之势
本文首发钛媒体App,作者:林志佳
10月6日消息,据报道,ChatGPT背后的美国 AI 公司OpenAI 计划自研 AI 芯片,从去年开始进行内部讨论,甚至已经开始评估 AI 芯片公司的潜在收购目标,以解决其所依赖的 AI 芯片短缺以及成本高昂问题。
报道指,OpenAI团队认为 AI 大模型算力有三种采购选择,包括构建自己的 AI 芯片,与英伟达等芯片公司更紧密的合作,以及计划在英伟达之外实现多元化芯片供应——最终目标要超越英伟达(beyond Nvidia)。
早在2022年,OpenAI CEO奥特曼(Sam Altman)就公开抱怨英伟达GPU芯片稀缺,称公司受到GPU的严重限制。
由于英伟达主导了全球95%的Al训练领域市场,随着英伟达GPU(图形处理器)显卡稀缺,加上 AI 算力成本持续攀升,即便强如OpenAI也在寻找新方案,从而避免长期被“卡脖子”。

OpenAI CEO 奥特曼(Sam Altman)
算力成本猛增,OpenAI寻求定制 AI 芯片
2023年至今,以ChatGPT为代表 AI 大模型“热潮”席卷全球,大模型正推动 AI 向更通用方向发展。而算力的稀缺和昂贵已成为制约 AI 发展的核心因素。
目前,英伟达占据全球数据中心 AI 加速市场82%的份额,且以95%的市场占有率垄断了全球 Al 训练领域的市场,成为这轮 AI 混战中最大赢家。作为公司创始人、CEO,黄仁勋赚的盆满钵满,公司市值超越1万亿美元,他的身价也高达399亿美元。
同时,算力需求的激增,也导致英伟达GPU“一卡难求”。有多少英伟达A100显卡,已经成为衡量一个公司算力的标准。
据统计,OpenAI使用了1万-3万颗英伟达GPU来训练GPT-3.5模型。集邦咨询报告显示,如果以英伟达 A100 显卡的处理能力计算,运行ChatGPT将可能需要使用到3万块英伟达GPU显卡。
价格方面,目前国内可以买到的H800价格已经高达20万/张,而A100/A800价格已涨至15万、10万/张左右。以2000P算力需求为例,H800 GPU单卡算力2P,需要1000张,预测用卡成本为2亿元;A800单卡算力约为0.625P,需要数量为3200张,预计用卡成本就高达3.2亿元。
- 星际资讯
免责声明:投资有风险,入市须谨慎。本资讯不作为投资建议。