ChatGPT大火或导致全球 GPU 短缺,还带火了这款内存
作为当前最火的 AI 应用,人工智能聊天机器人 ChatGPT 已经成为各大科技巨头必争之地,陆续都会推出类似的产品,而这也带火了硬件行业,受益最大的是 GPU显卡。
有报道显示,为了创建和维持 ChatGPT 所需要的人工智能分析数据的庞大数据库,开发者使用了 10000 个英伟达 GPU 进行相关训练。而且与训练不同的是,实际支持应用时所需要的 GPU 会更多。
外媒在报道中提到,为了满足当前的服务器需求,OpenAI 已经使用了约 2.5 万个英伟达 GPU,而随着未来需求的增加,这一数字还将继续增长。
若将 ChatGPT 整合到搜索服务中,那使用的 GPU 将会是海量的。
外媒预计,将当前技术应用到每一次的 Google 搜索中,需要 512820 台 A100 HGX 服务器,将需要超过 410 万个 A100 GPU。因此,ChatGPT 的爆火可能会使全球再度面临 GPU 短缺的挑战,出现短缺的时间可能还会早于预期。
此外,英伟达 GPU 需求也使得三星和 SK 海力士的 HBM DRAM 吃到了流量,正在发愁内存跌价的韩国厂商天降惊喜,找到赚钱的地方了。
在AI算力中,除了GPU性能,内存也非常重要,NVIDIA的高端加速卡也上了HBM2/2e之类的内存,其带宽及延迟性能远高于GDDR内存,A100加速显卡上最高配备了80GB HBM2内存。
随着 ChatGPT 受宠,三星、SK 海力士两家内存厂商接到了越来越多的 HBM 订单,NVIDIA 已经要求 SK 海力士生产最新的 HBM3 内存。
其他供应商,如英特尔也致力于在其下一代产品中集成 HBM3,这意味着 SK 海力士可能无法跟上需求。因此,业内人士指出相比当前最好的 DDR 内存,HBM3 的价格已经涨了 5 倍。
目前 HBM 内存市场上,SK 海力士公司占据最大的优势,该公司早在 2013 年就跟 AMD 合作开发了 HBM 内存,整体市场份额在60-70%之间。
三星近年来也加大了HBM内存的投入,还跟AMD合作首发了HBM-PIM技术,将HBM内存与AI处理器集成在一起,大幅提高性能。
编辑:崔崔
-
黑客自称已窃取200万个OpenAI账户密码 尽管真实性较低但OpenAI已开始调查
在 BreachForums (转世版) 黑客论坛中,有使用俄语的黑客自称已窃取高达 200 万个 OpenAI 账户的访问凭证,这名黑客还按行业规矩向潜在买家提供包含电子邮件地址和密码的样本数据。不
-
ChatGPT Crawler漏洞:通过HTTP请求进行DDOS攻击
ChatGPT 的网络爬虫行为可通过一个已发现的漏洞加以利用:在特定的查询条件下,OpenAI 的机器人可能会无意中对任意网站执行 DDoS 攻击。网络安全研究员本杰明-弗莱施(Benjamin Fl
-
One API OpenAI 接口管理 & 分发系统
One API 是一个通过标准的 OpenAI API 格式访问所有的大模型,开箱即用。主要功能:支持多种大模型: OpenAI ChatGPT 系列模型(支持 Azure OpenAI API) A
关注公众号:拾黑(shiheibook)了解更多
赞助链接:
关注数据与安全,洞悉企业级服务市场:https://www.ijiandao.com/
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

随时掌握互联网精彩