马斯克透露,训练全新的大型模型Grok-3,他们动用了多达10万个英伟达的H100芯片
马斯克指出,开发人工智能对话系统离不开大量的数据集,而清理和准备大型语言模型的数据是一项艰巨的任务。同时,他也详细阐述了在训练OpenAI模型时所面临的若干挑战。
他提到,xAI 的 Grok-3 模型在训练过程中使用了多达 10 万片英伟达的 H100 芯片,并且预计在年末推出,他对此满怀信心,认为它将“极其独特”。
英伟达精心设计的H100芯片专为处理大规模语言模型(LLMs)的数据而生。这款AI芯片的零售价估计在3万至4万美元之间,折合人民币约21.9万至29.2万元。如果进行批量采购,有可能会享受到一定的折扣优惠。
经过简单的估算,我们可以得知,xAI 所拥有的十万块英伟达 H100 显卡总价相当于 30 至 40 亿美元,折合人民币约为 218.68 亿至 291.57 亿元。这让人猜测,xAI 可能使用了特斯拉今年计划向英伟达采购的价值相近的芯片来开展其训练工作。
相关阅读:
大家在看
AI安装教程
AI本地安装教程
微软AI大模型通识教程
微软AI大模型通识教程
AI大模型入门教程
AI大模型入门教程
Python入门教程
Python入门教程
Python进阶教程
Python进阶教程
Python小例子200道练习题
Python小例子200道练习题
Python练手项目
Python练手项目
Python从零在线练习题
Python从零到一60题