1.jpg (40.58 KB, 下载次数: 0)
下载附件 保存到相册
2024-7-17 03:58 上传
2.jpg (45.05 KB, 下载次数: 0)
3.jpg (21.56 KB, 下载次数: 0)
Grok 2目前正在进行微调、错误修复,预计下个月准备就绪发布。 与此同时,xAI也在自行建设10万块H100搭建的集群,目标是实现最快的训练完成时间,计划本月晚些时候开始训模型。 这将成为世界上最强的训练集群,优势不言而喻。 我们决定自行建设10万块H100芯片系统,以及下一代主要系统的原因是,我们的核心竞争力取决于能否比其他AI公司更快。这是赶上竞争对手的唯一途径。 甲骨文是一家优秀的公司,还有另一家公司(暗指微软)在参与OpenAI的GB200集群项目中也表现出很大潜力。但是,当我们的命运取决于成为速度最快的公司时,我们必须亲自掌控,而不能只做一个旁观者。
4.jpg (69.61 KB, 下载次数: 0)
5.jpg (49.1 KB, 下载次数: 0)
6.jpg (25.6 KB, 下载次数: 0)
7.jpg (82.36 KB, 下载次数: 0)
8.jpg (57.02 KB, 下载次数: 0)
9.jpg (68.05 KB, 下载次数: 0)
10.jpg (48.25 KB, 下载次数: 0)
11.jpg (50.87 KB, 下载次数: 0)
12.jpg (25.95 KB, 下载次数: 0)
GPT-4是在90天内用25,000个A100(H100的前代产品)训练出来的。 所以理论上你可以用100,000个GB200在不到2天内训练出GPT-4,尽管这是在理想条件下,可能并不完全现实。 但这确实让人不禁想象,他们用这个超级计算机集群在90天内能训练出什么样的AI模型,而这个集群预计将在2025年第二季度投入运行。
13.jpg (16.43 KB, 下载次数: 0)
使用道具 举报
本版积分规则 发表回复 回帖并转播 回帖后跳转到最后一页
0关注
2粉丝
57帖子
扫一扫用手机访问