chatgpt持续火爆导致芯片短缺:没有足够的计算能力来处理chatgpt的计算需求,这已经使openai的服务器过载。上一次大规模芯片短缺还是因为为了虚拟货币疯狂挖矿导致的。不过随着对生成式人工智能需求不断增加,这一次算力紧张的情况可能会持续相当一段时间。
微软希望通过一种名为nd h100 v5的新虚拟机产品来填补这一空白,其中包括大批英伟达(nvidia)代号为hopper的最新h100 gpu,,用于生成式人工智能应用。
其思路是为研究生成式人工智能的公司提供更高的计算速度,这些公司能够更深入地挖掘数据,建立关系、推理并预测答案。生成式人工智能尚处于早期阶段,但chatgpt等应用程序大受欢迎的现象已经证明该技术的巨大潜力。
但这项技术也需要巨大的计算能力,微软正在将其引入azure云服务。
虚拟机产品可以根据生成式人工智能应用程序的大小进行调整,并可扩展到数千个h100 gpu,gpu之间通过芯片制造商的quantum-2 infiniband技术互连。
azure上配备h100虚拟机的定价并没有立即公布。虚拟机的价格因配置而异,一台具有96个cpu核心、900gb存储和8个a100 gpu的满载a100虚拟机每月的成本接近20000美元。
去年chatgpt刚推出时,英伟达gpu面临严峻考验。其计算由openai超级计算机承担,该计算机由nvidia a100 gpu构建。
但服务器很快被对chatgpt疯狂增长的需求淹没了,用户抱怨服务器无法及时响应和处理查询任务。
h100可以缩小生成式人工智能所需的速度差距,生成式人工智能已经被用于医疗保健、机器人和其他行业。各开发公司也在寻求填补最后一公里的空白,并部署一个界面,使人工智能简单可用,就像chatgpt一样。
英伟达和微软已经在用h100制造一台人工智能超级计算机。gpu的设计使其能够最好地与cuda编码的应用程序配合使用(cuda是英伟达的并行编程框架)。产品还包括triton推理服务器,它将有助于在其gpu环境中部署人工智能模型gpt-3。
微软开始在其产品中全面嵌入人工智能:在bing搜索引擎中实现了gpt-3.5的定制版本,这是chatgpt背后的大型语言模型。微软正在对bing ai采取devops(开发运营)风格的迭代方法,在这种方法中,应用程序通过了解用户使用模型时的信息能够快速更新。microsoft 365 copilot则是嵌入了人工智能的原office套件。word、ppt和excel这些我们熟悉的软件将以全新能力改变传统工作方法。而这一切的背后,都离不开算力的支持。
新的azure虚拟机基本配置可以通过英伟达专有的nvlink 4.0互连将八个h100 tensor core gpu互连。该配置可以通过quantum-2互连扩展到更多的gpu。服务器具有intel的第4代xeon(sapphire rapids)可扩展处理器,通过pcie gen5与gpu进行数据传输。
以上就是人工智能热潮导致算力紧张,微软推新服务器租赁计划的详细内容。