“我们构建了一个可以在超大规模范围内运行并且可靠的系统架构。 这就是ChatGPT成为可能的原因,”微软Azure人工智能基础设施总经理尼迪查普尔(Nidhi Chappell)表示,“它是从中得出的一个模型,未来还会有很多很多其他的模型。”
目前,新必应搜索仍处于预览阶段。微软正在从等待名单中逐渐增加更多用户。格思里的团队每天与大约24员工举行会议,后者被称之为“后勤维修人员”,这一称呼原指一群在比赛中调整赛车的机械师。该小组的工作是弄明白如何让更强的计算能力快速上线,以及解决突然出现的问题
当时,OpenAI正试图训练一套规模越来越大的人工智能程序,也就是“模型”,后者正在吸收越来越大的数据量,学习越来越多的参数。这些参数是人工智能系统通过训练和再训练得出的变量。这意味着,OpenAI需要在很长一段时间内使用强大的云计算服务。
但这些成千上万个处理器在地理上分散在公司的60多个数据中心区域。以更快地共享数据。追加100亿美元投资的一部分,微软周一在一篇博客文章中表示,一旦模型投入使用,就像微软组装的人工智能超级计算机一样。
凤凰网科技讯 北京时间3月14日消息,人工智能聊天机器人ChatGPT一经推出便火爆全球,但外界可能不知道,ChatGPT之所以能够如此智能,背后依托的是微软公司为它打造的一台昂贵的超级计算机。
为了克服这一挑战,微软不得不想办法将数万颗英伟达A100图形芯片(训练人工智能模型的主力)组合在一起,并改变服务器在机架上的位置以防止断电。微软负责云计算和人工智能的执行副总裁斯科特格思里(Scott Guthrie)不愿透露该项目的具体成本,但表示“可能不止”几亿美元。
2019年,当微软向ChatGPT开发商OpenAI投资10亿美元时,它同意为这家人工智能研究创业公司打造一台庞大的尖端超级计算机。唯一的问题是:微软没有OpenAI需要的那样的东西,也无法完全确定它能在Azure云服务中构建这么大的东西而不会破坏它。
这项技术帮助OpenAI发布了ChatGPT,后者在去年11月发布几天后就吸引了100多万用户,现在正被纳入其他公司的商业模式,从亿万富翁对冲基金创始人肯格里芬(Ken Griffin)运营的公司,到外卖公司Instacart。随着ChatGPT等生成式人工智能工具越来越受到企业和消费者的兴趣,微软、亚马逊公司和谷歌等云服务提供商将面临更大的压力,需要确保他们的数据中心能够提供所需的巨大计算能力。
“我们不想把它打造成定制产品,它一开始是一个定制产品,但我们总是想办法把它打造成通用型产品,这样任何想训练大型语言模型的人都可以利用同样的改进,”格思里在一次采访中表示,“这真的能够帮助我们成为使用更广泛的人工智能云。”
回答用户提出的所有查询——称之为推理——需要稍微不同的设置。现在该公司正在为人工智能工作负载添加最新的英伟达图形芯片H100,包括上个月推出的新必应搜索机器人。训练一个庞大的人工智能模型需要在一个地方拥有大量相互连接的图形处理单元,作为微软与OpenAI扩大合作协议,该软件巨头已经在研究下一代人工智能超级计算机。微软使用它为OpenAI构建的同一套资源来训练和运行自己的大型人工智能模型,以及最新版本的英伟达Infiniband网络技术,现在,微软还部署了用于推理的图形芯片,微软还向其他客户销售该系统。