编程学习网 > IT圈内 > Nvidia人工智能芯片崛起!
2023
06-06

Nvidia人工智能芯片崛起!


目前,Nvidia销售人工智能芯片的业务正在蓬勃发展,但该公司面临一个迫在眉睫的问题。它最大的客户--包括微软、谷歌和亚马逊在内的云计算供应商正在制造自己的人工智能芯片,以减少对英伟达的依赖。

Nvidia正在帮助两家新晋的云计算供应商。Nvidia已经让这些初创公司获得了其最新的图形处理单元,这些初创公司正在向AI开发者提供这些芯片。Nvidia表示,它给初创公司CoreWeave和Lambda Labs提供了被称为H100的GPU,其在人工智能软件训练方面的速度比上一代GPU快9倍。
各公司一直在竞相利用11月OpenAI推出的ChatGPT所引发的人工智能热潮,这引起了对GPU的冲击,其中大部分是Nvidia生产的。The Information此前报道,对Nvidia最广泛使用的GPU(即A100)的需求如此之高,以至于AWS、微软、谷歌和甲骨文在最近几个月限制了其云客户租用芯片的能力。公司更难租用Nvidia的最新芯片H100,该芯片去年推出,性能优于前者。
这就给了Nvidia一个机会,让它发挥优势,决定谁能使用其芯片。通过将CoreWeave和Lambda纳入H100的早期推广,Nvidia基本上限制了AWS、谷歌和微软可以购买的芯片数量,并确保其终端用户有选择。
这一策略已经产生了影响。在3月份的一份新闻稿中,Nvidia称Stability AI是亚马逊网络服务上H100的 "早期准入客户",这意味着当AWS提供芯片时,Stability将使用AWS为其软件提供动力,Stability的应用程序是从文本描述中制作图像。然而,稳定性AI一直在向CoreWeave租用GPU。
周四,CNBC报道称,微软已经同意在几年内支付可能达数十亿美元的费用,从CoreWeave获取带有Nvidia GPU的服务器。这是一个迹象,表明微软还没有能够从Nvidia本身购买足够的供应。
目前还不清楚稳定性AI是否已经能够从AWS获得这些先进的芯片。11月,稳定性AI选择了AWS作为其 "首选云供应商"。不管怎么说,CoreWeave已经用自己供应的Nvidia GPU来满足稳定公司的一些计算需求。
主要的云计算供应商正争先恐后地跟上。H100芯片在微软Azure、谷歌云平台和甲骨文的 "私人预览版 "中可用,这意味着它们没有被客户广泛使用。AWS在3月份说,其H100芯片的预览将在 "未来几周 "开始。一位知情人士说,AWS最近收到了H100,并向一些客户提供了它们的测试。
谷歌的一位发言人证实,该公司已经从Nvidia收到了H100,但拒绝详细说明谷歌是如何使用它们的,或者是否向客户提供它们。据直接了解这一情况的人说,微软的工程师正在测试H100。主要的云供应商没有向他们的客户更广泛地提供H100可能还有其他原因。他们可能将其供应的H100s用于内部用途。或者他们仍然处于将其系统转移到H100架构的耗时过程中。
随着主要的云计算供应商竞相将更多的H100上线,新秀们正在获得客户。在整个云计算行业,Nvidia决定将H100分配给CoreWeave和Lambda等初创公司,这被认为是一个信号,即它不希望较大的云供应商控制对其GPU的访问。

AWS、微软和谷歌在过去几年中花费了数十亿美元来开发自己的芯片,为其云计算业务以及内部项目提供动力。这些努力已经成为他们降低成本和实现差异化目标的一个关键部分。包括AWS和谷歌云在内的主要云计算供应商,正在敦促客户使用他们的内部芯片,而不是Nvidia的GPU。据The Information此前报道,AWS已经建议一些公司在无法获得Nvidia GPU时,租用由其定制芯片Trainium驱动的服务器。谷歌云也向客户出租了其定制芯片,即张量处理单元。

以上就是Nvidia人工智能芯片崛起!”的详细内容,想要了解更多IT圈内资讯欢迎持续关注编程学习网。

扫码二维码 获取免费视频学习资料

Python编程学习

查 看2022高级编程视频教程免费获取