编程学习网 > IT圈内 > 微软尝试降低ChatGPT运营成本
2023
10-26

微软尝试降低ChatGPT运营成本


半导体研究公司SemiAnalysis的首席分析师迪伦-帕特尔(Dylan Patel)告诉The Information,使用ChatGPT来写求职信、生成教案和重写约会资料,可能会让OpenAI每天花费高达700,000美元。这些都要归因于人工智能运行的技术框架价格十分昂贵。

ChatGPT需要大量的计算能力,以根据用户的指示计算给予反应。在与Insider的电话中,Patel说大部分成本都是围绕着他们所需的昂贵的服务器。现在的运营成本可能更高,因为他的之前的估计都是基于OpenAI的GPT-3模型。他告诉Insider,GPT-4--该公司的最新模型--运行成本会更高。
Patel和SemiAnalysis的另一位分析师Afzal Ahmad告诉福布斯,虽然训练ChatGPT的大型语言模型可能需要花费数千万美元,但在运营费用 "远远超过训练成本"。使用OpenAI语言模型的公司多年来一直在支付高昂的价格。据CNBC报道,Latitude是一家使用提示语生成故事情节的人工智能游戏初创公司,该公司首席执行官尼克-沃尔顿说,公司每月花费20万美元以运行该模型并且支付络AWS服务器,这样才能够让人工智能在2021年回答数百万用户的查询。
沃尔顿说由于高昂的成本,他决定改用AI21实验室支持的语言软件供应商,他说这将使得他公司的人工智能成本减少一半,大约是每月10万美元。"我们开玩笑说,我们有人类员工和人工智能员工,我们在他们每个人身上的花费差不多,"沃尔顿告诉CNBC,"我们每月在人工智能上花费数十万美元,我们不是一家大的创业公司,所以这是一个非常庞大的成本。"
据The Information首次报道,为了降低运行生成性人工智能模型的成本,微软正在开发一种它称之为Athena的人工智能芯片。该项目于2019年开始,是在微软与OpenAI达成10亿美元的交易后的几年,该交易要求OpenAI只能在微软的Azure云服务器上运行其模型。
据The Information报道,该芯片背后的想法有两个方面。一位知情人士告诉The Information,微软的高管们意识到他们在建立自己的内部芯片的方面落后于谷歌和亚马逊。同时,据报道,微软的人工智能模型是在被称为图形处理单元的英伟达芯片上运行的,而它正在寻找更便宜的替代品并决定建造一种成本更低的芯片。

报道称,据说现在有300多名微软员工正在研究该芯片。两位知情人士透露,该芯片可能最早在明年发布,供微软和OpenAI内部使用。

以上就是微软尝试降低ChatGPT运营成本”的详细内容,想要了解更多IT圈内资讯欢迎持续关注编程学习网。

扫码二维码 获取免费视频学习资料

Python编程学习

查 看2022高级编程视频教程免费获取