ChatGPT带动的AI热潮让半导体市场小火了一把,但也确实烧钱。据分析师Dylan Patel透露,OpenAI每天为运行ChatGPT投入的成本可能高达70万美元,另一方面,用来训练ChatGPT的英伟达的H100在ebay上炒到4万美元,而微软也传出有意自研AI芯片、寻找更便宜的方案去替代英伟达的GPU,以此降低成本。
ChatGPT每日运营费达70万美元
据芯片行业研究公司SemiAnalysis首席分析师迪伦?帕特尔表示,由于ChatGPT运行在价格昂贵的计算基础设施之上,OpenAI每天为运行ChatGPT投入的成本可能高达70万美元。
帕特尔指出,ChatGPT需要庞大的算力,才能基于用户的输入信息做出反馈,包括撰写求职信、生成教学计划,以及帮助用户优化个人资料等。帕特尔称他的初步估计是基于OpenAI公司的GPT-3模型,而如今最新模型GPT-4已经推出,所以其运行成本可能会更高。
Patel和他的同事Afzal Ahmad称,虽然训练ChatGPT的大型语言模型可能要花费上亿美元,但当这些工具合理部署之后,其运营费可能远远超过了训练成本。

微软开发自主芯片尝试降低成本
过去几年,使用OpenAI语言模型的公司也一直在承担高昂的价格。创业公司Latitude开发了一款基于用户输入信息生成故事情节的人工智能地下城游戏。该公司首席执行官尼克·沃尔顿(Nick Walton)表示,运行该模型,以及相应的购买亚马逊AWS云服务器的费用2021年达到每月20万美元。因此,沃尔顿最终决定改用AI21 Labs支持的语言软件提供商。这帮助他将公司的人工智能成本降低了一半,至每月10万美元。
沃尔顿在接受采访时表示:“我们会开玩笑说,我们有人类员工和人工智能员工,在这两类员工身上花费的成本大致相同。我们每个月在人工智能上花掉数十万美元,而且我们也不是一家大型初创公司,所以这是一笔巨大的开支。”
近期有报道称,为了降低生成式人工智能模型的运行成本,微软正在开发一款代号为“雅典娜”的人工智能芯片。该项目于2019年启动。在此几年前,微软与OpenAI达成了10亿美元的投资协议,要求OpenAI仅在微软的Azure云服务器上运行其模型。

微软启动这一芯片项目的背后有两方面思考。知情人士透露,微软高管意识到,他们在自主芯片开发方面落后于谷歌和亚马逊。与此同时,微软正在寻找更便宜的方案去替代英伟达的GPU芯片。
目前,微软大约有300多名员工正在开发这款芯片。消息人士称,该芯片最早可能在明年发布,供微软和OpenAI内部使用。微软拒绝对此消息置评。
GPT算力军备赛打响,云大厂加大芯片布局
随着ChatGPT引发全球AI大模型竞赛,几乎全球云大厂都行动了。竞赛背后海量的算力需求爆发和成本压力不容忽视,这也成为云大厂抢滩大战中关注的一大焦点。
本次,微软突然被曝出AI芯片Athena已研发三年,既在意料之外,又在情理之中。当下通用人工智能发展尚属于早期,ChatGPT建立的算法和数据优势若要持续,微软必须在底层算力层面建立更强悍的优势。
GPT算力军备赛打响,各个云大厂都在加大芯片布局,比如亚马逊旗下AWS近期就推出了由自研芯片Trainium、Inferentia2提供支持的计算云产品。这也将使得在AI芯片市场独大的英伟达面临压力,其与云大厂的关系中的竞争成分也正在加强。
