(相关资料图)
4月18日,据The Information报道,随着训练大语言模型的机器学习成本飙升,微软计划推出已秘密自研多年的5纳米AI芯片。
据报道,早在2019年,微软便开始秘密研发内部代号为雅典娜(Athena)的AI芯片, 目前这个团队人数已经超过300人 ,已经提供一小部分芯片给微软和OpenAI的员工使用,以测试在GPT-4 等最新大语言模型的表现。
雅典娜芯片拥有几代产品路线图, 初代基于5纳米工艺,最早在明年广泛应用于公司内部和OpenAI。
SemiAnalysis的分析师Dylan Patel表示,开发类似于雅典娜的芯片可能每年需要花费1亿美元左右, ChatGPT每天的运营成本约70万美元 ,大部分成本来源于昂贵的服务器, 如果雅典娜芯片与英伟达的产品拥有同等竞争力,每个芯片的成本将可以降低三分之一 。
一位直接了解微软雅典娜AI芯片项目的知情人士表示, 微软不认为自己的人工智能芯片可以全面取代英伟达的产品 ,但随着微软继续将基于AI的功能部署到Bing、Office 应用程序、GitHub 及其他产品或服务中, 自研的芯片项目有望大幅削减成本 。
对于ChatGPT每天70万美元的运营成本计算方法,今年2月9日,SemiAnalysis发布的具体报告显示,2022年谷歌在搜索业务的收入为1624.5亿美元,每次查询的平均收入为 1.61 美分,谷歌服务业务部门的营业利润率为 34.15%,则 算下来每次谷歌查询的成本为 1.06 美分 ,以OpenAI使用的1750亿个参数的GPT-3大语言模型作为计算,OpenAI每天的运营成本为 69.4444万美元,每天拥有1300万的活跃用户,每个用户响应15次,这样估算下来 ChatGPT每次查询成本为0.36美分 。
另外值得一提的是,4月18日,博通发布了一款用于连接AI超级计算机的Jericho3-AI以太网络交换器芯片,多将3.2万个GPU芯片连接在一起,对标英伟达用于超级计算机的Infiniband网络平台,本月,谷歌还宣布推出搭载4000个TPU芯片的最新AI超级计算机TPU v4,同等规模系统下,比使用英伟达A100 GPU芯片所创建的超级计算机快1.7倍,同时暗示对标英伟达最新的H100芯片已经在研发中。
关键词: