据美国商业内幕网站3月10日报道,《纽约客》杂志近日报道称,开放人工智能研究中心(OpenAI)的热门聊天机器人ChatGPT一天可能耗电50万千瓦时,来响应约2亿条请求。
该杂志报道说,美国家庭平均每天用电约29千瓦时。把ChatGPT每天的用电量除以家庭平均用电量可以发现,ChatGPT每天用电量是家庭用电量的1.7万多倍。
这非常多。如果生成式人工智能(AI)进一步被采用,它可能会消耗更多电力。
例如,根据荷兰国家银行数据科学家亚历克斯·德弗里斯发表在可持续能源期刊《焦耳》上的一篇论文中的数据,如果谷歌公司将生成式AI技术整合到每次搜索中,它每年将耗电约290亿千瓦时。
据《纽约客》报道,这超过了肯尼亚、危地马拉、克罗地亚等国家一年的用电量。
德弗里斯对商业内幕网站说:“AI非常耗能。这些AI服务器每一个的耗电量已经相当于十几个英国家庭用电量的总和。所以这些数字增长得很快。”
尽管如此,很难估算蓬勃发展的AI行业耗电多少。
据“临界点”网站报道,大型AI模型的运行方式存在相当大的变数,推动AI热潮的大型科技公司没有完全公开它们的能耗情况。
不过,德弗里斯在他的论文中,根据英伟达公司公布的数据作出的粗略估算。
据消费者新闻与商业频道报道的新街研究公司数据显示,这家芯片制造商占据图形处理器市场大约95%的份额。
德弗里斯在论文中估计,到2027年,整个AI行业每年将耗电85至134太瓦时(1太瓦时等于10亿千瓦时)。
德弗里斯对“临界点”网站说:“到2027年,AI用电量可能占全球用电量的0.5%。我认为这是一个相当大的数字。”
如此一来,世界上用电量最高的一些企业就相形见绌了。商业内幕网站根据消费者能源解决方案公司的一份报告进行的计算显示,三星公司的用电量接近23太瓦时,谷歌等科技巨头的用电量略高于12太瓦时,微软运行数据中心、网络和用户设备的用电量略高于10太瓦时。