-
_NEWSDATE: 2023-11-04 | News by: 差评 | 有0人参与评论 | _FONTSIZE: _FONT_SMALL _FONT_MEDIUM _FONT_LARGE
之前世超写过一篇 AI 有多耗水的稿子,说是谷歌数据中心去年一年就花掉了一个半西湖的水量。
除了耗水,可能很多人还忽略了一点,那就是 AI 在耗电这块也是一绝。
前两天阿里刚结束的云栖大会上,中国工程院院士、阿里云创始人王坚就打了这么一个比方——
过去一百年里,全球电动机消耗掉的电量就占到了总发电量的一半,而现在的大模型就相当于新时代的电机。
而这个新时代的 “ 电机 ” ,也是相当耗电。
现在,为了喂饱它这只电老虎,有些公司甚至准备搬出了 “ 核动力 ” 。
其实在业内,关于 AI 和能源之间的话题也是没有断过。
Huggingface 的科学家就专门测试过各个大模型的耗电量和碳排放,世超翻了翻这篇论文,也是直观地感受到了大模型耗电的疯狂。
先是 Huggingface 自家的 BLOOM 大模型,有 1760 亿参数,光是前期训练它,就得花掉 43.3 万度电,我换算了下,相当于国内 117 个家庭一年用掉的电量。
和它参数量相当的 GPT-3 ,耗电量就更不受控制,同样是前期训练,就要用掉 128.7 万度电,足足是前者的三倍。
甚至有人做过这样一个类比, OpenAI 每训练一次,就相当于 3000 辆特斯拉同时跑 32 公里。
这还只是 AI 前期训练用的电,在后期使用过程中累积的耗电量才是大头。
一般来说,训练就是不断调整参数、重复训练,最后得到一个使用体验最好的模型,整个过程是有限度的。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见