文章目录[+]
AI背后是什么?是算力
而算力背后又是什么?是能耗
图源:Getty Images
开年以来
从美国OpenAI公司推出的
视频生成工具Sora
到美国Anthropic公司发布的
Claude 3大模型系列
“网红”生成式AI持续受到多方关注
与此同时
随着算力和性能的不断提升
人工智能飞速发展的背后
能源消耗问题也日益凸显
成为业内关注的焦点
人工智能的能耗究竟有多大?
据美国《The New Yorker》杂志报道
ChatGPT每天要响应大约2亿个请求
在此过程中消耗超过50万度电力
≈美国家庭每天用电量的1.7万多倍
这个“全新等式”令不少人感到惊讶
《焦耳》杂志的一项研究表明
到2027年
全球新制造的服务器
与人工智能相关的电力消耗
可能会增加到
85.4-134.0太瓦时
(850-1340亿度电)
这个数字
与荷兰、阿根廷、瑞典等国家
年用电量相当
约占全球当前用电量的0.5%
该作者表示
有必要提醒人们
“AI也是能源密集型技术”
OpenAI 首席执行官 Sam Altman
在世界经济论坛上发言
图源:Getty Images
而就在今年1月
OpenAI首席执行官
山姆·奥特曼(Sam Altman)
也对人工智能行业能源消耗
表达了类似的担忧
他表示
未来的人工智能需要能源方面的突破
因为AI消耗的电力将远超过人们的预期
“不取得突破,就不可能达到这个目标”
他还补充道
“我们需要核聚变
更便宜的太阳能加储能
或者其他大规模的东西”
2月29日埃隆·马斯克
远程出席“博世互联世界2024”大会
图源:BOSCH
最新的“预警”来自于埃隆·马斯克
他在不久前公开指出
人工智能消耗的算力
似乎每6个月就会增加10倍
接下来短缺的将是电力
“明年人们将会看到
没有足够的电力来运行所有的AI芯片”
“科技大佬”的发声
是否预示了新的能源危机?
部分网友表示
尽管这一数据看起来惊人
但还是需要比较一下投入产出
“就目前来看
ChatGPT创造的价值远超它的能耗”
有从业者表示
短期内
在各种资源因素影响下
AI用电量增速可能会被抑制
但硬件和软件的能效提高
也无法抵消长期的电力需求增长
面对高能耗问题
需要加速技术创新
比如开发更高效的硬件和算法
以及采用更多的可再生能源
来降低总体的能源消耗
这也可能促使政策制定者
重新考虑能源政策和基础设施投资
确保有足够的能源供应
来支持AI等行业的发展
相信随着技术的进步和市场的发展
行业将会寻求解决方案
来平衡能源消耗和效率
以实现可持续发展
参考丨央视财经、环球时报、财联社、环球零碳、Nature、量子位
撰文:雷渺鑫 编辑:李飞 排版:李汶键 统筹:李政葳
来源: 世界互联网大会