AI,太耗电了
????如果您希望可以时常见面,欢迎标星????收藏哦~
来源:内容由半导体行业观察(ID: i c bank)编译自tomshardware,谢谢。
如今,用于人工智能工作负载的最强大的新型数据中心 GPU 的功耗可高达 700 瓦。以 61% 的年利用率计算,每个 GPU 每年的耗电量约为 3,740,520 Wh 或 3.74 MWh,这加剧了人们对电力供应和环境影响的担忧,尤其是当我们将视线拉远,看看仅去年一年售出的 GPU 总数量时。
Nvidia 去年售出了 376 万个数据中心 GPU,占市场份额的 98%。再加上英特尔、AMD 和其他厂商剩余的 2%,到 2023 年,交付给数据服务器的 GPU 将超过 383.6 万个。
将这一数字乘以去年数据中心 GPU 的总交付量,一年的用电量将达到 14,348.63 千兆瓦时。这意味着去年售出的数据中心 GPU 的耗电量相当于 130 万个家庭一年的用电量。如果我们从州的层面来看,加利福尼亚州能源委员会的报告显示,2022 年该州的发电量为 203,257 千兆瓦时,这意味着数据中心 GPU 的耗电量约占该州年发电量的 7%。
不过,您应该记住,这些只是数据中心的 GPU。这里的数据不包括 CPU、冷却系统和数据中心正常运行所需的其他设备。例如,大多数 RTX 4090 建议使用至少 850 瓦的电源,有些甚至需要 1000 瓦甚至 1200 瓦。如果按照最低标准计算,去年建造的服务器和数据中心每年需要超过 25 千兆瓦时的电力。这些数字甚至不包括 2022 年及以前的数据中心,也不考虑今年即将上线的更多数据中心。
据行业分析师估计,到 2028 年,数据中心 GPU 市场将以每年 34.6% 的速度增长,这意味着在未来几年中,我们可能会看到更多的数据中心 GPU 涌现出来。此外,Nvidia 的下一代 AI GPU 预计将比目前 700 瓦的 H100 耗电更多。即使数据中心计算机在未来几年内保持其耗电量(不会),数据中心的电力需求也会随着市场的增长而成正比增长。
数据中心的空前崛起引发了人们对电力基础设施的担忧。事实上,美国政府已经在与科技公司就人工智能的电力需求进行谈判,特别是这些新的数据中心可能会给电网带来过大的压力。Meta 创始人马克-扎克伯格(Mark Zuckerberg)甚至表示,有限的电力将制约人工智能的发展,尤其是 Enerdata 公司指出,在过去十年中,全球发电量每年仅增长 2.5%。
尽管如此,科技公司对这一问题并非视而不见。微软作为一家传统的软件公司,甚至正在寻求为其数据中心投资小型模块化核反应堆。这一点尤为重要,因为它与 OpenAI 合作建造价值 1000 亿美元的人工智能超级计算机,这肯定需要大量电力。
在数据驱动的社会中,人工智能的崛起意味着我们需要大量电力来满足计算需求。此外,我们还不能忘记其他即将出现的技术,它们也需要大量电力,比如电动汽车。除非我们找到一种方法,开发出既能提供更多电力,同时又能消耗更少电力的芯片(和电机),否则我们很可能不得不增加更多的电力生产设施,并升级配套基础设施,以便在需要的地方提供电力。
参考链接:
https://www.tomshardware.com/desktops/servers/a-single-modern-ai-gpu-consumes-up-to-37-mwh-of-power-per-year-gpus-sold-last-year-alone-consume-more-power-than-13-million-households
END
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第3797期内容,欢迎关注。
推荐阅读
『半导体第一垂直媒体』
实时 专业 原创 深度
公众号ID:icbank
喜欢我们的内容就点 “在看” 分享给小伙伴哦