在人工智能领域,特别是在生成式人工智能(如ChatGPT)的兴起之后,科技巨头们正加速在研发和应用领域的投入。这不仅推动了诸多领域的发展,特别是对于提供算力支持的芯片市场产生了积极影响,使得英伟达的H100、A100等芯片供不应求,从而显著提升了这些公司的营收和利润。
然而,这种研发与应用的热情背后也隐含着能源消耗的问题。据媒体报道,ChatGPT每天处理的请求量达到了惊人的2亿次,其日耗电量超过50万千瓦时,相当于数千个美国家庭的日用电量,或近50个家庭一年的用电总量。若将生成式人工智能技术广泛应用于现有热门应用中,电力需求将进一步增大。
例如,若谷歌将生成式人工智能集成到每次搜索中,估计每年的耗电量将高达约290亿千瓦时,这一数字几乎相当于肯尼亚或克罗地亚等国一年的电力消耗总量。据预测,到2027年,全球人工智能领域的电力需求可能在85至134太瓦时之间,即850亿至1340亿千瓦时,这将占全球年度耗电量的大约0.5%。
值得注意的是,尽管人工智能领域的能源消耗增长趋势显著,但由于科技巨头在电力消耗方面未公开具体数据,准确计算总耗电量颇具挑战性。银行的数据科学家基于英伟达公开的数据做出了上述估算,而英伟达作为全球人工智能领域算力芯片的主要供应商,占据市场约95%的份额。
总之,虽然人工智能的快速发展带来了众多机遇,但其对能源的高需求不容忽视。未来,随着人工智能技术的不断演进,其对电力的需求预计将持续增长,这将对能源供应和环境可持续性构成挑战。
请注意,本文内容主要基于原创、合作伙伴供稿和第三方自媒体作者投稿。所有信息仅供参考。我们将努力确保所提供的信息准确无误,但不对信息的准确性承担任何法律责任。如发现信息可能侵犯知识产权或存在不实之处,请及时联系我们提供相应的法律文件,包括但不限于身份证明、权属证明及详细侵权或不实情况说明。我们将依法尽快处理相关事宜,包括联系源头核实信息真实性,采取措施删除违规内容或断开相关链接。