chatgpt消耗的能量比预期的要少得多,这就是这项新研究所说的

最近的分析问题收到了有关CHATGPT能源消耗的想法。与所相信的相反,Openai的助手将更加经济。一个关键点,而AI的生态影响目前引起了激动人心的辩论。

资料来源:123rf

L'人工智能被其性能所吸引,但。chatgpt,数以百万计的人使用,经常被称为能量鸿沟。到目前为止,广泛的估计说,一个请求消耗的能量是Google研究的十倍。但是这个想法可以超越。一个新研究实际消费这个人的。

根据Epoch ai,专门从事人工智能的研究组织将是很好的比预期的更经济。通过分析GPT-4O模型的性能,该研究认为平均请求消耗0,3 Wattheure, 任何一个少十倍3经常前进。这种差异是由Openai取得的进展来解释的,特别要感谢最近的跳蚤更有效的体系结构。进行研究的组织强调,基于过时的技术,旧估计来自过时的研究。

如果该研究强调取得的进展,则警告说,能源需求的未来增加。这新型号推理,很多更多美食。与GPT-4O几乎立即做出反应不同,这些,需要更多的计算。此外,高级功能,例如产生图像或分析长文件仍然增加消费。 Openai及其合作伙伴已经计划在新的数据中心投资数十亿美元,以满足这一不断增长的需求。

该增长警报的范围。 RAND研究估计,在2027年地平线上,专门用于AI的数据中心可以消耗2022年加利福尼亚州的所有电气能力,即68 GW。为了应对这些挑战,Openai发展更经济的模型,喜欢。专家还建议用户采用良好的做法,例如偏爱光模型为他们当前需求。尽管做出了这些努力,但世界使用AI的大量增加可能会超越效率的提高。