<font id="9ao2z"><s id="9ao2z"></s></font><legend id="9ao2z"><source id="9ao2z"><dl id="9ao2z"></dl></source></legend>

      <noscript id="9ao2z"><option id="9ao2z"></option></noscript>

      1. <progress id="9ao2z"><font id="9ao2z"></font></progress><progress id="9ao2z"></progress><font id="9ao2z"><s id="9ao2z"><dl id="9ao2z"></dl></s></font>
        <input id="9ao2z"><s id="9ao2z"></s></input>

            當前位置: 首頁 > 能源互聯網 > 產經信息

            人工智能應用井噴 高耗能隱憂待解

            經濟參考報發布時間:2024-05-10 11:37:01

              隨著人工智能及其應用在全球各國的不斷推開,能源消耗問題也日益凸顯。面對可能激增的能耗需求,大型科技公司紛紛尋求解決之策。國際能源署認為,強化法規和技術改進,包括效率方面的提升,對于減緩數據中心能源消耗的激增至關重要。

              行業躍進帶來能耗翻番

              富國銀行最近發布的分析報告顯示,在經歷10年的電力增長平臺期后,預計到2030年美國的電力需求將增長20%。僅人工智能數據中心就有望在美國增加約323太瓦時(1太瓦時=10億千瓦時)的電力需求。而紐約市目前每年的用電量為48太瓦時。

              波士頓咨詢集團預計,到2030年底,美國數據中心的用電量將是2022年的三倍,而這一增幅主要來自AI模型訓練和更高頻的AI查詢。

              科技媒體Digital Information World的報告顯示,數據中心為訓練AI模型產生的能耗是常規云工作的三倍,預計到2030年,美國數據中心的電力需求將以每年約10%的速度增長。

              國際能源署稱,到2022年,美國2700個數據中心消耗的電力占該國總電力的4%以上,到2026年,這一比例會達到6%。高盛預計,到2030年,數據中心耗電將占美國總用電量的8%。

              《日本經濟新聞》近日報道稱,隨著數據中心的快速增長,其對電力的需求不斷增加。不僅日本,韓國和東南亞的數據中心市場也在不斷增長。

              咨詢機構IDC日本預測,今年日本數據中心運營商的總投資額可能超過5000億日元,比去年增加50%,且如此大規模的投資水平有望一直保持到2027年。日本電力中央研究所的預測指出,日本數據中心的用電量到2040年將提升至105太瓦時,相當于2021年的5倍,這一數字到2050年還將進一步上升至211太瓦時。

              斯坦福人工智能研究在《2023年AI指數報告》中測算,AI大語言模型GPT-3一次訓練的耗電量就有1287兆瓦時,大概相當于3000輛特斯拉電動汽車共同開跑、每輛車跑20萬英里所耗電量的總和。報告同時提出,AI大語言模型GPT-3一次訓練,相當于排放了552噸二氧化碳。

              美國《紐約時報》的報道顯示,ChatGPT每天要響應大約2億個請求,這一過程消耗超過50萬度電。

              國際能源署(IEA)在1月發布的報告中估計,2026年全球數據中心、人工智能和加密貨幣行業的電力消耗可能會翻倍,大大高于未來三年全球電力需求年均增長3.4%的增速。數據中心是許多地區電力需求增長的重要驅動力,2026年,數據中心的總用電量可能超過1000太瓦時。

              科技企業面臨挑戰

              發展人工智能帶來的電力需求及碳排放激增,無疑給大型科技公司帶來了挑戰。

              以谷歌為例,其用于人工智能訓練的能量消耗占總用電量的10%至15%。投資研究機構新街研究估計,僅在AI方面,谷歌就需要大約40萬臺服務器,每天消耗62.4吉瓦時(1吉瓦時=1000千瓦時)、每年消耗22.8太瓦時的能源,相當于美國一個州首府所有家庭一年的用電量。

              隨著人工智能的持續發展,應用越來越普及,使用人數也不斷增加,能源消耗將呈現爆炸式增長。

              特斯拉CEO馬斯克今年再次表達了他對電力供應的擔憂。他預計,電力短缺可能會造成嚴重后果,阻礙AI的發展,就像缺芯阻礙科技和汽車行業一樣。

              有同樣擔憂的還有OpenAI首席執行官山姆·奧特曼。他表示,人工智能將消耗比人們預期更多的電力,未來的發展需要能源突破。

              除了電力,人工智能的發展對其他資源的消耗也十分巨大。弗吉尼亞理工大學研究指出,Meta公司在2022年使用了超過260萬立方米的水,主要是為數據中心提供冷卻。

              據美國《華爾街日報》報道,微軟計劃利用下一代核反應堆,即所謂的小型模塊化反應堆(SMR),來支持其數據中心和AI項目。數年前,微軟曾嘗試部署海底數據中心,臉書數據中心則選址在寒冷的北極圈附近。

              探索更多應對之策

              為了減少碳排放,包括亞馬遜、谷歌、微軟和Meta在內的公司已經承諾用可再生能源為它們的數據中心供電。

              美國能源巨頭雪佛龍公司董事長兼CEO邁克爾·沃思5月6日預計,隨著人工智能和數據中心用電量的激增,天然氣的需求可能會超出預期。沃思稱,美國汽車、供暖和制造業的電氣化舉措,疊加數據中心需求的增加,美國將需要可靠且負擔得起的備用發電。

              高盛今年4月發布的報告顯示,為滿足人工智能和數據中心帶來的電力需求增長,天然氣預計將占到增量的60%,剩余的40%由可再生能源加以滿足。

              咨詢公司Rystad Energy4月的一份報告也看好天然氣的使用。報告認為,僅靠太陽能和風能這種依賴于天氣的能源,可能不足以滿足科技公司發展人工智能的電力負荷。激增的電力負荷將需要一種能源來填補缺口,并在可再生能源發電不足的情況下滿足激增的需求。行業認為天然氣將成為首選。

              電力公司一直在為數據中心的電力需求激增做準備。大型科技公司也在探索人工智能如何幫助電網更高效地運行。全球最大的數據中心公司之一Equinix的官員表示,他們一直在嘗試使用燃料電池作為備用電源。

              世界經濟論壇官網刊文分析稱,AI運行一般分兩個主要階段:訓練階段和推理階段。在訓練階段,模型通過消化大量數據來學習和開發;經過訓練后,它們進入推理階段,用于解決使用者提出的問題。在這兩個階段限制能耗,可將AI運行總能耗降低12%到15%。

              一些參與人工智能的公司樂觀地表示,人工智能技術本身可以幫助解決高電耗問題。微軟公司發言人就表示,人工智能“將成為推進可持續發展解決方案的有力工具”。

              來源:經濟參考報


            評論

            用戶名:   匿名發表  
            密碼:  
            驗證碼:
            最新評論0
            <font id="9ao2z"><s id="9ao2z"></s></font><legend id="9ao2z"><source id="9ao2z"><dl id="9ao2z"></dl></source></legend>

              <noscript id="9ao2z"><option id="9ao2z"></option></noscript>

              1. <progress id="9ao2z"><font id="9ao2z"></font></progress><progress id="9ao2z"></progress><font id="9ao2z"><s id="9ao2z"><dl id="9ao2z"></dl></s></font>
                <input id="9ao2z"><s id="9ao2z"></s></input>

                    国产精品国产三级国产日韩_国内精品久久久久精品不卡_97精品国产高清在线看入口_国产精品久久久久久一级毛片