跳到主要內容區塊
::: 回首頁| 網站導覽| YouTube| Podcasts|
|
推播熱門報導

發展AI耗能大 科技巨頭力圖避免能源危機

2025-07-15 13:08(07-15 13:41更新)
新聞引據: 法新社
撰稿編輯:余思瑩
為降低龐大能源消耗,科技公司正積極開發更高效的電腦晶片和更智慧的程式設計來因應AI技術的發展。(示意圖 / Pixabay)
圖片來源:其他
為降低龐大能源消耗,科技公司正積極開發更高效的電腦晶片和更智慧的程式設計來因應AI技術的發展。(示意圖 / Pixabay)

法新社今天(15日)報導,人工智慧(artificial intelligence, AI)產業正透過更先進的冷卻系統、更高效的電腦晶片和更智慧的程式設計,力求降低其龐大的能源消耗,而在此同時,AI應用在全世界呈爆炸式增長。

AI完全仰賴資料中心,根據國際能源總署(International Energy Agency),到2030年時,資料中心可能消耗全球3%的電力,是目前用量的兩倍。

美國管理顧問公司麥肯錫(McKinsey)的專家描述了一場爭相建設足夠多的資料中心,以跟上AI快速發展的競賽,同時警告,世界正邁向電力短缺。

密西根大學(University of Michigan)電腦科學教授喬德休瑞(Mosharaf Chowdhury)解釋道:「解決這個問題的方法很多。」

公司可以建立更多能源供應,這需要時間,而AI巨頭已經在全球積極行動;公司也能研究,如何消耗較少的能源產生相同的運算能力。

喬德休瑞相信,從硬體系統到AI軟體本身,每一個層面都能利用「智慧」的解決方案來應對挑戰。

舉例來說,他的實驗室已經研發出演算法,可以精確計算每一顆AI晶片所需的電量,從而降低耗能20%至30%。

「智慧」解決方案

20年前,營運一個包含冷卻系統和其他基礎建設的資料中心,所需的能源與伺服器本身相當。

顧問公司奧雅納(Arup)的威廉斯(Gareth Williams)表示,如今,營運僅使用伺服器消耗能源的10%。

這主要得益於對能源效率的關注。

許多資料中心現在使用AI感測器來控制特定區域的溫度,而非一致冷卻整棟建築物。

根據麥肯錫的薩德瓦(Pankaj Sachdeva),這使他們能即時最佳化水與電力的使用。

對許多公司而言,關鍵的改變將是液冷散熱(liquid cooling),這是以直接在伺服器中循環的冷卻劑取代高耗能空調的轟鳴聲。

威廉斯說:「所有的大公司都在關注這點。」

這點至關重要,因為像輝達(Nvidia)等公司生產的現代AI晶片,消耗的電力是20年前伺服器的100倍。

亞馬遜旗下領先全球的雲端運算業務AWS上週表示,已經研發出自己的液體冷卻方法,來為其伺服器中的輝達圖形處理器(GPU)進行冷卻,從而避免了必須重建現有的資料中心。

AWS運算與機器學習服務副總裁布朗(Dave Brown)在一段Youtube影片中表示:「根本沒有足夠的液冷散熱能力能支持我們的規模。」

美國 vs. 中國

對麥肯錫的薩德瓦而言,一項令人欣慰的因素是,每個新一代電腦晶片都更比上一代晶片更節能。

普渡大學(Purdue University)的丁儀(音譯)研究表明,AI晶片可以更長時間使用,性能也不會降低。

丁儀補充說,「但很難說服半導體公司少賺點錢」,鼓勵客戶繼續使用相同的設備更久。

然而,即使晶片效能和能源消耗更有效率,可能降低製造AI晶片的成本,整體的能源消耗仍然不會降低。

丁儀預測,儘管人們竭盡全力限制能源消耗,「能源消耗仍會持續上升」。「不過也許不會像現在這樣快速。」

在美國,能源如今被視為保持國家在AI領域領先中國的關鍵。

中國新創公司DeepSeek在今年1月發佈了一款AI模型,性能與美國頂級系統不相上下,但使用的晶片性能較低,延伸說來,就是使用更少的能源。

DeepSeek的工程師透過對GPU進行更精準的程式設計,並跳過密集耗能的訓練步驟,實現了這一目標。訓練在過去被視為必要步驟。

人們也擔心,中國在可用能源來源方面也大幅領先美國,包括再生能源與核能。(編輯:陳文蔚)

延伸閱讀
AI晶片 亞馬遜AWS 輝達NVIDIA
為提供您更好的網站服務,本網站使用cookies。
若您繼續瀏覽網頁即表示您同意我們的cookies政策,進一步了解隱私權政策。 
我了解