中國威脅迫切且真實存在 顧立雄籲加速各項國防預算審查
法新社今天(15日)報導,人工智慧(artificial intelligence, AI)產業正透過更先進的冷卻系統、更高效的電腦晶片和更智慧的程式設計,力求降低其龐大的能源消耗,而在此同時,AI應用在全世界呈爆炸式增長。
AI完全仰賴資料中心,根據國際能源總署(International Energy Agency),到2030年時,資料中心可能消耗全球3%的電力,是目前用量的兩倍。
美國管理顧問公司麥肯錫(McKinsey)的專家描述了一場爭相建設足夠多的資料中心,以跟上AI快速發展的競賽,同時警告,世界正邁向電力短缺。
密西根大學(University of Michigan)電腦科學教授喬德休瑞(Mosharaf Chowdhury)解釋道:「解決這個問題的方法很多。」
公司可以建立更多能源供應,這需要時間,而AI巨頭已經在全球積極行動;公司也能研究,如何消耗較少的能源產生相同的運算能力。
喬德休瑞相信,從硬體系統到AI軟體本身,每一個層面都能利用「智慧」的解決方案來應對挑戰。
舉例來說,他的實驗室已經研發出演算法,可以精確計算每一顆AI晶片所需的電量,從而降低耗能20%至30%。
「智慧」解決方案
20年前,營運一個包含冷卻系統和其他基礎建設的資料中心,所需的能源與伺服器本身相當。
顧問公司奧雅納(Arup)的威廉斯(Gareth Williams)表示,如今,營運僅使用伺服器消耗能源的10%。
這主要得益於對能源效率的關注。
許多資料中心現在使用AI感測器來控制特定區域的溫度,而非一致冷卻整棟建築物。
根據麥肯錫的薩德瓦(Pankaj Sachdeva),這使他們能即時最佳化水與電力的使用。
對許多公司而言,關鍵的改變將是液冷散熱(liquid cooling),這是以直接在伺服器中循環的冷卻劑取代高耗能空調的轟鳴聲。
威廉斯說:「所有的大公司都在關注這點。」
這點至關重要,因為像輝達(Nvidia)等公司生產的現代AI晶片,消耗的電力是20年前伺服器的100倍。
亞馬遜旗下領先全球的雲端運算業務AWS上週表示,已經研發出自己的液體冷卻方法,來為其伺服器中的輝達圖形處理器(GPU)進行冷卻,從而避免了必須重建現有的資料中心。
AWS運算與機器學習服務副總裁布朗(Dave Brown)在一段Youtube影片中表示:「根本沒有足夠的液冷散熱能力能支持我們的規模。」
美國 vs. 中國
對麥肯錫的薩德瓦而言,一項令人欣慰的因素是,每個新一代電腦晶片都更比上一代晶片更節能。
普渡大學(Purdue University)的丁儀(音譯)研究表明,AI晶片可以更長時間使用,性能也不會降低。
丁儀補充說,「但很難說服半導體公司少賺點錢」,鼓勵客戶繼續使用相同的設備更久。
然而,即使晶片效能和能源消耗更有效率,可能降低製造AI晶片的成本,整體的能源消耗仍然不會降低。
丁儀預測,儘管人們竭盡全力限制能源消耗,「能源消耗仍會持續上升」。「不過也許不會像現在這樣快速。」
在美國,能源如今被視為保持國家在AI領域領先中國的關鍵。
中國新創公司DeepSeek在今年1月發佈了一款AI模型,性能與美國頂級系統不相上下,但使用的晶片性能較低,延伸說來,就是使用更少的能源。
DeepSeek的工程師透過對GPU進行更精準的程式設計,並跳過密集耗能的訓練步驟,實現了這一目標。訓練在過去被視為必要步驟。
人們也擔心,中國在可用能源來源方面也大幅領先美國,包括再生能源與核能。(編輯:陳文蔚)