美國媒體5日報導,美國國防部已經正式通知人工智慧(AI)新創公司Anthropic,該公司與其先進AI產品已經被認定為供應鏈風險,升級了這場與AI安全規範有關的爭端。
這是首次有美國企業被列為供應鏈風險,這項認定到目前為止都是針對敵對國家的企業,例如中國的華為。
正式被指定為供應鏈風險,將使得國防供應商和承包商必須證明他們在與國防部的合作中,沒有使用Anthropic的Claude模型,此舉可能對這家公司產生廣泛的影響。
一名國防部官員告訴彭博社和CNBC:「戰爭部正式通知Anthropic高層,該公司與其產品被認定為供應鏈風險,立即生效。」
Anthropic已經誓言將在法院挑戰這項認定,這是大型科技公司與美國政府罕見的公開對立。
這場爭端源自於Anthropic激怒了國防部長赫格塞斯(Pete Hegseth),堅持該公司的技術不應用於大規模監控或全自動武器系統。
華盛頓對此反擊,表示國防部依法行事,簽約供應商無權決定如何使用其產品的條款。
Anthropic和戰爭部都沒有回應法新社的置評請求。
本週稍早的報導指出,雙方已經展開協商,以解決這場爭端,談判是由Anthropic的投資者斡旋的,包含亞馬遜(Amazon)、谷歌(Google)和輝達(Nvidia)等科技巨擘。
這場衝突在4日出現轉折,科技新聞網站The Information報導,Anthropic執行長阿莫戴(Dario Amodei)已經告訴員工,針對該公司的行動是出於政治動機。
阿莫戴說,川普政府「不喜歡我們的真正的原因,是我們沒有捐款給川普」,他提到了OpenAI總裁布羅克曼(Greg Brockman)曾捐款給川普2500萬美元。
根據多家美國媒體報導,美國軍方在週末對伊朗發動的攻擊中使用了Anthropic的Claude AI模型,儘管限制政府機構使用這項技術的禁令已經上週下達。
川普透過社群媒體下令聯邦機構立即停止使用Anthropic的所有技術,並給國防部和其他機構6個月的停用寬限期。(編輯:鍾錦隆)