中國人工智慧公司DeepSeek(深度求索)的AI模型DeepSeek R1是開源模型,若被下載至自己電腦裡就不會有資料外流風險嗎?專家認為,只要電腦有上網功能,就會有資料外流風險;台灣資安大廠趨勢科技也分析,DeepSeek R1在評測時確實比較容易被「越獄」(jailbreak)、越過安全防護措施,容易被問出如何製作炸彈等敏感問題,防禦功能比ChatGPT稍低。
中國開發的大型語言模型DeepSeek橫空出世,號稱低成本但卻能達到ChatGPT的效能,引起廣泛的討論,但由於用戶資料儲存在中國伺服器,恐有資料洩漏風險,陸續有國家宣布限制或禁止在政府部門的設備中使用,包含澳洲、義大利、台灣、韓國、日本等。
值得注意的是,DeepSeek R1開放權重模式可以讓研究和開發人員能夠自由使用,不少專家認為,若下載到自己的電腦裡,由於只是模型的資料,並不會把資料、對話內容流出去。
不過,資策會資安所副所長顧振豪認為,這個說法「對,也不對」,關鍵是裡面的程式碼是否有「後門」,可能還是會將資料傳輸出去。他說:『(原音)當它連線的時候是不是資料就有可能會傳出去,或者是說我們也沒辦法去確認說在它的程式碼裡面是不是有另外的所謂的傳輸的協定、或是傳出的方式,讓這些資料去另外的傳輸到比如其他國家的伺服區中;所以你說這個下載到所謂在地的版本,那是不是就不會有資訊外流的風險,我覺得不盡然是這樣子來理解的。』
趨勢科技AI lab資深經理周曼如也提醒,只要電腦是有連網功能,就具有數據傳輸的功用,仍會出現傳統網路資安問題,例如中毒、被駭客攻擊等,而AI模型會加速或加深這些疑慮。
周曼如也提到,他們內部評測時也發現,DeepSeek R1確實比較容易被「越獄」(jailbreak),容易被問出如何製作炸彈等敏感問題,防禦功能比ChatGPT稍低。她說:『(原音)我們自己內部也有一些評測,的確在評測結果看起來,就是DeepSeek R1的服務,他的確比較容易被jailbreak,就是被越獄,舉例來說問出一些怎麼偷資料、怎麼做炸彈、或者是這種敏感的問題。』
兩位專家也強調,不一定只有DeepSeek R1會有資安疑慮,任何大型語言模型都可能存在著被濫用、或是被越獄的風險。周曼如舉例,若將敏感資訊如信用卡卡號在訓練過程中放進去,也有機會在「越獄」的時候被抓出來,所以不要將個人資訊輸入任何模型。
顧振豪也建議,若它的原始碼還沒有經過所謂資安檢核、或是正確內容校正之前,盡量還是少去用,不然就是要在一個完全封閉的、所謂實驗性沙盒的模式底下去做使用,並同時進行對外連線的監管,才能確保安全性。