南韓政府今天(22日)推出人工智慧(AI)監管法規,目標在強化產業的信任與安全,但新創公司憂心,相關法規要求可能阻礙發展。
首爾希望透過全新的「人工智慧基本法」(AI Basic Act),將南韓定位為該領域的領導國家。這項新法並已全面上路,相較之下,歐洲的類似措施「歐盟人工智慧法」(EU AI Act)在2027年前將分階段實施。
各國對如何監管人工智慧仍存在分歧。美國傾向採取較為寬鬆的做法,以避免扼殺創新;中國則已推出部分規範,並提議成立一個協調全球監管的機構。
南韓新法的一大重點,是要求企業必須確保在所謂「高影響」(high-impact)人工智慧中有人為監督,範圍涵蓋核能安全、飲用水生產、交通、醫療,以及信用評估與貸款審核等金融用途。
其他規定包括,要求企業須事先告知使用者,其產品或服務是否採用高影響或生成式人工智慧(generative AI),並對AI生成內容提供清楚標示。
南韓科學與資通訊技術部表示,這套法律架構的設計目標是在促進推廣AI使用的同時,建立安全與信任的基礎。
該法是在廣泛諮詢後制定,在至少1年的寬限期後,主管機關才會開始對違規行為開罰。相關罰則包括,若未對生成式人工智慧加以標示,企業最高可被處以3,000萬韓元(約2萬400美元)罰款。
南韓科學與資通訊技術部部長裴慶勳(Bae Kyung-hoon)在記者會上表示,這項法律將為南韓躋身全球前三大AI強國的目標,提供「關鍵的制度性基礎」。
不過,南韓新創聯盟(Startup Alliance)共同負責人林正旭(Lim Jung-wook,音譯)指出,業界對於關鍵細節仍未明朗感到挫折。
他說:「多少有些怨氣,為什麼非得是我們第一個這麼做?」
該聯盟資深研究員鄭柱妍(Jeong Joo-yeon,音譯)則表示,法規用語過於模糊,可能迫使企業為了規避監管風險,而全面採取最保守的做法。(編輯:許嘉芫)