數發部長林宜敬今天(9日)接受中央廣播電臺專訪時指出,全球在管理AI發展方面,歐盟管制較為嚴格,美國較為寬鬆,台灣則會運用3層架構,最上層是AI基本法,中間由數發部仿效美國提出風險框架指引,下面則授權各部會做實質的作法規範,是專屬於台灣的AI風險控管模式。
行政院日前提出AI基本法草案,數發部長林宜敬9日指出,在立法院初審通過的版本目前已進入朝野協商,因為當初審查時,行政團隊就不斷給予意見,所以條文在精神上差異不大,朝野協商時再斟酌文字要怎麼修改。
針對條文中規定數發部應推動人工智慧風險分類框架,並讓各目的事業主管機關依循此框架訂定規範,林宜敬認為這確實是AI基本法中相當關鍵的條文。他指出,全球在管理AI發展方面,歐盟管制較為嚴格,將風險分成多個等級,風險最高等級為不可接受之風險等級,列出8種範疇的AI是不可研發應用的,例如潛意識操弄、利用AI做社會信用評等、以AI人臉辨識方式判斷種族等。美國的管制則較為寬鬆,因美國認為太多監管會限制AI的發展,所以是由白宮提出風險指引,告訴產學研界在研發AI時要注意哪些事情。
林宜敬說,台灣剛開始陷入兩難,不知道應該選歐洲模式還是要選美國模式,但現在決定運用3層架構,建立專屬於台灣的AI風險控管模式。他說:『(原音)後來我們想到一個方法,就是我們現在是3層的架構,就是說在最上位我們定立了AI基本法,然後AI基本法定立了以後,就是像您才講的那些條文,數發部會跟美國政府一樣類似的出一個風險的指引、一個風險框架的指引,然後我們再授權各個部會去做實質的作用法的規範。』
林宜敬舉例,將來一定會有很多醫院利用AI輔助診斷,若診斷錯誤,是醫生要負責?還是這個軟體公司要負責?有哪些輔助診斷的AI工具可以使用上市?這些都必須由衛福部規範。還有AI自動駕駛,什麼樣的系統可以上路?出了事情到底是駕駛人要負責?還是軟體公司要負責?這則交由交通部立法規範。另外,金管會也要規範AI投資理財,這些待數發部的風險框架指引出來後,就會交由各個部會去執行。(編輯:宋皖媛)