AI快速發展,各種生活應用五花八門,醫學照顧也是其中一項熱門項目。不過台大公衛學院副教授李達宇今天(6日)表示,當面對需要即時判斷、並高度依賴專科判斷的臨床現場時,現有AI工具仍難跨越「安全」與「可靠」的門檻。
台大公衛學院副教授李達宇攜手哈佛大學公衛學院等國際機構合作的最新研究成果,在今年7月刊登於《npj Digital Medicine》。這項研究是全球首度對生成式AI在中風照護資訊提供上的表現進行系統性評估。
李達宇6日表示,研究團隊選擇了三款主流大型語言模型,模擬多種貼近臨床情境的中風照護場景,並運用多種提示設計策略,研究結果顯示AI在提供患者可直接採取行動的建議方面表現不一,尤其在中風治療等高風險階段,錯誤或不完整的回應時有所見。研究團隊認為,AI在一般健康資訊的傳遞上或具潛力,但在中風這種須即時專業介入的情境下,可靠性仍待大幅提升。
李達宇也表示,除了本身技術的精進,民眾在「如何發問」也是關鍵,尤其這種高風險的情況下,千萬不要太過依賴AI。李達宇:『(原音) 所謂的AI識能,AI識能其實要了解怎麼去安全使用AI,不是只是科技上,也要了解可能的風險。大部分人很在意AI的表現,比如它功效好不好啊,可是現在越來越多在使用AI在高風險的狀況,例如今天提的,也是要有些的注意,就是它有可能的風險。』
李達宇指出,團隊未來會持續聚焦在更精細的提示工程及語境工程,結合領域專屬的模型微調及多模態互動式設計等策略,提升大型語言模型在患者健康資訊提供上的準確性,可理解性跟個人化表現。AI可提供輔助,但不宜過度依賴。
台大公衛學院表示,中風是全球第二大死因,第三大致殘原因,對低社經族群的衝擊尤為深遠。這個研究也是向社會大眾提醒,即便生成式AI充滿創新潛力,在一些攸關生命與專業判斷的場域中,仍要審慎使用。(編輯:陳士廉)