人工智慧快速發展之際,立法院正推動《人工智慧基本法》立法,但草案目前僅完成初審,多數關鍵條文仍待協商。各界對於如何兼顧創新發展與風險監管意見分歧。專家建議,應採動態調整機制,減少法規對創新的壓抑,並透過立法引導業者強化自律,以達科技治理與產業發展雙贏。
立法缺乏共識
中央社指出,立法院教文及交通委員會已於8月初完成初審,針對草案19個版本進行討論,最終僅有三項原則條文完成共識:推動國際合作、與民間共推創新運用、資料開放。其餘如監管機制、罰則設計、風險分級等具體規範,均保留送院會協商。
數位發展部次長林宜敬表示,草案已提報行政院,但因近期受風災、貿易等事務延宕,尚未送入立院審議。他說,政府將參考美國模式,規劃以「風險分類」取代原草案中的「風險分級」,再由子法授權各主管部會(如衛福部、勞動部)依領域制定配套規範。
避免立法成為絆腳石
學界則呼籲,應避免僵硬的監理機制抑制產業創新。實踐大學講座教授、人工智慧法律國際研究基金會執行長張麗卿指出,AI技術快速演進,政府應採用動態法制調整機制,例如建立「沙盒實驗」空間,讓業者在低風險情境中測試創新應用,同時定期檢討資料標記與數據管理規範。
她舉例,2023年由人工智慧法律國際研究基金會提出的民間版AI基本法草案,就設計出一套兼顧監理與激勵的架構,除了導入風險導向監管,亦鼓勵政府提供財稅優惠、降低法遵成本,讓業者能在合理風險下持續創新。
對於具高風險的AI應用,張麗卿認為應強化事前審查與事中監測,要求業者提交安全計畫、標記技術報告,並建立損害補償、保險與申訴機制。同時建議導入「浮水印」技術,避免生成式AI造成誤導或侵權。
台北醫學大學大數據科技及管理研究所教授許明暉則認為,AI立法必須參照生醫領域的倫理、法律與社會影響(ELSI)架構,審慎評估AI對工作、隱私與公平造成的影響,避免立法成為特定族群的科技剝奪。
立法院目前仍就AI法中是否設立監理機構、設置罰則等爭議激烈辯論。部分立委建議仿設立「AI特別委員會」,負責倫理審查與違規監管。另有提案希望參照《個資法》明訂行政罰則。




