|
此次以臺灣研發管理經理人協會理事身分,參訪工研院,讓我再次深刻體會到,隨著 AI 快速進入製造、半導體與關鍵基礎設施等高影響場域,產業所面臨的核心問題已不再只是「AI 能不能用」,而是「誰能證明 AI 為何如此判斷」。
身為長期投入 AI 稽核軟體研發的發明者,我在觀察任何 AI 系統時,特別關注模型訓練歷程是否具備可追溯性、可重現性與可驗證性。因為唯有清楚掌握資料來源、特徵選擇、模型版本演進與驗證結果,AI 的決策才可能被檢視、被說明,進而被信任。此次參訪中,我看見工研院已將這些關鍵元素納入研發與管理流程,使 AI 不再只是效能導向的黑盒工具,而是可被治理的工程系統。
從實務與發明經驗來看,可解釋 AI(Explainable AI, XAI)並非部署後的補救機制,而是必須在模型訓練與設計階段即被內建的能力。當訓練過程本身缺乏紀錄與假設說明,後續再談解釋、稽核或責任歸屬,往往流於形式。工研院在相關技術展示中,已清楚展現將可解釋性與風險意識前移至研發初期的實踐,這對高風險 AI 應用尤為關鍵。
我也更加確信,未來 AI 的競爭力不僅來自模型準確率,而是來自能否在必要時清楚說明:這個判斷基於哪些資料、在什麼假設下成立、以及在哪些情境中可能失效。這正是 AI 稽核、研發管理與產業責任必須交會的核心。
此次工研院參訪,不只是一次技術交流,更是一場關於「可信 AI 如何被設計出來」的深度對話。期待未來能持續透過跨域合作,將 AI 從可用推進至可被信任、可被驗證,並能被長期依賴的產業基礎。

|