當生成式 AI 快速進入企業日常營運,「效率」成為第一個受益者,「風險」卻往往最後才被看見。許多企業尚未正式導入 AI 平台,員工卻早已在使用各種工具協助寫報告、分析數據、生成程式碼──這種現象,被稱為影子 AI(Shadow AI)。
問題不在於員工使用 AI,而在於:企業是否知道這些資料被送往哪裡?是否可控?是否合規?
什麼是影子 AI(Shadow AI)?
影子 AI 指的是未經企業 IT 或資安部門核准與管理的 AI 工具使用行為。類似過去的「影子 IT(Shadow IT)」,只是這一次,風險層級更高。
常見情境包括:
- 員工將客戶名單貼入 ChatGPT 產生銷售話術
- 工程師將原始碼上傳至 AI 工具請求優化
- 法務人員將合約內容交由 AI 進行摘要
- 行銷人員輸入尚未公開的產品資料生成新聞稿
在這些場景中,資料往往包含:個資、商業機密、尚未公開的財務或產品資訊、內部策略文件。
若沒有企業級治理架構,這些資料的去向、儲存方式與再利用風險,幾乎完全不可視。
國際警訊:影子 AI 已成企業風險熱點
在國際層面上,影子 AI 已經不再只是理論上的風險,而是企業真實面臨的治理挑戰。2023 年,三星電子發生一起引發全球關注的事件──工程師在除錯過程中,將內部原始碼貼入 ChatGPT 尋求協助,最終導致公司敏感資訊外流。事後,Samsung 全面限制生成式 AI 工具的使用。這起事件清楚揭示了一個關鍵事實:員工未必懷有惡意,但當企業缺乏 AI 治理機制時,等同於在毫無防線的情況下運作。
除了個別企業案例,管理層對 AI 風險的警覺也正快速升高。根據 IBM 2023 年全球 CEO 調查報告,超過半數受訪執行長認為生成式 AI 將帶來重大資安與合規風險。然而,多數企業仍未建立完整且明確的 AI 治理框架。這代表企業高層已經意識到風險存在,但實際管理制度與技術發展之間仍存在明顯落差。
更值得注意的是,Gartner 亦預測,在未來數年內,多數企業都將面臨無法完全掌握員工 AI 使用情況的問題,影子 AI 將逐漸成為組織運作中的常態現象。AI 治理也因此從單純的 IT 議題,上升為資安與內部控制的核心戰略議題。換言之,影子 AI 並非偶發事件,而是一種結構性風險;企業若缺乏制度與平台化管理,風險只會隨著 AI 普及而持續擴大。
為何使用 AI 會導致資料外洩?
很多企業誤以為:「我們只是輸入文字,又沒有真的上傳檔案。」
實際上,資料外洩風險來自以下幾個層面:
1. 雲端模型的資料處理機制
部分 AI 平台會將輸入資料用於模型優化或記錄分析。即便供應商承諾不訓練模型,資料仍可能暫存於境外雲端伺服器。
這涉及:
- 資料主權問題
- 跨境傳輸合規風險
- 第三方存取風險
2. 帳號層級缺乏企業控管
當員工使用個人帳號登入 AI 工具時,企業的 IT 部門將無法監控使用紀錄,也無法限制敏感關鍵字、進行存取權限分級,或即時關閉帳號,這種情況使企業完全失去對資料流向和使用情況的可視性,增加了潛在的資安與合規風險。
3. Token 成本與資料流量黑洞
AI 的運作基於 Token 計算,而當企業沒有統一的平台管理時,各部門通常會各自付費,導致總使用量無法統計,也無法追蹤資料的輸入類型。這不僅增加了企業的資安風險,也同時形成了財務治理的盲區,使企業難以全面掌握 AI 資源的使用情況與成本分布。
企業 AI 風險的四大面向
影子 AI 的風險,遠不止資料外洩。
1. 法規與合規風險
個資法、金融監理規範、醫療資料規範皆涉及資料處理責任。
2. 商業機密流失
產品設計、程式碼、併購計畫可能被外部模型處理。
3. 內控與稽核問題
無法提供使用紀錄與審計追蹤。
4. 品牌與信任風險
一旦外洩,企業形象與客戶信任難以恢復。
禁止 AI 真的有效嗎?
許多企業面對影子 AI 的第一反應往往是全面禁止使用,但實務上,這種做法通常會導致員工轉而使用個人設備,形成更難監控的地下使用行為,同時也抑制了創新能力的發揮,因此真正有效的解決方案並不是封鎖,而是建立完善的治理機制(Governance),以確保 AI 的使用在安全、可控且可稽核的環境下進行。
四點建立影子 AI 防護機制?
企業應從「平台化治理」思維出發,藉由以下四點方式去建立安全可控的 AI 使用環境。
1. 建立 AI 安全閘道(AI Gateway)
所有 AI 流量應經過企業的控管節點,以確保資料安全,並透過敏感字過濾來防止機密資訊外洩,同時進行存取權限分級管理,保證不同角色與部門只能使用符合權限的功能或資料。所有操作與輸入紀錄都會被完整留存,以利日後稽核與追蹤,並結合即時風險警示機制,能在異常使用或潛在威脅發生時及時通知管理者,從而建立一個安全、可控且可稽核的 AI 運作環境。
2. 建立 Token 與成本可視化管理
企業應建立完整的 Token 與成本可視化管理機制,以便高階管理者如 CIO 與 CFO 能全面掌握各部門的使用情況,清楚了解哪些部門使用最多、哪些模型使用頻率最高,並評估成本是否合理。
3. 將 AI 納入資安架構
AI 不應被視為獨立工具,而應整合進企業的基礎設施之中,透過統一的身份驗證系統(IAM)管理使用者存取權限,結合資料防護(DLP)策略以防止敏感資訊外洩。並與 SIEM 平台串接以監控異常行為,所有操作與資料流向均納入內控與稽核流程,確保資源合理分配的同時降低資料外洩與財務風險,使企業對 AI 的運作具備完整控制力。
4. 建立企業 AI 使用政策
企業應制定完整的 AI 使用政策,明確規範哪些資料類型可以或禁止輸入 AI 工具、允許使用的模型範圍、不同角色的存取權限層級,以及事件通報流程。確保所有 AI 使用行為都在可控、可追蹤的環境下進行,降低資料外洩風險並提供完整的稽核依據。
從影子 AI 到 AI 治理:企業的轉折點
生成式 AI 將持續存在,企業面臨的真正問題不在於是否使用 AI,而是如何在治理下加速其應用,避免無序成長。影子 AI 透露了一個明顯訊息:員工需要 AI,企業也需要 AI,而關鍵差異在於企業是否建立了一個安全、可控、可稽核且可擴充的平台架構,將 AI 納入企業基礎設施,使 AI 治理不再是選項,而是企業運作的必要條件。
