董事會新的AI職權範圍:從遵循到資料治理

董事會新的AI職權範圍:從遵循到資料治理
【資料來源】Corporate Board Member 
【發佈日期】2025年 11月 19日
【介紹者】閻書孝研究員
【審訂者】謝靜慧/本協會前秘書長
【簡介】    

投資人的期待正在快速轉變,在2026年委託書徵求季之前,董事會將被要求證明他們已經做好準備。這是最近《Corporate Board Member Briefing》的核心訊息,該場活動由Global Data Innovation的執行長Dominique Shelton Leipzig主持,她是全美在人工智慧(AI)、隱私及資料治理領域具領導性權威的人士。她服務大型律師事務所超過30年,曾培訓了超過五萬名專業人士,並就負責任創新向財星美國500強(Fortune 500)公司董事會提供諮詢服務。另一位參與者Roosevelt Giles是企業轉型與網路策略的全球專家、Stakeholder Impact Foundation的董事長及Endpoint Ventures的創辦人,其投資遍及五大洲,第三位Christine Heckart是資深科技公司執行長與董事、Xapa(加速勞動力轉型的AI平台)的創辦人與執行長。他們共同提出一個清楚的結論:受託責任現在明確擴大到AI監督—「被動知情」的時代已經過去。

為何AI是董事會層級的受託責任議題

Giles將AI定位為一項系統性風險,而非只是營運風險。因為AI會影響獲利、股東總回報、投入資本報酬率和成本結構,這就完全在董事會要保護和提升長期股東價值的職責裡。他表示,當新興科技發展超出傳統章程與規範時,受託責任就成了彌補落差的「補漏機制」,法院與投資人將藉此判斷,檢視董事會是否提出正確的問題,並落實適當的監督。

Shelton Leipzig指出貝萊德、安聯以及像Glass Lewis之類的委託投票顧問機構,都已更新其盡職治理指導方針,ISS也緊跟在後。到2026年委託書徵求季,他們期待董事會展示其AI素養,並在委託聲明書內陳述董事進修與監督架構。如果沒有做到的話,董事可能會面臨反對票建議、聲譽受損,甚至若治理嚴重疏失時,可能會面臨Caremark之類的股東代位訴訟。

TRUST監督架構(董事會應詢問事項)

為協助董事會釐清複雜、彼此交疊的法規(例如歐盟AI法、NIST、ISO與數十項新的州法),Shelton Leipzig提出了精簡版的TRUST架構—五個董事會監督的核心支柱:

1.分級篩選。確保AI之使用符合公司策略。識別AI部署之處,以及適用的法律及風險等級(例如是禁止、高風險或低風險)。很多「影子AI」的專案都不在企業優先事項裡—分級篩選可以揭露並阻止此類專案。

2.正確的訓練資料與訓練權限(Right data to train—and rights to train)。董事會應該要確認訓練資料的準確性、來源合法以及合乎智慧財產權與隱私權。資料品質不佳或管理不善,會造成計畫失敗並引發法律責任。

3.持續的測試、監控以及查核。直接將準確率門檻、異常處理流程及人工保護措施內建於系統之中,不要依賴束之高閣的政策。如果你不允許客服人員對顧客出言不遜,那麼你的聊天機器人也應該如此。將行為標準編寫進入AI,並監控其偏差之處。

4.監督人員。文化是基石。訓練員工辨認AI輸出何時偏離政策或品質,並能夠「發現異常就舉報」。第一線人員通常是第一個看到缺失的人,要獎勵這種行為。

5.技術文件。保持完整技術紀錄文件,以診斷和糾正模型偏差。AI的錯誤生成是不可避免的;重要的是監控、偵測及改正。

從遵循治理到資料治理

大多數董事會仍將技術監督交給審計委員會負責。Giles提醒,將AI與網路安全納入已經過於繁重的審計委員會議程,會有監督流程失敗的風險,而且會增大Caremark類型的訴訟曝險。他建議設立技術或資料與技術委員會,以統一對AI、網路安全、資料治理和數位轉型的監督,並向全體董事會報告。

若董事會的更新速度緩慢或存在技能缺口時,Giles建議增加不具投票權的顧問董事,任期為24個月。這樣能快速引入專業知識,累積組織經驗,並為未來具受託責任的董事建立人才管道。

真正的就緒,重要在人,不是工具

Heckart強調,成功的AI計畫更依賴於變動管理,而非演算法。身為執行長及公開發行公司的董事,Heckart解釋,她的團隊會按TRUST架構與Global Data Innovation每季審視AI應用及控制,搭配整個企業的訓練及AI「教練」,引導員工負責任的使用。

多位與會講者引述已公布的研究指出:

*大多數AI失靈都是人或流程的問題,並非技術缺陷。
*公司通常過度投資工具、卻對訓練投資不足,這會錯失提高生產力及降低風險的機會。
*相對於以AI取代人力,由人與AI協作出發的組織,更有顯著的績效進步。

Heckart的關鍵結論是:將每位員工都當成是AI的管理者。隨著生成式工具被納入各類生產力套件中,即使是初入職場的員工,現在都要監督「數位實習生」。這需要訓練判斷力,包括情境設定、品質檢核以及異常處理流程,而不只提升技術能力。

股東行動主義、指數型基金與新的計分卡

預期行動主義股東可能會深入研究公司的揭露內容、與顧客及供應商溝通,並比對董事的經驗與表現。如果企業在AI的支出高,但回報揭露說明不清、或從風險控制來看只是做表面功夫,那麼董事會在策略、技能與速度上就會受到質疑。行動主義股東會與大型指數型基金、委託投票顧問機構合作,因此董事會的回應論調及內容都十分重要。他們所提出的問題,正反映TRUST的核心支柱及基本的資本紀律:投資報酬在哪裡?如何控制風險?董事會上誰真正瞭解這件事?

董事在本季可提出的五個問題

1.分級篩選:哪些AI專案可以直接推進我們的策略優先事項?哪些不符合我們的使命及風險承受度?
2.正確的資料:我們是否確保訓練資料正確、來源符合倫理,且具備適當的智慧財產權、隱私和商業使用權?
3.持續的監控:我們如何檢核模型的準確度、偏差及偏移?能多快偵測與改正錯誤?
4.監督:當AI輸出偏離政策或倫理時,是否有明確的異常處理流程?由誰負責介入與決策?
5.技術文件:我們能否提出證據,證明當問題發生時,就有監督、監控與補救?

當務之急:快速行動並設置防護措施

在整個討論過程中,有一個主題反覆出現:對目前的企業而言,最大的風險就是行動太慢。AI正在重塑成本曲線、顧客體驗及商業模式。董事會必須大膽嚐試,並負責任地治理—確保可見的董事素養、可確切執行的架構、適當的委員會結構,和以人為本的準備,來將試點專案轉化為績效。

若運作得宜,AI就會成為公司營運系統的一部份,與策略保持一致、用結果來衡量、以風險作監控,並由具備能力的員工來推動。這不只是治理,而是持續的競爭優勢。

【網址連結】
https://boardmember.com/the-boards-new-ai-mandate-from-compliance-to-data-governance/
 

TOP