代理型人工智慧(AI)與公司治理

【作者】Helmuth Ludwig
【資料來源】Directors and Boards 
【發佈日期】2026年 4月 21日
【介紹者】閻書孝研究員
【審訂者】謝靜慧/本協會前秘書長
【簡介】    

一家金融服務業公司部署了AI代理(AI agent),能在人類顧問到辦公室之前,自主審視客戶的投資組合、辨識再平衡機會,並草擬交易建議。

一家製造業公司會使用AI代理,在預先核准的範圍內,獨立地與供應商協議採購條款、比價、標示風險,以及執行採購訂單。

一家軟體公司發布了自主的編碼代理,能夠全天候撰寫、測試,並將變更後的程式部署到正式的環境中,而人類工程師只需要審視其中一小部分的輸出成果。

這些並不是假設性的場景,而是目前各行各業逐漸發生的現況。代理型AI—能夠自主規劃多步驟工作流程、存取企業資料、執行交易,以及與外部機構互動的系統—與董事會、公司及其管理團隊過去幾年熟知的分析型和生成式AI工具,有著本質上完全不同的能力。不同於僅對提示作出反應的聊天機器人,代理型系統會主動產生行為,通常能夠同時跨越多個企業系統,在有限的或甚至沒有人為的介入之下完成工作。

對董事會而言,這樣的轉變需要治理機制做出相應的演進。過去為傳統流程所設計的治理架構—即由人類發起每項行動及審視每個結果—對這個獨立運作與即時做出重大決定的系統而言,是不再足夠了。

治理始於明確的問責性

代理型AI帶來了一個微妙但危險的誘惑:也就是認為自主系統會自行承擔責任。但事實不是如此。演算法無法為存在缺陷的決策負責,而是由部署它、設定其參數,並選擇授權範圍的高階經理人,也必須是由他們負責。MIS Quarterly的研究《董事會如何治理人工智慧》(How Boards of Directors Govern Artificial Intelligence),調查了約100家公司董事會成員的意見,發現當監督與執行的界線變得模糊時,董事會最容易陷入困境。而在代理型AI出現的情況下,風險更為加劇。董事會必須抗拒介入營運層面的衝動,轉而要求管理階層對於這些系統的治理架構、控制以及監督機制負起責任。其原則是相當清楚的:董事會負責治理策略、風險承受度以及問責性。管理階層有完全的執行權限—也要為成果承擔完全的責任。董事會的角色是詢問是否存在適當的治理架構,以及是否由合適的人負責,而非親自去設計一個架構。

機會與其治理意涵

前述案例描繪了這個問題的兩個面向。一方面,潛力非常巨大,但是同樣的能力也帶來了傳統治理架構未曾設計用以處理的風險類別。自主代理可能存取超過其任務所需的敏感資料、執行可能造成無預期財務曝險的交易,或者因為與外部機構互動的方式,而引發監管或聲譽風險。因為這些系統是持續且大規模運作的,因此治理失靈的結果,會在人為監督掌控之前就迅速累績擴大。

治理的核心問題並非是否要部署代理AI—面對競爭壓力,讓大多數組織都迴避不了此一趨勢。真正的問題是,治理成熟度是否能跟上技術能力的發展。

早期採用者的治理啟示

已有幾個組織在結構化的治理架構內部署代理型AI,而其方法為董事會提供了具參考價值的模式。

企業身分治理(identity governance)提供了一個具潛力的模式。一些科技公司已將其AI代理平台設計在現有的存取控制架構內運作,因此代理AI本身就沿用人類使用者的同等許可、限制以及查核軌跡。這個原則是合理的:代理AI的自主權不能夠繞過企業治理的控制機制。董事會應該詢問,其組織的身分治理是否已明確擴展涵蓋AI代理。

受監管的產業提供了更多啟示。部署AI助理的金融服務業公司,一般都會維持嚴格的界線:代理AI僅能存取經核准的內部資料,所有的互動都會留下紀錄且可受查核,而人類專業人員要為與客戶相關的決策負責。這個治理的啟示很明確—只要治理架構是一開始就被設計完成,而非事後再來補強,那麼縱使在高度監管的環境下,代理AI也可以有效運作。

自主編碼代理AI提供了一個特別具啟發性的案例。那些部署了可以編寫、測試,以及產出軟體程式碼系統的組織,已經建立了治理機制,要求在人類核准之後,代理生成的程式碼才能進入正式的運作環境。他們限制代理AI對關鍵系統的存取權限,並持續監控其活動。

更廣泛的治理原則是比例原則,董事會應該從失敗的成本這個角度來思考這一點。一個AI代理若將略微不正確的產品更新寄發給五個關鍵客戶,可能會造成可控的尷尬。但若自主系統在核電廠的控制系統、醫療設備或航空交通管理系統中引入缺陷,就會引發完全不同等級的嚴重後果。董事會所需要的治理機制必須要能夠反映這個風險範圍的差異。並非所有代理AI部署都需要同等程度的監管,但是董事會必須確保,管理階層會嚴格評估哪些的失敗是可以回復補救的,哪些不能。

最後,開放原始碼與第三方代理架構帶來了一項獨特的挑戰。當組織採用外部開發的AI工具,治理就必須延伸到身分憑證管理、存取控制,以及監控非組織自行建立的系統。董事會應該確保,治理政策會涵蓋組織所依賴的完整AI工具生態系統,而非只有內部所開發的系統。

董事會現在應該採取的行動

在《董事會如何治理人工智慧》一文中所提到的治理架構,辨識出四個董事會層級的AI治理支柱。在代理AI的情境下,每個支柱現在都呈現出更迫切的重要性。

支柱一:策略與競爭力。代理AI是一種通用型的技術。如同之前的雲端運算或網際網路,這類技術本身是每個競爭者都可以取得的,因此其本身無法創造出永續的競爭優勢。董事會必須追問的策略問題是:「是甚麼讓我們對代理AI的佈署具防禦性?」問題在於將自主代理AI與公司現有的護城河結合起來—例如對專有資料的特權存取、在AI介面的互動中獲得客戶信任的強大品牌、受保護的智慧財產權,或者有更深厚的領域專業知識,以塑造代理AI的訓練及部署。例如一個製藥公司的代理型AI,其優勢並非來自於基礎模型,而是來自數十年累積的專有臨床資料。董事會應該要求管理階層清楚說明,代理AI如何增強公司的競爭護城河,並對於將技術本身視為競爭優勢,而不是提升能力的工具的策略,秉持審慎而保留的態度。

支柱二:資本配置。在企業層級部署代理型AI,需要持續投資在平台的建設、系統整合,以及治理基礎設施。董事會應該要確保,資本配置會同時反映機會與治理成本,不要僅投資於AI能力,也要投入可以支援負責任的自主部署的監控、查核及控制系統。當組織越來越依賴第三方工具及開放原始碼的架構時,投資計畫就必須涵蓋整個AI生態系統,而非只有內部自行開發的系統。

支柱三:AI風險。代理型AI帶來跨越傳統風險類別的多重風險,包括資安、營運、監管及聲譽風險。資安風險應該特別加以注意:如《董事會的資安七大步驟》(Cybersecurity: Seven Steps for Boards of Directors)所述,能夠存取企業系統、持有憑證,並與外部機構互動的自主代理,大幅擴張了組織被攻擊的面向。董事會應要求將AI相關風險正式納入企業整體風險管理(ERM)的架構內,並定期向適當的委員會報告。治理控制也必須與代理AI的自主性相稱:受人為監督的編碼助手,和執行金融交易的自主代理AI,其風險性質完全不同。董事會應該要求分級的治理方式,對自主性更高、影響更重大的系統施以更嚴格的控制。

支柱四:科技能力。董事會層級的AI能力不是建立深度的技術知識,而是發展監督AI相關決策、投資與風險所需的商業判斷力。董事會應該將AI素養納入在能力矩陣、繼任規畫及年度自我評估之中。一些董事會發現反向指導制度—董事與年輕的AI從業者定期的交流—是一個建立相關能力的有效方式。

治理做為策略性優勢

在這四個支柱建立起完善的代理AI治理的組織,會以更快、更安全,且讓利害關係人更具信心的方式來部署這些技術。治理不是創新的限制,而是讓組織能在可控風險下,去全速追求創新。

代理AI不會變更治理原則,而是強化其重要性。數位能力的演進速度始終快於治理成熟度,能夠縮短此落差的董事會,會讓其組織掌握住可觀的價值,同時保護依賴他們監督的利害關係人。

董事會應向管理階層提出關於代理AI的問題有:

*在經營團隊裡誰負責代理AI的治理,以及問責機制是如何設計及運作的?
*AI代理可以存取那些企業系統?是否明確為自主代理設計存取控制機制?
*哪些治理控制機制用來限制代理自主性?以及這些控制是否與各項部署的風險程度相稱?
*代理AI的各項行為,包括與外部機構的互動,是如何被監控、紀錄以及查核?
*如何治理第三方與開放原始碼的AI代理?是否包括身分憑證管理與存取控制?
*關於代理AI失效或未預期的行動,是否設置事件回應處理機制?

【網址連結】
https://www.directorsandboards.com/board-issues/ai/agentic-ai-and-corporate-governance/

 

TOP