隨著生成式AI技術(shù)在全球產(chǎn)業(yè)端的滲透率突破37%(據(jù)2024年麥肯錫數(shù)字經(jīng)濟(jì)報(bào)告),AI已經(jīng)從企業(yè)的創(chuàng)新試驗(yàn)工具升級(jí)為支撐核心業(yè)務(wù)運(yùn)轉(zhuǎn)的生產(chǎn)要素,與之伴隨的AI安全風(fēng)險(xiǎn)也從技術(shù)層的單點(diǎn)問題升級(jí)為影響企業(yè)生存的戰(zhàn)略級(jí)風(fēng)險(xiǎn)。僅2023年,全球范圍內(nèi)因AI數(shù)據(jù)泄露、算法歧視、合規(guī)違規(guī)導(dǎo)致的企業(yè)損失超過1200億美元,其中近60%的事件責(zé)任主體為企業(yè)董事會(huì)及高管層——多數(shù)企業(yè)管理者對(duì)AI安全的認(rèn)知仍停留在“技術(shù)部門負(fù)責(zé)的運(yùn)維問題”層面,既缺乏對(duì)AI安全架構(gòu)的系統(tǒng)性判斷能力,也沒有建立從戰(zhàn)略層管控AI風(fēng)險(xiǎn)的治理機(jī)制。
這一現(xiàn)狀也暴露了當(dāng)前全球DBA(工商管理博士)培養(yǎng)體系的共性短板:多數(shù)工商管理博士項(xiàng)目的課程模塊聚焦戰(zhàn)略管理、公司金融、組織行為等傳統(tǒng)領(lǐng)域,對(duì)數(shù)字經(jīng)濟(jì)下的AI風(fēng)險(xiǎn)治理、技術(shù)合規(guī)架構(gòu)等交叉內(nèi)容覆蓋不足,導(dǎo)致很多在讀DBA學(xué)員、已畢業(yè)的企業(yè)家高管在推進(jìn)企業(yè)AI落地時(shí),只能依賴技術(shù)團(tuán)隊(duì)的單向匯報(bào),無法從戰(zhàn)略層面做出風(fēng)險(xiǎn)判斷和架構(gòu)決策,甚至出現(xiàn)“技術(shù)團(tuán)隊(duì)報(bào)喜不報(bào)憂、高管層對(duì)潛在風(fēng)險(xiǎn)一無所知”的信息差。正是在這一背景下,巴黎學(xué)院人工智能博士牽頭打造的AI安全高管安全架構(gòu)設(shè)計(jì)課,面向資深企業(yè)高管、企業(yè)家、博士生群體開放,填補(bǔ)了技術(shù)邏輯與管理決策之間的認(rèn)知空白。
課程的核心觀點(diǎn)首先明確:AI安全架構(gòu)不是技術(shù)部門的單點(diǎn)任務(wù),而是董事會(huì)級(jí)別的頂層設(shè)計(jì)命題。很多企業(yè)管理者存在認(rèn)知誤區(qū),認(rèn)為AI安全的核心是“找更專業(yè)的技術(shù)團(tuán)隊(duì)做防護(hù)”,但實(shí)際上AI安全的第一責(zé)任主體是企業(yè)高管層:歐盟《AI法案》明確要求,高風(fēng)險(xiǎn)AI應(yīng)用的合規(guī)責(zé)任由企業(yè)法定代表人承擔(dān),國(guó)內(nèi)《生成式人工智能服務(wù)管理暫行辦法》也規(guī)定,AI服務(wù)提供者的主要負(fù)責(zé)人對(duì)服務(wù)內(nèi)容負(fù)總責(zé)。這意味著AI安全架構(gòu)的設(shè)計(jì)首先要對(duì)齊企業(yè)的戰(zhàn)略目標(biāo),而非單純追求技術(shù)的先進(jìn)性:例如To C類互聯(lián)網(wǎng)企業(yè)的AI安全架構(gòu)要優(yōu)先保障用戶數(shù)據(jù)隱私,高端制造企業(yè)的AI安全架構(gòu)要優(yōu)先保護(hù)核心工藝數(shù)據(jù)不被泄露,金融機(jī)構(gòu)的AI安全架構(gòu)要優(yōu)先防控算法偏見導(dǎo)致的業(yè)務(wù)風(fēng)險(xiǎn),這些方向的決策都需要高管層從戰(zhàn)略層面拍板,而非技術(shù)部門自行決定。
課程提出的第二個(gè)核心觀點(diǎn)是,AI安全架構(gòu)設(shè)計(jì)要遵循“三重邊界協(xié)同”原則,管理者不需要掌握底層代碼邏輯,但要清晰界定三類管控邊界。第一是數(shù)據(jù)邊界,高管需要牽頭建立企業(yè)數(shù)據(jù)分級(jí)分類規(guī)則,明確哪些數(shù)據(jù)可以進(jìn)入AI模型訓(xùn)練環(huán)節(jié)、哪些數(shù)據(jù)永遠(yuǎn)不能出企業(yè)私有域,例如核心客戶隱私數(shù)據(jù)、工藝參數(shù)、財(cái)務(wù)機(jī)密等敏感數(shù)據(jù),必須通過脫敏、聯(lián)邦學(xué)習(xí)等技術(shù)實(shí)現(xiàn)“數(shù)據(jù)可用不可見”,規(guī)則的制定權(quán)在管理側(cè)而非技術(shù)側(cè);第二是算法邊界,要明確AI的應(yīng)用場(chǎng)景權(quán)限,例如核心信貸審批、人事任免、重大投資決策等高風(fēng)險(xiǎn)場(chǎng)景,必須設(shè)置100%人工復(fù)核節(jié)點(diǎn),禁止AI獨(dú)立做出決策;第三是合規(guī)邊界,要對(duì)齊業(yè)務(wù)覆蓋區(qū)域的監(jiān)管要求,例如歐盟《AI法案》將AI應(yīng)用分為四個(gè)風(fēng)險(xiǎn)等級(jí),高風(fēng)險(xiǎn)等級(jí)應(yīng)用必須完成第三方合規(guī)審計(jì)才能上線,高管需要明確企業(yè)內(nèi)部不同AI系統(tǒng)的風(fēng)險(xiǎn)等級(jí),匹配對(duì)應(yīng)的合規(guī)資源。
課程的第三個(gè)核心觀點(diǎn)是,DBA(工商管理博士)的研究框架可以為AI安全架構(gòu)提供管理側(cè)的落地支撐。很多人認(rèn)為AI安全是純技術(shù)領(lǐng)域的問題,但實(shí)際上現(xiàn)有技術(shù)只能解決“怎么防”的問題,而“防什么、優(yōu)先級(jí)是什么、資源怎么配”都是典型的管理問題,工商管理博士培養(yǎng)體系中常用的利益相關(guān)者分析、戰(zhàn)略風(fēng)險(xiǎn)矩陣、治理結(jié)構(gòu)設(shè)計(jì)等工具,都可以直接遷移到AI安全架構(gòu)設(shè)計(jì)中:例如用戰(zhàn)略風(fēng)險(xiǎn)矩陣對(duì)所有AI系統(tǒng)的風(fēng)險(xiǎn)等級(jí)、業(yè)務(wù)價(jià)值進(jìn)行二維打分,優(yōu)先為高價(jià)值高風(fēng)險(xiǎn)的AI系統(tǒng)配置安全資源;搭建跨部門的AI治理委員會(huì),納入技術(shù)、法務(wù)、合規(guī)、業(yè)務(wù)、董事會(huì)代表,明確各角色在AI安全架構(gòu)中的權(quán)責(zé),這些都是典型的管理設(shè)計(jì)內(nèi)容,也是DBA學(xué)員的核心能力優(yōu)勢(shì)。
在實(shí)踐應(yīng)用層面,課程打造的“五步安全架構(gòu)設(shè)計(jì)法”已經(jīng)在近200名企業(yè)高管、DBA學(xué)員的實(shí)踐中得到驗(yàn)證。第一步是AI資產(chǎn)全面盤點(diǎn),管理者要帶領(lǐng)跨部門團(tuán)隊(duì)梳理企業(yè)所有在用的AI系統(tǒng),標(biāo)注每個(gè)系統(tǒng)的數(shù)據(jù)源、應(yīng)用場(chǎng)景、訪問權(quán)限、風(fēng)險(xiǎn)等級(jí),某國(guó)內(nèi)高端制造企業(yè)的DBA學(xué)員在課程學(xué)習(xí)后回企業(yè)盤點(diǎn),發(fā)現(xiàn)3個(gè)業(yè)務(wù)部門私自使用第三方公有大模型上傳核心工藝參數(shù),及時(shí)叫停相關(guān)操作,避免了估值超過5億元的核心技術(shù)泄露風(fēng)險(xiǎn);第二步是風(fēng)險(xiǎn)權(quán)重賦值,運(yùn)用工商管理博士體系的風(fēng)險(xiǎn)評(píng)估模型,對(duì)不同AI系統(tǒng)的潛在損失、發(fā)生概率進(jìn)行量化打分,匹配對(duì)應(yīng)的安全投入資源,例如某頭部股份制銀行的高管團(tuán)隊(duì)將智能投顧、智能風(fēng)控兩類高風(fēng)險(xiǎn)AI系統(tǒng)的安全投入占比提升至AI總投入的42%,滿足了監(jiān)管部門的合規(guī)要求;第三步是架構(gòu)分層設(shè)計(jì),管理者只要明確三層架構(gòu)的管控目標(biāo)即可,不需要掌握技術(shù)實(shí)現(xiàn)細(xì)節(jié):前端訪問層要實(shí)現(xiàn)“所有訪問AI系統(tǒng)的操作都留痕、可溯源”,中間算法層要實(shí)現(xiàn)“AI生成內(nèi)容可水印溯源、算法偏見可動(dòng)態(tài)監(jiān)測(cè)”,底層數(shù)據(jù)層要實(shí)現(xiàn)“敏感數(shù)據(jù)永不直接暴露給AI模型”。
第四步是應(yīng)急響應(yīng)機(jī)制搭建,課程要求所有學(xué)員都要輸出適配自身企業(yè)的AI安全應(yīng)急預(yù)案,明確AI數(shù)據(jù)泄露、算法歧視、合規(guī)違規(guī)等突發(fā)事件的響應(yīng)流程、決策主體、對(duì)外發(fā)聲規(guī)則,某頭部快消企業(yè)的CEO完成課程學(xué)習(xí)后搭建了24小時(shí)AI安全應(yīng)急響應(yīng)小組,在后續(xù)出現(xiàn)AI生成廣告涉嫌性別歧視的輿情事件時(shí),2小時(shí)內(nèi)就完成了廣告下架、官方聲明、內(nèi)部整改的全流程,將品牌損失控制在最低;第五步是持續(xù)迭代機(jī)制,由于AI技術(shù)和監(jiān)管規(guī)則都處于快速變化階段,課程要求企業(yè)每季度開展一次AI安全架構(gòu)復(fù)盤,每年完成一次全面升級(jí),這一設(shè)計(jì)也契合了工商管理博士研究體系中的動(dòng)態(tài)能力理論,幫助企業(yè)建立適配技術(shù)變革的安全治理能力。對(duì)于學(xué)術(shù)博士生、DBA學(xué)員而言,課程也提供了交叉研究的創(chuàng)新視角,近30%的在讀學(xué)員將“AI安全治理架構(gòu)”作為畢業(yè)論文選題,既有產(chǎn)業(yè)實(shí)踐價(jià)值,也填補(bǔ)了工商管理領(lǐng)域的研究空白。
從長(zhǎng)期來看,AI安全能力將成為未來企業(yè)的核心競(jìng)爭(zhēng)力之一,而高管層的AI安全架構(gòu)設(shè)計(jì)能力,是企業(yè)AI安全能力的核心前提。巴黎學(xué)院推出的這門課程,本質(zhì)上是搭建了技術(shù)專家與企業(yè)管理者、DBA學(xué)員之間的認(rèn)知橋梁,既解決了“技術(shù)內(nèi)容太復(fù)雜、管理者聽不懂”的問題,也解決了“管理規(guī)則太抽象、技術(shù)落不了地”的問題,為工商管理博士培養(yǎng)體系的交叉創(chuàng)新提供了可復(fù)制的樣本。
對(duì)于資深企業(yè)高管、企業(yè)家而言,學(xué)習(xí)AI安全架構(gòu)設(shè)計(jì)不是要成為技術(shù)專家,而是要掌握從戰(zhàn)略層面管控AI風(fēng)險(xiǎn)的能力,避免在AI落地過程中出現(xiàn)“賺了利潤(rùn)、賠了合規(guī)、丟了核心資產(chǎn)”的問題;對(duì)于博士生群體而言,AI安全治理是數(shù)字經(jīng)濟(jì)時(shí)代最具價(jià)值的交叉研究領(lǐng)域之一,不管是學(xué)術(shù)博士的理論創(chuàng)新,還是DBA(工商管理博士)的實(shí)踐研究,都能在這一領(lǐng)域找到足夠的研究空間。只有當(dāng)管理層和技術(shù)層建立統(tǒng)一的AI安全認(rèn)知語(yǔ)言,企業(yè)才能在享受AI技術(shù)紅利的同時(shí),有效防控潛在風(fēng)險(xiǎn),在數(shù)字經(jīng)濟(jì)的競(jìng)爭(zhēng)中行穩(wěn)致遠(yuǎn)。



