每日經濟新聞 2025-07-28 21:48:59
2025世界人工智能大會期間,德勤科技、媒體、電信行業主管合伙人程中接受記者專訪時表示,生成式AI治理需人員、流程、技術三者協同。企業AI化重構需經歷四個階段,面臨價值量化難、路徑依賴等陣痛。程中建議通過“輕架構、軟集成、分布式演進”實現AI架構升級,并構建多層防線應對AI幻覺。對于高風險場景,需構建幻覺熔斷機制。
每經記者|張韻 每經編輯|魏官紅
“在生成式AI(人工智能)的熱潮下,價值挖掘與風險防控的失衡已成為企業必須跨越的鴻溝。”“2025世界人工智能大會”期間,德勤中國提出,技術狂奔與風險管理的落差,本質是傳統框架難以適配新變量。
如何讓生成式AI的潛力真正轉化為可持續的商業價值?德勤科技、媒體、電信行業主管合伙人程中在接受《每日經濟新聞》記者(以下簡稱NBD)專訪時表示,生成式AI治理并非是可暫緩的選項,企業須盡快行動起來。人員上明確權責、提升素養,流程上貫穿全生命周期控險合規,技術上借平臺破解黑箱難題,三者協同才能在競爭中占據主動。
“過去一年,我們看到一種趨勢:企業已從追問要不要做生成式AI,轉向如何做得更好。”程中認為,真正的競爭在于誰能更快將技術轉化為業務流程的實際增效,其中,聚焦至關重要,需優先投資可驗證回報的實際案例。
德勤科技、媒體、電信行業主管合伙人程中
圖片來源:企業供圖
NBD:在企業的AI化重構過程中,推動AI邁向真正能被財務報表驗證的ROI(投資回報率)閉環需要經歷怎樣的陣痛期?
程中:AI化重構過程通常有四個階段。企業起初需要建立AI戰略愿景,這個時候,管理層對AI的ROI預期與實際存在較大落差,且各部門多為自發推進項目,缺乏統一的方向與協同機制。
到了試點探索階段,企業會通過小范圍試點來驗證AI在具體場景的可行性與效率提升潛力,但存在“價值量化難”的問題。同時,IT(信息技術)部門與業務部門協作不暢,模型部署與業務流程嵌入脫節。
接下來企業會將AI深度嵌入核心業務流程,此時業務團隊容易對傳統流程產生路徑依賴,導致對AI決策的信任度不足。
最后才是財務映射階段,企業建立起AI投資與財務指標的直接關聯。當然這個時候,企業仍會面臨陣痛,比如AI帶來的客戶滿意度提升等間接收益難以量化入賬。
NBD:面對企業舊系統改造的高成本,是否有輕量化方案實現整體的AI架構升級?企業現有AI投資應該如何規避技術路線顛覆帶來的成本風險?
程中:多數傳統企業面臨遺留系統復雜、預算有限、AI人才缺乏等挑戰,可通過“輕架構、軟集成、分布式演進”實現AI架構升級。
所謂輕架構是將AI能力封裝為API服務,降低對核心系統的重構壓力;軟集成是采用智能體、RPA(機器人流程自動化)與AI協同工具,將AI接入現有流程而非替代流程;分布式演進則是聚焦高ROI、高數據成熟度的場景(如客服、報告生成、供應鏈預測)優先落地,而非追求一次性全流程打通。
為規避技術路線顛覆帶來的成本風險,建議企業對現有AI投資保持技術選型的靈活性,提前布局新興技術,具備快速切換技術路線的能力。此外,通過與技術供應商簽訂靈活合同,約定技術升級、維護責任,也可降低技術路線變更成本。
NBD:在流程中嵌入AI后,企業的日常決策如何擺脫大模型幻覺帶來的負面影響?您認為最該優先解決哪類幻覺?德勤如何幫助企業量化幻覺導致的隱性成本?
程中:“幻覺”表現為輸出流暢但存在事實錯誤或邏輯不嚴謹,可能損害業務判斷和合規性。德勤提出的“可信人工智能框架”建議企業構建多層防線,比如明確人工審核角色,設置結構化事實核查環節,建立留痕和持續學習機制。
我們認為,最優先應解決的是結構性幻覺。這類幻覺常出現在AI輸出表格、圖表、摘要、數據分析結果時,表面上看邏輯清晰、格式整齊,但基礎數據虛構、推理鏈條斷裂,極易誤導決策者,風險高于開放式文本幻覺。
正如你所說,幻覺帶來的成本具有“隱形特征”,會產生客戶被誤導、運營錯誤、內容重復勞動,乃至聲譽或法律風險的嚴重后果。要量化這些隱形成本,可以通過評估模型輸出準確率、重復率等指標;用實際運營數據建模潛在影響;核算重工成本的時間和人效損失,形成ROI對比分析。
NBD:具體到醫療診斷、金融合規、司法文書等容錯率近零的場景,該如何降低AI風險?
程中:我們建議通過系統性手段構建幻覺熔斷機制,確保AI輸出不直接用于高風險決策。技術路線選擇需滿足“確定性+可控性”,建議優先采用小模型與專家規則的混合架構,尤其在法律、合規等規則明確領域,其可靠性優于黑箱大模型。另外,用行業領域數據對模型微調,并對接專屬知識庫,可以提升輸出準確率與可解釋性。技術選型時必須具備詳細日志能力,支持模型輸出可追溯與責任歸因。
圖片來源:企業供圖
NBD:當發展AI智能體提高到了企業的戰略高度,董事會應該如何驅動員工更好地訓練與應用智能體?對于媒體部署AI智能體完成基礎寫稿任務,您會提出怎樣的風險警示與戰略路線?
程中:我們建議董事會重新定義“人機”的價值邊界,強調AI智能體是“增強工具”而非“替代者”,提供培訓與獎勵。比如,在媒體行業中,讓編輯參與智能體的Prompt調教、內容審核和標準制定,也要注意設置“AI使用紅線”,如敏感內容必須通過人工審核。
當前,AI寫稿仍存在缺乏深度、事實偏差、版權糾紛、輿論爭議等風險,在戰略選擇上,建議先用于基礎場景,如資訊、數據稿等,然后對AI智能體進行針對性訓練,利用自有數據提升其對媒體風格、內容要求的適應性,采用“試驗沙盒+反饋閉環”機制,從低風險場景逐步拓展,在應用中持續優化,使AI智能體逐步成為團隊的可靠協作伙伴。
NBD:當董事會要求徹底消除幻覺并破解黑箱難題,您會如何做出建議?您認為有效的AI治理范式應該如何進行?
程中:我認為,要消除幻覺并破解黑箱難題,企業不僅要明確AI使用邊界,還要提升技術的透明性與可解釋性,將AI治理運營化。
有效的AI治理范式應該是從被動到主動的轉變,如在戰略層面,制定清晰的AI發展戰略與目標,明確AI在企業中的定位與作用;在組織層面,設立專門的AI治理團隊,負責監督AI應用合規性、風險管理等;在技術層面,采用可解釋AI技術、數據治理工具,保障AI系統透明、可控;在文化層面,培養員工AI素養,樹立正確使用AI的意識與態度。
NBD:多數企業仍將AI安全視為負擔,如何破解這種思維慣性?安全投入在直接驅動營收時有怎樣的具體表現?
程中:與將AI簡單疊加于遺留系統的零散方案不同,首先企業應該構建統一架構,使AI成為核心支柱,并在各流程中整合治理模型。德勤藍圖可以幫助企業有效完成網絡戰略與企業AI轉型的協同規劃,企業也要建設AI驅動的網絡安全團隊,提升團隊與AI工具的協作能力。
保障數據安全可防止因數據泄露導致的客戶流失,維持甚至增加營收。滿足合規要求,企業能避免巨額罰款,確保業務正常開展。安全可靠的AI系統可提升客戶滿意度與忠誠度,促進客戶復購與口碑傳播,間接增加營收。
在實踐中,某金融服務公司將AI集成到網絡安全架構,實現威脅檢測自動化,事件響應時間減少60%;某制造企業通過德勤治理框架,減少40%的停機時間,生產效率提升直接帶動營收增長。
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP