今年政府工作報告強(qiáng)調(diào),制定支持?jǐn)?shù)字經(jīng)濟(jì)高質(zhì)量發(fā)展政策,積極推進(jìn)數(shù)字產(chǎn)業(yè)化、產(chǎn)業(yè)數(shù)字化,促進(jìn)數(shù)字技術(shù)和實(shí)體經(jīng)濟(jì)深度融合。其中,“人工智能+”行動提出了以生成式人工智能為代表的人工智能技術(shù)即將加速落地各行各業(yè),催生垂直行業(yè)的新質(zhì)生產(chǎn)力。
生成式人工智能技術(shù)是發(fā)展新質(zhì)生產(chǎn)力的重要引擎。作為新興數(shù)字技術(shù),人工智能體現(xiàn)出了更高的自主性與擬真性,也同時帶來了運(yùn)行過程的不透明性與數(shù)據(jù)收集的規(guī)模性,成為垂直行業(yè)數(shù)字化、人工智能化的風(fēng)險隱患。進(jìn)一步推動人工智能技術(shù)的行業(yè)落地應(yīng)用,尤其是醫(yī)療、金融、政府治理、自動駕駛等高風(fēng)險行業(yè)領(lǐng)域,應(yīng)當(dāng)著重突破數(shù)據(jù)隱私保護(hù)、模型可解釋性兩大瓶頸,借負(fù)責(zé)任的人工智能來賦能更廣泛的垂直行業(yè)。
“人工智能+”行動的落地依靠實(shí)體經(jīng)濟(jì)、傳統(tǒng)產(chǎn)業(yè)的人工智能化,以期實(shí)現(xiàn)行業(yè)顛覆式創(chuàng)新,鍛造行業(yè)發(fā)展新動能。目前的大語言模型人工智能技術(shù)在訓(xùn)練、部署、應(yīng)用的過程中,將不可避免地接觸到涉及公民個人隱私、企業(yè)核心信息的數(shù)據(jù)。聚焦到具體使用場景,個人與企業(yè)在提問端、回答端、訓(xùn)練端、存儲端全鏈條均存在隱私泄露隱患。例如,用戶在不知情情況下向大模型誤傳個人或非公開信息,聊天記錄裹挾敏感數(shù)據(jù)被儲存并面臨網(wǎng)絡(luò)攻擊風(fēng)險,若大模型將其用于進(jìn)一步訓(xùn)練,敏感數(shù)據(jù)還有可能受到大模型“幻覺”的影響,出現(xiàn)在其他用戶的對話回答中。而對于金融、政府治理等低容錯率、高信任要求的行業(yè)來說,恰恰要求對全部環(huán)節(jié)的風(fēng)險做到“零容忍”。
解決人工智能技術(shù)隱私風(fēng)險問題,大模型的通用屬性有時候反而會產(chǎn)生一些問題,未來產(chǎn)業(yè)發(fā)展應(yīng)當(dāng)著重發(fā)力人工智能大模型私有化部署,提供更高的數(shù)據(jù)安全性與隱私保護(hù),獲得更加定制化人工智能應(yīng)用的同時,也能夠避免非公開數(shù)據(jù)外流。技術(shù)發(fā)展方面,要構(gòu)建形成數(shù)據(jù)存儲安全、數(shù)據(jù)使用合規(guī)、數(shù)據(jù)流向透明的負(fù)責(zé)任的人工智能技術(shù),加快政策法規(guī)落地實(shí)施。數(shù)據(jù)進(jìn)入模型訓(xùn)練前,嚴(yán)格執(zhí)行數(shù)據(jù)加密協(xié)議并做好密鑰管理策略,利用匿名化處理技術(shù)完成數(shù)據(jù)脫敏,重點(diǎn)把關(guān)數(shù)據(jù)訪問控制。針對重點(diǎn)行業(yè)模型落地,優(yōu)先考慮本地私有化部署方案,以滿足企業(yè)數(shù)據(jù)治理與監(jiān)管責(zé)任落實(shí)的要求。一旦高敏感數(shù)據(jù)混入大語言模型,大模型應(yīng)當(dāng)有能力“刪除”或“遺忘”特定數(shù)據(jù)特征,未來人工智能技術(shù)研發(fā)亟須落實(shí)數(shù)據(jù)“刪除”義務(wù),把握對惡劣突發(fā)事件及時處置、消除影響的能力。
人工智能技術(shù)落地垂直行業(yè)的另一大挑戰(zhàn)是可解釋性問題,隨著模型參數(shù)和深度的爆炸式增長,模型的決策過程成為難以解釋的“算法黑箱”??山忉屝允谴蛟炜煽俊⒖尚?、公平、安全的負(fù)責(zé)任的人工智能技術(shù)的基礎(chǔ)支撐,也是人工智能技術(shù)進(jìn)入更廣泛行業(yè)的先決條件。一方面,人工智能技術(shù)的落地需要更好的審計路徑和問責(zé)機(jī)制,自動駕駛汽車的故障為何產(chǎn)生,醫(yī)療診斷決策的步驟是什么,回答好這些問題才能破除公眾和企業(yè)對人工智能產(chǎn)品的懷疑和不信任。另一方面,人工智能大模型已經(jīng)展現(xiàn)出許多前所未有的能力,包括思維推理、上下文學(xué)習(xí)、指令遵循等,打開能力背后成因和機(jī)制的“黑箱”,也是推動人工智能技術(shù)向高水平躍升的重要路徑。
形成可解釋性人工智能,應(yīng)當(dāng)從人工智能的全生命周期入手,突破模型設(shè)計、垂直應(yīng)用部署、模型效果評估階段的關(guān)鍵問題。模型設(shè)計上,針對簡單模型,采用決策樹等自身較為透明清晰的架構(gòu),針對復(fù)雜的深度學(xué)習(xí)模型,嘗試用代理模型提供模型解釋,進(jìn)一步幫助用戶理解輸入的特征是如何影響模型決策的;垂直應(yīng)用部署時,利用可解釋性增強(qiáng)工具提高模型透明度,并提供決策過程的詳細(xì)記錄和解釋。使用相關(guān)方法計算每個特征對結(jié)果的貢獻(xiàn)度;模型效果評估時,亟須建立超越定性評估的量化解釋方法,統(tǒng)籌考慮模型性能、覆蓋率、忠實(shí)度等指標(biāo),最大化降低模型落地后的監(jiān)管審計風(fēng)險。
分享到微信 ×
打開微信,點(diǎn)擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。