21世紀(jì)經(jīng)濟(jì)報(bào)道見習(xí)記者肖瀟 實(shí)習(xí)生劉悅行 北京報(bào)道
一項(xiàng)難以解釋、不被理解的科技,人們能信任它嗎?
答案有些反直覺:也許能。
在普遍認(rèn)知中,信任的基礎(chǔ)是可解釋、可理解。但在漫長(zhǎng)的技術(shù)史中,對(duì)大多數(shù)科技產(chǎn)品的信任往往并不取決于信息披露——想想電梯、電視、電腦,普通人不需要完全理解這些技術(shù)的邏輯,也能放心使用。
人工智能技術(shù)在過(guò)去一年突飛猛進(jìn),“算法黑箱”始終是縈繞人工智能的一大困擾,透明度、可解釋性已經(jīng)成為人工智能治理的共同原則。2023年11月,世界互聯(lián)網(wǎng)大會(huì)發(fā)布《發(fā)展負(fù)責(zé)任的生成式人工智能共識(shí)》,第六條共識(shí)就是增強(qiáng)生成式人工智能系統(tǒng)的透明度與可解釋性。
對(duì)于人工智能,為什么強(qiáng)調(diào)透明度和可解釋性?二者有什么關(guān)系?應(yīng)該為此設(shè)立怎樣的監(jiān)管護(hù)欄?
12月18日,由中國(guó)社會(huì)科學(xué)院法學(xué)研究所主辦,南財(cái)合規(guī)科技研究院承辦的“人工智能安全風(fēng)險(xiǎn)和法律規(guī)制研討會(huì)”在北京舉行,專家代表就人工智能的透明度和可解釋性,提出了多種思考視角。各界代表指出,考慮到非比尋常的計(jì)算量級(jí),人工智能的可解釋性難度大。因此在制度設(shè)計(jì)上,針對(duì)需要保護(hù)個(gè)人權(quán)益的用戶、需要問(wèn)責(zé)的監(jiān)管機(jī)構(gòu),應(yīng)將透明度和可解釋性分情景討論。提出具體要求時(shí),需要尤其注意數(shù)據(jù)安全、知識(shí)產(chǎn)權(quán)保護(hù)問(wèn)題。
可解釋性是提高透明度的前提和手段中國(guó)人民公安大學(xué)數(shù)據(jù)法學(xué)研究院院長(zhǎng)、法學(xué)院教授蘇宇首先指出,可解釋性一詞來(lái)自兩個(gè)方面:一是“可詮釋的機(jī)器學(xué)習(xí)”中的“可詮釋”(interpretable),二是“可解釋的人工智能”中的“可解釋”(explainable)。
當(dāng)下的人工智能治理要求中,通常采用的是“可解釋”。
可解釋性和透明度有什么關(guān)系?南財(cái)合規(guī)科技研究院首席研究員、21世紀(jì)經(jīng)濟(jì)報(bào)道合規(guī)新聞部副主任王俊分析,人工智能模型的可解釋性是提高透明度的前提和手段,也是影響透明度的重要因素。簡(jiǎn)單來(lái)說(shuō),算法設(shè)計(jì)完成時(shí),可解釋性程度就已基本確定,但此刻透明度仍然接近于零——需要通過(guò)事后的披露、解釋和說(shuō)明工作,才能滿足透明度的要求。
王俊進(jìn)一步解釋,這是因?yàn)?strong style="color: blue;">可解釋性是算法模型的客觀屬性,即某一算法在技術(shù)架構(gòu)上是否具備了作算法解釋的條件;而透明度需要結(jié)合算法運(yùn)行的客觀結(jié)果和用戶的主觀預(yù)期,也就是解釋算法決策的內(nèi)在邏輯,特定因素在其中的實(shí)際影響力,讓其結(jié)果符合用戶的主觀認(rèn)知和預(yù)期。
“人工智能的決策空間會(huì)越來(lái)越大,未來(lái)我們不可避免跟人工智能打交道。透明度和可解釋性是保障人工智能系統(tǒng)可信的關(guān)鍵,也是落實(shí)我們每個(gè)人主體權(quán)利的重要一環(huán)。”王俊表示。
人工智能可解釋嗎?在實(shí)踐層面,關(guān)于人工智能透明度和可解釋性的情況并不樂觀。斯坦福大學(xué)于10月18日發(fā)布的研究的“基礎(chǔ)模型透明指數(shù)”,對(duì)10家主要的人工智能公司進(jìn)行排名。得分最高的是臉書母公司Meta Platforms推出的人工智能模型“Llama 2”,但得分僅有54%,而OpenAI的GPT-4排名第三,得分為48%。
中國(guó)移動(dòng)研究院法務(wù)管理主管郝克勤認(rèn)為,目前的挑戰(zhàn)來(lái)自算法安全。“為了規(guī)避系統(tǒng)和算法被惡意利用和操控的風(fēng)險(xiǎn),有必要對(duì)算法的運(yùn)行保持最低水平的不透明度,雖然可能有損可解釋性,但是確保人工智能的安全性。而且從實(shí)際效果來(lái)看,模型的透明度會(huì)犧牲其有效性和準(zhǔn)確性為代價(jià),同時(shí)由于存在實(shí)際理解層面的偏差及算法的內(nèi)部邏輯的描述難度,不合理的算法公開反而會(huì)適得其反,增強(qiáng)用戶不信任感。”此外,“代碼的披露以及知識(shí)產(chǎn)權(quán)安全等角度同樣面臨風(fēng)險(xiǎn),可能泄露人工智能模型和工作機(jī)制等商業(yè)敏感材料,或者不恰當(dāng)?shù)嘏队脩魝€(gè)人數(shù)據(jù)信息。”
郝克勤也指出,最大的挑戰(zhàn)其實(shí)還是人工智能難以解釋。算法內(nèi)在邏輯非常復(fù)雜,怎樣把技術(shù)術(shù)語(yǔ)描述成大眾和監(jiān)管部門理解的內(nèi)容有很大困難,很難向用戶解釋實(shí)現(xiàn)自動(dòng)化的決策過(guò)程。
王俊同樣認(rèn)為,人工智能的可解釋性是一道難題:“有學(xué)者認(rèn)為,不可解釋性本身就是人工智能的一種特性。而且,人類的思維是因果關(guān)系,但機(jī)器學(xué)習(xí)大部分是相關(guān)關(guān)系,向公眾解釋這一過(guò)程很難。”
而對(duì)于透明度,王俊則認(rèn)為過(guò)于寬泛的范圍會(huì)使公眾無(wú)法理解。此外,還存在義務(wù)范圍難以界定、人工智能研發(fā)者和提供者的合規(guī)成本難擔(dān)等一系列問(wèn)題。
拿透明度的制度設(shè)計(jì)來(lái)說(shuō),不同的主體和專業(yè)能力不一樣,透明度的標(biāo)準(zhǔn)也不盡相同。透明度的顆粒度也是一道難題。以隱私政策為例,過(guò)于冗長(zhǎng)、細(xì)致的隱私政策,對(duì)普通用戶往往是一種負(fù)擔(dān),甚至?xí)璧K用戶進(jìn)一步理解實(shí)際個(gè)人信息收集情況。“如果透明度顆粒度太細(xì),一定程度上就把責(zé)任和負(fù)擔(dān)轉(zhuǎn)嫁給了公眾。”王俊指出。
值得注意的是,人工智能的透明度和可解釋性,和個(gè)人信息保護(hù)法下的透明度和可解釋性可能有不同含義。對(duì)外經(jīng)濟(jì)貿(mào)易大學(xué)法學(xué)院教授許可認(rèn)為,個(gè)人信息保護(hù)法圍繞個(gè)人的人格利益展開,但“不是所有的人工智能都與個(gè)人信息有關(guān)。”此外,從宏觀視角看待人工智能的可解釋性和透明度,許可認(rèn)為可以將其統(tǒng)一理解為信息規(guī)制的工具,以信息披露的方式解決人工智能的種種問(wèn)題。
可解釋性和透明度通向何方?法律、監(jiān)管政策中關(guān)于透明度與可解釋性的條款眾多、由來(lái)已久。當(dāng)?shù)貢r(shí)間12月8日,歐盟就全球首個(gè)全面監(jiān)管AI的《人工智能法案》達(dá)成臨時(shí)協(xié)議,其中第13條納入了“設(shè)計(jì)透明”的原則,規(guī)定“高風(fēng)險(xiǎn)人工智能系統(tǒng)的設(shè)計(jì)和開發(fā)應(yīng)確保其操作足夠透明,以便用戶能夠理解系統(tǒng)的輸出并適當(dāng)使用它。”這意味著,在開發(fā)高風(fēng)險(xiǎn)的人工智能系統(tǒng)時(shí),應(yīng)該及早討論透明度問(wèn)題。
2023年10月,全國(guó)信息安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)發(fā)布了《生成式人工智能服務(wù)安全基本要求》(征求意見稿),對(duì)于模型安全的服務(wù)透明度方面規(guī)定,以交互界面提供服務(wù)的,應(yīng)在網(wǎng)站首頁(yè)等顯著位置向社會(huì)公開服務(wù)適用的人群、場(chǎng)合、用途等信息,和第三方基礎(chǔ)模型使用情況。
但人工智能的透明度和可解釋性仍有許多角落需要探索。
在許可看來(lái),透明度、可解釋性對(duì)解決信任問(wèn)題的作用是有限的,這是因?yàn)樵S多關(guān)于信息披露的經(jīng)濟(jì)學(xué)研究都顯示,人們有“決策厭惡”的傾向——意思是人會(huì)避免做陌生、復(fù)雜的決定。可以說(shuō),信息披露并不是產(chǎn)生信賴的關(guān)鍵要素,它的目的應(yīng)該是讓人工智能更負(fù)責(zé)任。
許可解釋,責(zé)任首先面向用戶,除了普遍性的信息披露,如果發(fā)生個(gè)人侵權(quán)事件,可以要求人工智能的解釋承擔(dān)基于個(gè)案的證明責(zé)任。另一種責(zé)任則面向監(jiān)管者,旨在完善問(wèn)責(zé)機(jī)制。“中國(guó)之前的行政監(jiān)管經(jīng)驗(yàn),比如算法備案、算法評(píng)估,實(shí)際上都起到了固定信息的作用。目的是如果事后出現(xiàn)問(wèn)題,能夠追究責(zé)任,而且后續(xù)的檢查都在這個(gè)框架中展開。”許可認(rèn)為,透明度和可解釋性應(yīng)該放置于信息披露的制度框架中,核心是面向監(jiān)管機(jī)關(guān)的信息披露。
蘇宇則認(rèn)為,如何解釋應(yīng)該分情景討論。對(duì)于面向一般公眾的常規(guī)情景,提供基本文字說(shuō)明的軟解釋即可,現(xiàn)有實(shí)踐包括字節(jié)跳動(dòng)、美團(tuán)旗下產(chǎn)品的算法說(shuō)明;對(duì)于專業(yè)使用場(chǎng)景,應(yīng)該提供混合解釋。頂尖人工智能圍棋軟件就提供了一個(gè)很好的示范,下哪一步棋、每步棋的預(yù)測(cè)勝率、大致的預(yù)測(cè)依據(jù),都有清晰的可視化解釋,能夠?qū)I(yè)術(shù)語(yǔ)翻譯為通俗易懂的語(yǔ)言。
更深層次的問(wèn)責(zé)問(wèn)題,則是另一種情況。在這種情況下,需要以數(shù)值化、計(jì)量化的方式,可靠地披露算法模型中人們關(guān)心的某一個(gè)或某一組輸入對(duì)輸出的影響,也就是提供“硬解釋”。蘇宇坦言,人工智能計(jì)算量級(jí)巨大,可能難以實(shí)現(xiàn)算法解釋義務(wù),但“可以提出架構(gòu)透明的要求,不一定所有算法設(shè)計(jì)都公開,但起碼披露出大概架構(gòu)。架構(gòu)透明的基礎(chǔ)下,再針對(duì)權(quán)益保障和法律爭(zhēng)議問(wèn)題,提供混合解釋或者硬解釋,以此保護(hù)不同場(chǎng)景下的合法權(quán)益。”
此外,業(yè)界、學(xué)界代表都認(rèn)同透明度和可解釋性應(yīng)分不同維度。郝克勤就提到,維度可以是不同主體,比如分成需要保護(hù)個(gè)人權(quán)益的用戶、需要維護(hù)安全的監(jiān)管機(jī)構(gòu);也可以是不同行業(yè),比如按行業(yè)監(jiān)管要求,分為自動(dòng)駕駛、醫(yī)療、新聞?lì)I(lǐng)域等等。
值得一提的是,自愿激勵(lì)、第三方治理的方式是多方認(rèn)可的路徑。許可建議參考企業(yè)ESG認(rèn)證,鼓勵(lì)市場(chǎng)化的專業(yè)測(cè)評(píng)、認(rèn)證機(jī)構(gòu)。而企業(yè)合規(guī)承諾書,也可以是提高用戶對(duì)人工智能系統(tǒng)信任的一大保障。
更多內(nèi)容請(qǐng)下載21財(cái)經(jīng)APP