陳永偉/文
5月1日,現(xiàn)年75歲的圖靈獎(jiǎng)得主杰弗里·辛頓(GeoffreyHinton)突然宣布從工作了十多年的谷歌離職。在辛頓宣布這一消息后不久,《紐約時(shí)報(bào)》對(duì)其進(jìn)行了專訪。令許多人意外的是,在這次訪談中,辛頓沒(méi)有表現(xiàn)出對(duì)自己所取得成績(jī)的自豪和欣慰,而是表達(dá)了巨大的悔意。
在人工智能領(lǐng)域,一直存在著嚴(yán)重的路線分歧。在很長(zhǎng)時(shí)間內(nèi),符號(hào)主義(Symboli,這個(gè)學(xué)派主張人工智能的研究應(yīng)該從基于邏輯推理的智能模擬方法模擬人的智能行為)一直是學(xué)界的主流,而辛頓所信奉的聯(lián)結(jié)主義(Con-nectioni,這個(gè)學(xué)派強(qiáng)調(diào)智能的產(chǎn)生是由大量簡(jiǎn)單的單元通過(guò)復(fù)雜的相互聯(lián)結(jié)和并行運(yùn)行)則被視為小眾甚至異端。在這樣的背景下,辛頓依然一直對(duì)自己的研究領(lǐng)域保持著積極和樂(lè)觀的心態(tài)。即使他制作的神經(jīng)網(wǎng)絡(luò)研究被一些學(xué)術(shù)權(quán)威當(dāng)面斥為一文不值,他也從來(lái)沒(méi)有改變過(guò)對(duì)自己研究的自信。1986年,他與合作者一起發(fā)表了開(kāi)創(chuàng)性的論文《通過(guò)反向傳播誤差來(lái)學(xué)習(xí)表征》。正是這一工作,為后來(lái)的深度學(xué)習(xí)革命奠定了理論基礎(chǔ)。
在進(jìn)入新世紀(jì)后,計(jì)算技術(shù)突飛猛進(jìn),深度學(xué)習(xí)所需要的算力瓶頸被突破。在強(qiáng)大算力的支持之下,這一技術(shù)表現(xiàn)出了強(qiáng)大的力量——無(wú)論是幾年前戰(zhàn)勝人類棋手的AlphaGO,還是用短短兩個(gè)月時(shí)間就成功破解了所有蛋白質(zhì)折疊結(jié)構(gòu)的AlphaFold,又或是現(xiàn)在大放異彩的GPT、Midjourney,它們的底層技術(shù)其實(shí)都來(lái)自于辛頓的貢獻(xiàn)。而在ChatGPT橫空出世的過(guò)程中,辛頓的、OpenAI的首席科學(xué)家伊爾亞·蘇茨克維(IlyaSutskever)則更是居功至偉。隨著這一切的實(shí)現(xiàn),聯(lián)結(jié)主義終于戰(zhàn)勝了符號(hào)主義,在人工智能領(lǐng)域取得了主流的地位。
按理說(shuō),經(jīng)過(guò)了這數(shù)十年的篳路藍(lán)縷,最后終于苦盡甘來(lái),辛頓對(duì)于自己的研究領(lǐng)域應(yīng)該表現(xiàn)出比以往更多的自信和樂(lè)觀才對(duì)。那么,是什么原因讓辛頓對(duì)自己的成果表現(xiàn)出了悔恨呢?
在他看來(lái),如果按照這個(gè)趨勢(shì)發(fā)展,那么原來(lái)認(rèn)為需要50年或者更久才能實(shí)現(xiàn)的強(qiáng)人工智能可能不到20年就會(huì)出現(xiàn)。如果這一天真的到來(lái)了,那么不排除出現(xiàn)AI屠戮人類、奴役人類的情形。遺憾的是,人們可能還沒(méi)有準(zhǔn)備好這一切。在闡述了這些觀點(diǎn)后,辛頓用不無(wú)尷尬的口吻對(duì)記者說(shuō):“我用這個(gè)平常的借口安慰自己:要是我沒(méi)有這么做,別人也會(huì)這么做?!?/p>
在辛頓的上述“懺悔”被報(bào)道之后,關(guān)于在AI狂飆時(shí)代,應(yīng)該如何應(yīng)對(duì)AI所產(chǎn)生的各種問(wèn)題又成為了社會(huì)熱議的話題。
遠(yuǎn)慮和近憂
AI迅速發(fā)展,然后意識(shí)覺(jué)醒,最終從人類的造物成為奴役人類的主體,這個(gè)橋段在很多科幻電影中都出現(xiàn)過(guò)。但在之前,這個(gè)橋段更多是人類的一種想象,因?yàn)榧词故鞘謽?lè)觀的學(xué)者(如《生命3.0》的作者泰格馬克)也認(rèn)為AI要超越人類,達(dá)到強(qiáng)人工智能的水平,至少要到本世紀(jì)末。然而,近半年AI領(lǐng)域的實(shí)踐卻告訴我們,人們或許是太低估了AI的發(fā)展了。過(guò)去,人們一直以創(chuàng)造性為人類獨(dú)有的能力,認(rèn)為AI雖然可以在一些機(jī)械性、重復(fù)性的工作上超越人類,但人類依然可以在文學(xué)、繪畫(huà)等需要?jiǎng)?chuàng)造性的領(lǐng)域?qū)I保持持久的優(yōu)勢(shì)。然而,幾乎是一夜之間,ChatGPT證明了AI可以比人類寫(xiě)得更快、更好;Dall-E、StableDiffusion和Midjourney證明了創(chuàng)造畫(huà)作并非是人類的專利;而AlphaFold等模型則證明了即使是在科學(xué)探索領(lǐng)域,AI也可以做得非常棒。或許AI離凌駕于人類之上只差一個(gè)讓它覺(jué)醒自我意識(shí)的機(jī)緣巧合。如果是這樣,人類的未來(lái)又會(huì)是怎么樣呢?我們將面臨的是“終結(jié)者”還是“黑客帝國(guó)”?現(xiàn)在看來(lái),這已經(jīng)不再僅僅是科幻家們需要考慮的問(wèn)題了。
當(dāng)然,相比于上面這些問(wèn)題,AI發(fā)展帶來(lái)的“近憂”似乎是更值得我們關(guān)注的。
第一,AI,尤其是最近的生成式AI的興起,正在對(duì)人們的就業(yè)造成巨大的沖擊。隨著AI的發(fā)展水平越來(lái)越高,很多原本由人類承擔(dān)的工作都可以由AI來(lái)代替。例如,OpenAI不久前發(fā)布的一篇研究報(bào)告表明,以GPT-4為代表的生成式AI將至少對(duì)80%美國(guó)勞動(dòng)力的工作產(chǎn)生沖擊,并且白領(lǐng)工人受到的沖擊更大。目前,不少企業(yè)已經(jīng)開(kāi)始用GPT取代文案工作,例如有某4A廣告公司已經(jīng)公開(kāi)宣稱自己的廣告策劃將用GPT來(lái)完成;而Midjourney和StableDiffusion的普及讓大量的插畫(huà)師下崗。頗為諷刺的是,那些大規(guī)模研發(fā)AI的大型科技企業(yè)也是AI應(yīng)用的重點(diǎn)單位,他們的老板正在用那些本公司發(fā)明的AI來(lái)取代自己的員工——其中的一些員工甚至也參與了替代他們的AI的研發(fā)。例如,IBM就在5月1日宣布,可能用AI替代7800個(gè)工作崗位,而谷歌則正在嘗試用AI取代一些初級(jí)的程序員。這些例子都表明,由AI造成的失業(yè)壓力或許是十分巨大的。
第二,是AI帶來(lái)的虛假信息和內(nèi)容的泛濫。在前幾年,一些人已經(jīng)開(kāi)始用AI合成的語(yǔ)音來(lái)從事電話詐騙活動(dòng)。而去年以來(lái),生成式AI的大爆發(fā)更是大幅降低了虛假信息的制作成本。在這種造假和識(shí)假能力嚴(yán)重失衡的狀況下,整個(gè)互聯(lián)網(wǎng),甚至整個(gè)社會(huì)上的造假活動(dòng)都大規(guī)模增加了。很多人在并非出于惡意的情況下,也會(huì)用AI制作非真實(shí)的內(nèi)容。比如,一些人會(huì)用AI生成一些搞笑的圖片或視頻,雖然他們的本意可能只是出于娛樂(lè),但在客觀上也會(huì)對(duì)很多人造成認(rèn)知上的巨大干擾。
第三,AI被一些人濫用,也給社會(huì)帶來(lái)了很大的威脅。在目前這個(gè)階段,AI主要還是一個(gè)工具,會(huì)根據(jù)人的指令去精確地完成各種任務(wù)。比如,目前的無(wú)人機(jī)在AI的指導(dǎo)之下已經(jīng)可以非常精準(zhǔn)地?fù)糁心繕?biāo)。如果這種技術(shù)的應(yīng)用僅局限在上,那么它固然可以減少不必要的軍事人員消耗,也可以減少大規(guī)模破壞帶來(lái)的額外損失,但如果類似的技術(shù)被一些不法分子掌握,那它們就可能會(huì)成為公共安全的巨大威脅。
第四,AI引發(fā)的數(shù)據(jù)、隱私、知識(shí)產(chǎn)權(quán)等問(wèn)題也十分引人關(guān)注??偟膩?lái)說(shuō),最近幾年的AI進(jìn)步主要是由機(jī)器學(xué)習(xí)(或者更確切的說(shuō),是機(jī)器學(xué)習(xí)中的深度學(xué)習(xí))所推動(dòng)的。為了訓(xùn)練出強(qiáng)大的機(jī)器學(xué)習(xí)模型,就需要給AI“喂”海量的數(shù)據(jù)。通常來(lái)說(shuō),數(shù)據(jù)量的規(guī)模越大,模型的性能也就越好——甚至有研究表明,相比于算法的改進(jìn)來(lái)說(shuō),數(shù)據(jù)量的增加對(duì)于提升模型的性能所起的作用要更大。而在開(kāi)發(fā)者搜集的數(shù)據(jù)中,就可能包括帶有個(gè)人信息或行為軌跡的數(shù)據(jù),以及由他人創(chuàng)作的各種作品。其中,前一類數(shù)據(jù)的獲取可能引發(fā)隱私和個(gè)人信息泄露等問(wèn)題,而后一類數(shù)據(jù)的獲取和使用則可能會(huì)引發(fā)知識(shí)產(chǎn)權(quán)相關(guān)的。如果這些問(wèn)題不處理好,就會(huì)對(duì)經(jīng)濟(jì)和社會(huì)產(chǎn)生非常負(fù)面的影響。
綜合以上分析,我們可以看到,在AI狂飆突進(jìn)的時(shí)代,我們絕不能僅僅看到它所能帶來(lái)的便利和效率改進(jìn),還需要對(duì)它可能引發(fā)的風(fēng)險(xiǎn)和問(wèn)題保持足夠的重視。
“堵”不如“疏”
用法律為AI的發(fā)展劃定軌道
我們應(yīng)該如何面對(duì)AI飛速發(fā)展帶來(lái)的各種問(wèn)題呢?一種最為直觀的思路就是停止對(duì)于AI技術(shù)的開(kāi)發(fā)。早在古羅馬時(shí)期,韋帕薌就曾拒絕工匠向他進(jìn)獻(xiàn)的先進(jìn)運(yùn)輸機(jī)器,理由是如果用了這種新機(jī)器,就可能讓自己的臣民大量失業(yè)。在韋帕薌之后的一千多年,當(dāng)工業(yè)革命的浪潮席卷歐洲的時(shí)候,也有一部分人站出來(lái),試圖通過(guò)摧毀機(jī)器來(lái)阻擋技術(shù)進(jìn)步的步伐。但無(wú)論是皇帝還是工人,最終都沒(méi)能成功地阻擋技術(shù)進(jìn)步,而技術(shù)進(jìn)步過(guò)程中的問(wèn)題也并沒(méi)有因?yàn)檫@種努力而消失??梢灶A(yù)料,在AI突進(jìn)的時(shí)代,通過(guò)阻擋AI發(fā)展的方式來(lái)預(yù)防它可能帶來(lái)的問(wèn)題的努力也同樣不會(huì)成功。
相比之下,“疏”似乎是更為務(wù)實(shí)可取的思路。也就是說(shuō),要允許和鼓勵(lì)A(yù)I的發(fā)展,但與此同時(shí),也要對(duì)AI的發(fā)展進(jìn)行規(guī)范和引導(dǎo),為這匹狂奔的“野馬”套上韁繩。而要做到這一點(diǎn),我們就必須綜合應(yīng)用好法律、政策、市場(chǎng),以及技術(shù)等各種手段。
近年來(lái),面對(duì)AI技術(shù)的迅猛發(fā)展,各國(guó)都認(rèn)識(shí)到了AI技術(shù)可能蘊(yùn)含的風(fēng)險(xiǎn),紛紛嘗試通過(guò)立法來(lái)為AI的發(fā)展劃定界限。
在全球的各大區(qū)域中,歐盟是較早開(kāi)始著手對(duì)AI進(jìn)行立法的。在過(guò)去幾年中,歐盟針對(duì)AI發(fā)展和應(yīng)用當(dāng)中產(chǎn)生的一些問(wèn)題專門(mén)制定過(guò)一些法律法規(guī)。在最近,歐洲議會(huì)又剛剛就《關(guān)于制定確立人工智能統(tǒng)一規(guī)則以及修改部分聯(lián)盟法律的歐盟議會(huì)和歐盟理事會(huì)的條例的提案》(簡(jiǎn)稱《人工智能法案》)達(dá)成了協(xié)議,這可能意味著世界上第一部“人工智能法”已經(jīng)呼之欲出。
在《人工智能法案》中,有相當(dāng)多看點(diǎn)。具體來(lái)說(shuō),該法案利用“基于風(fēng)險(xiǎn)的方法”(risk-basedapproach)將人工智能系統(tǒng)(AISystem)劃分為了四類:“不可接受的風(fēng)險(xiǎn)”(unacceptablerisk)、“高風(fēng)險(xiǎn)”(highrisk)、“有限風(fēng)險(xiǎn)”(limitedrisk)以及“最低風(fēng)險(xiǎn)”(minimalrisk)。在這四類風(fēng)險(xiǎn)中,具有前三類風(fēng)險(xiǎn)的AI系統(tǒng)都需要受到法案的監(jiān)管。
“不可接受的風(fēng)險(xiǎn)”被認(rèn)為是與歐盟的基本價(jià)值觀相違背(例如對(duì)基本人權(quán)的侵犯),需要完全被禁止。
“高風(fēng)險(xiǎn)”指的是作為關(guān)鍵基礎(chǔ)設(shè)施、執(zhí)法或教育的工具的AI系統(tǒng)。這類系統(tǒng)的風(fēng)險(xiǎn)很大,但作用也很重要,因此不會(huì)被完全禁止,但需要在操作中保持高度透明,AI系統(tǒng)的提供者需要承擔(dān)較重的任務(wù)。具體來(lái)說(shuō),提供者應(yīng)當(dāng)做到幾點(diǎn):(1)負(fù)有合規(guī)義務(wù),確保高風(fēng)險(xiǎn)人工智能系統(tǒng)的預(yù)期使用目的符合規(guī)定,按照規(guī)定建立、運(yùn)行、記錄并維持風(fēng)險(xiǎn)管理系統(tǒng),并確保人工監(jiān)管的準(zhǔn)確性、韌性和安全性。(2)建立合理的質(zhì)量管理系統(tǒng),并以書(shū)面政策、程序和指令的形式有序地載明該質(zhì)量管理系統(tǒng),確保合規(guī)程序的執(zhí)行、相關(guān)文件的草擬以及強(qiáng)有力的售后監(jiān)管制度的建立。確保高危人工智能系統(tǒng)在投放市場(chǎng)或投入使用前,經(jīng)過(guò)相關(guān)的評(píng)估程序。(3)擔(dān)負(fù)記錄保存義務(wù)。在人工智能系統(tǒng)投放市場(chǎng)或者投入使用之日起的10年內(nèi),提供者應(yīng)保存技術(shù)資料、質(zhì)量管理系統(tǒng)相關(guān)文件等以備檢查。依照與用戶的協(xié)議或法律規(guī)定由其控制高危人工智能系統(tǒng)自動(dòng)生成的日志的,則提供者有義務(wù)保存上述日志。
《法案》對(duì)違規(guī)提供或使用AI的個(gè)人或機(jī)構(gòu)規(guī)定了高額的罰款。具體來(lái)說(shuō),AI系統(tǒng)的提供者如果違反相關(guān)的禁止性規(guī)定或數(shù)據(jù)治理義務(wù)的,最高可以被處以3000萬(wàn)歐元的罰款或全球年?duì)I業(yè)額的6%(以較高者為準(zhǔn));高風(fēng)險(xiǎn)AI系統(tǒng)的使用違反其他規(guī)定的,可以處以最高2000萬(wàn)歐元或營(yíng)業(yè)額的4%的罰款;向成員國(guó)主管機(jī)構(gòu)提供不正確、不完整或具有誤導(dǎo)性的信息,將被處以最高1000萬(wàn)歐元或營(yíng)業(yè)額2%的罰款。
需要指出的是,在《法案》提交歐洲議會(huì)表決之前,還專門(mén)根據(jù)當(dāng)前AI發(fā)展的現(xiàn)狀,加入了有關(guān)生成式AI的相關(guān)規(guī)定。例如,規(guī)定了提供生成式AI工具的公司必須披露他們是否在系統(tǒng)中使用了受版權(quán)保護(hù)的材料,以及生成式AI的模型的設(shè)計(jì)和開(kāi)發(fā)必須符合歐盟法律和基本權(quán)利等。
美國(guó)目前還沒(méi)有全面的AI立法,不過(guò)聯(lián)邦、州和地方政府,以及某些具體的職能部門(mén)已經(jīng)對(duì)一些問(wèn)題進(jìn)行了相關(guān)的立法實(shí)踐。比如,在2023年4月底,美國(guó)聯(lián)邦貿(mào)易委員會(huì)(FTC)、消費(fèi)者金融保護(hù)局(CFPB)、司法部民權(quán)司 (DOJ)和平等就業(yè)機(jī)會(huì)委員會(huì)(EEOC)等四個(gè)部門(mén)就曾聯(lián)合發(fā)布聲明,稱將繼續(xù)針對(duì)AI系統(tǒng)執(zhí)行現(xiàn)有的民權(quán)法,以避免人工智能“使非法偏見(jiàn)永久化”。根據(jù)這一聲明,這幾大監(jiān)管部門(mén)將重點(diǎn)從AI可能產(chǎn)生偏見(jiàn)的數(shù)據(jù)集、大模型的透明度、系統(tǒng)設(shè)計(jì)的前提假設(shè)這三個(gè)方面入手,監(jiān)管其潛在的歧視風(fēng)險(xiǎn)。
此外,美國(guó)國(guó)家電信和信息管理局(NTIA)也就人工智能審計(jì)和評(píng)估的發(fā)展發(fā)起征求意見(jiàn)。在這份征求意見(jiàn)稿中,NTIA承認(rèn)了普遍存在共識(shí)的“AI監(jiān)管難題”,包括如何權(quán)衡多重目標(biāo)、實(shí)施問(wèn)責(zé)機(jī)制的難度、AI生命周期和價(jià)值鏈復(fù)雜性帶來(lái)的挑戰(zhàn)、如何標(biāo)準(zhǔn)化評(píng)估等。而對(duì)于一些涉及更有爭(zhēng)議的、難以協(xié)調(diào)的、跨領(lǐng)域的標(biāo)準(zhǔn)難題,NTIA認(rèn)為“根本不部署人工智能系統(tǒng)將是實(shí)現(xiàn)既定目標(biāo)的手段”。
目前我國(guó)還沒(méi)有關(guān)于AI的系統(tǒng)性立法,但是針對(duì)AI發(fā)展過(guò)程中出現(xiàn)的各種問(wèn)題,有關(guān)部門(mén)出臺(tái)相關(guān)規(guī)定也都非常及時(shí)。例如,不久之前,就公布了《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》,對(duì)生成式AI發(fā)展做出了很多規(guī)范。
用政策及時(shí)回應(yīng)AI發(fā)展中的問(wèn)題
從根本上看,法律法規(guī)可以解決的主要是一些長(zhǎng)期性的問(wèn)題。但在AI的發(fā)展過(guò)程中,還經(jīng)常會(huì)出現(xiàn)一些短期的、易變的問(wèn)題。以AI對(duì)勞動(dòng)力市場(chǎng)的沖擊為例,不同類別的AI模型的影響就很不一樣。在幾年之前,AI的發(fā)展方向主要是幫助人們完成一些重復(fù)的、繁瑣的預(yù)測(cè)性工作。在這種情況下,那些工作內(nèi)容相對(duì)單一、原本收入較低的藍(lán)領(lǐng)工人就是受AI沖擊最大的群體。而在生成式AI崛起之后,擁有較高學(xué)歷、經(jīng)過(guò)較長(zhǎng)時(shí)間職業(yè)技能培養(yǎng)、原本收入較高的白領(lǐng)人士就成為了受沖擊最大的群體。很顯然,對(duì)于這兩種不同的沖擊情況,應(yīng)對(duì)的策略應(yīng)該是不同的。所以相對(duì)固定的法律并不適合于處理類似的問(wèn)題,而相比之下,靈活的政策組合拳則是更為可取的。
而在政策的制定當(dāng)中,有很多不同的思路。一種思路是回應(yīng)性的政策,即在發(fā)現(xiàn)了問(wèn)題之后,再研究相應(yīng)的政策來(lái)加以破解;另一種思路則是前瞻性的政策,即主張通過(guò)政策的預(yù)判,率先制定好相關(guān)的政策。這兩種思路各有利弊,前者可能因?yàn)檎叱雠_(tái)的遲緩而延長(zhǎng)了問(wèn)題的影響時(shí)間,從而加大了由此產(chǎn)生的成本;后者則可能因?yàn)檎`判而影響了AI正常發(fā)展的進(jìn)程。在實(shí)踐當(dāng)中,我們必須根據(jù)具體情況對(duì)這些成本進(jìn)行權(quán)衡。大部分情況下,政策誤判帶來(lái)的成本可能是更大的。從這個(gè)角度看,或許看似笨拙的回應(yīng)式政策會(huì)比看似高瞻遠(yuǎn)矚的前瞻式政策更為可取。
AI的代碼之治
無(wú)論是利用法律還是政策來(lái)對(duì)AI進(jìn)行治理,從根本上講都是用人在治理AI。隨著AI的發(fā)展越來(lái)越迅速,應(yīng)用范圍越來(lái)越廣,這種治理方式的弊端會(huì)越來(lái)越明顯:一方面,AI治理所需要投入的人力、物力和財(cái)力要求將會(huì)越來(lái)越大,由此產(chǎn)生的巨量成本將是人們難以承受的;另一方面,無(wú)論是法律的制定還是政策的出臺(tái),都需要一定的時(shí)間,因此它們必然具有滯后性。
在這樣的背景下,我們除了對(duì)AI進(jìn)行“人治”之外,必然會(huì)需要應(yīng)用各種技術(shù)的手段來(lái)對(duì)AI進(jìn)行“技治”。具體來(lái)說(shuō),如下幾點(diǎn)是需要重視的:
首先,應(yīng)當(dāng)將一些根本性的原則寫(xiě)入代碼,要求AI必須遵守。著名的科幻作家阿西莫夫曾在自己的《我,機(jī)器人》中提出過(guò)著名的“機(jī)器人三法則”:(1)機(jī)器人不得傷害人類個(gè)體,或者目睹人類個(gè)體將遭受危險(xiǎn)而袖手不管;(2)機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時(shí)例外;(3)機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存。這個(gè)“三法則”非常有名,后來(lái)的很多,甚至與機(jī)器人相關(guān)的政策文獻(xiàn)中都經(jīng)常加以引用。很多人認(rèn)為,作為與機(jī)器人學(xué)有千絲萬(wàn)縷聯(lián)系的學(xué)科,AI的發(fā)展也需要有一些類似的基本法則。例如,對(duì)于目前火爆的生成式AI的擔(dān)憂就是AI會(huì)用自己的造物作為材料,不斷進(jìn)行新的創(chuàng)造,最終讓整個(gè)創(chuàng)造過(guò)程失控。針對(duì)這一情況,一些學(xué)者就建議,要將禁止這種“遞歸造物”作為一個(gè)法則寫(xiě)入AI的底層代碼,以保證AI要進(jìn)行新內(nèi)容的創(chuàng)造必須經(jīng)過(guò)人類的允許。通過(guò)這種方式,就可以有效地防止AI造物的無(wú)序進(jìn)行。
以上思路非常有價(jià)值,但也存在缺點(diǎn)。因?yàn)槿嗽跇?gòu)建法則的時(shí)候總是可能存在著這樣或那樣的漏洞,這就可能導(dǎo)致AI誤解這些法則,最終造成法則的失敗。以“機(jī)器人三法則”為例,機(jī)器人完全可以在遵守這幾個(gè)法則的前提下對(duì)人類造成傷害,比如出于保護(hù)人類安全的考慮,將人類像動(dòng)物一樣圈養(yǎng)起來(lái),而這顯然是人們不愿意看到的。由此可見(jiàn),想要通過(guò)為AI制定一個(gè)法則來(lái)解決所有問(wèn)題是不現(xiàn)實(shí)的。在實(shí)踐當(dāng)中,人們還需要通過(guò)對(duì)AI進(jìn)行持續(xù)的教育和溝通,以保證AI能夠明白人類制定法則的真正目標(biāo),讓自己的行為和這些目標(biāo)始終對(duì)齊。目前,關(guān)于AI對(duì)齊性(AIalignment)的研究已經(jīng)成為了AI研究中的一個(gè)重點(diǎn)。相信在未來(lái),它也將是對(duì)AI進(jìn)行“技治”的一個(gè)關(guān)鍵。
其次,應(yīng)當(dāng)充分利用AI的能力來(lái)輔助AI治理。比如說(shuō),現(xiàn)在基于AI的定向推送廣告給用戶帶來(lái)了非常大的困擾。該如何來(lái)應(yīng)對(duì)這個(gè)問(wèn)題呢?一個(gè)方法就是開(kāi)發(fā)一種“AI保安”,將自己的真實(shí)需要告訴它,讓它在接到推送廣告的時(shí)候根據(jù)用戶需要,以及廣告推送者的“信用”狀況來(lái)進(jìn)行甄別,只有通過(guò)了甄別的廣告才被允許繼續(xù)推送給用戶。通過(guò)這種方式,就可以一定程度地破解定向廣告擾民的問(wèn)題。
這里值得一提的是,在用AI輔助治理的過(guò)程中,非常重要的一點(diǎn)是用AI來(lái)訓(xùn)練其他AI,以此來(lái)保證后者具有良好的價(jià)值觀。事實(shí)上,在ChatGPT的訓(xùn)練過(guò)程中就已經(jīng)應(yīng)用了這一思路。在GPT-3被訓(xùn)練完成后,它已經(jīng)具有了十分強(qiáng)大的功能,不過(guò),依然經(jīng)常在一些涉及價(jià)值觀的問(wèn)題上犯錯(cuò)誤。比如,在涉及種族、宗教等問(wèn)題的時(shí)候,他就經(jīng)常會(huì)發(fā)表一些不正確的觀點(diǎn)。該如何解決這一問(wèn)題呢?OpenAI的做法就是用AI訓(xùn)練AI。具體來(lái)說(shuō),先取GPT-3的一部分作為一個(gè)小模型,然后對(duì)這個(gè)小模型進(jìn)行“基于人力反饋的強(qiáng)化學(xué)習(xí)”(ReinforcementLearningfromHumanFeedback,簡(jiǎn)稱RLHF)地練,也就是讓很多人類訓(xùn)練員不斷地拿一些“敏感”問(wèn)題和模型交流,并根據(jù)它的回答狀況進(jìn)行打分。這樣,模型就會(huì)根據(jù)得分的狀況不斷地對(duì)自己的回答進(jìn)行調(diào)整。在訓(xùn)練達(dá)到了一定的量之后,這個(gè)模型就可以“出師”,成為一個(gè)價(jià)值觀上可靠的模型。這時(shí),再讓這個(gè)模型作為“教練”,對(duì)原模型用類似的方法進(jìn)行訓(xùn)練,讓原模型可以通過(guò)不斷的訓(xùn)練來(lái)樹(shù)立正確的價(jià)值觀。正是通過(guò)這種方式,OpenAI才最終得以用一個(gè)比較低廉的成本訓(xùn)練出了ChatGPT這樣的產(chǎn)品。我想,這個(gè)經(jīng)驗(yàn)應(yīng)該是可以在以后的AI治理實(shí)踐中進(jìn)一步借鑒的。
再次,包括區(qū)塊鏈、隱私計(jì)算在內(nèi)的其他技術(shù)也有助于AI的治理。例如,在生成式AI興起之后,一個(gè)十分困擾人的問(wèn)題就是知識(shí)產(chǎn)權(quán)。一方面,AI訓(xùn)練者可能違規(guī)使用網(wǎng)絡(luò)上的各種作品而不支付相應(yīng)的報(bào)酬。另一方面,人們?cè)谑褂肁I創(chuàng)作相關(guān)內(nèi)容時(shí)也無(wú)法證明自己在創(chuàng)作過(guò)程中所起的作用,因而也無(wú)法主張對(duì)應(yīng)的知識(shí)產(chǎn)權(quán)。尤其是在現(xiàn)在各國(guó)的立法機(jī)關(guān)都傾向于認(rèn)定AI生成物不能享有知識(shí)產(chǎn)權(quán)保障的情況下,一些對(duì)于作品的形成有較大貢獻(xiàn)的AI使用者將無(wú)法主張他們的權(quán)利。對(duì)于這些情況,區(qū)塊鏈技術(shù)將可以起到作用。借助于區(qū)塊鏈的可追溯性,人們就可以確認(rèn)在產(chǎn)品生成過(guò)程中不同人、不同投入要素的作用,從而為最終的利益分配提供參考。又如,現(xiàn)在很多的AI任務(wù)都需要多個(gè)模型、多個(gè)單位之間進(jìn)行協(xié)同,在這種情況下,利益的分配問(wèn)題難以解決。而如果借助于區(qū)塊鏈技術(shù),則可以較好地對(duì)每個(gè)參與方的利益進(jìn)行記錄,并根據(jù)貢獻(xiàn)狀況來(lái)分配相應(yīng)的通證予以激勵(lì)。此外,針對(duì)AI使用過(guò)程中可能帶來(lái)的隱私和信息泄露問(wèn)題,則可以借助隱私計(jì)算等技術(shù)來(lái)進(jìn)行解決。應(yīng)用這些技術(shù),就可以有效地破解應(yīng)用法律和政策難以破解的AI治理難題。
陳永偉經(jīng)濟(jì)觀察報(bào)專欄作家
《比較》研究部主管