作者 | 黃金瓊
編輯 | 鄧詠儀
ChatGPT爆火半年有多,在快速發(fā)展之余,除了解決技術(shù)問題,合規(guī)可能會是接下來的老大難——在國會傳訊Sam Altman后,如今FTC(美國聯(lián)邦貿(mào)易委員會)也正式對ChatGPT進(jìn)行調(diào)查。
這與前幾天比爾蓋茨的發(fā)聲相呼應(yīng)。他在最新博文中表示:AI是最具變革性的創(chuàng)新,誠然有風(fēng)險,但風(fēng)險也可控。
在博文中,比爾蓋茨主要討論了人工智能的風(fēng)險和挑戰(zhàn),以及如何應(yīng)對這些問題,其中還提供了一些例子和建議。
比爾蓋茨首先對如今人們存在的對AI擔(dān)憂表示肯定——現(xiàn)在正處于人工智能深刻變革的時代,這是一個不確定的時代。但他樂觀地認(rèn)為,這些風(fēng)險都是可控的。
其次,比爾蓋茨也列出了當(dāng)前AI所引發(fā)的風(fēng)險,包括人工智能生成的深度偽造和錯誤信息可能會破壞選舉和民主、使得個人和政府發(fā)動攻擊變得更加容易、將奪走人們的工作以及AI繼承人類偏見并胡編亂造,學(xué)生不會學(xué)習(xí)寫作因為AI會替他們完成等。
最后,比爾蓋茨也提出一系列監(jiān)管AI的建議。在各國政府層面,各國政府需要積累人工智能方面的專業(yè)知識,以制定應(yīng)對AI的法律法規(guī),來應(yīng)對虛假信息和深度偽造、安全威脅、就業(yè)市場變化以及對教育的影響等問題。
而在解決方式上,政府領(lǐng)導(dǎo)人要與其他國家進(jìn)行合作,而不應(yīng)該是單打獨斗,還要與人們進(jìn)行知情的、深思熟慮的對話的能力。
此外,對企業(yè)來說,AI公司要具有負(fù)責(zé)任的態(tài)度,工作開展要保證安全性,包括保護(hù)人們隱私等等。
以下為全文內(nèi)容,翻譯來自GPT-4,經(jīng)36氪編輯整理:
人工智能帶來的風(fēng)險似乎壓倒一切。那些失去工作被智能機(jī)器取代的人該怎么辦?AI會影響選舉結(jié)果嗎?如果未來的AI決定不再需要人類,想要擺脫我們,該怎么辦?
這些都是合理的問題,我們需要認(rèn)真對待它們所引發(fā)的擔(dān)憂。但我們有充分的理由相信我們能夠應(yīng)對這些問題:這并不是第一次在重大創(chuàng)新中,引入了必須加以控制的新威脅,我們以前也曾遇到過。
無論是汽車的問世,還是個人電腦和互聯(lián)網(wǎng)的興起,人們都曾歷經(jīng)過其他變革時刻,盡管經(jīng)歷了許多動蕩,但最終都得到了更好的發(fā)展。第一輛汽車上路后不久,就發(fā)生了第一起車禍。但我們并沒有禁止汽車,而是采用了限速、安全標(biāo)準(zhǔn)、駕照要求、酒駕法以及其他道路規(guī)則。
我們現(xiàn)在正處于另一場深刻變革的初期階段,即AI時代,這與限速和安全帶之前的不確定時代相類似。人工智能的變化如此之快,以至于我們還不清楚下一步會發(fā)生什么。我們正面臨著由當(dāng)前技術(shù)運作方式、人們將其用于惡意意圖的方式以及人工智能如何改變我們作為社會成員和個體所引發(fā)的重大問題。
在這樣的時刻,感到不安是很自然的。但歷史表明,解決新技術(shù)帶來的挑戰(zhàn)是可能的。
我曾經(jīng)寫過人工智能將如何徹底改變我們的生活,它將幫助解決健康、教育、氣候變化等方面過去似乎難以解決的問題。蓋茨基金正在把這個問題作為優(yōu)先事項,我們的首席執(zhí)行官馬克-蘇茲曼(Mark Suzman)最近分享了他對AI在減少不平等中的角色的思考。
我將在未來更多地討論人工智能的好處,但在這篇文章中,我想談?wù)勎衣牭胶妥x到的最常見的擔(dān)憂,其中許多我也有同感,并解釋一下我是如何看待這些擔(dān)憂的。
從迄今為止關(guān)于人工智能風(fēng)險的所有文章中,有一件事情很明確,那就是沒有人擁有所有的答案。另一點對我來說很明確的是,人工智能的未來并不像某些人想象的那樣嚴(yán)峻,也不像其他人想象的那樣美好。風(fēng)險是真實存在的,但我樂觀地認(rèn)為這些風(fēng)險是可以控制的。當(dāng)我逐一討論每個問題時,我將回到幾個主題:
人工智能引發(fā)的許多問題都有歷史先例。例如,它將對教育產(chǎn)生巨大影響,但幾十年前的便攜式計算器,以及最近的允許電腦進(jìn)入課堂也是如此,我們可以借鑒過去的成功經(jīng)驗。
人工智能帶來的許多問題也可以在人工智能的幫助下得到解決。
我們需要調(diào)整舊法并頒布新法——就像現(xiàn)有的反欺詐法律必須適應(yīng)網(wǎng)絡(luò)世界一樣。
在這篇文章中,我將重點關(guān)注已經(jīng)存在或即將存在的風(fēng)險。我并不打算討論當(dāng)我們開發(fā)出一種能夠?qū)W習(xí)任何學(xué)科或任務(wù)的人工智能時會發(fā)生什么。相反,我今天討論的是專門構(gòu)建的AI。
無論我們是在十年內(nèi)還是一個世紀(jì)內(nèi)達(dá)到這一點,社會都將需要面對一些深刻的問題。如果一個超級AI確立了自己的目標(biāo)怎么辦?如果它們與人類的目標(biāo)相沖突怎么辦?我們是否應(yīng)該制造超級AI?
但是,在考慮這些長期風(fēng)險時,不應(yīng)忽視眼前的風(fēng)險。我現(xiàn)在來談?wù)勥@些短期的風(fēng)險。
AI生成的偽造內(nèi)容和錯誤信息可能會破壞選舉和民主
利用技術(shù)傳播謊言和不實信息并不是什么新鮮事。幾個世紀(jì)以來,人們一直通過書籍和來傳播謊言。隨著文字處理機(jī)、激光打印機(jī)、電子郵件和社交網(wǎng)絡(luò)的出現(xiàn),這種做法變得更加容易。
人工智能將這個假文本的問題擴(kuò)大化,使幾乎任何人都可以制作偽造的音頻和視頻,這就是所謂的深度偽造。如果你收到一個看起來像你孩子的聲音信息說“我被綁架了,請在接下來的10分鐘內(nèi)向這個銀行賬戶匯款1000美元,并且不要報警”,那么它將產(chǎn)生遠(yuǎn)超過同樣內(nèi)容的電子郵件的恐怖情緒影響。
在更大的范圍內(nèi),人工智能生成的深度偽造可能會被用來試圖影響選舉結(jié)果。當(dāng)然,不需要復(fù)雜的技術(shù)就可以對選舉的合法贏家產(chǎn)生懷疑,但人工智能將使這一過程變得更加容易。
目前,已經(jīng)出現(xiàn)了一些虛假視頻,這些視頻中包含了眾所周知的家被編造的片段。想象一下,在一次重要選舉的早晨,一段顯示某位候選人搶劫銀行的視頻在網(wǎng)上瘋傳。即使這是假的,但新聞機(jī)構(gòu)和競選團(tuán)隊花了幾個小時才證明這一點。有多少人會看到這段視頻并在最后一刻改變投票?這可能會改變比賽的結(jié)果,尤其是在選情膠著的情況下。
最近,Open AI聯(lián)合創(chuàng)始人Sam Altman在美國參議院委員會作證時,來自兩的參議員都對人工智能對選舉和民主的影響有所關(guān)注。我希望這個話題能繼續(xù)引起每個人的關(guān)注。我們確實還沒有解決假信息和深度偽造的問題。但有兩點讓我保持謹(jǐn)慎樂觀。一是人們有能力學(xué)會不輕信一切。多年來,電子郵件用戶常常上當(dāng)受騙,因為有人冒充尼日利亞王子,承諾只要分享信用碼就能獲得巨額回報。但最終,大多數(shù)人學(xué)會了對這些郵件進(jìn)行二次審查。隨著詐騙手段越來越高明,許多目標(biāo)也變得越來越狡猾,我們需要為深度偽造建立同樣的防范意識。
另一件讓我充滿希望的事情是,AI不僅可以創(chuàng)建深度偽造,還可以幫助識別它們。例如,英特爾開發(fā)了一種深度偽造檢測器,而政府機(jī)構(gòu)DARPA正在研究如何識別視頻或音頻是否被篡改。
這將是一個循環(huán)過程:有人找到了檢測造假的方法,有人想出了對付它的辦法,有人開發(fā)出了反制措施,如此循環(huán)往復(fù)。這不會是一個完美的成功,但我們也不會束手無策。
人工智能使得人類和政府發(fā)動攻擊變得更加容易
如今,當(dāng)黑客們想找到軟件中的漏洞時,他們會通過暴力編寫代碼,對潛在的弱點進(jìn)行攻擊,直到發(fā)現(xiàn)漏洞為止。這需要走很多彎路,因此需要時間和耐心。
想要打擊黑客的安全專家也必須做同樣的事情。你在手機(jī)或筆記本電腦上安裝的每一個軟件補(bǔ)丁,都代表著善意或惡意的人花費了許多時間的搜尋。
人工智能模型將通過幫助黑客編寫更有效的代碼來加速這一進(jìn)程。他們還將能夠利用個人的公共信息,如工作的地方和他們的朋友是誰,來開發(fā)出比我們現(xiàn)在看到的更先進(jìn)的網(wǎng)絡(luò)釣魚攻擊。
好消息是,人工智能既可用于惡意目的,也可以用于良好的目的。政府和私營部門的安全團(tuán)隊需要擁有最新的工具,以便在犯罪分子利用安全漏洞之前發(fā)現(xiàn)并修復(fù)它們。我希望軟件安全行業(yè)能夠擴(kuò)大他們在這方面已經(jīng)開展的工作,這應(yīng)該是他們最關(guān)心的問題。
這也是為什么我們不應(yīng)該像某些人建議的那樣,試圖暫時阻止人們施行人工智能的新發(fā)展。網(wǎng)絡(luò)犯罪分子不會停止制造新工具,想要利用人工智能設(shè)計核武器和生物恐怖襲擊的人也不會停止,阻止他們也需要以同樣的速度繼續(xù)進(jìn)行。
在全球?qū)用嬉泊嬖谙嚓P(guān)風(fēng)險:AI軍備競賽可用于設(shè)計和發(fā)動針對其他國家的網(wǎng)絡(luò)攻擊。每個國家的政府都希望擁有最強(qiáng)大的技術(shù),以阻止對手的攻擊。這種“不讓任何人搶先”的動機(jī)可能會引發(fā)一場制造日益危險的網(wǎng)絡(luò)武器的競賽。這樣一來,每個人的處境都會變得更糟。
這是一個可怕的想法,但我們有史為鑒。盡管世界核武器防擴(kuò)散機(jī)制存在缺陷,但它阻止了我們這一代人在成長過程中非常害怕的全面核的發(fā)生。各國政府應(yīng)考慮建立一個類似于國際原子能機(jī)構(gòu)的全球人工智能機(jī)構(gòu)。
人工智能將奪走人們的工作
未來幾年,人工智能對工作的主要影響將是幫助人們更高效地完成工作。無論是在工廠工作,還是在辦公室處理銷售電話和應(yīng)付賬款,都將如此。最終,AI在表達(dá)思想方面的技能將足夠好,以至于它能夠為你寫郵件并管理你的收件箱。你將能夠用簡單的英語或任何其他語言編寫一份請求,并生成一份內(nèi)容豐富的工作報告。
正如我在正如我在2月份的文章中所說,生產(chǎn)力的提高對社會有益。這使得人們有更多的時間去做其他事情,無論是在工作中還是在家中。而且,對助人為樂者的需求永遠(yuǎn)不會消失,例如教書育人、照顧病人和贍養(yǎng)老人。
但是,在我們向人工智能驅(qū)動的工作場所過渡的過程中,一些工人確實需要支持和再培訓(xùn)。這是政府和企業(yè)的職責(zé)所在,他們需要很好地管理它,這樣工人們才不會被拋棄,避免像美國制造業(yè)工作崗位減少時發(fā)生的那種對人們生活的干擾。
此外,請記住,這并不是新技術(shù)第一次導(dǎo)致勞動力市場發(fā)生重大變化。我認(rèn)為人工智能的影響不會像工業(yè)革命那樣巨大,但肯定會像個人電腦的問世那樣巨大。文字處理應(yīng)用軟件并沒有消除辦公室工作,但卻永遠(yuǎn)地改變了辦公室工作。雇主和員工必須適應(yīng),他們也確實做到了。人工智能帶來的轉(zhuǎn)變將是一個崎嶇的過渡,但我們完全有理由相信,我們能夠減少對人們生活和生計的干擾。
人工智能繼承了我們的偏見并胡編亂造
幻覺,這是指人工智能自信地作出一些根本不真實的聲明,且通常發(fā)生的原因是機(jī)器不理解你的請求的背景。如果你讓一個人工智能寫一個關(guān)于去月球度假的短篇故事,它可能會給你一個非常富有想象力的答案。但是如果你讓它幫你規(guī)劃一次前往坦桑尼亞的旅行,它可能會試圖把你送到一個不存在的酒店。
人工智能的另一個風(fēng)險是,它反映出甚至加劇了人們對某些性別身份、種族、民族等的現(xiàn)有偏見。
要明白為什么產(chǎn)生這樣的幻覺和偏見,了解當(dāng)前最常見的AI模型如何運作是非常重要的。它們本質(zhì)上是非常復(fù)雜的代碼版本,可以讓您的電子郵件應(yīng)用程序預(yù)測您要輸入的下一個單詞:在某些情況下,幾乎是網(wǎng)上所有可用的文本,它們掃描海量文本,然后進(jìn)行分析,找出人類語言中的模式。
當(dāng)你向人工智能提出一個問題時,它會查看您使用的單詞,然后搜索經(jīng)常與這些單詞相關(guān)聯(lián)的文本。如果您寫下“列出煎餅的配料”,它可能會注意到“面粉、糖、鹽、發(fā)酵粉、牛奶和雞蛋”這些詞經(jīng)常與該短語一起出現(xiàn)。然后,根據(jù)它所知道的這些單詞通常出現(xiàn)的順序,它會生成一個答案(這種方式工作的AI模型使用的是所謂的轉(zhuǎn)換器,GPT-4就是這樣一個模型)。
這個過程解釋了為什么人工智能可能會產(chǎn)生幻覺或出現(xiàn)偏差,它對你提出的問題或告訴它的事情沒有任何上下文理解。如果你告訴它打錯了,它可能會說“對不起,我打錯了”。但這只是幻覺,它并沒有打錯任何東西,它之所以這么說,是因為它已經(jīng)掃描了足夠多的文本,知道“對不起,我打錯了”是人們在被糾正后經(jīng)常寫的一種句子。
同樣,AI模型也會繼承它們所訓(xùn)練的文本中固有的偏見。如果一個人讀了很多關(guān)于醫(yī)生的文章,而文章中大多提到男性醫(yī)生,那么它的答案就會假定大多數(shù)醫(yī)生都是男性。
盡管一些研究人員認(rèn)為幻覺是一個固有的問題,但我并不同意。我樂觀地認(rèn)為,隨著時間的推移,我們可以教會AI模型區(qū)分事實和虛構(gòu)。例如,Open AI在這方面做了很有前途的工作。
包括阿蘭·圖靈研究所和國家標(biāo)準(zhǔn)與技術(shù)研究所在內(nèi)的其他組織正在解決偏見問題。一種方法是在AI中加入人類價值觀和更高層次的推理。這類似于有自我意識的人類的工作方式:也許你認(rèn)為大多數(shù)醫(yī)生都是男性,但你對這一假設(shè)有足夠的意識,知道你必須有意識地與之斗爭。人工智能也可以以類似的方式運行,尤其是如果模型是由來自不同背景的人設(shè)計的。
最后,每個使用人工智能的人都需要意識到偏見問題,并成為一個知情的用戶。你要求人工智能起草的論文可能會充滿偏見,就如同充滿了事實錯誤一樣。你需要檢查你的AI的偏見,以及你自己的偏見。
學(xué)生不會學(xué)習(xí)寫作,因為AI會替他們完成寫作
許多教師擔(dān)心AI會破壞他們與學(xué)生的工作。在一個只要能上網(wǎng),任何人都能用人工智能寫出可圈可點的論文初稿的時代,有什么能阻止學(xué)生將其作為自己的作品上交呢?
已經(jīng)有一些AI工具在學(xué)習(xí)判斷一篇文章是由人類還是電腦寫的,所以教師們可以知道他們的學(xué)生是否在做自己的作業(yè)。但是有些教師并沒有試圖阻止他們的學(xué)生在寫作中使用AI,他們實際上是在鼓勵它。
今年1月,一位名叫切麗·希爾茲(Cherie Shields)的資深英語教師在《教育周刊》(Education Week)上發(fā)表了一篇文章。 的文章上發(fā)表了一篇文章,介紹了她如何在課堂上使用Chat GPT。Chat GPT幫助她的學(xué)生從開始寫一篇作文到攥寫大綱,甚至給他們的作業(yè)提供反饋。
她寫道:“教師必須接受人工智能技術(shù),將其作為學(xué)生可以使用的另一種工具。就像我們曾經(jīng)教學(xué)生如何進(jìn)行正確的谷歌搜索一樣,教師應(yīng)該圍繞Chat GPT機(jī)器人如何協(xié)助論文寫作設(shè)計清晰的課程,承認(rèn)人工智能的存在并幫助學(xué)生使用它可以徹底改變我們的教學(xué)方式?!辈⒎敲课唤處煻加袝r間學(xué)習(xí)和使用新工具,但像Cherie Shields這樣的教育工作者提出了一個很好的論點,即那些有時間的教師將受益匪淺。
這讓我想起了上世紀(jì)七八十年代電子計算器普及的時代。一些數(shù)學(xué)教師擔(dān)心學(xué)生會停止學(xué)習(xí)基本算術(shù),但另一些教師則接受了這項新技術(shù),并將重點放在算術(shù)背后的思維能力上。
人工智能還可以幫助寫作和批判性思維。特別是在早期,當(dāng)幻覺和偏見仍然是一個問題時,教育工作者可以讓人工智能生成文章,然后與學(xué)生一起檢查事實。教育非營利組織如可汗學(xué)院和 OER項目等為教師和學(xué)生提供免費的在線工具,這些工具非常重視對論斷的檢驗,沒有什么技能比知道如何辨別真假更重要了。
我們確實需要確保教育軟件有助于縮小成績差距,而不是使其變得更糟。如今的軟件主要面向那些已經(jīng)有學(xué)習(xí)動力的學(xué)生。它可以為你制定學(xué)習(xí)計劃,為你提供好的資源,并測試你的知識。但是,它還不知道如何吸引你去學(xué)習(xí)你還不感興趣的科目。這是開發(fā)人員需要解決的一個問題,以便讓所有類型的學(xué)生都能從人工智能中受益。
接下來要做什么?
我相信,我們有更多的理由樂觀地認(rèn)為,我們可以在管理人工智能風(fēng)險的同時最大限度地發(fā)揮其效益,但我們需要快速行動。
各國政府需要積累人工智能方面的專業(yè)知識,以便制定應(yīng)對這一新技術(shù)的法律法規(guī)。他們需要應(yīng)對錯誤信息和深度偽造、安全威脅、就業(yè)市場的變化以及對教育的影響。僅舉一例:法律需要明確哪些用途的深度偽造是合法的,以及應(yīng)該如何標(biāo)注深度偽造,以便每個人都能明白他們看到或聽到的東西是假的。
領(lǐng)導(dǎo)人需要具備與選民進(jìn)行知情的、深思熟慮的對話的能力。他們還需要決定在這些問題上與其他國家合作的程度,而不是單打獨斗。
在私營部門,AI公司需要在安全和負(fù)責(zé)任的前提下進(jìn)行他們的工作。這包括保護(hù)人們的隱私,確保他們的人工智能模型反映人類的基本價值觀,最大限度地減少偏見,讓盡可能多的人受益,并防止技術(shù)被犯罪分子或恐怖分子利用。許多經(jīng)濟(jì)領(lǐng)域的公司都需要幫助其員工過渡到以AI為中心的工作場所,這樣就不會有人掉隊。而且,客戶應(yīng)始終知道他們是在與人工智能還是人類互動。
最后,我鼓勵大家盡可能關(guān)注人工智能的發(fā)展。這是我們有生之年將看到的最具變革性的創(chuàng)新,健康的公共辯論將取決于每個人對這項技術(shù)本身、優(yōu)點和風(fēng)險的了解。人工智能將帶來巨大的利益,而相信我們能夠控制風(fēng)險的最好理由就是我們曾經(jīng)能夠做到了。