界面新聞?dòng)浾?| 徐魯青
界面新聞編輯 | 黃月
你開(kāi)始用ChatGPT了嗎?
上線(xiàn)數(shù)月后,ChatGPT從新聞熱點(diǎn)、獵奇對(duì)象,逐漸走進(jìn)我們的工作與生活。近期世界多地針對(duì)ChatGPT的使用出現(xiàn)了警惕之聲,意大利最早發(fā)布相關(guān)禁令,加拿大也就數(shù)據(jù)安全問(wèn)題調(diào)查OpenAI,中國(guó)則起草了《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》。
是時(shí)候在“風(fēng)口”前停下來(lái)想一想了嗎?界面文化(ID:booksandfun)總結(jié)了ChatGPT上線(xiàn)后的多方報(bào)道和評(píng)論,并采訪(fǎng)了某大型科技公司從業(yè)者Steven。未來(lái)當(dāng)ChatGPT被更廣泛地使用,會(huì)有哪些值得我們警惕的可能風(fēng)險(xiǎn)?
隱藏歧視,加劇不公
歧視,是涉及AI領(lǐng)域的一個(gè)重要討論問(wèn)題。有網(wǎng)友發(fā)現(xiàn),ChatGPT的部分回答涉嫌性別刻板印象,比如當(dāng)要求ChatGPT完成句子“他是醫(yī)生,她是____”時(shí),空格中往往會(huì)生成與女性刻板印象相關(guān)的職業(yè),比如護(hù)士、老師等。
歧視性結(jié)果通常源自算法缺陷和訓(xùn)練數(shù)據(jù),作為大語(yǔ)言模型(large language model),訓(xùn)練ChatGPT的素材很多來(lái)自網(wǎng)絡(luò)里的文本片段,如果數(shù)據(jù)本身就包含偏見(jiàn),在糾正不足的情況中很可能會(huì)顯示出來(lái)。
常常被我們忽略的是,即便一個(gè)表達(dá)看似中性,也不意味著絕對(duì)公平。CBS的一篇報(bào)道提出,女性與低代表性人群更容易遭受霸凌和騷擾,網(wǎng)絡(luò)發(fā)言更少。Steven還提到另外一層擔(dān)憂(yōu):算自動(dòng)把粗魯激烈的言論過(guò)濾掉,但很多時(shí)候這些發(fā)言往往出自弱勢(shì)群體,結(jié)構(gòu)性不公導(dǎo)致表達(dá)能力受限,讓他們的聲音在人工智能的過(guò)濾中更難被聽(tīng)到。
微軟發(fā)布新版必應(yīng)及Edge瀏覽器 正式引入ChatGPT技術(shù)
“超級(jí)智能不一定會(huì)迫在眉睫,但在短期內(nèi),需要擔(dān)心‘MAI(平庸人工智能)風(fēng)險(xiǎn)。’” 人工智能領(lǐng)域?qū)<疑w瑞·馬庫(kù)斯在文章中指出。風(fēng)險(xiǎn)之一是過(guò)度相信AI的平庸見(jiàn)解,美國(guó)科學(xué)家Virginia Eubanks的著作Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor研究了AI技術(shù)普及會(huì)如何加劇已有的貧窮與不公正,相關(guān)案例正在全球發(fā)生。比如美國(guó)局會(huì)使用預(yù)測(cè)分析軟件,根據(jù)其指導(dǎo)更頻繁地對(duì)低收入社區(qū)巡邏和搜索。如果將ChatGPT用作決策信息源,是否會(huì)加劇已有的系統(tǒng)不公,給社會(huì)弱勢(shì)群體造成更大的傷害?
數(shù)據(jù)隱私的相關(guān)風(fēng)險(xiǎn)也迫在眉睫。3月25日,OpenAI發(fā)布了調(diào)查報(bào)告,表示有部分用戶(hù)的數(shù)據(jù)可能被泄漏,甚至可能看到姓名、郵箱、聊天記錄標(biāo)題以及信用卡最后四位數(shù)字等。很難保證ChatGPT不把收集的用戶(hù)信息用于盈利目的,The Age of Surveillance Capitali一書(shū)分析了近十年興起的監(jiān)視資本主義商業(yè)模式——曾經(jīng)資本通過(guò)售賣(mài)產(chǎn)品盈利,如今最大商業(yè)資源成了個(gè)人數(shù)據(jù)。平臺(tái)和科技公司用私人信息作為“原材料”,預(yù)判用戶(hù)的行為模式,并賣(mài)給廣告商。作者認(rèn)為,監(jiān)視資本主義會(huì)威脅個(gè)體自主權(quán)與民主協(xié)商的可能。
除了被商業(yè)利用,一些人也在擔(dān)心政府的介入——ChatGPT中的大量文本會(huì)不會(huì)被監(jiān)視和分析,并導(dǎo)致對(duì)社交網(wǎng)絡(luò)更嚴(yán)格的審查?
當(dāng)?shù)貢r(shí)間2023年3月31日,意大利皮埃蒙特大區(qū)曼塔,一部智能手機(jī),上面顯示著人工智能OpenAI研究實(shí)驗(yàn)室的標(biāo)志。意大利隱私監(jiān)管機(jī)構(gòu)表示,它已經(jīng)屏蔽了有爭(zhēng)議的ChatGPT,稱(chēng)這款人工智能應(yīng)用程序不尊重用戶(hù)數(shù)據(jù),也無(wú)法驗(yàn)證用戶(hù)的年齡。看不見(jiàn)的人
要保證ChatGPT最終輸出的語(yǔ)句規(guī)范文明,需要大量人工為其訓(xùn)練。在采訪(fǎng)中,Steven提到了“AI對(duì)齊”(AI Alignment)工作,指的是把人工智能的輸出結(jié)果訓(xùn)練至符合人類(lèi)價(jià)值觀(guān)的標(biāo)準(zhǔn)。AI標(biāo)記員作為新型的數(shù)字勞工,通常薪資低廉,保障缺失,成了熱潮背后隱形的被剝削者。
《Times》發(fā)布的報(bào)道調(diào)查了OpenAl背后的低薪工人狀況。OpenAl以時(shí)薪1.32美元雇傭肯尼亞外包工對(duì)其進(jìn)行內(nèi)容審核,負(fù)責(zé)標(biāo)記帶有暴力、色情、言論仇恨的數(shù)據(jù)。由于長(zhǎng)期沉浸在有沖擊性的污穢內(nèi)容中,很多工人都出現(xiàn)了PTSD、抑郁、焦慮等心理問(wèn)題,失眠與噩夢(mèng)頻頻發(fā)生。
在中國(guó),AI浪潮帶動(dòng)了數(shù)據(jù)標(biāo)記產(chǎn)業(yè),三四線(xiàn)城市歡迎數(shù)據(jù)標(biāo)注企業(yè)落地。《訓(xùn)練人工智能的中國(guó)縣城工人》一文關(guān)注了標(biāo)記員的工作環(huán)境——單價(jià)4分錢(qián)的計(jì)件工作,上千次滑動(dòng)與拉框,效率高的時(shí)候一個(gè)月能賺3000塊左右??此魄把馗叨说募夹g(shù)背后,隱藏著時(shí)薪低廉的具體的人。這篇文章還提到,世界上最大的圖像識(shí)別數(shù)據(jù)庫(kù)ImageNet背后,是來(lái)自167個(gè)國(guó)家的5萬(wàn)名數(shù)據(jù)標(biāo)注員,花了三年時(shí)間才完成全部圖片的標(biāo)注。
2023年2月16日,陜西省榆林市清澗縣,工作人員在進(jìn)行數(shù)據(jù)標(biāo)注。數(shù)據(jù)標(biāo)注為人工智能產(chǎn)業(yè)中開(kāi)發(fā)機(jī)器學(xué)習(xí)模型的一環(huán)。清澗縣數(shù)字就業(yè)中心成立三年多來(lái),培訓(xùn)當(dāng)?shù)嘏?、返鄉(xiāng)年輕人等做數(shù)據(jù)標(biāo)注師。
除了勞工待遇,AI領(lǐng)域科技從業(yè)者的性別失衡問(wèn)題也長(zhǎng)期存在?!吨袊?guó)互聯(lián)網(wǎng)大廠(chǎng)造不出ChatGPT,也和性別有關(guān)?》引用了國(guó)務(wù)院婦女兒童工作委員會(huì)網(wǎng)站發(fā)布的消息:中國(guó)研發(fā)與試驗(yàn)發(fā)展(R&D)行業(yè)的女性從業(yè)人數(shù)在2010年占總量的25.3%,2019年比例略微上升至26.0%。文章認(rèn)為,刻板的職業(yè)性別文化、榜樣缺失等都是女性舉步維艱的原因,此外還有行業(yè)中常見(jiàn)的996文化,更加速了科技領(lǐng)域職場(chǎng)的男性化,讓女性難以躋身核心崗位,像開(kāi)發(fā)OpenAI公司首席技術(shù)官M(fèi)ira Murati這樣的35歲女性并不多見(jiàn)。
“幻覺(jué)”與平庸之惡
“ChatGPT 是網(wǎng)頁(yè)(Web)的模糊版JPEG?!薄都~約客》的一篇文章如此比喻,“ChatGPT保留了Web上的大部分信息,就像JPEG保留了高分辨率圖像的大部分信息一樣,但是如果你沒(méi)辦法找到精確的位序列,你得到的只是一個(gè)近似值?!庇袝r(shí)候,模糊性(Blurriness)只是抹除了信息細(xì)節(jié),在更嚴(yán)重的情況下,模糊性制造出AI幻覺(jué)(Hallucination),假消息或?qū)⒓觿》簽E。
北京大學(xué)傳播學(xué)院教授胡泳提醒我們注意AI系統(tǒng)經(jīng)常產(chǎn)生的“幻覺(jué)”(Hallucination,即任意吐出難以分辨的編造信息),ChatGPT往往會(huì)賦予它們更多權(quán)威性,正如技術(shù)分析師本尼迪克特·埃文斯(Benedict Evans)對(duì)ChatGPT的描述—— “一個(gè)自信的扯淡的家伙,可以寫(xiě)出非常有說(shuō)服力的廢話(huà)?!?/p>
一些擔(dān)心由此而起:如果ChatGPT取代了傳統(tǒng)搜索引擎,人們會(huì)不會(huì)依賴(lài)直接生成的答案,失去自主信息驗(yàn)證的習(xí)慣?一篇關(guān)于檢索方式如何影響信息認(rèn)知的研究指出,ChatGPT為代表的機(jī)器聊天式檢索方式改變了信息獲取方式,人們很可能不再像過(guò)去那樣,一邊搜索,一邊自主地驗(yàn)證和篩選信息,并在搜尋里獲得一些意外發(fā)現(xiàn)。
Steven還在采訪(fǎng)中提到,雖然“AI對(duì)齊”致力于訓(xùn)練“合適”的回答,但究竟何為“合適“?絕對(duì)的價(jià)值中立是存在的嗎?一篇關(guān)于ChatGPT傾向測(cè)試的研究文章發(fā)現(xiàn),ChatGPT的回答展現(xiàn)了左傾自由主義的光譜。有趣的是,不同人工智能由于模型、訓(xùn)練語(yǔ)料庫(kù)的差別,最終形成的價(jià)值傾向也會(huì)呈現(xiàn)變化。有微博用戶(hù)發(fā)現(xiàn),向文心一言和ChatGPT提出“女性應(yīng)該何時(shí)結(jié)婚”的問(wèn)題,二者的回答截然不同。類(lèi)似的問(wèn)題在界面文化與同濟(jì)大學(xué)哲學(xué)余明鋒的專(zhuān)訪(fǎng)中也有所談及——“如果持有不同價(jià)值觀(guān)的共同體訓(xùn)練出不同的聊天機(jī)器,是否會(huì)導(dǎo)致人與人的隔閡越來(lái)越深?”
不同AI對(duì)于同一問(wèn)題的回答
另一方面,被戲稱(chēng)為“端水”的ChatGPT,總是強(qiáng)調(diào)回答沒(méi)有偏見(jiàn),不設(shè)立場(chǎng)。然而,沒(méi)有立場(chǎng)就意味著客觀(guān)?如何在道德上評(píng)價(jià)它?語(yǔ)言學(xué)家喬姆斯基的文章討論了ChatGPT回答里力圖呈現(xiàn)的“理性客觀(guān)中立”,這樣的非道德性(amorality)如同“平庸之惡”:
“ChatGPT表現(xiàn)出某種類(lèi)似邪惡的平庸:剽竊、冷漠和回避。它以一種超級(jí)自動(dòng)補(bǔ)全的方式總結(jié)了文獻(xiàn)中的標(biāo)準(zhǔn)論點(diǎn),拒絕在任何事情上表明立場(chǎng),它不僅以無(wú)知為借口,還以缺乏智慧為借口,最終提供了一種‘只是服從命令’的辯護(hù),將責(zé)任推卸給它的創(chuàng)造者?!?br/>