日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁>金融 >內容

          一封聯(lián)名公開信引爆科技圈!AI競賽,踩剎車還是踩油門?

          2023-04-10 04:09:52來源:
          導讀 原標題:一封聯(lián)名公開信引爆科技圈!AI競賽,踩剎車還是踩油門?【環(huán)球時報報道 記者曹思琦】大型語言模型GPT-4及其相關的人工智能(AI)...

          原標題:一封聯(lián)名公開信引爆科技圈!AI競賽,踩剎車還是踩油門?

          【環(huán)球時報報道 記者曹思琦】大型語言模型GPT-4及其相關的人工智能(AI)技術應用最近在火爆全球的同時,也引起廣泛擔憂。意大利個人數(shù)據(jù)保護局4月6日稱,聊天機器人ChatGPT的開發(fā)公司OpenAI向意大利當局提交補救措施,以解決監(jiān)管機構的擔憂。上月末,意大利成為全球首個禁用ChatGPT的國家后,美國、德國、法國和愛爾蘭等多國也相繼表達了當前AI技術“存在風險”的觀點。更讓科技界震動的是,一封包括上萬名科技界人士聯(lián)名簽署的公開信呼吁,所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統(tǒng)至少6個月時間。

          一封聯(lián)名公開信引爆科技圈

          人類社會技術風險研究機構“生命未來研究所”于3月29日發(fā)布了公開信,呼吁由于“最近AI實驗室陷入了一場失控的競賽,只有當我們確信AI大模型的影響是積極的并且風險是可控時,才能開發(fā)更強大的AI系統(tǒng)”。這封公開信吸引了包括圖靈獎得主約書亞·本吉奧、特斯拉創(chuàng)始人埃隆·馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克以及《人類簡史》的作者尤瓦爾·赫拉利等上千名科技大佬、人工智能專家和學者的聯(lián)合簽名。截至目前,該研究所官網(wǎng)顯示已有超過1.3萬人簽署該公開信。

          瑞士一所學校就ChatGPT的使用展開研討。

          這封公開信所擔憂的就是以GPT-4大型語言模型為代表的最新AI技術。GPT-4是由OpenAI公司開發(fā)的人工智能程序,它可以快速生成流暢、準確和有邏輯的文本,還可以理解和回答各種類型的問題,甚至可以為用戶進行創(chuàng)造性和技術性的寫作。它最著名的衍生應用產品就是ChatGPT聊天機器人,網(wǎng)友使用后普遍感嘆“難以分辨到底是在與AI還是與真人聊天”。

          公開信明確提出:“具有人類智能水平的AI系統(tǒng)可能對社會和人類帶來極大的風險,這一點已經(jīng)得到頂級AI實驗室的認同?!痹撔藕粲跛腥斯ぶ悄軐嶒炇覒⒓磿和S柧毐菺PT-4更強大的AI模型,為期至少6個月。在此期間,公開信建議實驗室和獨立專家合作,針對AI的設計和開發(fā)建立共享的安全協(xié)議,并由獨立的外部專家監(jiān)督,確保AI系統(tǒng)“安全、無可置疑”。

          目前國內也有知名學者、業(yè)界人士參與公開信簽名,表達支持性觀點。中國社科院研究員段偉文認為:“我們有必要通過暫停這種慢科學策略,使科技的力量在我們可以掌控的節(jié)奏下有序綻放”。清華大學教授梁正認為:“在這個時候提出這樣的警示是必要的……人類可以借鑒核武器發(fā)明后簽署核不擴散條約的經(jīng)驗,共同探討提出針對通用人工智能的治理規(guī)則與防范手段,確保人工智能真正服務于人類福祉與未來?!?/p>

          反對者的聲音也有不少。例如Meta首席技術官安德魯·博斯沃思認為,這封公開信“不僅不現(xiàn)實,而且也不會有效”?!巴ǔG闆r下,你必須先了解技術是如何發(fā)展的,然后才能知道如何保護和確保它的安全?!绷νI發(fā)展的比爾·蓋茨也表示,公開信的呼吁不會有效,“我不認為暫停發(fā)展AI就能解決問題。很顯然AI的進步有著巨大的益處,我們需要做的是找出那些棘手的領域”。

          信任危機源自“算法黑箱”

          面對AI競賽的一路狂飆,人類究竟應該“踩剎車”還是“踩油門”?安遠AI創(chuàng)始人、牛津大學人工智能治理中心政策研究員謝旻希接受《環(huán)球時報》記者采訪時表示,不論是公開信的支持者、反對者還是旁觀者,對當前AI系統(tǒng)的能力、風險、問題的可解決性等,都存在較大認知差異。必須承認的是,包括OpenAI在內的各國專家也沒法解釋GPT-4等大模型的行為,對其局限和風險的理解則更為欠缺。“我們認同GPT-4等級的大模型能創(chuàng)造巨大社會價值,風險防控需要把握分寸,不因噎廢食。但AI創(chuàng)新與現(xiàn)實風險的平衡并非總是正確,有其前提。當科技風險非常嚴峻時,就只能風險防控優(yōu)先,需要強化底線思維防范化解重大風險?!?/p>

          從原理上看,ChatGPT是基于大量的文本數(shù)據(jù)進行訓練,通過深度學習技術學習文本的語義和語法規(guī)律,從而實現(xiàn)自然語言處理的各種任務。這也意味著供它學習的數(shù)據(jù)庫至關重要。但讓國內外專家普遍質疑的是,OpenAI一直沒有披露ChatGPT和GPT-4使用的訓練數(shù)據(jù)、如何訓練以及運作方式。這意味著在AI深度學習輸入的數(shù)據(jù)和其輸出的答案之間,存在著人們無法洞悉的“黑箱”,由此產生對這類AI技術的信任危機。

          基于現(xiàn)有的深度學習原理,這類AI技術備受詬病的一點就是算法歧視與算法偏見。據(jù)報道,美國網(wǎng)民對ChatGPT的測試發(fā)現(xiàn)它有明顯的立場,例如它拒絕寫詩稱贊美國前特朗普,卻可以毫無障礙地稱贊現(xiàn)任拜登。這就與ChatGPT使用的數(shù)據(jù)庫有關,“大多數(shù)的訓練數(shù)據(jù)本身就是有偏見和不安全的”。但在OpenAI沒有公開相關算法的情況下,很難對偏見進行修正。由于“算法黑箱”的存在,甚至就連OpenAI團隊也沒有搞明白ChatGPT的推理能力到底是如何實現(xiàn)的。

          北京通用人工智能研究院院長朱松純教授在今年2月與加州大學伯克利分校教授斯圖爾特·羅素的談話中表示,雖然GPT-4這類大型語言模型已取得一些驚人進展,但在處理任務方面的能力有限,它們只能處理文本領域的任務,無法與物理和社會環(huán)境進行互動。這意味著像ChatGPT并不能真正“理解”語言的含義。此外,大型語言模型也不是自主的,它們需要人類來具體定義好每一個任務,就像“鸚鵡”只能模仿被訓練過的話語。雖然ChatGPT已在不同的文本數(shù)據(jù)語料庫上進行了大規(guī)模訓練,但它并不具備理解人類價值或與人類價值保持一致的能力,即缺乏所謂的“道德指南針”。

          因此ChatGPT和GPT-4都出現(xiàn)過“一本正經(jīng)胡說”的情況,OpenAI稱之為“幻覺事實”。當前ChatGPT開始大量被科學界用于輔助研究工作,包括整理會議記錄、撰寫文獻綜述和論文手稿等,“編造答案”問題已產生相當惡劣的影響。一名德國生物學家在接受《自然》雜志采訪時說,ChatGPT曾給他列出一個完全虛構的參考文獻列表,里面沒有一篇真實存在的論文。

          ChatGPT還存在泄密風險。不久前韓國三星集團內部發(fā)生三起ChatGPT誤用與濫用案例,如三星內部人員在ChatGPT上提問、驗證答案,卻讓這些答案成為ChatGPT的學習數(shù)據(jù)庫,若有其他使用者在ChatGPT上提出相關疑問,恐讓三星企業(yè)機密外流。為了規(guī)避數(shù)據(jù)泄露風險,軟銀、日立、富士通、摩根大通等不少企業(yè)明確禁止員工使用ChatGPT。

          另外,最近風靡社交平臺的AI圖象生成軟件Midjourney繪制的“特朗普被捕”等難辨真?zhèn)蔚恼掌诰W(wǎng)上瘋傳。不少業(yè)內人士都擔心未來這類AI技術可能被別有用心的人利用,產生虛假或誤導性的信息,進而影響輿論、煽動暴力等。

          “用AI識別AI”沒解決辨真?zhèn)坞y題

          在是否需要對AI發(fā)展設限的問題上,南京信息工程大學人工智能產業(yè)學院執(zhí)行院長鄒榮金在接受《環(huán)球時報》記者采訪時表示,AI技術能提高生產力,帶來社會價值,“這就像有了汽車之后,卻要求大家不許用汽車,繼續(xù)用馬車,這條路是行不通的”。

          朱松純此前也表示,回顧漫長的智能進化史可以預測,通用人工智能的誕生幾乎是不可避免的。為預防未來的通用人工智能給人類帶來威脅,我們可以逐步放開通用智能體的能力空間和價值空間。我們可以先將AI系統(tǒng)的適用場合和行動空間限制在特定區(qū)域內,隨著我們對AI的信任增加,確認AI系統(tǒng)安全可控后,再逐步給予它們更大的空間。另外,我們應該促進算法決策過程的透明度?!叭绻芡怙@地表示通用人工智能的認知架構,知道它是如何工作的,就能更好地控制它。”

          由于ChatGPT和GPT-4產生了大量真假難辨的數(shù)據(jù),目前各國都在推進針對現(xiàn)有AI技術結果的智能識別,這也被戲稱為“用AI識別AI”。但業(yè)內專家承認,目前相關進展并不太順利。例如針對學校作業(yè)和論文是否是ChatGPT的結果,出現(xiàn)了不少專業(yè)的文件檢測工具,就連OpenAI也推出了名為AITextClassifier的文件檢測器,但它們的識別正確率都不高。為此,英美等大批學校不得不明確禁止在論文和課程作業(yè)中使用ChatGPT,否則將被視為學術不端行為。

          相對于識別AI文本,Midjourney等AI軟件生成圖片的識別難度更大。此前由于AI繪圖對于人物手部的處理結果有所欠缺,因此可通過手部細節(jié)辨別是否是AI繪圖的成果。但MidjourneyV5版本的更新就基本解決了手部細節(jié)的問題,目前更多需要從照片上的地面陰影朝向、人物眼神方向等細節(jié)進行分辨。鄒榮金表示,隨著AI技術的下一步迭代,未來很可能出現(xiàn)人類很難識別的情況。專家們擔心,生成虛假圖片的AI技術一直在進步,特朗普的名氣使“特朗普被捕”這類照片的真?zhèn)魏苋菀妆蛔R別,但要識別出普通人相關的圖片可能困難重重。

          鄒榮金表示,針對這個問題,OpenAI除了開發(fā)AI技術之外,還在開發(fā)虹膜認證技術。“即使將來進入人工智能時代,要識別一篇文章是你寫的還是機器寫的,有了生物特征的唯一對應后,每一個信息出來都是可追溯來源的?!?/p>

          美國高盛公司近日發(fā)布的報告稱,生成式AI會導致勞動力市場出現(xiàn)“重大混亂”。鄒榮金認為,“AI技術的推進,必然會有一些崗位將被替換,而且替代的速度會很快。這種焦慮一定是存在的,但會不會帶來社會的動蕩呢?我想暫時不會那么快。它過渡也是漸變的。ChatGPT最厲害的地方在于能編寫程序,未來將應用在各個領域,我們表面上看到是聊天文字,但其實它將來會在各個領域應用?!?/p>

          來源:環(huán)球時報

          免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

          猜你喜歡

          最新文章