日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁>汽車 >內(nèi)容

          硅谷熱辯:AI是否會毀滅人類?

          2023-05-23 16:18:30來源:
          導(dǎo)讀5月22日消息,隨著生成式人工智能等新技術(shù)成為科技界新熱潮,關(guān)于人工智能是否會毀滅人類的爭論愈演愈烈。有知名科技領(lǐng)袖警告稱,人工智能...

          5月22日消息,隨著生成式人工智能等新技術(shù)成為科技界新熱潮,關(guān)于人工智能是否會毀滅人類的爭論愈演愈烈。有知名科技領(lǐng)袖警告稱,人工智能可能會接管整個世界。其他研究人員和高管則表示,這種說法是科幻。

          在上周召開的美國國會聽證會上,人工智能初創(chuàng)企業(yè)OpenAI首席執(zhí)行官薩姆·奧爾特曼(Sam Altman)明確提醒大家,該公司公開的這項技術(shù)存在安全風(fēng)險。

          奧爾特曼警告說,ChatGPT聊天機器人等人工智能技術(shù)可能會引發(fā)虛假信息和惡意操縱等問題,并呼吁進(jìn)行監(jiān)管。

          他表示,人工智能可能“對世界造成嚴(yán)重傷害”。

          奧爾特曼在美國國會作證之際,關(guān)于人工智能是否會主宰世界的辯論正轉(zhuǎn)向主流,整個硅谷和致力于推廣人工智能技術(shù)的人士意見不一、分歧也越來越大。

          以前曾有個別人認(rèn)為,機器的智力水平可能會突然超越人類,并決定毀滅人類,現(xiàn)在這種邊緣型想在獲得越來越多人的支持。一些權(quán)威科學(xué)家甚至都認(rèn)為計算機學(xué)會超越人類并能控制人的時間將有所縮短。

          但許多研究人員和工程師表示,雖然不少人擔(dān)心現(xiàn)實中出現(xiàn)像電影《終結(jié)者》中的天網(wǎng)那種殺手型人工智能,但這種擔(dān)憂并不是基于合乎邏輯的好科學(xué)。相反其分散了人們對這種技術(shù)已經(jīng)造成現(xiàn)實問題的注意力,包括奧爾特曼在證詞中所描述的問題。現(xiàn)在的人工智能技術(shù)正在混淆版權(quán),加劇人們對數(shù)字隱私和監(jiān)控的擔(dān)憂,還可能被用來提高黑客突破網(wǎng)絡(luò)防御的能力。

          谷歌、微軟以及OpenAI都已經(jīng)公開發(fā)布突破性的人工智能技術(shù)。這些技術(shù)可以與用戶進(jìn)行復(fù)雜對話,并根據(jù)簡單文本提示生成圖像。關(guān)于邪惡人工智能的爭論已經(jīng)升溫。

          “這不是科幻,”人工智能教父、谷歌前員工杰弗里·辛頓(Geoffrey Hinton)說。辛頓表示,比人類更聰明的人工智能可能會在5到20年內(nèi)出現(xiàn),而他之前的估計是30到100年。

          “就好像外星人已經(jīng)登陸地球或即將登陸,”他說。“我們真的無法接受,因為它們講話流利,它們很有用,它們會寫詩,還會回復(fù)無聊的信。但它們真的是外星人?!?/p>

          盡管如此,在大型科技公司內(nèi)部,許多與這項技術(shù)有密切關(guān)系的工程師并不認(rèn)為人工智能取代人類是大家現(xiàn)在需要擔(dān)心的事情。

          人工智能初創(chuàng)公司Cohere旗下研究實驗室Cohere for AI主管、前谷歌研究員薩拉·胡克(Sara Hooker)說:“在積極從事這一學(xué)科的研究人員中,關(guān)注當(dāng)前現(xiàn)實風(fēng)險的人遠(yuǎn)遠(yuǎn)多于關(guān)注人類是否有生存風(fēng)險的人。”

          目前的現(xiàn)實風(fēng)險很多,比如發(fā)布受過不良內(nèi)容訓(xùn)練的機器人會加深偏見和歧視等問題;人工智能的絕大多數(shù)訓(xùn)練數(shù)據(jù)用的都是英語,主要來自北美或歐洲,這可能會使互聯(lián)網(wǎng)更加偏離大多數(shù)人的語言和文化;這些機器人還經(jīng)常編造虛假信息,將其偽裝成事實;在某些情況下,它們甚至?xí)萑牍粲脩舻臒o限循環(huán)對話。此外,人們也不清楚這項技術(shù)帶來的連鎖反應(yīng),所有行業(yè)都在為人工智能可能帶來的顛覆或變革做準(zhǔn)備,甚至律師或醫(yī)生等高薪工作也會被取代。

          也有人認(rèn)為,未來人工智能可能會傷害人類,甚至以某種方式控制整個社會。雖然事關(guān)人類生存的風(fēng)險似乎更加嚴(yán)峻,但許多人認(rèn)為,這種風(fēng)險更難量化,也不那么具體。

          “有一群人認(rèn)為,這些只是算法。它們只是在重復(fù)網(wǎng)上看到的內(nèi)容?!苯衲?月份谷歌首席執(zhí)行官桑德爾·皮查伊(Sundar Pichai)在接受采訪時表示:“還有一種觀點認(rèn)為,這些算涌現(xiàn)出新特性,具有創(chuàng)造力、推理能力和規(guī)劃能力。”“我們需要審慎對待這件事?!?/p>

          這場爭論源于過去10年間計算機科學(xué)領(lǐng)域機器學(xué)習(xí)技術(shù)的不斷突破。機器學(xué)習(xí)創(chuàng)造出相關(guān)軟件和技術(shù),可以在沒有人類明確指令的情況下,從大量數(shù)據(jù)中提取出新穎見解。這種技術(shù)在社交媒體算法、搜索引擎和圖像識別程序等各種應(yīng)用中無處不在。

          去年,OpenAI和其他幾家小公司開始陸續(xù)發(fā)布使用新機器學(xué)習(xí)技術(shù)的工具:生成式人工智能。這種所謂的大語言模型用網(wǎng)上抓取的上萬億張照片和句子進(jìn)行自我訓(xùn)練后,可以根據(jù)簡單提示生成圖像和文本,與用戶開展復(fù)雜對話,并編寫計算機代碼。

          未來生命研究所(Future of Life Institute)執(zhí)行董事安東尼·阿吉雷(Anthony Aguirre)說,大公司正在競相開發(fā)越來越智能的機器,幾乎沒有任何監(jiān)管。未來生命研究所成立于2014年,目的是研究社會存在的風(fēng)險。在特斯拉首席執(zhí)行官埃隆·馬斯克(Elon Musk)的資助下,研究所于2015年開始研究人工智能毀滅人類的可能性。

          阿吉雷說,如果人工智能獲得比人類更好的推理能力,它們就會試圖實現(xiàn)自我控制。這是值得人們擔(dān)心的,就像現(xiàn)在存在的現(xiàn)實問題一樣。

          他說:“如何約束它們不偏離軌道,將變得越來越復(fù)雜?!薄安簧倏苹靡呀?jīng)說得很具體了?!?/p>

          今年3月份,阿吉雷幫助撰寫了一封公開信,呼吁暫停訓(xùn)練新的人工智能模型6個月時間。這封公開信共獲得27000位人士簽名支持,獲得2018年計算機科學(xué)最高獎項的資深人工智能研究員約書亞·本吉奧(Yoshua Bengio)和最具影響力的人工智能初創(chuàng)企業(yè)之一首席執(zhí)行官埃馬德·莫斯塔克(Emad Mostaque)都位列其中。

          馬斯克無疑是其中最引人注目的。他曾幫助創(chuàng)建OpenAI,現(xiàn)在自己也在忙著組建人工智能公司,最近投資了訓(xùn)練人工智能模型所需的昂貴計算機設(shè)備。

          多年來馬斯克一直認(rèn)為,人類應(yīng)該對發(fā)展超級人工智能的后果倍加小心。在上周特斯拉年度股東大會期間接受采訪時,馬斯克表示,自己當(dāng)初之所以資助OpenAI,是因為他覺得谷歌聯(lián)合創(chuàng)始人拉里·佩奇(Larry Page)對人工智能的威脅“漫不經(jīng)心”。

          美版知乎Quora也在開發(fā)自家人工智能模型。公司首席執(zhí)行官亞當(dāng)·德安吉洛(Adam D’angelo)沒有在公開信上簽名。他在談到這封公開信時說,“人們提出這項建議時有各自不同的動機?!?/p>

          OpenAI首席執(zhí)行官奧爾特曼也不認(rèn)可公開信內(nèi)容。他表示,自己贊同這封公開信的部分內(nèi)容,但總體上缺乏“技術(shù)細(xì)節(jié)”,并不是監(jiān)管人工智能的正確方式。奧爾特曼在上周二舉行的人工智能聽證會上表示,他公司的做法是盡早向公眾推出人工智能工具,以便在技術(shù)變得更強大之前發(fā)現(xiàn)和解決問題。

          但科技界有關(guān)殺手型機器人的爭論越來越多。其中一些最嚴(yán)厲的批評來自多年來一直研究這項技術(shù)缺陷的研究人員。

          2020年,谷歌研究人員蒂姆尼特·格布魯(Timnit Gebru)和瑪格麗特·米切爾(Margaret Mitchell)與華盛頓大學(xué)學(xué)者艾米麗·M·本德(Emily M. Bender)和安吉麗娜·麥克米蘭-梅杰(Angelina McMillan-Major)合作撰寫了一篇論文。他們認(rèn)為,大語言模型模仿人類的能力不斷增強,這加劇了人們會認(rèn)為它們是有感情的風(fēng)險。

          相反,他們認(rèn)為這些模型應(yīng)該被理解為“隨機的鸚鵡學(xué)舌”,或者說僅僅是非常擅長純粹根據(jù)概率預(yù)測句子接下來會出現(xiàn)哪一個單詞,而不需要理解自己在說什么。其他批評者稱大語言模型是“自動補全”或“知識灌腸”。

          他們詳細(xì)記錄了大語言模型如何照本宣科地生成性別歧視等不良內(nèi)容。格布魯說,這篇論文曾被谷歌壓下來了。在自己堅持公開發(fā)表這篇文章后,谷歌解雇了她。幾個月后,公司又解雇了米切爾。

          這篇論文的四位合作者也寫了一封信,以此回應(yīng)馬斯克等人簽名的公開信。

          他們說:“用一個幻想中的人工智能烏托邦或世界末日來分散我們的注意力很危險?!薄跋喾?,我們應(yīng)該關(guān)注那些開發(fā)公司非常真實、非?,F(xiàn)實的剝削行為,這些公司正在迅速集中力量,加劇社會不平等?!?/p>

          谷歌當(dāng)時拒絕就格布魯被解雇一事發(fā)表評論,但表示仍有許多研究人員在研究負(fù)責(zé)任和合乎道德的人工智能。

          “毫無疑問,現(xiàn)代人工智能是強大的,但這并不意味著它們對人類生存的威脅迫在眉睫,”Cohere公司人工智能研究主管胡克說。

          目前,關(guān)于人工智能擺脫人類控制的大部分討論都集中在其如何迅速克服自身的限制上,就像《終結(jié)者》中的天網(wǎng)一樣。

          胡克說:“大多數(shù)技術(shù)和技術(shù)中存在的風(fēng)險都是逐步變化的。”“目前存在的技術(shù)限制加劇了大多數(shù)風(fēng)險。”

          去年,谷歌解雇了人工智能研究員布萊克·萊蒙(Blake Lemoine)。他在接受采訪時曾表示,自己堅信谷歌的LaMDA人工智能模型具有感知能力。當(dāng)時,萊蒙遭到了業(yè)內(nèi)許多人的嚴(yán)厲斥責(zé)。但一年后,科技界也有不少人開始接受他的觀點。

          前谷歌研究員辛頓說,直到最近使用了最新的人工智能模型之后,自己改變了對這項技術(shù)潛在危險的既定看法。辛頓向計算機程序提出一些復(fù)雜的問題,在他看來,這些問題需要人工智能模型能大致理解他的請求,而不僅僅是根據(jù)訓(xùn)練數(shù)據(jù)預(yù)測出可能的答案。

          今年3月份,微軟研究人員表示,在研究OpenAI的最新模型GPT4時,他們觀察到了“通用人工智能的火花”,其指的就是能夠像人類一樣獨立思考的人工智能。

          微軟已經(jīng)花了數(shù)十億美元與OpenAI合作開發(fā)必應(yīng)聊天機器人。質(zhì)疑者認(rèn)為,微軟正在圍繞人工智能技術(shù)打造自己的公眾形象。人們總認(rèn)為這種技術(shù)比實際情況更先進(jìn),微軟可以從中獲益良多。

          微軟研究人員在論文中認(rèn)為,這項技術(shù)僅僅基于所訓(xùn)練的文本內(nèi)容,就已經(jīng)發(fā)展出對世界空間和視覺的理解。GPT4可以自動畫出獨角獸,并描述如何將包括雞蛋在內(nèi)的隨機物體堆疊在一起,讓雞蛋不會破碎。

          微軟研究團隊寫道:“除了掌握語言之外,GPT-4還可以解決涉及數(shù)學(xué)、編程、視覺、醫(yī)學(xué)、法律、心理學(xué)等領(lǐng)域的各種復(fù)雜新問題,而且不需要任何特殊提示。”他們總結(jié)說,人工智能在許多領(lǐng)域的能力與人類相當(dāng)。

          不過其中一位研究人員承認(rèn),盡管人工智能研究人員曾嘗試制定量化標(biāo)準(zhǔn)來評估機器的智能程度,但如何定義“智能”依舊非常棘手。

          他說,“它們都存在問題或有爭議。”(辰辰)

          免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

          猜你喜歡

          最新文章