日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁(yè)>國(guó)內(nèi) >內(nèi)容

          AI大牛們預(yù)警,但眼前問(wèn)題或毀滅人類(lèi)風(fēng)險(xiǎn),哪個(gè)更值得擔(dān)心?

          2023-05-04 17:12:07來(lái)源:
          導(dǎo)讀5月4日消息,建構(gòu)當(dāng)今人工智能基礎(chǔ)技術(shù)的“大牛們”紛紛發(fā)出警告,稱(chēng)該技術(shù)存在潛在的危險(xiǎn)。然而,他們目前尚未就人工智能的危險(xiǎn)性或預(yù)防措...

          5月4日消息,建構(gòu)當(dāng)今人工智能基礎(chǔ)技術(shù)的“大牛們”紛紛發(fā)出警告,稱(chēng)該技術(shù)存在潛在的危險(xiǎn)。然而,他們目前尚未就人工智能的危險(xiǎn)性或預(yù)防措施達(dá)成共識(shí)。

          杰弗里·辛頓(Geoffrey Hinton)被稱(chēng)為“人工智能教父”,他剛剛宣布從谷歌離職。他對(duì)自己的部分工作感到后悔,因?yàn)樗麚?dān)心機(jī)器會(huì)變得比人類(lèi)更聰明,進(jìn)而危及人類(lèi)生存。

          蒙特利爾大學(xué)教授約書(shū)亞·本吉奧(Yoshua Bengio)是另一位人工智能領(lǐng)域的先驅(qū)。他與辛頓以及Meta首席人工智能科學(xué)家楊立坤(Yann LeCun)因在人工神經(jīng)網(wǎng)絡(luò)領(lǐng)域取得突破而獲得了2018年圖靈獎(jiǎng),這些突破對(duì)當(dāng)今人工智能應(yīng)用程序(例如ChatGPT)的發(fā)展至關(guān)重要。周三,本吉奧表示,他“非常贊同”辛頓對(duì)聊天機(jī)器人(例如ChatGPT及其相關(guān)技術(shù))的擔(dān)憂(yōu),但他擔(dān)心,僅僅簡(jiǎn)單地說(shuō)“我們注定要失敗”并不能解決問(wèn)題。

          本吉奧補(bǔ)充說(shuō):“主要的區(qū)別在于,他(辛頓)是個(gè)悲觀的人,而我則更樂(lè)觀。我確實(shí)認(rèn)為,不論是短期的還是長(zhǎng)期的,這些危險(xiǎn)都非常嚴(yán)重,不僅需要少數(shù)的研究人員認(rèn)真對(duì)待,而且需要政府和民眾認(rèn)真對(duì)待。”

          有很多跡象表明,各國(guó)政府正在傾聽(tīng)各方聲音。白宮已經(jīng)召集了谷歌、微軟和ChatGPT制造商O(píng)penAI的首席執(zhí)行官們,與美國(guó)副卡瑪拉·哈里斯(Kamala Harris)在周四舉行了一次“坦誠(chéng)”的討論,重點(diǎn)是如何緩解其技術(shù)的短期和長(zhǎng)期風(fēng)險(xiǎn)。歐洲立法者也在加快談判,以通過(guò)全面的人工智能監(jiān)管規(guī)則。

          而有些人則擔(dān)心,過(guò)度炒作尚不存在的超級(jí)智能機(jī)器,幻想著它能造成最可怕的危險(xiǎn),會(huì)分散人們對(duì)當(dāng)前人工智能產(chǎn)品制定切實(shí)保障措施的注意力,而這些產(chǎn)品往往沒(méi)有得到監(jiān)管。

          在谷歌人工智能倫理團(tuán)隊(duì)前負(fù)責(zé)人瑪格麗特·米切爾(Margaret Mitchell)看來(lái),她對(duì)辛頓在谷歌掌權(quán)的十年里沒(méi)有直言不諱這一點(diǎn)感到不安,特別是在著名黑人科學(xué)家蒂姆尼特·格布魯(Timnit Gebru)2020年被解雇之后。格布魯曾在大型語(yǔ)言模型被廣泛商業(yè)化到ChatGPT和谷歌Bard等產(chǎn)品之前,研究過(guò)它們的危害。

          在格布魯離職后,米切爾也被迫離開(kāi)了谷歌。她說(shuō):“她(格布魯)幸運(yùn)地跳出了歧視傳播的圈子,仇恨語(yǔ)言的傳播、對(duì)女性的貶低和未經(jīng)雙方同意的色情內(nèi)容,所有這些問(wèn)題都在傷害著科技領(lǐng)域被邊緣化的人們。她跳過(guò)了所有這些事情,可以去擔(dān)心更遙遠(yuǎn)的事情?!?/p>

          2018年圖靈獎(jiǎng)的三位獲獎(jiǎng)?wù)咧?,本吉奧是唯一一位沒(méi)有在大型科技公司工作的人。多年來(lái),他一直對(duì)人工智能的近期風(fēng)險(xiǎn)表示擔(dān)憂(yōu),包括就業(yè)市場(chǎng)不穩(wěn)定、自動(dòng)化武器和有偏見(jiàn)數(shù)據(jù)集的危險(xiǎn)等等。

          但是最近,這些擔(dān)憂(yōu)變得更加嚴(yán)重,促使本吉奧聯(lián)合特斯拉首席執(zhí)行官埃隆·馬斯克(Elon Musk)、蘋(píng)果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)等其他計(jì)算機(jī)科學(xué)家和科技商業(yè)領(lǐng)袖,呼吁暫停開(kāi)發(fā)比OpenAI最新模型GPT-4更強(qiáng)大的人工智能系統(tǒng)六個(gè)月。

          本吉奧在周三表示,他相信最新的人工智能語(yǔ)言模型已經(jīng)通過(guò)了“圖靈測(cè)試”。圖靈測(cè)試以英國(guó)密碼破譯者、人工智能先驅(qū)艾倫·圖靈(Alan Turing)于1950年提出的方法命名,旨在衡量人工智能何時(shí)變得與人類(lèi)難以區(qū)分,至少在表面上如此。

          本吉奧說(shuō):“這是一個(gè)里程碑,但如果我們不小心,可能會(huì)產(chǎn)生嚴(yán)重的后果。我主要擔(dān)心的是這些技術(shù)將如何被利用來(lái)發(fā)動(dòng)網(wǎng)絡(luò)攻擊和傳播虛假信息等邪惡目的。你可以與這些系統(tǒng)對(duì)話(huà),并認(rèn)為是在與真人互動(dòng)。它們很難分辨。”

          研究人員對(duì)于目前的人工智能語(yǔ)言系統(tǒng)是否能夠比人類(lèi)更聰明存在爭(zhēng)議,因?yàn)檫@些系統(tǒng)有很多局限性,比如傾向于捏造信息等。

          艾丹·戈麥斯(Aidan Gomez)是2017年一篇開(kāi)創(chuàng)性論文的合著者之一,該論文引入了一種所謂的轉(zhuǎn)換器技術(shù),用于提高機(jī)器學(xué)習(xí)系統(tǒng)的性能,特別是在從文本段落中學(xué)習(xí)。當(dāng)時(shí)只有20歲的戈麥斯是谷歌的實(shí)習(xí)生。他記得在凌晨3點(diǎn)左右,當(dāng)他的團(tuán)隊(duì)發(fā)送論文時(shí),他正躺在公司加州總部的沙發(fā)上。

          戈麥斯還記得一位同事告訴他:“這將產(chǎn)生巨大影響?!?自那以后,他們的研究幫助推動(dòng)了新系統(tǒng)的出現(xiàn),后者可以生成類(lèi)似人類(lèi)撰寫(xiě)的文章。

          六年后,戈麥斯如今已是其所創(chuàng)人工智能公司Cohere的首席執(zhí)行官。他對(duì)這些系統(tǒng)的潛在應(yīng)用充滿(mǎn)了熱情,但他也被技術(shù)威脅所困擾。他說(shuō),這些系統(tǒng)的真實(shí)能力與現(xiàn)實(shí)脫節(jié),并且依賴(lài)于非凡的想象力和推理能力。

          戈麥斯說(shuō):“認(rèn)為這些模型會(huì)以某種方式獲得核武器的控制權(quán),并發(fā)動(dòng)某種滅絕級(jí)別事件的想法是杞人憂(yōu)天,無(wú)益于那些試圖做好事、真正務(wù)實(shí)的政策努力。”(小?。?/p>

          免責(zé)聲明:本文由用戶(hù)上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

          猜你喜歡

          最新文章