日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁(yè)>科技 >內(nèi)容

          為什么人工智能會(huì)讓我們?nèi)绱梭@恐?

          2019-04-20 12:59:42來(lái)源:
          導(dǎo)讀當(dāng)人們看到像人類(lèi)一樣響應(yīng)的機(jī)器,或者具有模仿人類(lèi)聰明才智的策略和認(rèn)知功能的計(jì)算機(jī)時(shí),他們有時(shí)會(huì)開(kāi)玩笑說(shuō)人類(lèi)將需要接受機(jī)器人的霸主。

          當(dāng)人們看到像人類(lèi)一樣響應(yīng)的機(jī)器,或者具有模仿人類(lèi)聰明才智的策略和認(rèn)知功能的計(jì)算機(jī)時(shí),他們有時(shí)會(huì)開(kāi)玩笑說(shuō)人類(lèi)將需要接受機(jī)器人的霸主。

          但埋在這個(gè)笑話中的是一種不安的種子。科幻小說(shuō)和流行電影,從“2001:太空漫游”(1968)到“復(fù)仇者聯(lián)盟:奧創(chuàng)力時(shí)代”(2015),推測(cè)人工智能(AI)超出了其創(chuàng)作者的期望并逃脫了他們的控制最終超越競(jìng)爭(zhēng)并奴役人類(lèi)或?qū)⑵涿闇?zhǔn)滅絕。

          人類(lèi)和人工智能之間的沖突是AMC科幻系列劇“人類(lèi)”的前沿和中心,該系列于周二(6月5日)重返第三季。在新劇集中,有意識(shí)的合成人類(lèi)面對(duì)敵對(duì)的人,他們懷疑,恐懼和仇恨對(duì)待他們。當(dāng)Synths發(fā)現(xiàn)自己不僅為基本權(quán)利而且為了生存而戰(zhàn),而不是那些認(rèn)為他們不如人類(lèi)和危險(xiǎn)威脅的人時(shí),暴力行為就會(huì)發(fā)生。

          即使在現(xiàn)實(shí)世界中,并非所有人都愿意張開(kāi)雙臂歡迎AI。近年來(lái),隨著計(jì)算機(jī)科學(xué)家們突破了人工智能可以實(shí)現(xiàn)的界限,技術(shù)和科學(xué)方面的領(lǐng)先人物已經(jīng)警告人工智能可能給人類(lèi)帶來(lái)的迫在眉睫的危險(xiǎn),甚至暗示人工智能能力可能會(huì)毀滅人類(lèi)。

          但為什么人們對(duì)AI的想法如此不安?

          一種“存在的威脅”

          伊隆·馬斯克是具有突出的聲音之一提出了紅旗關(guān)于AI。2017年7月,馬斯克在全國(guó)州長(zhǎng)協(xié)會(huì)會(huì)議上告訴與會(huì)者,“我接觸到了最前沿的人工智能,我認(rèn)為人們應(yīng)該真的關(guān)心它。”

          “我一直在敲響警鐘,”馬斯克補(bǔ)充道。“但是直到人們看到機(jī)器人走在街上殺人,他們才不知道如何反應(yīng),因?yàn)樗雌饋?lái)如此空靈。”

          早些時(shí)候,在2014年,馬斯克將AI稱為 “我們最大的生存威脅”,并在2017年8月,他宣稱人類(lèi)面臨的AI風(fēng)險(xiǎn)比朝鮮更大。

          3月14日去世的物理學(xué)家斯蒂芬霍金也表達(dá)了對(duì)惡意AI的擔(dān)憂,他在2014年告訴英國(guó)廣播公司,“全人工智能的發(fā)展可能意味著人類(lèi)的終結(jié)。”

          一些程序員 - 尤其是馬薩諸塞州劍橋的麻省理工學(xué)院媒體實(shí)驗(yàn)室的程序員 - 似乎決定證明人工智能可怕,這也不足以令人放心。

          麻省理工學(xué)院計(jì)算機(jī)科學(xué)家于2016年推出了 一種名為“ 夢(mèng)魘機(jī)器 ”的神經(jīng)網(wǎng)絡(luò),將普通照片轉(zhuǎn)化為殘忍,令人不安的地獄風(fēng)景。麻省理工學(xué)院的一個(gè)名為“ 雪萊 ” 的AI 組成了可怕的故事,訓(xùn)練了Reddit用戶在論壇上發(fā)布的140,000個(gè)恐怖故事。/ nosleep。

          “我們對(duì)AI如何引發(fā)情緒感興趣 - 恐懼,在這種特殊情況下,”麻省理工學(xué)院媒體實(shí)驗(yàn)室的研究經(jīng)理Manuel Cebrian在一封關(guān)于Shelley可怕故事的電子郵件中告訴Live Science。

          恐懼和厭惡

          人工智能的負(fù)面感覺(jué)通??煞譃閮深?lèi):人工智能將變得有意識(shí)并試圖摧毀我們的觀念,以及不道德的人將AI用于邪惡目的的觀念,Kilian Weinberger,計(jì)算機(jī)科學(xué)系副教授在康奈爾大學(xué),告訴Live Science。

          “人們害怕的一件事是,如果超智能人工智能 - 比我們更聰明 - 變得有意識(shí),它可以像對(duì)待我們對(duì)待猴子一樣對(duì)待我們,”他說(shuō)。“這肯定是不可取的。”

          然而,Weinberger指出,人們擔(dān)心人工智能會(huì)提高認(rèn)識(shí)并推翻人類(lèi),這是基于對(duì)AI的誤解。AI在由決定其行為的算法定義的非常具體的限制下運(yùn)行。某些類(lèi)型的問(wèn)題很好地映射到AI的技能組合,使得AI完成某些任務(wù)相對(duì)容易。“但是大多數(shù)事情并沒(méi)有映射到那個(gè),而且它們不適用,”他說(shuō)。

          這意味著,雖然人工智能可能在精心劃定的界限內(nèi)有令人印象深刻的功績(jī) - 例如,玩一個(gè)大師級(jí)的國(guó)際象棋游戲或快速識(shí)別圖像中的物體 - 這就是它的能力結(jié)束的地方。

          “人工智能達(dá)到意識(shí) - 在該領(lǐng)域的研究一直沒(méi)有進(jìn)展,”溫伯格說(shuō)。“我不認(rèn)為這在不久的將來(lái)會(huì)發(fā)生在任何地方。”

          Weinberger補(bǔ)充說(shuō),另一個(gè)令人擔(dān)憂的想法 - 不幸的是,一個(gè)不道德的人會(huì)因?yàn)橛泻Φ脑蚨萌斯ぶ悄?- 更不可能。Weinberger說(shuō),幾乎任何類(lèi)型的機(jī)器或工具都可以用于好的或壞的目的,這取決于用戶的意圖,武器利用人工智能的前景肯定是可怕的,并且將受益于嚴(yán)格的政府監(jiān)管。

          Weinberger建議,也許,如果人們可以放下他們對(duì)敵對(duì)人工智能的恐懼,他們會(huì)更加開(kāi)放地認(rèn)識(shí)到它的好處。例如,增強(qiáng)的圖像識(shí)別算法可以幫助皮膚科醫(yī)生識(shí)別可能致癌的痣,而自動(dòng)駕駛汽車(chē)有一天可以減少因車(chē)禍導(dǎo)致的死亡人數(shù),其中許多是人為錯(cuò)誤導(dǎo)致的,他告訴Live Science。

          但在自我意識(shí)到的Synths的“人類(lèi)”世界中,人們對(duì)有意識(shí)的AI的恐懼引發(fā)了Synths與人之間的激烈對(duì)抗,而人類(lèi)與AI之間的斗爭(zhēng)可能會(huì)繼續(xù)下去并在當(dāng)前季節(jié)升級(jí) - 至少。

          免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

          猜你喜歡

          最新文章