日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁>科技 >內(nèi)容

          OpenAI的假新聞警告如何觸發(fā)實(shí)際的假新聞

          2019-03-31 16:05:34來源:
          導(dǎo)讀哪個(gè)是更大的威脅:人工智能產(chǎn)生的假新聞還是人工智能的假新聞?至少目前,我們應(yīng)該更加擔(dān)心后者。非營利性人工智能研究實(shí)驗(yàn)室OpenAI上個(gè)月

          哪個(gè)是更大的威脅:人工智能產(chǎn)生的假新聞還是人工智能的假新聞?至少目前,我們應(yīng)該更加擔(dān)心后者。

          非營利性人工智能研究實(shí)驗(yàn)室OpenAI上個(gè)月引入了一波AI啟示錄恐慌,當(dāng)時(shí)它引入了一種最先進(jìn)的文本生成AI,稱為GPT-2。但是當(dāng)它慶祝GPT-2的成就時(shí),OpenAI宣布它不會(huì)向公眾發(fā)布其AI模型,擔(dān)心在錯(cuò)誤的手中,GPT-2可能被用于惡意目的,例如產(chǎn)生誤導(dǎo)新聞文章,冒充他人在線,并在社交媒體上自動(dòng)生成虛假內(nèi)容。

          意見可以預(yù)見的是,OpenAI的公告創(chuàng)造了大量聳人聽聞的新聞報(bào)道,但是雖然任何先進(jìn)技術(shù)都可以武器化,但AI在掌握文本生成之前還有很長(zhǎng)的路要走。即便如此,創(chuàng)造假新聞危機(jī)還需要不止文字生成的AI。從這個(gè)角度來看,OpenAI的警告被夸大了。

          人工智能和人類語言

          計(jì)算機(jī)歷史上一直在努力處理人類語言。書面文本中有如此多的復(fù)雜性和細(xì)微差別,將所有這些都轉(zhuǎn)換為經(jīng)典的軟件規(guī)則幾乎是不可能的。但是深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的最新進(jìn)展為創(chuàng)建可以處理語言相關(guān)任務(wù)的軟件的不同方法鋪平了道路。

          深度學(xué)習(xí)為機(jī)器翻譯,文本摘要,問答和自然語言生成等領(lǐng)域帶來了巨大的改進(jìn)。它允許軟件工程師通過分析許多示例來創(chuàng)建開發(fā)自己行為的算法。對(duì)于與語言相關(guān)的任務(wù),工程師為神經(jīng)網(wǎng)絡(luò)提供數(shù)字化內(nèi)容,如新聞報(bào)道,維基百科頁面和社交媒體帖子。神經(jīng)網(wǎng)絡(luò)仔細(xì)比較數(shù)據(jù)并記錄某些單詞在重復(fù)序列中如何跟隨其他單詞。然后,他們將這些模式轉(zhuǎn)化為復(fù)雜的數(shù)學(xué)方程式,幫助他們解決與語言相關(guān)的任務(wù),例如預(yù)測(cè)文本序列中的缺失單詞。通常,您為深度學(xué)習(xí)模型提供的質(zhì)量訓(xùn)練數(shù)據(jù)越多,執(zhí)行任務(wù)的能力就越高。

          根據(jù)OpenAI,GPT-2已經(jīng)接受了800萬個(gè)網(wǎng)頁和數(shù)十億字的培訓(xùn),這比其他類似的模型要多得多。它還使用高級(jí)AI模型來更好地應(yīng)用文本模式。來自GPT-2的樣本輸出顯示該模型設(shè)法在比其前輩更長(zhǎng)的文本序列中保持一致性。

          雖然GPT-2在自然語言生成領(lǐng)域向前邁進(jìn)了一步,但它并不是創(chuàng)造能夠理解書面文本的意義和背景的人工智能的技術(shù)突破。GPT-2仍在使用算法創(chuàng)建單詞序列,這些單詞在統(tǒng)計(jì)上與之前看到的數(shù)十億文本摘錄相似 - 它完全不了解它產(chǎn)生的內(nèi)容。

          在深入分析中,ZDNet的Tiernan Ray指出了GPT-2的輸出樣本背叛其人為性質(zhì)的幾個(gè)例子,其中包括術(shù)語重復(fù)和缺乏邏輯以及事實(shí)一致性等眾所周知的文物。“當(dāng)GPT-2繼續(xù)處理需要更多思想和邏輯發(fā)展的寫作時(shí),裂縫會(huì)在相當(dāng)寬的范圍內(nèi)突破,”雷指出。

          統(tǒng)計(jì)學(xué)習(xí)可以幫助計(jì)算機(jī)生成語法正確的文本,但需要更深入的概念理解來保持邏輯和事實(shí)的一致性。不幸的是,目前AI的混合物還沒有克服,這仍然是一個(gè)挑戰(zhàn)。這就是為什么GPT-2可以生成漂亮的文本段落,但可能很難生成一個(gè)真實(shí)的長(zhǎng)篇文章或以令人信服的方式和長(zhǎng)時(shí)間冒充某人。

          為什么AI虛假 - 新聞恐慌被夸大了

          OpenAI推理的另一個(gè)問題:它假設(shè)AI可以創(chuàng)造假新聞危機(jī)。

          2016年,一群馬其頓青少年向數(shù)百萬人傳播有關(guān)美國總統(tǒng)大選的假新聞。具有諷刺意味的是,他們甚至沒有適當(dāng)?shù)挠⒄Z技能; 他們?cè)诰W(wǎng)上找到自己的故事,并將不同的內(nèi)容拼接在一起。他們之所以成功,是因?yàn)樗麄儎?chuàng)建的網(wǎng)站看起來很真實(shí),可以說服訪問者相信他們是可靠的新聞來源。引人注目的頭條新聞,疏忽的社交媒體用戶和趨勢(shì)算法完成了其余的工作。

          然后在2017年,惡意演員通過攻擊卡塔爾國營新聞網(wǎng)站和政府社交媒體賬戶,并代表卡塔爾埃米爾的謝赫塔米姆·本·哈馬德·阿勒薩尼發(fā)表虛假言論,引發(fā)了波斯灣地區(qū)的外交危機(jī)。

          正如這些故事所表明的那樣,假新聞活動(dòng)的成功取決于建立(和背叛)信任,而不是產(chǎn)生大量連貫的英文文本。

          然而,OpenAI關(guān)于自動(dòng)生成虛假內(nèi)容以在社交媒體上發(fā)布的警告更為合理,因?yàn)橐?guī)模和數(shù)量在社交網(wǎng)??絡(luò)中比在傳統(tǒng)媒體中扮演更重要的角色。假設(shè)GPT-2等人工智能將能夠在社交媒體上涌現(xiàn)數(shù)百萬個(gè)關(guān)于特定主題的獨(dú)特帖子,從而影響趨勢(shì)算法和公眾討論。

          但是,警告仍未達(dá)到現(xiàn)實(shí)。在過去幾年中,社交媒體公司一直在不斷開發(fā)檢測(cè)和阻止自動(dòng)行為的功能。因此,一個(gè)擁有文本生成AI的惡意行為者必須克服許多挑戰(zhàn),而不是創(chuàng)造獨(dú)特的內(nèi)容。

          例如,他們需要數(shù)以千計(jì)的假社交媒體帳戶來發(fā)布他們生成AI的內(nèi)容。更難的是,為了確保無法連接虛假賬戶,他們需要為每個(gè)賬戶提供唯一的設(shè)備和IP地址。

          情況變得更糟:帳戶必須在不同的時(shí)間創(chuàng)建,可能超過一年或更長(zhǎng)時(shí)間,以減少相似之處。去年,“紐約時(shí)報(bào)”的一項(xiàng)調(diào)查顯示,僅憑帳戶創(chuàng)建日期就可以幫助發(fā)現(xiàn)僵尸帳戶。然后,為了進(jìn)一步隱藏其他用戶和警務(wù)算法的自動(dòng)化性質(zhì),帳戶必須進(jìn)行類似人類的行為,例如與其他用戶交互并在帖子中設(shè)置獨(dú)特的語氣。

          這些挑戰(zhàn)都無法克服,但它們表明,內(nèi)容只是社交媒體虛假新聞活動(dòng)中所需努力的一部分。再一次,信任起著重要作用。一些可信賴的社交媒體影響者發(fā)布一些虛假新聞帖子將產(chǎn)生比產(chǎn)生大量?jī)?nèi)容的一堆未知帳戶更大的影響。

          免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

          猜你喜歡

          最新文章