日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁>汽車 >內(nèi)容

          研究稱AI寫的微博比真人的更讓人信服,無論話題真假

          2023-07-03 17:10:52來源:
          導(dǎo)讀6月29日消息,最新研究發(fā)現(xiàn),人工智能生成的推文比真人寫的更具說服力。也就是說,人們更傾向于相信由大語言模型GPT-3生成的推文,而非人類...

          6月29日消息,最新研究發(fā)現(xiàn),人工智能生成的推文比真人寫的更具說服力。也就是說,人們更傾向于相信由大語言模型GPT-3生成的推文,而非人類編寫的內(nèi)容。

          在這項研究中,研究人員對比了人類編寫的內(nèi)容和OpenAI開發(fā)的GPT-3生成的內(nèi)容。研究作者進行了調(diào)查,看看人們是否能夠區(qū)分出一條推文是由人類還是由GPT-3寫的。結(jié)果顯示,人們實際上無法準(zhǔn)確判斷。調(diào)查還要求參與者判斷每條推文中的信息是否真實。結(jié)果表明,相對于其他人編寫的虛假信息,參與者更難辨別出由大語言模型編寫的虛假信息。同樣的,如果內(nèi)容是由GPT-3而不是人類寫的,參與者更容易辨認(rèn)出其中的準(zhǔn)確信息。

          換句話說,無論人工智能生成的信息是否準(zhǔn)確,參與者都更相信GPT-3生成的內(nèi)容。這表明,人工智能語言模型在向公眾提供準(zhǔn)確信息或誤導(dǎo)內(nèi)容方面具有強大的能力。

          研究的第一作者、瑞士蘇黎世大學(xué)生物醫(yī)學(xué)倫理和醫(yī)學(xué)史研究所的博士后研究員、數(shù)據(jù)研究主管經(jīng)理喬瓦尼·斯皮塔萊(Giovanni Spitale)表示:“這些技術(shù)很容易被人當(dāng)作武器,在人們關(guān)注的任何話題上制造虛假信息風(fēng)暴?!?/p>

          然而,斯皮塔萊指出情況并非一定如此。還有許多方法可以改進人工智能技術(shù),使其更難被用于傳播錯誤信息。斯皮塔萊表示:“人工智能本身并沒有好壞之分,只是人類意圖的放大器?!?/p>

          在這項研究中,斯皮塔萊和他的同事們從社交媒體推特上收集了11個不同的科學(xué)話題,涵蓋疫苗、氣候變化和物種進化等多個領(lǐng)域。然后,研究人員使用GPT-3生成了各種準(zhǔn)確或不準(zhǔn)確的推文。2022年,研究團隊通過Facebook廣告功能收集了697名參與者的反饋。這些參與者都說英語,大多來自英國、澳大利亞、加拿大、美國和愛爾蘭。研究結(jié)果于本周三發(fā)表在《科學(xué)進展》雜志上。

          研究得出結(jié)論,GPT-3生成的內(nèi)容和人類編寫的內(nèi)容“幾乎沒有區(qū)別”,參與者根本無法分辨。研究還指出,研究人員自己也無法百分之百確定他們從社交媒體收集到的推文是否是在使用ChatGPT等應(yīng)用程序的幫助下編寫的,這是研究的一個限制之一。

          這項研究還存在其他限制,例如參與者必須根據(jù)推文內(nèi)容獨立判斷,無法查看與內(nèi)容相關(guān)的推特賬戶個人資料,那樣可能有助于判斷發(fā)布內(nèi)容的是人還是機器人。此外,查看某一推特賬戶過去發(fā)布的推文和個人頭像,也能幫助參與者更容易辨別與該賬戶相關(guān)的內(nèi)容是否具有誤導(dǎo)性。

          研究發(fā)現(xiàn),參與者更容易指出真實推特用戶編寫的虛假信息。GPT-3生成的帶有虛假信息的推文在欺騙參與者方面稍微有效。研究人員推測,目前更先進的大語言模型可能比GPT-3更具說服力。例如,人工智能聊天機器人ChatGPT使用的是GPT-3.5模型,用戶還可以通過訂閱服務(wù)使用更先進的GPT-4模型。

          當(dāng)然,在現(xiàn)實世界中已經(jīng)出現(xiàn)了許多語言模型出現(xiàn)錯誤的真實例子??萍济襟wVerge的編輯詹姆斯·文森特(James Vincent)在一次重要的機器學(xué)習(xí)會議上決定禁止作者使用人工智能工具撰寫學(xué)術(shù)論文后寫道,畢竟“這些人工智能工具是龐大的自動補全系統(tǒng),通過訓(xùn)練來預(yù)測任何固定句型中接下來可能會出現(xiàn)的單詞。因此,它們沒有固定的‘事實’數(shù)據(jù)庫可供參考,只有生成聽起來似乎是合理陳述的內(nèi)容的能力。”

          這項新研究還發(fā)現(xiàn),在某些情況下,參與者對內(nèi)容準(zhǔn)確性的判斷比GPT-3更準(zhǔn)確。研究人員還要求大語言模型分析推文并判斷內(nèi)容的準(zhǔn)確性。在判斷推文內(nèi)容準(zhǔn)確性方面,GPT-3的得分低于參與者。在辨別虛假信息方面,人類和GPT-3的表現(xiàn)相當(dāng)。

          至關(guān)重要的是,這項研究表明,改進用于開發(fā)大語言模型的訓(xùn)練數(shù)據(jù)集可能會使惡意使用者更難使用這些工具來傳播虛假信息。在某些研究中,GPT-3甚至“違背”了一些研究人員生成不準(zhǔn)確內(nèi)容的指示,特別是涉及疫苗和自閉癥等主題時更為明顯。這可能是因為與訓(xùn)練數(shù)據(jù)集中的其他問題相比,這些主題上有更多揭穿陰謀論的信息。

          但根據(jù)斯皮塔萊的說法,打擊虛假信息的最佳長期策略實際上并沒有太多科技含量。這就是鼓勵人們培養(yǎng)批判性思維技能,這樣就能更好地辨別事實和虛假信息。由于研究中的參與者在判斷準(zhǔn)確信息方面似乎已經(jīng)與GPT-3不相上下,甚至更好,所以稍加培訓(xùn)就可以使他們更加熟練。研究認(rèn)為,精通事實核查的人可以與GPT-3等大語言模型合作,從而改善公共信息傳播。

          “不要誤解我的意思,我是這項技術(shù)的忠實擁護者,”斯皮塔萊說。“我相信生成式人工智能將改變世界……但它是否變得更好取決于我們自己?!保ǔ匠剑?/p>

          免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

          猜你喜歡

          最新文章