在大型語言模型的時(shí)代,我們已經(jīng)聽到很多關(guān)于人工智能風(fēng)險(xiǎn)的言論,比如大量的錯(cuò)誤和虛假信息以及對(duì)隱私的侵蝕。2023 年 4 月,我的同事梅麗莎·海基拉(Melissa Heikkil?)也預(yù)測,這些新的人工智能模型很快就會(huì)讓垃圾郵件和騙局充斥互聯(lián)網(wǎng)。而新的浪潮已經(jīng)到來,而且是由廣告資金驅(qū)動(dòng)的。
負(fù)責(zé)對(duì)網(wǎng)站質(zhì)量進(jìn)行評(píng)估的 NewsGuard 發(fā)現(xiàn),居心不良的人正在使用人工智能快速建立垃圾網(wǎng)站,以獲取在網(wǎng)上四處撒網(wǎng)的程序化廣告帶來的收入。有 140 多個(gè)品牌在使用人工智能生成文本的網(wǎng)站上做廣告,其中包括一些知名品牌。
(來源:Stephanie Arnett/MITTR | Envato)
這種策略之所以有效,是因?yàn)槌绦蚧瘡V告允許廣告主在沒有人為監(jiān)督的情況下在互聯(lián)網(wǎng)上購買廣告位:由算法對(duì)廣告位進(jìn)行競標(biāo),以優(yōu)化廣告的瀏覽數(shù)。
現(xiàn)在,人們正在使用生成式人工智能來制作網(wǎng)站,以獲取廣告收入。自 2023 年 4 月以來,NewsGuard 已經(jīng)追蹤了 200 多個(gè)“不可靠的人工智能新聞和信息網(wǎng)站”,其中大多數(shù)網(wǎng)站似乎都在尋求從信譽(yù)良好的公司那里賺取廣告收入。
NewsGuard 使用人工智能來檢查這些網(wǎng)站是否包含與 ChatGPT 等大型語言模型中的標(biāo)準(zhǔn)錯(cuò)誤信息相匹配的文本。然后,由人類研究人員對(duì)這些被標(biāo)記的網(wǎng)站進(jìn)行審查。
結(jié)果發(fā)現(xiàn)大多數(shù)網(wǎng)站的創(chuàng)建者都是完全匿名的,有些網(wǎng)站甚至提供的是人工智能生成的虛假創(chuàng)建者簡介和照片。
正如 NewsGuard 的研究員洛倫佐·阿瓦尼蒂斯()告訴我的那樣,“這只是互聯(lián)網(wǎng)游戲的名稱?!蓖ǔ#切┍疽饬己玫墓咀罱K會(huì)為垃圾內(nèi)容付費(fèi),有時(shí)這些內(nèi)容是不準(zhǔn)確的、存在誤導(dǎo)性的或者是虛假的。之所以這樣做,是因?yàn)檫@些網(wǎng)站非常熱衷于爭奪在線用戶的注意力。
最重要的是在上述“策略”之中,生成式人工智能的作用正在得到強(qiáng)化。根據(jù)的說法,很有可能“隨著這些語言模型變得更加先進(jìn)和易于使用,這種現(xiàn)象將變得更加普遍”。
雖然我們可以預(yù)料到它會(huì)被惡意行為者用于造謠活動(dòng),但我們不應(yīng)該忽視生成式人工智能可能產(chǎn)生的后果:即大量的資金和資源會(huì)被浪費(fèi)。
支持:Ren
運(yùn)營/排版:羅以