日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁>疫情動態(tài) >內(nèi)容

          AI還沒造福人類,就已經(jīng)先作惡了?

          2023-07-20 14:38:12來源:
          導讀人工智能技術,也就是大家常說的AI,一直都被塑造成有著美好想象空間,是未來世界不可或缺的重要技術領域。比如馬云曾說,未來30年智能技術...

          人工智能技術,也就是大家常說的AI,一直都被塑造成有著美好想象空間,是未來世界不可或缺的重要技術領域。

          比如馬云曾說,未來30年智能技術將深入到社會方方面面,徹底重塑傳統(tǒng)制造業(yè),不會用智能技術的企業(yè)都將失敗。

          比爾蓋茨也曾坦言,如果在今天尋找一個能對世界造成巨大影響的機會,他毫不猶豫地會選擇人工智能。

          有幾個節(jié)點也讓大眾明確感受到了AI的能量。

          曾經(jīng)全球矚目的AlphaGo擊敗了圍棋世界冠軍,證明了AI算力可以輕松超越最頂尖的人類圍棋高手;如今ChatGPT以及衍生應用生態(tài)的爆火,也讓人們看到了AI大模型潛在的無限可能性。

          今年在資本市場,人工智能同樣再度爆火了一輪。天眼查平臺統(tǒng)計數(shù)據(jù)顯示,2023上半年資本力捧人工智能市場,月均融資事件達48起,其中5月融資數(shù)量最多,有61起。

          2023全球數(shù)字經(jīng)濟大會人工智能高峰論壇、2023世界人工智能大會等上半年科技圈的重磅大會,都把人工智能中的大模型、AGI(通用人工智能)等作為標配的重磅話題。

          然而,在我們暢想并努力通往人工智能美好未來的同時,也不該忽略人工智能正在產(chǎn)生的“惡”。至少目前從現(xiàn)實來看,人工智能帶來的東西,似乎并不如想象般美好。

          AI,早已在作惡

          你有沒有想過,在熱鬧的社交輿論平臺上活躍著的,或許根本不是人,而是一個個被人工智能訓練出來的,有著人類語言風格的升級版“僵尸號”?

          早在2017年,這種操作就已經(jīng)受到了學者、媒體的關注。彼時鈦媒體在一篇報道中援引了芝加哥大學的一篇研究論文,稱人工智能可以被用來生成虛假、復雜的內(nèi)容信息,足以達到以假亂真的效果。

          如今這樣的功能其實早已是AI最為基礎的能力之一了。例如完全對普通用戶開放的微軟AI工具New Bing上,太平洋科技簡單提出了生成文本的需求,給大眾點評榜單上熱度很高的餐廳寫幾條打卡點評,具體結果可以看下圖。

          無論正面還是負面評價,任何一個用戶都可以使用New Bing來快速生成。從結果也可以看到,這些打卡點評內(nèi)容,有著豐富的細節(jié),語言風格和表達口吻也接近人類用戶,可以說基本與真人寫的打卡點評相差無幾。

          當然這只是列舉一個最基礎的案例,要形成所謂的AI水軍,必然還有更高級的玩法。雷鋒網(wǎng)就曾報道稱,經(jīng)營AI水軍產(chǎn)業(yè)的公司往往會使用循環(huán)神經(jīng)網(wǎng)絡、AI語言模型對海量的“僵尸賬號”進行訓練,以網(wǎng)上大量的評論素材做訓練素材。

          這樣生成的AI水軍賬號,可以按照雇主的需求,在網(wǎng)絡平臺中“指哪打哪”,比如引導輿論風向,抹黑帶節(jié)奏,造謠中傷等等。這些AI賬號輸出的內(nèi)容,不僅可以躲避軟件檢測,也讓網(wǎng)絡水軍公司實現(xiàn)了“降本增效”。

          這類問題在全球互聯(lián)網(wǎng)中都普遍存在。比如2019年末,F(xiàn)acebook關閉了大量的博主、用戶賬號,原因是平臺發(fā)現(xiàn)有人使用了AI能力,將這些賬號偽裝成真實用戶,有目的地發(fā)布大量虛假消息。

          還有一些有趣的事情或許可以從側面印證這個問題。今年6月,歌手孟美岐發(fā)了一條宣傳自己北京演唱會的微博,很快評論區(qū)就有數(shù)萬“粉絲”涌進來留言,一條條“北京見”之類的留言,看起來就像一個個等待激動赴約,到演唱會應援偶像的粉絲。

          然而尷尬的地方來了,孟美岐北京演唱會的場地只能容納1000多名觀眾,臨近演唱會開場日期了,這1000多張票還是沒賣完。這也讓輿論調(diào)侃孟美岐微博的評論區(qū)有著大量偽裝成真人粉絲的AI水軍,評論數(shù)據(jù)很好看,但演唱會門票卻賣不完。

          “商業(yè)投流里面一直都有水分,有水軍或者AI水軍在濫竽充數(shù)?!庇袕氖铝髁客斗?、運營工作的投手對太平洋科技表示,流量往往按照曝光數(shù)來計算費用,在真實流量中摻雜一些僵尸號是常見的情況,有了AI的加持,這種坑廣告主的行為就更難被發(fā)現(xiàn)了。

          該投手也列舉了案例,比如廣告主在付費投放之后,直播間突然涌進大量的賬號,看似人氣漲了,但實際這些賬號基本只會刷屏“大拇指”,或者清一色發(fā)“早上好”、“晚上好”這樣的固定句式,完全沒有任何訂單轉化。

          向平臺客服投訴,得到的答復也基本是說這些都是真人用戶的個人行為。廣告主也無法分辨這究竟是AI水軍來濫竽充數(shù),還是投流失誤導致的非精準流量。廣告主錢花了,事一點沒辦成,相當于只能吃啞巴虧。

          AI,也在污染“當下”

          “我現(xiàn)在每天的創(chuàng)作,其實相當于AI洗了別人的稿,我再稍微洗一下AI的稿?!弊悦襟w從業(yè)者阿波對太平洋科技坦言,有了類ChatGPT這樣的AI工具之后,他的“創(chuàng)作效率”飆升。

          阿波表示,以前一篇文章從選題確立,到查找內(nèi)容,再到構思組稿,往往需要花挺長時間,但現(xiàn)在有了AI之后模式就不一樣了,只需要把話題和內(nèi)容需求提交給AI,AI就會在網(wǎng)絡上搜集信息并重新組成一篇新的文字內(nèi)容,也就是俗稱的“洗稿”,阿波只需要細節(jié)修改調(diào)整一下,一篇完整的自媒體文章很快就能成形。

          再加上現(xiàn)在市面上也有很多AI一鍵生成視頻、AI配音等工具,將文章轉為視頻再進行分發(fā)也非常方便。

          但有一個很核心的問題,阿波也并沒有否認,這就是信息來源的可靠性,信息本身的真實性,他作為內(nèi)容創(chuàng)作者,全然交給了AI來處理,并不會花更多的時間去求證?!拔覀冏非蟮闹皇橇髁?,內(nèi)容出錯大不了刪稿就好。”

          試想一下,如果輿論場每天為大眾提供內(nèi)容的,是無數(shù)個只求流量不管質量的創(chuàng)作者“阿波”,會出現(xiàn)怎樣的后果?最直接的就是會出現(xiàn)無數(shù)個現(xiàn)代版的“三人成虎”案例,嚴重的話會導致整個互聯(lián)網(wǎng)空間充斥著謠言、虛假新聞、錯誤信息等不可信內(nèi)容。

          量子位就曾在一篇相關報道中,將這樣的現(xiàn)象稱為“AI正在污染中文互聯(lián)網(wǎng)”。

          簡單來說,AI生成的內(nèi)容并不是憑空而來的,而是需要一定的信息素材作為基礎。當AI因為各種原因生成了錯誤、虛假信息后,這些信息又可能成為另一個AI生成內(nèi)容時的素材。

          當互聯(lián)網(wǎng)空間充斥著AI制造的垃圾信息后,這種無限套娃式的AI信息傳遞,就會變成一個輸入和輸出都是垃圾信息的死循環(huán),這是一個十分可怕的糟糕局面。

          AI技術,還有一些更直接的“惡”。今年5月,包頭警方公布了一起利用AI實施詐騙的案例。福州一位企業(yè)主,接到了生意好友的微信視頻電話,說需要430萬元急用,由于對方在視頻連線中的樣貌、聲音都與好友一模一樣,該企業(yè)主便沒有疑慮將錢轉了過去。結果沒想到這是騙子通過AI換臉和擬聲技術,假冒了“好友”進行的詐騙。

          可見通過AI技術的加持,騙子甚至能在實時的視頻通話中完整還原一個人的樣貌和聲音,類似這樣的詐騙案例層出不窮,光明網(wǎng)、環(huán)球網(wǎng)更是在相關報道中表示AI詐騙的成功率接近100%。

          另一方面,無論是擁有百萬粉絲的網(wǎng)紅大V,還是按部就班工作生活的普通人,都有可能被AI換臉,乃至更離譜的AI脫衣盯上。

          比如據(jù)多家媒體的報道,網(wǎng)絡中有大量的不法分子通過AI技術,將一些頭部網(wǎng)紅或者女性用戶的樣貌,融合嫁接到一些、色情內(nèi)容中,再有償販賣給其他用戶,這其中有的不法分子甚至能月入20萬。

          再比如今年3月,有人在廣州地鐵上拍下一女子照片后,用所謂的AI一鍵脫衣工具生成了圖并在網(wǎng)絡上傳播,這一事件沖上熱搜后,也引發(fā)了大眾對于AI工具侵害問題的關注。

          此前5月份,在業(yè)界有“人工智能教父”之稱的計算機科學家杰弗里·辛頓宣布從谷歌離職,理由是這樣能更加不受限制地呼吁人們關注AI的潛在風險。

          杰弗里·辛頓可以說是AI領域的頂級大牛,他憑借在AI領域的研究貢獻,與另外兩名科學家共同獲得了2018年的圖靈獎,OpenAI的創(chuàng)始人兼首席科學家便是杰弗里·辛頓的學生。

          “現(xiàn)在似乎還很難看到如何能夠防止壞人利用人工智能來做壞事?!毖芯緼I數(shù)十年后,辛頓如今已經(jīng)成為了AI的“末日預言者”,極力向公眾表達他對人工智能的擔憂。

          當然,行業(yè)中自然會有不同的聲音?!叭斯ぶ悄艿娘L險都是可控的?!北葼柹w茨表示,AI的深度偽造、錯誤信息、胡編亂造等問題,的確會引發(fā)諸多風險,但他仍然樂觀的認為,這些風險都是可控的。

          誠然,AI的未來或許是光明的,值得期待的,但這并不能掩蓋AI在當下所制造出來的種種亂象問題,AI所作的“惡”,都亟需得到控制和凈化,這也是AI邁向未來的必要前提。

          后記

          最后再用一段科幻故事來闡述一下AI這個宏大敘事中不可忽視的黑暗面。

          科幻劇集《黑鏡》中,有一集的故事是這樣的。未來世界,環(huán)境改變,蜜蜂滅絕,但大自然不能失去蜜蜂,于是人類發(fā)明了機械人造蜂來替代蜜蜂在大自然中的作用。

          人造蜂利用太陽能和各種高精度的識別技術,由分布在各地的數(shù)千個高度智能化的人工智能蜂巢來管理運行,無需人類控制便可自主完成飛行、傳粉等任務。

          這個發(fā)明挽救了因失去蜜蜂而瀕臨崩潰的自然生態(tài),當然,這只是故事中美好的一面。

          故事的另外一面,是有人黑進了人工智能系統(tǒng),取得了數(shù)百萬遍布各地的人造蜂的控制權,將海量的用戶人臉、身份信息上傳到人工智能系統(tǒng)后,這些本該造福人類、自然的人造蜂,突然就成了最恐怖的武器,在AI的操控下有目的地奪走了數(shù)十萬人的生命。

          與科幻世界里想象的災難相比,前文提到的現(xiàn)實中已出現(xiàn)的AI作惡案例或許顯得微不足道,但“勿以惡小而為之”,再微小的陰暗面都不容忽視,或許科幻片中描繪的后世災難,正是由當下一點一點的“惡”所積累而成。

          區(qū)塊鏈、元宇宙、ARVR......科技領域有過太多高開低走的爛尾故事,熱鬧過后一地雞毛。但實際上,這些代表未來的科技領域,或許并不該過早地被打造成噱頭,被利用來斂財。

          人工智能更是如此,畢竟這項技術離現(xiàn)實更近,也存在著更大的失控風險。盡可能地考慮到所有可能性,用“做好最壞打算”的態(tài)度來審慎發(fā)展人工智能,是實現(xiàn)“風險可控”目標必不可少的思路和策略。

          免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

          猜你喜歡

          最新文章