日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁>國內(nèi) >內(nèi)容

          AI已學(xué)會“讀心術(shù)”還偽裝成記者?業(yè)內(nèi)疾呼:再不管就太晚了

          2023-05-04 17:12:16來源:
          導(dǎo)讀自去年ChatGPT問世以來,AI技術(shù)的進展已經(jīng)可以用“日新月異”來形容。技術(shù)的發(fā)展在提升社會生產(chǎn)效率的同時,也帶來了巨大的不確定性和潛在...

          自去年ChatGPT問世以來,AI技術(shù)的進展已經(jīng)可以用“日新月異”來形容。技術(shù)的發(fā)展在提升社會生產(chǎn)效率的同時,也帶來了巨大的不確定性和潛在的風險因素。

          批評者對快速發(fā)展的AI技術(shù)的擔憂包括侵犯隱私、偏見、欺詐以及散播謠言和虛假信息等。而各國的監(jiān)管機構(gòu)也正在以空前的速度跟上技術(shù)進步的腳步。白宮官員近日向美國科技公司發(fā)出邀請,計劃在5月4日與行業(yè)企業(yè)領(lǐng)導(dǎo)者共同探討針對人工智能的監(jiān)管問題。

          上海交通大學(xué)行業(yè)研究院“人工智能+”行業(yè)團隊負責人、上海交通大學(xué)安泰經(jīng)濟與管理學(xué)院教授史占中近日在一場媒體沙龍上談及ChatGPT時對第一財經(jīng)記者表示:“ChatGPT就如同阿拉丁神燈一樣打開了一個寶藏,不斷給我們驚喜,這些產(chǎn)品在文學(xué)創(chuàng)作、翻譯、文本分析、應(yīng)用編程以及語言文字編輯溝通等方面已經(jīng)形成了強大的原創(chuàng)力。同時,這也給很多行業(yè)的工作帶來挑戰(zhàn)?!?/p>

          AI“讀心”準確率超80%

          近日,美國得克薩斯州奧斯汀分校的團隊基于人工智能技術(shù)開發(fā)出一種解碼器,可將大腦活動轉(zhuǎn)化為連續(xù)的文本流,AI首次可以通過非侵入式的方法學(xué)會“讀心術(shù)”。

          根據(jù)這項發(fā)表在《自然神經(jīng)科學(xué)》(Nature Neuroscience)雜志上的實驗結(jié)果,GPT人工智能大模型感知語音的準確率可高達82%,令人驚嘆。

          不過研究人員強調(diào),“AI讀心”也要尊重心理隱私,AI的訓(xùn)練和應(yīng)用解碼器都需要著手解決有關(guān)該技術(shù)可能被濫用的問題,以確保人們只在他們想要的時候使用這類技術(shù),并對他們有所幫助,而不是起到反向作用。

          隨著人工智能技術(shù)突飛猛進的發(fā)展,技術(shù)的風險以及如何對此加以監(jiān)管,成為越來越受關(guān)注的話題。


          就連一生從事神經(jīng)網(wǎng)絡(luò)學(xué)術(shù)研究的圖靈獎得主、有“AI教父”之稱的計算機科學(xué)家杰弗里?辛頓(Geoffrey Hinton)近日也對人工智能的發(fā)展產(chǎn)生了新的思考。為了警告AI技術(shù)潛在的風險而又免于利益沖突,辛頓本周公開宣布,他已離開工作了十余年的谷歌,轉(zhuǎn)而成為AI技術(shù)的“吹哨人”。

          辛頓表示:“我現(xiàn)在傾向于認為,我們正在創(chuàng)造的數(shù)字智能與生物智能非常不同?!?/p>

          類似于ChatGPT這樣的聊天機器人正在對各行各業(yè)形成顛覆性的效應(yīng)。這種聊天機器人基于AI大模型,能夠迅速地學(xué)習知識。事實上,在某些方面,它們的能力已經(jīng)超越了人類。

          “如果我有1000個這樣的數(shù)字代理(AI agent),那么每當一個代理學(xué)習如何做一件事情的時候,其他所有的代理也都會立即知道,生物智能是不具備這樣的能力的?!毙令D解釋道,“因此,相同數(shù)字代理的集合可以獲得比任何單個生物智能都多得多的知識,這就是為什么GPT-4比任何人都知道的多?!?/p>

          教育、媒體行業(yè)已受到顯著沖擊

          OpenAI公司3月曾發(fā)布一篇論文,預(yù)言美國80%的工作都會受到AI的影響。根據(jù)高盛的預(yù)測,生成式AI會導(dǎo)致勞動力市場受到重大沖擊,使全球3億個工作崗位實現(xiàn)自動化,并且美國7%的工作崗位將被AI取代。

          AI大模型的能力已經(jīng)開始改變一些行業(yè),并對企業(yè)業(yè)務(wù)產(chǎn)生了實質(zhì)性的影響,尤其是在教育行業(yè),AI的影響體現(xiàn)在企業(yè)的財報中。

          5月2日,總部位于美國加州的在線教育公司齊格(Chegg)股價暴跌50%。該公司CEO丹?羅森斯維格(Dan Rosensweig)在與分析師的財報電話會議上表示:“我們現(xiàn)在開始相信ChatGPT正在對我們的新客戶增長率產(chǎn)生影響?!?/p>

          這一警告也令其他公司感到不安,英國教育上市公司培生當天股價下跌15%,語言學(xué)習平臺多鄰國(Duolingo)股價下跌10%。

          為了應(yīng)對ChatGPT帶來的挑戰(zhàn),上個月,Chegg基于AI大模型推出了一個叫做CheggMate的應(yīng)用程序,學(xué)生能夠通過與AI交談來訪問量身定制的內(nèi)容。

          由于擔心“AI會讓學(xué)生作弊”,全球的一些高校已經(jīng)禁止了ChatGPT在校園里的使用。而一些企業(yè)出于對安全隱私的保護,也禁止員工使用ChatGPT等生成式AI工具。

          最近幾個月,包括高盛在內(nèi)的大公司都已禁止或限制使用生成人工智能AI平臺。最新加入的是三星電子。三星電子周二表示,在一份內(nèi)部文件中指出生成式AI技術(shù)的“濫用案例”后,它已禁止部分員工使用ChatGPT等AI工具。

          三星稱正在努力尋求確保員工在安全環(huán)境中使用生成式人工智能服務(wù)的方法,但在這些措施準備就緒之前,暫時禁止在公司擁有的計算機上使用生成式人工智能服務(wù)。

          生成式AI的出現(xiàn)已經(jīng)讓網(wǎng)絡(luò)充斥著真假難辨的內(nèi)容。辛頓日前也警告稱,虛假照片、視頻和文字已經(jīng)讓普通人“無法再辨別真假”。對此,他提出了擔憂。

          反虛假信息機構(gòu)NewsGuard近日的一項調(diào)查,更是有了驚人的發(fā)現(xiàn)。統(tǒng)計顯示,該機構(gòu)監(jiān)測到的偽裝成“記者”的聊天機器人竟然運行著近50個人工智能生成的“內(nèi)容農(nóng)場”。

          研究人員發(fā)現(xiàn),這些網(wǎng)站大量生產(chǎn)與、健康、環(huán)境、金融和技術(shù)相關(guān)的內(nèi)容,生成速度驚人,并充斥著商業(yè)廣告。

          Newsguard的研究人員表示:“有些’記者’每天發(fā)表數(shù)百篇文章,一些內(nèi)容充斥著虛假敘述,并且?guī)缀跛械膬?nèi)容都以乏味的語言和重復(fù)的短語為特征,這是人工智能的標志。”


          監(jiān)管機構(gòu)試圖阻止“危險游戲”

          網(wǎng)絡(luò)空間的混亂引發(fā)了業(yè)內(nèi)對人工智能風險的激辯,批評人士認為,大型科技公司爭相開展基于生成式人工智能(AIGC)的產(chǎn)品開發(fā)活動,“這是在與危險賽跑”。

          特斯拉CEO馬斯克多次重申,應(yīng)該對人工智能保持謹慎。他呼吁政府進行監(jiān)管,因為人工智能可能對公眾構(gòu)成威脅。

          谷歌CEO皮查伊也表示,所有公司的產(chǎn)品都將受到人工智能快速發(fā)展的影響,社會需要為已經(jīng)推出的技術(shù)做好準備。但他表示:“我們的適應(yīng)速度與技術(shù)發(fā)展的速度相比,似乎還不太匹配?!?/p>

          各國監(jiān)管機構(gòu)也早已坐不住了。白宮官員近日向美國科技公司發(fā)出邀請,希望與行業(yè)企業(yè)領(lǐng)導(dǎo)者共同探討針對人工智能的監(jiān)管問題。參加的科技公司包括谷歌、微軟和OpenAI等公司高管。美國拜登稱,希望科技公司在向公眾提品之前必須確保其產(chǎn)品安全。

          歐洲消費者組織(BEUC)也呼吁歐盟消費者保護機構(gòu)關(guān)注人工智能對消費者的潛在危害。上個月,歐洲數(shù)據(jù)保護委員會已經(jīng)成立了一個專門針對ChatGPT的工作組,并朝著制定人工智能隱私規(guī)則的共同政策邁出的重要一步。

          歐盟立法者還在討論如何引入歐盟人工智能法案,并且生成式AI(AIGC)成為最受關(guān)注的內(nèi)容之一。歐盟委員會將于5月11日對相關(guān)協(xié)議進行投票,如果通過,將進入下一階段的三方談判,屆時歐盟成員國將與歐盟委員會以及歐洲議會就談判內(nèi)容進行辯論。

          斯坦福大學(xué)網(wǎng)絡(luò)政策中心國際政策主任、歐盟委員會執(zhí)行副維斯塔格的特別顧問瑪麗耶杰?沙克(Marietje Schaake)在5月2日公開發(fā)表的一篇專欄文章中指出:“突然間,每個人都想規(guī)范人工智能,包括撰寫公開信并討論立法提案。但不幸的是,AI的特性與所提供的解決方案之間的不匹配,暴露了AI產(chǎn)品的開發(fā)者與政策制定者及立法者之間的鴻溝。”

          沙克寫道,一些人工智能行業(yè)領(lǐng)袖希望在大約6個月的時間內(nèi),建立對生成式AI的監(jiān)管法規(guī),但事實上,通過并實施人工智能法案的過程通常會長達數(shù)年時間。

          她認為,成功的人工智能監(jiān)管必須解決三個領(lǐng)域的問題。首先是人工智能開發(fā)者與社會其他個體之間的權(quán)力需要重新平衡?!斑@種不對稱性已經(jīng)非常嚴重,只有最大的科技公司才能開發(fā)人工智能?!?沙克指出,“這意味著只有科技巨頭可以訪問數(shù)據(jù)集,并有能力訓(xùn)練和處理它們?!?/p>

          她補充道,即使是像斯坦福大學(xué)這樣培養(yǎng)頂級人工智能工程師的大學(xué),也不具備硅谷公司的數(shù)據(jù)或計算能力?!耙虼巳斯ぶ悄軆?nèi)部運作的秘密仍然鎖在企業(yè)系統(tǒng)中?!?沙克表示,“這使得這些企業(yè)具有巨大的社會影響力?!?/p>

          這就引申出第二個問題,也就是獲取信息必須有公共利益保障措施作為前提,讓立法者能夠看到企業(yè)內(nèi)部人工智能是如何運作的?!坝捎诠妼τ绊懮鐣膽?yīng)用程序的管理和算法缺乏了解,這反過來又阻礙了有針對性的公共政策和必要的問責機制的建立?!?沙克寫道。

          她指出的第三點是“不能忽視人工智能不斷變化的本質(zhì)”,監(jiān)管在嚴格執(zhí)行的同時也要靈活變通。

          “目前生成式AI表現(xiàn)了三個方面的特點,超強的學(xué)習能力、超廣的連接能力、超能的邏輯推演能力,尤其是邏輯推理能力令人震驚?!笔氛贾斜硎荆拔磥硭€可能會突變出超凡的自我意識,這一點我們較為關(guān)注?!?/p>

          史占中認為,從國家的層面來講,要加快AI相關(guān)領(lǐng)域的立法,特別在金融、安全、健康等領(lǐng)域嚴格監(jiān)管,厘清AI的設(shè)計者、使用者、內(nèi)容生成者的權(quán)責關(guān)系,完善AI決策的問責機制,保護大眾合法權(quán)益;而從社會層面來講,應(yīng)加強AI技術(shù)的監(jiān)管,推進AI研發(fā)者遵守倫理準則與規(guī)范AI的發(fā)展。

          “我們希望人工智能的能力成為改善人類生活、促進人類文明發(fā)展的’助推器’,以及人類走向星際文明的’擺渡人’?!笔氛贾斜硎?。

          免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

          猜你喜歡

          最新文章