日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁>要聞 >內(nèi)容

          ChatGPT狂歡背后:AI的MOSS時(shí)刻,或?qū)硇滦途W(wǎng)絡(luò)攻擊

          2023-03-23 16:40:40來源:
          導(dǎo)讀 原標(biāo)題:ChatGPT狂歡背后:AI的MOSS時(shí)刻,或?qū)硇滦途W(wǎng)絡(luò)攻擊 ...

          原標(biāo)題:ChatGPT狂歡背后:AI的MOSS時(shí)刻,或?qū)硇滦途W(wǎng)絡(luò)攻擊

          作者:郝俊慧 來源:IT時(shí)報(bào)

          短短十天,全球被一波又一波的ChatGPT浪潮“炸暈”了。

          無論是可支持多模態(tài)輸入的ChatGPT 4.0,內(nèi)置ChatGPT 4.0后可以一鍵生成PPT的Office 365,還是雖然不那么令人滿意但也還能打的文心一言,最終都濃縮為英偉達(dá)創(chuàng)始人CEO黃仁勛在3月21日年度技術(shù)峰會GTC上連續(xù)強(qiáng)調(diào)七次的那句話,“我們正處在AI的iPhone時(shí)刻”。

          然而,當(dāng)絕大多數(shù)人歡呼AIGC降低了普通人使用AI門檻時(shí),擔(dān)憂接踵而來:AI或?qū)硇滦途W(wǎng)絡(luò)攻擊。

          3月21日,中國產(chǎn)業(yè)互聯(lián)網(wǎng)發(fā)展聯(lián)盟、《中國信息安全》雜志、南方日報(bào)、中國網(wǎng)絡(luò)空間新興技術(shù)創(chuàng)新論壇、騰訊安全、騰訊研究院聯(lián)合發(fā)布的《2023產(chǎn)業(yè)互聯(lián)網(wǎng)安全趨勢》提出,以ChatGPT為代表的生成式人工智能技術(shù)進(jìn)步,將會引發(fā)潛在新型攻擊和內(nèi)容合規(guī)等安全風(fēng)險(xiǎn)。

          目前,已有安全團(tuán)隊(duì)發(fā)現(xiàn),網(wǎng)絡(luò)攻擊者開始使用ChatGPT創(chuàng)建惡意軟件、暗網(wǎng)站點(diǎn)和其他實(shí)施網(wǎng)絡(luò)攻擊的工具,甚至已有詐騙團(tuán)伙用ChatGPT生成“劇本”,進(jìn)行更有針對性的精準(zhǔn)詐騙。

          門檻消失,ChatGPT版“詐騙劇本”已上線

          ChatGPT的橫空出世,讓很多人開始擔(dān)憂自己會失業(yè)。生成式人工智能技術(shù)的發(fā)展,讓寫論文、寫代碼等原本具有一定門檻的人類創(chuàng)作性工作,變成只需輸入的一行文字指令。黃仁勛便認(rèn)為,程序員將成為第一批失業(yè)的職業(yè),ChatGPT讓普通人對原本復(fù)雜的編碼程序觸手可得。

          同時(shí)被降低的,還有“詐騙的門檻”。騰訊安全策略發(fā)展中心總經(jīng)理呂一平的安全團(tuán)隊(duì)觀察到,已經(jīng)有詐騙分子開始利用ChatGPT編寫“釣魚劇本”,這大大提高了騙子實(shí)施精準(zhǔn)詐騙的效率。

          安全領(lǐng)域有一個(gè)專用名詞叫“社攻”,也即利用社交關(guān)系攻擊的方式。詐騙分子通過與被害者聊天,誘導(dǎo)其點(diǎn)擊惡意鏈接,或者下載一些惡意軟件,從而在電腦里“種好木馬”,常見的話術(shù)有:“你孩子在學(xué)校生病了”“你被了”“你獲得一筆退款”等等。

          “為了贏得被騙人的信任,詐騙分子通常有多套溝通劇本,分別扮演、老師、客服等角色,原本這些劇本需人工編寫,且必須具備一定的專業(yè)知識。比如扮演HR,你要深入了解對方的工作;扮演保險(xiǎn)公司業(yè)務(wù)員,要對保險(xiǎn)業(yè)務(wù)有比較清晰的了解……”呂一平告訴《IT時(shí)報(bào)》記者,通過ChatGPT,編寫劇本不再需要有“專業(yè)能力”的騙子,而且“劇本”幾乎瞬間生成,大大提升了行騙的效率,因此,未來“劇本”里很可能會出現(xiàn)更多樣化的角色、誘騙手段,形成新的釣魚攻擊方式。

          調(diào)用ChatGPT API?未必合規(guī)

          3月初,OpenAI放出ChatGPT API,開發(fā)者可以將ChatGPT集成到自家應(yīng)用和服務(wù)的門檻上,構(gòu)建屬于自己的AI聊天機(jī)器人。

          但安全專家建議,國內(nèi)開發(fā)者先別急著“沖”,首先要評估這種使用是否合規(guī)。隨著《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個(gè)人信息保》三部法律的頒布,以及《信息安全技術(shù)個(gè)人信息安全規(guī)范》等行業(yè)標(biāo)準(zhǔn)的實(shí)施,數(shù)據(jù)安全成為企業(yè)構(gòu)建安全體系的重中之重,尤其是對“出境數(shù)據(jù)”,國家有明確嚴(yán)格的評估要求,2022年9月1日,國家互聯(lián)網(wǎng)信息辦公室公布《數(shù)據(jù)出境安全評估辦法》正式施行。

          “調(diào)用ChatGPT API,意味著要將ChatGPT接入App,但目前ChatGPT所有服務(wù)器全部在國外,需根據(jù)我國法律對出境數(shù)據(jù)進(jìn)行評估,尤其如果App涉及個(gè)人信息、地理位置等隱私數(shù)據(jù),更要重視合規(guī)性。”呂一平認(rèn)為,數(shù)據(jù)安全隱患是中國企業(yè)引入ChatGPT時(shí)的最直接風(fēng)險(xiǎn)。

          此外,調(diào)試ChatGPT時(shí)輸入的數(shù)據(jù)、代碼,也有同樣風(fēng)險(xiǎn)。據(jù)《IT時(shí)報(bào)》記者了解,目前國內(nèi)幾家互聯(lián)網(wǎng)大廠都明確要求,員工不得用公司數(shù)據(jù)“喂”ChatGPT。

          信任ChatGPT?不能太天真

          作為大規(guī)模語言模型,新發(fā)布的ChatGPT4.0展現(xiàn)出比上一代版本更強(qiáng)大的輸入能力和輸出結(jié)果,也即出現(xiàn)了更多的“涌現(xiàn)”。所謂涌現(xiàn),是指當(dāng)大模型的參數(shù)規(guī)模超過某一個(gè)臨界值時(shí),只需給模型提供提示,就可以讓其自動執(zhí)行任務(wù),而這種提示既沒有經(jīng)過專門訓(xùn)練,也從未被期望過出現(xiàn),也即會呈現(xiàn)出強(qiáng)大的“智慧能力”。

          但在斯坦福大學(xué)眾多學(xué)者聯(lián)合撰寫的文章《On the Opportunities and Risks of Foundation Models(基礎(chǔ)模型的機(jī)會與風(fēng)險(xiǎn))》中,“涌現(xiàn)”意味著系統(tǒng)的行為是隱式歸納而不是顯式構(gòu)造的,故基礎(chǔ)模型顯得更難以理解,并具有難以預(yù)料的錯(cuò)誤模式。

          “一夜長大”的ChatGPT固然讓人類看到真正強(qiáng)人工智能時(shí)代帶來的曙光,但同時(shí)也深藏隱憂——它為什么會如此想?它是真正這么想嗎?正如《流浪地球2》中的MOSS,它的“涌現(xiàn)”究竟從何時(shí)開始?誰又能控制聊它?所有一切都指向終極問題——AI值得信任嗎?

          “至少目前來看,大規(guī)模語言模型還無法做到被證偽,如果人們信任它們給出的一些回答,很可能會引起比較嚴(yán)重的后果?!卑踩局浒矂?chuàng)始人聶君認(rèn)為,ChatGPT使生成高質(zhì)量、高逼真信息的門檻大大降低,而老人、孩子是最容易被高逼真信息困擾或傷害的弱勢群體,因此一些需要職業(yè)資格認(rèn)定的領(lǐng)域不應(yīng)該輕易使用類ChatGPT產(chǎn)品,比如律師、醫(yī)生等等,“國家今后也很可能會出臺一些相應(yīng)的法律規(guī)范?!?/p>

          免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

          猜你喜歡

          最新文章