日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁(yè)>科技 >內(nèi)容

          AI猛獸已經(jīng)出籠,監(jiān)管往哪走

          2023-04-17 16:24:46來(lái)源:
          導(dǎo)讀出品|虎嗅科技組作者|陳伊凡頭圖|視覺(jué)中國(guó)近日,全球開(kāi)始了一場(chǎng)對(duì)于生成式AI的監(jiān)管“圍剿”。4月13日,法國(guó)國(guó)家信息自由委員會(huì)決定對(duì)ChatGP...


          出品|虎嗅科技組

          作者|陳伊凡

          頭圖|視覺(jué)中國(guó)

          近日,全球開(kāi)始了一場(chǎng)對(duì)于生成式AI的監(jiān)管“圍剿”。

          4月13日,法國(guó)國(guó)家信息自由委員會(huì)決定對(duì)ChatGPT提出5項(xiàng)指控,并展開(kāi)調(diào)查。同日,西班牙數(shù)據(jù)保護(hù)局也發(fā)表聲明,稱(chēng)該機(jī)構(gòu)已經(jīng)正式對(duì)ChatGPT可能的違反法律行為展開(kāi)初步調(diào)查程序。4月11日,下屬的國(guó)家電信與信息管理局將開(kāi)始調(diào)查企業(yè)和監(jiān)管機(jī)構(gòu)如何確保人工智能系統(tǒng)是值得信賴、合法及合乎道德的。與此同時(shí),中國(guó)國(guó)家互聯(lián)網(wǎng)信息辦公室也下發(fā)了《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》的通知。更早之前,3月份,意大利數(shù)據(jù)保護(hù)局就提出在本國(guó)禁止使用ChatGPT,理由是涉嫌違反隱私法規(guī)。

          “生成式AI對(duì)于監(jiān)管行業(yè)來(lái)說(shuō),是一個(gè)太新的事物,而且新技術(shù)發(fā)展很快,但我們現(xiàn)在針對(duì)算法、技術(shù)等立法監(jiān)管并不能完全覆蓋目前出現(xiàn)問(wèn)題,對(duì)于監(jiān)管來(lái)說(shuō),是很大的考驗(yàn)?!庇^韜中茂律師事務(wù)所合伙人王渝偉表達(dá)了他的看法,王渝偉長(zhǎng)期進(jìn)行網(wǎng)絡(luò)安全數(shù)據(jù)合規(guī)方面的法律工作,近期他和團(tuán)隊(duì)十分忙碌,因?yàn)樵S多客戶也在找他們做生成式AI方面的合規(guī)咨詢。 “難點(diǎn)是如何找到一條既能做好監(jiān)管,又能不影響行業(yè)發(fā)展的路徑?!蓖跤鍌フf(shuō)。

          在他觀察來(lái)看,關(guān)于生成式AI的法規(guī)爭(zhēng)議問(wèn)題主要集中在三個(gè)方面,一是涉及知識(shí)產(chǎn)權(quán)方面,例如版權(quán) 、商業(yè)秘密保護(hù)等問(wèn)題,二是涉及數(shù)據(jù)安全與個(gè)人信息保護(hù),三是涉及數(shù)據(jù)跨境問(wèn)題。

          1月底,美國(guó)三名漫畫(huà)家就對(duì)包括stability AI在內(nèi)的三家AIGC公司提出集體訴訟,指控這三家企業(yè)推出的、基于上述模型開(kāi)發(fā)的付費(fèi)AI圖像生成工具構(gòu)成版權(quán)侵權(quán)。這樣的擔(dān)憂同樣存在于其他基于大模型生態(tài)所創(chuàng)建APP中。王渝偉舉了個(gè)例子,對(duì)于這些基于大模型的應(yīng)用,面臨的合規(guī)風(fēng)險(xiǎn)可能比大模型公司本身還多。例如,一些公司基于大模型來(lái)訓(xùn)練自己的小模型,面向許多細(xì)分垂直行業(yè),例如咨詢、設(shè)計(jì)、工業(yè)等,他們將自己的語(yǔ)料和數(shù)據(jù)存在云上,讓GPT學(xué)習(xí),就會(huì)碰到語(yǔ)料庫(kù)的調(diào)用,其中可能就涉及版權(quán)的問(wèn)題。

          另外,這樣的小模型訓(xùn)練也同樣涉及數(shù)據(jù)安全問(wèn)題,3月23日,有推特網(wǎng)友爆料稱(chēng),在ChatGPT網(wǎng)頁(yè)左側(cè)的聊天記錄欄中出現(xiàn)了別人的聊天記錄內(nèi)容,一些活躍用戶的姓名、電子郵件地址、支付地址、信用等信息甚至能夠被看到。盡管OpenAI很快修復(fù)了漏洞,但也引發(fā)了人們?cè)谑褂肅hatGPT時(shí)數(shù)據(jù)隱私泄露的隱憂。甚至企業(yè)也擔(dān)心,一旦接入ChatGPT,公司的商業(yè)機(jī)密也會(huì)面臨泄露。而只要使用ChatGPT訓(xùn)練,就會(huì)涉及數(shù)據(jù)跨境的問(wèn)題。

          這些安全問(wèn)題,OpenAI本身并非沒(méi)有注意到,其官網(wǎng)上有專(zhuān)門(mén)針對(duì)安全的版塊,并在產(chǎn)品發(fā)布之前,花了半年時(shí)間考察背后的安全風(fēng)險(xiǎn),但即便如此,一些問(wèn)題仍然不可避免地發(fā)生了。

          生成式AI的監(jiān)管難點(diǎn)除了上述數(shù)據(jù)跨境、個(gè)人信息保護(hù)等問(wèn)題,外部監(jiān)管環(huán)境的變化、還在于,涉及的角色太多,有提供大模型的服務(wù)商、在大模型之上做應(yīng)用的提供商、還涉及存儲(chǔ)數(shù)據(jù)的云廠商。

          另一個(gè)難點(diǎn)在于算法的可解釋性的問(wèn)題。一直以來(lái),算法透明是世界各國(guó)公認(rèn)的算法治理原則。例如歐盟2021年頒布的《人工智能法案》提出,為有助于用戶了解與其進(jìn)行交互或?yàn)槠浞?wù)的人工智能系統(tǒng)的相關(guān)信息,實(shí)現(xiàn)算法向用戶側(cè)的透明。但另一面的問(wèn)題是,深度神經(jīng)網(wǎng)絡(luò)一直難以突破“算法黑箱”的問(wèn)題,或許就連技術(shù)開(kāi)發(fā)者本身來(lái)說(shuō),也很難說(shuō)清算法如何運(yùn)行、如何工作的問(wèn)題,也很難做到相應(yīng)的監(jiān)管。

          因此這種可解釋性,即“在AI系統(tǒng)特定功能的背景下,AI系統(tǒng)輸出結(jié)果的原因和過(guò)程”是相對(duì)的。王渝偉看來(lái),技術(shù)及服務(wù)提供者如何才能達(dá)到監(jiān)管部門(mén)所要求的“可解釋性”仍然面臨著諸多需要探索的問(wèn)題。

          第三個(gè)難點(diǎn)在于生成式AI的供應(yīng)鏈過(guò)長(zhǎng),涉及角色過(guò)多。大模型服務(wù)商、開(kāi)源廠商、應(yīng)用商、云廠商等,這個(gè)問(wèn)責(zé)帶來(lái)很大的挑戰(zhàn)?!跋掠萎a(chǎn)品對(duì)人工智能的使用可能遠(yuǎn)超于人工智能系統(tǒng)開(kāi)發(fā)人員最初的設(shè)想,此時(shí)應(yīng)如何平衡與區(qū)分各方主體的責(zé)任?再者,就具體的責(zé)任承擔(dān)而言,應(yīng)當(dāng)要求人工智能系統(tǒng)的開(kāi)發(fā)人員和部署人員在多大程度上、多長(zhǎng)時(shí)間內(nèi)保留何種類(lèi)型的系統(tǒng)文檔材料,以實(shí)現(xiàn)問(wèn)責(zé)判斷?!苯鸲叛芯吭汉匣锶藢幮P、吳涵等人在一篇文章中提及。

          在王渝偉看來(lái),美國(guó)NIST在今年1月26日發(fā)布的《AI風(fēng)險(xiǎn)管理框架1.0》是一個(gè)很好的參考。美國(guó)在數(shù)據(jù)安全上的監(jiān)管沒(méi)有歐洲嚴(yán)格,更多是各州的法律以及行業(yè)自律。在美國(guó)的這份框架,包括治理、映射、測(cè)量和管理的四個(gè)部分,治理指要在組織的制度流程、組織建設(shè)、組織文化、技術(shù)能力等方面踐行AI風(fēng)險(xiǎn)管理框架;映射主要用于確定特定場(chǎng)景與其對(duì)應(yīng)的AI風(fēng)險(xiǎn)解決方案;測(cè)量主要采用定量和/或定性的工具、技術(shù)和方法來(lái)分析、評(píng)估、測(cè)試和監(jiān)控AI風(fēng)險(xiǎn)及其相關(guān)影響;管理主要是將相關(guān)資源分配給相應(yīng)的AI風(fēng)險(xiǎn),進(jìn)行風(fēng)險(xiǎn)處置。治理是一個(gè)交叉模塊,融入并影響其他三個(gè)模塊。

          在框架中也提到了AI系統(tǒng)的可說(shuō)明性、可解釋性、可追責(zé)、透明性的問(wèn)題。這份框架中提及,AI可信度特性之間可能相互影響,全面的AI風(fēng)險(xiǎn)管理需要在AI可信度特性之間進(jìn)行權(quán)衡取舍。例如,優(yōu)化可解釋性和隱私增強(qiáng)性之間會(huì)存在矛盾;或者在數(shù)據(jù)較稀疏的情況下,隱私增強(qiáng)技術(shù)可能導(dǎo)致有效性降低。過(guò)度關(guān)注某一方面特性,例如:高度安全但不公平的系統(tǒng)、有效但不透明和不可解釋的系統(tǒng)以及不準(zhǔn)確但安全、隱私增強(qiáng)和透明的系統(tǒng)都是不可取的。

          從這份框架以及美國(guó)4月頒布的《人工智能問(wèn)責(zé)政策征求意見(jiàn)》可以看出美國(guó)在制定人工智能監(jiān)管方面政策時(shí),重點(diǎn)在于問(wèn)責(zé)明確。金杜研究院在一篇文章中詳細(xì)提到了這一點(diǎn),美國(guó)在制定政策時(shí),強(qiáng)調(diào)兩個(gè)問(wèn)責(zé),一是如何看待問(wèn)責(zé)目標(biāo),二是問(wèn)責(zé)對(duì)象的確定。

          拋開(kāi)人工智能監(jiān)管的實(shí)施上的難點(diǎn) ,最難的在于如何既能夠?qū)崿F(xiàn)有效監(jiān)管,又不妨礙AI的發(fā)展。歐盟的《人工智能法案》也提到了風(fēng)險(xiǎn)的分級(jí)管理。不過(guò)隨著ChatGPT的出現(xiàn),新的爭(zhēng)議和討論更加激烈,哪些AI系統(tǒng)會(huì)被列為高風(fēng)險(xiǎn)、如何為AI大模型進(jìn)行監(jiān)管和風(fēng)險(xiǎn)分級(jí),目前看來(lái)還沒(méi)有確定的結(jié)論。

          “在具體執(zhí)行中,對(duì)于人工智能,立刻出臺(tái)一個(gè)全面監(jiān)管顯然不現(xiàn)實(shí)?!蓖跤鍌フf(shuō)。中國(guó)目前還沒(méi)有一個(gè)專(zhuān)門(mén)針對(duì)AI的整體立法框架,在此之前,也沒(méi)有明確可參考的法律,并且,人工智能方面的立法,還需要立法者對(duì)于通用AI大模型本身的底層技術(shù)足夠理解。“敏捷治理”或許是一種思路,在一開(kāi)始先制定頂層框架,在過(guò)程中不斷調(diào)整監(jiān)管治理和風(fēng)險(xiǎn)控制的措施,在一些案例中不斷表明監(jiān)管的態(tài)度,并不斷調(diào)整監(jiān)管思路并釋放這種信號(hào)。

          免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

          猜你喜歡

          最新文章