日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁>科技 >內(nèi)容

          生成式AI巨頭為監(jiān)管操碎心,ChatGPT之父倫敦演講遭抗議

          2023-05-27 16:23:07來源:
          導讀·OpenAI提出“眾包”AI監(jiān)管:希望有一個“具有廣泛代表性”的人換意見,參與“深思熟慮”的討論,并最終通過透明的方式?jīng)Q定結(jié)果。·歐盟數(shù)...

          ·OpenAI提出“眾包”AI監(jiān)管:希望有一個“具有廣泛代表性”的人換意見,參與“深思熟慮”的討論,并最終通過透明的方式?jīng)Q定結(jié)果。

          ·歐盟數(shù)字政策負責人蒂埃里·布雷頓與谷歌首席執(zhí)行官桑德爾·皮查伊討論了引入“人工智能公約”——一套非正式的指導方針,供人工智能公司在正式規(guī)則生效之前遵守。

          人類歷史上可能沒有哪個行業(yè)的企業(yè)這么急于讓自己被監(jiān)管。

          在美國國會聽證會上呼吁設立新機構(gòu)監(jiān)管AI后,OpenAI首席執(zhí)行官山姆·奧特曼(Sam Altman)又展開歐洲之旅,面見各國政府首腦,并在高校參加對話活動,重申監(jiān)管建議。在接受媒體采訪時,他警告稱,因為歐盟正在制定的AI法規(guī),OpenAI可能會從歐洲市場撤出其服務。

          其他科技大企業(yè)也不甘示弱。當?shù)貢r間5月25日,微軟總裁布拉德·史密斯(Brad Smith)在華盛頓與美國議員一起主持了一場備受矚目的活動,推出了微軟關(guān)于政府應該如何監(jiān)管AI的建議。

          前一天,谷歌首席執(zhí)行官桑德爾·皮查伊(Sundar Pichai)在布魯塞爾與歐盟官員會晤討論AI政策,他強調(diào),需要對技術(shù)進行適當監(jiān)管且不會扼殺創(chuàng)新。

          奧特曼對“對齊”持樂觀態(tài)度

          當?shù)貢r間5月24日,為了觀看奧特曼的對話活動,倫敦大學學院(University College London)排起了數(shù)百人的隊伍。等待者在陽光下討論OpenAI公司和使用ChatGPT的經(jīng)歷,少數(shù)抗議者在大門前發(fā)出嚴厲警告:OpenAI和類似的公司需要停止開發(fā)先進的AI系統(tǒng),否則他們會傷害人類。


          OpenAI首席執(zhí)行官山姆·奧特曼舉行對話活動的倫敦大學學院外,有人舉牌抗議,反對通用人工智能。

          抗議者之一、牛津大學研究太陽能地球工程和生存風險的學生吉迪恩·富特曼(Gideon Futerman)告訴科技媒體The Verge記者,“他正在炒作具有足夠已知危害的系統(tǒng)。無論如何,我們可能應該阻止他們?!?/p>

          不過,奧特曼走上講臺時還是受到了熱烈的歡迎。他在對話中重申了之前的論點,稱人們擔心AI是對的,但AI的潛在好處要大得多。他對監(jiān)管的前景表示歡迎,但僅限于正確的監(jiān)管方式。他說,希望看到“介于傳統(tǒng)歐洲方法和傳統(tǒng)美國方法之間的東西”,也就是說,有點監(jiān)管,但不要太多。他強調(diào),太多的規(guī)則可能會損害小公司和開源運動。

          奧特曼提到了錯誤信息的話題,稱他特別擔心AI系統(tǒng)在傳播錯誤信息時的“互動、個性化、說服能力”。與他對話的作家阿澤姆·阿扎爾(Azeem Azhar)提出,AI系統(tǒng)可能會冒充人工語音呼叫某人。奧特曼說:“我認為這將是一個挑戰(zhàn),而且還有很多工作要做。”

          但是,奧特曼相信即使是目前的AI工具也會減少世界上的不平等現(xiàn)象,并且“在這場技術(shù)革命的另一端將會有更多的工作機會”?!拔艺J為世界的基本模型是,智力成本和能源成本是兩種有限的投入……如果你能讓這些東西變得更便宜、更容易獲得,那么坦率地說,這對窮人的幫助要大于對富人的幫助?!彼f,“這項技術(shù)將提升整個世界。”

          奧特曼對科學家通過“對齊”控制日益強大的AI系統(tǒng)的能力持樂觀態(tài)度。“我們有很多想法,我們已經(jīng)發(fā)表了關(guān)于超級智能系統(tǒng)對齊方式的想法,但我相信這是一個技術(shù)上可以解決的問題。”他說,“而且我現(xiàn)在對這個答案感到比幾年前更有信心。有一些我認為不是很好的路徑,我希望我們避免這些。但老實說,我對事情目前的發(fā)展軌跡相當滿意。”

          對歐盟的人工智能法案有很多擔憂

          到目前為止,奧特曼在這趟歐洲之行中已經(jīng)與法國馬克龍、英國首相蘇納克、波蘭莫拉維茨基和西班牙首相桑切斯舉行了會晤。目的似乎是雙重的:平息因ChatGPT引起的對AI的恐懼,并在AI監(jiān)管的對話中取得主動權(quán)。


          OpenAI首席執(zhí)行官山姆·奧特曼在法國與法國馬克龍會晤。


          OpenAI首席執(zhí)行官山姆·奧特曼與英國首相蘇納克、DeepMind首席執(zhí)行官Demis Hassabis等人在倫敦會晤。

          在接受媒體采訪時,奧特曼說,他對歐盟的人工智能法案有“很多擔憂”。

          該法案目前正在由立法者最終確定,其條款在最近幾個月得到了擴展,其中包括OpenAI等“基礎模型”開發(fā)者的新義務。草案中的一項規(guī)定要求基礎模型的創(chuàng)建者披露有關(guān)其系統(tǒng)設計的詳細信息,包括“所需的計算能力、訓練時間以及與模型大小和功率相關(guān)的其他相關(guān)信息”,并提供用于訓練的受版權(quán)保護的數(shù)據(jù)摘要。ChatGPT和DALL-E等生成式AI系統(tǒng)使用從網(wǎng)絡上抓取的大量數(shù)據(jù)進行訓練,其中大部分數(shù)據(jù)受版權(quán)保護,當公司披露這些數(shù)據(jù)來源時,會面臨法律挑戰(zhàn)。

          據(jù)《時代》雜志報道,奧特曼表示,人們擔心的是,根據(jù)歐盟立法,ChatGPT等系統(tǒng)將被指定為“高風險”系統(tǒng),這意味著OpenAI必須滿足許多安全和透明度要求?!耙次覀兡軌蚪鉀Q這些需求,要么不能?!彼f, “這是對潛在技術(shù)的限制。”

          “我們會努力遵守,但如果我們不能遵守,我們將停止(在歐洲)運營?!眾W特曼告訴《金融時報》。

          不過據(jù)路透社報道,奧特曼26日又表示,OpenAI沒有離開歐洲的計劃。

          OpenAI最近一直在極力展現(xiàn)“負責任”態(tài)度,繼其領(lǐng)導層當?shù)貢r間5月22日聯(lián)合撰文呼吁建立類似國際原子能機構(gòu)的AI監(jiān)管機構(gòu)后,該公司25日又在官方博客上發(fā)文稱,正在啟動一項計劃,提供10筆10萬美元的贈款,以建立一個民主程序來決定AI系統(tǒng)應該“在法律規(guī)定的范圍內(nèi)”遵循哪些規(guī)則。具體來說,OpenAI正在尋求資助個人、團隊和組織,以開發(fā)“民主進程”的概念驗證,回答有關(guān)AI護欄的問題。

          換句話說,OpenAI提出“眾包”AI監(jiān)管:希望有一個“具有廣泛代表性”的人換意見,參與“深思熟慮”的討論,并最終通過透明的方式?jīng)Q定結(jié)果。

          谷歌與微軟高管分別見歐美議員

          奧特曼訪問歐洲期間,谷歌首席執(zhí)行官皮查伊也訪問了歐洲各國首都,試圖在政策制定者確定監(jiān)管AI的“護欄”時影響他們。

          皮查伊在布魯塞爾與多位官員會晤,包括負責人工智能法案的歐洲議會議員布蘭多·貝尼菲(Brando Benifei)和德拉戈斯·圖多拉奇(Drago? Tudorache)。出席這些會議的3名人士透露,皮查伊強調(diào),需要在對技術(shù)進行適當監(jiān)管時不會扼殺創(chuàng)新。

          皮查伊還與負責監(jiān)督人工智能法案的歐盟內(nèi)部市場專員、數(shù)字政策負責人蒂埃里·布雷頓(Thierry Breton)會晤。布雷頓告訴《金融時報》,他們討論了引入“人工智能公約”——一套非正式的指導方針,供人工智能公司在正式規(guī)則生效之前遵守,因為“在人工智能競賽中建立一個安全的網(wǎng)絡環(huán)境,沒有時間可以浪費了”。

          5月19日,谷歌全球事務總裁肯特·沃克(Kent Walker)在谷歌官方博客上發(fā)表了一篇文章,題為《負責任的人工智能進展的政策議程:機會、責任、安全》,鼓勵政府關(guān)注三個關(guān)鍵領(lǐng)域——通過最大化AI的經(jīng)濟承諾來釋放機會;在降低濫用風險的同時促進責任;加強全球安全,同時防止惡意行為者利用這項技術(shù)。


          微軟總裁布拉德·史密斯認為,在人工智能監(jiān)管方面,科技行業(yè)“可能比華盛頓目前有更具體的想法”。

          微軟總裁史密斯25日對來自兩的6名議員發(fā)表了演講,敦促華盛頓通過關(guān)于AI政策的五項新建議。其中,微軟希望白宮敦促廣泛采用國家標準與技術(shù)研究所(National Institute of Standards and Technology)今年早些時候發(fā)布的“人工智能風險管理框架(AI Risk Management Framework)”,希望立法者要求控制電網(wǎng)和水系統(tǒng)等關(guān)鍵基礎設施的AI工具配備“安全制動器”,呼吁決策者促進人工智能透明度,并確保學術(shù)和非營利研究人員能夠訪問先進的計算基礎設施。微軟還希望與政府在公私伙伴關(guān)系中合作,具體來說,希望公共部門使用AI作為應對“不可避免的社會挑戰(zhàn)”的工具。他還提到了微軟使用AI幫助記錄烏克蘭中遭受的破壞。

          史密斯認為,在人工智能監(jiān)管方面,科技行業(yè)“可能比華盛頓目前有更具體的想法”。

          斯坦福大學“以人為本的人工智能研究所”政策主任羅素·瓦爾德(Russell Wald)最近表示,他擔心一些決策者,特別是華盛頓的決策者過于關(guān)注科技行業(yè)的AI治理提案。他在上周的參議院聽證會期間說:“有點令人失望的是......行業(yè)領(lǐng)域是純粹的焦點?!蓖郀柕陆ㄗh,學術(shù)界、民間社會和政府官員都應該在制定AI政策方面發(fā)揮比目前更大的作用。


          免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

          猜你喜歡

          最新文章