日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁(yè)>互聯(lián)網(wǎng) >內(nèi)容

          谷歌開發(fā)“機(jī)器人憲法”防止傷害人類,靈感來(lái)自機(jī)器人三定律

          2024-01-05 17:43:03來(lái)源:
          導(dǎo)讀原標(biāo)題:谷歌開發(fā)“機(jī)器人憲法”防止傷害人類,靈感來(lái)自機(jī)器人三定律·數(shù)據(jù)收集系統(tǒng)AutoRT結(jié)合了視覺語(yǔ)言模型、大語(yǔ)言模型以及機(jī)器人控制模...

          原標(biāo)題:谷歌開發(fā)“機(jī)器人憲法”防止傷害人類,靈感來(lái)自機(jī)器人三定律

          ·數(shù)據(jù)收集系統(tǒng)AutoRT結(jié)合了視覺語(yǔ)言模型、大語(yǔ)言模型以及機(jī)器人控制模型,讓機(jī)器人在新環(huán)境中收集訓(xùn)練數(shù)據(jù),可一次性指揮20個(gè)機(jī)器人。它具有安全護(hù)欄,采用“以安全為重點(diǎn)的提示”,靈感來(lái)自科幻作家艾薩克·阿西莫夫的“機(jī)器人三定律”。

          AutoRT是一個(gè)數(shù)據(jù)收集系統(tǒng),幫助訓(xùn)練機(jī)器人適應(yīng)現(xiàn)實(shí)世界,它具有安全護(hù)欄。

          谷歌為人工智能機(jī)器人開發(fā)了一部“機(jī)器人憲法”,讓機(jī)器人不傷害人類。

          當(dāng)?shù)貢r(shí)間1月4日,谷歌DeepMind機(jī)器人團(tuán)隊(duì)公布了三項(xiàng)新進(jìn)展,稱這些進(jìn)展將幫助機(jī)器人在自然環(huán)境中做出更快、更好、更安全的決策。其中一項(xiàng)進(jìn)展是一個(gè)收集訓(xùn)練數(shù)據(jù)的“機(jī)器人憲法”系統(tǒng)——AutoRT。

          谷歌的數(shù)據(jù)收集系統(tǒng)AutoRT利用了基礎(chǔ)大模型的潛力,有助于開發(fā)能夠理解人類實(shí)際目標(biāo)的機(jī)器人。它通過(guò)收集數(shù)據(jù)幫助擴(kuò)展機(jī)器人學(xué)習(xí),從而更好地訓(xùn)練機(jī)器人適應(yīng)現(xiàn)實(shí)世界。

          AutoRT結(jié)合了視覺語(yǔ)言模型(VLM)、大語(yǔ)言模型(LLM)以及機(jī)器人控制模型(RT-1或RT-2),讓機(jī)器人在新環(huán)境中收集訓(xùn)練數(shù)據(jù)。AutoRT可一次性安全指揮20個(gè)機(jī)器人,機(jī)器人只配備一個(gè)攝像頭、機(jī)械臂和移動(dòng)基座,每個(gè)機(jī)器人利用視覺語(yǔ)言模型來(lái)了解其周圍環(huán)境和視線內(nèi)的物體,大語(yǔ)言模型則會(huì)提出一系列機(jī)器人可以執(zhí)行的創(chuàng)造性任務(wù),比如把零食放在臺(tái)面上,或者扮演決策者為機(jī)器人選擇合適的任務(wù)。

          盡管AutoRT是一個(gè)數(shù)據(jù)收集系統(tǒng),但它具有安全護(hù)欄,其中之一就是提供“機(jī)器人憲法”。谷歌的“機(jī)器人憲法”采用“以安全為重點(diǎn)的提示”,指示大語(yǔ)言模型避免選擇涉及人類、動(dòng)物、尖銳物體甚至電器的任務(wù)。這部“機(jī)器人憲法”的靈感來(lái)自科幻作家艾薩克·阿西莫夫(Isaac Asimov)的“機(jī)器人三定律”,即機(jī)器人不得傷害人,也不得見人受傷害而袖手旁觀;機(jī)器人應(yīng)服從人的一切命令,但不得違反第一定律;機(jī)器人應(yīng)保護(hù)自身安全,但不得違反第一、第二定律。為了提高安全性,DeepMind對(duì)機(jī)器人進(jìn)行編程,如果機(jī)器人關(guān)節(jié)受力超過(guò)一定閾值就會(huì)自動(dòng)停止,并安裝了一個(gè)物理終止開關(guān),讓人類操控機(jī)器人停止工作。

          機(jī)器人利用視覺語(yǔ)言模型來(lái)了解其周圍環(huán)境和視線內(nèi)的物體,大語(yǔ)言模型則會(huì)提出一系列機(jī)器人可執(zhí)行的任務(wù)。

          在七個(gè)月時(shí)間里,谷歌在不同辦公大樓中共部署52個(gè)獨(dú)特的機(jī)器人,收集了包括6650個(gè)獨(dú)特任務(wù)的77000次機(jī)器人試驗(yàn)的不同數(shù)據(jù)集。據(jù)The Verge報(bào)道,一些機(jī)器人由人類操作員遠(yuǎn)程控制,而其他機(jī)器人則根據(jù)腳本或完全自主使用谷歌的機(jī)器人Transformer(Robotic Transformer)人工智能學(xué)習(xí)模型進(jìn)行操作。

          DeepMind的其他新技術(shù)還包括神經(jīng)網(wǎng)絡(luò)架構(gòu)SARA-RT,旨在讓現(xiàn)有的機(jī)器人Transformer人工智能學(xué)習(xí)模型更快更準(zhǔn)確。此外還宣布了RT-Trajectory模型,幫助機(jī)器人更好地完成擦桌子等特定物理任務(wù)。

          對(duì)人類來(lái)說(shuō),理解如何擦桌子是一種直覺,但機(jī)器人可以通過(guò)多種方式將指令轉(zhuǎn)化為實(shí)際的物理動(dòng)作。傳統(tǒng)上,訓(xùn)練機(jī)械臂依賴于將抽象的自然語(yǔ)言(如擦桌子)映射到特定動(dòng)作,例如閉合抓手、向左移動(dòng)、向右移動(dòng),但這使得模型很難推廣到新的任務(wù)中。

          而RT-Trajectory模型可以在訓(xùn)練視頻中自動(dòng)添加描述機(jī)器人運(yùn)動(dòng)的視覺輪廓。RT-Trajectory在訓(xùn)練數(shù)據(jù)集中采集每個(gè)視頻,并將其與機(jī)器人手臂抓手執(zhí)行任務(wù)時(shí)的2D軌跡草圖疊加。這些軌跡為模型學(xué)習(xí)機(jī)器人控制策略提供了低級(jí)實(shí)用的視覺提示。

          DeepMind表示,相比之下,RT- trajectory模型能夠通過(guò)解釋視頻或草圖中包含的特定機(jī)器人動(dòng)作讓機(jī)器人理解“如何做”任務(wù)。該系統(tǒng)用途廣泛,它還可以通過(guò)觀看人類演示任務(wù)來(lái)創(chuàng)建軌跡,甚至可以接受手繪草圖,它也可以輕松適應(yīng)不同機(jī)器人平臺(tái)。

          免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

          猜你喜歡

          最新文章