日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁>汽車 >內(nèi)容

          GPT-3計劃開源!Sam Altman自曝急缺GPU,GPT-4多模態(tài)能力明年開放

          2023-06-04 17:05:55來源:
          導(dǎo)讀 新智元報道編輯:桃子【新智元導(dǎo)讀】沒想到,OpenAI短期工作無法推進(jìn),都是GPU太缺了!聽證會之后,Sam Altman帶著團(tuán)隊在歐洲開啟了「旅行...


          新智元報道

          編輯:桃子

          【新智元導(dǎo)讀】沒想到,OpenAI短期工作無法推進(jìn),都是GPU太缺了!

          聽證會之后,Sam Altman帶著團(tuán)隊在歐洲開啟了「旅行」。

          而在最近的一次訪談中,Altman也沒有藏著掖著,自曝自家AI的一切進(jìn)展,全得等GPU跟上了再說。


          他討論了OpenAI的API,以及產(chǎn)品計劃,引起了許多人的關(guān)注。

          許多網(wǎng)友紛紛表示,我喜歡Altman的坦誠。

          值得一提的是,GPT-4的多模態(tài)能力,2024年應(yīng)該大部分Plus用戶就能上手了,前提還是有足夠GPU才行。

          微軟老大哥斥資12億美元給OpenAI建的超算,還遠(yuǎn)遠(yuǎn)無法滿足GPT-4運(yùn)行時所需的算力。畢竟,GPT-4參數(shù)據(jù)稱有100萬億。

          另外,Altman還透露,GPT-3也在OpenAI的開源計劃之中。


          不知道是不是這次采訪內(nèi)容 透露了太多 OpenAI的「機(jī)密」,源文稿目前已被刪除,快點碼了。


          劃重點

          最新訪談,是來自AI開發(fā)平臺Humanloop的首席執(zhí)行官Raza Habib主持,采訪了Altman以及其他20位開發(fā)人員。

          這次討論涉及到實際的開發(fā)者問題,以及與OpenAI的使命和AI的社會影響相關(guān)的更大的問題。


          以下是關(guān)鍵要點:

          1. OpenAI急缺GPU

          2. OpenAI的近期路線圖:GPT-4多模態(tài)2024年開放

          3. 通過API訪問ChatGPT插件近期不會發(fā)布

          4. OpenAI只做ChatGPT這一「殺手級應(yīng)用」,目標(biāo)是讓ChatGPT成為一個超級智能的工作助手

          5. GPT-3在開源計劃中

          6. 模型性能的縮放法則繼續(xù)有效

          接下來,將從6大點介紹Sam Altman究竟說了啥。

          OpenAI目前嚴(yán)重依賴GPU

          采訪的一切話題都是圍繞,「OpenAI太缺GPU了」。

          這已經(jīng)拖延了他們許多的短期計劃。

          目前,OpenAI的許多客戶都在抱怨API的可靠性和速度。Sam Altman解釋道,主要還是GPU太缺了。


          OpenAI是英偉達(dá)DGX-1超算首位客戶

          至于,支持32k tokens的上下文長度還不能推出給更多的人。

          由于OpenAI還沒有克服技術(shù)上的障礙,看起來他們似乎今年就會有支持100k-1M tokens的上下文,但需要在研究上取得突破。

          微調(diào)(Fine-Tuning)API也目前受到GPU可用性的限制。

          OpenAI還沒有使用像Adapters或LoRa這樣的高效微調(diào)方法,因此微調(diào)對于運(yùn)行和管理來說是非常計算密集型的。

          不過,未來他們將對微調(diào)提供更好的支持。甚至,OpenAI可能會托管一個社區(qū)貢獻(xiàn)的模型市場。

          最后,專用容量提供也受到GPU可用性的限制。

          今年年初,網(wǎng)友爆出OpenAI正在悄悄推出一個新的開發(fā)者平臺Foundry,讓客戶在專用容量上運(yùn)行該公司的新機(jī)器學(xué)習(xí)模型。

          這一產(chǎn)品就是「為運(yùn)行較大工作負(fù)載的尖端客戶設(shè)計」。要使用這項服務(wù),客戶必須愿意預(yù)付$100k的費(fèi)用。

          然而,從透露的圖片信息可以看出,實例并不便宜。

          運(yùn)行GPT-3.5的輕量級版本,3個月的委托將花費(fèi)78,000美元,一年將花費(fèi)2,000美元。


          從另一側(cè)面也可以看出,GPU消耗價格不菲。

          OpenAI近期路線圖

          Altman分享了OpenAI API的暫定近期路線圖:

          2023:

          · 又快又便宜的 GPT-4ーー這是OpenAI的首要任務(wù)。

          總的來說,OpenAI的目標(biāo)是,盡可能地降低「智能成本」。因此他們將努力繼續(xù)降低 API 的成本。

          · 更長的上下文窗口ーー在不久的將來,上下文窗口可能支持高達(dá)100萬個tokens。


          · 微調(diào) API——微調(diào)API將擴(kuò)展到最新的模型,但具體的形式將取決于開發(fā)人員真正想要的是什么。

          · 有記憶的API ーー目前大部分token被浪費(fèi)在上文的傳輸中,將來會有一個能夠記住對話歷史的API版本。

          2024:

          · 多模態(tài)能力ーーGPT-4發(fā)布時曾演示了強(qiáng)大的多模態(tài)能力,但是在GPU得到滿足之前,這一功能還無法拓展到所有人。

          插件「沒有 PMF」,短期內(nèi)不會出現(xiàn)在API中

          許多開發(fā)者對通過API訪問ChatGPT插件非常感興趣,但Sam表示這些插件不會很快發(fā)布。

          「除了Browsing外,插件系統(tǒng)還沒有找到PMF?!?/p>


          他還指出,很多人想把他們的產(chǎn)品放到ChatGPT里,但實際上他們真正需要的是把ChatGPT放到他們的產(chǎn)品里。

          除了ChatGPT,OpenAI不會發(fā)布更多產(chǎn)品

          OpenAI的每一次動作,都讓開發(fā)者們抖三抖。

          不少開發(fā)人員表示,OpenAI可能發(fā)布與他們競爭的產(chǎn)品的時候,對使用OpenAI API構(gòu)建應(yīng)用感到緊張。

          而Altman表示,OpenAI不會在ChatGPT之外發(fā)布更多的產(chǎn)品。

          在他看來,偉大的公司有一個「殺手級應(yīng)用」,ChatGPT就是要做這個創(chuàng)紀(jì)錄的應(yīng)用。


          ChatGPT的愿景是成為一個超級智能的工作助理。OpenAI不會觸及到更多其他GPT的用例。

          監(jiān)管是必要的,但開源也是必要的

          雖然Altman呼吁對未來模型進(jìn)行監(jiān)管,但他并不認(rèn)為現(xiàn)有的模型是危險的。

          他認(rèn)為,監(jiān)管或禁止現(xiàn)有模型將是一個巨大的錯誤。

          采訪中,他重申了自己對開源重要性的信念,并表示OpenAI正在考慮將GPT-3開源。

          而現(xiàn)在,OpenAI還沒有開源的部分原因是,他對有多少個人和公司有能力托管,和提供大模型表示懷疑。

          模型性能「縮放法則」仍有效

          近來,許多文章聲稱,巨型人工智能模型的時代已經(jīng)結(jié)束。然而,并沒有準(zhǔn)確反應(yīng)Altman原意。


          OpenAI的內(nèi)部數(shù)據(jù)表明,模型性能的縮放法則(scaling laws)仍然有效,讓模型變大將繼續(xù)產(chǎn)生性能。

          不過,縮放的速度不能維持,因為OpenAI在短短幾年內(nèi)已經(jīng)將模型擴(kuò)大了數(shù)百萬倍,未來這樣做將不可持續(xù)。

          這并不意味著OpenAI不會繼續(xù)嘗試使模型更大,只是意味著它們可能每年只會增加1倍/2倍,而不是增加多個數(shù)量級??s放法則繼續(xù)有效的事實對AGI開發(fā)的時間線有重要的影響。


          縮放假設(shè)是我們可能已經(jīng)有了構(gòu)建AGI所需的大部分部件,剩下的大部分工作將是將現(xiàn)有的方法擴(kuò)展到更大的模型和更大的數(shù)據(jù)集。

          如果縮放的時代結(jié)束了,那么我們可能應(yīng)該預(yù)期AGI會更遠(yuǎn)。縮放法則繼續(xù)有效強(qiáng)烈暗示了實現(xiàn)AGI時間線會變短。

          網(wǎng)友熱評

          有網(wǎng)友調(diào)侃道,


          OpenAI:必須通過法規(guī)來保護(hù)我們的護(hù)城河。還是OpenAI:Meta在我們的護(hù)城河里撒尿,讓我們也暗示一下我們的模型要開源吧。


          還有人稱,如果GPT-3真的開源了,像LLMa一樣,需要大約5天的時間在M1芯片上就能運(yùn)行了。

          社區(qū)開發(fā)人員能夠幫OpenAI解決GPU瓶頸,前提是他們開源模型。沒幾天,開發(fā)者們就能讓其運(yùn)行在CPU和邊緣設(shè)備。

          GPU短缺一事,有人認(rèn)為是OpenAI資金鏈出了問題,買不起。

          然而還有人稱,明顯是缺乏供應(yīng)。除非芯片制造業(yè)發(fā)生革命,否則相對于消費(fèi)GPU來說,可能總是會出現(xiàn)供應(yīng)不足的情況。


          還有網(wǎng)友懷疑,英偉達(dá)的價值還是被低估?計算需求的階梯式變化可能持續(xù)數(shù)年...


          英偉達(dá)剛剛加入萬億美元俱樂部,這樣說來,無限的算力需求或許會成就一個世界超越2萬億美元的芯片廠。

          參考資料:

          https://humanloop.com/blog/openai-plans

          https://news.ycombinator.com/item?id=36141544

          免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

          猜你喜歡

          最新文章