日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁(yè)>國(guó)內(nèi) >內(nèi)容

          GPT-4就是沖著賺錢來(lái)的!

          2023-03-16 16:36:00來(lái)源:
          導(dǎo)讀原標(biāo)題:GPT-4就是沖著賺錢來(lái)的!出品|虎嗅科技組作者|齊健編輯|陳伊凡頭圖|電影《華爾街之狼》GPT-4就是沖著賺錢來(lái)的!北京時(shí)間3月15...

          原標(biāo)題:GPT-4就是沖著賺錢來(lái)的!

          出品|虎嗅科技組

          作者|齊健

          編輯|陳伊凡

          頭圖|電影《華爾街之狼》

          GPT-4就是沖著賺錢來(lái)的!

          北京時(shí)間3月15日凌晨,OpenAI正式官宣了大模型GPT-4 。

          在驚艷到出圈的ChatGPT推出后僅僅4個(gè)月,OpenAI再推新品。這似乎正在印證此前傳出的“OpenAI計(jì)劃2023年?duì)I收2億美元,2024年底前營(yíng)收達(dá)10億美元”的目標(biāo)。限制盈利機(jī)構(gòu)OpenAI要開(kāi)始用大模型賺錢了。

          目前官宣的GPT-4能力與此前傳說(shuō)的基本相似,主要提升了語(yǔ)言模型方面的能力,并添加了“多模態(tài)”的圖片識(shí)別功能。

          此外,GPT-4 將“單詞最大輸出限制”提高到了 25000 個(gè)單詞,比基于GPT-3的ChatGPT更強(qiáng)大,在對(duì)問(wèn)題的理解和回答方面,GPT-4也顯得更聰明,更像人了。

          目前,ChatGPT Plus版本的用戶已經(jīng)可以直接在原來(lái)的ChatGPT基礎(chǔ)之上,選擇GPT-4模型,直接體驗(yàn)。不過(guò),目前GPT-4每4小時(shí)只能回答100個(gè)問(wèn)題。

          ChatGPT Plus已經(jīng)可以適用GPT-4了

          在前不久的GPT-4“謠言”階段,微軟就曾多次通過(guò)各種渠道透出New Bing會(huì)第一時(shí)間應(yīng)用GPT-4。新模型發(fā)布后,微軟更是在第一時(shí)間宣布“我們很高興確認(rèn)新的Bing正在運(yùn)行GPT-4,我們已經(jīng)為搜索進(jìn)行了定制。如果您在過(guò)去五周中的任何時(shí)候使用了新的Bing預(yù)覽版,那么您已經(jīng)體驗(yàn)到了這個(gè)強(qiáng)大模型的早期版本。”

          在參數(shù)量方面,在OpenAI公布的GPT-4論文中,并沒(méi)有之前一直傳說(shuō)的“100萬(wàn)億參數(shù)”,甚至沒(méi)有提及GPT-4到底用了多少參數(shù),不過(guò)筆者親測(cè)ChatGPT Plus中開(kāi)放的GPT-4功能后感覺(jué),回答的速度比GPT-3.5要慢了一些。

          “單從回答速度比ChatGPT慢來(lái)說(shuō),并不能表明GPT-4的參數(shù)量就更大。”大算力AI芯片存算一體專家,千芯科技董事長(zhǎng)陳巍博士認(rèn)為,OpenAI不公布參數(shù)量和架構(gòu)是一種商業(yè)化技術(shù)保護(hù)策略,增加其競(jìng)爭(zhēng)對(duì)手的產(chǎn)品試錯(cuò)成本。不過(guò)目前也沒(méi)法排除GPT-4參數(shù)量小于GPT-3的可能性。

          迅速落地商業(yè)應(yīng)用,保密參數(shù)量,增加圖片識(shí)別能力,大幅提升語(yǔ)言模型能力。GPT-4的推進(jìn)速度,比4個(gè)月前的ChatGPT快了不是一步兩步。

          看起來(lái)更像人了,但離AGI還很遠(yuǎn)

          從ChatGPT問(wèn)世到GPT-4發(fā)布前的這4個(gè)月時(shí)間里,對(duì)GPT-4最多、最準(zhǔn)確的預(yù)言就是“多模態(tài)”,簡(jiǎn)言之就是GPT-4可以看圖了,而且它還能看懂圖片的內(nèi)涵。

          在自然語(yǔ)言處理(NLP)中,文本、圖像和音頻信息都可以共同幫助理解和生成更豐富的內(nèi)容。同樣,在計(jì)算機(jī)視覺(jué)任務(wù)中,文本和圖像信息“齊發(fā)”可以提高目標(biāo)檢測(cè)和場(chǎng)景理解的準(zhǔn)確性。

          具備多模態(tài)的生成能力一定是大模型未來(lái)的趨勢(shì),而且生成式大模型不是只能做圖像生成、文本生成這樣的生成任務(wù),它其實(shí)是有望成為未來(lái)AI的統(tǒng)一底座的。”瑞萊智慧副總裁唐家渝舉例說(shuō),生成式模型在解決零樣本、少樣本學(xué)習(xí)任務(wù)時(shí)也有著優(yōu)異的表現(xiàn),這也是研究生成式大模型的重要意義之一。

          GPT-4本次發(fā)布最驚艷的地方就在于,AI對(duì)“看”這件事兒,不再只是關(guān)注眼前事物,而是可以理解圖片的含義了。

          比如,分析圖片的內(nèi)容:

          問(wèn):你可以解釋一下這張圖嘛?

          GPT-4答:這是一個(gè)笑話,結(jié)合了兩個(gè)不相關(guān)的東西:太空中的地球照片和雞塊。圖中文字表明,該圖是從太空拍攝的地球的美麗照片。 然而,圖像實(shí)際上是雞塊排列成世界地圖。圖中的幽默來(lái)自于文本和圖像意想不到的并置。 文字建立了對(duì)地球宏偉形象的期望,但這個(gè)形象實(shí)際上是平凡而愚蠢的。

          通過(guò)草稿上的幾句話,編寫(xiě)一個(gè)功能齊全的網(wǎng)站。

          OpenAI展示的GPT-4通過(guò)草稿筆記自動(dòng)生成的網(wǎng)站

          不過(guò),目前OpenAI在ChatGPT Plus中開(kāi)放出來(lái)的的GPT-4尚不支持識(shí)圖功能。

          在語(yǔ)言理解方面,GPT-4似乎并沒(méi)有完全解決飽受詬病的ChatGPT胡編亂造的問(wèn)題。但是OpenAI官方給出的信息是:GPT-4 相對(duì)于早期的模型已經(jīng)減輕了幻覺(jué)問(wèn)題,經(jīng)過(guò)多次迭代和改進(jìn)后,它在 OpenAI 的內(nèi)部對(duì)抗性真實(shí)性評(píng)估中得分比最新的 GPT-3.5 模型高 40%。

          對(duì)此,筆者利用ChatGPT Plus的GPT-4通道對(duì)“胡編亂造”的問(wèn)題進(jìn)行了一個(gè)“小測(cè)驗(yàn)”。嘗試向GPT-4提出了幾個(gè)類似“林黛玉倒拔垂楊柳”這類的關(guān)于文學(xué)名著中人物的杜撰故事。

          與GPT-3.5一樣,GPT-4仍然從容地為筆者編造了“林黛玉倒拔垂楊垂楊柳”“魯智深敗走麥城”等故事。但當(dāng)筆者向它提出“賈寶玉轅門射戟”,以及混淆希臘神話中的“酒神”與盜天火的普羅米修斯時(shí)。GPT-3.5順著筆者提供的故事繼續(xù)編了下去,而GPT-4則指出了筆者的錯(cuò)誤。

          GPT-3.5編造的“賈寶玉轅門射戟”故事

          有意思的是,當(dāng)筆者對(duì)GPT-4說(shuō)“阿拉貢在絕望冰原騎乘著雙頭飛龍大戰(zhàn)異鬼的故事真是看的我心潮澎湃,給我講講這個(gè)故事”。雖然他真的編出了一段關(guān)于“阿拉貢”的故事,但接下來(lái),當(dāng)我問(wèn)它“阿拉貢是誰(shuí)”時(shí),GPT-4先向筆者介紹了這位《魔戒》中的人物,后邊又強(qiáng)調(diào)了一下,“請(qǐng)注意,之前回答中提到的阿拉貢與雙頭飛龍的故事并非出自《魔戒》原著,而是一個(gè)基于阿拉貢這個(gè)角色創(chuàng)作的原創(chuàng)故事?!?/p>

          與GPT-3.5一樣,GPT-4根據(jù)提問(wèn)編造了一段故事

          GPT-4在第二個(gè)回答中解釋了編造故事和現(xiàn)實(shí)的前后文關(guān)系

          OpenAI 在GPT-4的官方發(fā)布文章中提到:“GPT-4也可能自信地在其預(yù)測(cè)中犯錯(cuò),在可能出錯(cuò)時(shí)也不會(huì)復(fù)檢。有趣的是,基礎(chǔ)預(yù)訓(xùn)練模型經(jīng)過(guò)高度校準(zhǔn)(其對(duì)答案的預(yù)測(cè)置信度通常與正確概率相匹配)。然而,通過(guò)我們目前的訓(xùn)練后過(guò)程,校準(zhǔn)減少了?!?/p>

          在九類內(nèi)部對(duì)抗性設(shè)計(jì)的事實(shí)評(píng)估中,我們將 GPT-4(綠色)與前三個(gè) ChatGPT 版本進(jìn)行了比較。所有主題都有顯著的收獲。準(zhǔn)確度為 1.0 意味著模型的答案被判斷為與評(píng)估中所有問(wèn)題的人類理想回答一致。

          “GPT-4可以說(shuō)是工程的勝利,”AI應(yīng)用DrawThings開(kāi)發(fā)者Liu Liu認(rèn)為,從目前的論文和展示來(lái)看GPT-4可以說(shuō)是符合業(yè)內(nèi)人士的預(yù)期,也就是human level intelligence with a lot of caveats(加了很多限制條件的人類水平的智能)。不過(guò),大眾對(duì)GPT-4的預(yù)期可能更高。

          “GPT-4目前可以說(shuō)是具備了基本的推理能力和邏輯能力。但是應(yīng)該還不能處理復(fù)雜問(wèn)題,或者我們不知道怎么給prompt(提示詞)。所以現(xiàn)在還只是一個(gè)知識(shí)特別豐富,但是只有基本推理邏輯能力的AI?!盠iu Liu解釋說(shuō),這里的復(fù)雜推理能力,可以簡(jiǎn)單理解為“玩星際爭(zhēng)霸2或者Dota2”這樣的復(fù)雜任務(wù)。

          對(duì)此,牛津大學(xué)計(jì)算機(jī)學(xué)院院長(zhǎng)邁克爾·伍爾德里奇教授認(rèn)為,LLM(大型語(yǔ)言模型)在涉及語(yǔ)言問(wèn)題時(shí)表現(xiàn)的通用能力很強(qiáng),但它并不是AGI。它只是為了執(zhí)行特定的、狹隘領(lǐng)域的任務(wù)而構(gòu)建和優(yōu)化的軟件組合。我們需要更多的研究和技術(shù)進(jìn)步才能實(shí)現(xiàn)AGI。

          “它不存在于現(xiàn)實(shí)世界中,也無(wú)法理解我們的世界?!痹谝淮尾稍L中,伍爾德里奇教授給虎嗅舉了這樣一個(gè)例子,如果你現(xiàn)在開(kāi)始與ChatGPT進(jìn)行對(duì)話,說(shuō)完一句之后就去度假了。當(dāng)你出游一周回來(lái)時(shí),ChatGPT仍然在那里耐心地等待你輸入下一個(gè)內(nèi)容,它不會(huì)意識(shí)到時(shí)間已經(jīng)過(guò)去或者世界發(fā)生了哪些變化。

          商業(yè)化能力再提升,GPT-4能去賺錢了?

          “GPT-4已經(jīng)突破了落地的問(wèn)題,采用云的方式,用的人越多,成本越低。”云舟集成電路創(chuàng)始人兼CEO趙豪杰認(rèn)為,GPT-3會(huì)更偏向NLP,而GPT-4在各方面的能力都更強(qiáng)一些。他給虎嗅舉了這樣一個(gè)例子,GPT-3就像初中生,還不能出來(lái)工作賺錢,GPT-4應(yīng)該已經(jīng)職校畢業(yè),可以上班賺錢了。

          GPT-4的能力雖然在很多現(xiàn)實(shí)場(chǎng)景中不如人類,但在各種專業(yè)和學(xué)術(shù)基準(zhǔn)測(cè)試中表現(xiàn)出了與人類相當(dāng)?shù)乃健2还茉趺凑f(shuō),GPT-4確實(shí)在商業(yè)化上更進(jìn)一步了。

          GPT-4和GPT-3.5的部分答案成績(jī)

          在此之前,ChatGPT以及GPT-3在專業(yè)領(lǐng)域的表現(xiàn)一直被人們認(rèn)為差強(qiáng)人意,在美國(guó)的律師資格答案Uniform Bar Exam (MBE+MEE+MPT)中,GPT-4的成績(jī)甚至可以排到前10%,而GPT-3.5只能排在倒數(shù)10%。GPT-4在專業(yè)領(lǐng)域的能力實(shí)現(xiàn)了巨大提升,在一些專業(yè)領(lǐng)域已經(jīng)開(kāi)始逐漸接近甚至超過(guò)人類,這給GPT-4在很多ToB商業(yè)領(lǐng)域提供了更多可能性。

          例如,專業(yè)技能輔助工具,知識(shí)檢索類的應(yīng)用,職業(yè)教培輔導(dǎo)等領(lǐng)域,GPT-4的能力將是革命性的。

          對(duì)于GPT-4在專業(yè)技能上的突破,如果再進(jìn)一步思考,或許未來(lái)人類的職業(yè)技能,將被AI重構(gòu)。而在教育和技能培訓(xùn)方面,或許現(xiàn)在就該開(kāi)始思考,哪些技能AI無(wú)法取代,我們應(yīng)該學(xué)習(xí)什么知識(shí)和技能,以保持身為“人類”的不可替代性。

          相比于GPT-3和GPT-3.5,GPT-4的智力更強(qiáng),更不易出錯(cuò),這顯然有利于商業(yè)落地,而新增的圖片識(shí)別功能則給OpenAI找到了更多的應(yīng)用場(chǎng)景。

          GPT-4能夠基于視覺(jué)信息做邏輯推理,不僅告訴用戶眼前發(fā)生了什么,更能說(shuō)出發(fā)生的事代表了什么。目前,OpenAI已經(jīng)給GPT-4找到了一個(gè)社會(huì)價(jià)值非常高的應(yīng)用場(chǎng)景——助殘。

          BeMyEyes 是一家總部位于丹麥的公司,他們致力于在日常生活中幫助視障人群。BeMyEyes的基礎(chǔ)功能是在App中招募,通過(guò)鏈接志愿者和視障人士,為他們提供“視力”幫助。

          OpenAI 此次公布GPT-4時(shí),也公布了他們和BeMyEyes的密切合作,通過(guò)GPT-4的多模態(tài)識(shí)別功能,為視障人士提供更便捷的“虛擬志愿者”(Be My Eyes Virtual Volunteer?)。用戶可以通過(guò)該應(yīng)用程序?qū)D像發(fā)送給給予GPT-4的“虛擬志愿者”, AI將為各種任務(wù)提供即時(shí)識(shí)別、解釋和對(duì)話式的“視力”幫助。

          目前該功能正處于封閉測(cè)試階段,預(yù)計(jì)將在接下來(lái)的幾周內(nèi)擴(kuò)大 Beta 測(cè)試人員群體,并有希望在未來(lái)幾個(gè)月內(nèi)廣泛提供虛擬志愿者。該應(yīng)用在中國(guó)App Store亦可下載中文版本,目前也已經(jīng)開(kāi)放了公測(cè)排隊(duì)。Be My Eyes聲稱“該工具將對(duì)所有使用 Be My Eyes 應(yīng)用程序的盲人和低視力社區(qū)成員免費(fèi)?!?/p>

          真正的多模態(tài)大模型還沒(méi)有來(lái),期待GPT-4.5和GPT-5,還會(huì)在多模態(tài)上有很大進(jìn)展。”源碼資本執(zhí)行董事陳潤(rùn)澤告訴虎嗅,多模態(tài)大模型還有很大發(fā)展空間,未來(lái)也會(huì)帶來(lái)更多的應(yīng)用場(chǎng)景。

          雖然GPT-4大幅拓寬了大模型可能落地的商業(yè)化場(chǎng)景。但算力、研發(fā)成本,仍被很多人認(rèn)為是大模型落地過(guò)程中很難跨過(guò)的障礙。畢竟大模型的研發(fā)、算力支出在目前看來(lái)高的嚇人,此前ChatGPT公開(kāi)的單次訓(xùn)練、日常運(yùn)營(yíng)開(kāi)支都是以百萬(wàn)美元為單位的,短期內(nèi)想要商用可能很難控制成本。

          不過(guò),陳巍認(rèn)為,在商業(yè)化方面GPT-4更容易落地。成本是否更高要看多方面因素,GPT-4總的固定研發(fā)成本(含預(yù)訓(xùn)練模型的訓(xùn)練成本,不是增量成本)高于ChatGPT,但可以看到OpenAI已將GPT-4開(kāi)放在ChatGPT Plus生產(chǎn)環(huán)境中,因此不排除GPT-4模型運(yùn)行成本更低的可能。

          在NLP研究領(lǐng)域,專家們一直在嘗試不依賴大算力來(lái)進(jìn)行LLM訓(xùn)練,但目前還沒(méi)有特別好的解決方案。從仿生學(xué)上來(lái)看,人腦本身是不需要依賴非常大量算力進(jìn)行學(xué)習(xí)的,因此隨著腦科學(xué)技術(shù)研究的深入,未來(lái)應(yīng)該會(huì)有一種技術(shù)替代現(xiàn)在的暴力訓(xùn)練方式。但是即便不考慮訓(xùn)練,大算力確實(shí)會(huì)給模型的部署應(yīng)用帶來(lái)更好的性能提升。

          陳巍認(rèn)為,存算一體(CIM)架構(gòu)或類腦架構(gòu)(并不特指SNN架構(gòu)),或者兩者的異構(gòu)結(jié)合,這兩類架構(gòu)都更接近人腦的邏輯結(jié)構(gòu),可以有效的提升有效的訓(xùn)練算力,給AI訓(xùn)練和研發(fā)提供更高效的算力工具。(當(dāng)然并不排斥這兩者與現(xiàn)有CPU或GPU技術(shù)的異構(gòu)整合)

          事實(shí)上,OpenAI的大模型在成本方面正在以肉眼可見(jiàn)的速度下降。3月1日,ChatGPT剛剛公布開(kāi)放API時(shí),即已聲明成本比最初降低了90%。目前,已公開(kāi)的GPT-4的API價(jià)格則大概是純文本輸入每1k個(gè)prompt token定價(jià)0.03美元,每1k個(gè)completion token定價(jià)0.06美元。默認(rèn)速率限制為每分鐘40k個(gè)token和每分鐘200個(gè)請(qǐng)求。對(duì)此,趙豪杰表示:“GPT-4已經(jīng)突破了落地的問(wèn)題,采用云的方式,用的人越多,成本越低?!?/p>

          除了成本,利潤(rùn)也是非常關(guān)鍵的,陳潤(rùn)澤認(rèn)為,OpenAI在GPT-4的論文中用了大量篇幅講述他們?cè)诎踩煽胤矫娴呐?。?strong>GPT-4(launch)做了更好的安全約束。技術(shù)的進(jìn)步是多要素綜合,利潤(rùn)也會(huì)與之一起驅(qū)動(dòng)商業(yè)化落地。”

          GPT-4都發(fā)了,“中國(guó)的OpenAI”們路在何方

          各家模型之間沒(méi)有明顯可比性,他們的區(qū)別主要在于投入市場(chǎng)的節(jié)奏,以及用戶數(shù)量。”伍爾德里奇教授認(rèn)為,OpenAI的大模型從技術(shù)上來(lái)講,優(yōu)勢(shì)并沒(méi)有那么夸張。相對(duì)于其他產(chǎn)品來(lái)說(shuō),只是問(wèn)世更早而已。然而,正是因?yàn)楸绕渌a(chǎn)品更早投入市場(chǎng),也意味著它比其他人獲得了更多的用戶,以及反饋數(shù)據(jù)。

          GPT-4發(fā)布之后,OpenAI在產(chǎn)品上又領(lǐng)先了全球一步。在國(guó)內(nèi)追趕ChatGPT的隊(duì)伍中,百度的文心一言或許是最接近的,目前已經(jīng)官宣了3月16日發(fā)布,然而GPT-4又比百度早發(fā)一天,從這方面上看,重壓之下,國(guó)內(nèi)廠商追趕OpenAI看起來(lái)也越發(fā)困難了。

          不過(guò),對(duì)于中國(guó)的大型語(yǔ)言模型市場(chǎng),多數(shù)專家認(rèn)為,中文實(shí)際上是“原發(fā)”劣勢(shì)。基于中文的模型與英文模型差別很大,中文互聯(lián)網(wǎng)的復(fù)雜程度遠(yuǎn)高于英文,而且數(shù)據(jù)、信息量也更大,這使得語(yǔ)料收集、建模、訓(xùn)練,都要比英文困難很多。“中文本來(lái)就難,不過(guò)在中文大模型這方面,先不管好不好用,必須要有?!壁w豪杰對(duì)虎嗅如是說(shuō)。

          “GPT-4和ChatGPT都是AI技術(shù)進(jìn)步道路上的短暫風(fēng)景。包括開(kāi)源社區(qū)也在推進(jìn)OpenAssitant等類ChatGPT開(kāi)源模型?!标愇”硎荆?strong>我們提倡的思路是,產(chǎn)業(yè)界參考OpenAI的路線迅速追擊,勤勞的同胞可在垂域上做出更好的細(xì)分領(lǐng)域模型;學(xué)術(shù)界則嘗試更高效率的訓(xùn)練方法或更高性能的模型結(jié)構(gòu),嘗試找到暴力訓(xùn)練之外的路徑。”

          目前看大模型和算力芯片已經(jīng)成為AI產(chǎn)業(yè)發(fā)展的兩個(gè)主驅(qū)動(dòng)輪,兩個(gè)都要持續(xù)投入和推進(jìn)才能獲得更好的產(chǎn)業(yè)地位和戰(zhàn)略優(yōu)勢(shì)。

          OpenAI在發(fā)布GPT-4的同時(shí),還公布了一項(xiàng)有意思的開(kāi)源。即用于評(píng)測(cè)大語(yǔ)言模型的OpenAI Evals框架,該框架可以通過(guò)數(shù)據(jù)集自動(dòng)生成提示(Prompt),評(píng)估模型生成的回答/補(bǔ)全(completion)的質(zhì)量,比較不同數(shù)據(jù)集或模型的性能。

          “這類評(píng)測(cè)框架在各NLP企業(yè)中一直存在,但較少開(kāi)放?!标愇?duì)虎嗅表示,OpenAI這一舉措可能有助于NLP領(lǐng)域建立起統(tǒng)一的LLM評(píng)測(cè)標(biāo)準(zhǔn),可能節(jié)約小企業(yè)建立評(píng)測(cè)體系和訓(xùn)練數(shù)據(jù)集的時(shí)間和成本。

          不過(guò),陳巍同時(shí)提示,有一點(diǎn)需要注意,就是在Evals的免責(zé)聲明(Disclaimer)中,OpenAI 保留在其未來(lái)產(chǎn)品中使用這些Evals用戶上傳的數(shù)據(jù)的權(quán)利。

          正在改變與想要改變世界的人,都在虎嗅APP

          免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

          猜你喜歡

          最新文章