日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁>金融 >內(nèi)容

          AI能看完整年報(bào)了!OpenAI競品最新模型“記性”比GPT-4強(qiáng)3倍

          2023-05-13 16:18:46來源:
          導(dǎo)讀 ①Anthropic的創(chuàng)始團(tuán)隊(duì)來自O(shè)penAI,今年初獲得谷歌投資; ②大模型語境窗口的提升,大幅提高了處理文本的上限,有效滿足金融、法律等領(lǐng)域...

          ①Anthropic的創(chuàng)始團(tuán)隊(duì)來自O(shè)penAI,今年初獲得谷歌投資; ②大模型語境窗口的提升,大幅提高了處理文本的上限,有效滿足金融、法律等領(lǐng)域處理復(fù)雜文件的需求。


          財(cái)聯(lián)社5月12日訊(編輯 史正丞)美國當(dāng)?shù)貢r(shí)間5月11日,由OpenAI前員工創(chuàng)立、背靠谷歌的Anthropic,發(fā)布了最新的Claude模型,最大的升級亮點(diǎn)就是語境窗口支持的token數(shù)量一口氣從9000提升至10萬。


          (來源:Anthropic官網(wǎng))

          這項(xiàng)升級的意義在哪里呢?還得從OpenAI的GPT-4開始說起。

          在OpenAI兩個(gè)月前發(fā)布GPT-4時(shí),《大西洋》雜志提出了一個(gè)致命的問題:這些大模型的記憶力,普遍都不太行

          “告訴ChatGPT你的名字,再數(shù)千個(gè)隨便拼湊的單詞,然后再去問機(jī)器人你的名字是啥時(shí),它就完全不記得了。”——《GPT-4有著金魚一樣的記憶力》

          這里需要先為OpenAI解釋一下,GPT-4的升級中就包含了“記憶力”的提升,標(biāo)準(zhǔn)GPT-4版本的語境窗口已經(jīng)翻了一倍至8192 tokens(簡單來說,1000 tokens對應(yīng)750個(gè)英文單詞),同時(shí)GPT-4模型還支持最高3.2萬tokens的API(官方稱為50頁文本),價(jià)格也要比標(biāo)準(zhǔn)模型翻一倍

          根據(jù)官方解釋,一旦對話長度超出token數(shù)量限制,AI模型可能會生成一些不連貫且無意義的內(nèi)容,也就是俗稱的“胡說八道”。

          記性更好的AI大有用途

          雖然普通用戶平日里使用大模型,差不多接近5000字的記憶力上限大致夠用,但對于有處理長文本(上市公司年報(bào)、技術(shù)文檔)需求的專業(yè)用戶而言,這個(gè)限制就使得現(xiàn)有的大模型多少有些雞肋了。用股民能理解的話來解釋,50頁的限制大致能處理季報(bào),但動(dòng)輒上百頁的年報(bào)就有心無力了。

          Anthropic表示,10萬個(gè)token大概等同于7.5萬個(gè)英文單詞。對于母語者來說,光讀一遍差不多就要5個(gè)小時(shí),而消化、記憶和分析這些信息要花的時(shí)間還會更長。

          在演示中,Claude扮演了一名商業(yè)分析師的角色,接到的指令是處理奈飛公司的年報(bào)10-K表,從85頁的信息中“找到資產(chǎn)負(fù)債表中對潛在投資者最重要的信息,并解釋為何重要”,并按照先給表格羅列數(shù)據(jù),再提供總結(jié)分析的格式呈現(xiàn)。


          (來源:Anthropic)

          對于解讀奈飛資產(chǎn)負(fù)債表的任務(wù)來說,Claude已經(jīng)能完成攫取信息和解釋信息的能力,不僅能羅列出數(shù)據(jù),還能挑出財(cái)報(bào)中提到的數(shù)據(jù)變動(dòng)原因。雖然距離人類分析師融匯古今、遣詞造句的能力尚有差別,但已經(jīng)達(dá)到商業(yè)化工具的要求。

          當(dāng)然,面對10萬token的“記憶容量”,能夠解鎖的玩法遠(yuǎn)遠(yuǎn)不止讀上百頁文檔。美國音頻AI平臺AssemblyAI特意做一個(gè)視頻,“商業(yè)互吹”Claude的意義。

          AssemblyAI介紹稱,現(xiàn)在用戶可以把一本書直接丟進(jìn)AI,然后布置諸如總結(jié)、解釋和搜索的任務(wù)。舉例而言,知名游戲開發(fā)者約翰·卡馬克的一集博客,差不多有5.8萬字(7.8萬tokens),8部星球大戰(zhàn)一共講了6.5萬字的臺詞(8.7萬tokens),現(xiàn)在都可以扔進(jìn)Claude,用1分鐘時(shí)間就能“讀完”整個(gè)文件,并回答一系列原本需要人類數(shù)十小時(shí)才能完成的總結(jié)、分析類問題。

          以約翰·卡馬克長達(dá)5小時(shí)的播客為例,通過AssemblyAI進(jìn)行轉(zhuǎn)寫后,Claude不僅成功回答了“總結(jié)卡馬克談?wù)撨^由他開發(fā)的游戲”——Doom、Quake等,同時(shí)還額外列出卡馬克在播客中提及,但并不是由他開發(fā)的游戲,如超級馬里奧、星球大戰(zhàn)等。


          (來源:AssemblyAI)

          Anthropic總結(jié)稱,支持10萬token的模型,對于經(jīng)濟(jì)、法律等經(jīng)常需要分析超長文本的行業(yè)極為有用。不僅能夠歸納和解釋上市公司財(cái)報(bào)、研究報(bào)告等長文件,提供股票投資的基本面和風(fēng)險(xiǎn)分析,還能閱讀晦澀難懂的法律文件和程序開發(fā)文檔,快速地給出答案。

          目前,最新的Claude已經(jīng)通過API向商業(yè)用戶開放,100K tokens版本定價(jià)與此前9k tokens版本一致。


          (來源:Anthropic)

          免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

          猜你喜歡

          最新文章