日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁(yè)>疫情動(dòng)態(tài) >內(nèi)容

          復(fù)旦清華聯(lián)合頂刊發(fā)文|ChatGPT:潛力、前景和局限

          2023-03-02 16:29:02來(lái)源:
          導(dǎo)讀 新智元報(bào)道來(lái)源:信息與電子工程前沿FITEE作者:周杰 柯沛 邱錫鵬 黃民烈 張軍平編輯:好困【新智元導(dǎo)讀】為更好地理解ChatGPT,這里我...


          新智元報(bào)道

          來(lái)源:信息與電子工程前沿FITEE

          作者:周杰 柯沛 邱錫鵬 黃民烈 張軍平

          編輯:好困

          【新智元導(dǎo)讀】為更好地理解ChatGPT,這里我們簡(jiǎn)要介紹其歷史,討論其優(yōu)點(diǎn)和不足,指出幾個(gè)潛在應(yīng)用,最后分析它對(duì)可信賴人工智能、會(huì)話搜索引擎和通用人工智能(artificial general intelligence, AGI)發(fā)展的影響。

          最近,OpenAI發(fā)布了對(duì)話生成預(yù)訓(xùn)練模型Transformer(Chat Generative Pre-trained Transformer,ChatGPT)(Schulman et al., 2022),其展現(xiàn)的能力令人印象深刻,吸引了工業(yè)界和學(xué)術(shù)界的廣泛關(guān)注。這是首次在大型語(yǔ)言模型(large language model, LLM)內(nèi)很好地解決如此多樣的開(kāi)放任務(wù)。

          ChatGPT成為歷史上增長(zhǎng)最快的消費(fèi)者應(yīng)用程序,在發(fā)布后兩個(gè)月內(nèi),吸引了1億月度活躍訪客(Hu,2023)。自發(fā)布以來(lái),因其高超的對(duì)話能力,已引爆社會(huì)關(guān)注。它可以回答后續(xù)提問(wèn),拒絕不當(dāng)請(qǐng)求,挑戰(zhàn)錯(cuò)誤前提,并承認(rèn)自己錯(cuò)誤(Schulman et al., 2022)。它獲得許多涌現(xiàn)能力,如高質(zhì)量對(duì)話、復(fù)雜推理、思維鏈(CoT)(Wei et al., 2022b)、零/少樣本學(xué)習(xí)(語(yǔ)境學(xué)習(xí))、跨任務(wù)泛化、代碼理解/生成等等。


          論文地址:https://link.springer.com/article/10.1631/FITEE.2300089

          這些令人印象深刻的能力,ChatGPT是如何獲得的?

          其主要得益于大型語(yǔ)言模型,它利用語(yǔ)言模型(LM)在大規(guī)模數(shù)據(jù)上訓(xùn)練巨大的神經(jīng)網(wǎng)絡(luò)模型,如Transformer(Vaswani et al., 2017)。語(yǔ)言模型旨在根據(jù)上文預(yù)測(cè)下一個(gè)詞的概率,是文本中的自監(jiān)督信號(hào)。

          互聯(lián)網(wǎng)上存在大規(guī)模文本數(shù)據(jù),所以通過(guò)語(yǔ)言模型對(duì)模型進(jìn)行預(yù)訓(xùn)練是順理成章的?,F(xiàn)有研究表明,模型規(guī)模和數(shù)據(jù)量越大,性能越好。當(dāng)模型和數(shù)據(jù)規(guī)模達(dá)到一定程度時(shí),模型將獲得涌現(xiàn)能力。

          例如,OpenAI發(fā)布的GPT-3(Brown et al., 2020)有1750億個(gè)參數(shù)。它的預(yù)訓(xùn)練采用超級(jí)計(jì)算機(jī)(285 000個(gè)CPU,10 000個(gè)GPU)在45 TB文本數(shù)據(jù)上完成。

          而模型也由此在零樣本學(xué)習(xí)任務(wù)上實(shí)現(xiàn)了巨大性能提升,具有小模型所不具備的語(yǔ)境學(xué)習(xí)能力。隨后,更多策略——如代碼預(yù)訓(xùn)練(Chen et al., 2021)、指令微調(diào)(Wei et al., 2022a)和基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)(reinforcement learning from human feedback,RLHF)(Stiennon et al., 2020)——被用于進(jìn)一步提高推理能力、長(zhǎng)距離建模和任務(wù)泛化。

          大型語(yǔ)言模型提供了一種接近通用人工智能的可能方式。除OpenAI,還有許多組織在探索大型語(yǔ)言模型,從而促進(jìn)人工智能蓬勃發(fā)展,如谷歌發(fā)布Switch-Transformer(Fedus et al., 2021)、百度發(fā)布ERNIE 3.0(Sun et al., 2021)、華為發(fā)布Pangu(Zeng et al., 2021)、智源發(fā)布CPM(Zhang et al., 2021),阿里發(fā)布PLUG。此外,谷歌在OpenAI之后發(fā)布了聊天機(jī)器人Bard。

          我們認(rèn)為,可信的人工智能、對(duì)話式搜索引擎和通用人工智能是人工智能未來(lái)方向。接下來(lái),我們將討論ChatGPT的潛力、前景和局限。

          潛力和前景

          如上面提到,與前幾代生成模型相比,ChatGPT獲得許多涌現(xiàn)能力。其主要優(yōu)勢(shì)如下:

          1. 歸納:ChatGPT可以生成符合用戶意圖的多輪回復(fù)。它捕捉以前的對(duì)話背景來(lái)回答某些假設(shè)的問(wèn)題,大大增強(qiáng)了用戶在對(duì)話互動(dòng)模式下的體驗(yàn)。指令微調(diào)和基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)被用于增強(qiáng)其學(xué)習(xí)任務(wù)泛化的能力,使得與人類(lèi)反饋一致。

          2. 糾正:ChatGPT可以主動(dòng)承認(rèn)自己的錯(cuò)誤。如果用戶指出他們的錯(cuò)誤,模型會(huì)根據(jù)用戶反饋(有時(shí)甚至是錯(cuò)誤反饋)優(yōu)化答案。此外,它可以質(zhì)疑錯(cuò)誤問(wèn)題,并給出合理猜測(cè)。

          3. 安全性:ChatGPT在考慮到道德和因素的情況下,善于拒絕不安全的問(wèn)題或生成安全的回答。監(jiān)督下的指令微調(diào)會(huì)告訴模型哪些答案是比較合理的。此外,它在給出答案的同時(shí)還給出了理由(解釋?zhuān)?,使結(jié)果更容易被用戶接受。

          4. 創(chuàng)造性:ChatGPT在創(chuàng)造性寫(xiě)作任務(wù)中表現(xiàn)尤為突出,甚至可以一步步打磨其作品。這些寫(xiě)作任務(wù)包括頭腦風(fēng)暴任務(wù)、故事/詩(shī)歌生成、演講生成等等。

          ChatGPT背景

          如圖1所示,ChatGPT是InstructGPT(Ouyang et al., 2022)的后續(xù)模型,起源于GPT-3(Brown et al., 2020)。與之前GPT模型相比,GPT-3中的參數(shù)基本增加到1750億,構(gòu)造了一些重要涌現(xiàn)能力,如語(yǔ)境學(xué)習(xí)(Brown et al., 2020)。

          具體而言,GPT-3可以按照輸入中的范例完成各種自然語(yǔ)言處理(natural language processing, NLP)任務(wù),而無(wú)需進(jìn)一步訓(xùn)練。從圖1和圖2來(lái)看,有3種基本策略可以最終從GPT-3得出ChatGPT。

          在預(yù)訓(xùn)練階段,采用代碼預(yù)訓(xùn)練,將代碼語(yǔ)料與文本語(yǔ)料結(jié)合進(jìn)行預(yù)訓(xùn)練。然后,在微調(diào)階段使用指令調(diào)整和基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)來(lái)學(xué)習(xí)跨任務(wù)泛化,并與人類(lèi)反饋相一致。這些技術(shù)幫助它知道更多,以及不知道更少的知道(如語(yǔ)義推理、常識(shí)性知識(shí)等)和不知道(如邏輯推理)。詳情如下:

          1. 代碼預(yù)訓(xùn)練:除文本外,代碼也被添加到預(yù)訓(xùn)練語(yǔ)料庫(kù)中(Chen et al., 2021)。事實(shí)上,代碼預(yù)訓(xùn)練是大型語(yǔ)言模型常用的策略,例如PaLM(Chowdhery et al., 2022)、Gopher(Rae et al., 2021)和Chinchilla(Hoffmann et al., 2022),它不僅可以提升代碼理解和生成的能力,還可以提高長(zhǎng)距離語(yǔ)境理解,并帶來(lái)思維鏈推理的新興能力(Wei et al., 2022b)。具體而言,該模型可通過(guò)一些示例生成推理過(guò)程本身,從而提高回答問(wèn)題的準(zhǔn)確性。代碼預(yù)訓(xùn)練有助于模型獲得這些能力的原因,有待通過(guò)更詳細(xì)的實(shí)驗(yàn)來(lái)探索。

          2. 指令調(diào)整:為使模型行為與人類(lèi)意圖一致,OpenAI研究人員收集了一組由人類(lèi)所寫(xiě)的提示和期望的輸出,并在該數(shù)據(jù)集上進(jìn)行監(jiān)督學(xué)習(xí)(Ouyang et al., 2022)。事實(shí)上,指令微調(diào)成為大型語(yǔ)言模型——如FLAN(Wei et al., 2022a)、T0(Sanh et al., 2022)和Self-Instruct(Wang et al., 2022)——的一項(xiàng)流行技術(shù),因?yàn)樗哂腥蝿?wù)泛化的能力。請(qǐng)注意,指令模板的多樣性至關(guān)重要,該特性有助于模型在不同任務(wù)中學(xué)習(xí)歸納。此外,指令微調(diào)導(dǎo)致模型一步一步思考問(wèn)題,從而減少縮放法則問(wèn)題。不同于傳統(tǒng)微調(diào)范式(Devlin et al., 2019),指令微調(diào)可以在不改變模型參數(shù)的情況下被用于新任務(wù)。我們認(rèn)為這是人工智能的巨大進(jìn)步,可能影響機(jī)器學(xué)習(xí)的發(fā)展。

          3. 基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí):為進(jìn)一步使模型行為與人類(lèi)反饋保持一致,OpenAI研究人員收集人類(lèi)對(duì)不同模型輸出的偏好數(shù)據(jù),訓(xùn)練一個(gè)有效的獎(jiǎng)勵(lì)模型(Ouyang et al., 2022)。這個(gè)獎(jiǎng)勵(lì)模型可以通過(guò)近似策略優(yōu)化(PPO)來(lái)優(yōu)化生成模型(在強(qiáng)化學(xué)習(xí)設(shè)置中也被稱(chēng)為策略模型)(Schulman et al., 2017))?,F(xiàn)有研究也通過(guò)使用基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)與人類(lèi)保持一致,使模型產(chǎn)生信息豐富、有幫助、正確和無(wú)害的回答,并拒絕非法問(wèn)題(Bai et al., 2022; Glaese et al., 2022)。除了訓(xùn)練技術(shù),ChatGPT部署過(guò)程也很重要。為減少相關(guān)風(fēng)險(xiǎn),其使用各種策略進(jìn)行迭代部署。首先,開(kāi)發(fā)人員在部署前進(jìn)行安全評(píng)估來(lái)分析風(fēng)險(xiǎn)。然后,對(duì)少量用戶進(jìn)行Beta測(cè)試,并研究新產(chǎn)生的案例。最后,監(jiān)督使用情況并進(jìn)行回顧性審查。


          圖1 從GPT-3到ChatGPT的演變


          圖2 ChatGPT涌現(xiàn)能力和策略之間的關(guān)系。指令學(xué)習(xí)通過(guò)與人類(lèi)對(duì)齊,提高ChatGPT模型「知道知道」和「知道不知道」的能力,以及減少「不知道知道」和「不知道不知道」的限制。同時(shí),代碼預(yù)訓(xùn)練通過(guò)逐步思考,幫助模型回答其不知道的問(wèn)題

          限制

          盡管具有強(qiáng)大的對(duì)話能力,ChatGPT仍有一些局限(如圖3),舉例如下。

          1. 邏輯推理:ChatGPT的能力不足以準(zhǔn)確處理邏輯問(wèn)題,如對(duì)于數(shù)學(xué)或一階邏輯,其時(shí)常給出錯(cuò)誤答案,因這類(lèi)問(wèn)題答案是確定而非概率的。

          2. 可靠性:ChatGPT仍會(huì)產(chǎn)生事實(shí)上不正確或有偏見(jiàn)的回答。雖然這是生成式人工智能模型的固有問(wèn)題,但它在解決這一問(wèn)題上表現(xiàn)一般。生成信息的真實(shí)性仍是這類(lèi)生成式聊天機(jī)器人的主要基石。

          3. 知識(shí)學(xué)習(xí):ChatGPT不具備網(wǎng)站實(shí)時(shí)搜索功能,無(wú)法學(xué)習(xí)新知識(shí)并更新知識(shí)儲(chǔ)備。此外,它很難重寫(xiě)并修正模型中的知識(shí)。從大規(guī)模語(yǔ)料庫(kù)中習(xí)得的知識(shí)被存儲(chǔ)在一個(gè)具有分布式表示的模型中,這些模型是黑盒,很難作或解釋。

          4. 穩(wěn)健性:盡管ChatGPT在產(chǎn)生安全和無(wú)害的反應(yīng)方面很強(qiáng),但仍有一些方法可以攻擊該系統(tǒng),包括指令攻擊(使模型遵循錯(cuò)誤指令去做非法或不道德的事情)和提示注入。此外,它在英語(yǔ)和尊重美國(guó)文化方面做得不錯(cuò),但對(duì)于其他語(yǔ)言和文化,有必要開(kāi)發(fā)基于相關(guān)數(shù)據(jù)集背景的其它版本。


          圖3 有關(guān)ChatGPT局限性的例子:(a) 邏輯/數(shù)學(xué)問(wèn)題:它對(duì)簡(jiǎn)單數(shù)學(xué)問(wèn)題仍然給出錯(cuò)誤答案;(b) 知識(shí)學(xué)習(xí):它不能獲得關(guān)于2022年世界杯的最新信息;(c) 可靠性:它產(chǎn)生了與事實(shí)不符的回答,第二篇論文Scaling Neural Machine Translation并非Ashish Vaswani撰寫(xiě)

          潛在應(yīng)用

          毋庸置疑,未來(lái)幾年內(nèi),ChatGPT將在許多方面大大改變?nèi)祟?lèi)生活。由于它被定位為一個(gè)通用助手,將在提高生產(chǎn)效率和效益方面發(fā)揮作用,極大影響幾乎所有行業(yè),包括教育、移動(dòng)、搜索引擎、內(nèi)容制作、醫(yī)藥等等。

          正如比爾?蓋茨所說(shuō),人類(lèi)歷史見(jiàn)證了3次改變和構(gòu)建人類(lèi)社會(huì)的技術(shù)浪潮:個(gè)人電腦、互聯(lián)網(wǎng)和通用人工智能。如今,我們正在接近通用人工智能。隨著對(duì)話模型或大型語(yǔ)言模型變得越來(lái)越智能,我們不得不相信,作為界面的對(duì)話將成為現(xiàn)實(shí),它重塑了人機(jī)互動(dòng)范式。這將不可避免地改變?nèi)祟?lèi)尋求、處理和生產(chǎn)數(shù)字信息的方式,并對(duì)我們的日常生活產(chǎn)生深遠(yuǎn)影響。

          然而,ChatGPT可能給人類(lèi)生活帶來(lái)一些負(fù)面影響。

          1. 正如著名語(yǔ)言學(xué)家諾姆?喬姆斯基近期所說(shuō),ChatGPT增加了社會(huì)層面發(fā)現(xiàn)學(xué)術(shù)不端行為或錯(cuò)誤信息的難度,因?yàn)樗蚱渌叨戎悄艿娜斯ぶ悄墚a(chǎn)品可以通過(guò)極大地調(diào)整句子的結(jié)構(gòu),使這些信息變得難以察覺(jué)。

          2. 類(lèi)似NovelAI 2這種可以產(chǎn)生類(lèi)似人類(lèi)文學(xué)的人工智能算法也會(huì)產(chǎn)生道德問(wèn)題。例如,ChatGPT可以被列為科學(xué)論文作者嗎?

          3. 人工智能治理者需更加關(guān)注ChatGPT使用的合法合理性。例如,我們是否允許學(xué)生采用它寫(xiě)作業(yè),是否可以不做任何進(jìn)一步修改?事實(shí)上,它在2023年2月9日通過(guò)美國(guó)醫(yī)學(xué)執(zhí)照答案,展現(xiàn)出強(qiáng)大學(xué)習(xí)能力。

          討論和結(jié)論

          ChatGPT的出現(xiàn)已經(jīng)引領(lǐng)關(guān)于人工智能未來(lái)發(fā)展的討論。在此,我們提出幾個(gè)觀點(diǎn),可能會(huì)引起對(duì)其帶來(lái)影響的討論。

          1. 可信人工智能:雖然ChatGPT有能力完成各種基于文本的現(xiàn)實(shí)世界的任務(wù),但它會(huì)不可避免地產(chǎn)生與事實(shí)不符的內(nèi)容,這限制了其應(yīng)用場(chǎng)景。此外,它使用的是隱性神經(jīng)表征,使得我們很難理解其內(nèi)部運(yùn)作方式。因此,我們認(rèn)為,在當(dāng)前人工智能發(fā)展階段,可信人工智能應(yīng)得到更多關(guān)注(Wang et al., 2022)。由于事實(shí)驗(yàn)證是自然語(yǔ)言處理社區(qū)的典型研究問(wèn)題,如何提高開(kāi)放領(lǐng)域中人工智能生成文本的事實(shí)性仍是一項(xiàng)挑戰(zhàn)。如果我們用ChatGPT作為這種黑箱模型的解釋器,則有可能在性能和可解釋性之間獲得良好平衡。這樣的解釋是否可信,以及如何使這種信任突破專(zhuān)家領(lǐng)域并被大眾接受,應(yīng)是下一階段大型語(yǔ)言模型研究最重要的問(wèn)題之一。

          2. 對(duì)話式搜索引擎:搜索引擎領(lǐng)域已被ChatGPT重新激活。作為OpenAI的重要合作伙伴,微軟首先將其整合到其搜索引擎產(chǎn)品,即必應(yīng)。新的必應(yīng)可以以對(duì)話系統(tǒng)的形式回應(yīng)用戶查詢,并在回應(yīng)中添加引文,其中包括檢索到的網(wǎng)頁(yè)。通過(guò)這種方式,搜索引擎和用戶之間的互動(dòng)更加自然,ChatGPT扮演了信息提取/總結(jié)的角色,減輕了瀏覽無(wú)用網(wǎng)頁(yè)的負(fù)擔(dān)。谷歌發(fā)布了名為Bard的聊天機(jī)器人,也可被整合到搜索引擎中。我們相信ChatGPT正在改變傳統(tǒng)搜索引擎的使用方式,并對(duì)該領(lǐng)域產(chǎn)生深刻影響。

          3. 通用人工智能:盡管ChatGPT通過(guò)從算法智能到語(yǔ)言智能的自我進(jìn)化,承擔(dān)了接近通用人工智能的潛力(Wang et al., 2023),但如果我們真的希望在未來(lái)發(fā)展出真正的通用人工智能,可能需要感知的加入,因?yàn)闆](méi)有表示的智能實(shí)際上比具有自然語(yǔ)言理解能力的智能更早出現(xiàn)(Brooks,1991)。此外,根據(jù)Lighthill報(bào)告(Lighthill, 1973),大多數(shù)基于規(guī)則的學(xué)習(xí)方法都存在組合爆炸問(wèn)題。ChatGPT似乎面臨同樣問(wèn)題,需在未來(lái)加以解決。此外,常識(shí)和一些基本數(shù)學(xué)計(jì)算對(duì)人類(lèi)而言很簡(jiǎn)單,但對(duì)ChatGPT來(lái)說(shuō)很難。盡管其在人工智能的發(fā)展中邁出令人驚訝的一步,Moravec悖論(Moravec, 1988)——人類(lèi)難以解決的問(wèn)題,人工智能卻能輕易解決,反之亦然——仍然成立。也許將ChatGPT或更強(qiáng)大的人工智能產(chǎn)品與人機(jī)增強(qiáng)智能結(jié)合——無(wú)論人在環(huán)中、認(rèn)知計(jì)算,還是二者兼而有之——都值得進(jìn)一步研究(Huang et al., 2022; Xue et al., 2022)。此外,我們可以考慮建立一個(gè)虛擬的平行系統(tǒng),允許其通過(guò)自我提升來(lái)改進(jìn),直至未來(lái)不再需要人類(lèi)反饋(Li et al., 2017)。

          總之,作為大型語(yǔ)言模型的代表,結(jié)合了許多前沿自然語(yǔ)言處理技術(shù)的ChatGPT無(wú)疑引領(lǐng)了現(xiàn)階段人工智能的發(fā)展,并改變了我們的日常生活。本文簡(jiǎn)要分析了它的潛力和前景,也指出其局限。我們相信,ChatGPT可以改變傳統(tǒng)人工智能研究方向,并引發(fā)各種應(yīng)用,同時(shí)為接近通用人工智能提供一種可能的方式。

          作者簡(jiǎn)介


          周杰,復(fù)旦大學(xué)計(jì)算機(jī)科學(xué)技術(shù)學(xué)院博士后,合作導(dǎo)師黃萱菁教授,于2021年在華東師范大學(xué)取得博士學(xué)位,導(dǎo)師賀樑教授。主要研究方向?yàn)樽匀徽Z(yǔ)言處理,情感分析及可解釋等。先后在AAAI、ACL、SIGIR、IJCAI、COLING等重要國(guó)際會(huì)議和學(xué)術(shù)期刊上發(fā)表論文30余篇,獲得COLING 2022 Outstanding Paper Reward。多次在國(guó)際數(shù)據(jù)挖掘比賽(如KDD CUP,SemEval)獲得冠亞軍。擔(dān)任多個(gè)重要國(guó)際會(huì)議以及期刊(包括EMNLP、ACL、AAAI、INS等)的審稿人,中國(guó)中文信息學(xué)會(huì)青年工作委員會(huì)委員,上海市計(jì)算機(jī)學(xué)會(huì)NLP專(zhuān)委委員,是2019年國(guó)際亞洲語(yǔ)言處理會(huì)議宣傳。曾獲得上海市超級(jí)博士后、全國(guó)最美大學(xué)生(中宣部,教育部)、上海市大學(xué)生年度人物等榮譽(yù)。


          柯沛,清華大學(xué)計(jì)算機(jī)系博士后,合作導(dǎo)師黃民烈副教授。博士畢業(yè)于清華大學(xué)計(jì)算機(jī)系,師從朱小燕教授,研究方向是自然語(yǔ)言處理,主要包括自然語(yǔ)言生成和對(duì)話系統(tǒng)。在ACL、EMNLP、IJCAI等自然語(yǔ)言處理和人工智能領(lǐng)域的頂級(jí)學(xué)術(shù)會(huì)議上發(fā)表論文10余篇,曾獲NLPCC 2020的最佳學(xué)生論文獎(jiǎng)。擔(dān)任ACL 2023的領(lǐng)域,以及自然語(yǔ)言處理和機(jī)器學(xué)習(xí)領(lǐng)域多個(gè)頂級(jí)會(huì)議(包括ACL、EMNLP、NeurIPS、ICML等)和期刊(包括IEEE TNNLS, IEEE TASLP, IEEE TKDE等)的審稿人。是中國(guó)中文信息學(xué)會(huì)自然語(yǔ)言生成與智能寫(xiě)作專(zhuān)委會(huì)的學(xué)生委員,曾參與CDial-GPT、EVA、OPD等一系列中文對(duì)話預(yù)訓(xùn)練模型的開(kāi)源項(xiàng)目研發(fā),GitHub的Star總數(shù)超過(guò)1.3K。


          邱錫鵬,復(fù)旦大學(xué)計(jì)算機(jī)科學(xué)技術(shù)學(xué)院教授,在 ACL、EMNLP、AAAI、IJCAI 等計(jì)算機(jī)學(xué)會(huì) A/B 類(lèi)期刊、會(huì)議上發(fā)表 100 余篇學(xué)術(shù)論文。開(kāi)源自然語(yǔ)言處理工具 FudanNLP 項(xiàng)目開(kāi)發(fā)者,F(xiàn)astNLP項(xiàng)目負(fù)責(zé)人。


          黃民烈,清華大學(xué)長(zhǎng)聘副教授,國(guó)家杰青基金獲得者,聆心智能創(chuàng)始人,自然語(yǔ)言生成與智能寫(xiě)作專(zhuān)委會(huì)副主任、CCF學(xué)術(shù)工委秘書(shū)長(zhǎng)。研究領(lǐng)域?yàn)榇笠?guī)模語(yǔ)言模型、對(duì)話系統(tǒng)、語(yǔ)言生成,著有《現(xiàn)代自然語(yǔ)言生成》一書(shū)。曾獲中國(guó)人工智能學(xué)會(huì)吳文俊人工智能科技進(jìn)步獎(jiǎng)一等獎(jiǎng)(第一完成人),中文信息學(xué)會(huì)漢王青年創(chuàng)新獎(jiǎng)等。在國(guó)際頂級(jí)會(huì)議和期刊發(fā)表論文150多篇,谷歌學(xué)術(shù)引用13000多次,h指數(shù)57;多次獲得國(guó)際主流會(huì)議的最佳論文或提名(IJCAI、ACL、SIGDIAL等)。研發(fā)任務(wù)型對(duì)話系統(tǒng)平臺(tái)ConvLab、ConvLab2,世界上最大的中文對(duì)話大模型EVA、OPD,智源中文大模型CPM的核心研發(fā)成員,在知識(shí)對(duì)話、情感對(duì)話上具有開(kāi)創(chuàng)性成果。擔(dān)任頂級(jí)期刊TNNLS、TACL、CL、TBD編委,多次擔(dān)任自然語(yǔ)言處理領(lǐng)域頂級(jí)會(huì)議ACL/EMNLP資深領(lǐng)域。


          張軍平(本文通訊作者),復(fù)旦大學(xué)計(jì)算機(jī)科學(xué)技術(shù)學(xué)院教授,博士生導(dǎo)師,兼任中國(guó)自動(dòng)化學(xué)會(huì)普及工作委員會(huì)主任,主要研究方向包括人工智能、機(jī)器學(xué)習(xí)、圖像處理、生物認(rèn)證、智能交通及氣象預(yù)測(cè)。獲得中國(guó)科協(xié)「典贊·2022科普中國(guó)」年度科普人物提名獎(jiǎng)。至今發(fā)表論文 100 余篇,其中 IEEE Transactions 系列30余篇,包括 IEEE TPAMI, TNNLS, ToC, TITS, TAC, TIP 等。學(xué)術(shù)谷歌引用6500余次,h指數(shù)38。著有科普書(shū)《愛(ài)犯錯(cuò)的智能體》(該書(shū)獲得2020年中國(guó)科普創(chuàng)作領(lǐng)域最高獎(jiǎng))和暢銷(xiāo)書(shū)《高質(zhì)量讀研》。

          貢獻(xiàn)聲明: 周杰、柯沛和張軍平起草初稿,邱錫鵬和黃民烈協(xié)助完成論文的組織,修改、定稿。

          參考資料:

          https://link.springer.com/article/10.1631/FITEE.2300089

          免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

          猜你喜歡

          最新文章