騰訊首次公開行業(yè)大模型進展,但外界聚焦的通用大模型“還在路上”。
6月19日,騰訊云副總裁、騰訊云智能負責(zé)人吳運聲在接受澎湃新聞等媒體采訪時表示,“目前大模型和產(chǎn)業(yè)結(jié)合還在早期階段,隨著算力發(fā)展速度不斷提高,行業(yè)對大模型的理解程度也在不斷加深?!?/p>
當天,騰訊首次對外披露行業(yè)大模型研發(fā)進展,發(fā)布依托騰訊云TI平臺打造行業(yè)大模型精選商店,為客戶提供MaaS(Model-as-a-Service)一站式服務(wù),助力客戶構(gòu)建專屬大模型及智能應(yīng)用。
會上,騰訊云聯(lián)合22家客戶正式啟動行業(yè)大模型共建合作,并攜手17家生態(tài)伙伴共同發(fā)起了“騰訊云行業(yè)大模型生態(tài)計劃”,共同推進大模型在產(chǎn)業(yè)領(lǐng)域的創(chuàng)新和落地。基于騰訊HCC高性能計算集群和大模型能力,為傳媒、文旅、政務(wù)、金融等10余個行業(yè)提供超過50個大模型行業(yè)解決方案。
澎湃新聞記者注意到,騰訊此次發(fā)布的并非是C端通用大模型,而是落地于B端的產(chǎn)業(yè)大模型。對此,吳運聲解釋稱,對于C端通用大模型,騰訊內(nèi)部也有相關(guān)應(yīng)用,但目前尚不能對外公開相關(guān)信息。
目前,外界對大模型聚焦熱點之一在于,究竟多大的“模型”才能稱之為“大模型”?吳運聲告訴記者,基本在億級別參數(shù)以上的都可以稱為大模型,但規(guī)模參數(shù)越高,消耗的資源和成本也越相應(yīng)增加。行業(yè)大模型的核心在于根據(jù)客戶需求制定相關(guān)的模型參數(shù),而不是一味追求“規(guī)模大”或是“參數(shù)高”。在他看來,隨著技術(shù)和算力的發(fā)展,大模型的參數(shù)規(guī)模也在不斷上漲,騰訊更關(guān)注怎么用更有效的方法、更低的成本去解決問題,而不是關(guān)注幾億、幾十億、幾百億還是一千多億這些數(shù)字。
“就像運動員練體力,舉重運動員要舉200斤杠鈴,游泳運動員舉100斤就夠了,不同類型的運動員不需要每個人都練習(xí)200斤重的杠鈴?!眳沁\聲解釋稱,希望能以最低的成本、最合適的模型和最好的服務(wù)把大模型真正做好,會在預(yù)算和成本可控的情況下提供最符合邏輯的模型,讓其在場景中達到目的,解決問題。
大模型在國內(nèi)已成為炙手可熱的紅海賽道,各大廠商爭先入局。360創(chuàng)始人周鴻祎曾表示,今年年初,在ChatGPT發(fā)布后,中國已經(jīng)進入百模大戰(zhàn),各家企業(yè)都發(fā)布了自己的大模型產(chǎn)品,這三個月相當于人工智能行業(yè)過去的三十年。此前在2023中關(guān)村論壇上,中國科學(xué)技術(shù)信息研究所所長趙志耘發(fā)布《中國人工智能大模型地圖研究報告》,目前中國10億參數(shù)規(guī)模以上的大模型已發(fā)布79個,主要集中在北京和廣東,其中北京38個大模型,廣東20個大模型。
在采訪現(xiàn)場,吳運聲也透露,目前騰訊云行業(yè)大模型能力已在騰訊企點、騰訊會議、騰訊云AI代碼助手等多款產(chǎn)品中落地使用。
其中,騰訊會議宣布將推出覆蓋會議全流程場景的AI小助手,只需通過簡單會議指令,基于對會議內(nèi)容的理解,就可以完成信息提取、內(nèi)容分析、會管會控等多種復(fù)雜任務(wù)。另外,騰訊云將推出新一代AI代碼助手,用AI加持來重塑開發(fā)體驗和團隊能力,讓開發(fā)者通過人機協(xié)作達到高效創(chuàng)作。
此前4月14日,騰訊云曾發(fā)布新一代HCC(High-Performance Computing Cluster)高性能計算集群。該集群采用騰訊云星星海自研服務(wù)器,搭載英偉達H800 GPU,服務(wù)器之間采用3.2T互聯(lián)帶寬,為大模型訓(xùn)練、自動駕駛、科學(xué)計算等提供高性能、高帶寬和低延遲的集群算力。公開資料顯示,H800為英偉達旗下最先進的芯片之一,對人工智能研發(fā)極為重要,其算力超過旗艦芯片A100三倍,這也是國內(nèi)首次發(fā)布搭載H800的大模型產(chǎn)品。