日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁(yè)>要聞 >內(nèi)容

          英偉達(dá)獨(dú)霸時(shí)代結(jié)束?ChatGPT引爆谷歌微軟芯片大戰(zhàn),亞馬遜也入局

          2023-05-10 16:18:48來(lái)源:
          導(dǎo)讀新智元報(bào)道編輯:編輯部【新智元導(dǎo)讀】ChatGPT引爆了芯片界「百家爭(zhēng)鳴」,谷歌、微軟、亞馬遜紛紛入局芯片大戰(zhàn),英偉達(dá)恐怕不再一家獨(dú)大。C...


          新智元報(bào)道

          編輯:編輯部

          【新智元導(dǎo)讀】ChatGPT引爆了芯片界「百家爭(zhēng)鳴」,谷歌、微軟、亞馬遜紛紛入局芯片大戰(zhàn),英偉達(dá)恐怕不再一家獨(dú)大。

          ChatGPT爆火之后,谷歌和微軟兩巨頭的AI大戰(zhàn)戰(zhàn)火,已經(jīng)燒到了新的領(lǐng)域——服務(wù)器芯片。

          如今,AI和云計(jì)算都成了必爭(zhēng)之地,而芯片,也成為降低成本、贏得商業(yè)客戶(hù)的關(guān)鍵。

          原本,亞馬遜、微軟、谷歌這類(lèi)大廠,都是以軟件而聞名的,而現(xiàn)在,它們紛紛斥資數(shù)十億美元,用于芯片開(kāi)發(fā)和生產(chǎn)。


          各大科技巨頭研發(fā)的AI芯片

          ChatGPT爆火,大廠開(kāi)啟芯片爭(zhēng)霸賽

          根據(jù)外媒The Information的報(bào)道以及其他來(lái)源,這三家大廠現(xiàn)在已經(jīng)推出或計(jì)劃發(fā)布8款服務(wù)器和AI芯片,用于內(nèi)部產(chǎn)品開(kāi)發(fā)、云服務(wù)器租賃或者二者兼有。

          「如果你能制造出針對(duì)AI進(jìn)行優(yōu)化的硅,那前方等待你的將是巨大的勝利」,研究公司Forrester的董事Glenn O’Donnell這樣說(shuō)。

          付出這些巨大的努力,一定會(huì)得到回報(bào)嗎?

          答案是,并不一定。


          英特爾、AMD和英偉達(dá)可以從規(guī)模經(jīng)濟(jì)中獲益,但對(duì)大型科技公司來(lái)說(shuō),情況遠(yuǎn)非如此。

          它們還面臨著許多棘手的挑戰(zhàn),比如需要聘請(qǐng)芯片設(shè)計(jì)師,還要說(shuō)服開(kāi)發(fā)者使用他們定制的芯片構(gòu)建應(yīng)用程序。

          不過(guò),大廠們已經(jīng)在這一領(lǐng)域取得了令人矚目的進(jìn)步。

          根據(jù)公布的性能數(shù)據(jù),亞馬遜的Graviton服務(wù)器芯片,以及亞馬遜和谷歌發(fā)布的AI專(zhuān)用芯片,在性能上已經(jīng)可以和傳統(tǒng)的芯片廠商相媲美。

          亞馬遜、微軟和谷歌為其數(shù)據(jù)中心開(kāi)發(fā)的芯片,主要有這兩種:標(biāo)準(zhǔn)計(jì)算芯片和用于訓(xùn)練和運(yùn)行機(jī)器學(xué)習(xí)模型的專(zhuān)用芯片。正是后者,為ChatGPT之類(lèi)的大語(yǔ)言模型提供了動(dòng)力。

          此前,蘋(píng)果成功地為iPhone,iPad和Mac開(kāi)發(fā)了芯片,改善了一些AI任務(wù)的處理。這些大廠,或許正是跟蘋(píng)果學(xué)來(lái)的靈感。


          在三家大廠中,亞馬遜是唯一一家在服務(wù)器中提供兩種芯片的云服務(wù)商,2015年收購(gòu)的以色列芯片設(shè)計(jì)商Annapurna Labs,為這些工作奠定了基礎(chǔ)。

          谷歌在2015年推出了一款用于AI工作負(fù)載的芯片,并正在開(kāi)發(fā)一款標(biāo)準(zhǔn)服務(wù)器芯片,以提高谷歌云的服務(wù)器性能。

          相比之下,微軟的芯片研發(fā)開(kāi)始得較晚,是在2019年啟動(dòng)的,而最近,微軟更加快了推出專(zhuān)為L(zhǎng)LM設(shè)計(jì)的AI芯片的時(shí)間軸。

          而ChatGPT的爆火,點(diǎn)燃了全世界用戶(hù)對(duì)于AI的興奮。這更促進(jìn)了三家大廠的戰(zhàn)略轉(zhuǎn)型。


          ChatGPT運(yùn)行在微軟的Azure云上,使用了上萬(wàn)塊英偉達(dá)A100。無(wú)論是ChatGPT,還是其他整合進(jìn)Bing和各種程序的OpenAI軟件,都需要如此多的算力,以至于微軟已經(jīng)為開(kāi)發(fā)AI的內(nèi)部團(tuán)隊(duì)分配了服務(wù)器硬件。

          在亞馬遜,首席財(cái)務(wù)官Brian Olsavsky在上周的財(cái)報(bào)電話(huà)會(huì)議上告訴投資者,亞馬遜計(jì)劃將支出從零售業(yè)務(wù)轉(zhuǎn)移到AWS,部分原因是投資于支持ChatGPT所需的基礎(chǔ)設(shè)施。

          在谷歌,負(fù)責(zé)制造張量處理單元的工程團(tuán)隊(duì)已經(jīng)轉(zhuǎn)移到谷歌云。據(jù)悉,云組織現(xiàn)在可以為T(mén)PU和在其上運(yùn)行的軟件制定路線(xiàn)圖,希望讓云客戶(hù)租用更多TPU驅(qū)動(dòng)的服務(wù)器。

          谷歌:為AI特調(diào)的TPU V4

          早在2020年,谷歌就在自家的數(shù)據(jù)中心上部署了當(dāng)時(shí)最強(qiáng)的AI芯片——TPU v4。

          不過(guò)直到今年的4月4日,谷歌才首次公布了這臺(tái)AI超算的技術(shù)細(xì)節(jié)。


          相比于TPU v3,TPU v4的性能要高出2.1倍,而在整合4096個(gè)芯片之后,超算的性能更是提升了10倍。

          同時(shí),谷歌還聲稱(chēng),自家芯片要比英偉達(dá)A100更快、更節(jié)能。對(duì)于規(guī)模相當(dāng)?shù)南到y(tǒng),TPU v4可以提供比英偉達(dá)A100強(qiáng)1.7倍的性能,同時(shí)在能效上也能提高1.9倍。

          對(duì)于相似規(guī)模的系統(tǒng),TPU v4在BERT上比A100快1.15倍,比IPU快大約4.3倍。對(duì)于ResNet,TPU v4分別快1.67倍和大約4.5倍。


          另外,谷歌曾暗示,它正在研發(fā)一款與Nvidia H100競(jìng)爭(zhēng)的新TPU。谷歌研究員Jouppi在接受路透社采訪時(shí)表示,谷歌擁有「未來(lái)芯片的生產(chǎn)線(xiàn)」。

          微軟:秘密武器雅典娜

          不管怎么說(shuō),微軟在這場(chǎng)芯片紛爭(zhēng)中,依舊躍躍欲試。

          此前有消息爆出,微軟秘密組建的300人團(tuán)隊(duì),在2019年時(shí)就開(kāi)始研發(fā)一款名為「雅典娜」(Athena)的定制芯片。


          根據(jù)最初的計(jì)劃,「雅典娜」會(huì)使用臺(tái)積電的5nm工藝打造,預(yù)計(jì)可以將每顆芯片的成本降低1/3。

          如果在明年能夠大面積實(shí)裝,微軟內(nèi)部和OpenAI的團(tuán)隊(duì)便可以借助「雅典娜」同時(shí)完成模型的訓(xùn)練和推理。

          這樣一來(lái),就可以極大地緩解專(zhuān)用計(jì)算機(jī)緊缺的問(wèn)題。

          彭博社在上周的報(bào)道中,稱(chēng)微軟的芯片部門(mén)已與AMD合作開(kāi)發(fā)雅典娜芯片,這也導(dǎo)致AMD的股價(jià)在周四上漲了6.5%。

          但一位知情者表示,AMD并未參與其中,而是在開(kāi)發(fā)自己的GPU,與英偉達(dá)競(jìng)爭(zhēng),并且AMD一直在與微軟討論芯片的設(shè)計(jì),因?yàn)槲④涱A(yù)計(jì)要購(gòu)買(mǎi)這款GPU。

          亞馬遜:已搶跑一個(gè)身位

          而在與微軟和谷歌的芯片競(jìng)賽中,亞馬遜似乎已經(jīng)領(lǐng)先了一個(gè)身位。

          在過(guò)去的十年中,亞馬遜在云計(jì)算服務(wù)方面,通過(guò)提供更加先進(jìn)的技術(shù)和更低的價(jià)格,一直保持了對(duì)微軟和谷歌的競(jìng)爭(zhēng)優(yōu)勢(shì)。

          而未來(lái)十年內(nèi),亞馬遜也有望通過(guò)自己內(nèi)部開(kāi)發(fā)的服務(wù)器芯片——Graviton,繼續(xù)在競(jìng)爭(zhēng)中保持優(yōu)勢(shì)。

          作為最新一代的處理器,AWS Graviton3在計(jì)算性能上比上一代提高多達(dá)25%,浮點(diǎn)性能提高多達(dá)2倍。并支持DDR5內(nèi)存,相比DDR4內(nèi)存帶寬增加了50%。

          針對(duì)機(jī)器學(xué)習(xí)工作負(fù)載,AWS Graviton3比上一代的性能高出多達(dá)3倍,并支持 bfloat16。


          基于Graviton 3芯片的云服務(wù)在一些地區(qū)非常受歡迎,甚至于達(dá)到了供不應(yīng)求的狀態(tài)。

          亞馬遜另一方面的優(yōu)勢(shì)還表現(xiàn)在,它是目前唯一一家在其服務(wù)器中提供標(biāo)準(zhǔn)計(jì)算芯片(Graviton)和AI專(zhuān)用芯片(Inferentia和Trainium)云供應(yīng)商。

          早在2019年,亞馬遜就推出了自己的AI推理芯片——Inferentia。

          它可以讓客戶(hù)可以在云端低成本運(yùn)行大規(guī)模機(jī)器學(xué)習(xí)推理應(yīng)用程序,例如圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理、個(gè)性化和欺詐檢測(cè)。

          而最新的Inferentia 2更是在計(jì)算性能提高了3倍,加速器總內(nèi)存擴(kuò)大了4倍,吞吐量提高了4倍,延遲降低到1/10。


          在初代Inferentia推出之后,亞馬遜又發(fā)布了其設(shè)計(jì)的主要用于AI訓(xùn)練的定制芯片——Trainium。

          它對(duì)深度學(xué)習(xí)訓(xùn)練工作負(fù)載進(jìn)行了優(yōu)化,包括圖像分類(lèi)、語(yǔ)義搜索、翻譯、語(yǔ)音識(shí)別、自然語(yǔ)言處理和推薦引擎等。


          在一些情況下,芯片定制不僅僅可以把成本降低一個(gè)數(shù)量級(jí),能耗減少到1/10,并且這些定制化的方案可以給客戶(hù)以更低的延遲提供更好的服務(wù)。

          撼動(dòng)英偉達(dá)的壟斷,沒(méi)那么容易

          不過(guò)到目前為止,大多數(shù)的AI負(fù)載還是跑在GPU上的,而英偉達(dá)生產(chǎn)了其中的大部分芯片。

          據(jù)此前報(bào)道,英偉達(dá)獨(dú)立GPU市場(chǎng)份額達(dá)80%,在高端GPU市場(chǎng)份額高達(dá)90%。

          20年,全世界跑AI的云計(jì)算與數(shù)據(jù)中心,80.6%都由英偉達(dá)GPU驅(qū)動(dòng)。21年,英偉達(dá)表示,全球前500個(gè)超算中,大約七成是由自家的芯片驅(qū)動(dòng)。

          而現(xiàn)在,就連運(yùn)行ChatGPT的微軟數(shù)據(jù)中心用了上萬(wàn)塊英偉達(dá)A100 GPU。

          一直以來(lái),不管是成為頂流的ChatGPT,還是Bard、Stable Diffusion等模型,背后都是由每個(gè)大約價(jià)值1萬(wàn)美元的芯片英偉達(dá)A100提供算力。


          不僅如此,A100目前已成為人工智能專(zhuān)業(yè)人士的「主力」。2022人工智能現(xiàn)狀報(bào)告還列出了使用A100超級(jí)計(jì)算機(jī)部分公司的名單。


          顯而易見(jiàn),英偉達(dá)已經(jīng)壟斷了全球算力,憑借自家的芯片,一統(tǒng)江湖。

          根據(jù)從業(yè)者的說(shuō)法,相比于通用芯片,亞馬遜、谷歌和微軟一直在研發(fā)的專(zhuān)用集成電路(ASIC)芯片,在執(zhí)行機(jī)器學(xué)習(xí)任務(wù)的速度更快,功耗更低。

          O’Donnell董事在比較GPU和ASIC時(shí),用了這樣一個(gè)比較:「平時(shí)開(kāi)車(chē),你可以用普銳斯,但如果你必須在山上用四輪驅(qū)動(dòng),用吉普牧馬人就會(huì)更合適?!?/p>


          然而盡管已經(jīng)做出了種種努力,但亞馬遜、谷歌和微軟都面臨著挑戰(zhàn)——如何說(shuō)服開(kāi)發(fā)者使用這些AI芯片呢?

          現(xiàn)在,英偉達(dá)的GPU是占主導(dǎo)地位的,開(kāi)發(fā)者早已熟悉其專(zhuān)有的編程語(yǔ)言CUDA,用于制作GPU驅(qū)動(dòng)的應(yīng)用程序。

          如果換到亞馬遜、谷歌或微軟的定制芯片,就需要學(xué)習(xí)全新的軟件語(yǔ)言了,他們會(huì)愿意嗎?

          參考資料:

          https://.theinformation.com/articles/google-and-microsofts-other-ai-race-server-chips?rc=epv9gi

          https://.theregister.com/2023/05/09/intel_layoffs_coming/

          免責(zé)聲明:本文由用戶(hù)上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

          猜你喜歡

          最新文章