日韩免费在线观看成人,骚碰成人免费视频,电影院 摸 湿 嗯…啊h

    1. <span id="um726"><blockquote id="um726"></blockquote></span>

        <span id="um726"><blockquote id="um726"></blockquote></span>
        1. 您的位置:首頁>房產(chǎn) >內(nèi)容

          微軟投資了一家AI芯片公司

          2023-09-07 17:14:19來源:
          導讀一家名為D-Matrix,專注于為數(shù)據(jù)中心設(shè)計和構(gòu)建高效芯片和生成人工智能計算平臺的初創(chuàng)公司今天宣布,在由新加坡全球投資公司淡馬錫牽頭的超...

          一家名為D-Matrix,專注于為數(shù)據(jù)中心設(shè)計和構(gòu)建高效芯片和生成人工智能計算平臺的初創(chuàng)公司今天宣布,在由新加坡全球投資公司淡馬錫牽頭的超額認購 B 輪融資中籌集了 1.1 億美元。

          據(jù)報告,現(xiàn)有的投資者 Playground Global、微軟公司的 M12 風險基金、Nautilus Venture Partners 和 Entrada Ventures 也參與了本輪融資,新投資者包括 Industry Ventures、Ericsson Ventures、Marlan Holdings、Mirae Asset 和 Samsung Ventures。

          D-Matrix在 2022 年 4 月的一輪融資中獲得了 4400 萬美元,由 M12 和韓國半導體制造商 SK 海力士公司領(lǐng)投。該輪融資使該公司的融資總額達到 1.54 億美元。

          M12 的 Michael Stewart 表示:“我們正在進入生產(chǎn)階段,LLM 推理總擁有成本將成為決定企業(yè)在其服務(wù)和應(yīng)用程序中使用先進人工智能的程度、地點和時間的關(guān)鍵因素?!?/p>

          Sheth 表示,D-Matrix 計劃將新資金投資于其Corsair 平臺的招募和商業(yè)化,該平臺使用 DIMC 架構(gòu)和小芯片,以降低推理成本。Corsair 計劃于 2024 年推出,是一款 PCI 外形卡,可與機器學習工具鏈和用于生產(chǎn)的服務(wù)器軟件配合使用,這些軟件主要由廣泛采用的開源軟件構(gòu)建。只需“按一下按鈕”,人工智能模型就可以快速導入卡中,無需重新訓練。

          Sheth 表示:“由于推理成本高昂,目前生成式人工智能的前景還無法實現(xiàn),而通過今天的公告和我們的資金注入,我們將能夠比該領(lǐng)域的其他任何人更快地將商業(yè)上可行的解決方案推向市場?!?/p>

          此次融資公告是在上個月推出 d-Matrix Jayhawk II 小芯片之后發(fā)布的,該小芯片采用增強型 DIMC 架構(gòu)。d-Matrix 表示,通過這個基于小芯片的新平臺,其客戶可以獲得比圖形處理單元高 10 到 20 倍的效率,并節(jié)省 10 到 20 倍的成本。

          圖片

          雖然令人興奮的說法,但我們更希望 d-Matrix 使用行業(yè)標準的 MLPerf 同行評審基準來證實這些說法,希望這會在適當?shù)臅r候出現(xiàn)。

          d-Matrix,什么來頭?

          資料顯示,d-Matrix 是一家總部位于硅谷的公司,為生成式人工智能和大型語言模型生產(chǎn)計算平臺(芯片)。其旗艦產(chǎn)品是 Corsair,這是一款用于人工智能推理的內(nèi)存計算引擎。該設(shè)計能夠?qū)⑷斯ぶ悄苣P屯耆4嬖趦?nèi)存中,這一點很新穎,并且建立在 d-Matrix 之前的 Nighthawk、Jayhawk-I 和 Jayhawk II 小芯片的基礎(chǔ)上。

          d-Matrix 之所以脫穎而出,是因為芯片制造領(lǐng)域競爭激烈,而且許多小公司在融資方面遇到困難。英偉達已經(jīng)迫使許多小公司和投資者退出人工智能芯片市場。路透社稱,特別是英偉達在硬件和軟件方面的主導地位使得其他公司難以擠入。

          d-Matrix之前曾經(jīng)發(fā)布新聞稿表示,隨著大模型推動人工智能推理需求不斷擴大,而內(nèi)存和能源需求達到閾值限制,d-Matrix 正在將首款基于 DIMC 的推理計算平臺推向市場。d-Matrix 通過一個可擴展的平臺改變了復雜變壓器和生成式人工智能的經(jīng)濟性,該平臺旨在處理推理人工智能的海量數(shù)據(jù)和電力需求,使高耗能的數(shù)據(jù)中心更加高效。

          d-Matrix 的這款新穎的 AI 計算平臺巧妙地結(jié)合了智能 ML 工具和集成軟件架構(gòu),利用樂高塊網(wǎng)格形式的小芯片,從而能夠?qū)⒍鄠€編程引擎集成在一個通用包中。

          將 d-Matrix 技術(shù)與 Project Bonsai (微軟低代碼強化學習平臺 Project Bonsai )相結(jié)合,可以為 DIMC 平臺高效創(chuàng)建編譯器。Project Bonsai 加速了編譯器堆棧中訓練有素的 RL 代理的快速原型設(shè)計、測試和部署,以充分利用 d-Matrix 的低功耗 AI 推理技術(shù),該技術(shù)可提供比舊架構(gòu)高出十倍的能效。

          d-Matrix 聯(lián)合創(chuàng)始人兼首席技術(shù)官 Sudeep Bhoja 表示:“d-Matrix 構(gòu)建了世界上最高效的大規(guī)模 AI 推理計算平臺?!?“Project Bonsai 吸引我們的原因是其產(chǎn)品至上的功能和易用性。Microsoft 的獨特產(chǎn)品是圍繞機器教學和 Inkling 語言構(gòu)建的,這使得 RL 構(gòu)造可以完全解釋?!?/p>

          基于 RL 的編譯器預(yù)計將成為 d-Matrix 的第一代 DIMC 產(chǎn)品 CORSAIR 的關(guān)鍵差異化因素,該產(chǎn)品預(yù)計將于 2023 年末推出。

          “我們一直在共同開發(fā)基于強化學習的編譯器,”微軟Project Bonsai團隊首席應(yīng)用人工智能工程師 Kingsuk Maitra 說道?!拔覀儚囊婚_始就重視產(chǎn)品思維。包括指令集架構(gòu)的實施例已在兩個 d-Matrix 測試芯片 NightHawk 和 JayHawk 上經(jīng)過審查和驗證,并嵌入到 RL 訓練環(huán)境中。Project Bonsai 的低代碼屬性使早期開發(fā)工作變得容易,并且能夠集成統(tǒng)計控制參數(shù)并使其他現(xiàn)實生活芯片設(shè)計約束的集成更簡單,迄今為止取得了非常有希望的結(jié)果?!?/p>

          圖片

          d-Matrix 聯(lián)合創(chuàng)始人兼首席執(zhí)行官 Sid Sheth 在公司新一輪融資新聞稿中表示:“人工智能計算目前的發(fā)展軌跡是不可持續(xù)的,因為運行人工智能推理的總擁有成本正在迅速上升。” “d-Matrix 團隊正在通過專為LLM構(gòu)建的計算解決方案改變部署人工智能推理的成本經(jīng)濟,這一輪融資驗證了我們在行業(yè)中的地位?!?/p>

          生成式人工智能大型語言模型,例如 Meta Platform Inc. 的 Llama 2 和 OpenAI LP 的 ChatGPT,通過接受大量文本數(shù)據(jù)的訓練來工作,以便它們能夠理解并用類似人類的語音進行“交談”。訓練需要大量的計算能力,但在部署前只需要進行一次。部署人工智能后,推理用于回答問題、總結(jié)文檔等。

          “生成式人工智能將永遠改變?nèi)藗兒凸緞?chuàng)造、工作以及與技術(shù)互動的方式,”該公司首席執(zhí)行官 Sid Sheth 告訴 SiliconANGLE?!半S著 ChatGPT 的發(fā)布,這一認識在‘大爆炸’時刻得到了具體體現(xiàn)。雖然 ChatGPT 等生成式人工智能模型的性能令人驚嘆,但成本卻令人震驚?!?/p>

          D-Matrix 生產(chǎn)具有專用“小芯片”架構(gòu)的芯片,該架構(gòu)使用數(shù)字內(nèi)存計算(DIMC)。這將完全可編程的存儲器直接帶入芯片,以減少推理處理的延遲,使其更快、更高效、更便宜。

          使用小芯片,可以使用多個小芯片來構(gòu)建更大、模塊化和可擴展的集成電路。這兩個流程相結(jié)合,使 d-Matrix 能夠生產(chǎn)出各種平臺,這些平臺可以擴展用于生成 AI 推理任務(wù),并提高性能和效率。

          然而,我們不知道 Corsair 在較大型號上的性能如何,這些型號會溢出芯片上相對較小的 2GB SRAM。同樣,當前可用的 LLM 推理解決方案使用 NVIDIA NVLink 4.0,速率高達每秒 900 GB (GB/s)。這是 PCIe Gen 5 帶寬的 7 倍多,PCIe Gen 5 是托管 Corsair 加速器的服務(wù)器中使用的互連技術(shù)。我們的預(yù)感是,d-Matrix 將專注于適合的較小模型,而這些較小模型將成為企業(yè)采用生成式 AI 的驅(qū)動力。

          Cambrian AI 分析師 Karl Freund 表示,盡管 d-Matrix 是 AI 計算和推理市場的初創(chuàng)公司,但仍與 AI 硬件/軟件巨頭 Nvidia 競爭。

          雖然 Nvidia 在人工智能芯片市場上處于領(lǐng)先地位,但 D-Matrix 提供了一個內(nèi)存計算平臺,F(xiàn)reund 表示該平臺應(yīng)該速度快且成本低得多,因為它沒有高帶寬內(nèi)存,而是使用靜態(tài)隨機存取內(nèi)存。

          “只有少數(shù)公司真正有機會與英偉達競爭,”Freund 說?!癉-Matrix 就是其中之一。他們使用不同的技術(shù)、不同的架構(gòu),似乎可以產(chǎn)生更好的結(jié)果。”

          正是這種相信 d-Matrix 將比Cerebras 等其他初創(chuàng)公司持續(xù)更長時間的信念,吸引了早期投資公司 Playground Global 加入 d-Matrix。

          該公司于 2019 年開始擔任 d-Matrix 的顧問,并在該供應(yīng)商的第一輪融資期間成為投資者。

          風險合伙人 Sasha Ostojic 表示,與市場上眾多初創(chuàng)公司相比,d-Matrix 因其團隊、技術(shù)以及其試圖解決的不斷增長的人工智能市場而脫穎而出。

          “我們在 D-Matrix 中看到的是,他們很早就把賭注押在了生成式 AI 和法學碩士上,”O(jiān)stojic 說?!八麄兇蛸€這將成為未來的主要工作負載,他們是對的。世界其他地方基本上都趕上了這種洞察力?!?/p>

          此外,F(xiàn)reund 表示,市場可能會轉(zhuǎn)向 d-Matrix 的低成本推理策略。

          “現(xiàn)在推理成本太高了,”他說。

          “這需要八個H100 或 A100 GPU才能完成推理過程,”他繼續(xù)說道,指的是 Nvidia AI 芯片?!懊看文慊卮疠斎胍粋€查詢時,都需要八個 GPU 來回答。這是不可持續(xù)的。”

          d-Matrix 等公司將通過內(nèi)存計算等技術(shù)幫助降低成本。Freund表示,甚至英偉達也可能很快發(fā)布價格更低的推理處理產(chǎn)品。

          Freund 表示,d-Matrix 未來面臨的挑戰(zhàn)是如何在 Jayhawk II 開發(fā)平臺上啟動并運行其生成式 AI 模型。“客戶想要更快、成本更低的解決方案,但他們不想經(jīng)歷導入和優(yōu)化代碼和模型的痛苦和痛苦,”他說。

          Ostojic 表示,對于 Playground Global 來說,執(zhí)行是 d-Matrix 下一步要解決的問題。

          他說:“現(xiàn)在剩下的就是明年將生產(chǎn)芯片推向市場,并在數(shù)據(jù)中心和超大規(guī)模企業(yè)中部署企業(yè)級、無摩擦的軟件堆棧?!睋?jù)供應(yīng)商稱,D-Matrix 的小芯片預(yù)計將于 2024 年上市。

          免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

          猜你喜歡

          最新文章