[新聞] 大模型Groq首秀引爆話題 自研LPU服務速度

股票

40232


原文標題:

大模型Groq首秀引爆話題 自研LPU服務速度遠快於GPU

原文連結:

https://news.cnyes.com/news/id/5457929

發布時間:

2024-02-20 16:50

記者署名:

鉅亨網新聞中心

原文內容:

ChatGPT 的新競爭對手 Groq 推出了語言處理單元 (LPU),並於近期首度公開成果。當提
示模型時,答案立即產生。 而且,答案是依據事實,並引述來源,長達數百字,這讓它
在社群媒體造成轟動。

Groq 憑藉的武器是語言處理單元 (LPU)。 這項尖端技術的速度接近每秒 500 個 token
。 它為數位處理的速度和效率樹立了新的基準。LPU 能將延遲降至最低而脫穎而出,提
供了迄今為止聞所未聞的服務速度。

據報導,Groq 的 LPU 旨在解決 CPU 和 GPU 等舊技術的限制。 當面對大量運算需求時
,傳統的處理架構往往無法滿足要求。 Groq 使用新的張量流處理器 (TPS) 架構來實現
LLM 運算。 憑藉其快速推理和降低功耗的承諾,TPS 和 LPU 有望改變處理資料的方式。

據 X 平台帳號 k_zer0s 發文表示,Groq 的 LPU 不需要像 Nvidia GPU 那樣快速的資料
傳輸,因為它們的系統中沒有 HBM。它們使用 SRAM,其速度比 GPU 使用的速度大約快
20 倍。由於推理運行使用的資料比模型訓練少得多,因此 Groq 的 LPU 更節能。與用於
推理任務的 Nvidia GPU 相比,它從外部記憶體讀取的資料更少,功耗也更少。

LPU 的運作方式與 GPU 不同。 它使用臨時指令集電腦架構,因此不必像 GPU 使用高頻
寬記憶體 (HBM) 那樣頻繁地從記憶體重新載入資料。 這有助於避免 HBM 短缺問題並降
低成本。

LPU 不像 GPU 需要超高速儲存。 Groq 聲稱其技術可以憑藉其強大的晶片和軟體在人工
智慧任務中取代 GPU。

Google TPU 專案的先驅 Jonathan Ross 於 2016 年創立了 Groq。該公司迅速確立了自
己在處理單元創新領域的領導者地位。 Ross 在人工智慧和處理技術方面的豐富背景推動
了 LPU 的發展。

Groq 公司宣稱,其技術能夠透過其強大的晶片和軟體,在推理任務中取代 GPU 的角色。

Ross 曾表示,「Groq 的存在是為了消除『富人和窮人』,並幫助人工智慧社群中的每個
人發展。 而推理是實現這一目標的關鍵,因為『速度』是將開發人員的想法轉化為商業
解決方案和改變生 APP 的關鍵」。

心得/評論:

如果真如報導所聲稱的那麼強, 那麼算力的要求就不需要那麼高?
成本可以大幅下降,對Nvidia是個挑戰

另外該技術似乎不需要大量HBM,對這半年HBM的概念股MU、海力士也是挑戰

--
被動收入存錢筒~

--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 59.126.254.52 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1708493887.A.2D9.html
jecint17071樓過客? 02/21 13:39
NexusPrime2樓真的這麼強那GPU要退下了嗎? 02/21 13:42
rxsmalllove3樓觀望 02/21 13:44
BryceJames4樓太棒了 NV殺手愈多 NV越漲 02/21 13:44
hbj19415樓先聽聽再說,以前也有很多東西號稱強幾十倍,結果 02/21 13:45
hbj19416樓都是假設 02/21 13:45
本人7樓不知道這公司講的是否真的那麼強,或是某些條件假設 02/21 13:46
emilchu988樓所以這幾天NV跌這個? 02/21 13:47
a20075359樓Gemini 的 Demo都可以 不講重點 類造假了 02/21 13:47
a200753510樓這種公司的也有可能只是來發個新聞 騙個投資的 02/21 13:47
a090223681711樓sram取代hbm 02/21 13:48
Homeparty12樓 02/21 13:55
donkilu13樓針對inference的加速器很多公司都有在做 02/21 13:56
donkilu14樓但這種特化的解決方案也很容易跟不上日新月異的模型 02/21 13:58
renfro92815樓 02/21 14:05
imhan70516樓不用去猜跌啥 漲多回很正常的 02/21 14:05
Aska052017樓這新聞應該還有後半段,Groq的綜合成本是NV的30多倍 02/21 14:05
Aska052018樓要實際可以運行需要572張芯片 成本高達1144萬美元 02/21 14:06
Aska052019樓相比之下,8張H100的系統在性能上與Groq系統相當 02/21 14:08
Aska052020樓但硬件成本只要30萬美 02/21 14:08
polypress21樓呃 你要不要重看一次文章,再重寫一次心得 02/21 14:09
Aska052022樓所以文章不能只看一半QQ 02/21 14:11
Altair23樓原來CP值差太多... 02/21 14:12
bnn24樓成本當然是以後量產才會降下來 現在30倍又怎樣 02/21 14:15
Transposon25樓沒有像菇狗、軟軟的規模,錢燒完就入土了 02/21 14:15
fedona26樓推理使用... 02/21 14:15
KrisNYC27樓Cuda還比較萬用 TPS算是比較貴又功能單一的新解 02/21 14:21
KrisNYC28樓是說你要繞過cuda幾十年的專利自己出一招真的很難 02/21 14:21
KrisNYC29樓做到這樣已經真的很屌了 02/21 14:21
appledick30樓感覺現在AI根本走錯方向了吧,去處理一些難度很高 02/21 14:22
更多新聞
[新聞] 1天賣出中國百億股票 寧波靈均基金遭懲處
[新聞] 智原股價短期承壓!外資送暖看好長期
[新聞] 韓媒:蘋果2026年出折疊手機 首年想賣
[新聞] 輝達明公佈財報 美銀警告:股價最多恐下
[新聞] 要減少依賴 Nvidia!傳微軟開發新的 AI
[新聞] 中華電重申「一大兩中」格局 發展AI等7大
[新聞] 跑光光?2023中國外商投資雪崩82%、30年
[新聞] 台積電向上衝…台股創新高 外資、主力聯