Nvidia 最大夢魘來臨!AI 聊天機器人執行 Groq LPU 比 GPU 快十倍
http://tinyurl.com/2y4cehyv不論何種 AI 應用,速度非常重要。當我們要求熱門 AI 聊天機器人撰寫文章、電子郵件
或翻譯文稿時,我們會希望輸出結果愈快愈好。如今一家專為運行 AI 語言模型設計客製
化硬體,並致力提供更快 AI 的 Groq 公司,能以比普通人打字速度快 75 倍的速度呈現
結果。
Groq 專為 AI、機器學習和高效能運算應用程式開發高效能處理器和軟體解決方案,千萬
不要和馬斯克(Elon Musk)的 Grok 聊天機器人混淆,它並非聊天機器人,而且這家總
部位於加州山景城(Mountain View)的公司目前沒有打算要訓練自己的 AI 語言模型,
而會致力讓其他公司開發的模型高速運行。
當前幾乎所有 AI 工具都使用 GPU,但 Gorq 卻使用截然不同的硬體,亦即專為處理大型
語言模型(LLM)而設計的 LPU(Language Processing Unit,語言處理單元)。
由於 Groq 的 LPU 專門設計用於處理像是 DNA、音樂、程式碼及自然語言之類的資料序
列,因此在這類應用方面的處理效能遠勝 GPU。該公司宣稱,其用戶已經使用其引擎和
API 運行 LLM 模型,其運行速度比基於 GPU 的替代方案快 10 倍。
目前 Grog 在自家官網上提供基於三種不同 LLM 模型(目前提供的模型包括 Meta 旗下
Llama 2、法國新創 Mistal AI 旗下的 Mixtral-8x7B 和 Mistral 7B)的聊天機器人,
使用者可以免費嘗試在 LPU 加持下的聊天機器人和一般 GPU 支援的效能有何不同
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 180.177.2.53 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1708742210.A.771.html→ shter1樓自 FPU 開始又多了一種特化處理器 02/24 10:40
→ shter2樓以前計概說 FPU 算小數比 CPU 快很多 02/24 10:42
→ shter3樓後來玩遊戲又說 GPU 處理渲染比 CPU 快很多 02/24 10:43
→ shter4樓現在又來 LPU 02/24 10:43
xurza5樓各種 PU 就對了 02/24 11:02
SilentBob6樓懶趴優 02/24 11:09
jerrylin7樓重點是有效內容吧 02/24 11:14
Francix8樓Sora都出來了,對LLM特化跑的動Sora嗎? 02/24 11:15
PoloHuang9樓這個特化過的不是廢話嗎 02/24 11:17
zonppp10樓專門處理語言當然比較快...重點是商用化才會賺錢 02/24 11:29
jeff8589811樓一張卡就要2萬美而且只有230MB記憶體 02/24 11:45
→ jeff8589812樓他們團隊跑一個LLaMA 2 70B就要十台多卡機架式伺服 02/24 11:47
→ jeff8589813樓器了 02/24 11:47
chliu668614樓都要台積 02/24 12:11
motan15樓難怪以後客戶都想自製,效率比較好 02/24 12:13
→ samm332016樓這兩個用途不一樣吧 02/24 12:24
→ ms034430317樓Groq不能拿來訓練 02/24 12:32
X28338136X18樓專用的ASIC比GPU差就不要做了 02/24 12:32
zxp950500719樓短跑選手 vs 鐵人選手 比短跑 哪有這樣比的 02/24 12:38
fedona20樓只能推理 02/24 12:47
xmanhman21樓感覺像之前挖礦的榮景 02/24 12:49
lavign22樓Nvidia:誰? 02/24 12:54
lolpklol097523樓通用GPU跟ASIC還是不太能比較 02/24 13:20
physicsdk24樓外行記者亂寫騙不懂的人 02/24 13:38
pponywong25樓覺得有點唬爛 GPU算是基本的數學運算了 02/24 13:42
→ pponywong26樓你ASIC要做 也是把所有的運算串起來而已 02/24 13:43
→ peter9827樓跟石墨烯屌打線在半導體材料一樣讓我有夢靨 02/24 14:36
→ twinmick28樓怎麼覺得這家公司買新聞買得很厲害,最頭先的新聞有 02/24 15:09
→ twinmick29樓特別說明無法用來訓練,怎麼後面的新聞變超強的感覺 02/24 15:12
Raikknen30樓專門特化過的處理器要來跟通用GPU比有沒有搞錯 02/24 15:25