因為最近有再跑llama sakura翻譯
目前都是用日常用機的7900XTX來跑
想要多買一張卡放在另一台電腦跑
目前使用的模型是
sakura-14b-qwen2beta-v0.9.2-iq4xs
7900XTX速度是63 t/s
https://i.imgur.com/xKmQ5N3.png目前在2張卡中選擇
4060ti 16G
7800XT 16G
以AI泛用性來講可能是N卡
但是目前來看ROCM的版本速度也不輸N卡
以跑llama的情況下是否7800XT略勝一籌?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 122.116.75.164 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1728787854.A.000.htmlgameguy1樓A6000 ads不用謝我 10/13 10:54
sachialanlus2樓建議試試看用 ollama + ainiee 來翻 10/13 11:06
→ sachialanlus3樓譯, 不要用 sakurallm 自己的 back 10/13 11:06
→ sachialanlus4樓end。 10/13 11:06
→ sachialanlus5樓如果是 llama.cpp 的話記得把 promp 10/13 11:06
→ sachialanlus6樓t_cache 打開,不用每次都重跑 syst 10/13 11:06
→ sachialanlus7樓em prompt。 10/13 11:06
→ sachialanlus8樓另外 inference 完全是 memory boun 10/13 11:06
→ sachialanlus9樓d,可以直接按照 vram bandwidth 來 10/13 11:06
→ sachialanlus10樓選卡即可,速度基本上就是 "模型大 10/13 11:06
→ sachialanlus11樓小/頻寬" = n token/s。 10/13 11:06
→ sachialanlus12樓啊對了 sakurallm 14b 出 v1.0 的模 10/13 11:08
→ sachialanlus13樓型了 10/13 11:08
→ hHolic14樓AI應用 瓶頸都在VRAM 吞吐跟不上運算 10/13 11:26
→ sachialanlus15樓輸入的部分 也就是 prompt eval 和 10/13 11:27
→ sachialanlus16樓算力有關 而生成的部分 token gener 10/13 11:27
→ sachialanlus17樓ation 則和 memory bandwidth 有關 10/13 11:27
→ sachialanlus18樓主因是現在顯卡的算力遠大於頻寬 通 10/13 11:27
→ sachialanlus19樓常瓶頸都是卡在 token generation 10/13 11:27
→ sachialanlus20樓現在出的很多加速手段底層原理都有 10/13 11:31
→ sachialanlus21樓用到 recompute 就是寧願重新計算也 10/13 11:31
→ sachialanlus22樓要省 vram 傳輸量 藉此來提高速度 10/13 11:31
所以頻寬來講 7800xt 624.1gb/s > 4060ti 288gb/s
所以上7800XT比較好
chang1248w23樓長見識 10/13 11:57
sxing632624樓4張V100 10/13 12:21
yesheyman25樓請問rocm是指6.2最新那版? 10/13 12:30
jhjhs3350426樓至少挑Qwen2.5或llama3.1之後比較聰明 10/13 14:16
jhjhs3350427樓之前的必須進行一番提示工程才達能用 10/13 14:20
jhjhs3350428樓借串問一下UALink有下文嗎? 10/13 14:22
→ soulgem29樓14b 用 16G VRAM 真的可以跑嗎? 10/13 14:44
→ soulgem30樓印象中不見得就是 1:1, 可能要實驗... 10/13 14:45