各位高手安安
小弟AI小白最近想玩看看AI繪圖或者本地端大語言模型
無奈原本的顯卡只有3070 8g 跑下去覺得體驗實在很差
但看看目前主流的這些顯卡的價格...
實在有點花不太下去
想問看看如果想玩AI繪圖的話
有滿多雲端服務或API的方式
這樣跟自己買一張本地端跑圖比起來
價格不會比較划算嗎?
因為看到板上好像滿多人手骨都滿粗的
很多人都願意投資這些錢來買顯卡跑
所以有這個疑問...
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.239.1.34 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1730497679.A.2C1.htmlFirePopcorn1樓問就是買,財力即算力 11/02 05:53
→ JeffreyZH2樓AI入門VRAM其實最重要 至少16G 11/02 05:57
→ JeffreyZH3樓記憶體不夠你連圖都沒辦法生出來 11/02 05:57
BITMajo4樓沒打算投入相當預算,乾脆就打消念頭吧 11/02 06:00
→ BITMajo5樓顯卡好好拿來打遊戲不好嗎 11/02 06:00
→ BITMajo6樓反正不管哪種方法,投入一堆生出的 AI 圖 11/02 06:02
→ BITMajo7樓八成跟網路上某個其他人的 AI 圖差不多 11/02 06:02
cannedtuna8樓找縮小的量化模型 11/02 06:20
→ cannedtuna9樓裝lm studio裡面各種大小都有 11/02 06:20
devirnt10樓3060-12g比3070好 11/02 06:21
wolver11樓不然你要買AMD顯卡來玩AI嗎? 11/02 06:27
aglet12樓微軟的bing image也能玩 11/02 07:16
pita3013樓好奇用8600G有幫助嗎 11/02 07:28
→ spfy14樓你直接訂閱NovelAI之類的就好了吧... 11/02 07:40
→ leviva15樓4060 Ti 16G 11/02 07:42
march5523716樓會拿來生財就買 純玩玩買線上服務就 11/02 07:45
→ march5523717樓好 11/02 07:45
→ sasado18樓本地當然要顯卡 11/02 07:48
iPhoneX19樓線上的先玩玩看 11/02 07:49
Zenryaku20樓 11/02 07:52 conqueror50721樓計算力對於速度的影響還是滿大的 11/02 07:55
conqueror50722樓現在也可以用一般記憶體來替代顯存 11/02 07:59
→ conqueror50723樓,記憶體可以加多一點 11/02 07:59
conqueror50724樓你也可以多組幾台電腦,放在那邊讓 11/02 08:05
→ conqueror50725樓他們跑就是了 11/02 08:05
→ tsubasawolfy26樓你要拿來賺錢的就投資壓 想玩玩的 11/02 08:13
→ tsubasawolfy27樓線上那些買一兩個月過過癮就好 11/02 08:13
isoBlue28樓記憶體可以說能替代但是如果VRAM不夠用 11/02 08:13
→ isoBlue29樓,把VRAM塞爆然後offload到記憶體,如果 11/02 08:13
→ isoBlue30樓只是實驗性玩玩看可以,如果要穩定用跟 11/02 08:13