julie 发表于 2024-11-3 15:18
只能搭个8B的模型, 可是8B的模型不好用.
起码用30B左右参数的模型才能勉强使用. 那就需要大概3个4090或是 ...
我想着练练手 折腾一下 别out了 
netAlchemist 发表于 2024-11-3 15:48
我想着练练手 折腾一下 别out了
如果毫无意义那还是考虑一下
三月七 发表于 2024-11-5 23:43
你就计算买现存最大的4080也只能流畅8B-14B,这些参数量的模型都比较低智商。和你买个最便宜8G显存的N卡没 ...
| 欢迎光临 全球主机交流论坛 (https://sunk.eu.org/) | Powered by Discuz! X3.4 |