全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

CeraNetworks网络延迟测速工具IP归属甄别会员请立即修改密码
查看: 864|回复: 14
打印 上一主题 下一主题

买一个4080啥的显卡搭建LLAMA有意义吗

[复制链接]
跳转到指定楼层
1#
发表于 2024-11-3 15:02:21 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
有没有大佬测试过自己搭建LLAMA 效果怎么样 可以做哪些事情
2#
发表于 2024-11-3 15:18:38 | 只看该作者
只能搭个8B的模型, 可是8B的模型不好用.

起码用30B左右参数的模型才能勉强使用. 那就需要大概3个4090或是3090的显卡了.

更别说用70B参数的了.

除非你跑量化的模型.
3#
发表于 2024-11-3 15:24:32 | 只看该作者
毫无意义。你这样提问题了。就是已经有答案了  
4#
发表于 2024-11-3 15:35:37 | 只看该作者
没有意义 不如GPT4-MINI 这玩意随便个中转冲10块钱可以用1年了
弄显卡 还要搭建 电费 电脑开机 一点不划算
5#
 楼主| 发表于 2024-11-3 15:48:48 | 只看该作者
julie 发表于 2024-11-3 15:18
只能搭个8B的模型, 可是8B的模型不好用.

起码用30B左右参数的模型才能勉强使用. 那就需要大概3个4090或是 ...

我想着练练手 折腾一下 别out了

如果毫无意义那还是考虑一下
6#
发表于 2024-11-3 15:59:26 | 只看该作者
llama 8b性能太差了,没什么应用价值
7#
发表于 2024-11-5 22:59:30 | 只看该作者
netAlchemist 发表于 2024-11-3 15:48
我想着练练手 折腾一下 别out了

如果毫无意义那还是考虑一下

玩玩还是好的. 搭个8B以内的模型, 做点简单的任务还是可以的.
8#
发表于 2024-11-5 23:17:43 来自手机 | 只看该作者
4080还能这样玩?我光用来画画了
9#
发表于 2024-11-5 23:18:19 | 只看该作者
买还不如去买云服务的 几块钱一个小时 玩玩也凑合
10#
发表于 2024-11-5 23:43:09 | 只看该作者
你就计算买现存最大的4080也只能流畅8B-14B,这些参数量的模型都比较低智商。和你买个最便宜8G显存的N卡没有本质区别。

当然你也可以买一个Mac,特指m系芯片的。统一内存可以干到100+G,其实是目前很有性价比的高显存方案。现在苹果无论是metal还是npu跑大模型都很舒服,速度不如夹克男的显卡,但是最起码它能跑70B模型。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2025-11-7 11:03 , Processed in 0.107742 second(s), 10 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表