全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

CeraNetworks网络延迟测速工具IP归属甄别会员请立即修改密码
查看: 865|回复: 14
打印 上一主题 下一主题

买一个4080啥的显卡搭建LLAMA有意义吗

[复制链接]
跳转到指定楼层
1#
发表于 2024-11-3 15:02:21 | 只看该作者 回帖奖励 |正序浏览 |阅读模式
有没有大佬测试过自己搭建LLAMA 效果怎么样 可以做哪些事情
15#
发表于 2024-11-6 09:50:12 来自手机 | 只看该作者
16G显存就玩玩而已
14#
 楼主| 发表于 2024-11-6 08:48:27 | 只看该作者
三月七 发表于 2024-11-5 23:43
你就计算买现存最大的4080也只能流畅8B-14B,这些参数量的模型都比较低智商。和你买个最便宜8G显存的N卡没 ...

请问这个100+G的统一内存怎么搞啊 我看MAC笔记本内存最高都只有32G
13#
发表于 2024-11-6 00:57:21 | 只看该作者
要大内存,上3090 24g
12#
发表于 2024-11-6 00:10:05 | 只看该作者
自己搭LLAMA效果不错,适合深度学习和大模型训练,4080显卡性能强劲。
11#
发表于 2024-11-5 23:43:39 | 只看该作者
huggingface玩玩就行了,熟悉来说,不用自己部署。
其实自己部署都是伪需求。需要un**ed内容也有专门的platform吧,付钱解决吧,别自己搞了
10#
发表于 2024-11-5 23:43:09 | 只看该作者
你就计算买现存最大的4080也只能流畅8B-14B,这些参数量的模型都比较低智商。和你买个最便宜8G显存的N卡没有本质区别。

当然你也可以买一个Mac,特指m系芯片的。统一内存可以干到100+G,其实是目前很有性价比的高显存方案。现在苹果无论是metal还是npu跑大模型都很舒服,速度不如夹克男的显卡,但是最起码它能跑70B模型。
9#
发表于 2024-11-5 23:18:19 | 只看该作者
买还不如去买云服务的 几块钱一个小时 玩玩也凑合
8#
发表于 2024-11-5 23:17:43 来自手机 | 只看该作者
4080还能这样玩?我光用来画画了
7#
发表于 2024-11-5 22:59:30 | 只看该作者
netAlchemist 发表于 2024-11-3 15:48
我想着练练手 折腾一下 别out了

如果毫无意义那还是考虑一下

玩玩还是好的. 搭个8B以内的模型, 做点简单的任务还是可以的.
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2025-11-7 13:52 , Processed in 0.116494 second(s), 8 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表