全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

CeraNetworks网络延迟测速工具IP归属甄别会员请立即修改密码
查看: 2182|回复: 16
打印 上一主题 下一主题

集显、docker本地部署deepseek大模型

[复制链接]
跳转到指定楼层
1#
发表于 2025-1-28 22:48:02 | 只看该作者 回帖奖励 |正序浏览 |阅读模式
本帖最后由 云生 于 2025-1-28 22:49 编辑

https://v.douyin.com/if45L5qx/

deepseek r1  1.5B
最小的模型,可以用集显运行
docker 部署
15#
发表于 2025-1-31 20:58:08 | 只看该作者
bobbylong 发表于 2025-1-31 10:48
可吃可不吃,小内存也可以跑大参数,就是慢

想知道你说的小内存是 768GB 内存以下吗?  我手里有几台128gb 的服务器。
14#
发表于 2025-1-31 11:40:29 | 只看该作者
8g显卡可以跑跑14b参数,亲测效果还行,开启联网搜索的情况下可以帮上点忙
和完整版的智力当然无法相比
13#
发表于 2025-1-31 11:32:41 | 只看该作者
bobbylong 发表于 2025-1-31 10:48
可吃可不吃,小内存也可以跑大参数,就是慢

有多省?你部署671b了?

点评

是  发表于 2025-1-31 12:54
12#
发表于 2025-1-31 10:48:02 | 只看该作者

可吃可不吃,小内存也可以跑大参数,就是慢
11#
发表于 2025-1-30 15:02:15 | 只看该作者
bobbylong 发表于 2025-1-29 06:24
你OUT了,谁告诉你非要独立显卡跑的?一年前deep seek家的模型就不吃显卡了。 ...

那吃 内存?
10#
发表于 2025-1-29 06:24:04 | 只看该作者
louiejordan 发表于 2025-1-29 01:05
集显就算了,6系A卡能不能跑?

你OUT了,谁告诉你非要独立显卡跑的?一年前deep seek家的模型就不吃显卡了。
9#
发表于 2025-1-29 01:05:46 | 只看该作者
集显就算了,6系A卡能不能跑?
8#
发表于 2025-1-29 01:02:56 | 只看该作者
本帖最后由 Hetzner 于 2025-1-31 22:45 编辑

大模型,即大型语言模型(LLM),是指基于Transformer 模型架构,具有大规模参数和复杂计算结构的超大型机器学习模型(超过10 亿个参数),通常由深度神经网络构建,对海量数据进行预训练处理。 大模型的底层转换器包含一系列神经网络,分为编码器和解码器,且具有自注意力功能。

@william2ct 虚心接受改正,你是对的

点评

1b=10亿,没记错的话,billion  发表于 2025-1-31 22:40
7#
发表于 2025-1-28 23:55:31 | 只看该作者
7b我都嫌废,这还1.5b
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2025-10-17 09:37 , Processed in 0.072578 second(s), 11 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表