全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

IP归属甄别会员请立即修改密码
查看: 4426|回复: 42
打印 上一主题 下一主题

拿vps跑deepseek r1

[复制链接]
跳转到指定楼层
1#
发表于 2025-1-29 17:24:26 | 只看该作者 回帖奖励 |正序浏览 |阅读模式

前言

前排提示llama很吃性能的,别拿你的生产力的小鸡跑
建议内存大点的鸡上跑

1 docker安装openwebui+ollama

https://github.com/open-webui/open-webui
For CPU Only: If you're not using a GPU, use this command instead:
[pre]
  1. docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
复制代码
[/pre]

2 访问及设置

① 访问

ip:3000端口打开即可,有条件的话nginx反代下

② 设置用户名密码邮箱

③ 切换语言

点击右上角头像下面的settings-general,选择中文,save保存





④ 添加模型

左上角选择一个模型的话可以输入你想要的模型,

我们选择7b的,输入 deepseek-r1:7b,从ollama拉取



下载deepseek的7b模型,小鸡的性能跑个7b还是可以的
如果没法跑的话,可以跑1.5b的  deepseek-r1:1.5b

其他的模型的话这边
https://ollama.com/library/deepseek-r1

3 闲言碎语

本人用签名探针上的家里云。配置为5600+32G内存跑的

占用的话大概cpu在50%左右,内存吃到10G
我的cpu的话跑分gb5单核1675多,多核8934,你可以参考下自己跑着玩



7.5b的效果其实不怎么样,你们跑了就知道了



其实还不如自己直接调用api来的合适

跑api的话可以参考我这个帖子

https://qklg.net/post/20250127/

有条件上显卡跑,而且显存至少16G的,这种纯cpu跑的是玩具
隔壁老哥拿12400跑72b的https://linux.do/t/topic/397701/20
半小时才能回答一次,隔壁老哥cpu当一回时代先锋
推荐
发表于 2025-1-29 17:56:49 | 只看该作者
不建议折腾,没显卡跑这玩意,一个问题,可能几分钟才能生成答案
推荐
发表于 2025-1-29 17:33:41 | 只看该作者
api价格之下,除非有定制能力和需求,或者学习和玩,脑瘫才自建
43#
发表于 2025-2-2 20:39:21 | 只看该作者
7B的不行,
回答中总是中文中夹杂英文。
体量太小。
大公司部署的也用了,
没有一个达到官方网站的体验。
42#
发表于 2025-1-30 21:50:57 | 只看该作者
DogeLee2 发表于 2025-1-30 17:08
废话
这中国公司啊
在杭州

是申请API的地址 关闭了。。这个倒是能正常打开
41#
发表于 2025-1-30 19:46:00 | 只看该作者
DogeLee2 发表于 2025-1-30 17:08
废话
这中国公司啊
在杭州

你打开 platform.deepseek.com不是503 ?
40#
发表于 2025-1-30 17:11:13 | 只看该作者
DogeLee2 发表于 2025-1-30 17:08
废话
这中国公司啊
在杭州

原来是屏蔽了国外IP.原来如此。
39#
 楼主| 发表于 2025-1-30 17:08:55 | 只看该作者
q1028178000 发表于 2025-1-30 17:04
API 一直提示在维护。。国内IP 能用API ?

废话
这中国公司啊
在杭州

服务器是上海华为云
https://www.itdog.cn/ping/api.deepseek.com
38#
发表于 2025-1-30 17:04:00 | 只看该作者
DogeLee2 发表于 2025-1-30 16:07
我的建议还是api or 网页版用用完事了

API 一直提示在维护。。国内IP 能用API ?
37#
 楼主| 发表于 2025-1-30 16:07:12 | 只看该作者
q1028178000 发表于 2025-1-30 16:01
我去看看GPU的服务器多少钱一个月

我的建议还是api or 网页版用用完事了
36#
发表于 2025-1-30 16:01:50 | 只看该作者
DogeLee2 发表于 2025-1-30 15:59
用显卡跑啊
cpu就不适合干这些的啊

我去看看GPU的服务器多少钱一个月
35#
 楼主| 发表于 2025-1-30 16:00:54 | 只看该作者
ciao 发表于 2025-1-30 15:55
自己部署的话,敏感问题会回答吗

我和你说不会回答的
但是有去除审查的办法
你自己搜下


当然本地部署的效果很差
这就是个玩具
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2026-1-11 20:39 , Processed in 0.075399 second(s), 11 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表