《DeepSeek》使用常见问题汇总

编辑:网友 来源:网络 时间:2025-02-07 17:18:02

DeepSeek常见问题有哪些?DeepSeek是一款有中国杭州的公司研发的一款大语言模型,同时这个模型也是开源的,可以供国内用户使用。许多小伙伴在使用这个软件时遇到了相关问题。小编在这里整理了一些在使用过程中常见的问题,那么接下来就和小编一起看看《DeepSeek》使用常见问题汇总吧。

》》》小编推荐阅读《DeepSeek》软件教程汇总

《DeepSeek》使用常见问题汇总

1、deepseek网页/app/调用api/本地部署之间的区别是什么

①网页和app没有区别,app是套壳

②api调用是通过接口通信,实际能力和网页没有区别

③本地部署实际上部署的不是满血deepseek-r1,而是蒸馏模型,能力相对较弱,32b模型理论上具有满血r1 90%的能力

2、酒馆是什么?

酒馆指SillyTavern,一个前端页面,需要调用模型的api或者ollama来使用ai模型

3、破限是什么?

ai本身具有道德墙/道德限制,破限是突破ai内容审查的一种方式,通过一系列提示词绕过ai的内容审查

4、为什么我的ai回复到一半然后就被撤回了

你的回答涉及到敏感话题,被二次审查过滤了

5、我的ai有道德限制,我该如何绕开

请使用群文件里的穿甲弹(考虑到大群本身不允许相关讨论,所以如果想要更多相关资源请去无禁群)

6、英伟达ai是否满血

英伟达部署的ai为满血671b,但ai响应速度会比正常的deepseek官方慢,主要体现在跑长文时

7、deepseek有上下文限制吗?可以突破这个限制吗?

有。如:在cherry中调用api,可以在模型设置中快捷修改上下文数

8、我该如何本地部署

详情请参考B站up主:NathMath的视频。BV1NGf2YtE8r

DeepSeek R1 推理模型 完全本地部署教程:

9、本地部署时,我该如何选择最适合我的模型大小?

参考上一条NathMath的视频。简单来说,当你拥有独立显卡时(最好是N卡),内存大小+显存大小就是最合适的模型大小,选择大小最相近的模型。如:我是4050(8G显存)+16G内存,那么选择14b模型比较合适

10、在cherry studio里面链接好了之后呢

在cherry studio里设置好链接后,回到主界面,主界面上方可选择模型。英伟达的deepseek叫deepseek-ai/deepseek-r1

11、.md格式的文件怎么使用?

.md格式文件是用Markdown格式编写的纯文本文件,建议安装Typora对此类文件进行查看和编辑。当然vs code也可以打开这类文件

12、Git和nodejs可以放在别的盘吗

最好不要。后续进行其他配置的时候会有报错

13、360纳米ai里面deepseek是满血吗?

不是,32b都没过的玩意,很笨,建议不用

14、为什么我的ai越到后面跑的越慢

ai的计算量会随着文本量递增,越用越慢是正常的,可以新开一个对话

15、ds他在对话中输出纯空白是因为什么?

被外网攻击了

16、对话记录最多能保存几天

api的话是保存在你使用的api软件里面的,也就是本地,是无限时长的(只要你不删文件),而网页/app至今没有删,不确定具体保存时间。

17、网页版或者APP版是671b吗?

是的

18、chatbox这些可以直接接api吗

目前没法调官网api

DeepSeek

DeepSeek

类型:其他软件 大小:7.43M 时间:2025-02-07

标签: DeepSeek AI助手

资讯攻略

更多