编辑:网友 来源:网络 时间:2025-02-07 17:18:02
DeepSeek常见问题有哪些?DeepSeek是一款有中国杭州的公司研发的一款大语言模型,同时这个模型也是开源的,可以供国内用户使用。许多小伙伴在使用这个软件时遇到了相关问题。小编在这里整理了一些在使用过程中常见的问题,那么接下来就和小编一起看看《DeepSeek》使用常见问题汇总吧。
》》》小编推荐阅读:《DeepSeek》软件教程汇总
1、deepseek网页/app/调用api/本地部署之间的区别是什么
①网页和app没有区别,app是套壳
②api调用是通过接口通信,实际能力和网页没有区别
③本地部署实际上部署的不是满血deepseek-r1,而是蒸馏模型,能力相对较弱,32b模型理论上具有满血r1 90%的能力
2、酒馆是什么?
酒馆指SillyTavern,一个前端页面,需要调用模型的api或者ollama来使用ai模型
3、破限是什么?
ai本身具有道德墙/道德限制,破限是突破ai内容审查的一种方式,通过一系列提示词绕过ai的内容审查
4、为什么我的ai回复到一半然后就被撤回了
你的回答涉及到敏感话题,被二次审查过滤了
5、我的ai有道德限制,我该如何绕开
请使用群文件里的穿甲弹(考虑到大群本身不允许相关讨论,所以如果想要更多相关资源请去无禁群)
6、英伟达ai是否满血
英伟达部署的ai为满血671b,但ai响应速度会比正常的deepseek官方慢,主要体现在跑长文时
7、deepseek有上下文限制吗?可以突破这个限制吗?
有。如:在cherry中调用api,可以在模型设置中快捷修改上下文数
8、我该如何本地部署
详情请参考B站up主:NathMath的视频。BV1NGf2YtE8r
DeepSeek R1 推理模型 完全本地部署教程:
9、本地部署时,我该如何选择最适合我的模型大小?
参考上一条NathMath的视频。简单来说,当你拥有独立显卡时(最好是N卡),内存大小+显存大小就是最合适的模型大小,选择大小最相近的模型。如:我是4050(8G显存)+16G内存,那么选择14b模型比较合适
10、在cherry studio里面链接好了之后呢
在cherry studio里设置好链接后,回到主界面,主界面上方可选择模型。英伟达的deepseek叫deepseek-ai/deepseek-r1
11、.md格式的文件怎么使用?
.md格式文件是用Markdown格式编写的纯文本文件,建议安装Typora对此类文件进行查看和编辑。当然vs code也可以打开这类文件
12、Git和nodejs可以放在别的盘吗
最好不要。后续进行其他配置的时候会有报错
13、360纳米ai里面deepseek是满血吗?
不是,32b都没过的玩意,很笨,建议不用
14、为什么我的ai越到后面跑的越慢
ai的计算量会随着文本量递增,越用越慢是正常的,可以新开一个对话
15、ds他在对话中输出纯空白是因为什么?
被外网攻击了
16、对话记录最多能保存几天
api的话是保存在你使用的api软件里面的,也就是本地,是无限时长的(只要你不删文件),而网页/app至今没有删,不确定具体保存时间。
17、网页版或者APP版是671b吗?
是的
18、chatbox这些可以直接接api吗
目前没法调官网api
资讯攻略