DeepSeek 一、应用介绍
Deepseek 来自国产大模型公司深度求索,老人护理13825404095深度求索是量化巨头幻方量化旗下的大模型公司。2025 年 1 月 20 日,该公司正式发布推理大模型 DeepSeek-R1。
Deepseek 是一款开源模型,在数学、代码、自然语言推理等任务上的性能能够比肩 OpenAI o1 模型正式版。它采用 MIT 许可协议,支持免费商用、任意修改和衍生开发等。
DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。此外,DeepSeek 不仅将 R1 训练技术全部公开,还蒸馏了 6 个小模型向社区开源,允许用户借此训练其他模型。
DeepSeek 的论文显示,不同于过去 AI 模型往往依赖于监督微调(SFT,指 AI 模型通过已标注的数据进行训练),R1 完全由强化学习驱动,证明了直接强化学习是可行的。
二、使用指南平台提供了多种 Deepseek 的使用方式,包括命令行交互、webui 交互、api 调用等。平台还提供了 DeepSeek-R1 及其它常用的几十款模型,用户可以直接使用。如果用户没有平台作业提交的经验,可以先查看帮助中心 - 作业系统部分,了解作业提交的基本概念和操作方法。
1. 在公共集群使用 DeepSeek-R1申请 gpu 计算资源:用户可以用 salloc 方式申请公共集群计算资源,再登录到计算节点上运行 deepseek 应用。执行命令:
salloc -p gpu --gres=gpu:1 -n 8该命令用于指定 gpu 分区,申请 1 张 gpu 卡、8 个 cpu 核心。
运行 ollama server:申请好计算资源后,先登录到计算节点。设置相应环境变量,并启动 ollama 服务,执行以下命令:
export OLLAMA_MODELS="/opt/app/ollama/0.5.7/models" export PATH=$PATH:/opt/app/ollama/0.5.7/bin ollama serve命令说明:OLLAMA_MODELS 指的是 ollama 模型存放的路径,如果不指定该环境,则下载模型时会在个人目录下自动生成目录.ollama,并将模型存放在该目录下。
使用 ollama 运行 deepseek 模型:打开一个新的窗口,并在计算节点运行如下命令,开始对话:
export PATH=$PATH:/opt/app/ollama/0.5.7/bin ollama run deepseek-r1:14b命令说明:用户可以通过ollama list命令查看当前环境有哪些模型。
2.在个人实例使用 Open-webui 调用 DeepSeek-R1选择平台的 DeepSeek 应用模板,创建个人实例:在平台选择 DeepSeek R1 应用模板进行实例创建,相关配置如下:
容器:无更多信息
CPU:10 核
GPU:1 卡
内存:60GB
块存储:50GB
镜像配置:deepseek
资源池:GPU 容器资源池
在实例控制台运行 open-webui 服务:打开实例的控制台,执行如下命令,并等待服务正常启动:
sudo -i source /opt/app/anaconda3/bin/activate open-webui open-webui serve出现相关启动成功提示(如INFO: Started server process [523] INFO: INFO: INFO: Waiting for application startup. Application startup complete. Uvicorn running on :8080 (Press CTRL+C to quit))后,查看实例的 webui 地址,并将该地址复制到浏览器中打开,初次运行时,加载时间较长。
页面顺利加载后,需要先完成本地注册:在页面上填写名称、电子邮箱、密码,创建管理员账号。
注册并登陆后,即可选择相应模型,开始对话:选择deepseek-r1:7b等模型,即可在界面中开始对话交互。
3.使用 Chatbox 调用个人实例的 ollama 服务(建议用户使用这个方式)
在实例的详情页找到 ollma 的 api 服务地址:在个人实例的基本信息 - 服务板块中查找 api 地址。
将实例的 ollama api 服务地址配置到 Chatbox,并选择相应模型,并保存:
开始对话:在 Chatbox 中输入问题,如 “你好,请预测未来一年的经济发展趋势”,即可获取模型的回答。
参考链接https://ollama.com/library/deepseek-r1
https://github.com/deepseek-ai/DeepSeek-R1