DeepSeek-R1 入门
DeepSeek-R1 简介
DeepSeek-R1 是深度求索(DeepSeek)公司开发的智能助手,基于其自研的大语言模型技术构建。以下是其核心特点:
1. 核心能力
- 支持文本生成、多轮对话、复杂推理等任务
- 具备多语言处理能力(中英文为主)
- 正在拓展多模态理解与生成功能
2. 技术优势
- 采用混合专家(MoE)架构提升模型效率
- 通过持续学习优化性能表现
- 提供不同规格的模型版本适配多样需求
3. 应用场景
- 企业级应用:客户服务、内容生成、数据分析
- 开发者服务:通过API接入各类应用
- 研究支持:提供开放平台供算法实验
4. 服务模式
- 公有云API服务
- 私有化部署方案
- 定制化模型训练支持
该模型持续迭代更新,官方建议通过其开放平台获取最新技术文档和接口说明。
[!NOTE]
以上简介内容由 deepseek-r1 671B 满血版模型生成,仅供参考。
本地部署
安装 Ollama
Ollama 是一款工具,通过它可以本地启动及运行大语言模型(包括但不限于 Llama 3.3, DeepSeek-R1, Phi-4, Mistral, Gemma 2 等)。
下载安装包
访问 Ollama 下载页下载安装包并执行安装,下载页地址:https://ollama.com/download
执行安装
安装过程略。
安装完成后,可在命令行终端执行命令 ollama --version 验证安装的版本。示例:
常用命令
拉取模型:ollama pull
运行模型:ollama run
列出本地模型:ollama list
删除模型:ollama rm
模型部署
模型选择
DeepSeek-R1 目前有 1.5b / 7b / 8b / 14b / 32b / 70b / 671b 等多个模型,需根据你的硬件条件选择合适的版本。
通用配置原则
模型显存占用
(估算):
- 每 1B 参数约需 1.5-2GB 显存(FP16 精度)或 0.75-1GB 显存(INT8/4-bit 量化)。
- 例如:32B 模型在 FP16 下需约 48-64GB 显存,量化后可能降至 24-32GB。
内存需求:至少为模型大小的 2 倍(用于加载和计算缓冲)。
存储:建议 NVMe SSD,模型文件大小从 1.5B(约 3GB)到 32B(约 64GB)不等。
我的电脑是 MacBook Pro(13-inch, M1, 2020),勉强能上 7b 版本。
模型安装
执行命令 ollama run deepseek-r1:7b 拉取并运行模型,示例:

测试对话
问一个简单的问题,测试下效果:

应用集成
命令行的方式有些简陋,并且设备的硬件规格限制无法使用满血版模型,因此我更倾向于付费使用 DeepSeek。可以在官方购买流量包(当然也可使用硅基流动、阿里云百炼等第三方服务),在 Chatbox 客户端上使用自己的 API KEY 配置,使用起来更加丝滑。
以阿里云百炼为例,下图为需要配置的信息:
提问测试下效果,如图:

更多 DeepSeek 的实用集成可参考 https://github.com/deepseek-ai/awesome-deepseek-integration/blob/main/README_cn.md