DeepSeek-R1 入门

DeepSeek-R1 简介

DeepSeek-R1 是深度求索(DeepSeek)公司开发的智能助手,基于其自研的大语言模型技术构建。以下是其核心特点:

1. 核心能力

  • 支持文本生成、多轮对话、复杂推理等任务
  • 具备多语言处理能力(中英文为主)
  • 正在拓展多模态理解与生成功能

2. 技术优势

  • 采用混合专家(MoE)架构提升模型效率
  • 通过持续学习优化性能表现
  • 提供不同规格的模型版本适配多样需求

3. 应用场景

  • 企业级应用:客户服务、内容生成、数据分析
  • 开发者服务:通过API接入各类应用
  • 研究支持:提供开放平台供算法实验

4. 服务模式

  • 公有云API服务
  • 私有化部署方案
  • 定制化模型训练支持

该模型持续迭代更新,官方建议通过其开放平台获取最新技术文档和接口说明。

[!NOTE]

以上简介内容由 deepseek-r1 671B 满血版模型生成,仅供参考。

本地部署

安装 Ollama

Ollama 是一款工具,通过它可以本地启动及运行大语言模型(包括但不限于 Llama 3.3, DeepSeek-R1, Phi-4, Mistral, Gemma 2 等)。

下载安装包

访问 Ollama 下载页下载安装包并执行安装,下载页地址:https://ollama.com/download

执行安装

安装过程略。

安装完成后,可在命令行终端执行命令 ollama --version 验证安装的版本。示例:

常用命令

拉取模型:ollama pull

运行模型:ollama run

列出本地模型:ollama list

删除模型:ollama rm

模型部署

模型选择

DeepSeek-R1 目前有 1.5b / 7b / 8b / 14b / 32b / 70b / 671b 等多个模型,需根据你的硬件条件选择合适的版本。

通用配置原则

  1. 模型显存占用

    (估算):

    • 每 1B 参数约需 1.5-2GB 显存(FP16 精度)或 0.75-1GB 显存(INT8/4-bit 量化)。
    • 例如:32B 模型在 FP16 下需约 48-64GB 显存,量化后可能降至 24-32GB
  2. 内存需求:至少为模型大小的 2 倍(用于加载和计算缓冲)。

  3. 存储:建议 NVMe SSD,模型文件大小从 1.5B(约 3GB)到 32B(约 64GB)不等。

我的电脑是 MacBook Pro(13-inch, M1, 2020),勉强能上 7b 版本。

模型安装

执行命令 ollama run deepseek-r1:7b 拉取并运行模型,示例:

测试对话

问一个简单的问题,测试下效果:

应用集成

命令行的方式有些简陋,并且设备的硬件规格限制无法使用满血版模型,因此我更倾向于付费使用 DeepSeek。可以在官方购买流量包(当然也可使用硅基流动、阿里云百炼等第三方服务),在 Chatbox 客户端上使用自己的 API KEY 配置,使用起来更加丝滑。

以阿里云百炼为例,下图为需要配置的信息:

提问测试下效果,如图:

更多 DeepSeek 的实用集成可参考 https://github.com/deepseek-ai/awesome-deepseek-integration/blob/main/README_cn.md


DeepSeek-R1 入门
https://blog.yohlj.cn/posts/fa5adfd8/
作者
Enoch
发布于
2025年2月11日
许可协议