在Node.js环境下本地部署DeepSeek大语言模型全攻略

海上彼尚 2025-02-17 12:12:01编程技术
436

在当今数字化时代,大型语言模型已成为推动人工智能发展的重要力量。然而,由于数据隐私、网络延迟和成本考虑,许多用户和企业更倾向于在本地部署这些模型。本文将为您详细介绍如何在Node.js环境下本地部署DeepSeek大语言模型。通过本攻略,您将能够掌握从下载模型到运行服务的全过程,享受本地部署带来的高效与便捷。无论您是初学者还是经验丰富的开发者,都能从中找到适合自己的解决方案,并快速上手实践。

1.下载 Ollama

https://ollama.com/

在Node.js环境下本地部署DeepSeek大语言模型全攻略

下载之后点击安装,等待安装成功后,打开cmd窗口,输入以下指令:

ollama -v

 如果显示了版本号,则代表已经下载成功了。

2.下载DeepSeek模型

在Node.js环境下本地部署DeepSeek大语言模型全攻略

 然后选择自己对应配置的模型,在复制右侧指令到cmd窗口,就可以把模型下载到本地了。

在Node.js环境下本地部署DeepSeek大语言模型全攻略

3.下载 ollama.js 

npm下载方式:

npm i ollama

yarn下载方式:

yarn add ollama

pnpm下载方式:

pnpm i ollama

下载完成后,按照ollama.js 官方文档指示则可使用,下面是一个最简单的案例:

import { Ollama } from 'ollama'
 
const ollama = new Ollama({
    host: 'http://127.0.0.1:11434'
})
 
const response = await ollama.chat({
    model: 'deepseek-r1:1.5b',
    messages: [{ role: 'user', content: '你好' }],
})
 
console.log(response.message.content)

输出结果:

在Node.js环境下本地部署DeepSeek大语言模型全攻略

 最后,如果大家不熟悉 Ollama 的指令,可以参考下文

4.ollama基本使用教程

Ollama 是一个开源的大型语言模型服务工具,能够帮助用户在本地运行大模型。通过简单的安装指令,用户可以在本地运行开源的大型语言模型,如 Llama 21。

1. 安装 Ollama

支持 macOS、Linux 和 Windows(通过 WSL)。

macOS 或 Linux

# 一键安装脚本
curl -fsSL https://ollama.com/install.sh | sh

Windows (WSL2)

安装 WSL2 和 Ubuntu。

在 WSL 终端中运行上述安装脚本。

2. 基础命令

启动与停止

# 启动 Ollama 服务(后台运行)
ollama serve
 
# 停止服务
ollama stop

更新 Ollama

ollama upgrade

3. 模型管理

下载预训练模型

# 下载官方模型(如 llama2、mistral)
ollama pull <model-name>
# 示例
ollama pull llama2

运行模型

# 启动交互式对话
ollama run <model-name>
# 示例
ollama run llama2

查看已安装模型

ollama list

删除模型

ollama rm <model-name>

从 Modelfile 创建自定义模型

创建一个 Modelfile 文件:

FROM llama2  # 基础模型
SYSTEM """你是一个友好的助手,用中文回答。"""
PARAMETER temperature 0.7  # 控制生成随机性(0-1)

构建自定义模型:

ollama create my-model -f Modelfile

运行自定义模型:

ollama run my-model

4. 高级功能

服务器模式与 API

启动 API 服务(默认端口 11434):

ollama serve

通过 HTTP 调用 API:

curl http://localhost:11434/api/generate -d '{
  "model": "llama2",
  "prompt": "你好,请介绍一下你自己",
  "stream": false
}'

多会话管理

# 启动一个会话并命名
ollama run llama2 --name chat1
# 在另一个终端启动新会话
ollama run llama2 --name chat2

环境变量配置

# 更改默认端口
OLLAMA_HOST=0.0.0.0:8080 ollama serve
 
# 使用 GPU 加速(需 NVIDIA 驱动)
OLLAMA_GPU_METAL=1 ollama run llama2

5. 常见问题与技巧

加速模型下载

# 使用镜像源(如中国用户)
OLLAMA_MODELS=https://mirror.example.com ollama pull llama2

查看日志

tail -f ~/.ollama/logs/server.log

模型参数调整

在 Modelfile 中可设置:

  • temperature: 生成随机性(0=确定,1=随机)

  • num_ctx: 上下文长度(默认 2048)

  • num_gpu: 使用的 GPU 数量

模型导出与分享

# 导出模型
ollama export my-model > my-model.tar
 
# 导入模型
ollama import my-model.tar

总结

通过本文的详细指导,我们成功地在Node.js环境下完成了DeepSeek大语言模型的本地部署。从安装Ollama工具、下载模型文件,到利用ollama.js库运行模型,每一步都至关重要。本地部署不仅提升了数据处理的隐私性和安全性,还降低了网络延迟和成本。同时,Ollama工具提供的丰富功能和灵活配置,使得我们可以根据实际需求调整模型参数,满足多样化的应用场景。希望本攻略能为您的本地部署之路提供有力支持,让您在人工智能的征途中更加得心应手。

Nodejs DeepSeek
THE END
蜜芽
故事不长,也不难讲,四字概括,毫无意义。

相关推荐

Gen-CLI:基于DeepSeek的AI命令行编程工具,谷歌Gemini-CLI平替方案
Gen-CLI是一个开源的命令行编程工具,旨在为国内开发者提供类似于谷歌Gemini-CLI的AI辅助编程体验。该项目基于开源的Gemini-CLI进行改造,通过调用硅基流动(SiliconCloud)平台...
2025-07-09 新闻资讯
838

DeepSite:基于DeepSeek V3的AI前端网页代码生成工具
DeepSite是一个基于AI的网站生成工具,用户只需输入简单的文字描述,就能快速生成一个实时可运行的前端网页。它由Hugging Face社区成员enzostvs开发,依托强大的DeepSeek V3(...
2025-04-14 新闻资讯
995

​美图WHEE接入DeepSeek R1,提示词优化可自动补全关键词
近日,美图公司旗下的 AI 素材生成器 WHEE 宣布与 DeepSeek R1满血版成功接入。这一合作旨在将 DeepSeek 的专业提示词设计能力与 WHEE 的易用性相结合,帮助用户在无专业背景...
2025-03-27 新闻资讯
460

Ubuntu 系统部署 Ollama + DeepSeek + Docker + Ragflow
Ollama和DeepSeek作为当前领先的NLP模型,其强大的功能和灵活性使其在各种应用场景中备受青睐。为了更好地利用这些模型,许多开发者和企业选择在本地环境中进行部署。本文将详...
2025-03-26 编程技术
820

DeepSeek-R1+Ollama本地化部署方法及技巧分享
Ollama作为当前最受欢迎的本地大模型运行框架,为DeepSeek R1的私有化部署提供了便捷高效的解决方案。本文将深入讲解如何将Hugging Face格式的DeepSeek R1模型转换为Ollama支...
2025-03-26 编程技术
540

腾讯云宣布上线DeepSeek最新版V3模型API接口
3月25日晚,腾讯云宣布率先上线DeepSeek-V3-0324版本模型的API接口,企业和开发者可以通过腾讯云直接调用这一最新版模型,获得稳定且优质的服务。同时,腾讯云旗下大模型知识...
2025-03-26 新闻资讯
447