保姆级教程:在Linux服务器本地部署DeepSeek-R1大模型并远程通过Web-UI访问

思考的下一页 2025-02-21 11:01:22编程技术
715

随着人工智能技术的飞速发展,大模型在各个领域的应用越来越广泛。DeepSeek-R1作为一款高性能的大模型,能够为用户提供强大的计算能力和丰富的功能。然而,如何在Linux服务器上本地部署DeepSeek-R1大模型,并通过远程Web-UI进行访问,成为了许多用户面临的问题。本文将详细介绍这一过程,帮助用户轻松实现DeepSeek-R1大模型的本地部署和远程访问。

出于对代码、文档等的保密要求,所以很多公司会将 DeepSeek 部署在本地服务器使用,如下是一个如何部署的保姆级的教程!我所使用的硬件环境如下所示。

Architecture: x86_64
CPU op-mode(s): 32-bit, 64-bit
Byte Order: Little Endian
CPU(s): 104
On-line CPU(s) list: 0-103
Thread(s) per core: 2
Core(s) per socket: 26
Socket(s): 2
NUMA node(s): 2
Vendor ID: GenuineIntel
CPU family: 6
Model: 85
Model name: Intel(R) Xeon(R) Gold 6230R CPU @ 2.10GHz
Stepping: 7
CPU MHz: 1000.761
CPU max MHz: 4000.0000
CPU min MHz: 1000.0000
BogoMIPS: 4200.00
Virtualization: VT-x
L1d cache: 32K
L1i cache: 32K
L2 cache: 1024K
L3 cache: 36608K
NUMA node0 CPU(s): 0,2,4,6,8,10,12,14,16,18,20,22,24,26,28,30,32,34,36,38,40,42,44,46,48,50,52,54,56,58,60,62,64,66,68,70,72,74,76,78,80,82,84,86,88,90,92,94,96,98,100,102
NUMA node1 CPU(s): 1,3,5,7,9,11,13,15,17,19,21,23,25,27,29,31,33,35,37,39,41,43,45,47,49,51,53,55,57,59,61,63,65,67,69,71,73,75,77,79,81,83,85,87,89,91,93,95,97,99,101,103
Flags: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx pdpe1gb rdtscp lm constant_tsc art arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc cpuid aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx smx est tm2 ssse3 sdbg fma cx16 xtpr pdcm pcid dca sse4_1 sse4_2 x2apic movbe popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm abm 3dnowprefetch cpuid_fault epb cat_l3 cdp_l3 invpcid_single intel_ppin ssbd mba ibrs ibpb stibp ibrs_enhanced tpr_shadow vnmi flexpriority ept vpid ept_ad fsgsbase tsc_adjust bmi1 avx2 smep bmi2 erms invpcid cqm mpx rdt_a avx512f avx512dq rdseed adx smap clflushopt clwb intel_pt avx512cd avx512bw avx512vl xsaveopt xsavec xgetbv1 xsaves cqm_llc cqm_occup_llc cqm_mbm_total cqm_mbm_local dtherm ida arat pln pts pku ospke avx512_vnni md_clear flush_l1d arch_capabilities

1. 在 Linux 服务器上部署 DeepSeek 模型

1.1 安装 Ollama

通过 “ Ollama” 进入其官网,点击 “Download” 进入下载界面,选择 Linux 操作系统,复制相关指令安装 Ollama,具体指令如下所示:

curl -fsSL https://ollama.com/install.sh | sh

保姆级教程:在Linux服务器本地部署DeepSeek-R1大模型并远程通过Web-UI访问

如果服务器上没有显卡,那么安装结束后会出现如下的警告,无视即可。

1.2 验证安装:

安装完成后,您可以通过以下命令验证 Ollama 是否安装成功:

ollama --version

保姆级教程:在Linux服务器本地部署DeepSeek-R1大模型并远程通过Web-UI访问

2. 下载模型

使用如下命令下载模型:

ollama run deepseek-r1:671b // 将下载并启动DeepSeek R1 671B模型

保姆级教程:在Linux服务器本地部署DeepSeek-R1大模型并远程通过Web-UI访问

2.1 指定模式的安装目录

我们在安装模型时,可能由于服务器空间有限,需要安装到指定的目录。

2.1.1 确定默认存储路径

Ollama 默认的模型存储路径如下:/usr/share/ollama/.ollama/models (Linux)

2.1.2 设置新的下载路径

  • 关闭Ollama进程:sudo systemctl stop ollama

  • 打开终端,编辑Shell配置文件(如.bashrc、.zshrc):

    • nano ~/.bashrc # 或使用其他编辑器

  • 在文件末尾添加:

    • export OLLAMA_MODELS="/data/ollama"

  • 保存文件后,执行 source ~/.bashrc 使配置生效。

  • 重启Ollama服务:sudo systemctl enable ollama

Note:

自定完如上目录后,启动ollama会失败,具体的原因为:ollama 用户和用户组对于/data/ollama目录没有访问权限,使用如下指令使能其权限。

# sudo chown -R ollama:ollama /data/ollama

3. 配置远端 Web-UI 服务

为了允许远程访问,您需要配置 Ollama 服务监听所有网络接口,并设置允许的来源。

编辑服务配置文件:sudo vim /etc/systemd/system/ollama.service,在文件中添加以下内容:

[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="OLLAMA_MODELS=/data/ollama" # 模型存储路径
Environment="OLLAMA_HOST=0.0.0.0:11434" # 允许远程调用 API
Environment="OLLAMA_ORIGINS=*"
[Install]
WantedBy=default.target

上述配置将 Ollama 服务设置为在所有网络接口上监听 11434 端口,并允许所有来源的请求。

Note:

自定完如上目录后,启动ollama会失败,具体的原因为:ollama 用户和用户组对于/data/ollama目录没有访问权限,使用如下指令使能其权限。

# sudo chown -R ollama:ollama /data/ollama

重新加载服务并启动:

sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama
sudo systemctl status ollama

3.1 配置防火墙

如果您的系统启用了防火墙,需要允许11434端口的访问: 允许端口访问:sudo ufw allow 11434

3.2 访问模型服务

完成上述配置后,您可以通过浏览器访问 http://<服务器IP>:11434 来验证服务是否正常运行。如果看到“Ollama is running”的提示,说明服务已成功启动。

3.3 使用Chatbox进行远程访问

为了方便与模型进行交互,您可以使用Chatbox客户端:

  • 下载并安装Chatbox(Chatbox AI免费下载):

    • 访问Chatbox官网,下载适用于您设备的版本并安装。我选择的是网页版本:

保姆级教程:在Linux服务器本地部署DeepSeek-R1大模型并远程通过Web-UI访问

  • 配置API连接:

  • 在Chatbox中,选择“Ollama API”,并输入您的服务器IP和端口(例如http://<服务器IP>:11434)。

保姆级教程:在Linux服务器本地部署DeepSeek-R1大模型并远程通过Web-UI访问

  • 选择模型:

    • 在模型列表中选择您下载的DeepSeek模型(如deepseek-r1:671b)。

  • 开始对话:

    • 配置完成后,您可以在Chatbox中输入问题,与模型进行交互。

总结

通过本文的介绍,我们详细讲解了在Linux服务器上本地部署DeepSeek-R1大模型并远程通过Web-UI访问的全过程。从环境准备、模型下载、配置文件修改,到启动服务、远程访问,每一个步骤都进行了详细的说明。希望本文的内容能够帮助到有需要的用户,让大家在使用DeepSeek-R1大模型时更加得心应手。通过本地部署和远程访问,用户可以更加灵活地利用DeepSeek-R1大模型的强大功能,提升工作效率和效果。

DeepSeek linux Web-UI
THE END
蜜芽
故事不长,也不难讲,四字概括,毫无意义。

相关推荐

Gen-CLI:基于DeepSeek的AI命令行编程工具,谷歌Gemini-CLI平替方案
Gen-CLI是一个开源的命令行编程工具,旨在为国内开发者提供类似于谷歌Gemini-CLI的AI辅助编程体验。该项目基于开源的Gemini-CLI进行改造,通过调用硅基流动(SiliconCloud)平台...
2025-07-09 新闻资讯
842

DeepSite:基于DeepSeek V3的AI前端网页代码生成工具
DeepSite是一个基于AI的网站生成工具,用户只需输入简单的文字描述,就能快速生成一个实时可运行的前端网页。它由Hugging Face社区成员enzostvs开发,依托强大的DeepSeek V3(...
2025-04-14 新闻资讯
997

​美图WHEE接入DeepSeek R1,提示词优化可自动补全关键词
近日,美图公司旗下的 AI 素材生成器 WHEE 宣布与 DeepSeek R1满血版成功接入。这一合作旨在将 DeepSeek 的专业提示词设计能力与 WHEE 的易用性相结合,帮助用户在无专业背景...
2025-03-27 新闻资讯
461

Ubuntu 系统部署 Ollama + DeepSeek + Docker + Ragflow
Ollama和DeepSeek作为当前领先的NLP模型,其强大的功能和灵活性使其在各种应用场景中备受青睐。为了更好地利用这些模型,许多开发者和企业选择在本地环境中进行部署。本文将详...
2025-03-26 编程技术
821

DeepSeek-R1+Ollama本地化部署方法及技巧分享
Ollama作为当前最受欢迎的本地大模型运行框架,为DeepSeek R1的私有化部署提供了便捷高效的解决方案。本文将深入讲解如何将Hugging Face格式的DeepSeek R1模型转换为Ollama支...
2025-03-26 编程技术
540

腾讯云宣布上线DeepSeek最新版V3模型API接口
3月25日晚,腾讯云宣布率先上线DeepSeek-V3-0324版本模型的API接口,企业和开发者可以通过腾讯云直接调用这一最新版模型,获得稳定且优质的服务。同时,腾讯云旗下大模型知识...
2025-03-26 新闻资讯
448