会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 “轻松上手!5分钟学会用京东云打造你自己的专属DeepSeek”!

“轻松上手!5分钟学会用京东云打造你自己的专属DeepSeek”

时间:2025-05-20 22:05:44 来源:锐评时讯 作者:生活 阅读:279次

#从第⼀进程到第四进程是完结DeepSeek本地布置和使⽤,能够满⾜中⼩企业环境的安稳 使⽤,第五进程为依据AnythingLLM和本地数据进⾏练习(依据本地数据建立本地常识 库): ⼀:京东云。GPU。云主机环境预备 ⼆:布置Ollama 三:运⾏DeepSeek模型 四:图形客户端使⽤ #第五进程能够不执⾏ 五:本地数据投喂。

⼀:京东云GPU云主机环境预备:

DeepSeek的不同版别模型对主机硬件(首要是。CPU。、内存和GPU)的要求不⼀样,引荐。使⽤具有独自GPU的主机进⾏布置以取得更好的使⽤体会,显卡引荐使⽤如NVIDIA RTX 3090或平等以上。标准。的显卡,CPU需求⽀持AVX2、AVX-512等指令集能够进⼀步提⾼呼应功用, 如已有契合事务需求的主机环境能够越过当时的主机环境预备进程。

1.1: 京东云创立GPU云主机:

依据实践事务需求挑选云主机计费形式、地域、可⽤区、CPU架构、体系镜像及体系版别, 企业环境关于安稳性要求⽐较⾼一般使⽤。Linux。体系运⾏事务体系, 本进程以Ubuntu 22.04 LTS体系版别为例(Rocky Linux及RHEL的操作进程⼀致)、GPU为vidia。 Te。sla P40, 演示依据Ollama布置DeepSeek-R1 :。

挑选GPU实例标准类型,可选主动装置GPU驱动、或云主机运转成功后独自装置GPU驱动(本文档为独自装置GPU驱动)。

自定义云盘类型及巨细、然后下一步。

自定义云主机。网络。、安全组、弹性公网IP, 安全组需求答应客户端拜访11434。端口。, 然后下一步。

​。

自定义主机暗码、主机称号等。信息。, 然后点击当即购买。

勾选已阅览并赞同并承认注册。

创立完结:

然后在云主机控制台验证主机运转成功。

1.2:装置GPU显卡驱动:

使⽤SSH⼯具长途衔接到实例, 装置显卡驱动(以下为在Ubuntu 2204的显卡驱动装置进程)。

rootdeepseek-vm:~# apt updaterootdeepseek-vm:~# ubuntu-drive。rs。devices== /sys/devices/pci0000:00/0000:00:0a.0 ==modalias : pci:v000010DEd00001B38sv000010D。Esd。000011D9bc03sc02i00vend。or。: NVIDIA Corpora。ti。onmodel    : GP102GL [Tesla P40]driver   : nvidia-driver-470-server - distro non-freedriver   : nvidia-driver-450-server - distro non-freedriver   : nvidia-driver-550 - distro non-free。 recom。mendeddriver   : nvidia-driver-535-server - distro non-freedriver   : nvidia-driver-418-server - distro non-freedriver   : nvidia-driver-545 - distro non-freedriver   : nvidia-driver-470 - distro non-freedriver   : nvidia-driver-535 - distro non-freedriver   : nvidia-driver-390 - distro non-freedriver   : xserver-xorg-video-nouveau - distro free builtinrootdeepseek-vm:~# apt install nvidia-driver-550 -y #通过ubuntu库房装置引荐的驱动版别或运用其它方法装置显卡驱动rootdeepseek-vm:~# reboot  #重启服务器以使显卡驱动收效rootdeepseek-vm:~# nvidia-smi #重启后验证驱动及显卡状况(当时演示主机为两块NVIDIA Tesla P40显卡)Thu Feb  6 16:45:28 2025       +-----------------------------------------------------------------------------------------+| NVIDIA-SMI 550.120                Driver Version: 550.120        CUDA Version: 12.4     ||-----------------------------------------+------------------------+----------------------+| GPU  Name                 Persistence-M | Bus-Id          Disp.A | Volatile Uncorr. ECC || Fan  Temp   Pe。rf。Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. ||                                         |                        |               MIG M. ||=========================================+========================+======================||   0  Tesla P40                      Off |   00000000:00:09.0 Off |                    0 || N/A   24C    P8              9W /  250W |       0MiB /  23040MiB |      0%      Default ||                                         |                        |                  N/A |+-----------------------------------------+------------------------+----------------------+|   1  Tesla P40                      Off |   00000000:00:0A.0 Off |                    0 || N/A   23C    P8              9W /  250W |       0MiB /  23040MiB |      0%      Default ||                                         |                        |                  N/A |+-----------------------------------------+------------------------+----------------------+                                                                                         +-----------------------------------------------------------------------------------------+| Processes:                                                                              ||  GPU   GI   CI。        PI。D   Type   Process name                              GPU Memory ||        ID   ID                                                               Usage      ||=========================================================================================||  No running processes found                                                             |+-----------------------------------------------------------------------------------------+。

二:布置Ollama:

Ollama是一个开源的 LLM(large language model、大型言语模型)服务东西, 用于简化和下降在本地的布置和运用门槛, 能够快速在本地环境布置和办理LLM运转环境,。

官方地址:Ollama。

下载。地址:Downlo。ad。Ollama on macOS。

ollama官方在linux 体系的装置是依据脚本从github下载装置包进行装置(https://ollama.com/install.sh、受网络环境要素装置进程不安稳),能够运用二进制装置包直接装置越过在线下载进程。

2.1:下载⼆进制装置包:

Ollama能够运⾏在Windows、Linux以及MacOS, 官⽅均供给对应的装置⽂件, ⽣产 环境对安稳性要求⽐较⾼因而会一般使⽤Linux体系, 本⽂的以Ubuntu 2204作为演 示环境:

https://myserver.s3.cn-north-1.j。dc。loud-oss.com/ollama-linux。amd。64. tgz #ollama v0.5.7版别、现已上传到京东云OSS作为暂时下载地址 https://github.com/ollama/ollama/releases #github下载地址。

​修改。

rootdeepseek-vm:~# cd /usr/local/src/ rootdeepseek-vm:/usr/local/sr。c#。wget https://myserver.s3.cnnorth- 1.jdcloud-oss.com/ollama-linux-amd64.tgz。

2.2: 布置ollama:

ollama/docs/linux.md at main · ollama/ollama · GitHub。

rootdeepseek-vm:/usr/local/src# tar -C /usr -xzf ollama-linux-amd64.tgz #解压装置文件rootdeepseek-vm:/usr/local/src# ollama serve 测验发动 OllamaCouldn't find '/root/.ollama/id_ed25519'. Generating new private key.Your new publ。ic。key is: ssh-ed25519 AAAA.....2025/02/06 17:08:47 routes.go:1187: INFO server config env="map[CUDA_VISIBLE_DEVICES: GPU_DEVICE_ORDINAL: HIP_VISIBLE_DEVICES: HSA_OVERRIDE_GFX_VERSION: HTTPS_PROXY: HTTP_PROXY: NO_PROXY: OLLAMA_DEBUG:false OLLAMA_FLASH_ATTENTION:false OLLAMA_GPU_OVERHEAD:0 OLLAMA_HOST:http://127.0.0.1:11434 OLLAMA_。INTEL。_GPU:false OLLAMA_KEEP_ALIVE:5m0s OLLAMA_KV_CACHE_TYPE: OLLAMA_LLM_LIBRARY: OLLAMA_LOAD_TIMEOUT:5m0s OLLAMA_MAX_LOADED_MODELS:0 OLLAMA_MAX_QUEUE:512 OLLAMA_MODELS:/root/.ollama/models OLLAMA_MULTIUSER_CACHE:false OLLAMA_NOHISTORY:false OLLAMA_NOPRUNE:false OLLAMA_NUM_PARALLEL:0 OLLAMA_ORIGINS:[http://localhost https://localhost http://localhost:* https://localhost:* http://127.0.0.1 https://127.0.0.1 http://127.0.0.1:* https://127.0.0.1:* http://0.0.0.0 https://0.0.0.0 http://0.0.0.0:* https://0.0.0.0:* app://* file://* tauri://* vscode-webview://*] OLLAMA_SCHED_SPREAD:false ROCR_VISIBLE_DEVICES: http_proxy: https_proxy: no_proxy:]"time=2025-02-06T17:08:47.465+08:00 level=INFO source=images.go:432 msg="total blobs: 0"time=2025-02-06T17:08:47.465+08:00 level=INFO source=images.go:439 msg="total unused blobs removed: 0"[GIN-debug] [WARNING] Creating an Engine instance with the Logger and Recovery middleware already att。ac。hed.[GIN-debug] [WARNING] Running in "debug" mode. Switch to "release" mode in production. - using env:   export GIN_MODE=release - using code:  gin.SetMode(gin.ReleaseMode)[GIN-debug] POST   /api/pull                 -->github.com/ollama/ollama/server.(*Server).PullHandler-fm (5 handlers)[GIN-debug] POST   /api/generate             -->github.com/ollama/ollama/server.(*Server).GenerateHandler-fm (5 handlers)[GIN-debug] POST   /api/chat                 -->github.com/ollama/ollama/server.(*Server).ChatHandler-fm (5 handlers)[GIN-debug] POST   /api/embed                -->github.com/ollama/ollama/server.(*Server).EmbedHandler-fm (5 handlers)[GIN-debug] POST   /api/embeddings           -->github.com/ollama/ollama/server.(*Server).EmbeddingsHandler-fm (5 handlers)[GIN-debug] POST   /api/create               -->github.com/ollama/ollama/server.(*Server).CreateHandler-fm (5 handlers)[GIN-debug] POST   /api/push                 -->github.com/ollama/ollama/server.(*Server).PushHandler-fm (5 handlers)[GIN-debug] POST   /api/copy                 -->github.com/ollama/ollama/server.(*Server).CopyHandler-fm (5 handlers)[GIN-debug] DELETE /api/delete               -->github.com/ollama/ollama/server.(*Server).DeleteHandler-fm (5 handlers)[GIN-debug] POST   /api/show                 -->github.com/ollama/ollama/server.(*Server).ShowHandler-fm (5 handlers)[GIN-debug] POST   /api/blobs/:digest        -->github.com/ollama/ollama/server.(*Server).CreateBlobHandler-fm (5 handlers)[GIN-debug] HEAD   /api/blobs/:digest        -->github.com/ollama/ollama/server.(*Server).HeadBlobHandler-fm (5 handlers)[GIN-debug] GET    /api/ps                   -->github.com/ollama/ollama/server.(*Server).PsHandler-fm (5 handlers)[GIN-debug] POST   /v1/chat/completions      -->github.com/ollama/ollama/server.(*Server).ChatHandler-fm (6 handlers)[GIN-debug] POST   /v1/completions           -->github.com/ollama/ollama/server.(*Server).GenerateHandler-fm (6 handlers)[GIN-debug] POST   /v1/embeddings            -->github.com/ollama/ollama/server.(*Server).EmbedHandler-fm (6 handlers)[GIN-debug] GET    /v1/models                -->github.com/ollama/ollama/server.(*Server).ListHandler-fm (6 handlers)[GIN-debug] GET    /v1/models/:model         -->github.com/ollama/ollama/server.(*Server).ShowHandler-fm (6 handlers)[GIN-debug] GET    /                         -->github.com/ollama/ollama/server.(*Server).GenerateRoutes.func1 (5 handlers)[GIN-debug] GET    /api/tags                 -->github.com/ollama/ollama/server.(*Server).ListHandler-fm (5 handlers)[GIN-debug] GET    /api/version              -->github.com/ollama/ollama/server.(*Server).GenerateRoutes.func2 (5 handlers)[GIN-debug] HEAD   /                         -->github.com/ollama/ollama/server.(*Server).GenerateRoutes.func1 (5 handlers)[GIN-debug] HEAD   /api/tags                 -->github.com/ollama/ollama/server.(*Server).ListHandler-fm (5 handlers)[GIN-debug] HEAD   /api/version              -->github.com/ollama/ollama/server.(*Server).GenerateRoutes.func2 (5 handlers)time=2025-02-06T17:08:47.466+08:00 level=INFO source=routes.go:1238 msg="Listening on 127.0.0.1:11434 (version 0.5.7)"time=2025-02-06T17:08:47.466+08:00 level=INFO source=routes.go:1267 msg="Dynamic LLM libraries" runners="[cpu cpu_avx cpu_avx2 cuda_v11_avx cuda_v12_avx rocm_avx]"time=2025-02-06T17:08:47.466+08:00 level=INFO source=gpu.go:226 msg="looking for compatible GPUs"time=2025-02-06T17:08:48.193+08:00 level=INFO source=types.go:131 msg="inference compute" id=GPU-a9100a2b-3c31-b1b4-0891-c11584b5a57f library=cuda variant=v12 compute=6.1 driver=12.4 name="Tesla P40" total="22.4 GiB" av。ai。lable="22.2 GiB"time=2025-02-06T17:08:48.193+08:00 level=INFO source=types.go:131 msg="inference compute" id=GPU-d652ebd4-0571-78b9-bf01-9a8d1da592e5 library=cuda variant=v12 compute=6.1 driver=12.4 name="Tesla P40" total="22.4 GiB" available="22.2 GiB"。

2.3:验证Ollama是否正在运转:

新建别的⼀个终端、验证Ollama是否正在运⾏: rootdeepseek-vm:~# ollama -v ollama version is 0.5.7。

2.4:增加 Ollama 作为发动服务:

新建账户和组、称号都叫ollama, 以一般账户的身份运⾏Ollama服务、并指定监听在 0.0.0.0:11434,以⽅便外部客户端拜访。

rootdeepseek-vm:~# useradd -r -s /bin/false -U -m -d /usr/share/ollama ollamarootdeepseek-vm:~# usermod -a -G ollama root创立/etc/systemd/system/ollama.service 发动文件:rootdeepseek-vm:~# vim /etc/systemd/system/ollama.service[Unit]Description=Ollama ServiceAfter=network-online.target[Service]ExecStart=/usr/bin/ollama serveEnvironment="OLLAMA_HOST=0.0.0.0:11434"User=ollamaGroup=ollamaRestart=alwaysRestartSec=3Environment="PATH=$PATH"[Install]WantedBy=default.target#Ctrl+C退出2.3进程运转的ollama服务、并通过service文件发动服务:rootdeepseek-vm:~# systemctl daemon-reloadrootdeepseek-vm:~# systemctl enable ollamaCreated symlink /etc/systemd/system/default.target.wants/ollama.service → /etc/systemd/system/ollama.service.rootdeepseek-vm:~# systemctl  start ollama.service #发动ollama服务rootdeepseek-vm:~# systemctl  status ollama.service #承认ollama服务处于运转状况● ollama.service - Ollama Service     Loaded: loaded (/etc/systemd/system/ollama.service; enabled; vendor preset: enabled)     Active: active (running) since Thu 2025-02-06 17:13:32 CST; 12min ago   Main PID: 6871 (ollama)      Tasks: 20 (limit: 132577)     Memory: 980.6M        CPU: 8.662s     CGroup: /system.slice/ollama.service             └─6871 /usr/bin/ollama serve             Feb 06 17:20:05 deepseek-vm ollama[6871]: time=2025-02-06T17:20:05.644+08:00 level=INFO sou>Feb 06 17:23:01 deepseek-vm ollama[6871]: time=2025-02-06T17:23:01.005+08:00 level=INFO sou>Feb 06 17:24:56 deepseek-vm ollama[6871]: time=2025-02-06T17:24:56.005+08:00 level=INFO sou>Feb 06 17:25:16 deepseek-vm ollama[6871]: time=2025-02-06T17:25:16.005+08:00 level=INFO sou>Feb 06 17:25:24 deepseek-vm ollama[6871]: time=2025-02-06T17:25:24.006+08:00 level=INFO sou。

检查日志并承认无报错:

rootdeepseek-vm:~# journalctl -e -u ollama。

验证ollama服务进程和端⼝, 11434为ollama的默许监听端⼝: rootdeepseek-vm:~# netstat -tanlp。

​。

三:运转DeepSeek模型:

https://ollama.com/search #ollama能够布置不同类型的模型和版别。

DeepSeek-R1在许多方面都现已到达或逾越OpenAI-o1, 详细的模型版别能够依据实践事务需求进行装置, 本次为装置deepseek-r1:8b进行演示:。

3.1:运转deepseek-r1:8b:

https://ollama.com/library/deepseek-r1 #官⽅⽂档。

deepseek-r1:1.5b #需求在线下载1.1GB的数据,依据网络环境和服务端负载、大约需求下载几分钟或更长时刻 deepseek-r1:8b #需求在线下载4.9BG的数据,依据网络环境和服务端负载、大约需求下载几十分钟或更长时刻 rootdeepseek-vm:~# ollama run deepseek-r1:1.5b #运转deepseek-r1:1.5b rootdeepseek-vm:~# ollama run deepseek-r1:8b #运转deepseek-r1:8b,本操作只用于阐明不同版别的装置方法、能够不履行 依据模型的巨细和网络环境,需求必定的下载时刻,下载进程中假如网络中止或撤销, 再次履行支撑断点续传。

deepseek-r1:1.5b下载中:

deepseek-r1:8b下载中:

​下载完结后会直接进入命令行交互式窗口,能够通过命令行窗口进行会话。

3.2:对话验证:

3.2.1:发问一:

请仔细答复一下, 究竟有没有外星人?

3.2.2:发问二:

介绍一下kubernetes的优缺点。

四:图形客户端运用:

能够运用不同的图形客户端衔接DeepSeek进行交互式运用,如Chatbox、LobeChat等, 本进程以Chatbox为例。

4.1:Windows环境Chatbox图形客户端:

Chatbox是一个通用的图形客户端,支撑在MacOS、Windows、Linux、。安卓手机。、苹果。手机。等体系环境装置和运用, 只需求装置在需求拜访DeepSeek的主机、并装备衔接DeepSeek衔接地址及模型版别即可, 乃至还能够直接发动网页版, 本进程演示如安在windows体系装置和运用Chatbox, 本进程介绍假如在Windows体系装置Chatbox及装备和运用进程。

https://chatboxai.app/zh#download #官方下载URL https://chatboxai.app/zh/help-center/connect-chatbox-remote-ollama-service-guide #装置文档 https://github.com/Bin-Huang/chatbox/releases #装置文件下载地址。

4.1.1:下载装置文件:

点击免费下载:

下载进程中:

下载完结:

4.1.2:装置Chatbox:

在下载目录双击装置文件履行装置:

可挑选为当时用户仍是一切用户装置、然后点击下一步:

​。

可选装置途径、然后单机装置:

装置进程中:

装置完结, 点击完结并运转Chatbox:

4.1.3:装备Chatbox:

初次翻开要装备一下运用的模型, 挑选运用自己的API Key或模型:

挑选运用Ollama API:

详细装备:

上下文音讯数(保存的前史会话数量)能够不约束、然后点击保存:

4.1.4:对话测验:

Chatbox能够通过DeepSeek进行成功对话。

4.1.4.1:发问一:

请仔细答复一下, 究竟有没有外星人?

4.1.4.2:发问二:

介绍一下kubernetes项目,包含几个首要的组件和功用?

4.1.4.3:发问三:

一个笼子里边有三只兔子和两只鸭,后来逃走了一只兔子,请答复以下两个问题:

1.在兔子逃走之前,笼子里总共有几条腿?

2.在一只兔子逃走之后,笼子里总共还有几条腿?

​。

4.1.5:假如要切换模型版别:

假如在同一个DeepSeek服务器布置了不同版别的模型,能够在Chatbox右下角进行不同版别的切换。

4.2:MacOS环境Chatbox图形客户端:

本进程介绍假如在MacOS体系装置Chatbox及装备和运用进程。

4.2.1:下载装置文件:

苹果体系(Intel CPU)下载的Chatbox.CE-0.10.4-mac.zip,假如是windows体系则是下载Chatbox.CE-0.10.4-Setup.exe。

4.2.2:装置Chatbox:

苹果体系下载后解压, 会有个Chatbox CE程序:

​。

能够拷贝到应用程序里边便利后期运用:

然后双击翻开,初次翻开需求信赖:

进入体系菜单,设置-->隐私与安全性-->仍要翻开:

承认仍要翻开:

输入。认证。(暗码或指纹认证)信息承认:

4.2.3:装备Chatbox:

初次运用需求装备Chatbox衔接deepseek模型, 点击左边菜单Settings:

Chatbox装备信息如下:

4.2.4:对话测验:

可选新建一个对话:

对话验证:

五:本地数据投喂:

依据AnythingLLM+DeepSeek进行数据投喂练习, 用于建立本地离线常识库等场景, 本进程是测验建立本地常识库,非有必要不需求履行。

https://anythingllm.com/。

https://github.com/Mintplex-Labs/anything-llm。

5.1:下载并装置AnythingLLM:

5.2:AnythingLLM根底装备:

初始化AnythingLLM对接DeepSeek的装备。

5.2.1:LLMPreference:

5.2.2:作业区对话设置:

将谈天形式从谈天改为查询, 将会依据本地上传和辨认后的数据进行呼应。

更新保存装备:

5.2.3:装备embedder首选项为ollama:

5.2.4:署理装备:

5.2.5:作业区上传测验练习文档:

上传本地文档之前无法答复问题,因而要上传本地文档进行练习(支撑PDF、Txt、Word、Excel、PPT等常见文档格局):

本地文档上传中:

本地文档上传完结:

挑选指定的文档并移动到作业区:

​。

保存并导入:

导入并辨认中:

辨认完结:

封闭窗口:

返回到对话窗口:

5.3:对话验证:

DeepSeek能够依据本地的常识内容进行匹配和答复。

5.3.1:依据本地文档答复成功的:

5.3.2:本地没有的内容发问及对话:

通过屡次发问、DeepSeek会尽或许运用本地文档内容进行回复。


审阅修改 黄宇。

内容来源:https://postapi.nlsngoisaoviet.com/app/app-1/tỷ lệ wap,http://chatbotjud-teste.saude.mg.gov.br/app-1/jogo-de-cartas-paciencia

(责任编辑:人文)

    系统发生错误

    系统发生错误

    您可以选择 [ 重试 ] [ 返回 ] 或者 [ 回到首页 ]

    [ 错误信息 ]

    页面发生异常错误,系统设置开启调试模式后,刷新本页查看具体错误!