会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 从DeepSeek到Qwen,AI大模型的移植与交互实战攻略!

从DeepSeek到Qwen,AI大模型的移植与交互实战攻略

时间:2025-05-23 18:55:06 来源:锐评时讯 作者:男性 阅读:833次

在不久前发布的。《。技能实战 | OK3588-C开发板上布置DeepSeek-R1大模型的完好攻略。》。一文中,小编为咱们介绍了DeepSeek-R1在。飞凌嵌入式。OK3588-C开发板上的移植布置、作用展现以及功用评测,本篇文章不只将持续为咱们带来关于DeepSeek-R1的干货常识,还会深入探讨多种途径的移植办法,并介绍更为丰厚的交互办法,协助咱们更好地运用大言语模型。

1、移植进程。

1.1 运用RKLLM-Toolkit布置至NPU。

RKLLM-Toolkit是。瑞芯微。为大言语模型(LLM)专门开发的转化与量化东西,能够将训练好的模型转化为习惯瑞芯微途径的RKLLM格局。该东西针对大言语模型进行了优化,使其能高效地在瑞芯微的NPU(。神经网络。处理单元)上运转。上一篇文章中说到的布置办法即为经过RKLLM-Toolkit进行的NPU布置。具体过程如下:

(1) 下载RKLLMSDK:

首先从GitHub下载RKLLM。SD。K包,并上传至虚拟机。SDK下载链接:

[GitHub-。 ai。rockchip。/rknn-llm](https://github.com/airrockchip/rknn-llm)。

(2)。 Python。版别检查:

保证装置的SDK版别与方针环境兼容(现在只支撑。python3。.8或python3.10)。

(3) 预备虚拟机环境:

在虚拟机中装置rkllm-toolkit轮子,轮子包途径(rknn-llm-main\rkllm-toolkit)。

pi。pinstall rkllm_toolkit-1.1.4-cp38-cp38-。linux。_x86_64.whl。

(4) 下载模型:

挑选需求布置的DeepSeek-R1模型。

gitclonehttps://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B。

(5) 运用示例代码进行模型转化:

在rknn-llm-main\examples\DeepSeek-R1-Distill-Qwen-1.5B_Demo途径下,运用RKLLM-Toolkit供给的示例代码进行模型格局转化。

pythongenera。te。_data_quant.py -m /path/to/DeepSeek-R1-Distill-Qwen-1.5B。

pythonexport_rkllm.py。

(6) 编译可履行程序:

经过运转deploy下build-linux.sh脚本(将穿插编译器途径替换为实践途径)直接编译示例代码。这将在目录中生成一个文件夹,其间包括可履行文件和文件夹。

进行穿插编译生成可履行文件。

./build-linux.sh。

(7) 布置模型:

将已编译好的_W8A8_RK3588.rkllm文件和librkllmrt.so动态库文件(途径为:rknn-llm-main\rkllm-run。ti。me\Linux\librkllm_api\aarch64 ),一起拷贝到编译后生成的build_linux_aarch64_Release文件夹内,然后将此文件夹上传到方针板端。

接着,为方针板端build_linux_aarch64_Release文件夹中的 llm_demo 文件增加履行权限并履行它。

chmod+x llm_demo。

./llm_demo_W8A8_RK3588.rkllm 10000 10000。

演示作用图1。

优势与缺乏:

- 优势:布置至NPU后,大言语模型能高效运转,功用体现优异,且对。CPU。资源的占用较少。

- 缺乏:相较于其他办法,布置进程稍显杂乱,需求较强的技能布景和经历。

1.2 运用Ollama一键布置至CPU。

Ollama是一个开源的本地化大型言语模型(LLM)运转结构,支撑在本地环境下运转各种开源LLM模型(如LLaMA、Falcon等),并供给跨途径支撑(macOS、Windows、Linux)。

经过Ollama,用户能够无需依靠云服务,轻松布置和运转各种大言语模型。虽然Ollama支撑快速布置,但由于DeepSeek-R1尚未在RK3588芯片上进行优化,因而只能在CPU上运转,或许会占用较高的CPU资源。具体过程如下:

(1) 下载Ollama:

根据需求下载并装置Ollama,

curl-fsSL https://ollama.com/install.sh | sh。

若下载速度较慢,可参阅以下镜像办法进行加快。

curl-fsSL https://ollama.com/install.sh -o ollama_install.sh。

chmod+x ollama_install.sh。

sed-i 's|https://ollama.com/downlo。ad。/|https://github.com/ollama/。

ollama/releases/download/v0.5.7/|'ollama_install.sh。

shollama_install.sh。

(2) 检查Ollama成果:

承认Ollama正确装置,并运转相关指令检查布置成果。

Ollama--help。

(3) 下载DeepSeek-R1:

从Ollama官网途径获取下载DeepSeek-R1模型的指令。

(4) 运转DeepSeek-R1:

经过Ollama指令行。接口。发动DeepSeek-R1模型。

ollamarun deepseek-r1:1.5b。
演示作用图2。

优势与缺乏:

- 优势:布置进程简洁方便,合适快速测验和运用。

- 缺乏:因模型未针对RK3588优化,在CPU上运转时或许导致较高的CPU占用,影响功用。

2、在FCU3001途径上布置其他大模型。

除了DeepSeek-R1,Ollama还支撑布置其他大言语模型,如通义千问(Qwen)等,这展现了Ollama的广泛适用性。接下来,咱们以通义千问为例,在飞凌嵌入式推出的一款搭载。英伟达。处理器。的AI边际核算终端 FCU3001(根据NVIDIA Jetson Xavier NX处理器)上布置大言语模型:

FCU3001经过其强壮的核算才能和优化的软件支撑,能够高效地运转Ollama所支撑的大言语模型,如通义千问。在布置进程中,咱们能够充分利用Ollama供给的灵活性和易用性,保证大言语模型在FCU3001上安稳、流通地运转。过程如下:

(1) 装置CUDA环境:

能够运用NVIDIA Jetson Xavier NX的。GPU。来运转模型。Ollama的装置办法能够参阅上述。

sudoapt update。

sudoapt upgrade。

sudoapt installnvidia-jetpack -y。

(2) 进入Ollama官网:

阅读Ollama支撑的其他模型。

(3) 挑选版别:

从Ollama支撑的模型列表中挑选千问Qwen1.8B版别。

(4) 运转模型:

在Ollama环境下,运用指令ollamarun qwen:1.8b发动通义千问模型。

ollamarunqwen:1.8b。
演示作用图3。

3、交互办法。

在前述的布置办法中,交互办法首要根据串口调试,短少图形界面,无法展现图片、表单等元素,也不能出现前史对话。为了提高用户体会,咱们能够经过集成ChatboxUI或WebUI等办法,供给更为丰厚的交互体会。

3.1 Chatbox UI。

Chatbox是一款集成多种言语模型的AI帮手东西,支撑如ChatGPT、Claude等多种模型。它不只具有本地数据存储和多言语切换功用,还支撑图画生成、Markdown和LaTeX等格局,供给人性化的界面和团队协作功用。Chatbox支撑Windows、macOS、Linux体系,用户可在本地快速完成对大言语模型的交互。过程如下:

(1) 下载Chatbox:

从Chatbox官网(https://chatboxai.app/zh)下载合适的装置包。

(2) 装置并装备:

下载完成后是一个Chatbox-1.10.4-。arm。64.AppImage的文件,其实便是一个可履行文件,增加权限即可运转,就能够装备本地ollamaAPI下的LLM模型了。

chmod+x Chatbox-1.10.4-arm64.AppImage。

./Chatbox-1.10.4-arm64.AppImage。

(3)。 问答。对话:

用户能够经过直观的图形界面与模型进行沟通,体会更为快捷、流通的交互。

演示作用图4。

3.2 Web UI。

WebUI经过网页或网络运用供给图形化用户界面,使得用户能够轻松经过阅读器与大言语模型进行交互。用户只需在阅读器中拜访相应的IP地址和。端口。号,即可进行实时发问。过程如下:

(1) Web UI环境建立:

装备WebUI所需的环境。WebUI主张运用python3.11版别。所以运用的Miniconda创立python==3.11虚拟环境。

装置Miniconda。

wgethttps://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-aarch64.sh。

chmod+x Miniconda3-latest-Linux-aarch64.sh。

./Miniconda3-lates。

建立WebUI环境。

con。dac。reate --name Web-Ui python=3.11。

conda。ac。tivate Web-Ui。

pipinstall open-webui -i https://pypi.tuna.tsinghua.edu.cn/。sim。ple。


(2) 发动WebUI:

运用open-webuiserve发动WebUI运用,服务器的IP地址和端口号为0.0.0.0:8080。

open-webuiserve。

(3) 拜访WebUI:

在阅读器中输入IP地址和端口号,翻开WebUI界面,开端与大言语模型互动。

注册账号。

演示作用图5。

4、总结。

本文全面展现了OK3588-C开发板及FCU3001边际AI网关上大言语模型的多种移植办法,并介绍了怎么经过ChatboxUI和WebUI等多种交互办法提高用户体会。

飞凌。嵌入式。推出了多款嵌入式AI产品,如OK3588-C、OK3576-C、OK-MX9352-C、OK536-C等开发板,还有AI边际核算终端FCU3001,算力规模从0.5TOPS到21TOPS不等,能够满意不同客户的AI开发需求。假如您对这些产品感兴趣,欢迎随时与咱们联络,飞凌嵌入式将为您供给具体的技能支撑与辅导。

内容来源:https://hoangkimngan.com/app-1/xổ số 4 8,http://chatbotjud.saude.mg.gov.br/app-1/leao.-bet

(责任编辑:咨询)

    系统发生错误

    系统发生错误

    您可以选择 [ 重试 ] [ 返回 ] 或者 [ 回到首页 ]

    [ 错误信息 ]

    页面发生异常错误,系统设置开启调试模式后,刷新本页查看具体错误!