🔥南宫·NG28(China)官方网站-登录入口

新闻动态

开云体育(中国)官方网站需要先下载 Docker 桌面端-🔥南宫·NG28(China)官方网站-登录入口

发布日期:2025-07-31 08:34    点击次数:179

开云体育(中国)官方网站需要先下载 Docker 桌面端-🔥南宫·NG28(China)官方网站-登录入口

腹地部署照旧硬核玩家的玩法。

这个春节假期,要说"红得发紫"的科技居品,DeepSeek 应该当之无愧。

致使平时对科技新闻满不在乎的长者们,也走过来问小雷有莫得传奇过 DeepSeek。在我的印象中,上一次 AI 大模子如斯深入东说念主心的,照旧 OpenAI 的 ChatGPT。

大富大贵的背后,是 DeepSeek 遭遇连气儿且高强度的蚁集过错,大部分时候官网都没见地平时生成内容,即便关闭联网搜索,具备深度推理才能的 DeepSeek-R1 在线模子照旧无法平时使用。好在,在华为等广阔科技公司的撑握下,第三方平台纷繁接入 DeepSeek 的 API,让踏确实线使用成为了可能。

不外这些渠说念履行上照旧线上窥伺,春节技术休息的小雷,还想玩一把更大的,比如把 DeepSeek 大模子部署到腹地。

于是,在春节技术,小雷动起手来实践了一下。

下载慢还得敲代码,打造" AI 电脑"高低易

事实上,不管是不是 DeepSeek,想要在我方电脑部署一个腹地大模子,实施的措施并未几,难点在于寻找到对应的资源和大叫。但需要提防的少许是,腹地大模子虽说是一经老师好的制品,但也需要有一定的硬件基础,体验才算得上好。

(图片来自 Ollama)

最初,咱们不错到 Ollama 官网下载一个桌面端应用,这个应用十分于一个承载腹地大模子的"盒子",除了 DeepSeek 以外,你不错在 Ollama 官网的模子库中找到许多开源大模子。

Ollama 桌面端并不提供任何抵制界面,想要将大模子下载到腹地,需要在 Ollama 官网的模子库当中找到对应模子的代码,复制到 PowerShell(Win+R 输入 PowerShell 回车通达)当中,就不错实施模子数据的拉取和装配。

(图片来自雷科技)

小雷选的是 DeepSeek-R1 模子当中的 7b 版块,也即是带有 70 亿参数的 DeepSeek-R1 模子,占用 4.7GB。腹地大模子参数目越大当然是越好,不错提供更精确的话语深刻和更高质料的文本生成才能,具备更强的逻辑推理和学习才能,同期常识储备和泛化才能。但腹地大模子依赖电脑遐想才能,每个东说念主对大模子的需求不同,不应该"硬来"。

一般来说,运行 1.5B 参数的模子最低需要 4GB 显存的 GPU 以及 16GB 的内存,要是够不上条款,则会强诳骗用 CPU 进行遐想,硬件包袱更大,且推理的时分会更长。而满血版的 DeepSeek-R1 参数目为 671b,体积达到 404GB,需要更高规格的遐想硬件才能包袱得起,关于个东说念主部署需求,小雷提议 1.5b-8b 参数最为相宜。

(图片来自雷科技)

模子数据拉取竣事,系统则会自动实施装配,完成之后就不错平直在 PowerShell 窗口当中平直调取刚下载的 DeepSeek-R1 模子,输入框填写问题发送,腹地大模子就会推理并生成。

到这里,DeepSeek-R1 腹地大模子的部署就完成了,表面上各人也不错凭证这样的措施去部署其它大模子上电脑。

但每次开启电脑都要通达 PowerShell 界面才能激活大模子,关于世俗用户而言并不便捷,这个时候咱们需要给 DeepSeek-R1 装配一套更直不雅的交互界面。小雷选拔了在 Docker 应用(图标是一个蓝色海豚)上添加一个 Open-WebUI 组件,让 DeepSeek-R1 不错通过浏览器界面交互,并赋予它接洽高下文的才能。

具体来看,需要先下载 Docker 桌面端,按照默许的陶冶完成装配之后(可跳过账号注册等措施),再次通达 PowerShell 界面复制并实施以下这条教唆,小雷帮各人省下去 Github 查找的时分了:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

要是是使用 NVIDIA GPU 的小伙伴,则需要使用以下这条教唆:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

拉取大模子文献和 Open WebUI 组件需要一个比较漫长的流程,尤其是蚁集不太梦想(或者莫得科学上网)的环境,下载器会不断重试 / 切换清澈,出现下载进程丢失的问题。

装配完成之后,Docker 应用中就会出现一个 Open-WebUI 的联系组件,把它勾选启动,再点击" 3000:8080 "字样的说合,系统就会跳转到网页。

(图片来自雷科技)

这个时候,你就赢得了一台带有 AI 腹地大模子的真实的" AI 电脑"了。

小雷体验了整个部署流程,措施并不算复杂,系统的数据拉取和装配都是自动化的,主要照旧在搜索大叫行和装配资源,以及拉取和装配组件时花了比较多的时分,Ollama 和 Docker 都不错通过百度搜索到,小雷也在上头提供了对应的跳转说合,出手才能且有兴味的诸君不错尝试尝试。

虽然了,腹地部署大模子的措施并不单好这一个,像华为刚推出的 ModelEngine 等,具备一站式老师优化和一键部署的才能,应该是面向企业端的开发用具。

离线使用是善事,但生成才能不如云霄版

国内的 AI 大模子应用选拔许多,而况网页端工作很皆全,那么腹地部署的意旨在那处?

前边铺垫了这样多责任准备腹地大模子,要道有两点:第一,腹地大模子的统共模子数据和对话记载都是统统离线,存储在腹地,腹地推理反当令分更快,也幸免了明锐内容深刻。同期在飞机等无网环境之下,也不错平时使用大模子;第二,腹地部署撑握各式开源模子,个东说念主用户不错活泼扩展和切换,也不错凭证自身需求进行优化和用具集成,总之操作空间会比线上大模子更多。

不外小雷部署的时分还不长,许多功能还没摸明晰,此次就简便参议一下腹地大模子的体验若何。

小雷装配 DeepSeek-R1 7b 模子的电脑是机械翻新无界 14X,浮薄本定位,运行内存为 24GB,并莫得配备稀薄显卡这种硬件,不在腹地部署大模子的推选设立范围内,算是一个"反面讲义"。换句话说,DeepSeek-R1 7b 模子在这款电脑上,需要更多的推理时分和资源占用才能够平时生成内容。

(图片来自雷科技)

像"饭后胀气"等问题的参议和谜底,大模子需要想考 30 秒 -1 分钟才到谜底生成阶段,技术电脑的负载会达到岑岭,CPU 和内存险些被占满,不错联想莫得稀薄显卡的电脑带动腹地大模子会比较吃力,小雷以为给出的谜底确实有一定的正向参考的作用。

(图片来自雷科技)

比较于谜底,小雷更感兴味的照旧 DeepSeek 拟东说念主化的想考流程,很少有 AI 助手把想考的流程作念到如斯拟东说念主化,不管生成的谜底是否准确,它的拟东说念主化推理流程似乎也能激起许多世俗用户的兴味。

要是把雷同的问题放在网页端的 DeepSeek 大模子,并启用 R1 深度想考,平直生成了一个"工作器深重"的回馈,密集的窥伺确实给 DeepSeek 变成了不少困扰,这个时候想要平时地和它交谈,腹地部署才能不一定很强,至少能够窥伺得到。

(图片来自 DeepSeek)

再换一个问题,小雷用了整个经典的概率题目向腹地 DeepSeek-R1 7b 发起发问。网页端 DeepSeek-R1 握续深重中,腹地 DeepSeek 可能也有一些昆仲无措,列举了多种情况后又自行驳回,临了还混入了之前发问的"饭后胀气"的内容,画面显得十分滑稽。

(图片来自雷科技)

腹地 DeepSeek 在连气儿输出十多分钟后也莫得提供谜底,讨论到时分有限,小雷照旧住手了生成。

只可说数学题目关于 70 亿参数的 DeepSeek-R1 7b 照旧过于复杂,在线大模子都不一定能够输出准确谜底,腹地就更成问题了,同期高参数的腹地大模子推理的流程中,电脑的负载压力也会拉满。

从开源的角度去分析,腹地大模子的延迟性和可玩性会比传统的线上大模子更好玩。但腹地大模子的部署各人也很明晰,操作起来并不是很容易,想要挖掘更多玩法,照旧要靠出手才能强的用户。

腹地部署 DeepSeek,仅仅图个极新好玩?

那么,腹地大模子值得东说念主手一个吗?小雷的谜底是抵赖的。

就现阶段的生成才能来说,腹地大模子很难跟线上大模子忘形,参数范畴和遐想才能摆在那,细目没法跟正规大模子公司背后的算力集群对比。腹地大模子相宜出手才能强的电脑用户折腾,深度发掘确实能带来一些功能上的便利,毕竟腹地大模子在系统底层中运行,能够更好地与硬件长入。

但行为世俗用户,部署自身也算不上是一件多容易的事情,大模子的附进配套并莫得联想中熟悉,Ollama 官网全是英文,Docker 应用也不提供汉文撑握,自身在部署上就有较高的门槛。小雷部署一个腹地 DeepSeek 大模子,仅仅图个极新,平均生成用时 20 秒起步,除了不错离线遍地用,世俗的生成需求,体验照旧不如在线大模子。

像读取文献分析、联网蚁集数据分析这些才能,还需要用户我方来折腾,小雷咫尺部署的 DeepSeek 还仅仅个开动。另外要是你有一天无谓了想要删掉大模子数据,还需要学习措施来断根,不然它就会一直占用系统盘的存储空间。

(图片来自 mockup)

在小雷看来,DeepSeek 走开源说念路,最主要的原因照旧为了打响市集影响力,先行占据市聚积位,诱惑行业围绕它来修复完善的工作体系。抛开 Ollama 这些不说,国内广阔大模子平台率先接入 DeepSeek 的 API,即是开源带来的平直效果。

不错联想,佩带超高热度的 DeepSeek 完成各行业的应用和浸透,个东说念主腹地部署的需求也会变得远比咫尺简便,调起 PowerShell 界面、敲代码这些事情致使都不需要用户来作念。

至于 DeepSeek 会发展成什么样,小雷还无法瞻望,被行业高度关爱利大于弊,不踏实的工作仅仅短痛开云体育(中国)官方网站,能够提升市集占比走到世俗用户身边,浸透到各个开辟,到阿谁时候,腹地部署这件事情大致自身就莫得必要了。