• 首页
  • AI工具集
  • AI资讯
  • AI活动
  • AI社区
  • AI短剧
  • AI创作大赛
  • AI小说
  • AI绘画
    AI视频
    AI对口型
    视频转动漫风格
    AI创意二维码
    AI艺术字
    AI智能抠图
  • AI短视频创作热门-AI社区
AI 对话

DeepSeek本地部署:打造你的专属AI电脑,真的实用吗?

DeepSeek本地部署:打造你的专属AI电脑,真的实用吗?
AI TOP100
2025-02-08 09:22:38

DeepSeek “红得发紫”:本地部署的诱惑

今年春节,DeepSeek绝对是科技圈的“顶流”。就连平时不关注科技新闻的长辈,都来问我DeepSeek的事情。上次AI大模型这么火,还得是OpenAI的ChatGPT。

但爆红的背后,DeepSeek也遭遇了持续高强度的网络攻击,官网经常无法正常使用。即便关闭联网搜索,具备深度推理能力的DeepSeek-R1在线模型也难以幸免。幸好,在华为等科技公司的支持下,第三方平台接入DeepSeek的API,才让稳定在线使用成为可能。

不过,这些终归是线上访问。春节放假在家,我突发奇想,想玩一把更大的:把DeepSeek大模型部署到本地电脑上!

说干就干,这个春节我可没闲着。

“AI电脑”炼成记:下载慢,代码多

其实,无论哪个大模型,本地部署的步骤都差不多,难点在于找到合适的资源和命令。但要注意,本地大模型虽然是训练好的“成品”,也需要一定的硬件基础才能有好的体验。

DeepSeek-R1本地部署

(图片来自Ollama)

首先,在Ollama官网下载桌面端应用,它就像一个“盒子”,用来承载本地大模型。除了DeepSeek,Ollama的模型库里还有很多开源大模型可以选择。

Ollama桌面端没有操作界面,要下载大模型,需要在Ollama模型库找到对应模型的代码,复制到PowerShell(Win+R,输入PowerShell回车打开)执行,就能拉取和安装模型数据。

DeepSeek-R1本地部署

(图片来自雷科技)

我选了DeepSeek-R1模型的7b版本,也就是70亿参数的版本,占用4.7GB。参数越多,大模型的语言理解、文本生成、逻辑推理和学习能力就越强,知识储备和泛化能力也更好。但本地大模型依赖电脑的计算能力,根据自己的需求选择,别“硬来”。

一般来说,运行15亿参数的模型,最低需要4GB显存的GPU和16GB内存。达不到要求,就会强制用CPU计算,硬件负担更大,推理时间也更长。满血版的DeepSeek-R1参数量高达6710亿,体积404GB,需要更高级的硬件才能负担。个人部署的话,15亿-80亿参数比较合适。

DeepSeek-R1本地部署

(图片来自雷科技)

模型数据拉取完毕,系统会自动安装。完成后,就可以在PowerShell窗口直接调用DeepSeek-R1模型,输入问题,本地大模型就会推理并生成答案。

至此,DeepSeek-R1本地大模型就部署完成了。理论上,可以用同样的方法部署其他大模型。

但每次开机都要打开PowerShell才能激活大模型,对普通用户不方便。所以,需要给DeepSeek-R1安装一个更直观的交互界面。我选择了在Docker应用(蓝色海豚图标)上添加Open-WebUI组件,让DeepSeek-R1可以通过浏览器交互,还能联系上下文。

具体来说,先下载Docker桌面端,按照默认引导完成安装(可以跳过注册等步骤),然后在PowerShell界面复制并执行以下指令(不用自己去Github找了):

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

用NVIDIA GPU的小伙伴,用这条指令:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

拉取大模型文件和Open WebUI组件需要一段时间,如果网络不好(或者没有科学上网),下载器会不断重试/切换线路,导致下载进度丢失。

安装完成后,Docker应用会出现Open-WebUI组件,启动它,点击“3000:8080”链接,系统就会跳转到网页。

DeepSeek-R1本地部署

(图片来自雷科技)

恭喜你,你现在拥有了一台带有AI本地大模型的“AI电脑”!

我体验了整个过程,步骤不算复杂,系统会自动拉取和安装数据,主要时间花在搜索命令行、安装资源,以及拉取和安装组件上。Ollama和Docker都可以通过百度搜索找到,有兴趣的朋友可以试试。

当然,本地部署大模型的方法不止这一种。华为刚推出的ModelEngine,具备一站式训练优化和一键部署能力,应该是面向企业端的开发工具。

离线是优势,但生成能力有差距

国内AI大模型应用很多,网页端服务也很完善,为什么还要本地部署?

关键有两点:第一,本地大模型的数据和对话记录完全离线,存储在本地,响应更快,避免敏感内容泄露。在飞机等无网络环境下也能正常使用;第二,本地部署支持各种开源模型,可以灵活扩展和切换,根据自身需求优化和集成工具,操作空间更大。

我部署的时间不长,很多功能还没摸清楚,简单说说体验。

我用的是机械革命无界14X,轻薄本,24GB内存,没有独立显卡,不在推荐配置范围内,算是个“反面教材”。也就是说,DeepSeek-R1 7b模型在这台电脑上,需要更长的推理时间和更多资源占用才能生成内容。

GPU

(图片来自雷科技)

像“饭后胀气”这类问题,大模型要思考30秒-1分钟才能生成答案。期间电脑负载达到高峰,CPU和内存几乎占满。可见没有独立显卡的电脑运行本地大模型很吃力,但给出的答案确实有参考价值。

DeepSeek-R1本地部署

(图片来自雷科技)

相比于答案,我更喜欢DeepSeek拟人化的思考过程。很少有AI助手把思考过程做得这么人性化,不管答案是否准确,它的推理过程都能激起用户的兴趣。

如果把同样的问题放在网页端的DeepSeek大模型,并启用R1深度思考,直接返回“服务器繁忙”。看来密集的访问给DeepSeek造成了不少困扰。这时候,本地部署虽然能力不一定很强,但至少能访问得到。

DeepSeek-R1

(图片来自DeepSeek)

换一道经典的概率题。网页端DeepSeek-R1持续繁忙,本地DeepSeek可能也有些手足无措,列举多种情况后又自行否定,最后还混入了之前提问的“饭后胀气”的内容,场面十分滑稽。

DeepSeek-R1

(图片来自雷科技)

本地DeepSeek连续输出了十几分钟也没给出答案,考虑到时间有限,我停止了生成。

看来数学题对于70亿参数的DeepSeek-R1 7b还是太难了,在线大模型都不一定能给出准确答案,本地就更不用说了。同时,高参数的本地大模型推理时,电脑的负载压力也会拉满。

从开源的角度来看,本地大模型的扩张性和可玩性比线上大模型更好。但本地部署操作起来并不容易,想要挖掘更多玩法,需要动手能力强的用户。

本地部署DeepSeek,只是尝鲜?

那么,本地大模型值得人手一个吗?我的答案是否定的。

就目前的生成能力而言,本地大模型很难与线上大模型媲美。参数规模和计算能力摆在那里,肯定比不上正规大模型公司背后的算力集群。本地大模型适合动手能力强的用户折腾,深度发掘确实能带来一些功能上的便利,毕竟它在系统底层运行,能更好地与硬件结合。

但作为普通用户,部署本身就不容易,大模型的周边配套也没那么成熟,Ollama官网全是英文,Docker应用也不支持中文。我部署一个本地DeepSeek大模型,只是为了尝鲜,平均生成用时20秒起步,除了可以离线使用,体验不如在线大模型。

像读取文件分析、联网收集数据分析等能力,还需要用户自己来折腾。我目前部署的DeepSeek还只是个开始。而且,如果有一天不用了,需要学习步骤清除数据,否则它会一直占用系统盘空间。

DeepSeek-R1

(图片来自mockup)

在我看来,DeepSeek走开源道路,是为了打响市场影响力,抢占市场地位,吸引行业围绕它建立完善的服务体系。国内众多大模型平台率先接入DeepSeek的API,就是开源带来的直接结果。

可以预见,随着DeepSeek的应用和渗透,个人本地部署的需求会变得更简单,调用PowerShell、敲代码这些事情甚至都不需要用户自己做。

DeepSeek会发展成什么样,我还无法预测。被行业关注是好事,不稳定的服务只是短痛。提高市场占比,走到用户身边,渗透到各种设备,到那时,本地部署或许就没必要了。

DeepSeek AI工具地址:【点击登录】

更多AI行业最新资讯新闻信息请关注AI人工智能网站--AITOP100平台--AI资讯专区:https://www.aitop100.cn/infomation/index.html

0
0
免责声明:本文不代表本平台立场,且不构成投资建议,请谨慎对待。
全部评论
暂无评论
相关AI工具
  • DeepSeek‌:深度求索AI大模型
相关资讯
  • 阿里Wan2.2正式发布:开源AI视频生成模型全面超越Sora,支持4K高清视频制作

  • 美图WHEE“视频超清”上线:一键拯救废片,老视频也能“重获新生”!

  • 重磅!万兴科技天幕2.0模型冲进国内TOP4,联合华为云打造AI视频新生态

  • AI峰会:2025深圳(国际)通用人工智能大会暨博览会

  • AITOP100平台V2.8.7.5重磅更新:功能大升级,创作体验再飞跃!

热点资讯

豆包AI生图技术深度解析:引领中文图像生成新突破

8天前
豆包AI生图技术深度解析:引领中文图像生成新突破

YouTube Shorts大动作!AI特效来袭,照片秒变精彩视频

9天前
YouTube Shorts大动作!AI特效来袭,照片秒变精彩视频

阿里巴巴首款夸克AI眼镜惊艳亮相2025世界人工智能大会(WAIC)

6天前
阿里巴巴首款夸克AI眼镜惊艳亮相2025世界人工智能大会(WAIC)

创意加速!可灵AI"灵动画布"发布,多图参考功能迎来重大突破

5天前
创意加速!可灵AI"灵动画布"发布,多图参考功能迎来重大突破

豆包理解图片的能力升级了:深度思考模式重新定义AI视觉理解

4天前
豆包理解图片的能力升级了:深度思考模式重新定义AI视觉理解
分享
0
0

欢迎来到AI Top100!我们聚合全球500+款AI智能软件,提供最新资讯、热门课程和活动。我们致力于打造最专业的信息平台,让您轻松了解全球AI领域动态,并为您提供优质服务。

合作伙伴
联系我们
加入AITOP100社群
加入社群
AITOP100商务微信
商务微信
相关链接
服务及隐私政策
网站地图
关于我们
粤ICP备2022124843号-2粤公网安备44030002004505广播电视节目制作经营许可证:(粤)字第00712号Copyright © 华强方特(深圳)动漫有限公司 版权所有