使用内网穿透实现公网访问本地DeepSeek大模型

2025 年 2 月 19 日 星期三(已编辑)
24

使用内网穿透实现公网访问本地DeepSeek大模型

前言

最近爆火的国产AI大模型Deepseek想必大家都不陌生,不过除了在手机上安装APP或者官网在线体验,我们其实完全可以在自己的Windows电脑上本地进行部署,并结合frp内网穿透工具轻松实现远程交互,带来更方便快捷的体验。

本地运行 AI 模型具有很多优势,比如隐私安全:你的所有数据都保留在你自己的机器上,不存在共享敏感信息的风险。快速响应:官方及三方访问量过大,延迟非常高,造成卡顿,本地部署大模型可以避免这种情况。

缺点当然是个人机器算力不够,我的4070显卡跑 DeepSeek-R1-Distill-Qwen-14B 尚能流畅运行,跑 DeepSeek-R1-Distill-Qwen-32B 就有点吃力了,机器算力足够的小伙伴可以尝试使用更强大的模型。

要实现本地部署 DeepSeek-R1 大模型其实也不难,只需在电脑中安装能够运行各种 AI 模型的开源工具 Ollama 就可以了,不过如果感觉在终端中和 AI 交互不太美观,我们也可再安装一个图形化的界面,就能像和 ChatGPT 那样在网页中和大模型聊天了,下面就来具体演示一下。

使用社交账号登录

  • Loading...
  • Loading...
  • Loading...
  • Loading...
  • Loading...