<p class="ql-block">最简单方法安装离线版deepseek </p><p class="ql-block"> 安装 Open-WebUI 貌似最不易出错,成功率最高。Anything LLM这个大众情人搞不定的情况,不妨用这个网络框架😂</p> <p class="ql-block">简单,快速部署离线大模型 #deepseek #ai工具 #aicandy #chatgpt #openai</p><p class="ql-block">0:56 安装 Ollama</p><p class="ql-block">1:28 安装 DeepSeek-R1 模型</p><p class="ql-block">4:23 安装 Open-WebUI</p><p class="ql-block">5:47 运行服务</p><p class="ql-block">6:04 打开 DeepSeek-R1 网页版</p><p class="ql-block">本地部署网页版 DeepSeek</p><p class="ql-block">1. 下载,安装 ollama</p><p class="ql-block">https://ollama.com/download</p><p class="ql-block">2. 选择一个模型,拷贝模型名称</p><p class="ql-block">https://ollama.com/library/deepseek-r1</p><p class="ql-block">3. 命令行窗口运行安装命令</p><p class="ql-block">ollama run deepseek-r1:7b</p><p class="ql-block">4. 安装 open-webui</p><p class="ql-block">https://github.com/open-webui/open-webui</p><p class="ql-block">5. 在Anaconda 命令行窗口中, 运行以下命令</p><p class="ql-block">conda create -n open-webui python=3.11</p><p class="ql-block">conda activate open-webui</p><p class="ql-block">pip install open-webui</p><p class="ql-block">open-webui serve</p><p class="ql-block">6. 最后打开浏览器,输入以下网址</p><p class="ql-block">http://localhost:8080/</p><p class="ql-block">=======================================</p> <p class="ql-block">已经下载安装离线包情况下,第二次只要运行命令:</p><p class="ql-block">ollama run deepseek-r1</p><p class="ql-block">ollama就开始载入模型了。第一次运行会联网下载。第二次就会直接从本地载入。</p> <p class="ql-block">运行open-webui服务</p> <p class="ql-block">打开deepseek 网页对话</p><p class="ql-block"></p><p class="ql-block">请参考:<a href="https://github.com/datawhalechina/handy-ollama/tree/main/docs" target="_blank">https://github.com/datawhalechina/handy-ollama/tree/main/docs</a></p>