管理员-语义熔炉网-第3页
管理员的头像-语义熔炉网
徽章-备受喜爱-语义熔炉网徽章-签到达人-语义熔炉网徽章-人气大使-语义熔炉网11枚徽章官方认证山东省东营市管理员超级版主
这家伙很懒,什么都没有写...
VSCode与DeepSeek结合实现-语义熔炉网

VSCode与DeepSeek结合实现

前言使用 DeepSeek 给出代码建议或直接生成代码是十分简单。结合我们现有的工具就可以轻松部署。1. 下载安装 VSCode从微软官网下载并安装 VSCode ,官网地址:https://code.visualstudio.co...
1个月前
014816
Lm studio本地部署DeepSeek 及 部署后的性能调节-语义熔炉网

Lm studio本地部署DeepSeek 及 部署后的性能调节

0. 前言 上一节内容讲到Ollama部署deepseek的方法,会有下面几方面问题: Ollama官网访问安装包下载失败 下载deepseek模型文件过慢或失败 在不进行环境配置的情况下,默认安装至C盘,导致空间不...
1个月前
09210
AMD显卡本地部署DeepSeek-语义熔炉网

AMD显卡本地部署DeepSeek

问题描述 如果你的DeepSeek只在CPU和内容中运行(显存占用很低)。 或者是你不知道如何在本地部署DeepSeek,那么本篇文章将帮助你解决这个问题。 1. Ollama部署 Ollama是一个开源的大模型管理框架...
31天前
0985
AnythingLLM向deepseek提交文件、网页内容,使其回复更准确-语义熔炉网

AnythingLLM向deepseek提交文件、网页内容,使其回复更准确

目的 无法使用 ollama 部署又有数据投喂需求,使用 LMstudio + AnythingLLM 向 deepseek 提交数据 相较于 pageassist , AnythingLLM 可提交网页内容 1. 下载 及 安装 AnythingLLM 访问 https:/...
31天前
09513
AI大模型 本地知识库 anythingLLM 轻松搭建本地大模型知识库-语义熔炉网

AI大模型 本地知识库 anythingLLM 轻松搭建本地大模型知识库

一、AnythingLLM:私有化智能知识库构建专家1. 文档管理与智能问答135多格式支持:可处理 PDF、TXT、DOCX、JSON 等文档类型,支持从本地文件、网页链接或 GitHub 等平台导入数据,并自动解析文...
1个月前
09110
DeepSeek云部署API调用方式-语义熔炉网

DeepSeek云部署API调用方式

DeepSeek云部署API调用方式DeepSeek云部署API调用方式DeepSeek云部署API调用方式DeepSeek云部署API调用方式DeepSeek云部署API调用方式DeepSeek云部署API调用方式DeepSeek云部署API调用方式DeepS...
Ollama、docker、chatbox、Cherry Studio、Visual Studio工具包-语义熔炉网

Ollama、docker、chatbox、Cherry Studio、Visual Studio工具包

【免费】提供官方下载地址(比较慢),下方链接自行下载。 【收费】的是提前下载好的,购买之后有网盘链接下载。 付费内容有Ollama、docker、chatbox、Cherry Studio、VsCode、AnythingLLM、Off...
搭建同款知识付费网站-语义熔炉网

搭建同款知识付费网站

温馨提醒:更新主题请务必记得清空浏览器缓存、刷新CDN缓存(如果有的话)、刷新Redis或Memcached缓存(如果有的话)、再保存一下主题设置,并查看一下更新日志哦!V8.12025-01-01新功能更新适配 Wo...
自定义Ollama安装路径-语义熔炉网

自定义Ollama安装路径

方法一:通过符号链接重定向安装目录下载Ollama安装包下载地址:Ollama、docker、chatbox、Cherry Studio、Visual Studio 工具包卸载现有Ollama(如已安装)打开控制面板 → 卸载程序 → 找到 O...
Ollama+DeepSeek本地部署教程及相关资料-语义熔炉网

Ollama+DeepSeek本地部署教程及相关资料

环境准备操作系统:支持 macOS、Linux(推荐 Ubuntu/Debian)或 Windows(需 WSL2)。确保系统已安装最新驱动和依赖库。硬件要求:CPU:建议至少 4 核以上。内存:16GB+(7B 模型需 8GB+,13B ...