VSCode与DeepSeek结合实现
前言使用 DeepSeek 给出代码建议或直接生成代码是十分简单。结合我们现有的工具就可以轻松部署。1. 下载安装 VSCode从微软官网下载并安装 VSCode ,官网地址:https://code.visualstudio.co...
Lm studio本地部署DeepSeek 及 部署后的性能调节
0. 前言 上一节内容讲到Ollama部署deepseek的方法,会有下面几方面问题: Ollama官网访问安装包下载失败 下载deepseek模型文件过慢或失败 在不进行环境配置的情况下,默认安装至C盘,导致空间不...
AMD显卡本地部署DeepSeek
问题描述 如果你的DeepSeek只在CPU和内容中运行(显存占用很低)。 或者是你不知道如何在本地部署DeepSeek,那么本篇文章将帮助你解决这个问题。 1. Ollama部署 Ollama是一个开源的大模型管理框架...
AnythingLLM向deepseek提交文件、网页内容,使其回复更准确
目的 无法使用 ollama 部署又有数据投喂需求,使用 LMstudio + AnythingLLM 向 deepseek 提交数据 相较于 pageassist , AnythingLLM 可提交网页内容 1. 下载 及 安装 AnythingLLM 访问 https:/...
AI大模型 本地知识库 anythingLLM 轻松搭建本地大模型知识库
一、AnythingLLM:私有化智能知识库构建专家1. 文档管理与智能问答135多格式支持:可处理 PDF、TXT、DOCX、JSON 等文档类型,支持从本地文件、网页链接或 GitHub 等平台导入数据,并自动解析文...
DeepSeek云部署API调用方式
DeepSeek云部署API调用方式DeepSeek云部署API调用方式DeepSeek云部署API调用方式DeepSeek云部署API调用方式DeepSeek云部署API调用方式DeepSeek云部署API调用方式DeepSeek云部署API调用方式DeepS...
Ollama、docker、chatbox、Cherry Studio、Visual Studio工具包
【免费】提供官方下载地址(比较慢),下方链接自行下载。 【收费】的是提前下载好的,购买之后有网盘链接下载。 付费内容有Ollama、docker、chatbox、Cherry Studio、VsCode、AnythingLLM、Off...
搭建同款知识付费网站
温馨提醒:更新主题请务必记得清空浏览器缓存、刷新CDN缓存(如果有的话)、刷新Redis或Memcached缓存(如果有的话)、再保存一下主题设置,并查看一下更新日志哦!V8.12025-01-01新功能更新适配 Wo...
自定义Ollama安装路径
方法一:通过符号链接重定向安装目录下载Ollama安装包下载地址:Ollama、docker、chatbox、Cherry Studio、Visual Studio 工具包卸载现有Ollama(如已安装)打开控制面板 → 卸载程序 → 找到 O...
Ollama+DeepSeek本地部署教程及相关资料
环境准备操作系统:支持 macOS、Linux(推荐 Ubuntu/Debian)或 Windows(需 WSL2)。确保系统已安装最新驱动和依赖库。硬件要求:CPU:建议至少 4 核以上。内存:16GB+(7B 模型需 8GB+,13B ...