管理员-语义熔炉网-第4页
管理员的头像-语义熔炉网
徽章-备受喜爱-语义熔炉网徽章-签到达人-语义熔炉网徽章-人气大使-语义熔炉网11枚徽章官方认证山东省东营市管理员超级版主
这家伙很懒,什么都没有写...
DeepSeek投喂数据,本地大模型联网搜索,让它更聪明-语义熔炉网

DeepSeek投喂数据,本地大模型联网搜索,让它更聪明

1. 目的 投喂数据使得我们的模型在专业领域中更加聪明。 更新模型中的原有数据库,时期获得最新领域动态。 一定程度的续写能力,让它更具有创造性。 2. 准备 page assist chrome 插件 或 firefo...
1个月前
016515
Stable Diffusion 提示词分类全解析8大类型解析×组合公式-语义熔炉网

Stable Diffusion 提示词分类全解析8大类型解析×组合公式

一、基础核心类型 类型 作用 示例(中英对照) 主体描述词 定义画面核心内容 一个穿汉服的女孩 (a girl in Hanfu) 质量强化词 提升画面精细度 8K分辨率 (8k resolution) 风格控制词 决定艺术表...
33天前
08815
Lm studio本地部署DeepSeek 及 部署后的性能调节-语义熔炉网

Lm studio本地部署DeepSeek 及 部署后的性能调节

0. 前言 上一节内容讲到Ollama部署deepseek的方法,会有下面几方面问题: Ollama官网访问安装包下载失败 下载deepseek模型文件过慢或失败 在不进行环境配置的情况下,默认安装至C盘,导致空间不...
1个月前
09310
VSCode与DeepSeek结合实现-语义熔炉网

VSCode与DeepSeek结合实现

前言使用 DeepSeek 给出代码建议或直接生成代码是十分简单。结合我们现有的工具就可以轻松部署。1. 下载安装 VSCode从微软官网下载并安装 VSCode ,官网地址:https://code.visualstudio.co...
1个月前
014816
局域网内其他设备访问本地部署的deepseek,实现手机畅快问答-语义熔炉网

局域网内其他设备访问本地部署的deepseek,实现手机畅快问答

目的 使用ollama + pageassist + deepseek大模型,实现局域网内访问本地部署的大模型,手机也能畅快问答。 使用LmStudio + deepseek + vscode(continue) ,实现低配置电脑也可快速生成代码。 1....
LM Studioh和ollama在本地部署deepseek上有哪些技术优势-语义熔炉网

LM Studioh和ollama在本地部署deepseek上有哪些技术优势

LM Studio 和 Ollama 都是用于本地运行大型语言模型(LLM)的工具,但它们在设计目标、使用方式和适用场景上有显著区别。以下是两者的详细对比: 1. 核心定位 特性 LM Studio Ollama 目标用户 ...
1个月前
08814
windows配置Ollama环境-语义熔炉网
comfyUI共享sdwebUI模型路径的修改方法-语义熔炉网

comfyUI共享sdwebUI模型路径的修改方法

减少模型的重复节省空间如何操作呢:2.58 复制打开抖音,看看【小雅 Aya的作品】【Comfyui系列教程】第二集:模型文件的管理和... https://v.douyin.com/4Jkj9HUC1Dc/ zGI:/ 01/25 M@j.Cu
LM studio部署本地Deepseek精度模型包-语义熔炉网

LM studio部署本地Deepseek精度模型包

DeepSeek模型选择和下载根据博主的提供的参数,先清楚自己能够使用多大的模型,再进行下载。根据自己电脑的显卡配置和需求选择合适的模型下载,可以先下载1个尝试,模型是可以下载多个并灵活切...
Dify在windows系统的docker中向本地部署的deepseek嵌入知识库提问-语义熔炉网

Dify在windows系统的docker中向本地部署的deepseek嵌入知识库提问

目的windows 安装docker本地部署 deepseek(ollama)本地部署 dify 并嵌入 知识库说明:本文档中的所有下载的相关资源都可以在右上角的群内容获取。1.设置windows环境开启Hyper-V打开 控制面板 ...
33天前
011807