管理员-语义熔炉-第2页
管理员的头像-语义熔炉
徽章-人气大使-语义熔炉徽章-人气佳作-语义熔炉徽章-原创达人-语义熔炉9枚徽章官方认证山东省东营市管理员超级版主版主
这家伙很懒,什么都没有写...
vscode接入deepseek-语义熔炉

vscode接入deepseek

第一步下载vscode并安装简体中文-vscode安装包已上传网盘第二步安装Continue插件-插件已上传网盘第三步添加模型第四步申请Deepseek官方API-api快捷方式已上传网盘第六步把创建好的Deepseek的API...
8个满血r1网站-语义熔炉

8个满血r1网站

https://ide.cloud.tencent.com/dashboard/gpu-workspacehttps://cloud.siliconflow.cn/invitationhttps://zhida.zhihu.com/search/3647834378238165569
9天前
04111
将 DeepSeek 接入 WPS,办公效率飞起-语义熔炉

将 DeepSeek 接入 WPS,办公效率飞起

一、效果预览 接入 DeepSeek 后,WPS 将新增一个“DeepSeek”选项卡。选中文本后,点击“调用 DeepSeek”按钮,即可实现 AI 对话、写作、排版、绘画、校对、翻译、数据分析、公式执行等多种功能...
使用腾讯云HAI+ChatBox部署个人DeepSeek应用-语义熔炉

使用腾讯云HAI+ChatBox部署个人DeepSeek应用

前言 你好,我是喵喵侠。之前我在文章中介绍过,如何借助腾讯云HAI部署DeepSeek。在这个基础上,你可以借助ChatBox AI,来实现在电脑、手机、平板上,使用DeepSeek进行对话。 ChatBox AI下载 首...
Dify在windows系统的docker中向本地部署的deepseek嵌入知识库提问-语义熔炉

Dify在windows系统的docker中向本地部署的deepseek嵌入知识库提问

目的windows 安装docker本地部署 deepseek(ollama)本地部署 dify 并嵌入 知识库说明:本文档中的所有下载的相关资源都可以在右上角的群内容获取。1.设置windows环境开启Hyper-V打开 控制面板 ...
11天前
08657
LM studio部署本地Deepseek精度模型包-语义熔炉

LM studio部署本地Deepseek精度模型包

DeepSeek模型选择和下载根据博主的提供的参数,先清楚自己能够使用多大的模型,再进行下载。根据自己电脑的显卡配置和需求选择合适的模型下载,可以先下载1个尝试,模型是可以下载多个并灵活切...
LM Studioh和ollama在本地部署deepseek上有哪些技术优势-语义熔炉

LM Studioh和ollama在本地部署deepseek上有哪些技术优势

LM Studio 和 Ollama 都是用于本地运行大型语言模型(LLM)的工具,但它们在设计目标、使用方式和适用场景上有显著区别。以下是两者的详细对比: 1. 核心定位 特性 LM Studio Ollama 目标用户 ...
13天前
04514
VSCode与DeepSeek结合实现-语义熔炉

VSCode与DeepSeek结合实现

前言 使用 DeepSeek 给出代码建议或直接生成代码是十分简单。 结合我们现有的工具就可以轻松部署。 1. 下载安装 VSCode 从微软官网下载并安装 VSCode ,官网地址:https://code.visualstudi...
15天前
07015
Lm studio本地部署DeepSeek 及 部署后的性能调节-语义熔炉

Lm studio本地部署DeepSeek 及 部署后的性能调节

0. 前言 上一节内容讲到Ollama部署deepseek的方法,会有下面几方面问题: Ollama官网访问安装包下载失败 下载deepseek模型文件过慢或失败 在不进行环境配置的情况下,默认安装至C盘,导致空间不...
15天前
05210
AMD显卡本地部署DeepSeek-语义熔炉

AMD显卡本地部署DeepSeek

问题描述 如果你的DeepSeek只在CPU和内容中运行(显存占用很低)。 或者是你不知道如何在本地部署DeepSeek,那么本篇文章将帮助你解决这个问题。 1. Ollama部署 Ollama是一个开源的大模型管理框架...
15天前
0605