很多朋友看完老唐之前的 AI 部署教程后,最常问的问题就是:“老唐,我一个月愿意花 XX 元,到底能跑什么 AI?”
这个问题比想象中复杂——费用分两块:一块是 VPS 服务器费用(固定),一块是 AI 模型 API 调用费用(按量)。不同预算组合出来的效果天差地别。
本文老唐把这笔账拆清楚:按月预算从 30 元到 500 元分五档,每档告诉你能买什么 VPS、能跑什么 AI 工具、API 费用够用多少次对话,以及实际能做什么事。文末还整理了免费 AI API 汇总,能省则省。
1. 费用构成:VPS + API 两笔账
在 VPS 上跑 AI,费用分两块:
第一块:VPS 服务器费用(固定成本)
这是你租服务器的月费。不管跑不跑 AI,服务器开着就要付钱。搬瓦工最便宜的套餐折合约 30 元/月,高配的几百元/月。
第二块:AI 模型 API 调用费用(变动成本)
你的 VPS 上跑的是 Dify、n8n、Open WebUI 这些平台——它们本身不是 AI,需要调用外部 AI 模型的 API 来获得智能。每次调用按 token(文字量)计费。
这两块加起来才是真正的月费。很多教程只讲 VPS 费用不讲 API 费用,容易让人低估成本。
例外:如果你用 Ollama 在 VPS 上跑本地模型(比如 Qwen、Llama),那 AI 推理不需要 API 费用——但代价是需要更大内存的 VPS,而且小模型的智能水平有限。
2. 搬瓦工 VPS 月费一览(人民币)
下表按月费从低到高排列,已折算成人民币:
常规套餐
| 套餐 | 配置 | 月费(人民币) | 年付价格 | 线路 |
|---|---|---|---|---|
| KVM 1GB | 2 核 / 1GB / 20GB / 1TB | 约 30 元/月 | $49.99/年 | 普通 163 |
| KVM 2GB | 3 核 / 2GB / 40GB / 2TB | 约 60 元/月 | $99.99/年 | 普通 163 |
| CN2 GIA-E 1GB(季付) | 2 核 / 1GB / 20GB / 1TB | 约 120 元/月 | $49.99/季度 | 三网 CN2 GIA |
| CN2 GIA-E 1GB(年付) | 同上 | 约 102 元/月 | $169.99/年 | 三网 CN2 GIA |
| CN2 GIA-E 2GB(季付) | 3 核 / 2GB / 40GB / 2TB | 约 216 元/月 | $89.99/季度 | 三网 CN2 GIA |
| CN2 GIA-E 2GB(年付) | 同上 | 约 180 元/月 | $299.99/年 | 三网 CN2 GIA |
| KVM 4GB | 4 核 / 4GB / 80GB / 3TB | 约 120 元/月 | $199.99/年 | 普通 163 |
| CN2 GIA-E 4GB | 4 核 / 4GB / 80GB / 3TB | 约 330 元/月 | $549.99/年 | 三网 CN2 GIA |
| KVM 8GB | 5 核 / 8GB / 160GB / 4TB | 约 240 元/月 | $399.99/年 | 普通 163 |
限量版套餐(不定期补货,性价比更高)
限量版补货没有固定时间,可以用 kucun.banwagong.net 实时监控。历次限量版整理参考《2026 搬瓦工限量版套餐大全:THE PLAN / Box 系列 / Tokyo Plan / 传家宝,历史整理与补货预测》。
KVM 和 CN2 GIA-E 线路区别:KVM 套餐走普通 163 线路,从国内访问速度一般,但便宜;CN2 GIA-E 走三网高端线路(电信 CN2 GIA + 联通 CUP + 移动 CMIN2),从国内访问明显更快。如果你部署的 AI 工具需要频繁从国内浏览器访问(比如 Open WebUI、Dify 的网页界面),CN2 GIA-E 体验更好。如果只是跑 n8n 自动化任务(不需要频繁打开网页),KVM 够用。
搬瓦工购买教程:《搬瓦工购买教程》
3. AI 模型 API 价格对比
下面这张表是老唐整理的主流 AI 模型 API 价格,按每百万 token 计价。1 百万 token 大约相当于 75 万个汉字,或者 1500-2000 次普通对话。
国产模型
| 模型 | 输入价格 | 输出价格 | 人民币(每百万 token) | 老唐评价 |
|---|---|---|---|---|
| DeepSeek V3(deepseek-chat) | $0.28 | $0.42 | 输入 2 元 / 输出 3 元 | 性价比之王,中文能力强 |
| DeepSeek V3 思考模式(deepseek-reasoner) | $0.28 | $0.42 | 同上 | 数学推理能力强 |
| 智谱 GLM-4-Flash | 免费 | 免费 | 0 元 | 免费无限用,质量中等 |
| 智谱 GLM-4-Air | — | — | 1 元/百万 token | 便宜,质量尚可 |
| 智谱 GLM-4-Plus | — | — | 5 元/百万 token | 高端国产模型 |
| 硅基流动 Qwen3-8B | 免费 | 免费 | 0 元 | 免费开源模型 |
| 硅基流动 DeepSeek-R1-Distill-7B | 免费 | 免费 | 0 元 | 免费推理模型 |
国际模型
| 模型 | 输入价格 | 输出价格 | 人民币(每百万 token) | 老唐评价 |
|---|---|---|---|---|
| GPT-4o Mini | $0.15 | $0.60 | 输入 1.1 元 / 输出 4.3 元 | 便宜好用,英文强 |
| GPT-4o | $2.50 | $10.00 | 输入 18 元 / 输出 72 元 | 贵,全能 |
| Claude 3.5 Haiku | $0.25 | $1.25 | 输入 1.8 元 / 输出 9 元 | 轻量快速 |
| Claude Sonnet | $3.00 | $15.00 | 输入 21.6 元 / 输出 108 元 | 贵,长文写作好 |
| Gemini 2.0 Flash | $0.10 | $0.40 | 输入 0.72 元 / 输出 2.88 元 | 便宜,有免费额度 |
每次对话花多少钱?
假设一次普通对话约 500 输入 token + 500 输出 token:
| 模型 | 每次对话费用(人民币) | 10 元能聊多少次 |
|---|---|---|
| DeepSeek V3 | 约 0.0025 元 | 约 4,000 次 |
| GPT-4o Mini | 约 0.0019 元 | 约 5,200 次 |
| GPT-4o | 约 0.044 元 | 约 227 次 |
| Claude 3.5 Haiku | 约 0.004 元 | 约 2,500 次 |
| Gemini 2.0 Flash | 约 0.0013 元 | 约 7,700 次 |
| 智谱 GLM-4-Flash | 0 元 | 无限 |
结论:DeepSeek V3 和 Gemini 2.0 Flash 是性价比最高的两个选择。日常使用 DeepSeek,一个月几块钱人民币绰绰有余。
4. 免费 AI API 汇总:零成本方案
不花钱也能用 AI API。以下是老唐整理的免费方案,实测可用:
| 提供商 | 免费内容 | 限制 | 适合场景 |
|---|---|---|---|
| 智谱 GLM-4-Flash | 永久免费,无限调用 | 128K 上下文,QPS 有限 | 日常中文对话,API 兜底 |
| 智谱 GLM-Z1-Flash | 永久免费的推理模型 | 同上 | 数学和逻辑推理 |
| 硅基流动 | Qwen3-8B、DeepSeek-R1-Distill-7B 等多个模型免费 | 注册送 2000 万 token 额度 | 多模型切换测试 |
| Google Gemini | Gemini 2.0 Flash 等 6 个模型免费 | 每天 1000 次请求,5-15 RPM | 英文任务、多模态 |
| Cloudflare Workers AI | 每天 10,000 Neurons 免费 | 每日重置 | 轻量推理 |
| DeepSeek | 新注册送 500-1000 万 token | 一次性,30 天有效 | 体验期 |
老唐的免费组合推荐:
- 主力:智谱 GLM-4-Flash(免费无限,中文质量不错)
- 推理:智谱 GLM-Z1-Flash(免费,逻辑推理用)
- 英文/多模态:Google Gemini 2.0 Flash 免费额度
- 补充:硅基流动的免费模型(多选择)
这套组合完全免费,能覆盖大部分日常 AI 需求。只有在需要顶级推理能力(复杂编程、长文写作)时,才需要付费用 DeepSeek V3 或 GPT-4o。
5. 月预算 30 元:入门级
VPS 选择
搬瓦工 KVM 1GB:$49.99/年,折合约 30 元/月。
配置:2 核 CPU / 1 GB 内存 / 20 GB SSD / 1 TB 月流量 / 普通 163 线路。
购买链接:购买搬瓦工 KVM 1GB
API 预算
VPS 花掉了全部 30 元,API 预算为 0 元。只能用免费 API。
能跑什么
| AI 工具 | 能不能跑 | 说明 |
|---|---|---|
| Open WebUI(纯 API 模式) | ⚠️ 勉强 | 加 4GB Swap 后能启动,但比较卡 |
| Ollama + 0.5B 模型 | ⚠️ 勉强 | 只能跑最小的模型,质量很有限 |
| n8n | ❌ 不够 | n8n + PostgreSQL 至少要 1.5GB,1GB 跑不动 |
| Dify | ❌ 不够 | Dify 需要 2GB+ 内存 |
实际体验
在 1 GB 内存的 VPS 上装 Open WebUI,加 4 GB Swap,连接智谱 GLM-4-Flash 免费 API。效果:能用,但网页加载慢、响应偶尔卡顿。适合学习和体验,不适合日常高频使用。
老唐评价
勉强能玩。如果你只是想体验一下自建 AI 聊天是什么感觉,30 元/月够了。但体验不太好,建议尽快升级到 50 元档。
6. 月预算 50 元:个人够用
费用分配
- VPS:搬瓦工 KVM 1GB,30 元/月
- API:剩余 20 元/月
或者,选择搬瓦工 KVM 2GB($99.99/年 ≈ 60 元/月),但这样 API 预算就没了,只能用免费 API。
老唐推荐 KVM 1GB + 20 元 API 的组合——1 GB 内存加 Swap 跑 Open WebUI 刚好够用,20 元 DeepSeek API 足够一个月 8000 次对话。
KVM 1GB 购买链接:$49.99/年 KVM 2GB 购买链接:$99.99/年
API 能用多少
20 元/月的 DeepSeek V3 API(约 $2.78):
- 约 8,000 次普通对话(无缓存,每次约 1000 token)
- 如果 system prompt 缓存命中(输入价降到 $0.028/百万),同样预算可以用到 1.2 万次以上
- 每天 200-300 次对话完全没问题
加上免费的智谱 GLM-4-Flash 作为兜底,API 完全不是瓶颈。
能跑什么
| AI 工具 | 能不能跑 | 说明 |
|---|---|---|
| Open WebUI(API 模式) | ✅ 能跑 | 加 Swap 后稳定运行 |
| Ollama + 1.5B 模型 | ⚠️ 需要 2GB VPS | 如果选 KVM 2GB 可以跑 |
| n8n(轻量) | ⚠️ 需要 2GB VPS | SQLite 模式勉强可用 |
| Dify | ❌ 不够 | 内存不足 |
实际体验
Open WebUI + DeepSeek V3 API,日常中文对话、写邮件、翻译文档、代码解释,完全够用。DeepSeek 的中文能力不比 GPT-4o 差,价格却只有它的 1/10。
老唐评价
性价比最高的起步方案。一杯奶茶钱的月费,拥有一个私人 AI 助手。如果你是学生党或者轻度用户,这个档位足够了。
7. 月预算 100 元:正经干活
费用分配(两种方案)
方案 A(推荐):KVM 2GB(60 元/月)+ API 预算 40 元/月
方案 B:CN2 GIA-E 1GB 年付(102 元/月)+ 免费 API
方案 A 内存更大、API 更充裕;方案 B 线路更快但预算全花在 VPS 上。老唐推荐方案 A——100 元预算里,VPS 配置比线路质量更重要。
KVM 2GB 购买链接:$99.99/年 CN2 GIA-E 1GB 购买链接:$49.99/季度 或 $169.99/年
API 能用多少(方案 A)
40 元/月的 DeepSeek V3 API:约 16,000 次普通对话,每天 500+ 次。
还可以拆分使用:30 元 DeepSeek 日常 + 10 元 GPT-4o Mini 处理英文任务。
能跑什么(方案 A,2GB VPS)
| AI 工具 | 能不能跑 | 说明 |
|---|---|---|
| Open WebUI + API | ✅ 稳定 | 主力对话界面 |
| Ollama + 1.5B 模型 | ✅ 能跑 | 简单离线任务 |
| n8n + PostgreSQL | ✅ 能跑 | 轻量自动化工作流 |
| Open WebUI + n8n 同时 | ⚠️ 紧张 | 加 Swap 后勉强 |
| Dify | ❌ 不够 | 至少要 4GB |
推荐组合
Open WebUI + n8n + DeepSeek API——Open WebUI 做日常 AI 对话入口,n8n 跑 2-3 个自动化工作流(RSS 摘要、邮件通知等)。两个都通过 DeepSeek API 获取 AI 能力,40 元/月绰绰有余。
n8n 部署教程参考老唐的另一篇文章:《2026 搬瓦工 VPS 部署 n8n + DeepSeek 自动化工作流教程》
老唐评价
开发者和效率玩家的最佳起点。100 元/月能搭一套真正能干活的 AI 工具链。适合个人开发者、自媒体人、独立站站长日常使用。
8. 月预算 200 元:全栈 AI 平台
费用分配
推荐:KVM 4GB(120 元/月)+ API 预算 80 元/月
KVM 4GB 购买链接:$199.99/年
API 能用多少
80 元/月可以这样分配:
- DeepSeek V3:40 元(日常对话、文本处理,约 16,000 次)
- GPT-4o Mini:20 元(英文任务,约 5,200 次)
- Claude 3.5 Haiku:20 元(代码审查,约 2,500 次)
三个模型各司其职,在 Dify 或 n8n 里按任务类型自动路由。
能跑什么(4GB VPS)
| AI 工具 | 能不能跑 | 说明 |
|---|---|---|
| Open WebUI + API | ✅ 流畅 | 毫无压力 |
| Ollama + 3B 模型 | ✅ 能跑 | 本地推理质量尚可 |
| n8n + PostgreSQL | ✅ 稳定 | 可以跑较复杂的工作流 |
| Dify(优化后) | ✅ 能跑 | 关闭 Weaviate,用内置向量存储 |
| OpenClaw(基础) | ✅ 能跑 | API 网关模式 |
| 多个工具同时 | ⚠️ 需搭配 | Open WebUI + n8n 同时没问题;加 Dify 就紧张 |
推荐组合
Dify + n8n + DeepSeek 多模型——用 Dify 搭建知识库问答和 AI Agent,用 n8n 做自动化调度,两者共享 DeepSeek/GPT/Claude 的 API。
这是一套完整的 AI 应用开发平台。你可以用 Dify 搭建对外的客服机器人、知识库问答系统,用 n8n 做后台自动化任务。
Dify 部署教程参考:《2026 搬瓦工 VPS 部署 Dify AI 应用平台教程》
老唐评价
进入正经搞 AI 的门槛。200 元/月能搭一套生产级的 AI 应用平台,足够支撑个人项目或小型副业。如果你想用 AI 赚钱(接单、做产品、搞自动化),这个预算是合理的起步。
9. 月预算 500 元:小团队级
费用分配
推荐:KVM 8GB(240 元/月)+ API 预算 260 元/月
KVM 8GB 购买链接:$399.99/年
如果对线路有要求:CN2 GIA-E 4GB(330 元/月)+ API 预算 170 元/月。CN2 GIA-E 4GB 购买链接:$549.99/年
API 能用多少
260 元/月的 API 预算:
- DeepSeek V3:100 元(约 40,000 次对话,几乎无限)
- GPT-4o:80 元(约 1,800 次对话,处理复杂任务)
- Claude Sonnet:80 元(约 370 次对话,长文写作和代码)
或者全投 DeepSeek:260 元能支持每天 3,000+ 次对话,足够 3-5 人团队日常使用。
能跑什么(8GB VPS)
| AI 工具 | 能不能跑 | 说明 |
|---|---|---|
| Ollama + 7B 模型 | ✅ 稳定 | Qwen2.5-7B、Llama 3.1-8B,本地推理质量好 |
| Dify 完整版 | ✅ 从容 | 全组件运行,包括向量数据库 |
| n8n + PostgreSQL | ✅ 稳定 | 可以跑大量并发工作流 |
| Open WebUI | ✅ 流畅 | 同时连本地模型和云端 API |
| OpenClaw + 浏览器自动化 | ✅ 能跑 | 有足够内存支持 Chromium |
| 以上全部同时 | ⚠️ 挑着来 | 全开内存紧张,建议选 2-3 个同时运行 |
推荐组合
Ollama + Open WebUI + Dify + n8n + 多模型 API——本地跑 7B 模型处理隐私敏感任务和快速迭代,Dify 做 RAG 知识库和对外服务,n8n 做全自动化调度。云端 API(DeepSeek/GPT-4o/Claude)处理需要顶级推理能力的任务。
这套系统可以支撑:
- 3-5 人的团队日常 AI 辅助
- 一个对外服务的 AI 客服/问答系统
- 完整的内容生产流水线(采集→分析→生成→发布)
- 复杂的业务自动化流程
老唐评价
真正的“AI 基础设施”。500 元/月相当于一个高级 SaaS 订阅的价格,但你得到的是一套完全自主可控的 AI 平台——数据在自己手里,功能无限扩展,没有供应商锁定。
10. 五档预算一张表总结
| 月预算 | VPS 方案 | 内存 | API 预算 | 能跑的工具 | 适合谁 |
|---|---|---|---|---|---|
| 30 元 | KVM 1GB | 1GB | 0 元(免费 API) | Open WebUI(勉强) | 体验党、学生 |
| 50 元 | KVM 1GB + API | 1GB | 20 元 | Open WebUI + DeepSeek | 轻度个人用户 |
| 100 元 | KVM 2GB + API | 2GB | 40 元 | Open WebUI + n8n + DeepSeek | 开发者、效率玩家 |
| 200 元 | KVM 4GB + API | 4GB | 80 元 | Dify + n8n + 多模型 | 个人项目、副业 |
| 500 元 | KVM 8GB + API | 8GB | 260 元 | 全栈 AI 平台 | 小团队、正式项目 |
老唐的建议:
- 绝大多数个人用户:50-100 元/月足够
- 想用 AI 赚钱的:从 200 元/月起步
- 团队使用:500 元/月起
- 如果只是想试试水:30 元买个 KVM 1GB,用免费 API 先玩起来
11. 省钱技巧
1、年付比月付便宜 30-50%
搬瓦工年付价格比月付/季付划算很多。比如 CN2 GIA-E 1GB:季付 $49.99(约 120 元/月),年付 $169.99(约 102 元/月),年付每月省 18 元。
2、蹲限量版套餐
搬瓦工限量版套餐性价比极高。比如 DC6 CN2 GIA-E 限量版(1GB/20GB/$49.99/年),同配置的常规 CN2 GIA-E 要 $169.99/年——限量版便宜了 70%。
限量版不定期补货,用 kucun.banwagong.net 监控库存。
3、用优惠码
搬瓦工优惠码 NODESEEK2026,全场 6.77% 循环折扣(每次续费都打折)。不大但聊胜于无。
4、主力用 DeepSeek,兜底用免费 API
90% 的日常任务用 DeepSeek V3(极便宜),简单任务切到智谱 GLM-4-Flash(免费),只在需要顶级能力时用 GPT-4o 或 Claude(贵)。
在 Dify 和 n8n 里都可以按工作流设置不同的模型——简单任务自动走便宜的,复杂任务才走贵的。
5、善用 DeepSeek 缓存
DeepSeek 有 prompt cache 机制——如果你多次请求的前缀(system prompt)相同,缓存命中后输入价格降到原来的 1/10(从 $0.28 降到 $0.028/百万 token)。所以固定好 system prompt 不要频繁改动,能大幅降低 API 成本。
6、本地模型处理隐私数据
如果你的 VPS 有 4GB+ 内存,可以用 Ollama 跑 3B 本地模型处理不想发到云端的数据(比如公司内部文档)。本地推理不花 API 费用,虽然质量比云端大模型差一些,但处理简单任务够用。
12. 常见问题
DeepSeek 一个月到底花多少钱?
按每天 100 次对话、每次约 2000 token(输入 1000 + 输出 1000)算:每月约 3000 次对话,消耗约 300 万输入 token + 300 万输出 token。费用 = 3 × $0.28 + 3 × $0.42 = $2.10,折合约 15 元人民币。
如果你用 n8n 跑自动化工作流(每次处理涉及更多 token),月费可能翻几倍。即使按每天 500 次、每次 3000 token 的重度使用量算,月费也就 100 元出头。普通个人用户每月 10-30 元的 DeepSeek API 费用绰绰有余。
搬瓦工 KVM 和 CN2 GIA-E 对跑 AI 有什么区别?
纯粹跑 AI 没区别——CPU 和内存是一样的。区别在于网络线路:CN2 GIA-E 从国内访问更快。如果你需要频繁从国内浏览器打开 Open WebUI 或 Dify 的网页界面,CN2 GIA-E 体验更好。如果只是跑 n8n 后台自动化任务,KVM 线路完全够用。
免费 API 质量怎么样?
智谱 GLM-4-Flash 的中文质量大约相当于 GPT-3.5 到 GPT-4o Mini 之间的水平——日常对话、简单文本处理够用,复杂推理和长文写作差一些。作为免费方案,性价比极高。
硅基流动的免费模型(Qwen3-8B 等)质量类似,适合当备选。
本地模型和 API 模型怎么选?
| 对比 | 本地模型(Ollama) | 云端 API(DeepSeek 等) |
|---|---|---|
| 智能水平 | 7B 模型相当于 GPT-3.5 | DeepSeek V3 接近 GPT-4o |
| 费用 | 只有 VPS 费用 | VPS + API 费用 |
| 隐私 | 数据完全本地 | 数据发到云端 |
| 内存需求 | 7B 模型需要 4-5 GB | 不占本地内存 |
| 响应速度 | CPU 推理较慢(7B 约 3-5 tokens/s) | 很快(50-100 tokens/s) |
老唐建议:日常优先用 API(便宜、快、质量高),隐私敏感数据用本地模型。
搬瓦工 VPS 能不能同时跑 Dify + n8n + Open WebUI?
能,但需要足够的内存:
| 组合 | 最低内存 | 推荐内存 |
|---|---|---|
| Open WebUI + API | 1 GB + Swap | 2 GB |
| Open WebUI + n8n | 2 GB + Swap | 4 GB |
| Dify + n8n | 4 GB + Swap | 8 GB |
| Dify + n8n + Open WebUI | 6 GB + Swap | 8 GB |
| 以上 + Ollama 7B | 8 GB + Swap | 16 GB |
各工具的部署教程参考本系列其他文章(见下方链接)。
搬瓦工官网:bwh81.net
套餐推荐:
| 方案 | 内存 | CPU | 硬盘 | 流量/月 | 带宽 | 机房 | 价格 | 购买 |
|---|---|---|---|---|---|---|---|---|
| KVM (最便宜) | 1GB | 2核 | 20GB | 1TB | 1Gbps | DC2 AO DC8 ZNET | $49.99/年 | 购买 |
| KVM | 2GB | 3核 | 40GB | 2TB | 1Gbps | $52.99/半年 $99.99/年 | 购买 | |
| CN2 GIA-E (最推荐) | 1GB | 2核 | 20GB | 1TB | 2.5Gbps | DC6 CN2 GIA-E DC9 CN2 GIA 日本软银 JPOS_1 联通荷兰 EUNL_9 | $49.99/季度 $169.99/年 | 购买 |
| CN2 GIA-E | 2GB | 3核 | 40GB | 2TB | 2.5Gbps | $89.99/季度 $299.99/年 | 购买 | |
| HK | 2GB | 2核 | 40GB | 0.5TB | 1Gbps | 中国香港 CN2 GIA | $89.99/月 $899.99/年 | 购买 |
| HK | 4GB | 4核 | 80GB | 1TB | 1Gbps | $155.99/月 $1559.99/年 | 购买 | |
| OSAKA | 2GB | 2核 | 40GB | 0.5TB | 1.5Gbps | 日本大阪 CN2 GIA | $49.99/月 $499.99/年 | 购买 |
| OSAKA | 4GB | 4核 | 80GB | 1TB | 1.5Gbps | $86.99/月 $869.99/年 | 购买 |
13. 总结和系列文章
回答最开始的问题——月预算 XX 元能跑什么 AI:
- 30 元:能体验,不能干活
- 50 元:个人 AI 助手,够用
- 100 元:AI 对话 + 自动化工作流,能干活
- 200 元:全栈 AI 应用平台,能赚钱
- 500 元:小团队级 AI 基础设施
不管哪个预算档位,DeepSeek V3 都是 API 的第一选择——便宜、中文好、速度快。免费的智谱 GLM-4-Flash 做兜底。VPS 选搬瓦工,稳定靠谱。
官网:bwh81.net
AI + VPS 系列文章
本文是 oldtang.com「AI on VPS」系列的第六篇。系列文章:
- 《2026 VPS 部署 AI 大模型完全指南:从选配置到跑起来》
- 《2C2G / 4C4G / 8C8G VPS 分别能跑什么 AI 应用?配置选择与性能预估》
- 《2026 搬瓦工 VPS 部署 Ollama + Open WebUI 教程:搭建私人 ChatGPT》
- 《2026 搬瓦工 VPS 部署 Dify AI 应用平台教程:从安装到搭建 RAG 知识库》
- 《2026 搬瓦工 VPS 部署 n8n + DeepSeek 自动化工作流教程》
- 本文:《月预算 30-500 元,能跑什么 AI?VPS + AI 费用全拆解》
购买教程:《搬瓦工购买教程》
新手指南:《搬瓦工新手入门完全指南》

老唐笔记






