Skip to content

速度优化

减少响应时间、提高并发能力。

⚡ 优化方法

1. 选择合适的模型

模型速度对比

模型速度质量成本适用场景
GPT-3.5⚡⚡⚡⭐⭐💰快速问答
Claude 3 Haiku⚡⚡⚡⭐⭐⭐💰日常使用
GPT-4⭐⭐⭐⭐⭐💰💰💰复杂任务
Claude 3 Opus⭐⭐⭐⭐⭐💰💰💰💰高质量需求

建议

  • 日常聊天 → Claude 3 Haiku 或 GPT-3.5
  • 代码编写 → GPT-4 或 Claude 3 Sonnet
  • 翻译任务 → Claude 3 Haiku(够用且便宜)
  • 复杂推理 → GPT-4 或 Claude 3 Opus

2. 优化对话长度

问题:对话越长,每次处理越慢

解决

✅ 定期开始新对话
✅ 不要一个对话聊几百条
✅ 清理不需要的历史

最佳实践

每天晚上:开始新对话
达到 50 条:考虑新对话
感到变慢:立即新对话

3. 减少上下文

问题:上下文越多,处理越慢

解决

✅ 只提供必要的信息
✅ 删除无关的对话
✅ 使用精确的描述

例子

❌ 不好:
我之前问了关于 Python 的问题,然后问了 JavaScript,
然后问了数据库,现在想问 Go 语言...

✅ 好:
我想学习 Go 语言,从哪里开始?
(不需要前面的上下文)

4. 使用缓存

启用缓存

相同的问题,直接返回缓存结果

适用场景

  • 频繁询问相同信息
  • 不需要实时数据的查询
  • 常见问题回答

5. 网络优化

选择合适的 API

国内用户:使用国内 API 或代理
国外用户:直接访问 OpenAI/Claude

📋 速度优化检查清单

  • [ ] 选择了合适的模型
  • [ ] 控制对话长度
  • [ ] 减少上下文
  • [ ] 启用了缓存
  • [ ] 优化了网络

← 返回性能优化 | 下一节:成本优化 →