Chatbox AI
  • Chatbox AI
    • 项目介绍
  • 项目规划
  • 客户端下载
  • 反馈 & 建议
  • 更新日志
  • 基础教程
    • 模型配置
      • 如何将 Chatbox 连接到远程 Ollama 服务:逐步指南
      • 如何将 Chatbox 连接到 LM Studio:分步指南
    • 联网模式
    • 键盘快捷键
  • Chatbox AI 付费方案
    • 付费方案
    • 订阅管理
  • 常见问题
    • 常见问题
      • 付费后,如何重新找回 license?
      • 模型输出乱码怎么办?
      • 我的数据存储在哪里?
      • 常见错误代码
  • 联系我们
    • 商务合作
  • 关于
    • 隐私政策
    • 用户协议
Powered by GitBook
On this page
  1. 常见问题
  2. 常见问题

模型输出乱码怎么办?

尝试在设置中调整 Tempurature 值,例如调整到 0.7 以下。

Temperature 是一个控制 LLM 生成结果随机性的参数。

  • 当 Temperature 较低时(如 0.1),生成结果更加确定和保守,更接近训练数据分布。

  • 当 Temperature 较高时(如 1.0),生成结果更加随机和多样,可能会出现一些意外和创新的内容。

通过调整 Temperature 值,可以控制 LLM 输出的创造性和风险性。较低的 Temperature 更适合需要可靠和一致性的任务,而较高的 Temperature 可以用于鼓励创造性和探索性的应用场景。

Previous付费后,如何重新找回 license?Next我的数据存储在哪里?

Last updated 2 months ago