常见问题解答
本页面解答常见问题。
为什么智能体的输出被截断了?
如果你观察到智能体的输出意外地被截断,问题可能与你使用的 LLM 服务设置的 max_output_token 限制有关。
例如,DeepSeek API 为 deepseek-chat 模型设置了 4,096 个输出令牌的默认限制,但可以手动扩展到 8,192 个令牌。
为了解决这个问题,你可以在模型的配置 (ModelSettingsConfig) 中显式设置 max_tokens 参数。
model:
# ... 其他提供商设置
model_settings:
temperature: 0.3
top_p: 0.95
max_tokens: 8000
更多背景信息,请参见 此问题。
如何解决 LLM 请求超时问题?{: #how-can-i-resolve-llm-request-timeouts }
如果你遇到请求超时,请首先确保 LLM 服务正在运行。如果服务正常运行,你可能需要增加请求超时时间。
openai Python 包的默认超时时间为 600 秒。你可以通过在 ModelSettingsConfig 的 extra_args 中设置 timeout 值来覆盖此默认值。
model:
# ... 其他提供商设置
model_settings:
extra_args:
timeout: 1200 # 将超时时间设置为 1200 秒
如何使用 LiteLLM(或 Azure)模型?{: #how-to-use-litellm-or-azure-model }
方法 1:如果 LiteLLM 服务与 openai chat.completions API 兼容,你可以简单地在 .env 文件中设置基本环境变量:
UTU_LLM_TYPE=chat.completions # 使用默认的 LLM 调用方法
# 基本的 openai 配置,如果你不熟悉这些配置,请参见 `.env.full`
UTU_LLM_MODEL=
UTU_LLM_BASE_URL=
UTU_LLM_API_KEY=
方法 2:如果需要通过 litellm 包使用该服务,你应该安装额外的包并配置以下环境变量:
UTU_LLM_TYPE=litellm # 将 LLM 类型设置为 litellm
# 设置 litellm 模型名称,例如 azure/gpt-5
UTU_LLM_MODEL=
# 在下面添加其他必要的 litellm 配置,参见 https://docs.litellm.ai/docs/providers/
例如,对于 Azure 支持,你需要设置:
AZURE_API_BASE=https://<YOUR-RESOURCE-NAME>.azure.com/
AZURE_API_KEY=<AZURE_OPENAI_API_KEY>
更多背景信息,请参见 此问题