跳转至

常见问题解答

本页面解答常见问题。

为什么智能体的输出被截断了?

如果你观察到智能体的输出意外地被截断,问题可能与你使用的 LLM 服务设置的 max_output_token 限制有关。

例如,DeepSeek APIdeepseek-chat 模型设置了 4,096 个输出令牌的默认限制,但可以手动扩展到 8,192 个令牌。

为了解决这个问题,你可以在模型的配置 (ModelSettingsConfig) 中显式设置 max_tokens 参数。

model:
  # ... 其他提供商设置
  model_settings:
    temperature: 0.3
    top_p: 0.95
    max_tokens: 8000

更多背景信息,请参见 此问题

如何解决 LLM 请求超时问题?{: #how-can-i-resolve-llm-request-timeouts }

如果你遇到请求超时,请首先确保 LLM 服务正在运行。如果服务正常运行,你可能需要增加请求超时时间。

openai Python 包的默认超时时间为 600 秒。你可以通过在 ModelSettingsConfigextra_args 中设置 timeout 值来覆盖此默认值。

model:
  # ... 其他提供商设置
  model_settings:
    extra_args:
      timeout: 1200 # 将超时时间设置为 1200 秒

如何使用 LiteLLM(或 Azure)模型?{: #how-to-use-litellm-or-azure-model }

方法 1:如果 LiteLLM 服务与 openai chat.completions API 兼容,你可以简单地在 .env 文件中设置基本环境变量:

UTU_LLM_TYPE=chat.completions  # 使用默认的 LLM 调用方法
# 基本的 openai 配置,如果你不熟悉这些配置,请参见 `.env.full`
UTU_LLM_MODEL=
UTU_LLM_BASE_URL=
UTU_LLM_API_KEY=

方法 2:如果需要通过 litellm 包使用该服务,你应该安装额外的包并配置以下环境变量:

UTU_LLM_TYPE=litellm  # 将 LLM 类型设置为 litellm
# 设置 litellm 模型名称,例如 azure/gpt-5
UTU_LLM_MODEL=
# 在下面添加其他必要的 litellm 配置,参见 https://docs.litellm.ai/docs/providers/

例如,对于 Azure 支持,你需要设置:

AZURE_API_BASE=https://<YOUR-RESOURCE-NAME>.azure.com/
AZURE_API_KEY=<AZURE_OPENAI_API_KEY>

更多背景信息,请参见 此问题