【异常】MiniMax-M2.7 模型接口调用限流故障排查笔记 OpenAIException - 当前服务集群负载较高,请稍后重试,感谢您的耐心等待。(2064). Received Model G

张开发
2026/4/14 16:32:32 15 分钟阅读

分享文章

【异常】MiniMax-M2.7 模型接口调用限流故障排查笔记 OpenAIException - 当前服务集群负载较高,请稍后重试,感谢您的耐心等待。(2064). Received Model G
一、报错内容业务系统在调用大模型进行分析任务时失败,核心报错日志如下:2026-04-10 15:03:43 | WARNING | src\core\pipeline.py:1245 | [513310] 分析未成功: All LLM models failed (rate-limit encountered during fallback). Last error: litellm.APIError: APIError: OpenAIException - 当前服务集群负载较高,请稍后重试,感谢您的耐心等待。(2064). Received Model Group=openai/MiniMax-M2.7关键信息提取:调用链路:使用litellm库,通过类 OpenAI 格式封装调用。目标模型:openai/MiniMax-M2.7。直接错误:rate-limit(触发限流)。服务商返回:当前服务集群负载较高(错误码: 2064)。二、报错说明该报错并非业务代码逻辑错误,而是典型的大模型服务端资源瓶颈与访

更多文章