1.优化OpenAI请求,gpt-5-chat-latest支持Temperature、TopP参数2.重构Gemini请求,未设置max_tokens将按官方的最大max_tokens3.考虑到gpt-5非流请求较慢,STREAMING_TIMEOUT默认值改为3004.适配glm-4.5 支持Claude原生请求格式,实现官方阶梯计费5.responses 参数input使用any类型,兼容getInputTokens统计6.更换TokenEncoders包、优化过时的图片tokens统计(与官方模型保持一致)7.responses的promptsTokens预扣费,暂时移除base64图片统计(避免出现百万tokens异常)8.中间件无法捕获goroutine中的panic,实现StreamScannerHandler panic恢复机制,防止系统奔溃重启