AI 统计功能说明配置说明AI 统计功能说明相比于传统微服务,LLM 应用中主要通过 token 来衡量流量大小,针对此特点,AI 统计插件提供了路由级、服务级、模型级的 token 用量观测能力,包括日志、监控以及告警。 AI 统计插件需要对接 ai-proxy 插件,如果不接 ai-proxy 插件的话,则只支持 openai 协议。 配置说明名称数据类型填写要求默认值描述enablebool必填-是否开启ai统计功能 开启后 metrics 示例: route_upstream_model_input_token{ai_route=”openai”,ai_cluster=”qwen”,ai_model=”qwen-max”} 21route_upstream_model_output_token{ai_route=”openai”,ai_cluster=”qwen”,ai_model=”qwen-max”} 17 日志示例: { “model”: “qwen-max”, “input_token”: “21”, “output_token”: “17”, “authority”: “dashscope.aliyuncs.com”, “bytes_received”: “336”, “bytes_sent”: “1675”, “duration”: “1590”, “istio_policy_status”: “-“, “method”: “POST”, “path”: “/v1/chat/completions”, “protocol”: “HTTP/1.1”, “request_id”: “5895f5a9-e4e3-425b-98db-6c6a926195b7”, “requested_server_name”: “-“, “response_code”: “200”, “response_flags”: “-“, “route_name”: “openai”, “start_time”: “2024-06-18T09:37:14.078Z”, “trace_id”: “-“, “upstream_cluster”: “qwen”, “upstream_service_time”: “496”, “upstream_transport_failure_reason”: “-“, “user_agent”: “PostmanRuntime/7.37.3”, “x_forwarded_for”: “-“}