功能说明
LLM响应结构化插件,用于根据默认或用户配置的Json Schema对AI的响应进行结构化,以便后续插件处理。注意目前只支持 非流式响应
。
运行属性
插件执行阶段:默认阶段
插件执行优先级:150
配置说明
Name | Type | Requirement | Default | Description |
---|---|---|---|---|
serviceName | str | required | - | AI服务或支持AI-Proxy的网关服务名称 |
serviceDomain | str | optional | - | AI服务或支持AI-Proxy的网关服务域名/IP地址 |
servicePath | str | optional | ’/v1/chat/completions’ | AI服务或支持AI-Proxy的网关服务基础路径 |
serviceUrl | str | optional | - | AI服务或支持 AI-Proxy 的网关服务URL, 插件将自动提取Domain 和 Path, 用于填充未配置的 serviceDomain 或 servicePath |
servicePort | int | optional | 443 | 网关服务端口 |
serviceTimeout | int | optional | 50000 | 默认请求超时时间 |
maxRetry | int | optional | 3 | 若回答无法正确提取格式化时重试次数 |
contentPath | str | optional | ”choices.0.message.content” | 从LLM回答中提取响应结果的gpath路径 |
jsonSchema | str (json) | optional | - | 验证请求所参照的 jsonSchema, 为空只验证并返回合法Json格式响应 |
enableSwagger | bool | optional | false | 是否启用 Swagger 协议进行验证 |
enableOas3 | bool | optional | true | 是否启用 Oas3 协议进行验证 |
enableContentDisposition | bool | optional | true | 是否启用 Content-Disposition 头部, 若启用则会在响应头中添加 Content-Disposition: attachment; filename=”response.json” |
出于性能考虑,默认支持的最大 Json Schema 深度为 6。超过此深度的 Json Schema 将不用于验证响应,插件只会检查返回的响应是否为合法的 Json 格式。
请求和返回参数说明
请求参数: 本插件请求格式为openai请求格式,包含
model
和messages
字段,其中model
为AI模型名称,messages
为对话消息列表,每个消息包含role
和content
字段,role
为消息角色,content
为消息内容。其他请求参数需参考配置的ai服务或网关服务的相应文档。
- 返回参数:
- 返回满足定义的Json Schema约束的
Json格式响应
- 若未定义Json Schema,则返回合法的
Json格式响应
- 若出现内部错误,则返回
{ "Code": 10XX, "Msg": "错误信息提示" }
。
- 返回满足定义的Json Schema约束的
请求示例
返回示例
正常返回
在正常情况下,系统应返回经过 JSON Schema 验证的 JSON 数据。如果未配置 JSON Schema,系统将返回符合 JSON 标准的合法 JSON 数据。
异常返回
在发生错误时,返回状态码为 500
,返回内容为 JSON 格式的错误信息。包含错误码 Code
和错误信息 Msg
两个字段。
错误码说明
错误码 | 说明 |
---|---|
1001 | 配置的Json Schema不是合法Json格式 |
1002 | 配置的Json Schema编译失败,不是合法的Json Schema 格式或深度超出 jsonSchemaMaxDepth 且 rejectOnDepthExceeded 为true |
1003 | 无法在响应中提取合法的Json |
1004 | 响应为空字符串 |
1005 | 响应不符合Json Schema定义 |
1006 | 重试次数超过最大限制 |
1007 | 无法获取响应内容,可能是上游服务配置错误或获取内容的ContentPath路径错误 |
1008 | serciveDomain为空, 请注意serviceDomian或serviceUrl不能同时为空 |
服务配置说明
本插件需要配置上游服务来支持出现异常时的自动重试机制, 支持的配置主要包括支持openai接口的AI服务
或本地网关服务
支持openai接口的AI服务
以qwen为例,基本配置如下:
本地网关服务
为了能复用已经配置好的服务,本插件也支持配置本地网关服务。例如,若网关已经配置好了AI-proxy服务,则可以直接配置如下:
创建一个固定IP地址为127.0.0.1:80的服务,例如localservice.static
配置文件中添加localservice.static的服务配置
- 自动提取请求的Path,Header等信息 插件会自动提取请求的Path,Header等信息,从而避免对AI服务的重复配置。