知识检索

从知识库中检索相关内容并补充到模型上下文,适合私有领域问答、内部知识助手与专业资料检索场景

概述

知识检索依赖百炼侧的 file_search 工具。Ling.AI 不会自行执行知识库检索,而是把工具配置和请求体原样透传给上游。当前该能力仅支持通过 Responses API 调用

前提条件

调用前需要先在上游创建知识库并拿到知识库 ID。请求中的 vector_store_ids 用于指定要检索的知识库,当前仅支持传入一个知识库 ID

适用场景

适合产品手册问答、企业内部知识助手、政策或合规资料查询等私有知识场景。模型会先执行 file_search 检索,再根据召回内容生成回答。

Responses API

/v1/responses 中,通过 tools 声明 file_search,并在工具参数里传入 vector_store_ids 即可。

Python
from openai import OpenAI

client = OpenAI(
    base_url="https://api.vip.lingapi.ai/v1",
    api_key="sk-xxxxxxxx"
)

response = client.responses.create(
    model="qwen3.5-plus",
    input="介绍一下阿里云百炼 X1 手机",
    tools=[
        {
            "type": "file_search",
            "vector_store_ids": ["your_knowledge_base_id"]
        }
    ]
)

print(response.output_text)

如果需要控制知识库来源,请把目标知识库 ID 填到 vector_store_ids 中。当前为了兼容上游行为,建议始终只传一个知识库 ID,避免多知识库输入在上游被拒绝或忽略。

流式输出

知识检索通常需要先完成语义召回,再进入生成阶段,建议开启 stream=True。在流式模式下,您可以按常规 Responses 事件处理模型输出,并在 response.completed 阶段读取最终 usage

参数说明

参数 必填 说明
type 固定为 file_search
vector_store_ids 知识库 ID 列表。当前仅支持传入一个知识库 ID。

计费说明

  • 知识库召回内容会进入模型上下文,因此会增加输入 Token 成本。
  • file_search 本身没有内置固定的按次单价文案,知识库检索费用请以上游知识库计费规则为准。
  • 若上游返回相关工具使用信息,Ling.AI 会原样保留在响应结构或用量信息中,便于审计与排查。