书栈网 · BookStack 本次搜索耗时 0.037 秒,为您找到 337 个相关结果.
  • 模型管理

    模型管理 1 添加模型 1.1 添加千帆大模型 1.2 添加 Ollama 模型 1.3 添加 Azure OpenAI 模型 1.4 添加 OpenAI 大模型 1.5 添加讯飞星火大模型 1.6 添加智谱AI大模型 1.7 添加通义千问大模型 1.8 添加 Kimi 大模型 1.9 添加 DeepSeek 大模型 1.10 添加 Gem...
  • PPL tool

    PPL tool Prerequisite Step 1: Create a connector for a model Step 2: Register and deploy the model Step 3: Register a flow agent that will run the PPLTool Step 4: Run the agent...
  • 完成一次问答

    完成一次问答 完成一次问答 第一个案例,我们就来个最简单的,用 LangChain 加载 OpenAI 的模型,并且完成一次问答。 在开始之前,我们需要先设置我们的 openai 的 key,这个 key 可以在用户管理里面创建,这里就不细说了。 import os os . environ [ "OPENAI_API_KEY" ] = ...
  • 快速入门

    快速入门 1 登录 MaxKB 系统 2 添加模型 2.1 添加千帆大模型 2.2 添加 Ollama 模型 2.3 添加 Azure OpenAI 模型 2.4 添加 OpenAI 大模型 2.5 添加讯飞星火大模型 2.6 添加智谱AI大模型 2.7 添加通义千问大模型 2.8 添加 Kimi 大模型 2.9 添加 DeepSeek 大...
  • Neural Sparse Search tool

    Neural Sparse Search tool Step 1: Register and deploy a sparse encoding model Step 2: Ingest data into an index Step 3: Register a flow agent that will run the NeuralSparseSearch...
  • AI 缓存

    AI 缓存 功能说明 配置说明 配置示例 AI 缓存 功能说明 AI 缓存插件实现了将 LLM 响应进行抽取并缓存的功能,对于向 LLM API 高频请求相同问题的场景可以显著降低响应时延并节省成本。默认配置方式可以直接用于 openai 协议的结果缓存,同时支持流式和非流式响应的缓存。 需要数据面的proxy wasm版本大于等于0.2....
  • Build your own chatbot

    Build your own chatbot Prerequisite Step 1: Configure a knowledge base Step 2: Prepare an LLM Step 3: Create an agent with the default prompt Create an agent Test the agent Tes...
  • Enable feature previews

    Understanding the implications of beta previews Possible dangers of using a beta feature How to enable feature previews ️‼️ HEADS UP! Feature previews are not stable . Please...
  • Examples

    Examples Semantic Search LLM Pipelines Workflows Model Training Scale Architecture Releases Applications Examples See below for a comprehensive series of example not...
  • Examples

    Examples Semantic Search LLM Pipelines Workflows Model Training Scale Architecture Releases Applications Examples See below for a comprehensive series of example not...