书栈网 · BookStack 本次搜索耗时 0.014 秒,为您找到 82 个相关结果.
  • 快速开始本地开发

    快速开始本地开发 前置依赖项 开始本地开发 1. Fork 存储库 2. 克隆存储库 3. 安装数据库 4. 初始配置 5. 运行 6. 部署打包 提交代码至开源仓库 QA 本地数据库无法连接 sh ./scripts/postinstall.sh 没权限 长时间运行后崩溃 TypeError: Cannot read propert...
  • Sealos 一键部署

    Sealos 一键部署 部署架构图 多模型支持 一键部署 登录 修改配置文件和环境变量 更新 Sealos 使用 简介 如何更新/升级 FastGPT 如何获取 FastGPT 访问链接 配置自定义域名 如何修改配置文件 修改站点名称以及 favicon 挂载logo 管理后台(已合并到plus) 商业版镜像配置文件 One A...
  • Docker Compose 快速部署

    Docker Compose 快速部署 推荐配置 部署架构图 1. 准备好代理环境(国外服务器可忽略) 2. 多模型支持 一、安装 Docker 和 docker-compose 二、创建目录并下载 docker-compose.yml 三、启动容器 四、打开 OneAPI 添加模型 五、访问 FastGPT FAQ Mongo 副本集自动...
  • V4.8

    V4.8 新工作流 商业版配置更新 V4.8 更新说明 V4.8 FastGPT V4.8 更新说明 新工作流 FastGPT workflow V2上线,支持更加简洁的工作流模式。 🤖 由于工作流差异较大,不少地方需要手动重新构建。请依次重建插件和应用 简易尽快更新工作流,避免未来持续迭代后导致无法兼容。 给应用和插件增加了 ve...
  • 接入 ChatGLM2-m3e 模型

    接入 ChatGLM2-m3e 模型 前言 部署镜像 接入 One API 测试 接入 FastGPT 测试使用 接入 ChatGLM2-m3e 模型 将 FastGPT 接入私有化模型 ChatGLM2和m3e-large 前言 FastGPT 默认使用了 OpenAI 的 LLM 模型和向量模型,如果想要私有化部署的话,可以使用...
  • Api Key 使用与鉴权

    Api Key 使用与鉴权 使用说明 如何查看 BaseURL 如何获取 Api Key 基本配置 Api Key 使用与鉴权 FastGPT Api Key 使用与鉴权 使用说明 FasGPT OpenAPI 接口允许你使用 Api Key 进行鉴权,从而操作 FastGPT 上的相关服务和资源,例如:调用应用对话接口、上传知识库数据、搜...
  • 使用 Gapier 快速导入Agent工具

    使用 Gapier 快速导入Agent工具 1. 创建插件 2. 应用绑定工具 简易模式 高级编排 3. 工具调用说明 不同模型的区别 使用 Gapier 快速导入Agent工具 FastGPT 使用 Gapier 快速导入Agent工具 FastGPT V4.7版本加入了工具调用,可以兼容 GPTs 的 Actions。这意味着,你可以...
  • 接入 ChatGLM2-6B

    接入 ChatGLM2-6B 前言 ChatGLM2-6B 简介 推荐配置 部署 环境要求 源码部署 docker 部署 接入 One API 测试 接入 FastGPT 测试使用 接入 ChatGLM2-6B 将 FastGPT 接入私有化模型 ChatGLM2-6B 前言 FastGPT 允许你使用自己的 OpenAI A...
  • 对接 chatgpt-on-wechat

    对接 chatgpt-on-wechat 1 分钟对接 chatgpt-on-wechat 1. 获取 OpenAPI 秘钥 3. 创建 docker-compose.yml 文件 4. 运行 chatgpt-on-wechat 对接 chatgpt-on-wechat FastGPT 对接 chatgpt-on-wechat 1 分钟对接...
  • 接入 M3E 向量模型

    接入 M3E 向量模型 前言 部署镜像 接入 One API 测试 接入 FastGPT 测试使用 接入 M3E 向量模型 将 FastGPT 接入私有化模型 M3E 前言 FastGPT 默认使用了 openai 的 embedding 向量模型,如果你想私有部署的话,可以使用 M3E 向量模型进行替换。M3E 向量模型属于小模型,资...