分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
搜索
书栈网 · BookStack
本次搜索耗时
0.011
秒,为您找到
19
个相关结果.
搜书籍
搜文档
将MaxKB小助手集成到Halo中
215
2024-07-10
《MaxKB v1.3 中文文档》
将 MaxKB 小助手集成到 Halo 中 将 MaxKB 小助手集成到 Halo 中 Halo [ˈheɪloʊ],强大易用的开源建站工具。支持将文章内容同步至 MaxKB 知识库,并开启网页小助手。如何将 MaxKB 小助手集成到 Halo 中,请查看官方文档 。
在线安装
532
2024-07-10
《MaxKB v1.3 中文文档》
在线安装 1 环境要求 2 在线快速部署 3 在线升级 在线安装 1 环境要求 安装前请确保您的系统符合安装条件: 操作系统:Ubuntu 22.04 / CentOS 7 64 位系统; CPU/内存: 推荐 2C/4GB 以上; 磁盘空间:100GB; 浏览器要求:请使用 Chrome、FireFox、Safari、Edge...
离线安装
433
2024-07-10
《MaxKB v1.3 中文文档》
离线安装 1 环境要求 2 离线部署 3 离线升级 离线安装 1 环境要求 安装前请确保您的系统符合安装条件: 操作系统:Ubuntu 22.04 / CentOS 7 64 位系统; CPU/内存: 推荐 2C/4GB 以上; 磁盘空间:100GB; 浏览器要求:请使用 Chrome、FireFox、Safari、Edge等现...
开发环境搭建
404
2024-07-10
《MaxKB v1.3 中文文档》
开发环境搭建 1 项目结构 2 环境准备 3 开发环境搭建 4 开发准备 4.1 本地配置 5 开发调试 5.2 启动后端项目 6 常见问题 开发环境搭建 1 项目结构 . ├── LICENSE # License 申明 ├── READM...
团队管理
237
2024-07-10
《MaxKB v1.3 中文文档》
团队管理 1 添加成员 2 权限设置 3 移除成员 团队管理 在 MaxKB 中,支持团队协同维护知识库和应用。内置所有者和成员两种角色,当前登录用户为所有者角色,添加成员用户都为成员角色。在团队管理钟支持添加和移除成员。 1 添加成员 点击【添加成员】,需要输入成员的用户名或邮箱进行添加。注意: 仅能添加成员必须是已存在 M...
模型管理
527
2024-07-10
《MaxKB v1.3 中文文档》
模型管理 1 添加模型 1.1 添加千帆大模型 1.2 添加 Ollama 模型 1.3 添加 Azure OpenAI 模型 1.4 添加 OpenAI 大模型 1.5 添加讯飞星火大模型 1.6 添加智谱AI大模型 1.7 添加通义千问大模型 1.8 添加 Kimi 大模型 1.9 添加 DeepSeek 大模型 1.10 添加 Gem...
联系我们
149
2024-07-10
《MaxKB v1.3 中文文档》
联系我们 1 项目地址 2 社区论坛 3 联系方式 联系我们 1 项目地址 MaxKB Issues 2 社区论坛 飞致云官方开源社区论坛:开源社区论坛 大家可以在这里搜索、咨询、讨论问题,发表自己的见解与想法。 3 联系方式 官网:https://fit2cloud.com/maxkb 微信交流群:
快速入门
372
2024-07-10
《MaxKB v1.3 中文文档》
快速入门 1 登录 MaxKB 系统 2 添加模型 2.1 添加千帆大模型 2.2 添加 Ollama 模型 2.3 添加 Azure OpenAI 模型 2.4 添加 OpenAI 大模型 2.5 添加讯飞星火大模型 2.6 添加智谱AI大模型 2.7 添加通义千问大模型 2.8 添加 Kimi 大模型 2.9 添加 DeepSeek 大...
Ollama离线部署LLM模型
284
2024-07-10
《MaxKB v1.3 中文文档》
如何使用Ollama离线部署LLM大语言模型 2. 上传 Qwen1.5-0.5B-Chat-GGUF 模型离线文件到 Ollama 所在服务器 3. 创建Ollama Modelfile 4. 在Ollama中创建模型 5. 在 MaxKB中 添加 Ollama 模型 对接上面创建的 qwen:0.5b 模型 如何使用Ollama离...
Ollama使用GPU运行LLM模型
681
2024-07-10
《MaxKB v1.3 中文文档》
如何让Ollama使用GPU运行LLM模型 1. 安装英伟达容器安装包 2. 使用 GPU 运行 Ollama 3. 使用 Ollama 下载模型 4. 在 MaxKB 的模型设置中添加模型进行对接 如何让Ollama使用GPU运行LLM模型 说明:以 GPU 模式运行 Ollama 需要有 NVIDIA 显卡支持。 1. 安装英...
1
2
»
..2