分类
发现
榜单
收录
IT文库
服务器优惠
搜索
注册
登录
分类
发现
榜单
收录
IT文库
服务器优惠
搜索
注册
登录
搜索
书栈网 · BookStack
本次搜索耗时
0.036
秒,为您找到
178633
个相关结果.
搜书籍
搜文档
文档须知
582
2022-08-17
《Apache DolphinScheduler v2.0.6 使用手册》
文档须知 获取文档项目 文档环境 文档构建指南 文档规范 怎样提交文档 Pull Request 参考文档 文档须知 良好的使用文档对任何类型的软件都是至关重要的。欢迎任何可以改进 DolphinScheduler 文档的贡献。 获取文档项目 DolphinScheduler 项目的文档维护在独立的 git 仓库 中。 首先你需要先将...
文档须知
639
2022-10-11
《Apache DolphinScheduler v3.0.1 使用手册》
文档须知 获取文档项目 文档环境 文档构建指南 文档规范 怎样提交文档 Pull Request 参考文档 文档须知 良好的使用文档对任何类型的软件都是至关重要的。欢迎任何可以改进 DolphinScheduler 文档的贡献。 获取文档项目 DolphinScheduler 项目的文档维护在独立的 git 仓库 中。 首先你需要先将...
声明
1214
2018-04-07
《Learn RxJS(英文版)》
声明 本书是开源书籍,由书栈网小编整理自GitHub上。 小编在简单阅读了下英文原版的内容时,发现内容中有广告,然后对比了一下,发现是原作者加上去的。 小编没资格去移除这些广告,因为小编觉得,这是对原作者的一种尊重,而且,内容中的广告,并不影响阅读体验。 说这些,主要是为了告诉大家,书栈小编不会在内容中插入广告的… 好了,英文能力不错的朋友,开始...
本地化Helm文档
308
2023-10-07
《Helm v3.13.0 中文文档》
本地化Helm文档 入门 双字母语言代码 Fork, Branch, Change, Pull Request 翻译内容 开始一个新语言 翻译 在语言之间切换 解析内部链接 本地化Helm文档 本指南介绍如何本地化Helm文档。 入门 翻译工作使用与文档稿件相同的过程。翻译通过 pull requests 提供给 helm-www...
原生插件总览
568
2022-04-28
《LF Edge eKuiper v1.5 中文文档》
源 (Sources) source 元数据文件格式 libs about properties 样例文件 动作 (Sinks/Actions) sink 元数据文件格式 libs about properties 样例文件 函数 (Functions) functions 元数据文件格式 about functions 样例文件...
本地化
183
2024-04-30
《Gitea v1.21.1 中文文档》
本地化 支持的语言 本地化 Gitea的本地化是通过我们的Crowdin项目 进行的。 对于对英语翻译 的更改,可以发出pull-request,来更改英语语言环境 中合适的关键字。 有关对非英语 翻译的更改,请参阅上面的 Crowdin 项目。 支持的语言 上述 Crowdin 项目中列出的任何语言一旦翻译了 25% 或更多都将得到支持。 ...
样式
246
2024-10-17
《Excelize v2.9 中文文档》
样式 创建样式 边框 颜色填充 图案填充 对齐方式 缩进 水平对齐方式 垂直对齐方式 阅读顺序 相对缩进 字体下划线 数字自定义格式 繁体中文数字自定义格式 简体中文数字自定义格式 日本语数字自定义格式 韩语数字自定义格式 泰国语数字自定义格式 货币格式 获取样式 设置列样式 获取列样式 设置行样式 设置默认字体 ...
印刷文字识别
1710
2019-05-08
《科大讯飞REST_API开发指南》
1. 接口说明 2. 接口地址 3. 请求参数 4. 返回值 5. 调用示例 1. 接口说明 通用文字识别(General words Recognition)基于深度神经网络模型的端到端文字识别系统,将图片(来源如扫描仪或数码相机)中的文字转化为计算机可编码的文字 2. 接口地址 POST http [ s ]: //webap...
vi编辑器.md
1956
2019-03-05
《征服 Linux》
vi - 终端中的编辑器 目标 01. vi 简介 1.1 学习 vi 的目的 1.2 vi 和 vim vi vim 查询软连接命令(知道) 02. 打开和新建文件 2.1 打开文件并且定位行 2.2 异常处理 03. 三种工作模式 末行模式命令 04. 常用命令 命令线路图 学习提示 4.1 移动(基本) 1) 上、下...
Ollama使用GPU运行LLM模型
836
2024-07-10
《MaxKB v1.3 中文文档》
如何让Ollama使用GPU运行LLM模型 1. 安装英伟达容器安装包 2. 使用 GPU 运行 Ollama 3. 使用 Ollama 下载模型 4. 在 MaxKB 的模型设置中添加模型进行对接 如何让Ollama使用GPU运行LLM模型 说明:以 GPU 模式运行 Ollama 需要有 NVIDIA 显卡支持。 1. 安装英...
1..
«
34
35
36
37
»
..100