分类
发现
榜单
服务器优惠
AI论文
IT文库
搜索
注册
登录
分类
发现
榜单
服务器优惠
AI论文
IT文库
搜索
注册
登录
搜索
书栈网 · BookStack
本次搜索耗时
0.017
秒,为您找到
176427
个相关结果.
搜书籍
搜文档
修改 PostgreSQL 实例配置
587
2019-11-26
《SequoiaDB 巨杉数据库 v3.4 使用手册》
修改 PostgreSQL 实例配置 修改 PostgreSQL 实例配置 修改 PostgreSQL 实例配置 页面可以查看节点配置,可以在线修改节点配置。 通过左侧导航 配置 选择 PostgreSQL 实例,点击进入配置页面,可以查看服务的常用配置项,以及进行 修改配置 、 重启服务 、 查看详细配置 操作。 查看节点详细配...
删除工作负载
67
2024-08-27
《KubeSphere 企业版 v4.0 中文文档》
前提条件 删除单个工作负载 批量删除工作负载 本节介绍如何删除工作负载。 警告 此操作将删除工作负载及其管理的所有容器组,工作负载中运行的业务将中断,请谨慎执行此操作。 前提条件 您需要加入一个项目并在项目中具有应用负载管理 权限。有关更多信息,请参阅项目成员 和项目角色 。 删除单个工作负载 以具有应用负载管理 权限的用户登录...
删除工作负载
50
2024-08-27
《KubeSphere 企业版 v4.0 中文文档》
前提条件 删除单个工作负载 批量删除工作负载 本节介绍如何删除工作负载。 警告 此操作将删除工作负载及其管理的所有容器组,工作负载中运行的业务将中断,请谨慎执行此操作。 前提条件 您需要加入一个集群并在集群中具有应用负载管理 权限。有关更多信息,请参阅集群成员 和集群角色 。 删除单个工作负载 以具有应用负载管理 权限的用户登录...
如何向 Cocos 提交代码
962
2020-04-14
《Cocos Creator v2.3 用户手册》
如何向 Cocos 提交代码 注册一个 GitHub 账号 环境配置 安装 Git 安装 Git 客户端 —— Sourcetree Sourcetree 配置 GitHub 账号 Fork 项目 将远程仓库克隆到本地仓库 上传本地修改到远程仓库 添加官方仓库 如何反馈文档有关的问题 如何向 Cocos 提交代码 文:薰依 ...
史诗
335
2020-10-14
《Choerodon(猪齿鱼)v0.23 中文文档》
史诗 1. 概述 2. 创建史诗 3. 史诗分配 4. 阅读更多 史诗 1. 概述 史诗一个很大的用户故事,可以包含很多故事。从一定程度上说,史诗是颗粒度更大的用户故事,例如,它可以拆分成多个用户故事。 2. 创建史诗 您可以在工作列表待办事项中史诗列表对史诗进行编辑,如图: 进入史诗列表,点击某个史诗名称,会显示出该史诗问...
史诗
343
2021-08-04
《Choerodon(猪齿鱼)v1.0 中文文档》
史诗 1. 概述 2. 创建史诗 3. 史诗分配 4. 阅读更多 史诗 1. 概述 史诗一个很大的用户故事,可以包含很多故事。从一定程度上说,史诗是颗粒度更大的用户故事,例如,它可以拆分成多个用户故事。 2. 创建史诗 您可以在工作列表待办事项中史诗列表对史诗进行编辑,如图: 进入史诗列表,点击某个史诗名称,会显示出该史诗问题总数...
史诗
353
2020-03-20
《Choerodon(猪齿鱼)v0.21 中文文档》
史诗 1. 概述 2. 创建史诗 3. 史诗分配 4. 阅读更多 史诗 1. 概述 史诗一个很大的用户故事,可以包含很多故事。从一定程度上说,史诗是颗粒度更大的用户故事,例如,它可以拆分成多个用户故事。 2. 创建史诗 您可以在工作列表待办事项中史诗列表对史诗进行编辑,如图: 进入史诗列表,点击某个史诗名称,会显示出该史诗问...
快速使用文档
1374
2020-06-30
《DataSphere Studio v0.8 使用教程》
快速登录 创建工程 创建工作流 工作流编辑 工作流运行 工作流调度 DataSphere Studio快速使用手册 - 快速登录 为了方便用户使用,系统默认通过使用Linkis的部署用户名进行登录,比如是hadoop部署的可以直接通过 用户:hadoop,密码:hadoop(密码就是用户名)来进行登录。 首先输入前端容器地址:...
DataSphere Studio 快速使用手册
5132
2019-12-12
《DataSphere Studio v0.6 使用手册》
快速登录 创建工程 创建工作流 工作流编辑 工作流运行 工作流调度 DataSphere Studio快速使用手册 - 快速登录 为了方便用户使用,系统默认通过使用Linkis的部署用户名进行登录,比如是hadoop部署的可以直接通过 用户:hadoop,密码:hadoop(密码就是用户名)来进行登录。 首先输入前端容器地址:...
1..
«
53
54
55
56
»
..100