分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
搜索
书栈网 · BookStack
本次搜索耗时
0.038
秒,为您找到
216272
个相关结果.
搜书籍
搜文档
配置多个调度器
147
2024-04-24
《Kubernetes v1.30 中文文档》
配置多个调度器 准备开始 打包调度器 为调度器定义 Kubernetes Deployment 在集群中运行第二个调度器 启用领导者选举 为 Pod 指定调度器 验证是否使用所需的调度器调度了 Pod 配置多个调度器 Kubernetes 自带了一个默认调度器,其详细描述请查阅 这里 。 如果默认调度器不适合你的需求,你可以实现自己的调度...
学习率调度器
1631
2019-03-02
《PaddlePaddle 1.3(fluid) 使用文档》
学习率调度器 学习率调度器 当我们使用诸如梯度下降法等方式来训练模型时,一般会兼顾训练速度和损失(loss)来选择相对合适的学习率。但若在训练过程中一直使用一个学习率,训练集的损失下降到一定程度后便不再继续下降,而是在一定范围内震荡。其震荡原理如下图所示,即当损失函数收敛到局部极小值附近时,会由于学习率过大导致更新步幅过大,每步参数更新会反复越过极小...
查看调度器状态
58
2024-08-27
《KubeSphere 企业版 v4.1.1 中文文档》
前提条件 操作步骤 本节介绍如何查看调度器状态。调度器根据容器组的资源需求、节点可用资源和其他约束条件决定容器组运行在哪些节点上。 前提条件 您需要加入一个集群并在集群中具有监控查看 权限。有关更多信息,请参阅集群成员 和集群角色 。 KubeSphere 企业版平台需要安装并启用 WhizardTelemetry 监控 扩展组件。 ...
恢复任务
302
2021-08-15
《TiDB Data Migration (DM) 2.0 用户文档》
恢复数据迁移任务 命令用法示例 参数解释 返回结果示例 恢复数据迁移任务 resume-task 命令用于恢复处于 Paused 状态的数据迁移任务,通常用于在人为处理完造成迁移任务暂停的故障后手动恢复迁移任务。 help resume - task resume a specified paused task Usag...
服务任务快照
349
2020-10-29
《SequoiaDB 巨杉数据库 v5.0 使用手册》
服务任务快照 描述 标示 字段信息 示例 服务任务快照 描述 服务任务快照 SDB_SNAP_SVCTASKS 列出当前数据库节点中服务任务的统计信息,输出一条记录。 标示 SDB_SNAP_SVCTASKS 字段信息 字段名 类型 描述 NodeName 字符串 任务所在的节点 TaskName 字符串 任务名称 TaskI...
服务任务列表
302
2020-10-29
《SequoiaDB 巨杉数据库 v5.0 使用手册》
服务任务列表 描述 标示 字段信息 示例 服务任务列表 描述 服务任务列表 SDB_LIST_SVCTASKS 列出当前数据库节点中所有的服务任务。 标示 SDB_LIST_SVCTASKS 字段信息 字段名 类型 描述 NodeName 字符串 任务所在的节点 TaskID 整型 任务ID TaskName 字符串 任务名称...
后台任务
458
2020-06-08
《SequoiaDB 巨杉数据库 v3.2 使用手册》
后台任务 概念 后台任务 概念 后台任务是一种不阻塞前端会话的任务,并不会随着前端会话的中断而停止。 所有的后台任务都会在编目节点的SYSCAT.SYSTASKS集合中跟踪,不同类型的后台任务可能包含不同的字段。 以下字段存在于所有的后台任务中: 字段名 类型 描述 JobType 整数 任务类型,分别代表:0:数据切分 Status 整...
定时任务
824
2020-03-19
《KubeSphere v2.1 使用手册》
定时任务 创建定时任务 第一步:填写基本信息 第二步:任务设置 第三步:配置任务模板 第四步:存储卷设置 持久化存储卷 临时存储卷 引用配置中心 第五步:标签设置 第六步:添加节点选择器 定时任务 定时任务 (CronJob),是基于时间的 Job,就类似于 Linux 系统的 crontab,在指定的时间周期运行指定的 Job,...
长任务爬虫
1137
2020-03-31
《Crawlab v0.4.9 网络爬虫使用教程》
长任务爬虫 长任务爬虫 长任务爬虫(Long-Task Spiders)是一种特殊的 自定义爬虫 ,这种爬虫跑任务不会停止,一般会一直获取消息队列中的 URL 并抓取,只有当用户主动停止或遇到错误时才会停止运行。长任务爬虫通常是分布式运行的,为的是有效的利用网络带宽资源和其他计算资源,将分布式节点的效率利用到极致。典型的例子就是基于 Scrapy 的...
1..
«
69
70
71
72
»
..100