分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
搜索
书栈网 · BookStack
本次搜索耗时
0.016
秒,为您找到
69750
个相关结果.
搜书籍
搜文档
用户须知
998
2021-04-03
《华为 openGauss (GaussDB) v2.0 使用手册》
用户须知 用户须知 openGauss是一款极致性能、安全、可靠的关系型(OLTP)开源数据库。采用协议“木兰宽松许可证”(Mulan PSL V2),用户可以自由复制、使用、修改、分发,不论修改与否。 openGauss版本号采用点分位命名规则(X.Y.Z)模式,其中X表示架构变更版本,Y表示每年发布版本,Z表示补丁版本。正常每年会发布一个Y版本...
已知问题
652
2020-06-26
《openEuler 20.03 LTS 使用指南》
已知问题 已知问题 内核FIPS启动模式还未经过完整认证,FIPS启动可能存在问题。I17Z18 使用libvirt启动glusterfs虚拟机,每次会有300字节的内存泄漏。讨论详情请参见社区讨论 。I185CH 使用libvirt接口连续执行磁盘热插拔操作,概率性出现热拔接口返回成功,但磁盘未真正拔除,也不能再次热插和热拔该磁盘。关闭虚...
用户须知
448
2021-04-03
《华为 openGauss (GaussDB) 1.0.1 使用手册》
用户须知 用户须知 openGauss是一款极致性能、安全、可靠的关系型(OLTP)开源数据库。采用协议“木兰宽松许可证”(Mulan PSL V2),用户可以自由复制、使用、修改、分发,不论修改与否。 openGauss版本号采用点分位命名规则(X.Y.Z)模式,其中X表示架构变更版本,Y表示每年发布版本,Z表示补丁版本。正常每年会发布一个Y版本...
用户须知
499
2021-04-03
《华为 openGauss (GaussDB) v1.1 使用手册》
用户须知 用户须知 openGauss是一款极致性能、安全、可靠的关系型(OLTP)开源数据库。采用协议“木兰宽松许可证”(Mulan PSL V2),用户可以自由复制、使用、修改、分发,不论修改与否。 openGauss版本号采用点分位命名规则(X.Y.Z)模式,其中X表示架构变更版本,Y表示每年发布版本,Z表示补丁版本。正常每年会发布一个Y版本...
学习率调度器
607
2020-12-18
《百度飞桨 PaddlePaddle 1.8 深度学习平台教程》
学习率调度器 学习率调度器 当我们使用诸如梯度下降法等方式来训练模型时,一般会兼顾训练速度和损失(loss)来选择相对合适的学习率。但若在训练过程中一直使用一个学习率,训练集的损失下降到一定程度后便不再继续下降,而是在一定范围内震荡。其震荡原理如下图所示,即当损失函数收敛到局部极小值附近时,会由于学习率过大导致更新步幅过大,每步参数更新会反复越过极小...
重构网格
272
2024-06-26
《Blender 4.1 参考手册》
重构网格 已知局限 重构网格 参考 模式: 雕刻模式 标题栏: 工具设置 ‣ 重构网格 面板: 侧栏 ‣ 工具 ‣ 重构网格 快捷键: Ctrl-R For a general explanation to remeshing, visit the Introduction . 体素大小 R 重构后网格的分辨率或细节量。该值用于...
学习率调度器
803
2020-05-04
《PaddlePaddle(飞桨) v1.6 深度学习平台使用文档》
学习率调度器 学习率调度器 当我们使用诸如梯度下降法等方式来训练模型时,一般会兼顾训练速度和损失(loss)来选择相对合适的学习率。但若在训练过程中一直使用一个学习率,训练集的损失下降到一定程度后便不再继续下降,而是在一定范围内震荡。其震荡原理如下图所示,即当损失函数收敛到局部极小值附近时,会由于学习率过大导致更新步幅过大,每步参数更新会反复越过极小...
学习率调度器
793
2020-05-01
《百度飞桨 PaddlePaddle 1.7 深度学习平台教程》
学习率调度器 学习率调度器 当我们使用诸如梯度下降法等方式来训练模型时,一般会兼顾训练速度和损失(loss)来选择相对合适的学习率。但若在训练过程中一直使用一个学习率,训练集的损失下降到一定程度后便不再继续下降,而是在一定范围内震荡。其震荡原理如下图所示,即当损失函数收敛到局部极小值附近时,会由于学习率过大导致更新步幅过大,每步参数更新会反复越过极小...
学习率调度器
1639
2019-03-02
《PaddlePaddle 1.3(fluid) 使用文档》
学习率调度器 学习率调度器 当我们使用诸如梯度下降法等方式来训练模型时,一般会兼顾训练速度和损失(loss)来选择相对合适的学习率。但若在训练过程中一直使用一个学习率,训练集的损失下降到一定程度后便不再继续下降,而是在一定范围内震荡。其震荡原理如下图所示,即当损失函数收敛到局部极小值附近时,会由于学习率过大导致更新步幅过大,每步参数更新会反复越过极小...
1..
«
19
20
21
22
»
..100