分类
发现
榜单
服务器优惠
AI论文
IT文库
搜索
注册
登录
分类
发现
榜单
服务器优惠
AI论文
IT文库
搜索
注册
登录
搜索
书栈网 · BookStack
本次搜索耗时
0.022
秒,为您找到
60976
个相关结果.
搜书籍
搜文档
开始
3489
2021-08-19
《React v17.0 官方中文文档》
开始 体验 React 在线体验 在网站中添加 React 创建新的 React 应用 学习 React 第一个示例 初学者的 React 设计师的 React JavaScript 资源 实践教程 一步步学习指南 React 哲学 推荐课程 高级概念 API 参考 术语表与常见问题 获取最新消息 版本化文档 找不到想要的...
前言
1056
2022-09-16
《Godot 游戏引擎 v3.5 中文文档》
前言 前言 这个系列将向你介绍 Godot,并让你了解其特点。 在下列页面中,你将得到“Godot 适合我吗?”或“我可以用 Godot 做什么?”等问题的答案。然后,我们将介绍该引擎最基本的概念,让你了解编辑器的界面,并提供提示以充分利用您的学习时间。 Godot 简介 Godot 关键概念概述 初识 Godot 编辑器 学习新特性 G...
附录B 关于本书
2508
2018-02-11
《简明 Python 教程(V1.2版)》
后记 关于作者 关于译者 关于简体中文译本 后记 我在编写本书时使用的几乎所有软件都是 免费开放源码的软件 。在编写本书的第一个草稿的时候,我使用的是Red Hat 9.0 Linux,而现在第六次改写的时候,使用的是Fedora Core 3 Linux。 最初,我使用KWord编写本书(在前言的本书的由来中已经介绍了)。后来,我开始使用D...
学习率调度器
1465
2019-07-24
《PaddlePaddle v1.5(fluid) 深度学习平台》
学习率调度器 学习率调度器 当我们使用诸如梯度下降法等方式来训练模型时,一般会兼顾训练速度和损失(loss)来选择相对合适的学习率。但若在训练过程中一直使用一个学习率,训练集的损失下降到一定程度后便不再继续下降,而是在一定范围内震荡。其震荡原理如下图所示,即当损失函数收敛到局部极小值附近时,会由于学习率过大导致更新步幅过大,每步参数更新会反复越过极小...
PipApp
1278
2020-07-01
《Pipcook v1.0 机器学习工具使用教程》
PipApp 使用指南 准备工作 快速开始 初始化项目 编译项目 训练 构建可执行包 限制 PipApp 使用指南 该功能为实验功能 PipApp 可以让开发者不用关心复杂的机器学习 Pipeline,从而将更多的精力集中在编写机器学习应用逻辑,并且它能让开发者更好地将传统编程的业务逻辑与机器学习的代码更好地结合起来。 准...
前言
3311
2018-05-07
《TypeScript 入门教程(201805)》
TypeScript 入门教程 关于本书 为什么要写本书 关于 TypeScript 适合人群 评价 目录 版权许可 相关资料 TypeScript 入门教程 从 JavaScript 程序员的角度总结思考,循序渐进的理解 TypeScript。 原名《From JavaScript to TypeScript》,寓意此书的作者并...
Mysql部署
564
2019-10-29
《Choerodon(猪齿鱼)v0.18 中文文档》
Mysql部署 预备知识 添加choerodon chart仓库并同步 部署Mysql 创建mysql所需PVC 部署mysql Mysql部署 预备知识 如果你不知道Mysql是做什么的,那么请参考下面链接(包括但不限于)进行学习: Mysql 添加choerodon chart仓库并同步 helm repo add c7...
Mysql部署
729
2019-06-05
《Choerodon(猪齿鱼)v0.16 中文文档》
Mysql部署 预备知识 添加choerodon chart仓库并同步 部署Mysql 创建mysql所需PVC 部署mysql Mysql部署 预备知识 如果你不知道Mysql是做什么的,那么请参考下面链接(包括但不限于)进行学习: Mysql 添加choerodon chart仓库并同步 helm repo add c7...
学习率调度器
1640
2019-03-02
《PaddlePaddle 1.3(fluid) 使用文档》
学习率调度器 学习率调度器 当我们使用诸如梯度下降法等方式来训练模型时,一般会兼顾训练速度和损失(loss)来选择相对合适的学习率。但若在训练过程中一直使用一个学习率,训练集的损失下降到一定程度后便不再继续下降,而是在一定范围内震荡。其震荡原理如下图所示,即当损失函数收敛到局部极小值附近时,会由于学习率过大导致更新步幅过大,每步参数更新会反复越过极小...
1..
«
40
41
42
43
»
..100