分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
搜索
书栈网 · BookStack
本次搜索耗时
0.019
秒,为您找到
31624
个相关结果.
搜书籍
搜文档
二、贝叶斯网络
2208
2020-05-31
《AI算法工程师手册》
二、贝叶斯网络 2.1 条件独立性 2.2 网络的学习 二、贝叶斯网络 贝叶斯网络Bayesian network 借助于有向无环图来刻画特征之间的依赖关系,并使用条件概率表Conditional Probability Table:CPT 来描述特征的联合概率分布。 这里每个特征代表一个随机变量,特征的具体取值就是随机变量的采样值。 ...
GoFrame官方教程
469
2023-05-02
《GoFrame v2.4 开发文档》
官方推荐以下四种形式的学习方式: 买本Golang 相关书籍,系统学习下基础。例如:《Go程序设计语言 》《微软的Go教程 》 翻翻GoFrame 的官方文档,这些文档都是花费了数年时间不断沉淀,并且持续保持更新。 看看GoFrame 框架的源代码,由于是模块化设计的,因此你可以逐个模块去学习,并想想为什么这么实现。 最后,可以在QQ 群及微信群问问其...
练习 0 配置环境
19796
2020-03-16
《笨办法学Python3(Learn Python3 The Hard Way 中文版)》
练习0 配置环境 MacOS 0.1.1 MacOS: 你应该看到的 Windows 1.2.1 Windows: 你应该看到 Linux 0.3.1 Linux: 你应该看到 从网上找答案 给初学者的忠告 其他可选编辑器 练习0 配置环境 这个练习没有代码。它只是为了让你的计算机准备好运行 Python。你应该严格按照步骤来。(如...
学生和研究者:模型的建立与训练
2696
2019-10-13
《简单粗暴 TensorFlow 2.0》
学生和研究者:模型的建立与训练 学生和研究者:模型的建立与训练 如果你是一个初学机器学习/深度学习的学生,你可能已经啃完了Andrew Ng的机器学习公开课或者斯坦福的 UFIDL Tutorial ,亦或是正在上学校里的深度学习课程。你可能也已经了解了链式求导法则和梯度下降法,知道了若干种损失函数,并且对卷积神经网络(CNN)、循环神经网络(RN...
LambdaDecay
194
2021-06-06
《百度飞桨 PaddlePaddle v2.1 深度学习教程》
LambdaDecay LambdaDecay class paddle.optimizer.lr. LambdaDecay ( learning_rate, lr_lambda, last_epoch=- 1, verbose=False ) [源代码] 该接口提供 lambda 函数设置学习率的策略。 lr_lambda 为一个 lamb...
piecewise_decay
359
2021-06-06
《百度飞桨 PaddlePaddle v2.1 深度学习教程》
piecewise_decay piecewise_decay paddle.fluid.layers. piecewise_decay ( boundaries, values ) [源代码] 对初始学习率进行分段衰减。 该算法可用如下代码描述。 boundaries = [ 10000 , 20000 ] values =...
5.9. 计算机视觉
1715
2019-07-19
《智能钛机器学习平台用户手册》
AlexNet 训练节点 预测节点 Inception 训练节点 预测节点 MobileNet 训练节点 预测节点 LeNet 训练节点 预测节点 ResNet 训练节点 预测节点 VGG 训练节点 预测节点 YOLO 训练节点 预测节点 AlexNet 2012 年 AlexNet 摘下 ILSVRC 比赛的...
二、历史
2811
2020-05-31
《AI算法工程师手册》
二、历史 2.1 历史简介 2.2 目前状况 2.2.1 训练集大小 2.2.2 计算资源 2.2.3 算法优化 二、历史 2.1 历史简介 深度学习分为三个时期: 1940s-1960s :这时它被称作控制论cybernetics 。 1980s-1990s :这时它被称作连接机制connectionism 。 2006-- ...
Angel中优化器
1460
2018-11-12
《Angel v2.0 中文文档手册》
Angel中的优化器 1. SGD 2. Momentum 3. Adam 4. FTRL Angel中的优化器 机器学习的优化方法多种多样, 但在大数据场景下, 使用最多的还是基于SGD的一系列方法. 在Angel中目前只实现了少量的最优化方法, 如下: 基于随机梯度下降的方法 SDG: 这里指mini-batch SGD (小批量随机...
4.最优化基础
1469
2020-05-31
《AI算法工程师手册》
深度学习中的最优化问题 深度学习中的最优化问题 深度学习中最优化问题很重要,代价也很高,因此需要开发一组专门的优化技术。 在深度学习领域,即使在数据集和模型结构完全相同的情况下,选择不同的优化算法可能导致截然不同的训练效果。 甚至相同的优化算法,但是选择了不同的参数初始化策略,也可能会导致不同的训练结果。
1..
«
89
90
91
92
»
..100