分类
发现
榜单
服务器优惠
AI论文
IT文库
搜索
注册
登录
分类
发现
榜单
服务器优惠
AI论文
IT文库
搜索
注册
登录
搜索
书栈网 · BookStack
本次搜索耗时
0.020
秒,为您找到
60976
个相关结果.
搜书籍
搜文档
设计高效的导航
1289
2018-02-16
《Android官方培训课程中文版》
设计高效的导航 Lessons 设计高效的导航 编写:XizhiXu - 原文:http://developer.android.com/training/design-navigation/index.html 设计开发 App 的起初步骤之一就是决定用户能够在App上看到什么和做什么。一旦你知道用户在App上和哪种内容互动,下一步就...
介绍
6290
2018-02-10
《简明 Python 教程(V4.0c 2017 译本)》
简明 Python 教程 有关 Python 3 都有谁阅读了本书? {#who-reads-bop} 学术课程 许可证 现在就开始阅读 购买本书 下载 在你使用的语言下阅读本书 来源 简明 Python 教程 《A Byte of Python》是一本由 Swaroop C H 编写,旨在于介绍如何使用 Python 语言进行...
5.1 String类
669
2020-05-21
《Java程序设计基础》
5.1 String类 5.1.1 String类的概念 5.1.2 String类的使用 1.连接字符串 2.比较字符串 5.1 String类 String类表示字符串,Java 程序中的所有字符串(例如“雷静”)都作为此类的对象。String类不是基本数据类型,它是一个类。因为对象的初始化默认值是null,所以String类...
2. 准备环境
561
2019-02-09
《MIP(移动网页加速器) Codelab 文档》
2. 准备环境 2. 准备环境 安装/升级 mip 命令行工具 npm install mip2 - g 输入mip2 -V ,若能正常显示版本号,说明已经安装成功。 如果不成功可以在根目录尝试 sudo npm install mip2 - g 在合适的目录新建项目并命名,例如本教程中的 myproject ...
create_parameter
909
2021-03-02
《百度飞桨 PaddlePaddle v2.0 深度学习教程》
create_parameter create_parameter paddle.static.create_parameter ( shape, dtype, name=None, attr=None, is_bias=False, default_initializer=None ) [源代码] 该OP创建一个参数。该参数是一个可学习的变量...
create_parameter
922
2020-05-04
《PaddlePaddle(飞桨) v1.6 深度学习平台使用文档》
create_parameter create_parameter paddle.fluid.layers. create_parameter (shape, dtype, name=None, attr=None, is_bias=False, default_initializer=None)[源代码] 该OP创建一个参数。该参数是一个...
四、GPT
2449
2020-06-01
《AI算法工程师手册》
四、GPT 4.1 GPT V1 4.1.1 模型 4.1.2 实验结论 4.2 GPT V2 4.2.1 训练数据集 4.2.2 预处理 4.2.3 实验结论 四、GPT 目前机器学习系统通过使用大型标注数据集、高容量模型的监督学习来训练。这种方式的缺点是:对数据分布和任务目标敏感,一旦数据分布发生变化,或者任务目标发生变化,则训练...
结论
1458
2018-02-01
《Go简易教程》
6.4 总结 链接 6.4 总结 我最近听go被描述成一门无聊的语言。无聊时因为很容易学,容易写,更重要的是容易读。也许,我实际帮了个倒忙。我已经用了3章谈论类型并介绍了如何声明变量。 如果你有静态类型语言的编程背景,最好情况下,我们看到的大多数可能只是复习一下而已。go语言让指针用起来更明显且易用了,并且go将数组封装成切片,对经验丰富的jav...
7.3. 小批量随机梯度下降
1740
2019-06-05
《动手学深度学习》
7.3. 小批量随机梯度下降 7.3.1. 读取数据 7.3.2. 从零开始实现 7.3.3. 简洁实现 7.3.4. 小结 7.3.5. 练习 7.3.6. 参考文献 7.3. 小批量随机梯度下降 在每一次迭代中,梯度下降使用整个训练数据集来计算梯度,因此它有时也被称为批量梯度下降(batchgradientdescent)。而随机梯度...
1..
«
49
50
51
52
»
..100