分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
搜索
书栈网 · BookStack
本次搜索耗时
0.031
秒,为您找到
116316
个相关结果.
搜书籍
搜文档
hello paddle: 从普通程序走向机器学习程序
1278
2021-06-06
《百度飞桨 PaddlePaddle v2.1 深度学习教程》
hello paddle: 从普通程序走向机器学习程序 一、普通程序跟机器学习程序的逻辑区别 二、导入飞桨 三、准备数据 四、用飞桨定义模型的计算 五、准备好运行飞桨 六、告诉飞桨怎么样学习 七、运行优化算法 八、机器学习出来的参数 九、hello paddle hello paddle: 从普通程序走向机器学习程序 作者: Pa...
hello paddle: 从普通程序走向机器学习程序
1748
2021-03-02
《百度飞桨 PaddlePaddle v2.0 深度学习教程》
hello paddle: 从普通程序走向机器学习程序 一、普通程序跟机器学习程序的逻辑区别 二、导入飞桨 三、准备数据 四、用飞桨定义模型的计算 五、准备好运行飞桨 六、告诉飞桨怎么样学习 七、运行优化算法 八、机器学习出来的参数 九、hello paddle hello paddle: 从普通程序走向机器学习程序 作者: Pa...
为何使用 MINA
916
2018-02-22
《Apache MINA 2 用户指南》
为何使用 MINA 框架的需求 何时使用 MINA? 为何使用 MINA 写网络应用常常被视作一种高负担但低水平的开发。这是一个不经常为程序员所学习或者了解的领域,这可能是因为这些内容是在很久以前在学校里学过但都忘光了,也可能是因为这一网络层的复杂性常常被更高层的传输层所隐藏以致你从来没有深入它。 补充一点,当涉及到异步 IO 时,一个额外的复...
6.8. 长短期记忆(LSTM)
2513
2019-06-05
《动手学深度学习》
6.8. 长短期记忆(LSTM) 6.8.1. 长短期记忆 6.8.1.1. 输入门、遗忘门和输出门 6.8.1.2. 候选记忆细胞 6.8.1.3. 记忆细胞 6.8.1.4. 隐藏状态 6.8.2. 读取数据集 6.8.3. 从零开始实现 6.8.3.1. 初始化模型参数 6.8.4. 定义模型 6.8.4.1. 训练模型并创作歌词 ...
nn package
605
2020-03-05
《PyTorch 0.3 中文文档 & 教程》
nn package Example 1: ConvNet Forward and Backward Function Hooks Example 2: Recurrent Net nn package 译者:@unknown 校对者:@bringtree 我们重新设计了 nn package, 以便与 autograd 完全集成....
Keras:基于Python的深度学习库
2939
2020-02-05
《Keras 2.0 中文文档》
Keras:基于Python的深度学习库 停止更新通知 这就是Keras 关于Keras-cn 当前版本与更新 快速开始:30s上手Keras 安装 在Theano、CNTK、TensorFlow间切换 技术支持 小额赞助 Keras:基于Python的深度学习库 停止更新通知 Hi all,十分感谢大家对keras-cn的支持...
Word2Vec预测(stream)
535
2020-06-29
《阿里巴巴 Alink v1.1.2 使用手册》
word2vec流预测 功能介绍 参数说明 脚本示例 脚本代码 脚本运行结果 模型结果 预测结果 word2vec流预测 功能介绍 Word2Vec是Google在2013年开源的一个将词表转为向量的算法,其利用神经网络,可以通过训练,将词映射到K维度空间向量,甚至对于表示词的向量进行操作还能和语义相对应,由于其简单和高效引起了很多...
Word2Vec预测(batch)
519
2020-06-29
《阿里巴巴 Alink v1.1.2 使用手册》
word2vec批预测 功能介绍 参数说明 脚本示例 脚本代码 脚本运行结果 模型结果 预测结果 word2vec批预测 功能介绍 Word2Vec是Google在2013年开源的一个将词表转为向量的算法,其利用神经网络,可以通过训练,将词映射到K维度空间向量,甚至对于表示词的向量进行操作还能和语义相对应,由于其简单和高效引起了很多...
嵌入层 Embedding
797
2020-02-05
《Keras 2.3 官方中文文档》
Embedding [source] Embedding keras . layers . Embedding ( input_dim , output_dim , embeddings_initializer = 'uniform' , embeddings_regularizer = None , activity_regulariz...
1..
«
81
82
83
84
»
..100