分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
搜索
书栈网 · BookStack
本次搜索耗时
0.026
秒,为您找到
139540
个相关结果.
搜书籍
搜文档
机器学习
2076
2018-08-08
《Python最佳实践指南中文版》
机器学习 Scipy 栈(Scipy stack) 安装 scikit-learn 安装 例子 机器学习 Python拥有大量的数据分析、统计和机器学习库,使其成为许多数据科学家的首选语言。 一些广泛使用的机器学习和其他数据科学应用程序包被列在下面: Scipy 栈(Scipy stack) Scipy 栈由数据科学所使用的一组核心...
基础专题
686
2021-10-23
《OneFlow v0.4 深度学习框架文档》
数据输入 搭建神经网络 优化算法及超参配置 获取作业函数的结果 模型的加载与保存 分布式训练 OneFlow 概念清单 OneFlow 系统设计
CSS书写与命名
1658
2018-07-17
《前端工程师手册》
CSS书写与命名 遵守的原则 语义化命名 书写顺序 OOCSS MSACSS BEM MVCSS 参考资料 CSS书写与命名 开发过程最耗时的是什么?其实是命名。。。 每个团队都应该拥有一套开发规范,其中应该也包含了命名规范。对于CSS而言,命名的组织方式又有多种,下面我们一起看看。 遵守的原则 首先是命名要讲究简单而不失语义...
Ivy Gen
286
2023-08-08
《Blender 3.6 参考手册》
Ivy Gen 激活 界面 指示 Ivy Gen 本插件是在 Thomas Luft 的神妙代码和他的原始 常春藤生成程序 基础上创作的。 最初由 testscreenings 开发的 Blender 接口,后来由 PKHG 和TrumanBlending 做的进一步加强。 激活 打开Blender并转到 “首选项” ,然后转到 ...
3.13 泛型
456
2022-05-21
《Java核心API与高级编程实践》
3.13 泛型 3.13 泛型 在之前使用集合的时候,装入集合的各种类型的对象都被当作Object对待,失去了自己的类型,而从集合中取出对象时需要进行类型转换,效率低下且容易出错。如何解决这个问题?可以使用泛型解决这个问题。 接下来以“租车系统”的代码为例,通过泛型(即定义集合时同时定义集合中元素的类型)的方式,解决程序可读性以及强制类型...
fluid.backward
854
2019-03-02
《PaddlePaddle 1.3(fluid) 使用文档》
fluid.backward append_backward fluid.backward Source English append_backward Source English paddle.fluid.backward. appendbackward (_loss, parameter_list=None, no_grad_s...
资源推荐
2178
2018-03-03
《Python 之旅》
资源推荐 资源推荐 这里列出了 Python 相关的一些资源,欢迎读者补充。 vinta/awesome-python: A curated list of awesome Python frameworks, libraries, software and resources 包含了 Python 框架、Python 库和软件的 awe...
Markdown + R
3326
2018-05-03
《Markdown·简单的世界》
Markdown + R 科技写作与Markdown+R 科技写作会碰到什么难题? Markdown+R如何解决的? Rmd 简介 安装并配置RStudio 新建Rmd文档 这么做,有什么好处呢? 真正意义上的可重复性研究 更强大的数学与制图能力 当然,还有云计算 Markdown格式与LaTeX、Word等格式的互转 如何学习Mark...
Warm-up: numpy
844
2020-03-05
《PyTorch 0.3 中文文档 & 教程》
Warm-up: numpy Warm-up: numpy 译者:@yongjay13 、@speedmancs 校对者:@bringtree 本例中的神经网络有一个隐藏层, 后接ReLU激活层, 并且不带偏置参数. 训练时使用欧几里得误差来学习从x到y的映射. 我们只用到了numpy, 完全手写实现神经网络, 包括前向计算, 误差...
减少可避免偏差的技术
732
2020-03-15
《机器学习训练秘籍(Machine Learning Yearning 中文版)》
减少可避免偏差的技术 减少可避免偏差的技术 如果你的学习算法存在着很高的可避免偏差,你可能会尝试以下方法: 加大模型规模 (例如神经元/层的数量):这项技术能够使算法更好地拟合训练集,从而减少偏差。当你发现这样做会增大方差时,通过加入正则化可以抵消方差的增加。 根据误差分析结果修改输入特征 :假设误差分析结果鼓励你增加额外的特征,从而帮助算法消除...
1..
«
78
79
80
81
»
..100