书栈网 · BookStack 本次搜索耗时 0.040 秒,为您找到 77702 个相关结果.
  • 2.7 全栈开发者

    2.7 全栈开发者 2.7 全栈开发者 全栈开发者这个称谓有几种含义。如此之多,以至于这个称谓尚未有一个明确的定义。仅考虑下面所展示的两个调查结果。这些结果可能更可信,成为一名全栈开发者是很常见的。但是,在我近20年的经验中,这绝不是专业领域的普遍情况。 图片来源: https://medium.freecodecamp.com/we-as...
  • 妈妈说你什么都好 就不该是个程序员

    妈妈说你什么都好 就不该是个程序员 妈妈说你什么都好 就不该是个程序员 (程序员就这么不受待见么?连女神他妈都……)程序员,戏称“程序猿”,这个“族群”几乎清一色是雄性,可谓“雄霸程序猿天下”。程序猿逃不过的宿命就是加班熬夜,长期在一个男女比例严重失衡的公司上班,于是被各种黑,程序猿的屌丝形象已经深入骨髓了~~你看! 1、程序猿的真实写照:一款...
  • torch.nn 到底是什么?

    torch.nn 到底是什么? MNIST数据安装 神经网络从零开始(不使用torch.nn) torch.nn.functional的使用 使用nn.Module进行重构 使用nn.Linear进行重构 使用optim进行重构 使用Dataset进行重构 使用DataLoader进行重构 增加验证集 编写fit()和get_data()函...
  • 九、正切传播算法

    九、正切传播算法 九、正切传播算法 切面距离算法是最近邻算法的一种,其中的度量使用的不是通用的欧几里得距离,而是流形距离。 假设分类样本有这样的性质:在同一个流形上的样本分类相同,不同流形上的样本分类不同。则分类器会有这样的特点:对于样本的局部变化不敏感。即:样本在流形上的移动时,分类器的输出不变。 假设样本 的流形为 ,样本 的流形为...
  • 5-3,激活函数activation

    5-3,激活函数activation 一,常用激活函数 二,在模型中使用激活函数 5-3,激活函数activation 激活函数在深度学习中扮演着非常重要的角色,它给网络赋予了非线性,从而使得神经网络能够拟合任意复杂的函数。 如果没有激活函数,无论多复杂的网络,都等价于单一的线性变换,无法对非线性函数进行拟合。 目前,深度学习中最流行的激活函...
  • 9. 相关面试题

    相关问题 1.CNN的特点以及优势 2.deconv的作用 3.dropout作用以及实现机制 (参考: https://blog.csdn.net/nini_coded/article/details/79302800 ) 4.深度学习中有什么加快收敛/降低训练难度的方法: 5.什么造成过拟合,如何防止过拟合 6.LSTM防止梯度弥散和爆炸 ...
  • 多层感知机训练(batch)

    多层感知机训练 功能介绍 参数说明 脚本示例 脚本代码 脚本运行结果 多层感知机训练 功能介绍 多层感知机多分类模型 参数说明 名称 中文名称 描述 类型 是否必须? 默认值 layers 神经网络层大小 神经网络层大小 int[] ✓ blockSize 数据分块大小,默认值64 ...
  • 多层感知机训练(batch)

    多层感知机训练 功能介绍 参数说明 脚本示例 脚本代码 脚本运行结果 多层感知机训练 功能介绍 多层感知机多分类模型 参数说明 名称 中文名称 描述 类型 是否必须? 默认值 layers 神经网络层大小 神经网络层大小 int[] ✓ blockSize 数据分块大小,默认值64...
  • Dropout

    Dropout 参数 形状 代码示例 Dropout paddle.nn.Dropout ( p=0.5, axis=None, mode=”upscale_in_train”, name=None ) [源代码] Dropout是一种正则化手段,该算子根据给定的丢弃概率 p ,在训练过程中随机将一些神经元输出设置为0,通过阻止神经元节点...