书栈网 · BookStack 本次搜索耗时 0.025 秒,为您找到 77706 个相关结果.
  • 使用fuzz testing模块测试模型安全性

    使用fuzz testing模块测试模型安全性 概述 实现阶段 导入需要的库文件 参数配置 运用Fuzz Testing 使用fuzz testing模块测试模型安全性 Linux Ascend GPU CPU 数据准备 模型开发 模型训练 模型调优 企业 高级 概述 传统软件的决策逻辑由代码逻辑决定,传统软...
  • Sklearn 与 TensorFlow 机器学习实用指南

    Sklearn 与 TensorFlow 机器学习实用指南 目录结构 第一部分 机器学习基础 第二部分 神经网络与深度学习 附录 联系方式 编译 免责声明 赞助我们 ApacheCN 组织资源 Sklearn 与 TensorFlow 机器学习实用指南 欢迎任何人参与和完善:一个人可以走的很快,但是一群人却可以走的更远 ...
  • 六、历史小记

    六、历史小记 六、历史小记 现代前馈网络的核心思想自20世纪80年代以来没有发生重大变化。 近年来神经网络性能的大部分改变可归因于两个因素:更大的数据集、更大的网络(由于硬件的强大和软件设施的发展)。 算法上的部分改变也显著改善了神经网络的性能: 用交叉熵代替均方误差作为损失函数。 均方误差在20世纪80年代和90年代流行,后来逐渐被交叉...
  • 反向传播(Backpropagation)

    Deeplearning Algorithms tutorial 反向传播(Backpropagation) 反向传播算法(BP算法)主要由两个阶段:激励传播与权重更新. 求误差的导数 应用示例 Deeplearning Algorithms tutorial 谷歌的人工智能位于全球前列,在图像识别、语音识别、无人驾驶等技术上都已经落地。而百...
  • 感知器

    感知器 感知器是最简单的人工神经网络结构之一,由 Frank Rosenblatt 发明于 1957。它是基于一种稍微不同的人工神经元(见图 10-4),称为线性阈值单元(LTU):输入和输出现在是数字(而不是二进制开/关值),并且每个输入连接都与权重相连。LTU计算其输入的加权和(z = W1×1 + W2×2 + ... + + WN×n = Wt·...
  • 可视化功能

    可视化功能 一旦你的自编码器学习了一些功能,你可能想看看它们。 有各种各样的技术。 可以说最简单的技术是在每个隐藏层中考虑每个神经元,并找到最能激活它的训练实例。 这对顶层隐藏层特别有用,因为它们通常会捕获相对较大的功能,您可以在包含它们的一组训练实例中轻松找到这些功能。 例如,如果神经元在图片中看到一只猫时强烈激活,那么激活它的图片最显眼的地方都会包含...
  • 规模驱动机器学习发展

    规模驱动机器学习发展 规模驱动机器学习发展 关于深度学习(神经网络)的一些想法在几十年前就有了,那为什么它们到现在才流行起来了呢? 推动其近期发展的主要因素有两个: 数据可用性(data availability) :如今人们在数字设备(笔记本电脑、移动设备等)上花费的时间越来越多,对应的数字化行为与活动产生了海量的数据,而这些数据都可以提供给...
  • 五、结构设计

    五、结构设计 5.1 通用近似定理 5.2 网络结构 五、结构设计 神经网络的结构指的是:神经网络有多少个单元、这些单元如何连接。 理想的网络结构必须根据具体任务反复试验,并评估验证集的误差来得到。 大多数神经网络被组织成以层为单位,然后层级之间为链式结构。每一层都是前一层的函数,如:第一层为 、第二层为 、… 链式结构中,主要的结构...
  • 6 支持向量机

    6、支持向量机 写在前面的话:距离上篇博客竟过去快一个月了,写完神经网络博客正式进入考试模式,几次考试+几篇报告下来弄得心颇不宁静了,今日定下来看到一句鸡血:Tomorrow is another due!也许生活就需要一些deadline~~ 上篇主要介绍了神经网络。首先从生物学神经元出发,引出了它的数学抽象模型—MP神经元以及由两层神经元组成的感...
  • 用 TensorFlow 高级 API 训练 MLP

    用 TensorFlow 高级 API 训练 MLP 与 TensorFlow 一起训练 MLP 最简单的方法是使用高级 API TF.Learn,这与 sklearn 的 API 非常相似。DNNClassifier 可以很容易训练具有任意数量隐层的深度神经网络,而 softmax 输出层输出估计的类概率。例如,下面的代码训练两个隐藏层的 DNN(一个...