书栈网 · BookStack 本次搜索耗时 0.034 秒,为您找到 422 个相关结果.
  • 5-8,回调函数callbacks

    5-8,回调函数callbacks 一,内置回调函数 二,自定义回调函数 5-8,回调函数callbacks tf.keras的回调函数实际上是一个类,一般是在model.fit时作为参数指定,用于控制在训练过程开始或者在训练过程结束,在每个epoch训练开始或者训练结束,在每个batch训练开始或者训练结束时执行一些操作,例如收集一些日志信息,...
  • Deep Learning for NLP with Pytorch

    在深度学习和 NLP 中使用 Pytorch 在深度学习和 NLP 中使用 Pytorch 译者 bruce1408 校对者:FontTian 作者 : Robert Guthrie 本文带您进入pytorch框架进行深度学习编程的核心思想。Pytorch的很多概念(比如计算图抽象和自动求导)并非它所独有的,和其他深度学习框架相关。...
  • 针对NLP的Pytorch深度学习

    针对NLP的Pytorch深度学习 针对NLP的Pytorch深度学习 译者:@JingTao 、@friedhelm739 作者 : Robert Guthrie 本教程将带你浏览基于Pytorch深度学习编程的核心思想.其中很多思想(例如计算图形抽象化以及自动求导) 并不是Pytorch特有的,他们和任何深度学习工具包都是相关的. ...
  • (批)规范化BatchNormalization

    (批)规范化BatchNormalization BatchNormalization层 参数 输入shape 输出shape 参考文献 (批)规范化BatchNormalization BatchNormalization层 keras . layers . normalization . BatchNormalization ( a...
  • Scikit-Learn接口包装器

    Scikit-Learn接口包装器 参数 Scikit-Learn接口包装器 我们可以通过包装器将Sequential 模型(仅有一个输入)作为Scikit-Learn工作流的一部分,相关的包装器定义在keras.wrappers.scikit_learn.py 中 目前,有两个包装器可用: keras.wrappers.scikit_lear...
  • 标准化层 Normalization

    BatchNormalization [source] BatchNormalization keras . layers . BatchNormalization ( axis =- 1 , momentum = 0.99 , epsilon = 0.001 , center = True , scale = True , beta_...
  • 嵌入层 Embedding

    Embedding [source] Embedding keras . layers . Embedding ( input_dim , output_dim , embeddings_initializer = 'uniform' , embeddings_regularizer = None , activity_regulariz...
  • 6-5,使用TPU训练模型

    6-5,使用TPU训练模型 一,准备数据 二,定义模型 三,训练模型 6-5,使用TPU训练模型 如果想尝试使用Google Colab上的TPU来训练模型,也是非常方便,仅需添加6行代码。 在Colab笔记本中:修改->笔记本设置->硬件加速器 中选择 TPU 注:以下代码只能在Colab 上才能正确执行。 可通过以下colab链接测试...
  • Addition RNN

    实现一个用来执行加法的序列到序列学习模型 实现一个用来执行加法的序列到序列学习模型 输入: "535+61" 输出: "596" 使用重复的标记字符(空格)处理填充。 输入可以选择性地反转,它被认为可以提高许多任务的性能,例如:Learning to Execute 以及Sequence to Sequence Learning with Ne...
  • 6-7 Call Tensorflow Model Using spark-scala

    6-7 Call Tensorflow Model Using spark-scala 0 Using TensorFlow model in spark-scala 1. Preparing protobuf Model File 2. Create a spark (scala) project, insert jar package depende...