书栈网 · BookStack 本次搜索耗时 0.032 秒,为您找到 422 个相关结果.
  • Activations

    Usage of activations Available activations elu softmax selu softplus softsign relu tanh sigmoid hard_sigmoid exponential linear On "Advanced Activations" Usage of ...
  • 使用SavedModel完整导出模型

    使用SavedModel完整导出模型 使用SavedModel完整导出模型 在部署模型时,我们的第一步往往是将训练好的整个模型完整导出为一系列标准格式的文件,然后即可在不同的平台上部署模型文件。这时,TensorFlow为我们提供了SavedModel这一格式。与前面介绍的Checkpoint不同,SavedModel包含了一个TensorFlow程...
  • Bidirectional LSTM

    Trains a Bidirectional LSTM on the IMDB sentiment classification task. Trains a Bidirectional LSTM on the IMDB sentiment classification task. Output after 4 epochs on CPU: ~0.8...
  • CIFAR-10 CNN with augmentation (TF/)

    Train a simple deep CNN on the CIFAR10 small images dataset using augmentation. Train a simple deep CNN on the CIFAR10 small images dataset using augmentation. Using TensorFlow...
  • Sequential 顺序模型指引

    开始使用 Keras Sequential 顺序模型 指定输入数据的尺寸 模型编译 模型训练 样例 基于多层感知器 (MLP) 的 softmax 多分类: 基于多层感知器的二分类: 类似 VGG 的卷积神经网络: 基于 LSTM 的序列分类: 基于 1D 卷积的序列分类: 基于栈式 LSTM 的序列分类 "stateful" 渲染的的栈式...
  • 致谢

    致谢 文档贡献 Tips Keras陷阱提示 示例程序 致谢 本项目由以下贡献者贡献: 文档贡献 贡献者 页面 章节 类型 Bigmoyan keras.io的全部正文 - 翻译 Bigmoyan 深度学习与Keras CNN眼中的世界 翻译 Bigmoyan 深度学习与Keras 花式自动编码器 翻译 Bigmoyan 快速开始 一些...
  • TPU 基础使用

    TPU 基础使用 TPU 基础使用 在 TPU 上进行 TensorFlow 分布式训练的核心API是 tf.distribute.TPUStrategy ,可以简单几行代码就实现在 TPU 上的分布式训练,同时也可以很容易的迁移到 GPU单机多卡、多机多卡的环境。以下是如何实例化 TPUStrategy : resolver = tf ....
  • Initializers

    Usage of initializers Available initializers Initializer Zeros Ones Constant RandomNormal RandomUniform TruncatedNormal VarianceScaling Orthogonal Identity lecun_uniform...
  • Guide to the Sequential model

    Getting started with the Keras Sequential model Specifying the input shape Compilation Training Examples Multilayer Perceptron (MLP) for multi-class softmax classification: MLP...
  • Regularizers

    Usage of regularizers Example Available penalties Developing new regularizers Usage of regularizers Regularizers allow to apply penalties on layer parameters or layer activi...