书栈网 · BookStack 本次搜索耗时 0.017 秒,为您找到 1323 个相关结果.
  • 使用优化器

    使用优化器 所以 TensorFlow 为您计算梯度。 但它还有更好的方法:它还提供了一些可以直接使用的优化器,包括梯度下降优化器。您可以使用以下代码简单地替换以前的gradients = ... 和training_op = ... 行,并且一切都将正常工作: optimizer = tf . train . GradientDescentOpt...
  • 介绍

    介绍 简介 由来 特性 丰富的调度策略 增强型的Job管理能力 异构设备的支持 性能优化 生态 介绍 简介 Volcano是CNCF 下首个也是唯一的基于Kubernetes的容器批量计算平台,主要用于高性能计算场景。它提供了Kubernetes目前缺 少的一套机制,这些机制通常是机器学习大数据应用、科学计算、特效渲染等多种高性...
  • Use Cases

    Use Cases Object Storage Data Acceleration Satellite Compute Clusters Enabler A Common Data Access Layer A Single Entry Point for Multiple Data Sources (Data Unification) U...
  • Use Cases

    Use Cases Object Storage Data Acceleration Satellite Compute Clusters Enabler A Common Data Access Layer A Single Entry Point for Multiple Data Sources (Data Unification) U...
  • Use Cases

    Use Cases Object Storage Data Acceleration Satellite Compute Clusters Enabler A Common Data Access Layer A Single Entry Point for Multiple Data Sources (Data Unification) U...
  • 反向自动微分

    反向自动微分 反向自动微分是 TensorFlow 采取的方案。它首先前馈遍历计算图(即,从输入到输出),计算出每个节点的值。然后进行第二次遍历,这次是反向遍历(即,从输出到输入),计算出所有的偏导数。图 D-3 展示了第二次遍历的过程。在第一次遍历过程中,所有节点值已被计算,输入是 。你可以在每个节点底部右方看到这些值(例如,)。节点已被标号,从 到...
  • 将数据提供给训练算法

    将数据提供给训练算法 我们尝试修改以前的代码来实现小批量梯度下降(Mini-batch Gradient Descent)。 为此,我们需要一种在每次迭代时用下一个小批量替换X 和Y 的方法。 最简单的方法是使用占位符(placeholder)节点。 这些节点是特别的,因为它们实际上并不执行任何计算,只是输出您在运行时输出的数据。 它们通常用于在训练期间...
  • 总体介绍

    总体介绍 技术优势 功能列表 支持组件 企业版试用 更多阅读 总体介绍 KubeOperator 是一个 开源 的轻量级 Kubernetes 发行版,专注于帮助企业规划、部署和运营生产级别的 Kubernetes 集群。 KubeOperator 提供可视化的 Web UI,支持离线环境,支持物理机、VMware、OpenStack ...
  • 5-8,回调函数callbacks

    5-8,回调函数callbacks 一,内置回调函数 二,自定义回调函数 5-8,回调函数callbacks tf.keras的回调函数实际上是一个类,一般是在model.fit时作为参数指定,用于控制在训练过程开始或者在训练过程结束,在每个epoch训练开始或者训练结束,在每个batch训练开始或者训练结束时执行一些操作,例如收集一些日志信息,...
  • 3-1 Low-level API: Demonstration

    3-1 Low-level API: Demonstration 1. Linear Regression Model 2. DNN Binary Classification Model 3-1 Low-level API: Demonstration The examples below use low-level APIs in Tenso...