书栈网 · BookStack 本次搜索耗时 0.039 秒,为您找到 1336 个相关结果.
  • 4. TensorFlow分布式作业如何设置ClusterSpec?

    4. TensorFlow分布式作业如何设置ClusterSpec? 4. TensorFlow分布式作业如何设置ClusterSpec? XLearning通过环境变量 TF_CLUSTER_DEF 、 TF_ROLE 、 TF_INDEX 对应的将clusterSpec、job_name、task_index等信息传送给各container(PS...
  • 在安卓中使用自定义的TensorFlow版本

    1026 2018-05-11 《ML Kit 中文文档》
    在安卓中使用自定义的TensorFlow版本 预设条件 为Android捆绑自定义的TensorFlow Lite 在安卓中使用自定义的TensorFlow版本 如果您是经验丰富的ML开发人员,并且预设的TensorFlow Lite库不能满足您的需求,则可以使用ML Kit 自定义TensorFlow Lite 版本。例如,您可能想要添加自定义...
  • 在客户端调用以TensorFlow Serving部署的模型

    在客户端调用以TensorFlow Serving部署的模型 Python客户端示例 Node.js客户端示例(Ziyang) 在客户端调用以TensorFlow Serving部署的模型 TensorFlow Serving支持以gRPC和RESTful API调用以TensorFlow Serving部署的模型。本手册主要介绍较为通用的RES...
  • 在iOS上通过ML Kit使用TensorFlow Lite模型进行推理

    2121 2018-05-11 《ML Kit 中文文档》
    在iOS上通过ML Kit使用TensorFlow Lite模型进行推理 在开始之前 托管或捆绑您的模型 模型安全 在Firebase上托管的模型 使模型可在本地使用 加载模型 指定模型的输入和输出 对输入数据进行推理 在iOS上通过ML Kit使用TensorFlow Lite模型进行推理 您可以使用ML Kit配合TensorFl...
  • 在安卓上通过ML Kit使用TensorFlow Lite模型进行推理

    2000 2018-05-11 《ML Kit 中文文档》
    在安卓上通过ML Kit使用TensorFlow Lite模型进行推理 在你开始之前 托管或捆绑您的模型 模型安全 在Firebase上托管的模型 使模型可在本地使用 加载模型 指定模型的输入和输出 对输入数据进行推理 在安卓上通过ML Kit使用TensorFlow Lite模型进行推理 您可以通过ML Kit使用TensorFlo...
  • 十二、设备和服务器上的分布式 TensorFlow

    十二、设备和服务器上的分布式 TensorFlow 十二、设备和服务器上的分布式 TensorFlow 在第 11 章,我们讨论了几种可以明显加速训练的技术:更好的权重初始化,批量标准化,复杂的优化器等等。 但是,即使采用了所有这些技术,在具有单个 CPU 的单台机器上训练大型神经网络可能需要几天甚至几周的时间。 在本章中,我们将看到如何使用 Te...
  • 8. Tensorflow中,环境变量TF_CONFIG如何利用已知变量进行构建?

    8. Tensorflow中,环境变量TF_CONFIG如何利用已知变量进行构建? 8. Tensorflow中,环境变量TF_CONFIG如何利用已知变量进行构建? 以Tensorflow Estimator分布式中,chief模式下的环境变量TF_CONFIG的构建为例(详细代码可见$XLEARNING_HOME/examples/tfEstim...
  • 7.4.1. CLI tools

    WasmEdge CLI tools for Android Install Android version of WasmEdge-TensorFlow-Tools Preparation Android developer options Android development CLI Install WasmEdge-TensorFlow-Too...
  • Building from Source

    757 2019-07-22 《MLeap Document》
    Building MLeap From Source Install SBT Compiling Core MLeap Clone the Github Repository Initialize Git Submodules Compile MLeap Run the Tests Compiling Tensorflow Support Com...
  • 6-5,使用TPU训练模型

    6-5,使用TPU训练模型 一,准备数据 二,定义模型 三,训练模型 6-5,使用TPU训练模型 如果想尝试使用Google Colab上的TPU来训练模型,也是非常方便,仅需添加6行代码。 在Colab笔记本中:修改->笔记本设置->硬件加速器 中选择 TPU 注:以下代码只能在Colab 上才能正确执行。 可通过以下colab链接测试...