书栈网 · BookStack 本次搜索耗时 0.023 秒,为您找到 189 个相关结果.
  • Term & Concept Explanation

    Term & Concept in OneFlow Algorithms Development 1.Placeholder 2.Tensor and Blob 3.Job Function 4.Layer and Operator Layer Operator 5.Mirrored View and Consistent View Fram...
  • 使用 Python 扩展 Op

    使用 Python 扩展 Op 背景介绍 基本概念 开发步骤 Op 的实现与注册 封装 Op 的 Python 接口 使用 Python 实现 Kernel 使用自定义 Op 为自定义 Op 提供反向计算 实现 user_relu_backward Op 为 Op 注册反向梯度 其它 使用 Python 扩展 Op 注意 :本...
  • 优化算法及超参配置

    配置优化算法和超参 作业函数配置的基本概念 配置示例 预测配置 训练配置 FAQ 配置优化算法和超参 当搭建好神经网络模型后,需要经过训练才能用来做预测。而训练的过程就是网络模型中的参数被优化的过程,通常采用反向传播算法和指定的 Optimizer 更新参数,本文重点介绍在 OneFlow 中如何设置 Optimizer 和 超参(Hype...
  • Obtain Runtime Data

    How to Obtain Runtime Data Using Guidance Use watch to Obtain the Data when Running Code Explanation Use watch_diff to Obtain Gradient when Running Code Explanation How to ...
  • 说明

    原接口兼容 原接口兼容 本专题仅仅是为兼容原接口而保留。如果您未使用过 v0.4.0 及之前的版本,请 直接忽略掉本专题的所有内容 。 在 OneFlow v0.4.0 版本及以前,OneFlow 的接口是非面向对象的。现有版本的动态图、静态图模式均提供了面向对象接口。 为了照顾老接口的用户,OneFlow 将老接口移动至 oneflow.com...
  • 优化算法及超参配置

    配置优化算法和超参 作业函数配置的基本概念 配置示例 预测配置 训练配置 FAQ 配置优化算法和超参 当搭建好神经网络模型后,需要经过训练才能用来做预测。而训练的过程就是网络模型中的参数被优化的过程,通常采用反向传播算法和指定的 Optimizer 更新参数,本文重点介绍在 OneFlow 中如何设置 Optimizer 和 超参(Hype...
  • Consistent & Mirrored View

    Consistent & Mirrored View Data Parallelism and Model Parallelism. Data Parallelism Diagram Model Parallelism Diagram Two Types of Placeholder Using Mirrored View in OneFlow Co...
  • Dataset 与 DataLoader

    Dataset 与 DataLoader Dataset 加载数据 遍历数据 自定义 Dataset 使用 DataLoader Dataset 与 DataLoader OneFlow 的 Dataset 与 DataLoader 的行为与 PyTorch 的是一致的,都是为了让数据集管理与模型训练解耦。 在 oneflow.util...