书栈网 · BookStack 本次搜索耗时 0.034 秒,为您找到 814 个相关结果.
  • 自动求导: 自动微分

    自动求导: 自动微分 Variable(变量) 梯度 自动求导: 自动微分 译者:@小王子 校对者:@李子文 PyTorch 中所有神经网络的核心是 autograd 自动求导包. 我们先来简单介绍一下, 然后我们会去训练我们的第一个神经网络. autograd 自动求导包针对张量上的所有操作都提供了自动微分操作. 这是一个逐...
  • 利用 TorchScript 部署 Seq2Seq 模型

    利用 TorchScript 部署 Seq2Seq 模型 什么是 TorchScript? 致谢 准备环境 模型概览 编码器(Encoder) 解码器(Decoder) 数据处理 定义编码器 TorchScript 备注: 定义解码器的注意力机制模块 定义解码器 定义评估部分 贪心搜索解码器(Greedy Search Decoder)...
  • Regression

    560 2021-03-31 《The fastai book》
    Regression Assemble the Data Training a Model Regression It’s easy to think of deep learning models as being classified into domains, like computer vision, NLP, and so forth....
  • 3.5 图像分类数据集(Fashion-MNIST)

    3.5 图像分类数据集(Fashion-MNIST) 3.5.1 获取数据集 3.5.2 读取小批量 小结 参考文献 3.5 图像分类数据集(Fashion-MNIST) 在介绍softmax回归的实现前我们先引入一个多类图像分类数据集。它将在后面的章节中被多次使用,以方便我们观察比较算法之间在模型精度和计算效率上的区别。图像分类数据集中最常...
  • Use Cases

    Use Cases Deploying and managing a complex ML system at scale Experimentation with training an ML model End to end hybrid and multi-cloud ML workloads Tuning the model hyperpara...
  • Use Cases

    Use Cases Deploying and managing a complex ML system at scale Experimentation with training an ML model End to end hybrid and multi-cloud ML workloads Tuning the model hyperpara...
  • Training

    Training callbacks class ShortEpochCallback [source] class GradientAccumulation [source] class GradientClip [source] BnFreeze set_bn_eval [source] class BnFreeze ...
  • Distributed

    Distributed and parallel training Parallel DataParallel.reset [source] class ParallelTrainer [source] Learner.to_parallel [source] Learner.detach_parallel [source] Le...
  • 优先级

    优先级 定义 约束 Koordinator 优先级与 Kubernetes优先级的对比 示例 下一步是什么 优先级 Koordinator 在 Kubernetes 优先级类型的基础上定义了一套规范,并扩展了优先级的一个维度以对混部场景的细粒度支持。 定义 优先级用数字表示,目前定义了四个类: PriorityClass 优先级范围 描...
  • 优先级

    优先级 定义 约束 Koordinator 优先级与 Kubernetes优先级的对比 示例 下一步是什么 优先级 Koordinator 在 Kubernetes 优先级类型的基础上定义了一套规范,并扩展了优先级的一个维度以对混部场景的细粒度支持。 定义 优先级用数字表示,目前定义了四个类: PriorityClass 优先级范围 描...