书栈网 · BookStack 本次搜索耗时 0.046 秒,为您找到 814 个相关结果.
  • CUDA语义

    CUDA 语义 异步执行 CUDA streams 内存管理 最佳做法 设备无关的代码 使用固定内存缓冲区 使用 nn.DataParallel 而不是并行处理 CUDA 语义 译者:片刻 校验:AlexJakin torch.cuda 用于设置和运行 CUDA 操作。它会跟踪当前选定的GPU,并且默认情况下会在该设备...
  • 用字符级RNN分类名称

    用字符级RNN分类名称 准备数据 将名字转化为张量 创建网络 训练 准备训练 训练网络 绘制结果 评估结果 在用户输入上运行 练习 用字符级RNN分类名称 译者:@孙永杰 作者 : Sean Robertson 我们将建立和训练一个基本的字符级RNN进行分类单词. 字符级别的RNN将单词读为一系列字符 - 在每个步骤...
  • Hyperparameter Tuning (Katib)

    Hyperparameter Tuning (Katib) Installing Katib Persistent Volumes Running examples Example using random algorithm TensorFlow operator example PyTorch example Monitoring resul...
  • CUDA 语义

    CUDA 语义 异步执行 CUDA streams 内存管理 最佳做法 设备无关的代码 使用固定内存缓冲区 使用 nn.DataParallel 而不是并行处理 CUDA 语义 译者:片刻 校验:AlexJakin torch.cuda 用于设置和运行 CUDA 操作。它会跟踪当前选定的GPU,并且默认情况下会在该设备上创...
  • Questionnaire

    499 2021-03-31 《The fastai book》
    Questionnaire Further Research Questionnaire If the dataset for your project is so big and complicated that working with it takes a significant amount of time, what should yo...
  • Migrating from Other Libraries

    Plain PyTorch Ignite Lightning Catalyst
  • 广播语义

    广播语义 一般语义 直接语义 (In-place semantics) 向后兼容 广播语义 译者:@谢家柯 @Twinkle 一些 PyTorch 的操作支持基于 NumPy Broadcasting Semantics . 简而言之, 如果一个 PyTorch 操作支持广播语义, 那么它的张量参数可以自动扩展为相同的大小 (...
  • GPU acceleration

    GPU acceleration Supported GPUs Supported images PyTorch Setting up a GPU-accelerated ML node Preparing an NVIDIA ML node Preparing AWS Inferentia ML node Ubuntu 20.04 Amazon ...
  • GPU acceleration

    GPU acceleration Supported GPUs Supported images PyTorch Setting up a GPU-accelerated ML node Preparing an NVIDIA ML node Preparing AWS Inferentia ML node Ubuntu 20.04 Amazon ...
  • 介绍TorchScript

    介绍TorchScript PyTorch模型制作的基础 TorchScript的基础 追踪Modules 使用脚本来转换模块 混合脚本和跟踪 保存和加载模型 进一步阅读 介绍TorchScript 作者 :James Reed (jamesreed@fb.com), Michael Suo(suo@fb.com), rev2 译...