书栈网 · BookStack 本次搜索耗时 0.030 秒,为您找到 836 个相关结果.
  • CUDA 语义

    CUDA 语义 异步执行 CUDA streams 内存管理 最佳做法 设备无关的代码 使用固定内存缓冲区 使用 nn.DataParallel 而不是并行处理 CUDA 语义 译者:片刻 校验:AlexJakin torch.cuda 用于设置和运行 CUDA 操作。它会跟踪当前选定的GPU,并且默认情况下会在该设备上创...
  • 30天吃掉那只 TensorFlow2

    30天吃掉那只 TensorFlow2 一,TensorFlow2 🍎 or Pytorch🔥 二,Keras🍏 and tf.keras 🍎 三,本书📖面向读者 👼 四,本书写作风格 🍉 五,本书学习方案 ⏰ 六,鼓励和联系作者 🎈🎈 30天吃掉那只 TensorFlow2 📚 gitbook电子书地址: https://lyhue1...
  • 简介

    简介 面向人群 食用方法 方法一 方法二 目录 原书地址 引用 本项目 将《动手学深度学习》 原书中MXNet代码实现改为PyTorch实现。原书作者:阿斯顿·张、李沐、扎卡里 C. 立顿、亚历山大 J. 斯莫拉以及其他社区贡献者,GitHub地址:https://github.com/d2l-ai/d2l-zh 此书的中 英 ...
  • Introduction

    Introduction What is Volcano Why Volcano Features Rich scheduling policies Enhanced job management Multi-architecture computing Faster scheduling Ecosystem Introduction...
  • GPU acceleration

    GPU acceleration Supported GPUs Supported images PyTorch Setting up a GPU-accelerated ML node Preparing an NVIDIA ML node Preparing AWS Inferentia ML node Ubuntu 20.04 Amazon ...
  • GPU acceleration

    GPU acceleration Supported GPUs Supported images PyTorch Setting up a GPU-accelerated ML node Preparing an NVIDIA ML node Preparing AWS Inferentia ML node Ubuntu 20.04 Amazon ...
  • GPU acceleration

    GPU acceleration Supported GPUs Supported images PyTorch Setting up a GPU-accelerated ML node Preparing an NVIDIA ML node Preparing AWS Inferentia ML node Ubuntu 20.04 Amazon ...
  • GPU acceleration

    GPU acceleration Supported GPUs Supported images PyTorch Setting up a GPU-accelerated ML node Preparing an NVIDIA ML node Preparing AWS Inferentia ML node Ubuntu 20.04 Amazon ...
  • CUDA语义

    CUDA 语义 异步执行 CUDA streams 内存管理 最佳做法 设备无关的代码 使用固定内存缓冲区 使用 nn.DataParallel 而不是并行处理 CUDA 语义 译者:片刻 校验:AlexJakin torch.cuda 用于设置和运行 CUDA 操作。它会跟踪当前选定的GPU,并且默认情况下会在该设备...
  • 广播语义

    广播语义 一般语义 In - place 语义 向后兼容性 广播语义 译者:冯宝宝 校验:AlexJakin 许许多多的PyTorch操作都支持NumPy Broadcasting Semantics 。 简而言之,如果PyTorch操作支持广播,那么它的Tensor参数可以自动扩展为相同的类型大小(不需要复制数据)。 ...