书栈网 · BookStack 本次搜索耗时 0.027 秒,为您找到 838 个相关结果.
  • 18 CNN Interpretation with CAM

    573 2021-03-31 《The fastai book》
    CNN Interpretation with CAM In [ ]: #hide ! pip install - Uqq fastbook import fastbook fastbook . setup_book () In [ ]: #hide from fastbook import * [[chap...
  • Using ML models within OpenSearch

    Using ML models within OpenSearch GPU acceleration Related articles Using ML models within OpenSearch Introduced 2.9 To integrate machine learning (ML) models into your Open...
  • End-to-end Kubeflow on AWS

    End-to-end Kubeflow on AWS AWS services used Prerequisites Deploy the Kubernetes cluster Deploy the kubernetes dashboard Deploy Kubeflow Cognito and certificates Route53 Certi...
  • Interpretation

    Interpretation of Predictions class Interpretation [source] class ClassificationInterpretation [source] class SegmentationInterpretation [source] Interpretation of ...
  • Distributed training

    How to launch a distributed training Prepare your script Add the distributed initialization Make your learner distributed Launch your training How to launch a distributed t...
  • torch.utils.model_zoo

    1139 2018-04-07 《PyTorch中文文档》
    torch.utils.model_zoo torch.utils.model_zoo torch . utils . model_zoo . load_url ( url , model_dir = None ) 在给定URL上加载Torch序列化对象。 如果对象已经存在于 model_dir 中,则将被反序列化并返回。URL的文件名部...
  • 使用 Amazon AWS 进行分布式训练

    PyTorch 1.0 使用 Amazon AWS 进行分布式训练 Amazon AWS 设置 创建节点 设置安全组 必要的信息 环境配置 分布式训练代码 Imports 辅助函数 训练函数 验证函数 输入 初始化进程组 初始化模型 初始化数据加载器 (dataloader) 训练循环 运行代码 PyTorch 1.0...
  • torch.utils.model_zoo

    torch.utils.model_zoo torch.utils.model_zoo torch . utils . model_zoo . load_url ( url , model_dir = None ) 在给定URL上加载Torch序列化对象。 如果对象已经存在于 model_dir 中,则将被反序列化并返回。URL的文件名部...
  • 基与字符级RNN(Char-RNN)的人名生成

    基与字符级RNN(Char-RNN)的人名生成 数据准备 创建网络 训练 训练前的准备 网络的训练 绘制损失 网络采样 练习 基与字符级RNN(Char-RNN)的人名生成 译者:@jianchengss 作者 : Sean Robertson 在 上一个教程 里我们使用RNN把名字分类到它所属的语言中, 这次我们改变...
  • Run Executors on GPU

    Run Executors on GPU Prerequisites Setting up the executor Using GPU locally Using GPU in a container Using GPU with Hub Executors Conclusion Run Executors on GPU Tadej...