书栈网 · BookStack 本次搜索耗时 0.027 秒,为您找到 45212 个相关结果.
  • 优秀实践

    优秀实践 优秀实践 分布式CPU训练优秀实践 分布式GPU训练优秀实践 单机训练优秀实践 存储分配与优化
  • 单机训练优秀实践

    单机训练优秀实践 开始优化您的单机训练任务 1. 网络构建过程中的配置优化 1.1 cuDNN操作的选择 1.2 减少模型中Layer的个数 2. 数据准备优化 2.1 同步数据读取 2.2 异步数据读取 3. 模型训练相关优化 3.1 执行器介绍 3.2 构建策略(BuildStrategy)配置参数介绍 3.3 执行策略(Executio...
  • 单机训练优秀实践

    单机训练优秀实践 开始优化您的单机训练任务 1. 网络构建过程中的配置优化 1.1 cuDNN操作的选择 1.2 减少模型中Layer的个数 2. 数据准备优化 2.1 同步数据读取 2.2 异步数据读取 3. 模型训练相关优化 3.1 执行器介绍 3.2 构建策略(BuildStrategy)配置参数介绍 3.3 执行策略(Executio...
  • 单机训练优秀实践

    单机训练优秀实践 开始优化您的单机训练任务 1. 网络构建过程中的配置优化 1.1 cuDNN操作的选择 1.2 使用融合功能的API 2. 数据准备优化 2.1 分析数据准备部分的耗时 2.1.1 同步数据读取 2.1.2 异步数据读取 2.2 优化数据准备速度的方法 3. 模型训练相关优化 3.1 执行器介绍 执行调度器 3.2 Bu...
  • 分布式GPU训练优秀实践

    分布式GPU训练优秀实践 开始优化您的GPU分布式训练任务 1、数据准备 2、训练策略设置 3、训练方式 附录 分布式GPU训练优秀实践 开始优化您的GPU分布式训练任务 PaddlePaddle Fluid支持在现代GPU [1] 服务器集群上完成高性能分布式训练。通常可以通过以下方法优化在多机多卡环境训练性能,建议在进行性能优化时...