分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
搜索
书栈网 · BookStack
本次搜索耗时
0.031
秒,为您找到
170661
个相关结果.
搜书籍
搜文档
分布式执行和并行查询
583
2021-01-10
《OceanBase v2.2.30 官方教程》
适用分区表的场景 并行查询简介 适用并行查询的场景 适用分区表的场景 如果关系表比较小,则不必要进行分区,如果关系表比较大,则需要根据上层业务需求,审慎选择分区键,以保证大多数查询能够使用分区键进行分区裁剪以减少数据访问量。同时,对于有关联性的表,建议采用关联键作为分区键,采用相同分区方式,使用 table group 的方式将相同分区配置在同样...
分布式GPU训练优秀实践
940
2020-12-18
《百度飞桨 PaddlePaddle 1.8 深度学习平台教程》
分布式GPU训练优秀实践 开始优化您的GPU分布式训练任务 1、数据准备 2、训练策略设置 3、训练方式 附录 分布式GPU训练优秀实践 开始优化您的GPU分布式训练任务 PaddlePaddle Fluid支持在现代GPU [1] 服务器集群上完成高性能分布式训练。通常可以通过以下方法优化在多机多卡环境训练性能,建议在进行性能优化时...
分布式CPU训练优秀实践
702
2020-12-18
《百度飞桨 PaddlePaddle 1.8 深度学习平台教程》
分布式CPU训练优秀实践 提高CPU的使用率 提高通信速度 提高数据IO速度 更换分布式训练策略 分布式CPU训练优秀实践 提高CPU分布式训练的训练速度,主要要从四个方面来考虑: 1)提高训练速度,主要是提高CPU的使用率;2)提高通信速度,主要是减少通信传输的数据量;3)提高数据IO速度;4)更换分布式训练策略,提高分布式训练速度。 ...
分布式GPU训练优秀实践
1588
2020-05-01
《百度飞桨 PaddlePaddle 1.7 深度学习平台教程》
分布式GPU训练优秀实践 开始优化您的GPU分布式训练任务 1、环境变量设置 2、训练策略设置 3、数据准备 4、训练方式 附录 分布式GPU训练优秀实践 开始优化您的GPU分布式训练任务 PaddlePaddle Fluid可以支持在现代GPU [1] 服务器集群上完成高性能分布式训练。 通常可以通过以下方法优化在多机多卡环境训练...
分布式GPU训练最佳实践
1778
2019-07-24
《PaddlePaddle v1.5(fluid) 深度学习平台》
分布式GPU训练最佳实践 开始优化您的GPU分布式训练任务 可配置项一览 选择通信模式和执行模式 设置合适的CPU线程数 预先分配足够的显存 降低scope drop频率和fetch频率 启用RDMA多机通信 使用GPU完成部分图片预处理 增大batch_size或使用设置通信频率(batch merge) 优化reader性能 使用混合精...
第6章 分布式系统
3522
2019-02-27
《Go语言高级编程》
第6章 分布式系统 第6章 分布式系统 被别人指出问题时,别管别人能不能做到,看别人说的对不对,然后完善自己。别人能不能做到是别人的事情,自己能不能做到关系到自己能否发展的更好。——hustlihaifeng Go语言号称是互联网时代的C语言。现在的互联网系统已经不是以前的一个主机搞定一切的时代,互联网时代的后台服务由大量的分布式系统构成,任何单一...
使用Pinpoint做分布式跟踪
1818
2018-07-27
《Apache Dubbo开发者指南(201807)》
使用Pinpoint做分布式跟踪 什么是Pinpoint(摘自Pinpoint学习笔记) 服务器地图(ServerMap) 实时活动线程图表(Realtime Active Thread Chart) 请求/应答分布图表(Request/Response Scatter Chart) 调用栈(CallStack) 巡查(Inspector) 支持模...
分布式自增 ID(Snowflake)
804
2018-07-31
《Phalcon7 官方开发文档》
分布式自增 ID(Snowflake) 分布式自增 ID(Snowflake) Phalcon 提供了 Phalcon\Snowflake 类来生成自增ID。 <? php $snowflake = new Phalcon \Snowflake ; $id = $snowflake -> nextId (); $desc...
3.14. 分布式缓存模板
629
2019-05-08
《Beetl 2.9 java模板引擎 中文文档》
3.14. 分布式缓存模板 3.14. 分布式缓存模板 Beetl模板引擎模板在同一个虚拟机里缓存Beetl 脚本。也可以将缓存脚本到其他地方,只要实现Cache接口,并设置ProgramCacheFactory.cache即可,这样GroupTemplate将从你提供的Cache中存取Beetl脚本 此功能未被很好测试
1..
«
53
54
55
56
»
..100