分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
搜索
书栈网 · BookStack
本次搜索耗时
0.014
秒,为您找到
69753
个相关结果.
搜书籍
搜文档
超级表STable:多表聚合
865
2021-03-22
《TDengine v1.6 数据库文档》
超级表STable:多表聚合 超级表STable:多表聚合 TDengine要求每个数据采集点单独建表。独立建表的模式能够避免写入过程中的同步加锁,因此能够极大地提升数据的插入/查询性能。但是独立建表意味着系统中表的数量与采集点的数量在同一个量级。如果采集点众多,将导致系统中表的数量也非常庞大,让应用对表的维护以及聚合、统计操作难度加大。为降低应用的...
模块和包系统、Prelude
1636
2018-02-06
《RustPrimer 中文版》
模块和包系统、Prelude 前言 模块和包系统、Prelude 前言 随着工程的增大,把所有代码写在一个文件里面,是一件极其初等及愚蠢的作法。大体来讲,它有如下几个缺点: 文件大了,编辑器打开慢; 所有代码放在同一个文件中,无法很好地利用现代多窗口编辑器,同时查看编辑相关联的两个代码片断; 代码数量过多,查找某一个关键词过慢,定位到某一行...
引入依赖
406
2023-03-19
《PolarisMesh(北极星) v1.15 中文文档》
引入依赖 编译安装 下载源码 编译打包 make方式编译 自定义PB3版本 兼容其他版本PB bazel方式编译 通过Makefile引入 静态库方式使用 动态库方式使用 通过CMake引入 静态库方式使用 动态库方式使用 通过Bazel引入 引入依赖 本文档提供如果编译并在自己的项目中引入Polaris CPP SDK方法...
重拓扑
113
2024-08-11
《Blender 4.2 参考手册》
重拓扑 使用多边形构建工具 重构网格 体素 四边形 重拓扑 重拓扑是简化网格拓扑的过程,使其更简洁,更易于使用。雕刻或生成拓扑(例如通过 3D 扫描)产生的混乱拓扑存在重拓扑的需要。如果网格将用于某种形式的形变,则网格通常需要重新拓扑。形变可以包括绑定或物理模拟,如布料或软体。可以通过在编辑模式下操作几何体手动完成重新拓扑,或通过自动方法。 ...
重拓扑
462
2022-04-07
《Blender 3.1 参考手册》
重拓扑 使用多边形构建工具 重构网格 体素 四边形 重拓扑 重拓扑是简化网格拓扑的过程,使其更简洁,更易于使用。雕刻或生成拓扑(例如通过 3D 扫描)产生的混乱拓扑存在重拓扑的需要。如果网格将用于某种形式的形变,则网格通常需要重新拓扑。形变可以包括绑定或物理模拟,如布料或软体。可以通过在编辑模式下操作几何体手动完成重新拓扑,或通过自动方法。 ...
重拓扑
549
2021-04-13
《Blender 2.92 参考手册》
重拓扑 使用多边形构建工具 重构网格 体素 四边形 重拓扑 重拓扑是简化网格拓扑的过程,使其更简洁,更易于使用。雕刻或生成拓扑(例如通过 3D 扫描)产生的混乱拓扑存在重拓扑的需要。如果网格将用于某种形式的形变,则网格通常需要重新拓扑。形变可以包括绑定或物理模拟,如布料或软体。可以通过在编辑模式下操作几何体手动完成重新拓扑,或通过自动方法。 ...
六、 总结
1164
2020-05-31
《AI算法工程师手册》
六、 总结 六、 总结 各种半监督学习算法的比较: 生成式半监督学习方法需要充分可靠的领域知识才能确保模型不至于太坏。 非监督SVM 目标函数非凸,因此有不少工作致力于减轻非凸性造成的不利影响。 图半监督学习方法,图的质量极为重要。 基于分歧的方法将集成学习与半监督学习联系起来。 半监督学习在利用未标记样本后并非必然提升泛化性能,在有些情况...
重构网格
193
2024-08-11
《Blender 4.2 参考手册》
重构网格 已知局限 重构网格 参考 模式: 雕刻模式 标题栏: 工具设置 ‣ 重构网格 面板: 侧栏 ‣ 工具 ‣ 重构网格 快捷键: Ctrl-R For a general explanation to remeshing, visit the Introduction . 体素大小 R 重构后网格的分辨率或细节量。该值用于...
学习率调度器
1463
2019-07-24
《PaddlePaddle v1.5(fluid) 深度学习平台》
学习率调度器 学习率调度器 当我们使用诸如梯度下降法等方式来训练模型时,一般会兼顾训练速度和损失(loss)来选择相对合适的学习率。但若在训练过程中一直使用一个学习率,训练集的损失下降到一定程度后便不再继续下降,而是在一定范围内震荡。其震荡原理如下图所示,即当损失函数收敛到局部极小值附近时,会由于学习率过大导致更新步幅过大,每步参数更新会反复越过极小...
1..
«
22
23
24
25
»
..100