分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
搜索
书栈网 · BookStack
本次搜索耗时
0.026
秒,为您找到
220384
个相关结果.
搜书籍
搜文档
生成tera的http代理
580
2020-05-18
《Tera 表格数据库使用教程》
生成tera的http代理 运行http代理 通过HTTP访问tera demo-0 curl demo-1 python Tera原生的SDK是C++实现,考虑到部分用户受语言所限,我们也提供了一套HTTP的接口。 生成tera的http代理 make terahttp 运行http代理 . /terahttp --flagfi...
27.6 通过代理访问MBeans
796
2018-04-16
《Spring Framework 5 中文文档》
27.6 通过代理访问MBeans 27.6 通过代理访问MBeans Spring JMX 允许你创建代理,它将重新路由到本地或者远程MBeanServer中注册的MBean。这些代理提供了标准的Java接口来和MBean进行交互。下面的代码展示了如何在本地允许的MBeanServer中配置代理: <bean id = "proxy" c...
服务之间外加前端代理
696
2020-01-19
《Envoy 1.7 官方文档中文版》
服务间外加前端代理 配置模板 服务间外加前端代理 上图显示了作为 HTTP L7 边缘反向代理 Envoy 群集的 服务到服务 配置。反向代理提供以下功能: 终止 TLS。 支持 HTTP/1.1 和 HTTP/2。 HTTP L7 全路由支持。 与服务到服务的 Envoy 集群使用标准 ingress port 通信,使用发现服务进行...
代理至新的APIs
800
2018-02-16
《Android官方培训课程中文版》
代理至新的APIs 使用较新的APIs实现Tabs 实现CompatTabHoneycomb 实现TabHelperHoneycomb 代理至新的APIs 编写: spencer198711 - 原文:http://developer.android.com/training/backward-compatible-ui/new-imple...
反向迁移gs_replicate(openGauss -> MySQL)
310
2023-05-05
《华为 openGauss v5.0.0 使用手册(企业版)》
反向迁移 特性简介 客户价值 特性描述 特性增强 特性约束 依赖关系 反向迁移 特性简介 支持openGauss的增量数据在线迁移至MySQL。 客户价值 反向迁移是指用户将源端数据库迁移到目标数据库,应用切到目标数据库后,再将目标端新产生的数据迁移回源端。反向迁移可满足用户业务迁移逃生的诉求,保持源端、目标端两个库并行运行,在目标端...
6.6. 通过时间反向传播
1347
2019-06-05
《动手学深度学习》
6.6. 通过时间反向传播 6.6.1. 定义模型 6.6.2. 模型计算图 6.6.3. 方法 6.6.4. 小结 6.6.5. 练习 6.6. 通过时间反向传播 如果读者做了上一节的练习,就会发现,如果不裁剪梯度,模型将无法正常训练。为了深刻理解这一现象,本节将介绍循环神经网络中梯度的计算和存储方法,即通过时间反向传播(back-pro...
12.2 IK 反向运动学
1799
2019-04-08
《Unity 从入门到精通》
IK 反向运动学 身体部位的运动 身体的整体运动 IK 反向运动学 大多数角色动画都是通过将骨骼的关节角度旋转到预定值来实现的。一个子关节的位置是由其父关节的旋转角度决定的,这样,处于节点链末端的节点位置是由此链条上的各个节点的旋转角和相对位移来决定的。可以将这种决定骨骼位置的方法称为前向运动学。 但是,在实际应用中,上述过程的逆过程却非常实用...
反向传播算法是如何工作的
1770
2018-07-20
《神经网络与深度学习(完整版)》
反向传播算法是如何工作的 反向传播算法是如何工作的 在上一章中我们学习了神经网络是如何利用梯度下降算法来学习权重(weights)和偏置(biases)的。然而,在我们的解释中跳过了一个细节:我们没有讨论如何计算代价函数的梯度。这真是一个巨大的跳跃!在本章中我会介绍一个快速计算梯度的算法,就是广为人知的反向传播算法(backpropagation)。...
Inverse Kinematics 反向运动学
485
2020-12-27
《Blender 2.91 参考手册》
简介 Spline IK 样条IK
为什么说反向传播算法很高效
1788
2018-07-20
《神经网络与深度学习(完整版)》
为什么说反向传播算法很高效? 为什么说反向传播算法很高效? 为什么说反向传播算法很高效?要回答这个问题,让我们来考虑另一种计算梯度的方式。设想现在是神经网络研究的早期阶段,大概是在上世纪50年代或60年代左右,并且你是第一个想到使用梯度下降方法来进行训练的人!但是要实现这个想法,你需要一种计算代价函数梯度的方式。你回想了你目前关于演算的知识,决定试一...
1..
«
66
67
68
69
»
..100