书栈网 · BookStack 本次搜索耗时 0.031 秒,为您找到 116316 个相关结果.
  • 七、PATCHY-SAN

    七、PATCHY-SAN 7.1 模型 7.1.1 Graph Kernel 7.1.2 PATCHY-SAN a. Node Sequence Selection b. Neighborhood Assembly c. Graph Normalization d. CNN 等价性 e. PATCHY-SAN 架构 f. 算法复杂度 7.2...
  • 七、共轭梯度法

    七、共轭梯度法 7.1 最速下降法 7.2 共轭梯度法 7.2.1 共轭梯度原理 7.2.2 共轭梯度搜索 7.2.3 共轭梯度算法 7.2.4 共轭梯度算法性质 七、共轭梯度法 7.1 最速下降法 最速下降法是梯度下降法的一个特例:在每次梯度下降时,学习率的选择是使得当前函数值下降最快的那个学习率。 梯度下降法仅仅指明:负梯...
  • 爬虫扩展篇

    找工作杂谈:你只是看起来很努力 找工作杂谈:你只是看起来很努力 最近找工作之余看了《你只是看起来很努力》,非常喜欢里面的故事,而这些故事仿佛就是自己的折射,倒映着我们的身影,在此分享与君卿共勉,希望能引起你的共鸣。 我们看起来每天熬夜,却只是拿着手机点了无数个赞; 看起来在图书馆坐了一天,却真的只是坐了一天; 看起来买了很多书,只不过晒了个...
  • 八、SDNE

    八、SDNE 8.1 模型 8.2 实验 8.2.1 网络重建任务 8.2.2 多标签分类任务 8.2.3 链接预测 8.2.4 可视化任务 8.2.5 参数探索 八、SDNE 网络 representation 学习有以下几个主要挑战: 高度非线性 non-linear :网络的底层结构是高度非线性的,如何设计模型来捕获这种高...
  • 加载模型用于推理或迁移学习

    加载模型用于推理或迁移学习 概述 本地加载模型 用于推理验证 用于迁移学习 从Hub加载模型 用于推理验证 用于迁移学习 加载模型用于推理或迁移学习 Linux Ascend GPU CPU 模型加载 初级 中级 高级 概述 在模型训练过程中保存在本地的CheckPoint文件,或从MindSpore Hub 下...
  • 加密和验证

    加密和验证 前言 源码 类图 流程图 概念 (1)私钥和公钥 (2)加密货币地址 (3)加密过程 (4)验证过程 实践 总结 参考 加密和验证 前言 加密解密技术在加密货币开发中的作用不言而喻。但技术本身并不是什么新鲜事,重要的是如果没有前面的P2P网络,和后面要介绍的区块链,单独的加解密显然没有那么神奇,加密货币也不会成...
  • 跨多个参数服务器的分片变量

    跨多个参数服务器的分片变量 正如我们很快会看到的那样,在分布式设置上训练神经网络时,常见模式是将模型参数存储在一组参数服务器上(即"ps" 作业中的任务),而其他任务则集中在计算上(即 ,"worker" 工作中的任务)。 对于具有数百万参数的大型模型,在多个参数服务器上分割这些参数非常有用,可以降低饱和单个参数服务器网卡的风险。 如果您要将每个变量手动...
  • 张量

    张量 Tensor 1. create_tensor 2. create_parameter 3. create_global_var 4. cast 5. concat 6. sums 7. fill_constant 8. assign 9. argmin 10. argmax 11. argsort 12. ones 13. z...
  • 如何搜索信息

    如何发现信息 如何发现信息 你所搜寻的事情的本质决定了你应该如何去寻找它。 如果你需要客观的而且容易辨认的关于具体事物的信息,例如一个软件的最新补丁版本,可以在Internet搜索,礼貌的询问很多的人,或者发起一个讨论组。不要在网上搜索任何带有观点或主观解释的东西:能够抵达真相的概率太低了。 如果你需要“一些主观的普遍知识”,人们对这些东西已有的...
  • 优化算法及超参配置

    配置优化算法和超参 作业函数配置的基本概念 配置示例 预测配置 训练配置 FAQ 配置优化算法和超参 当搭建好神经网络模型后,需要经过训练才能用来做预测。而训练的过程就是网络模型中的参数被优化的过程,通常采用反向传播算法和指定的 Optimizer 更新参数,本文重点介绍在 OneFlow 中如何设置 Optimizer 和 超参(Hype...