书栈网 · BookStack 本次搜索耗时 0.044 秒,为您找到 126387 个相关结果.
  • 3.10 补充说明

    2011 2019-02-27 《Go语言高级编程》
    3.10 补充说明 3.10 补充说明 如果是纯粹学习汇编语言,则可以从《深入理解程序设计:使用Linux汇编语言》开始,该书讲述了如何以C语言的思维变现汇编程序。如果是学习X86汇编,则可以从《汇编语言:基于x86处理器》一开始,然后再结合《现代x86汇编语言程序设计》学习AVX等高级汇编指令的使用。 Go汇编语言的官方文档非常匮乏。其中“A Q...
  • 第 20 章 项目实战—首页内容介绍[下][4]

    第 20 章 项目实战—首页内容介绍[下][4] 第 20 章 项目实战—首页内容介绍[下][4] 学习要点: 1.首页内容介绍[下] 主讲教师:李炎恢 本节课我们制作一下首页内容介绍的下半部分。 一.首页内容介绍[下] //先完成底部的 footer <footer id = "footer" class = "text-m...
  • 简介

    欢迎使用 MegEngine MegEngine 简介 学习 MegEngine 安装说明 欢迎使用 MegEngine MegEngine 简介 MegEngine 是旷视完全自主研发的深度学习框架,中文名为“天元”,是旷视 AI 战略的重要组成部分,负责 AI 三要素(算法,算力,数据)中的“算法”。MegEngine 的研发始...
  • 9 集成学习

    9、集成学习 上篇主要介绍了鼎鼎大名的EM算法,从算法思想到数学公式推导(边际似然引入隐变量,Jensen不等式简化求导),EM算法实际上可以理解为一种坐标下降法,首先固定一个变量,接着求另外变量的最优解,通过其优美的“两步走”策略能较好地估计隐变量的值。本篇将继续讨论下一类经典算法—集成学习。 9、集成学习 顾名思义,集成学习(ensembl...
  • Angel中优化器

    Angel中的优化器 1. SGD 2. Momentum 3. Adam 4. FTRL Angel中的优化器 机器学习的优化方法多种多样, 但在大数据场景下, 使用最多的还是基于SGD的一系列方法. 在Angel中目前只实现了少量的最优化方法, 如下: 基于随机梯度下降的方法 SDG: 这里指mini-batch SGD (小批量随机...
  • 三、偏差方差分解

    三、偏差方差分解 3.1 点估计 3.2 偏差 3.3 一致性 3.4 方差 3.5 偏差方差分解 3.6 误差诊断 3.7 误差缓解 三、偏差方差分解 3.1 点估计 点估计:对参数 的一个预测,记作 。 假设 为独立同分布的数据点,该分布由参数 决定。则参数 的点估计为某个函数: 注意:点估计的定义并不要求 ...
  • 作者简介

    作者简介 作者简介 Winston Chang winston@stdout.org Winston 是 RStudio 的软件工程师,他是软件包 Shiny 、ggplot2 和 devtools 的开发者。他获得西北大学的心理学专业博士学位,也是 O’Reilly Media 出版的《R Graphics Cookbook》的作者。
  • torch.optim

    torch.optim 如何使用优化器 构建它 每个参数选项 采取优化步骤 optimizer.step() optimizer.step(closure) 算法 如何调整学习率 torch.optim 译者:ApacheCN 是一个实现各种优化算法的包。已经支持最常用的方法,并且界面足够通用,因此将来可以轻松集成更复杂...
  • 介绍

    介绍 谁会使用 Rust 开发者团队 学生 公司 开源开发者 重视速度和稳定性的开发者 本书是写给谁的 如何阅读本书 源代码 介绍 ch00-00-introduction.md commit 0aa307c7d79d2cbf83cdf5d47780b2904e9cb03f 注意:本书的版本与出版的 The Rust Pro...
  • 使用神经网络识别手写数字

    使用神经网络识别手写数字 使用神经网络识别手写数字 人类的视觉系统是世上的一个奇迹。考虑以下这串手写的数字: 大部分人都能轻易地识别出图上的数字是504192。这个看似简单的过程的背后,实际上很复杂。在我们大脑的每个脑半球中,有一个叫做初级视皮层(primary visual cortex)的部分,也被称作V1。它拥有1亿4千万个神经元,包含了...