分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
分类
发现
榜单
服务器优惠
AI论文
免费AI编程助手
搜索
注册
登录
搜索
书栈网 · BookStack
本次搜索耗时
0.025
秒,为您找到
176912
个相关结果.
搜书籍
搜文档
前言
3773
2020-10-09
《[译] 渗透测试实战第三版(红队版)》
前言 提示和免责声明 前言 译者:@Snowming 这是《渗透测试实战》一书的第三版。以下会给出一个基于第二版新增的漏洞和攻击的总结。除了新的内容,本书保留了之前的版本中现今仍然可以用的攻击和技术,这是为了避免让你再去翻以前的书。除了从以前的书里提取的内容,这本书还有什么新的内呢?新的内容包括一些过去几年提出来的新话题: 利用活动目...
继续开发!
796
2021-12-02
《Flask v2.0 中文文档》
继续开发! 继续开发! 通过教程您已经学到了许多 Flask 和 Python 的概念。回顾一下教程,并比较每 一步的代码有何变化。比较你的项目与 示例项目 , 可能会发现有较大的区别,蹒跚学步,很自然。 Flask 远不止教程所涉及的这些内容,但是您已经可以开始网络应用开发了。请 阅读 快速上手 ,对 Flask 的功能有个大致了解,然后深入学...
继续开发!
1006
2020-01-02
《Flask 1.1.1 中文文档》
继续开发! 继续开发! 通过教程你已经学到了许多 Flask 和 Python 的概念。复习一下教程,并比较每一步的代码有何变化。比较你的项目与 示例项目 ,可能会发现有较大的区别,蹒跚学步,很自然。 Flask 远不止教程所涉及的这些内容,然而你已经可以开始网络应用开发的。请阅读快速上手 ,对 Flask 的功能有个大致了解,然后深入文档进行...
继续开发!
1359
2018-10-18
《Flask 1.0 中文文档》
继续开发!¶ 继续开发!¶ 通过教程你已经学到了许多 Flask 和 Python 的概念。复习一下教程,并比较每一步的代码有何变化。比较你的项目与 示例项目 ,可能会发现有较大的区别,蹒跚学步,很自然。 Flask 远不止教程所涉及的这些内容,然而你已经可以开始网络应用开发的。请阅读快速上手 ,对 Flask 的功能有个大致了解,然后深入文档...
CPU优化
1678
2021-07-12
《Godot 游戏引擎 v3.3 中文文档》
CPU优化 测量性能 CPU分析器 外部分析器 手动计时函数 缓存 语言 GDScript C 其他语言 C++ 线程 场景树 物理学 CPU优化 测量性能 我们必须知道 “瓶颈 “在哪里,才能知道如何加快我们的程序.瓶颈是指程序中最慢的部分,限制了所有事情的进展速度.专注于瓶颈,可以让我们集中精力优化能给我们带来最大速...
本章简介
473
2022-05-21
《Java核心API与高级编程实践》
本章简介 本章简介 在第2章中学习了数据结构的基本概念,讲解了数据逻辑结构和存储结构,重点学习了线性结构,并编写了线性表、栈和队列的接口。本章将重点学习在Java开发过程中,使用范围非常广的集合。 在介绍集合的过程中,将主要围绕Collection接口和Map接口进行讲解,尤其是Collection接口中的Set接口、List接口和Itera...
sigmoid神经元
1969
2018-07-20
《神经网络与深度学习(完整版)》
sigmoid神经元 练习 sigmoid神经元 学习算法是如此NICE的东西,但问题来了:我们该如何为神经网络量身设计一种学习算法呢?现在假设有一个由感知机构成的网络,我们想让这个网络学习如何去解决一些问题。举例来说,对于一个以手写数字的扫描图像的原始像素数据作为输入的网络,我们想要这个网络去学习权值(weights)和偏置(biases)以便最...
2.3. 科比投篮预测
2648
2019-07-19
《智能钛机器学习平台用户手册》
1. Kobe投篮预测 1.1. 场景背景 1.2. 数据集介绍 1.3. 案例相关材料 1.4. 整体流程 1.5. 详细流程 一. 上传数据 二. 数据清洗 三. 特征转换 四. 特征选择 五. 分类器 六. 模型评估 七. 运行调度及训练进度查看 1. Kobe投篮预测 1.1. 场景背景 2016年4月12日...
AdamW
255
2021-06-06
《百度飞桨 PaddlePaddle v2.1 深度学习教程》
AdamW AdamW class paddle.optimizer. AdamW ( learning_rate=0.001, beta1=0.9, beta2=0.999, epsilon=1e-08, parameters=None, weight_decay=0.01, apply_decay_param_fun=None, grad_cli...
AdamW
1023
2021-03-02
《百度飞桨 PaddlePaddle v2.0 深度学习教程》
AdamW AdamW class paddle.optimizer.AdamW ( learning_rate=0.001, beta1=0.9, beta2=0.999, epsilon=1e-08, parameters=None, weight_decay=0.01, apply_decay_param_fun=None, grad_cli...
1..
«
95
96
97
98
»
..100