书栈网 · BookStack 本次搜索耗时 0.049 秒,为您找到 1161 个相关结果.
  • FAQ

    FAQ General Technical Questions General What is NATS? What does the NATS acronym stand for? JetStream and NATS Streaming? What language is NATS written in? Who maintains NAT...
  • 七、DeepFM

    七、DeepFM 7.1 模型 7.2 实验 七、DeepFM 理解用户点击行为背后隐藏的交叉特征对于 CTR 预估非常重要。例如,对 app store 的研究表明:人们经常在用餐时间下载送餐 app 。这说明:app 类别和时间戳构成的交叉特征可以作为 CTR 预估的信号。 通常用户点击行为背后的特征之间的各种交互非常复杂,其中的...
  • 核心网络层

    Dense Activation Dropout Flatten Input Reshape Permute RepeatVector Lambda ActivityRegularization Masking [source] Dense keras . layers . Dense ( units , activati...
  • vision.transform

    vision.transform Image transforms Data augmentation Data augmentation details get_transforms [source] [test] zoom_crop [source] [test] rand_resize_crop [source] [test] ...
  • 5.1 二维卷积层

    5.1 二维卷积层 5.1.1 二维互相关运算 5.1.2 二维卷积层 5.1.3 图像中物体边缘检测 5.1.4 通过数据学习核数组 5.1.5 互相关运算和卷积运算 5.1.6 特征图和感受野 小结 5.1 二维卷积层 卷积神经网络(convolutional neural network)是含有卷积层(convolutional ...
  • 使用字符级别特征的 RNN 网络生成姓氏

    使用字符级别特征的RNN网络生成名字 准备数据 构造神经网络 训练 训练准备 训练神经网络 损失数据作图 网络采样 练习 使用字符级别特征的RNN网络生成名字 译者:hhxx2015 校对者:hijkzzz 作者 : Sean Robertson 在上一个 例子 中我们使用RNN网络对名字所属的语言进行分类。这一次...
  • 1-4 Example: Modeling Procedure for Temporal Sequences

    1-4 Example: Modeling Procedure for Temporal Sequences 1. Data Preparation 2. Model Definition 3. Model Training 4. Model Evaluation 5. Model Application 6. Model Saving ...
  • 正则化

    正则化 正则化 避免过拟合的方法之一是增加训练数据数量。那么,还有没有别的方法能让我们避免过拟合呢?一种可能的方法是减小网络的规模。然而,我们并不情愿减小规模,因为大型网络比小型网络有更大的潜力。 幸好,哪怕使用固定的网络和固定的训练数据,我们还有别的方法来避免过拟合。这就是所谓的正则化(regularization)技术。在这一节我将描述一种最常...