书栈网 · BookStack 本次搜索耗时 0.018 秒,为您找到 91584 个相关结果.
  • scaled_dot_product_attention

    scaled_dot_product_attention scaled_dot_product_attention paddle.fluid.nets. scaled_dot_product_attention ( queries, keys, values, num_heads=1, dropout_rate=0.0 ) [源代码] 该接口实现...
  • scaled_dot_product_attention

    scaled_dot_product_attention scaled_dot_product_attention paddle.fluid.nets. scaled_dot_product_attention (queries, keys, values, num_heads=1, dropout_rate=0.0)[源代码] 该接口实现...
  • scaled_dot_product_attention

    scaled_dot_product_attention 参数 返回 返回类型 抛出异常 代码示例 scaled_dot_product_attention 查看属性与别名 API属性:声明式编程(静态图)专用API paddle.fluid.nets.scaled_dot_product_attention ( queries, k...
  • lrn

    lrn lrn paddle.fluid.layers. lrn ( input, n=5, k=1.0, alpha=0.0001, beta=0.75, name=None, data_format=’NCHW’ ) [源代码] 该OP实现了局部响应正则化层(Local Response Normalization Layer),用于对局部输...
  • 进阶主题

    4276 2019-05-25 《LightGBM 中文文档》
    进阶主题 缺失值的处理 分类特征的支持 LambdaRank 参数优化 并行学习 GPU 的支持 GCC 用户的建议 (MinGW, *nix) 进阶主题 缺失值的处理 LightGBM 通过默认的方式来处理缺失值,你可以通过设置 use_missing=false 来使其无效。 LightGBM 通过默认的的方式用 NA (N...
  • lrn

    lrn 参数 返回 返回类型 抛出异常 代码示例 lrn paddle.fluid.layers.lrn (input, n=5, k=1.0, alpha=0.0001, beta=0.75, name=None, data_format=’NCHW’)[源代码] 该OP实现了局部响应正则化层(Local Response Norma...
  • LeNet

    LeNet LeNet LeNet是最早的卷积神经网络之一[1]。1998年,Yan LeCun第一次将LeNet卷积神经网络应用到图像分类上,在手写数字识别任务中取得了巨大成功。LeNet通过连续使用卷积和池化层的组合提取图像特征,其架构如 图1 所示,这里展示的是作者论文中的LeNet-5模型: 图1:LeNet模型网络结构示意图 ...
  • 6 练习

    6 练习 6 练习 ☼ 需要什么样的限制才能正确分析词序列,如 I am happy 和 she is happy 而不是you is happy 或they am happy?实现英语中动词 be 的现在时态范例的两个解决方案,首先以语法(6) 作为起点,然后以语法 (18) 为起点。 ☼ 开发1.1 中语法的变体,使用特征<cite>cou...
  • Dropout2D

    Dropout2D 参数 形状 代码示例 Dropout2D paddle.nn.Dropout2D ( p=0.5, data_format=’NCHW’, name=None ) [源代码] 根据丢弃概率 p ,在训练过程中随机将某些通道特征图置0(对一个形状为 NCHW 的4维张量,通道特征图指的是其中的形状为 HW 的2维特征图)...