书栈网 · BookStack 本次搜索耗时 0.020 秒,为您找到 139540 个相关结果.
  • LayerNorm

    LayerNorm LayerNorm class paddle.nn.LayerNorm ( normalized_shape, epsilon=1e-05, weight_attr=None, bias_attr=None, name=None ) [源代码] 该接口用于构建 LayerNorm 类的一个可调用对象,具体用法参照 代码示例...
  • 共享变量

    共享变量 如果要在图形的各个组件之间共享一个变量,一个简单的选项是首先创建它,然后将其作为参数传递给需要它的函数。 例如,假设要使用所有 ReLU 的共享阈值变量来控制 ReLU 阈值(当前硬编码为 0)。 您可以先创建该变量,然后将其传递给relu() 函数: reset_graph () def relu ( X , threshold...
  • 2.4 使用双连词生成随机文本

    2.4 使用双连词生成随机文本 2.4 使用双连词生成随机文本 我们可以使用条件频率分布创建一个双连词表(词对)。(我们在3 中介绍过。)bigrams() 函数接受一个单词列表,并建立一个连续的词对列表。记住,为了能看到结果而不是神秘的”生成器对象”,我们需要使用list() 函数︰ >>> sent = [ 'In' , 'the'...
  • 8. 定投策略成功的关键完全在于心理建设

    定投 —— 大佬的自我修养 8. 定投策略成功的关键完全在于心理建设 定投 —— 大佬的自我修养 —— 让时间陪你慢慢变富…… 李笑来 二〇一九年七月 普通人错过这本书的“踏空成本”无限大…… https://b.watch 8. 定投策略成功的关键完全在于心理建设 人活一辈子,最神奇的感受就是: 明明大家身处同样的世界,头顶...
  • Dropout

    Dropout 参数 形状 代码示例 使用本API的教程文档 Dropout paddle.nn. Dropout ( p=0.5, axis=None, mode=”upscale_in_train”, name=None ) [源代码] Dropout是一种正则化手段,该算子根据给定的丢弃概率 p ,在训练过程中随机将一些神经元输出设...
  • LayerNorm

    LayerNorm LayerNorm class paddle.fluid.dygraph. LayerNorm (name_scope, scale=True, shift=True, begin_norm_axis=1, epsilon=1e-05, param_attr=None, bias_attr=None, act=None)[源代码...
  • 文本

    NLP From Scratch: 使用char-RNN对姓氏进行分类 NLP From Scratch: 生成名称与字符级RNN NLP From Scratch: 基于注意力机制的 seq2seq 神经网络翻译 文本分类与TorchText 语言翻译与TorchText
  • 复杂网络

    复杂网络 1.simple_img_conv_pool 2.img_conv_group 3.sequence_conv_pool 4.glu 5.scaled_dot_product_attention 复杂网络 在处理复杂功能时,我们通常需要写大量的代码来构建复杂的 神经网络 。因此,为了方便用户更加容易地搭建复杂网络模型,我们提供了...
  • 复杂网络

    复杂网络 1.simple_img_conv_pool 2.img_conv_group 3.sequence_conv_pool 4.glu 5.scaled_dot_product_attention 复杂网络 在处理复杂功能时,我们通常需要写大量的代码来构建复杂的 神经网络 。 因此,为了方便用户更加容易地搭建复杂网络模型,我们提供...
  • 文件描述符

    1407 2018-05-03 《理解Linux进程》
    文件描述符 应用 限制 文件描述符 Linux很重要的设计思想就是一切皆文件,网络是文件,键盘等外设也是文件,很神奇吧?于是所有资源都有了统一的接口,开发者可以像写文件那样通过网络传输数据,我们也可以通过/proc/ 的文件看到进程的资源使用情况。 内核给每个访问的文件分配了文件描述符(File Descriptor),它本质是一个非负整数,在...