书栈网 · BookStack 本次搜索耗时 0.043 秒,为您找到 3659 个相关结果.
  • Spark 引擎

    Spark 引擎 1.Spark引擎使用前的环境配置 2.Spark引擎的配置和部署 2.1 spark版本的选择和编译 2.2 spark engineConn部署和加载 2.3 spark引擎的标签 3.spark引擎的使用 准备操作,队列设置 3.1 通过Linkis SDK进行使用 3.2 通过Linkis-cli进行任务提交 3.3...
  • Docker 示例

    Docker Demo A Demo using docker containers Prerequisites Setting up Docker Cluster Build Hudi Bringing up Demo Cluster Demo Step 1 : Publish the first batch to Kafka Step 2: ...
  • Overview

    Gelly: Flink Graph API Using Gelly Running Gelly Examples Gelly: Flink Graph API Gelly is a Graph API for Flink. It contains a set of methods and utilities which aim to simpl...
  • DESCRIBE Statements

    DESCRIBE Statements Run a DESCRIBE statement Syntax DESCRIBE Statements DESCRIBE statements are used to describe the schema of a table or a view. Run a DESCRIBE statement J...
  • Overview

    Gelly: Flink Graph API Using Gelly Running Gelly Examples Gelly: Flink Graph API Gelly is a Graph API for Flink. It contains a set of methods and utilities which aim to simpl...
  • 类型推断

    741 2019-06-12 《Scala之旅》
    省略类型 参数 何时 不要 依赖类型推断 Scala 编译器通常可以推断出表达式的类型,因此你不必显式地声明它。 省略类型 val businessName = "Montreux Jazz Café" 编译器可以发现 businessName 是 String 类型。 它的工作原理和方法类似: def squareO...
  • 基于 DataStream API 实现欺诈检测

    基于 DataStream API 实现欺诈检测 你要搭建一个什么系统 准备条件 在 IDE 中运行 困难求助 怎样跟着教程练习 FraudDetectionJob.java FraudDetector.java FraudDetectionJob.scala FraudDetector.scala 代码分析 执行环境 创建数据源 对...
  • Spark

    SPARK节点 SPARK节点 通过SPARK节点,可以直接直接执行SPARK程序,对于spark节点,worker会使用spark-submit 方式提交任务 拖动工具栏中的任务节点到画板中,如下图所示: 程序类型:支持JAVA、Scala和Python三种语言 主函数的class:是Spark程序的入口Main Class的全路径...
  • UNLOAD Statements

    UNLOAD Statements Run a UNLOAD statement UNLOAD MODULE UNLOAD Statements UNLOAD statements are used to unload a built-in or user-defined module. Run a UNLOAD statement Ja...
  • REPLs

    Python REPL Scala REPL