书栈网 · BookStack 本次搜索耗时 0.034 秒,为您找到 1513 个相关结果.
  • Sqoop 引擎

    Sqoop 引擎 1 Sqoop引擎Linkis系统参数配置 2 Sqoop引擎的配置和部署 2.1 Sqoop版本的选择和编译 2.2 Sqoop engineConn部署和加载 3 Sqoop引擎的使用 3.1 通过Linkis-cli进行任务提交 3.1 OnceEngineConn方式 4 参数 4.1 Common arguments...
  • Overview

    Overview Overview Supported Load Nodes Supported Flink Versions Usage for SQL API Overview Overview Load Nodes is a set of Sink Connectors based on Apache Flink® for loadi...
  • Built-in connector

    Built-in connector Source connector Canal Debezium MySQL Debezium PostgreSQL Debezium MongoDB DynamoDB File Flume Twitter firehose Kafka Kinesis Netty NSQ RabbitMQ Si...
  • Built-in connector

    Built-in connector Source connector Canal Debezium MySQL Debezium PostgreSQL Debezium MongoDB DynamoDB File Flume Twitter firehose Kafka Kinesis Netty NSQ RabbitMQ Si...
  • 基于 PinPoint 实现微服务无侵入的监控与链路追踪

    基于 PinPoint 实现微服务无侵入的监控与链路追踪 前提条件 操作步骤 常见问题 基于 PinPoint 实现微服务无侵入的监控与链路追踪 应⽤性能管理(Application Performance Management,APM)是指对企业的关键业务应⽤进⾏监测、优化,提⾼企业应⽤的可靠性和质量,保证⽤户得到良好的服务,降低 IT 总运维...
  • 6.Hive 存储插件

    Hive 存储插件 从 Drill 上连接到 Hive 的远程仓库 Hive 远程元数据配置 连接到 Hive 的嵌入模式元数据中 Hive 嵌入元数据配置 Hive 存储插件 Drill 1.1 和之后的版本支持 Hive 1.0。为了访问 Hive 表使用 SerDes 或输入/输出格式,所有的正在运行的 Drillbit 服务节点,在 ...
  • 优化 Cube 构建

    优化 Cube 构建 创建Hive的中间平表 重新分发中间表 提取事实表的唯一列 构建维度字典 保存cuboid的统计数据和创建 HTable 构建基础cuboid Build N-Dimension Cuboid 构建cube 将cuboid数据转换为HFile 将HFile导入HBase表 更新cube信息 清理资源 总结 ...
  • 优化 Cube 构建

    优化 Cube 构建 创建Hive的中间平表 重新分发中间表 提取事实表的唯一列 构建维度字典 保存cuboid的统计数据和创建 HTable 构建基础cuboid Build N-Dimension Cuboid 构建cube 将cuboid数据转换为HFile 将HFile导入HBase表 更新cube信息 清理资源 总结 ...
  • Flume Sinks

    Flume Sinks HDFS Sink Hive Sink Logger Sink Avro Sink Thrift Sink IRC Sink File Roll Sink Null Sink HBaseSinks HBaseSink AsyncHBaseSink MorphlineSolrSink ElasticSearchS...
  • Table & SQL Connectors

    概览 Formats Kafka Upsert Kafka Kinesis JDBC Elasticsearch FileSystem HBase DataGen Print BlackHole Hive 下载