书栈网 · BookStack 本次搜索耗时 0.038 秒,为您找到 25618 个相关结果.
  • Extracting Content with Apache Tika

    817 2021-07-08 《Quarkus v1.7 Guides》
    Quarkus - Using Apache Tika Prerequisites Solution Creating the Maven Project Examine the generated JAX-RS resource Update the JAX-RS resource Run the application Building a ...
  • 验证 Apache 发布版本

    验证 Apache 发布版本 1. 下载源码包、签名文件、校验值文件和 KEYS 2. 检查签名和校验值 3. 验证源码协议头 4. 验证编译 验证 Apache 发布版本 可以按照以下步骤对发布版本进行验证: 下载链接是否合法。 校验值和 PGP 签名是否合法。 是否包含 DISCLAIMER-WIP。 代码是否和当前发布版本相...
  • 如何成为 Apache Committer

    如何成为 Apache Committer 宽泛的标准 如何成为 Apache Committer 宽泛的标准 这篇文章将介绍如何成为一名 Apache Committer;简单来说可分为以下几个步骤: 理解和认同 Apache 运作方式和理念 (Apache Way),并以此理念来与其他人协同工作; 参与项目,可以从贡献文档,回答社区问题...
  • 与Apache配合使用

    与Apache配合使用 与Apache配合使用 LoadModule proxy_module / yyypath / modules / mod_deflate . so < IfModule deflate_module > SetOutputFilter DEFLATE DeflateCompressionLe...
  • Apache Hadoop 核心组件

    Apache Hadoop 核心组件 Apache Hadoop 核心组件 Apache Hadoop 包含以下模块: Hadoop Common :常见实用工具,用来支持其他 Hadoop 模块。 Hadoop Distributed File System(HDFS) :分布式文件系统,它提供对应用程序数据的高吞吐量访问。 Hadoop YA...
  • Using Apache Kafka Streams

    2534 2019-11-10 《Quarkus v1.0 Document》
    Quarkus - Using Apache Kafka Streams Prerequisites Architecture Solution Creating the Producer Maven Project The Temperature Value Producer Topic Configuration Creating the A...
  • Apache 下启用 Https

    Apache 下启用 Https 通过 OpenSSL 生成 SSL 数字认证 在 Seahub 端启用 https 修改 SERVICE_URL 和 FILE_SERVER_ROOT 启动 Seafile 和 Seahub Apache 下启用 Https 请使用 Apache 2.4 版本。 通过 OpenSSL 生成 SSL 数字...
  • Embedding Apache ActiveMQ Artemis

    1. Embedding with XML configuration 2. Embedding with programmatic configuration Apache ActiveMQ Artemis is designed as set of simple Plain Old Java Objects (POJOs). This means ...
  • 与 Apache Kafka 和 Apache Flink 进行数据集成

    与 Apache Kafka 和 Apache Flink 进行数据集成 第 1 步:搭建环境 第 2 步:创建 Kafka changefeed 第 3 步:写入数据以产生变更日志 第 4 步:配置 Flink 消费 Kafka 数据(可选) 与 Apache Kafka 和 Apache Flink 进行数据集成 本文档介绍如何使用 TiC...
  • 与 Apache Kafka 和 Apache Flink 进行数据集成

    与 Apache Kafka 和 Apache Flink 进行数据集成 第 1 步:搭建环境 第 2 步:创建 Kafka changefeed 第 3 步:写入数据以产生变更日志 第 4 步:配置 Flink 消费 Kafka 数据(可选) 与 Apache Kafka 和 Apache Flink 进行数据集成 本文档介绍如何使用 TiC...