部署依赖
集群依赖
spark thrift
- 下载
spark
安装包,我们选择的是spark2.1.3b - 解压spark-2.1.3-bin-hadoop2.7.tgz
- 将core-site.xml、hdfs-site.xml、yarn-site.xml、hive-site.xml拷贝到${SPARK_HOME}/conf目录下
- 启动spark thriftserver:
$ cd ${SPARK_HOME}/sbin && sh start-thriftserver.sh
flinkx
maven依赖
构建依赖
Taier源码编译启动中依赖DatasourceX的core包以及自定义hive的jar包,需要提前install到mvn仓库
mvn install:install-file -Dfile=datasourcex-core.jar -DgroupId=com.dtstack.dtcenter -DartifactId=common.loader.core -Dversion=1.7.0-SNAPSHOT -Dpackaging=jar
mvn install:install-file -Dfile=dt-insight-hive-shade-4.1.2-RELEASE.jar -DgroupId=dt.insight.plat -DartifactId=dt-insight-hive-shade -Dversion=4.1.2-RELEASE -Dpackaging=jar
mvn install:install-file -Dfile=carbondata-spark2-1.5.0.jar -DgroupId=org.apache.carbondata -DartifactId=carbondata-spark2 -Dversion=1.5.0-SNAPSHOT -Dpackaging=jar
编辑器依赖
源码中包含部分scala的代码,通过idea启动需要添加scala的sdk
open module setting -> global libraries
建议版本为2.11.1