Spark on Angel 快速入门
Spark on Angel同时支持YARN和Local两种运行模型,从而方便用户在本地调试程序。Spark on Angel的任务本质上是一个Spark的Application,但是多了一个附属的Application。在任务成功提交后,集群上将会出现两个独立的Application,一个是Spark Application, 一个是Angel-PS Application。两个Application不关联,一个Spark on Angel的作业删除,需要用户或者外部系统同时Kill两个。
部署流程
- 安装Spark
安装Angel
- 解压angel-\
-bin.zip - 配置angel-\
-bin/bin/spark-on-angl-env.sh下的 SPARK_HOME
,ANGEL_HOME
,ANGEL_HDFS_HOME
三个环境变量 - 将解压后的angel-\
-bin目录上传到HDFS路径
- 解压angel-\
配置环境变量
- 需要导入环境脚本:source ./spark-on-angel-env.sh
- 要配置好Jar包位置:spark.ps.jars=\$SONA_ANGEL_JARS和—jars \$SONA_SPARK_JARS
提交任务
完成Spark on Angel的程序编写打包后,可以通过spark-submit的脚本提交任务。不过,有以下几个需要注意的地方:
运行Example(BreezeSGD)
#! /bin/bash
- cd angel-<version>-bin/bin;
- ./SONA-example
脚本内容如下:
#!/bin/bash
source ./spark-on-angel-env.sh
$SPARK_HOME/bin/spark-submit \
--master yarn-cluster \
--conf spark.ps.jars=$SONA_ANGEL_JARS \
--conf spark.ps.instances=10 \
--conf spark.ps.cores=2 \
--conf spark.ps.memory=6g \
--jars $SONA_SPARK_JARS\
--name "LR-spark-on-angel" \
--driver-memory 10g \
--num-executors 10 \
--executor-cores 2 \
--executor-memory 4g \
--class com.tencent.angel.spark.examples.basic.LR \
./../lib/spark-on-angel-examples-${ANGEL_VERSION}.jar \
input:<input_path> \
lr:0.1 \
./../lib/spark-on-angel-examples-${ANGEL_VERSION}.jar
注意要指定Angel PS的资源参数:spark.ps.instance,spark.ps.cores,spark.ps.memory
最简版本的LR
PSContext.getOrCreate(sc)
val psW = PSVector.dense(numFeatures) // weights
val psG = PSVector.duplicate(psW) // gradients of weights
println("Initial psW: " + psW.dimension)
for (i <- 1 to ITERATIONS) {
println("On iteration " + i)
val localW = psW.pull()
trainData.map { case (x, label) =>
val g = x.mul(-label * (1 - 1.0 / (1.0 + math.exp(-label * localW.dot(x)))))
psG.increment(g)
}.count()
VectorUtils.axpy(-lr / numFeatures, psG, psW)
psG.reset
}
println(s"Final psW: ${psW.pull().asInstanceOf[IntDoubleVector].getStorage.getValues.mkString(" ")}")