转载

使用Spark SQL构建批处理程序

StreamingPro目前已经涵盖流式/批处理,以及交互查询三个领域,实现配置和SQL化

前言

今天介绍利用 StreamingPro 完成批处理的流程。

准备工作

  • 下载StreamingPro

1.5.1 链接: http://pan.baidu.com/s/1qYu2Fco 密码: efb9

1.6.1 链接: http://pan.baidu.com/s/1kVCTJE3 密码: rhss

我们假设您将文件放在了/tmp目录下。

填写配置文件

  • 实例一,我要把数据从ES导出到HDFS,并且形成csv格式。

gist

启动StreamingPro

Local模式:

cd  $SPARK_HOME  ./bin/spark-submit   --class streaming.core.StreamingApp / --master local[2] / --name test / /tmp/streamingpro-0.2.1-SNAPSHOT-dev-1.6.1.jar    / -streaming.name test    / -streaming.platform spark   / -streaming.job.file.path file:///tmp/test.json

访问

http://127.0.0.1:4040

可进入Spark UI

集群模式:

cd  $SPARK_HOME  ./bin/spark-submit   --class streaming.core.StreamingApp / --master yarn-cluster / --name test / /tmp/streamingpro-0.2.1-SNAPSHOT-dev-1.6.1.jar    / -streaming.name test    / -streaming.platform spark   / -streaming.job.file.path hdfs://cluster/tmp/test.json

这里需要注意的是,配置文件并蓄放到HDFS上,并且需要协商hdfs前缀。这是一个标准的Spark 批处理程序

原文  http://www.jianshu.com/p/7f6cb8eaadef
正文到此结束
Loading...