主页 > 知识库 > Spark-shell批量命令执行脚本的方法

Spark-shell批量命令执行脚本的方法

热门标签:呼叫中心市场需求 铁路电话系统 AI电销 网站排名优化 百度竞价排名 地方门户网站 Linux服务器 服务外包

批量执行spark-shell命令,并指定提交参数

#!/bin/bash

source /etc/profile

exec $SPARK_HOME/bin/spark-shell --queue tv --name spark-sql-test --executor-cores 8 --executor-memory 8g --num-executors 8 --conf spark.cleaner.ttl=240000 !EOF
import org.apache.spark.sql.SaveMode
sql("set hive.exec.dynamic.partition=true")
sql("set hive.exec.dynamic.partition.mode=nonstrict")
sql("use hr")
sql("SELECT * FROM t_abc ").rdd.saveAsTextFile("/tmp/out") 
sql("SELECT * FROM t_abc").rdd.map(_.toString).intersection(sc.textFile("/user/hdfs/t2_abc").map(_.toString).distinct).count
!EOF

以上这篇Spark-shell批量命令执行脚本的方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。

您可能感兴趣的文章:
  • 十三个写好shell脚本的技巧分享
  • 使用shell脚本执行hive、sqoop命令的方法
  • shell中循环调用hive sql 脚本的方法

标签:铜川 崇左 兰州 黄山 湖南 湘潭 衡水 仙桃

巨人网络通讯声明:本文标题《Spark-shell批量命令执行脚本的方法》,本文关键词  ;如发现本文内容存在版权问题,烦请提供相关信息告之我们,我们将及时沟通与处理。本站内容系统采集于网络,涉及言论、版权与本站无关。
  • 相关文章
  • 收缩
    • 微信客服
    • 微信二维码
    • 电话咨询

    • 400-1100-266