主页 > 知识库 > Spark-shell批量命令执行脚本的方法

Spark-shell批量命令执行脚本的方法

热门标签:400电话申请找 电销机器人加盟多少钱 宿松高德地图标注 贵阳400电话到哪里去办理 网络电话外呼系统拨号软件 申请400电话有什么用 汨罗代理外呼系统 天津智能外呼系统排名 4层电梯外呼控制系统设计

批量执行spark-shell命令,并指定提交参数

#!/bin/bash

source /etc/profile

exec $SPARK_HOME/bin/spark-shell --queue tv --name spark-sql-test --executor-cores 8 --executor-memory 8g --num-executors 8 --conf spark.cleaner.ttl=240000 !EOF
import org.apache.spark.sql.SaveMode
sql("set hive.exec.dynamic.partition=true")
sql("set hive.exec.dynamic.partition.mode=nonstrict")
sql("use hr")
sql("SELECT * FROM t_abc ").rdd.saveAsTextFile("/tmp/out") 
sql("SELECT * FROM t_abc").rdd.map(_.toString).intersection(sc.textFile("/user/hdfs/t2_abc").map(_.toString).distinct).count
!EOF

以上这篇Spark-shell批量命令执行脚本的方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。

您可能感兴趣的文章:
  • 十三个写好shell脚本的技巧分享
  • 使用shell脚本执行hive、sqoop命令的方法
  • shell中循环调用hive sql 脚本的方法

标签:海北 连云港 昌都 赣州 广东 抚州 乌兰察布 临沂

巨人网络通讯声明:本文标题《Spark-shell批量命令执行脚本的方法》,本文关键词  Spark-shell,批量,命令,执行,;如发现本文内容存在版权问题,烦请提供相关信息告之我们,我们将及时沟通与处理。本站内容系统采集于网络,涉及言论、版权与本站无关。
  • 相关文章
  • 下面列出与本文章《Spark-shell批量命令执行脚本的方法》相关的同类信息!
  • 本页收集关于Spark-shell批量命令执行脚本的方法的相关信息资讯供网民参考!
  • 推荐文章