国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 系統 > Linux > 正文

Spark-shell批量命令執行腳本的方法

2019-10-26 18:57:26
字體:
來源:轉載
供稿:網友

批量執行spark-shell命令,并指定提交參數

#!/bin/bashsource /etc/profileexec $SPARK_HOME/bin/spark-shell --queue tv --name spark-sql-test --executor-cores 8 --executor-memory 8g --num-executors 8 --conf spark.cleaner.ttl=240000 <<!EOFimport org.apache.spark.sql.SaveModesql("set hive.exec.dynamic.partition=true")sql("set hive.exec.dynamic.partition.mode=nonstrict")sql("use hr")sql("SELECT * FROM t_abc ").rdd.saveAsTextFile("/tmp/out") sql("SELECT * FROM t_abc").rdd.map(_.toString).intersection(sc.textFile("/user/hdfs/t2_abc").map(_.toString).distinct).count!EOF

以上這篇Spark-shell批量命令執行腳本的方法就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持武林站長站。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 新乡县| 玉树县| 玉屏| 安国市| 郧西县| 喜德县| 龙门县| 都江堰市| 清徐县| 荣成市| 简阳市| 原平市| 兴和县| 奉贤区| 平邑县| 新余市| 福鼎市| 铁力市| 前郭尔| 遵化市| 陆良县| 西充县| 六安市| 且末县| 德庆县| 时尚| 禹州市| 海城市| 金乡县| 屯门区| 沽源县| 城步| 高阳县| 花垣县| 北流市| 马尔康县| 蒲江县| 开平市| 孟津县| 杂多县| 中阳县|