国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 開發 > Linux Shell > 正文

Spark-shell批量命令執行腳本的方法

2020-07-27 18:47:47
字體:
來源:轉載
供稿:網友

批量執行spark-shell命令,并指定提交參數

#!/bin/bashsource /etc/profileexec $SPARK_HOME/bin/spark-shell --queue tv --name spark-sql-test --executor-cores 8 --executor-memory 8g --num-executors 8 --conf spark.cleaner.ttl=240000 <<!EOFimport org.apache.spark.sql.SaveModesql("set hive.exec.dynamic.partition=true")sql("set hive.exec.dynamic.partition.mode=nonstrict")sql("use hr")sql("SELECT * FROM t_abc ").rdd.saveAsTextFile("/tmp/out") sql("SELECT * FROM t_abc").rdd.map(_.toString).intersection(sc.textFile("/user/hdfs/t2_abc").map(_.toString).distinct).count!EOF

以上這篇Spark-shell批量命令執行腳本的方法就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持武林網。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 得荣县| 临清市| 珲春市| 溧水县| 菏泽市| 桐乡市| 邛崃市| 巴里| 蒙城县| 永顺县| 秭归县| 伊春市| 奇台县| 武冈市| 许昌县| 大田县| 新宾| 南召县| 定襄县| 蒙山县| 金平| 海伦市| 全南县| 沁阳市| 伊金霍洛旗| 绩溪县| 句容市| 烟台市| 长丰县| 沈阳市| 普宁市| 鄂托克前旗| 平原县| 柯坪县| 济阳县| 建昌县| 南澳县| 晴隆县| 青神县| 桑日县| 盈江县|