国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 學院 > 開發設計 > 正文

跟天齊老師學Spark(4)--Spark整合hdfs

2019-11-11 03:50:47
字體:
來源:轉載
供稿:網友
spark整合hdfs:需求:從hdfs中讀取數據,用spark計算,再寫到hdfs中。啟動zookeeper;啟動hadoop的hdfs;然后啟動spark(我們這里就不啟動高可用集群了,這里只啟動一個Master);向spark集群提交任務;spark-shell中寫的程序僅僅是做實驗;實際開發中,是先在IDE中開發spark程序,然后打包,提交到集群。然后用腳本或調度框架來調度。我們這里在spark-shell中寫一個spark程序:讀取hdfs中的數據的話,先指定hdfs的地址,你可以將hadoop的兩個配置文件hdfs-site.xml和core-site.xml拷貝到spark的conf目錄下,但是我們這里因為是測試,所以hdfs的地址寫死了:sc.textFile("hdfs://hadoop01:9000/wc").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).sortBy(_._2,false).saveAsTextFile("hdfs://hadoop01:9000/wc/out05")上面的spark-shell只是在測試或者學習的時候常用的方式。在生產中,一般是在開發工具中開發好程序,然后將程序打成jar包,在提交到spark集群上運行。
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 井冈山市| 固镇县| 达尔| 英山县| 洮南市| 滦南县| 九龙坡区| 建始县| 鹤庆县| 历史| 阜城县| 梅河口市| 霍山县| 四子王旗| 河北区| 婺源县| 集安市| 丹寨县| 太原市| 洛宁县| 舒兰市| 铅山县| 林口县| 株洲市| 平谷区| 松阳县| 盐源县| 崇州市| 雷州市| 筠连县| 当涂县| 嘉义市| 梓潼县| 永泰县| 板桥市| 嘉荫县| 静海县| 陕西省| 绩溪县| 宁德市| 稷山县|