国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 學院 > 開發設計 > 正文

跟天齊老師學Spark(4)--Spark整合hdfs

2019-11-11 05:20:46
字體:
來源:轉載
供稿:網友
spark整合hdfs:需求:從hdfs中讀取數據,用spark計算,再寫到hdfs中。啟動zookeeper;啟動hadoop的hdfs;然后啟動spark(我們這里就不啟動高可用集群了,這里只啟動一個Master);向spark集群提交任務;spark-shell中寫的程序僅僅是做實驗;實際開發中,是先在IDE中開發spark程序,然后打包,提交到集群。然后用腳本或調度框架來調度。我們這里在spark-shell中寫一個spark程序:讀取hdfs中的數據的話,先指定hdfs的地址,你可以將hadoop的兩個配置文件hdfs-site.xml和core-site.xml拷貝到spark的conf目錄下,但是我們這里因為是測試,所以hdfs的地址寫死了:sc.textFile("hdfs://hadoop01:9000/wc").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).sortBy(_._2,false).saveAsTextFile("hdfs://hadoop01:9000/wc/out05")上面的spark-shell只是在測試或者學習的時候常用的方式。在生產中,一般是在開發工具中開發好程序,然后將程序打成jar包,在提交到spark集群上運行。
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 城固县| 白银市| 翁源县| 蒙城县| 泰顺县| 东光县| 万宁市| 东乌| 崇明县| 肇东市| 保康县| 洪雅县| 西昌市| 乐山市| 灵山县| 嫩江县| 都江堰市| 天台县| 格尔木市| 鄄城县| 离岛区| 松阳县| 元江| 阿瓦提县| 保靖县| 韩城市| 宜兰市| 肥乡县| 绥德县| 乌海市| 赣榆县| 陇西县| 乐昌市| 珲春市| 驻马店市| 安达市| 孝义市| 武功县| 聊城市| 广州市| 长泰县|