国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 學院 > 操作系統 > 正文

Spark經典案例3-數據排序

2024-06-28 16:01:09
字體:
來源:轉載
供稿:網友

業務場景:數據排序

1、”數據排序”是許多實際任務執行時要完成的第一項工作, 比如學生成績評比、數據建立索引等。這個實例和數據去重類似,都是先對原始數據進行初步處理,為進一步的數據操作打好基礎。 1)、需求描述 對輸入文件中數據進行排序。輸入文件中的每行內容均為一個數字,即一個數據。 要求在輸出中每行有兩個間隔的數字,其中,第一個代表原始數據在原始數據集中的位次,第二個代表原始數據。

2)輸入文件 file1: 2 32 654 32 15 756 65223

file2: 5956 22 650 92

file3: 26 54 6

樣例輸出: 1 2 2 6 3 15 4 22 5 26 6 32 7 32 8 54 9 92 10 650 11 654 12 756 13 5956 14 65223

package ClassicCaseimport org.apache.spark.{SparkConf, SparkContext}/** * 業務場景:數據排序 * Created by YJ on 2017/2/8. */object case3 { def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local").setAppName("reduce") val sc = new SparkContext(conf) sc.setLogLevel("ERROR") val three = sc.textFile("hdfs://192.168.109.130:8020//user/flume/ClassicCase/case3") var idx = 0 //由入輸入文件有多個,產生不同的分區,為了生產序號,使用HashPartitioner將中間的RDD歸約到一起。 import org.apache.spark.HashPartitioner val res = three.filter(_.trim().length>0) //清洗數據 .map(num=>(num.trim.toInt,"")) //轉換數據 .partitionBy(new HashPartitioner(1)) //將所有數據放到一個分區 .sortByKey() //按自然順序排序 .map(t => { //整理輸出格式 idx += 1 (idx,t._1)} ).collect.foreach(x => PRintln(x._1 +"/t" + x._2) ) }}

輸出結果: 1 2 2 6 3 15 4 22 5 26 6 32 7 32 8 54 9 92 10 650 11 654 12 756 13 5956 14 65223


發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 台东县| 马山县| 柳州市| 通河县| 达孜县| 本溪市| 屯昌县| 广宗县| 淮南市| 阜康市| 海伦市| 保康县| 木里| 农安县| 宜黄县| 无极县| 肥乡县| 卢湾区| 唐海县| 临桂县| 彩票| 车险| 宜都市| 台安县| 招远市| 井陉县| 溧水县| 博兴县| 白河县| 泰顺县| 普宁市| 泰来县| 宁强县| 民和| 金山区| 布尔津县| 新巴尔虎左旗| 积石山| 鄂托克旗| 阿图什市| 南川市|