国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Java > 正文

eclipse/intellij idea 遠程調試hadoop 2.6.0

2019-11-26 14:04:08
字體:
來源:轉載
供稿:網友

很多hadoop初學者估計都我一樣,由于沒有足夠的機器資源,只能在虛擬機里弄一個linux安裝hadoop的偽分布,然后在host機上win7里使用eclipse或Intellj idea來寫代碼測試,那么問題來了,win7下的eclipse或intellij idea如何遠程提交map/reduce任務到遠程hadoop,并斷點調試?

一、準備工作

1.1 在win7中,找一個目錄,解壓hadoop-2.6.0,本文中是D:/yangjm/Code/study/hadoop/hadoop-2.6.0 (以下用$HADOOP_HOME表示)

1.2 在win7中添加幾個環境變量

HADOOP_HOME=D:/yangjm/Code/study/hadoop/hadoop-2.6.0

HADOOP_BIN_PATH=%HADOOP_HOME%/bin

HADOOP_PREFIX=D:/yangjm/Code/study/hadoop/hadoop-2.6.0

另外,PATH變量在最后追加;%HADOOP_HOME%/bin

二、eclipse遠程調試

1.1 下載hadoop-eclipse-plugin插件

hadoop-eclipse-plugin是一個專門用于eclipse的hadoop插件,可以直接在IDE環境中查看hdfs的目錄和文件內容。其源代碼托管于github上,官網地址是 https://github.com/winghc/hadoop2x-eclipse-plugin

有興趣的可以自己下載源碼編譯,百度一下N多文章,但如果只是使用 https://github.com/winghc/hadoop2x-eclipse-plugin/tree/master/release%20這里已經提供了各種編譯好的版本,直接用就行,將下載后的hadoop-eclipse-plugin-2.6.0.jar復制到eclipse/plugins目錄下,然后重啟eclipse就完事了

1.2 下載windows64位平臺的hadoop2.6插件包(hadoop.dll,winutils.exe)

在hadoop2.6.0源碼的hadoop-common-project/hadoop-common/src/main/winutils下,有一個vs.net工程,編譯這個工程可以得到這一堆文件,輸出的文件中,

hadoop.dll、winutils.exe 這二個最有用,將winutils.exe復制到$HADOOP_HOME/bin目錄,將hadoop.dll復制到%windir%/system32目錄 (主要是防止插件報各種莫名錯誤,比如空對象引用啥的)

注:如果不想編譯,可直接下載編譯好的文件 hadoop2.6(x64)V0.2.rar

1.3 配置hadoop-eclipse-plugin插件

啟動eclipse,windows->show view->other

window->preferences->hadoop map/reduce 指定win7上的hadoop根目錄(即:$HADOOP_HOME)

然后在Map/Reduce Locations 面板中,點擊小象圖標

添加一個Location

這個界面灰常重要,解釋一下幾個參數:

Location name 這里就是起個名字,隨便起

Map/Reduce(V2) Master Host 這里就是虛擬機里hadoop master對應的IP地址,下面的端口對應 hdfs-site.xml里dfs.datanode.ipc.address屬性所指定的端口

DFS Master Port: 這里的端口,對應core-site.xml里fs.defaultFS所指定的端口

最后的user name要跟虛擬機里運行hadoop的用戶名一致,我是用hadoop身份安裝運行hadoop 2.6.0的,所以這里填寫hadoop,如果你是用root安裝的,相應的改成root

這些參數指定好以后,點擊Finish,eclipse就知道如何去連接hadoop了,一切順利的話,在Project Explorer面板中,就能看到hdfs里的目錄和文件了

可以在文件上右擊,選擇刪除試下,通常第一次是不成功的,會提示一堆東西,大意是權限不足之類,原因是當前的win7登錄用戶不是虛擬機里hadoop的運行用戶,解決辦法有很多,比如你可以在win7上新建一個hadoop的管理員用戶,然后切換成hadoop登錄win7,再使用eclipse開發,但是這樣太煩,最簡單的辦法:

hdfs-site.xml里添加

<property> <name>dfs.permissions</name> <value>false</value> </property>

然后在虛擬機里,運行hadoop dfsadmin -safemode leave

保險起見,再來一個 hadoop fs -chmod 777 /

總而言之,就是徹底把hadoop的安全檢測關掉(學習階段不需要這些,正式生產上時,不要這么干),最后重啟hadoop,再到eclipse里,重復剛才的刪除文件操作試下,應該可以了。

1.4 創建WoldCount示例項目

新建一個項目,選擇Map/Reduce Project

后面的Next就行了,然后放一上WodCount.java,代碼如下:

package yjmyzz;import java.io.IOException;import java.util.StringTokenizer;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.Path;import org.apache.hadoop.io.IntWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapreduce.Job;import org.apache.hadoop.mapreduce.Mapper;import org.apache.hadoop.mapreduce.Reducer;import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;import org.apache.hadoop.util.GenericOptionsParser;public class WordCount { public static class TokenizerMapper  extends Mapper<Object, Text, Text, IntWritable> { private final static IntWritable one = new IntWritable(1); private Text word = new Text(); public void map(Object key, Text value, Context context) throws IOException, InterruptedException {  StringTokenizer itr = new StringTokenizer(value.toString());  while (itr.hasMoreTokens()) {  word.set(itr.nextToken());  context.write(word, one);  } } } public static class IntSumReducer extends Reducer<Text, IntWritable, Text, IntWritable> { private IntWritable result = new IntWritable(); public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {  int sum = 0;  for (IntWritable val : values) {  sum += val.get();  }  result.set(sum);  context.write(key, result); } } public static void main(String[] args) throws Exception { Configuration conf = new Configuration();  String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs(); if (otherArgs.length < 2) {  System.err.println("Usage: wordcount <in> [<in>...] <out>");  System.exit(2); } Job job = Job.getInstance(conf, "word count"); job.setJarByClass(WordCount.class); job.setMapperClass(TokenizerMapper.class); job.setCombinerClass(IntSumReducer.class); job.setReducerClass(IntSumReducer.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(IntWritable.class); for (int i = 0; i < otherArgs.length - 1; ++i) {  FileInputFormat.addInputPath(job, new Path(otherArgs[i])); } FileOutputFormat.setOutputPath(job,  new Path(otherArgs[otherArgs.length - 1])); System.exit(job.waitForCompletion(true) ? 0 : 1); }}

然后再放一個log4j.properties,內容如下:(為了方便運行起來后,查看各種輸出)

log4j.rootLogger=INFO, stdout#log4j.logger.org.springframework=INFO#log4j.logger.org.apache.activemq=INFO#log4j.logger.org.apache.activemq.spring=WARN#log4j.logger.org.apache.activemq.store.journal=INFO#log4j.logger.org.activeio.journal=INFOlog4j.appender.stdout=org.apache.log4j.ConsoleAppenderlog4j.appender.stdout.layout=org.apache.log4j.PatternLayoutlog4j.appender.stdout.layout.ConversionPattern=%d{ABSOLUTE} | %-5.5p | %-16.16t | %-32.32c{1} | %-32.32C %4L | %m%n

最終的目錄結構如下:

然后可以Run了,當然是不會成功的,因為沒給WordCount輸入參數,參考下圖:

1.5 設置運行參數

因為WordCount是輸入一個文件用于統計單詞字,然后輸出到另一個文件夾下,所以給二個參數,參考上圖,在Program arguments里,輸入

hdfs://172.28.20.xxx:9000/jimmy/input/README.txt
hdfs://172.28.20.xxx:9000/jimmy/output/

大家參考這個改一下(主要是把IP換成自己虛擬機里的IP),注意的是,如果input/READM.txt文件沒有,請先手動上傳,然后/output/ 必須是不存在的,否則程序運行到最后,發現目標目錄存在,也會報錯,這個弄完后,可以在適當的位置打個斷點,終于可以調試了:

三、intellij idea 遠程調試hadoop

3.1 創建一個maven的WordCount項目

pom文件如下:

<?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.apache.org/POM/4.0.0"  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"  xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <groupId>yjmyzz</groupId> <artifactId>mapreduce-helloworld</artifactId> <version>1.0-SNAPSHOT</version> <dependencies> <dependency>  <groupId>org.apache.hadoop</groupId>  <artifactId>hadoop-common</artifactId>  <version>2.6.0</version> </dependency> <dependency>  <groupId>org.apache.hadoop</groupId>  <artifactId>hadoop-mapreduce-client-jobclient</artifactId>  <version>2.6.0</version> </dependency> <dependency>  <groupId>commons-cli</groupId>  <artifactId>commons-cli</artifactId>  <version>1.2</version> </dependency> </dependencies> <build> <finalName>${project.artifactId}</finalName> </build></project>

項目結構如下:

項目上右擊-》Open Module Settings 或按F12,打開模塊屬性

添加依賴的Libary引用

然后把$HADOOP_HOME下的對應包全導進來

導入的libary可以起個名稱,比如hadoop2.6

3.2 設置運行參數

注意二個地方

1是Program aguments,這里跟eclipes類似的做法,指定輸入文件和輸出文件夾

2是Working Directory,即工作目錄,指定為$HADOOP_HOME所在目錄

然后就可以調試了

intellij下唯一不爽的,由于沒有類似eclipse的hadoop插件,每次運行完wordcount,下次再要運行時,只能手動命令行刪除output目錄,再行調試。為了解決這個問題,可以將WordCount代碼改進一下,在運行前先刪除output目錄,見下面的代碼:

package yjmyzz;import java.io.IOException;import java.util.StringTokenizer;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;import org.apache.hadoop.io.IntWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapreduce.Job;import org.apache.hadoop.mapreduce.Mapper;import org.apache.hadoop.mapreduce.Reducer;import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;import org.apache.hadoop.util.GenericOptionsParser;public class WordCount { public static class TokenizerMapper  extends Mapper<Object, Text, Text, IntWritable> { private final static IntWritable one = new IntWritable(1); private Text word = new Text(); public void map(Object key, Text value, Context context) throws IOException, InterruptedException {  StringTokenizer itr = new StringTokenizer(value.toString());  while (itr.hasMoreTokens()) {  word.set(itr.nextToken());  context.write(word, one);  } } } public static class IntSumReducer extends Reducer<Text, IntWritable, Text, IntWritable> { private IntWritable result = new IntWritable(); public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {  int sum = 0;  for (IntWritable val : values) {  sum += val.get();  }  result.set(sum);  context.write(key, result); } } /** * 刪除指定目錄 * * @param conf * @param dirPath * @throws IOException */ private static void deleteDir(Configuration conf, String dirPath) throws IOException { FileSystem fs = FileSystem.get(conf); Path targetPath = new Path(dirPath); if (fs.exists(targetPath)) {  boolean delResult = fs.delete(targetPath, true);  if (delResult) {  System.out.println(targetPath + " has been deleted sucessfullly.");  } else {  System.out.println(targetPath + " deletion failed.");  } } } public static void main(String[] args) throws Exception { Configuration conf = new Configuration(); String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs(); if (otherArgs.length < 2) {  System.err.println("Usage: wordcount <in> [<in>...] <out>");  System.exit(2); } //先刪除output目錄 deleteDir(conf, otherArgs[otherArgs.length - 1]); Job job = Job.getInstance(conf, "word count"); job.setJarByClass(WordCount.class); job.setMapperClass(TokenizerMapper.class); job.setCombinerClass(IntSumReducer.class); job.setReducerClass(IntSumReducer.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(IntWritable.class); for (int i = 0; i < otherArgs.length - 1; ++i) {  FileInputFormat.addInputPath(job, new Path(otherArgs[i])); } FileOutputFormat.setOutputPath(job,  new Path(otherArgs[otherArgs.length - 1])); System.exit(job.waitForCompletion(true) ? 0 : 1); }}

但是光這樣還不夠,在IDE環境中運行時,IDE需要知道去連哪一個hdfs實例(就好象在db開發中,需要在配置xml中指定DataSource一樣的道理),將$HADOOP_HOME/etc/hadoop下的core-site.xml,復制到resouces目錄下,類似下面這樣:

里面的內容如下:

<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><configuration> <property> <name>fs.defaultFS</name> <value>hdfs://172.28.20.***:9000</value> </property></configuration>

上面的IP換成虛擬機里的IP即可。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 南投市| 巢湖市| 灵宝市| 霍州市| 潮安县| 庆阳市| 盐源县| 长顺县| 莒南县| 夏邑县| 津南区| 榕江县| 石柱| 若羌县| 将乐县| 郴州市| 汨罗市| 晋宁县| 湟源县| 绥阳县| 秦安县| 什邡市| 阿拉善左旗| 荆州市| 双辽市| 南郑县| 五莲县| 健康| 麻江县| 黑水县| 太仆寺旗| 行唐县| 张家港市| 华阴市| 怀柔区| 抚宁县| 于都县| 新和县| 朔州市| 桃江县| 越西县|