通过eclipse调试MapReduce任务

利用MapReduce利器作开发,不论从思想上还是技能上都是新的体验。以下罗列下如何利用eclipse调试MR任务。

(本人环境:hadoop 1.0.2,部署在linux上,本地windows开发)



1、安装hadoop。

先在linux上安装好hadoop,为更接近线上环进,我的是安装成Cluster

注意要远程访问相关端口,conf/mapred-site.xml中localhost:9001中需要换成ip加端口。

sh bin/start-all.sh启动,先按文档命令行跑一下example的wordcount。

我安装好运行example遇到了XML解析的错(原因应该是${java.home}/lib/jaxp.properties没有设置,见:javax.xml.xpath.XPathFactory.newInstance(uri)的注释),后来手动加了xalan-j_2.7.0.jar、xercesImpl-2.7.1.jar、xml-apis-2.7.1.jar、xmlenc-0.52.jar、serializer-2.7.1.jar几个包解决。

2、下载hadoop eclipse plugin (最新只有0.20.3,不过也能使用),将jar放到eclipse/plugins下,启动eclipse

这个插件比较简陋,只有一个设置项:Window->Preferences->Hadoop Map/Reduce,设置Hadoop的安装路径,解压一份跟运行hadoop同版本的到本机并指向就行了(我的使用smb映射)

建ecplise工程,把WordCount的示例代码复制一份吧,有些hadoop相关的jar需要引用。

Run As->Run On Hadoop设置Map/Reduce Master的IP,端口为9000, DFS Master端口为9001

这样,不出意外的话就能在eclipse里运行Map/Reduce程序了。

3、打开debug。

因为Map/Reduce程序会被打成一个jar并拷到TaskTracker机器上(单独的进程)并开一个Child进程来跑JVM的,配置加到bin/下的脚本都是针对hadoop本身的进程,正确的配置如下:

在conf/mapred-site.xml中添加以下配置项:

>         <property>
>
>                 <name>mapred.child.java.opts</name>
>
>                 <!–<value>-Xmx200m -Xdebug -Xrunjdwp:transport=dt_socket,address=7788,server=y,suspend=y</value>–>
>
>                 <value>-Xmx200m</value>
>
>         </property>
>
>         <property>
>
>                 <name>mapred.tasktracker.map.tasks.maximum</name>
>
>                 <value>1</value>
>
>                 <description>tasktracker的map任务上限</description>
>
>         </property>
>
>         <property>
>
>                 <name>mapred.tasktracker.reduce.tasks.maximum</name>
>
>                 <value>1</value>
>
>                 <description>tasktracker的reduce任务上限</description>
>
>         </property>
>
>         <property>
>
>                 <name>mapred.task.timeout</name>
>
>                 <value>100000000</value>
>
>         </property>

其中的mapred.child.java.opts会在启动Child进程时设为启动参数。suspend=y取y/n分别表示是否挂起进程等待debug连进来。当然,这个选项还可以方便加其它JVM参数。

重启hadoop,这样运行示例,便可以看到7788端口被监听了。以下几条命令可能会用到:

> ./bin/stop-all.sh
>
> sleep 1s
>
> ./bin/start-all.sh
>
> sleep 1s
>
> ./bin/hadoop dfsadmin -safemode leave
>
> #杀掉hadoop进程或某些异常情况下hadoop会安全模式中不退出,HDFS的文件是不能被修改的(运行示例会无任何输出,但从日志中可以看到异常)这个命令强制退出。
>
> ./bin/hadoop dfs -rmr /user/dafu/out.txt
>
> echo done
>
>  

以上只在linux的命令行运行有效。eclipse插件其实是自己作为JobClient在运行,从eclipse中运行时会自己生成一个hadoop-site.xml文件(新版hadoop拆分为3个了,不过不影响执行),而且,在插件GUI设置界面,居然找不到mapred.child.java.opts等配置项,手工打开:workspace/.metadata.pluginsorg.apache.hadoop.eclipse,可以看到这里存放了插件帮我们打好的jar,在hadoop-conf-132297972833171678里可以找到执行的配置。打开目发locations里边的xml文件(hadoop-site.xml的模板文件),搜索mapred.child.java.opts并修改为前面设置的值。

接下来先 Run As->Run On Hadoop,再用eclipse远程连7788端口进行debug即可。

注:多个TaskTracker,可以断多台,应该是一样。

本文来源于"阿里中间件团队播客",原文发表时间"  2012-06-08"

上一篇:《Kali Linux渗透测试的艺术》—第2章2.4节透测试执行标准


下一篇:MySQL---数据库从入门走向大神系列(九)-用Java向数据库读写大文本/二进制文件数据