• 技术文章 >数据库 >mysql教程

    eclipse中hadoop2.3.0环境部署及在eclipse中直接提交mapreduce任

    2016-06-07 15:00:35原创631

    1eclipse中hadoop环境部署概览 eclipse中部署hadoop包括两大部分:hdfs环境部署和mapreduce任务执行环境部署。一般hdfs环境部署比较简单,部署后就 可以在eclipse中像操作windows目录一样操作hdfs文件。而mapreduce任务执行环境的部署就比较复杂一点,不同版

    1 eclipse中hadoop环境部署概览

    eclipse中部署hadoop包括两大部分:hdfs环境部署和mapreduce任务执行环境部署。一般hdfs环境部署比较简单,部署后就 可以在eclipse中像操作windows目录一样操作hdfs文件。而mapreduce任务执行环境的部署就比较复杂一点,不同版本对环境的要求度 高低不同就导致部署的复杂度大相径庭。例如hadoop1包括以前的版本部署就比较简单,可在windows和Linux执行部署运行,而hadoop2 及以上版本对环境要求就比较严格,一般只能在Linux中部署,如果需要在windows中部署需要使用cygwin等软件模拟Linux环境,该篇介绍在Linux环境中部署hadoop环境。该篇假设hadoop2.3.0集群已经部署完成,集群访问权限为hadoop用户。这种在eclipse上操作hdfs和提交mapreduce任务的方式为hadoop客户端操作,故无须在该机器上配置hadoop集群文件,也无须在该机器上启动hadoop相关进程。

    2 部署环境机器相关配置

    3 eclipse中hdfs及mapreduce环境部署

    3.1 Linux中eclipse安装

    3.1.1 在Linux中选择一个eclipse安装目录如/home目录,将eclipse压缩包eclipse-standard-kepler-SR2-linux-gtk.tar.gz在该目录下解压即可,解压命令如下:

    tar -zxvf eclipse-standard-kepler-SR2-linux-gtk.tar.gz

    3.1.2 解压后的eclipse目录需要赋予hadoop用户权限chown -R hadoop:hadoop /home/eclipse,解压后eclipse目录如下图所示:

    3.1.3 将自己打包或者下载的hadoop和eclipse直接的插件导入eclipse的 plugins目录(复制进去即可),该篇使用直接下载的插件hadoop-eclipse-plugin-2.2.0.jar,然后启动eclipse。

    3.2 eclipse环境部署

    3.2.1 打开eclipse后切换到mapreduce界面会出现mapreduce插件图标,一个是DFS显示的位置,一个是mapreduce显示的位置,具体如下图所示:

    3.2.2 在MapReduce Locations出处点击右键新建mapreduce配置环境,具体图示如下:

    3.2.3 进入mapreduce配置环境,具体如下图所示。其中,Location name可任意填写,Mapreduce Master中Host为resourcemanager机器ip,Port为resourcemanager接受任务的端口号,即yarn-site.xml文件中yarn.resourcemanager.scheduler.address配置项中端口号。DFS Master中的Host为namenode机器ip,Port为core-site.xml文件中fs.defaultFS配置项中端口号。

    3.2.4 上一步骤配置完成后,我们看到的界面如下图所示。左侧栏中即为hdfs目录,在每个目录上课点击右键操作。

    4 eclipse中直接提交mapreduce任务(此处以wordcount为例,同时注意hadoop集群防火墙需对该机器开放相应端口)

    如果我们将hadoop自带的wordcount在eclipse中执行是不可以的,调整后具体操作如下。

    4.1 首先新建Map/Reduce工程(无须手动导入hadoop jar包),或者新建java工程(需要手动导入hadoop相应jar包)。

    4.1.1 新建Map/Reduce工程(无须手动导入hadoop jar包),具体图示如下图所示:

    4.1.1.1 点击next输入hadoop工程名即可,具体如下图所示:

    4.1.1.2 新建的hadoop工程如下图所示:

    4.1.2 新建java工程(需要手动导入hadoop相应jar包),具体如下图所示:

    4.1.2.1 新建java工程完成后,下面添加hadoop相应jar包,hadoop2.3.0相应jar包在/hadoop-2.3.0/share/hadoop目录中。

    4.1.2.2 进入Libraries,点击Add Library添加hadoop相应jar包。

    4.1.2.3 新建hadoop相应library成功后添加hadoop相应jar包到该library下面即可。

    4.1.2.4 需要添加的hadoop相应jar包有:

    /hadoop-2.3.0/share/hadoop/common下所有jar包,及里面的lib目录下所有jar包

    /hadoop-2.3.0/share/hadoop/hdfs下所有jar包,不包括里面lib下的jar包

    /hadoop-2.3.0/share/hadoop/mapreduce下所有jar包,不包括里面lib下的jar包

    /hadoop-2.3.0/share/hadoop/yarn下所有jar包,不包括里面lib下的jar包

    4.2 eclipse直接提交mapreduce任务所需环境配置代码如下所示:

    import java.io.File;
    import java.io.FileInputStream;
    import java.io.FileOutputStream;
    import java.io.IOException;
    import java.net.URL;
    import java.net.URLClassLoader;
    import java.util.ArrayList;
    import java.util.Iterator;
    import java.util.List;
    import java.util.jar.JarEntry;
    import java.util.jar.JarOutputStream;
    import java.util.jar.Manifest;
    
    public class EJob {
    
        // To declare global field
        private static List classPath = new ArrayList();
    
        // To declare method
        public static File createTempJar(String root) throws IOException {
            if (!new File(root).exists()) {
                return null;
            }
            Manifest manifest = new Manifest();
            manifest.getMainAttributes().putValue("Manifest-Version", "1.0");
            final File jarFile = File.createTempFile("EJob-", ".jar", new File(System.getProperty("java.io.tmpdir")));
    
            Runtime.getRuntime().addShutdownHook(new Thread() {
                public void run() {
                    jarFile.delete();
                }
            });
    
            JarOutputStream out = new JarOutputStream(new FileOutputStream(jarFile), manifest);
            createTempJarInner(out, new File(root), "");
            out.flush();
            out.close();
            return jarFile;
        }
    
        private static void createTempJarInner(JarOutputStream out, File f,
                String base) throws IOException {
            if (f.isDirectory()) {
                File[] fl = f.listFiles();
                if (base.length() > 0) {
                    base = base + "//m.sbmmt.com/m/";
                }
                for (int i = 0; i < fl.length; i++) {
                    createTempJarInner(out, fl[i], base + fl[i].getName());
                }
            } else {
                out.putNextEntry(new JarEntry(base));
                FileInputStream in = new FileInputStream(f);
                byte[] buffer = new byte[1024];
                int n = in.read(buffer);
                while (n != -1) {
                    out.write(buffer, 0, n);
                    n = in.read(buffer);
                }
                in.close();
            }
        }
    
        public static ClassLoader getClassLoader() {
            ClassLoader parent = Thread.currentThread().getContextClassLoader();
    
            if (parent == null) {
                parent = EJob.class.getClassLoader();
            }
            if (parent == null) {
                parent = ClassLoader.getSystemClassLoader();
            }
            return new URLClassLoader(classPath.toArray(new URL[0]), parent);
        }
    
        public static void addClasspath(String component) {
    
            if ((component != null) && (component.length() > 0)) {
                try {
                    File f = new File(component);
    
                    if (f.exists()) {
                        URL key = f.getCanonicalFile().toURL();
                        if (!classPath.contains(key)) {
                            classPath.add(key);
                        }
                    }
                } catch (IOException e) {
                }
            }
        }
    
    }


    4.3 修改后的wordcount代码如下


    4.4 在eclipse中提交mapreduce任务

    在eclipse中代码区点击右键,点击里面的run on hadoop即可运行该程序。



    Java自学之道完整版 CSDN 下载地址: http://download.csdn.net/detail/longdeyun/5839581

    Java自学之道完整版 开源中国 下载地址: http://www.oschina.net/news/42748/java-self-study-guide

    Java自学之道技术分享及经验交流群:301318062

    Java、hadoop、spark相关技术共享交流群:287683381

    声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn核实处理。
    上一篇:使用IE8 Beta2遇到的几个问题 下一篇:自己动手写 PHP MVC 框架(40节精讲/巨细/新人进阶必看)

    相关文章推荐

    • hive和mysql的区别有哪些• mysql数据库的超级管理员名称是什么• mysql怎么连接数据库• mysql事务隔离级别有哪些• count(*)为什么很慢?原因分析
    1/1

    PHP中文网