1.windows怎么安装hadoop
1、下载安装JDK,以及Eclipse2、新建JAVAProject3、去cloudera网站下载hadoop的CDH3u6版本。
将起解压到win7的某个目录4、选中OperateHDFS,右击,选择“property”,弹出右侧的窗口;选择“JavaBuildPath”——“Libraries”——AddExternalJars5、到上面的画面后,下面就是选择开发hadoop程序时,用到的一些jar包将lib文件夹下的所有的jar包,添加进去;将红框内的jar包,安装进去。6、创建配置文件夹7、将core-site.xml,hdfs-site.xml,mapred-site.xml放入到此文件夹中。
8、右键->属性进行如下操作,添加刚刚创建conf文件夹配置搞定!写代码的过程中要写入的namenode和jobtracker地址(修改为你自己的)在你的代码中,加入如下代码就可以了Configurationconf=newConfiguration();conf.set("fs.default.name","192.1.1.2:9000");conf.set("mapred.job.tracker","192.1.1.2:9001");。
2.如何在windows下安装hadoop
1、安装Cygwin下载cygwin的setup.exe,双击运行: 选择从Internet安装:设置安装目录: 设置安装包目录: 设置“Internet Connection”的方式,选择“Direct Connection”: 选择一个下载站点:“下一步”之后,可能会弹出下图的“Setup Alert”对话框,直接“确定”即可在“Select Packages”对话框中,必须保证“Net Category”下的“OpenSSL”被安装: 如果还打算在eclipse 上编译Hadoop,则还必须安装“Base Category”下的“sed”: “Devel Category”下的subversion 建议安装: 下载并安装: 当下载完后,会自动进入到“setup”的对话框: 在上图所示的对话框中,选中“Create icon on Desktop”,以方便直接从桌面上启动Cygwin,然后点击“完成”按钮。
至此,Cgywin 已经安装完成。2、配置环境变量 需要配置的环境变量包括PATH 和JAVA_HOME:将JDK 的bin 目录、Cygwin 的bin 目录以及Cygwin 的usr\bin(sbin)目录都添加到PATH 环境变量中;JAVA_HOME 指向JRE 安装目录。
3、windows系统上运行hadoop集群,伪分布式模式安装步骤: ①启动cygwin,解压hadoop安装包。通过cygdrive(位于Cygwin根目录中)可以直接映射到windows下的各个逻辑磁盘分区。
例如hadoop安装包放在分区D:\下,则解压的命令为$ tar -zxvf /cygdrive/d/hadoop-0.20.2.tar.gz,解压后可使用ls命令查看,如下图:默认的解压目录为用户根目录,即D:\cygwin\home\lsq(用户帐户)。 ②编辑conf/hadoop-env.sh文件,将JAVA_HOME变量设置为java的安装目录。
例如java安装在目录C:\Program Files\java\jdk1.6.0_13,如果路径没空格,直接配置即可。存在空格,需将Program Files缩写成Progra_1,如下图: ③依次编辑conf目录下的core-site.xml、mapred-site.xml和hdfs-site.xml文件,如下图:④安装配置SSH 点击桌面上的Cygwin图标,启动Cygwin,执行ssh-host-config命令,然后按下图上的选择输入: 当提示Do you want to use a different name?输入yes,这步是配置安装的sshd服务,以哪个用户登录,默认是cyg_server这个用户,这里就不事先新建cyg_server这个用户,用当前本机的超管本地用户:chenx,后续根据提示,2次输入这个账户的密码 出现Host configuration finished. Have fun! 一般安装顺利完成。
如下图: 输入命令$ net start sshd,启动SSH,如下图: 注:sshd服务安装完之后,不会默认启动,如果启动报登录失败,不能启动,可在服务属性-Log On窗口手工修改,在前述的过程之中,cygwin不会校验密码是否正确,应该只是校验了2次的输入是否一致,然后再手工启动。不知道为什么,sshd服务如果选择local system的登录方式,后续会有问题,所以sshd服务最好设置成当前的登录用户。
⑤配置ssh登录 执行ssh-keygen命令生成密钥文件输入如下命令: cd ~/.ssh ls -l cat id_rsa.pub >> authorized_keys完成上述操作后,执行exit命令先退出Cygwin窗口,如果不执行这一步操作,下面的操作可能会遇到错误。接下来,重新运行Cygwin,执行ssh localhost命令,在第一次执行ssh localhost时,会有“are you sure you want to continue connection
当出现下图提示,即顺利完成该步: ⑥hadoop运行 格式化namenode 打开cygwin窗口,输入如下命令: cd hadoop-0.20.2 mkdir logs bin/hadoop namenode –format 启动Hadoop 在Cygwin 中,进入hadoop 的bin 目录, 运行./start-all.sh 启动hadoop; 可以执行./hadoop fs -ls /命令,查看hadoop 的根目录; 可以执行jps 查看相关进程; 如下图:(如果显示和下图类似,一般hadoop安装/启动成功)。
3.如何在windows下安装hadoop
Hadoop三种安装模式:单机模式,伪分布式,真正分布式一 单机模式standalone单机模式是Hadoop的默认模式。
当首次解压Hadoop的源码包时,Hadoop无法了解硬件安装环境,便保守地选择了最小配置。在这种默认模式下所有3个XML文件均为空。
当配置文件为空时,Hadoop会完全运行在本地。因为不需要与其他节点交互,单机模式就不使用HDFS,也不加载任何Hadoop的守护进程。
该模式主要用于开发调试MapReduce程序的应用逻辑。二 伪分布模式安装tar xzvf hadoop-0.20.2.tar.gzHadoop的配置文件:conf/hadoop-env.sh 配置JAVA_HOMEcore-site.xml 配置HDFS节点名称和地址hdfs-site.xml 配置HDFS存储目录,复制数量mapred-site.xml 配置mapreduce的jobtracker地址配置ssh,生成密匙,使到ssh可以免密码连接(RSA算法,基于因数不对称加密:公钥加密私钥才能解密,私钥加密公钥才能解密)cd /rootssh -keygen -t rsacd .sshcp id_rsa.pub authorized_keys覆盖公钥,就能免密码连接启动Hadoop bin/start-all.sh停止Hadoop bin/stop-all.sh三 完全分布式模式1. 配置etc/hosts文件,使主机名解析为IP 或者使用DNS服务解析主机名2. 建立hadoop运行用户: useradd grid>passwd grid3. 配置ssh密码连入: 每个节点用grid登录,进入主工作目录,ssh -keygen -t rsa生产公钥,然后将每个节点的公钥复制到同一个文件中,再将这个包含所有节点公钥的文件复制到每个节点authorized_keys目录,这个每个节点之间彼此可以免密码连接4. 下载并解压hadoop安装包5. 配置namenode,修改site文件6. 配置hadoop-env.sh7. 配置masters和slaves文件8. 向各个节点复制hadoop9. 格式化namenode10.启动hadoop11.用jps检验各后台进程是否成功启动。
4.windows怎么安装hadoop
在windows下安装Eclipse Hadoop插件主要安装编译Eclipse-hadoop插件即可。
1、配置环境变量:把下载好的hadoop-2.5.2解压到D盘的根目录下,然后计算机==》属性==》高级系统设置==》环境变量2、把hadoop-eclipse-plugin-2.6.0.jar放到eclipse==》plugins目录下面,重启Eclipse,打开Window==》Preferences,能够看到Hadoop Map/Reduce就是插件安装成功,下面指定Hadoop的安装目录即第一步设定的HADOOP_HOME。3、新建Map/Reduce Project工程4、输入工程名称,然后点击Finish按钮可以看到如下图所示,可以看到有新建的工程还有自动生成的DFS Locations,此时点击DFS Locations什么都不会看到,因为还没有配置其相应的HDFS:5、显示Hadoop的Map/Reduce Locations视图,配置Hadoop Locations Window==》Show View==》Other,找到Map/Reduce Tools下的Map/Reduce Locations,并点击ok。
设置下面几个参数:。
5.求助,在windows下安装hadoop遇到的一个问题
转载 Hdoop的荐部署环境是linux,但是我们想要在windows体验一下还是可以的,尤其是对我这样不是经常使用Linux系统的人。
Windows下安装配置Hadoop的教程还是挺多的,这里可以下载。 下面我说说安装配置过程中遇到的一些问题吧,给自己以后提供借鉴。
我的操作系统是Windows 7,使用的Cygwin版本是1.7.7-1,hadoop版本是0.20.2。 1. SSH服务的安装 在安装SSH服务的过程中,如果按照网络教程上的步骤,在Win7下会有问题,安装完成后测试ssh localhost,遇到connection closed by ::1的问题,通过网上搜索,搜索到一片E文的解决方法,里面详细讲解了从卸载已经安装的服务到成功安装的各个步骤,比较详细,我也上传到了这里,其中的vista-cygwin.txt。
有些不爽的是经过这些步骤,会给系统增加一个用户。当然SSH服务安装成功的就好啦。
2. SSH连接REMOTE HOST IDENTIFICATION HAS CHANGED解决方法 说到SSH连接,我想到了以前使用SSH连接时候遇到的一个问题,远程一台机器被我重装了,虽然IP地址和用户名都没有变,但是用其他客户端连接就出现上述提示,这里需要将 ~/.ssh/know-hosts文件中和该机器相关的rsa信息删除,然后再添加一下。删除命令:ssh-keygen –R XXX.XXX.XXX.XXX。
当然也可以手动去删除。 3. Java SDK路径配置的问题——hadoop-env.sh配置 在Hadoop的配置文件,hadoop-env.sh中,需要添加Java SDK的路径。
要知道,Cygwin中并没有安装Java,那么只能使用Windows下安装的JDK。看了网上的文章,只是提到说export后面的路径需要用双引号括起来,因为一般JDK都是安装在“Program Files”下的。
但是我这么添加以后,就是不行,报错“JAVA_HOME is not set”还是“…Program cannot found”来着,不太记得了,反正就是启动Hadoop的时候报错。经过研究后知道,首先Cygwin下不能使用windows的路径直接访问,需要是Linux风格的目录,如果是访问C盘下安装的JDK的话,不能使用“C:/Program Files/Java/jdk1.6.0_22”,而需要使用这样“/cygdrive/c/Program Files/Java/jdk1.6.0_22”;其次是hadoop好像不能识别带空格的目录路径,那怎么办呢,想到了符号链接,通过在Cygwin下创建一个符号链接,指向我的JDK安装目录,使用这样的命令:ln “C:/Program Files/Java/jdk1.6.0_22” /usr/local/jdk1.6.0_22. 这样就在/usr/local/下创建了一个Windows下JDK目录的符号链接,如果使用:cd /usr/local/jdk1.6.0_22, 然后ls下,就会发现已经在jdk的安装目录下了。
然后在hadoop-env.sh中export JAVA_HOME=/usr/local/jdk1.6.0_22,这样就OK了。 4. hadoop-env.sh:line 2:$'/r':command not found错误 如果将hadoop-env.sh用Windows下的编辑软件编辑以后,再使用的话可能出现上述错误,使用dos2unix工具修正下,在conf/目录下执行“dos2unix hadoop-env.sh”就OK了。
5. Hadoop启动的问题——process information unavailable 好不容易配置好了hadoop,很兴奋,于是在赶紧启动hadoop,”start-all.sh”,启动好像没有什么问题。使用jps列举下本机的java进程,发现怎么有几个进程显示“process information unavailable”,这是怎么回事?突然想起为什么要安装SSH呢,于是SSH连接到本机,然后再启动hadoop,在jps,OK这下所有进程信息都列举出来了。
具体是什么原因,我现在还不太清楚。 6. Hadoop启动的问题——Server at localhost/127.0.0.1:8888 not available yet 经过上面的步骤,好像Hadoop运行没有问题了,TaskTracker、JobTrack、DataNode、NameNode都启动了,好像没有问题了,但是执行“./hadoop fs –ls /”命令是,会出现“Retrying connect to server: localhost/127.0.0.1:8888. Already tried X time(s). … Server at localhost/127.0.0.1:8888 not available yet”,这又是为什么呢?查找后发现原来是HDFS在第一次用的时候需要初始化,安装完后就直接启动了,使用命令:./hadoop namenode –format, 进行文件系统的格式化,然后再“./start-all.sh”,再执行“./hadoop fs –ls /”,看到“Found 1 items drwxr-xr-x - huangzhtao-pc/cyg_server supergroup 0 2010-11-27 17:26 /tmp”,总算成功了。
转载请注明出处windows之家 » win10上安装hadoop