1.如何在windows下安装hadoop
1、安装Cygwin下载cygwin的setup.exe,双击运行: 选择从Internet安装:设置安装目录: 设置安装包目录: 设置“Internet Connection”的方式,选择“Direct Connection”: 选择一个下载站点:“下一步”之后,可能会弹出下图的“Setup Alert”对话框,直接“确定”即可在“Select Packages”对话框中,必须保证“Net Category”下的“OpenSSL”被安装: 如果还打算在eclipse 上编译Hadoop,则还必须安装“Base Category”下的“sed”: “Devel Category”下的subversion 建议安装: 下载并安装: 当下载完后,会自动进入到“setup”的对话框: 在上图所示的对话框中,选中“Create icon on Desktop”,以方便直接从桌面上启动Cygwin,然后点击“完成”按钮。
至此,Cgywin 已经安装完成。2、配置环境变量 需要配置的环境变量包括PATH 和JAVA_HOME:将JDK 的bin 目录、Cygwin 的bin 目录以及Cygwin 的usr\bin(sbin)目录都添加到PATH 环境变量中;JAVA_HOME 指向JRE 安装目录。
3、windows系统上运行hadoop集群,伪分布式模式安装步骤: ①启动cygwin,解压hadoop安装包。通过cygdrive(位于Cygwin根目录中)可以直接映射到windows下的各个逻辑磁盘分区。
例如hadoop安装包放在分区D:\下,则解压的命令为$ tar -zxvf /cygdrive/d/hadoop-0.20.2.tar.gz,解压后可使用ls命令查看,如下图:默认的解压目录为用户根目录,即D:\cygwin\home\lsq(用户帐户)。 ②编辑conf/hadoop-env.sh文件,将JAVA_HOME变量设置为java的安装目录。
例如java安装在目录C:\Program Files\java\jdk1.6.0_13,如果路径没空格,直接配置即可。存在空格,需将Program Files缩写成Progra_1,如下图: ③依次编辑conf目录下的core-site.xml、mapred-site.xml和hdfs-site.xml文件,如下图:④安装配置SSH 点击桌面上的Cygwin图标,启动Cygwin,执行ssh-host-config命令,然后按下图上的选择输入: 当提示Do you want to use a different name?输入yes,这步是配置安装的sshd服务,以哪个用户登录,默认是cyg_server这个用户,这里就不事先新建cyg_server这个用户,用当前本机的超管本地用户:chenx,后续根据提示,2次输入这个账户的密码 出现Host configuration finished. Have fun! 一般安装顺利完成。
如下图: 输入命令$ net start sshd,启动SSH,如下图: 注:sshd服务安装完之后,不会默认启动,如果启动报登录失败,不能启动,可在服务属性-Log On窗口手工修改,在前述的过程之中,cygwin不会校验密码是否正确,应该只是校验了2次的输入是否一致,然后再手工启动。不知道为什么,sshd服务如果选择local system的登录方式,后续会有问题,所以sshd服务最好设置成当前的登录用户。
⑤配置ssh登录 执行ssh-keygen命令生成密钥文件输入如下命令: cd ~/.ssh ls -l cat id_rsa.pub >> authorized_keys完成上述操作后,执行exit命令先退出Cygwin窗口,如果不执行这一步操作,下面的操作可能会遇到错误。接下来,重新运行Cygwin,执行ssh localhost命令,在第一次执行ssh localhost时,会有“are you sure you want to continue connection
当出现下图提示,即顺利完成该步: ⑥hadoop运行 格式化namenode 打开cygwin窗口,输入如下命令: cd hadoop-0.20.2 mkdir logs bin/hadoop namenode –format 启动Hadoop 在Cygwin 中,进入hadoop 的bin 目录, 运行./start-all.sh 启动hadoop; 可以执行./hadoop fs -ls /命令,查看hadoop 的根目录; 可以执行jps 查看相关进程; 如下图:(如果显示和下图类似,一般hadoop安装/启动成功)。
2.windows怎么安装hadoop
1、下载安装JDK,以及Eclipse2、新建JAVAProject3、去cloudera网站下载hadoop的CDH3u6版本。
将起解压到win7的某个目录4、选中OperateHDFS,右击,选择“property”,弹出右侧的窗口;选择“JavaBuildPath”——“Libraries”——AddExternalJars5、到上面的画面后,下面就是选择开发hadoop程序时,用到的一些jar包将lib文件夹下的所有的jar包,添加进去;将红框内的jar包,安装进去。6、创建配置文件夹7、将core-site.xml,hdfs-site.xml,mapred-site.xml放入到此文件夹中。
8、右键->属性进行如下操作,添加刚刚创建conf文件夹配置搞定!写代码的过程中要写入的namenode和jobtracker地址(修改为你自己的)在你的代码中,加入如下代码就可以了Configurationconf=newConfiguration();conf.set("fs.default.name","192.1.1.2:9000");conf.set("mapred.job.tracker","192.1.1.2:9001");。
3.如何在windows下安装hadoop
Hadoop三种安装模式:单机模式,伪分布式,真正分布式
一 单机模式standalone
单机模式是Hadoop的默认模式。当首次解压Hadoop的源码包时,Hadoop无法了解硬件安装环境,便保守地选择了最小配置。在这种默认模式下所有3个XML文件均为空。当配置文件为空时,Hadoop会完全运行在本地。因为不需要与其他节点交互,单机模式就不使用HDFS,也不加载任何Hadoop的守护进程。该模式主要用于开发调试MapReduce程序的应用逻辑。
二 伪分布模式安装
tar xzvf hadoop-0.20.2.tar.gz
Hadoop的配置文件:
conf/hadoop-env.sh 配置JAVA_HOME
core-site.xml 配置HDFS节点名称和地址
hdfs-site.xml 配置HDFS存储目录,复制数量
mapred-site.xml 配置mapreduce的jobtracker地址
配置ssh,生成密匙,使到ssh可以免密码连接
(RSA算法,基于因数不对称加密:公钥加密私钥才能解密,私钥加密公钥才能解密)
cd /root
ssh -keygen -t rsa
cd .ssh
cp id_rsa.pub authorized_keys覆盖公钥,就能免密码连接
启动Hadoop bin/start-all.sh
停止Hadoop bin/stop-all.sh
三 完全分布式模式
1. 配置etc/hosts文件,使主机名解析为IP 或者使用DNS服务解析主机名
2. 建立hadoop运行用户: useradd grid>passwd grid
3. 配置ssh密码连入: 每个节点用grid登录,进入主工作目录,ssh -keygen -t rsa生产公钥,然后将每个节点的公钥复制到同一个文件中,再将这个包含所有节点公钥的文件复制到每个节点authorized_keys目录,这个每个节点之间彼此可以免密码连接
4. 下载并解压hadoop安装包
5. 配置namenode,修改site文件
6. 配置hadoop-env.sh
7. 配置masters和slaves文件
8. 向各个节点复制hadoop
9. 格式化namenode
10.启动hadoop
11.用jps检验各后台进程是否成功启动。
4.windows怎么安装hadoop
在windows下安装Eclipse Hadoop插件主要安装编译Eclipse-hadoop插件即可。
1、配置环境变量:把下载好的hadoop-2.5.2解压到D盘的根目录下,然后计算机==》属性==》高级系统设置==》环境变量2、把hadoop-eclipse-plugin-2.6.0.jar放到eclipse==》plugins目录下面,重启Eclipse,打开Window==》Preferences,能够看到Hadoop Map/Reduce就是插件安装成功,下面指定Hadoop的安装目录即第一步设定的HADOOP_HOME。3、新建Map/Reduce Project工程4、输入工程名称,然后点击Finish按钮可以看到如下图所示,可以看到有新建的工程还有自动生成的DFS Locations,此时点击DFS Locations什么都不会看到,因为还没有配置其相应的HDFS:5、显示Hadoop的Map/Reduce Locations视图,配置Hadoop Locations Window==》Show View==》Other,找到Map/Reduce Tools下的Map/Reduce Locations,并点击ok。
设置下面几个参数:。
5.hadoop2.2在windows下面如何安装啊
Hadoop三种安装模式:单机模式,伪分布式,真正分布式
一 单机模式standalone
单机模式是Hadoop的默认模式。当首次解压Hadoop的源码包时,Hadoop无法了解硬件安装环境,便保守地选择了最小配置。在这种默认模式下所有3个XML文件均为空。当配置文件为空时,Hadoop会完全运行在本地。因为不需要与其他节点交互,单机模式就不使用HDFS,也不加载任何Hadoop的守护进程。该模式主要用于开发调试MapReduce程序的应用逻辑。
二 伪分布模式安装
tar xzvf hadoop-0.20.2.tar.gz
Hadoop的配置文件:
conf/hadoop-env.sh 配置JAVA_HOME
core-site.xml 配置HDFS节点名称和地址
hdfs-site.xml 配置HDFS存储目录,复制数量
mapred-site.xml 配置mapreduce的jobtracker地址
配置ssh,生成密匙,使到ssh可以免密码连接
(RSA算法,基于因数不对称加密:公钥加密私钥才能解密,私钥加密公钥才能解密)
cd /root
ssh -keygen -t rsa
cd .ssh
cp id_rsa.pub authorized_keys覆盖公钥,就能免密码连接
启动Hadoop bin/start-all.sh
停止Hadoop bin/stop-all.sh
三 完全分布式模式
1. 配置etc/hosts文件,使主机名解析为IP 或者使用DNS服务解析主机名
2. 建立hadoop运行用户: useradd grid>passwd grid
3. 配置ssh密码连入: 每个节点用grid登录,进入主工作目录,ssh -keygen -t rsa生产公钥,然后将每个节点的公钥复制到同一个文件中,再将这个包含所有节点公钥的文件复制到每个节点authorized_keys目录,这个每个节点之间彼此可以免密码连接
4. 下载并解压hadoop安装包
5. 配置namenode,修改site文件
6. 配置hadoop-env.sh
7. 配置masters和slaves文件
8. 向各个节点复制hadoop
9. 格式化namenode
10.启动hadoop
11.用jps检验各后台进程是否成功启动。
转载请注明出处windows之家 » win10安装hadoop教程