1.如何在windows下安装hadoop
Hadoop三种安装模式:单机模式,伪分布式,真正分布式一 单机模式standalone单机模式是Hadoop的默认模式。
当首次解压Hadoop的源码包时,Hadoop无法了解硬件安装环境,便保守地选择了最小配置。在这种默认模式下所有3个XML文件均为空。
当配置文件为空时,Hadoop会完全运行在本地。因为不需要与其他节点交互,单机模式就不使用HDFS,也不加载任何Hadoop的守护进程。
该模式主要用于开发调试MapReduce程序的应用逻辑。二 伪分布模式安装tar xzvf hadoop-0.20.2.tar.gzHadoop的配置文件:conf/hadoop-env.sh 配置JAVA_HOMEcore-site.xml 配置HDFS节点名称和地址hdfs-site.xml 配置HDFS存储目录,复制数量mapred-site.xml 配置mapreduce的jobtracker地址配置ssh,生成密匙,使到ssh可以免密码连接(RSA算法,基于因数不对称加密:公钥加密私钥才能解密,私钥加密公钥才能解密)cd /rootssh -keygen -t rsacd .sshcp id_rsa.pub authorized_keys覆盖公钥,就能免密码连接启动Hadoop bin/start-all.sh停止Hadoop bin/stop-all.sh三 完全分布式模式1. 配置etc/hosts文件,使主机名解析为IP 或者使用DNS服务解析主机名2. 建立hadoop运行用户: useradd grid>passwd grid3. 配置ssh密码连入: 每个节点用grid登录,进入主工作目录,ssh -keygen -t rsa生产公钥,然后将每个节点的公钥复制到同一个文件中,再将这个包含所有节点公钥的文件复制到每个节点authorized_keys目录,这个每个节点之间彼此可以免密码连接4. 下载并解压hadoop安装包5. 配置namenode,修改site文件6. 配置hadoop-env.sh7. 配置masters和slaves文件8. 向各个节点复制hadoop9. 格式化namenode10.启动hadoop11.用jps检验各后台进程是否成功启动。
2.如何在windows下安装hadoop
Hadoop三种安装模式:单机模式,伪分布式,真正分布式
一 单机模式standalone
单机模式是Hadoop的默认模式。当首次解压Hadoop的源码包时,Hadoop无法了解硬件安装环境,便保守地选择了最小配置。在这种默认模式下所有3个XML文件均为空。当配置文件为空时,Hadoop会完全运行在本地。因为不需要与其他节点交互,单机模式就不使用HDFS,也不加载任何Hadoop的守护进程。该模式主要用于开发调试MapReduce程序的应用逻辑。
二 伪分布模式安装
tar xzvf hadoop-0.20.2.tar.gz
Hadoop的配置文件:
conf/hadoop-env.sh 配置JAVA_HOME
core-site.xml 配置HDFS节点名称和地址
hdfs-site.xml 配置HDFS存储目录,复制数量
mapred-site.xml 配置mapreduce的jobtracker地址
配置ssh,生成密匙,使到ssh可以免密码连接
(RSA算法,基于因数不对称加密:公钥加密私钥才能解密,私钥加密公钥才能解密)
cd /root
ssh -keygen -t rsa
cd .ssh
cp id_rsa.pub authorized_keys覆盖公钥,就能免密码连接
启动Hadoop bin/start-all.sh
停止Hadoop bin/stop-all.sh
三 完全分布式模式
1. 配置etc/hosts文件,使主机名解析为IP 或者使用DNS服务解析主机名
2. 建立hadoop运行用户: useradd grid>passwd grid
3. 配置ssh密码连入: 每个节点用grid登录,进入主工作目录,ssh -keygen -t rsa生产公钥,然后将每个节点的公钥复制到同一个文件中,再将这个包含所有节点公钥的文件复制到每个节点authorized_keys目录,这个每个节点之间彼此可以免密码连接
4. 下载并解压hadoop安装包
5. 配置namenode,修改site文件
6. 配置hadoop-env.sh
7. 配置masters和slaves文件
8. 向各个节点复制hadoop
9. 格式化namenode
10.启动hadoop
11.用jps检验各后台进程是否成功启动。
3.windows怎么安装hadoop
在windows下安装Eclipse Hadoop插件主要安装编译Eclipse-hadoop插件即可。
1、配置环境变量:把下载好的hadoop-2.5.2解压到D盘的根目录下,然后计算机==》属性==》高级系统设置==》环境变量
2、把hadoop-eclipse-plugin-2.6.0.jar放到eclipse==》plugins目录下面,重启Eclipse,打开Window==》Preferences,能够看到Hadoop Map/Reduce就是插件安装成功,下面指定Hadoop的安装目录即第一步设定的HADOOP_HOME。
3、新建Map/Reduce Project工程
4、输入工程名称,然后点击Finish按钮
可以看到如下图所示,可以看到有新建的工程还有自动生成的DFS Locations,此时点击DFS Locations什么都不会看到,因为还没有配置其相应的HDFS:
5、显示Hadoop的Map/Reduce Locations视图,配置Hadoop Locations
Window==》Show View==》Other,找到Map/Reduce Tools下的Map/Reduce Locations,并点击ok。
设置下面几个参数:
转载请注明出处windows之家 » hadoop安装在win10