更新时间:2018年12月19日15时25分 来源:传智播客 浏览次数:
| 一、linux服务器ssh免密码登录 假设有三台服务器的ip分别是10.9.1.101、10.9.1.102、10.9.1.103 
	
     分别修改三台服务器的hosts的文件(vi /etc/hosts), 
	    在hosts文件中增加 
	10.9.1.101 node101       10.9.1.102  node102 
	      10.9.1.103  node103 
	  2.在101机器上生成公钥和私钥
	    ssh-keygen -t rsa 
	
 3.将101上生成的id_rsa.pub文件拷贝到102的相同目录下     由于我在101上使用的hadoop用户,生成的文件目录在/home/hadoop目录下,所在102上同样使用hadoop用户操作 
	    将101上的/home/hadoop/id_rsa.put文件拷贝到102的/home/hadoop目录下 
	  4.在102上创建.ssh目录
	
     ssh node103 
	     6.多台机器部署
	 
	1、下载hadoop安装包
	    上述过程只配置了101到103免密码登录,如果还需要配置102到103免密码登录时,只需要在102机器上重复上述步骤2,然后将生成的id_rsa.pub文件中的内容追加到103的authorized_keys文件末尾即可。 
	二、hadoop集群搭建(hdfs) 
	  wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-3.0.0/hadoop-3.0.0-src.tar.gz 
	2、解压安装包
	  tar zxvf hadoop-3.0.0-src.tar.gz 
	3、配置hadoop的环境变量
	  vi /etc/profile(三台机器) 
	  增加以下配置 
	1、下载hadoop安装包
	  wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-3.0.0/hadoop-3.0.0-src.tar.gz 
	2、解压安装包
	  tar zxvf hadoop-3.0.0-src.tar.gz  -C /home/hadoop/ 
	3、配置hadoop的环境变量
	  vi /etc/profile(三台机器) 
	  增加以下配置 
	[AppleScript] 纯文本查看 复制代码 
	
 source /etc/profile 
	4、修改配置文件  vi /etc/hosts(三台机器)
	 
	    增加以下配置 
	[AppleScript] 纯文本查看 复制代码 
	
 vi   /home/hadoop/hadoop-3.0.0/etc/hadoop/core-site.xml(三台机器) 
	[AppleScript] 纯文本查看 复制代码 
	
 vi   /home/hadoop/hadoop-3.0.0/etc/hadoop/hdfs-site.xml(三台机器)
	 
	[AppleScript] 纯文本查看 复制代码 
	
       vi   /home/hadoop/hadoop-3.0.0/etc/hadoop/hadoop-env.sh (三台机器)
	 
	  设置java_home(54行左右) 
	  export JAVA_HOME=/usr/java/jdk1.8.0_11 
	  vi   /home/hadoop/hadoop-3.0.0/etc/hadoop/worker(namenode节点机器)
	[AppleScript] 纯文本查看 复制代码 
	
    备注:node101、node102、node103分别是三台服务器设置的名称 
	5、初始化namenode节点
	  /home/hadoop/hadoop-3.0.0/bin/hadoop namenode -format 
	6、启动hdfs
	  /home/hadoop/hadoop-3.0.0/sbin/start-dfs.sh 
	7、检查hdfs集群启动情况
	  jps 
	  在namenode节点的机器上能看到namenode和datanode两个进程,在datanode节点的机器上只能看到datanode进程,我安装的namenode在node101机器上,datanode是101~103 
	备注:当启动出错的时候可以去hadoop安装的根目录下的logs目录下查看错误日志 
	(因为我只需要使用hdfs文件存储,所以暂时只配置这么多,如果还需要map-reduce等其他的功能还要配置其他的东西,这个只能以后有机会再整理了) 
	 | 
	
作者:传智播客大数据培训学院