第一步:复制一个已经安装好的虚拟机,并重命名
第二步:右键选择CentOS 7 64位.vmx,并编辑,不修改的话只能打开一台机器
第三步:双击已经复制好的目录里面的CentOS 7 64位.vmx,并打开
第四步:修改MAC地址
第五步:修改IP地址,根据网段进行修改
修改IP
vim /etc/sysconfig/network-scripts/ifcfg-ens33
关闭防火墙
三台机器在root用户下执行以下命令关闭防火墙
systemctl stop firewalld
systemctl disable firewalld
三台机器在root用户下执行以下命令关闭selinux
三台机器执行以下命令,关闭selinux
vim /etc/selinux/config
SELINUX=disabled
机器更改主机名三台机器分别更改主机名
第一台主机名更改为:node01
第二台主机名更改为:node02
第三台主机名更改为:node03
机器更改主机名与IP地址映射三台机器执行以下命令更改主机名与IP地址映射关系
vim /etc/hosts
192.168.52.100 node01
192.168.52.110 node02
192.168.52.120 node03
三台机器执行以下命令定时同步阿里云服务器时间
yum -y install ntpdate
crontab -e
*/1 * * * * /usr/sbin/ntpdate time1.aliyun.com
三台linux服务器统一添加普通用户hadoop,并给以sudo权限,用于以后所有的大数据软件的安装
并统一设置普通用户的密码为 123456
useradd hadoop
passwd hadoop
三台机器为普通用户添加sudo权限
visudo
hadoop ALL=(ALL) ALL
三台定义统一目录
定义三台linux服务器软件压缩包存放目录,以及解压后安装目录,三台机器执行以下命令,创建两个文件夹,一个用于存放软件压缩包目录,一个用于存放解压后目录
mkdir -p /opt/soft # 软件压缩包存放目录
mkdir -p /opt/install # 软件解压后存放目录
chown -R hadoop:hadoop /opt/soft /opt/install # 将文件夹权限更改为hadoop用户
==使用hadoop用户来重新连接三台机器,然后使用hadoop用户来安装jdk软件==
上传压缩包到第一台服务器的/kkb/soft下面,然后进行解压,配置环境变量即可,三台机器都依次安装即可
cd /opt/soft/
tar -zxf jdk-8u141-linux-x64.tar.gz -C /opt/install/
sudo vim /etc/profile
#添加以下配置内容,配置jdk环境变量
export JAVA_HOME=/opt/install/jdk1.8.0_141
export PATH=:$JAVA_HOME/bin:$PATH
三台机器在hadoop用户下执行以下命令生成公钥与私钥
ssh-keygen -t rsa
三台机器在hadoop用户下,执行以下命令将公钥拷贝到node01服务器上面去
ssh-copy-id node01
node01在hadoop用户下,执行以下命令,将authorized_keys拷贝到node02与node03服务器
cd /home/hadoop/.ssh/
scp authorized_keys node02:$PWD
scp authorized_keys node03:$PWD
三台机器在root用户下执行以下命令,实现关机重启
reboot -h now
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)