一.创建配置Azure Virtual machines

1.配置基本的Azure VM信息(包括订阅、资源组、实例详细信息,管理员账号及入站端口规则),具体配置如下所示:

2.配置磁盘信息(配置相关磁盘类型及加密类型)具体配置如下所示:

3.配置网络接口信息(虚拟网络、子网、公网IP、公共出入站端口等)具体配置如下所示:

4.配置监视和管理

5.查看并创建虚拟机

6.如下图所示可以看到虚拟机资源管理页面

二.下载JDK1.8

1.通过执行如下命令来下载JDK1.8

wget https://download.java.net/openjdk/jdk8u41/ri/openjdk-8u41-b04-linux-x64-14_jan_2020.tar.gz

image

2.执行如下命令来解压下载的JDK 1.8安装包

tar -zxvf openjdk-8u41-b04-linux-x64-14_jan_2020.tar.gz

image

3.执行如下命令来移动并重命名JDK安装包。

sudo mv java-se-8u41-ri/ /usr/java8

image

4.执行如下命令来配置Java环境变量。

sudo sh -c "echo 'export JAVA_HOME=/usr/java8' >> /etc/profile"
sudo sh -c 'echo "export PATH=\$PATH:\$JAVA_HOME/bin" >> /etc/profile'
source /etc/profile

image

5.执行以下命令,查看JDK是否成功安装。

java -version

image

三.安装Hadoop

1.执行以下命令,下载Hadoop安装包。

wget https://mirrors.bfsu.edu.cn/apache/hadoop/common/hadoop-3.2.4/hadoop-3.2.4.tar.gz

image

2.执行以下命令,将Hadoop安装包解压至/opt/hadoop​。

sudo tar -zxvf hadoop-3.2.4.tar.gz -C /opt/
sudo mv /opt/hadoop-3.2.4 /opt/hadoop

image

3.执行以下命令,配置Hadoop环境变量。

sudo sh -c "echo 'export HADOOP_HOME=/opt/hadoop' >> /etc/profile"
sudo sh -c "echo 'export PATH=\$PATH:/opt/hadoop/bin' >> /etc/profile"
sudo sh -c "echo 'export PATH=\$PATH:/opt/hadoop/sbin' >> /etc/profile"
source /etc/profile

image

4.执行以下命令,修改配置文件yarn-env.sh​和hadoop-env.sh​。

sudo sh -c 'echo "export JAVA_HOME=/usr/java8" >> /opt/hadoop/etc/hadoop/yarn-env.sh'
sudo sh -c 'echo "export JAVA_HOME=/usr/java8" >> /opt/hadoop/etc/hadoop/hadoop-env.sh'

image

5.执行以下命令,测试Hadoop是否安装成功。

hadoop version

image

四.配置Hadoop

1.执行以下命令,进入编辑页面。

sudo vim /opt/hadoop/etc/hadoop/core-site.xml
  • 输入i,进入编辑模式

2.在节点内,插入如下内容。

    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/opt/hadoop/tmp</value>
        <description>location to store temporary files</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>

image

Esc​,退出编辑模式,并输入:wq​保存并退出。

3.修改Hadoop配置文件hdfs-site.xml​。

sudo vim /opt/hadoop/etc/hadoop/hdfs-site.xml

输入i​,进入编辑模式。

<configuration></configuration>​节点内,插入如下内容。

    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/opt/hadoop/tmp/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/opt/hadoop/tmp/dfs/data</value>
    </property>

image

  1. Esc​,退出编辑模式,并输入:wq​后保存并退出。

五.配置SSH免密登录

1.执行以下命令,创建公钥和私钥。

ssh-keygen -t rsa

回显信息如下所示,表示创建公钥和私钥成功。

image

2.执行以下命令,将公钥添加到authorized_keys​文件中。

cd .ssh
cat id_rsa.pub >> authorized_keys

image

六.启动Hadoop

1.执行以下命令,初始化namenode<span> </span>​。

hadoop namenode -format

image

2.启动Hadoop。

执行以下命令,启动HDFS服务。

start-dfs.sh

回显信息如下所示时,表示HDFS服务已启动。

image

执行以下命令,启动YARN服务。

这个脚本会启动ResourceManager、NodeManager和ApplicationHistoryServer等组件,从而启动YARN服务。

start-yarn.sh

3.执行以下命令,可以查看成功启动的进程。

jps

image

4.在本地浏览器地址栏输入http://<AzureVM公网IP地址>:8088,可访问YARN的Web UI界面,如下图所示,我们已经在Azure VM上成功搭建了Hadoop分布式环境。