tft每日頭條

 > 科技

 > 簡述hadoop的三種安裝方式

簡述hadoop的三種安裝方式

科技 更新时间:2024-09-08 08:20:33

Hadoop是Apache基金會面向全球開源的産品之一,任何用戶都可以從Apache Hadoop 官網下載使用。今天,播妞将以編寫時較為穩定的Hadoop2.7.4版本為例,詳細講解Hadoop的安裝。

先将下載的hadoop-2.7.4.tar.gz安裝包上傳到主節點hadoop01的/export/software/目錄下,然後将文件解壓到/export/servers/目錄,具體指令如下。

$ tar -zxvf hadoop-2.7.4.tar.gz -C /export/servers/

執行完上述指令後,同樣通過“vi /etc/profile”指令打開profile文件,在文件底部進一步添加如下内容類配置Hadoop環境變量。

# 配置Hadoop系統環境變量 export HADOOP_HOME=/export/servers/hadoop-2.7.4 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

在/etc/profile文件中配置完上述Hadoop環境變量後(注意HADOOP_HOME路徑),保存退出即可。然後,還需要執行“source /etc/profile”指令使可使配置文件生效。

安裝完Hadoop并配置好環境變量後,可以在當前主機任意目錄下查看安裝的Hadoop版本号,具體指令如下。

$ hadoop version

執行完上述指令後,效果如圖1所示。

簡述hadoop的三種安裝方式(幹貨Hadoop安裝步驟)1

△ 圖1 Hadoop版本号

從圖1可以看出,當前Haddoop版本就是指定的2.7.4,說明Hadoop安裝成功。

接下來,可以在Hadoop解壓目錄下通過ll指令查看Hadoop目錄結構,如圖2所示。

簡述hadoop的三種安裝方式(幹貨Hadoop安裝步驟)2

△ 圖2 Hadoop安裝目錄結構

從圖2可以看出,Hadoop安裝目錄包括有bin、etc、include、lib、libexec、sbin、share和src共8個目錄以及其他一些文件,下面簡單介紹下各目錄内容及作用。

bin:存放操作Hadoop相關服務(HDFS、Yarn)的腳本,但是通常使用sbin目錄下的腳本。

etc:存放Hadoop配置文件,主要包含core-site.xml、hdfs-site.xml、mapred-site.xml等從Hadoop1.0繼承而來的配置文件和yarn-site.xml等Hadoop2.0新增的配置文件。

include:對外提供的編程庫頭文件(具體動态庫和靜态庫在lib目錄中),這些頭文件均是用C 定義的,通常用于C 程序訪問HDFS或者編寫MapReduce程序。

lib:該目錄包含了Hadoop對外提供的編程動态庫和靜态庫,與include目錄中的頭文件結合使用。

libexec:各個服務對用的shell配置文件所在的目錄,可用于配置日志輸出、啟動參數(比如JVM參數)等基本信息。

sbin:該目錄存放Hadoop管理腳本,主要包含HDFS和YARN中各類服務的啟動/關閉腳本。

share:Hadoop各個模塊編譯後的jar包所在的目錄。

src:Hadoop的源碼包。

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关科技资讯推荐

热门科技资讯推荐

网友关注

Copyright 2023-2024 - www.tftnews.com All Rights Reserved