国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 學院 > 開發設計 > 正文

hadoop配置文件加載順序

2019-11-14 22:08:01
字體:
來源:轉載
供稿:網友
hadoop配置文件加載順序

  用了一段時間的hadoop,現在回來看看源碼發現別有一番味道,溫故而知新,還真是這樣的

  在使用hadoop之前我們需要配置一些文件,hadoop-env.sh,core-site.xml,hdfs-site.xml,maPRed-site.xml。那么這些文件在什么時候被hadoop使用?

  一般的在啟動hadoop的時候使用最多就是start-all.sh,那么這個腳本都干了些什么?

start-all.sh
# Start all hadoop daemons. Run this on master node.#特別的地方時要在master節點上啟動hadoop所有進程 bin=`dirname "$0"`bin=`cd "$bin"; pwd` #bin=$HADOOP_HOME/bin if [ -e "$bin/../libexec/hadoop-config.sh" ]; then. "$bin"/../libexec/hadoop-config.shelse. "$bin/hadoop-config.sh"fi # start dfs daemons"$bin"/start-dfs.sh --config $HADOOP_CONF_DIR # start mapred daemons"$bin"/start-mapred.sh --config $HADOOP_CONF_DIR

加載hadoop-env.sh  腳本先找到hadoop中的bin目錄,在配置了hadoop環境變量的情況下該處可以使用$HADOOP_HOME/bin直接代替。接下來是執行hadoop-config.sh,這個文件可能會在$HADOOP_HOME/libexec目錄或者是$HADOOP_HOME/bin目錄下,在我使用的hadoop版本中是在$HADOOP_HOME/libexec目錄下,在hadoop-config.sh文件中有下面這幾行腳本hadoop-config.sh
if [ -f "${HADOOP_CONF_DIR}/hadoop-env.sh" ]; then. "${HADOOP_CONF_DIR}/hadoop-env.sh"fi

測試$HADOOP_HOME/conf/hadoop-env.sh為普通文件后,通過. "${HADOOP_CONF_DIR}/hadoop-env.sh"執行hadoop-env.sh這個腳本,ok,我們在hadoop-env.sh中配置的環境變量 java_HOME 生效了,其實我感覺這個地方完全可以不用配置,為什么?因為我們在linux上安裝hadoop肯定要安裝java,那么安裝時肯定都會配置JAVA_HOME,在/etc/profile中配置的環境變量在任何的shell進程中都生效。

加載core-*.xml,hdfs.*.xml文件 執行完hadoop-config.sh命令后,執行$HADOOP_HOME/start-dfs.sh。該腳本的作用是啟動namenode,datename,secondarynamenode這三個與hdfs有關的進程start-dfs.sh
# Run this on master node. usage="Usage: start-dfs.sh [-upgrade|-rollback]" bin=`dirname "$0"`bin=`cd "$bin"; pwd` if [ -e "$bin/../libexec/hadoop-config.sh" ]; then. "$bin"/../libexec/hadoop-config.shelse. "$bin/hadoop-config.sh"fi # get argumentsif [ $# -ge 1 ]; thennameStartOpt=$1shiftcase $nameStartOpt in(-upgrade);;(-rollback)dataStartOpt=$nameStartOpt;;(*)echo $usageexit 1;;esacfi # start dfs daemons# start namenode after datanodes, to minimize time namenode is up w/o data# note: datanodes will log connection errors until namenode starts"$bin"/hadoop-daemon.sh --config $HADOOP_CONF_DIR start namenode $nameStartOpt"$bin"/hadoop-daemons.sh --config $HADOOP_CONF_DIR start datanode $dataStartOpt"$bin"/hadoop-daemons.sh --config $HADOOP_CONF_DIR --hosts masters start secondarynamenode

仔細看看不能發現,在start-dfs.sh中同樣也會執行hadoop-config.sh,之所以有這一步,是因為我們不總是使用start-all.sh來啟動hadoop的所有進程,有時候我們只需要使用hdfs而不需要MapReduce,此時只需要單獨執行start-dfs.sh,同樣hadoop-config.sh中定義的變量也會被文件系統相關進程使用,所以這里在啟動namenode,datanode,secondarynamenode之前需要先執行hadoop-config.sh,同時hadoop-env.sh文件被執行。再來看看最后的三行代碼,分別是啟動namenode,datanode,secondarynamenode的腳本。啟動hadoop后一共有5個進程,其中三個就是namenode,datanode,secondarynamenode,既然能啟動進程說明對應的類中一定有main方法,看看源碼就可以驗證這一點,這不是重點,重點是來看看對應的類是怎么加載配置文件的。無論是namenode,還是dataname,還是secondarynamenode,他們在啟動時都會加載core-*.xml和hdfs-*.xml文件,以org.apache.hadoop.hdfs.server.namenode.NameNode 這個類為例,其他的兩個類org.apache.hadoop.hdfs.server.datanode.DataNode,org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode類似。

org.apache.hadoop.hdfs.server.namenode.NameNode
public class NameNode implements ClientProtocol, DatanodeProtocol,NamenodeProtocol, FSConstants,RefreshAuthorizationPolicyProtocol,RefreshUserMappingsProtocol {static{Configuration.addDefaultResource("hdfs-default.xml");Configuration.addDefaultResource("hdfs-site.xml");}...}

看看靜態代碼塊里面內容,會很興奮,看到了hdfs-default.xml和hdfs-site.xml。對重點就在這里,static code block在類加載到jvm執行類的初始化時會執行(不是對象初始化)。Configuration.addDefaultResource("hdfs-default.xml");這段代碼執行前會先將Configuration這個類加載jvm中,那么看下org.apache.hadoop.conf.Configuration這個類中的static code block干了些什么

org.apache.hadoop.conf.Configuration
static{//print deprecation warning if hadoop-site.xml is found in classpathClassLoader cL = Thread.currentThread().getContextClassLoader();if (cL == null) {cL = Configuration.class.getClassLoader();}if(cL.getResource("hadoop-site.xml")!=null) {LOG.warn("DEPRECATED: hadoop-site.xml found in the classpath. " +"Usage of hadoop-site.xml is deprecated. Instead use core-site.xml, "+ "mapred-site.xml and hdfs-site.xml to override properties of " +"core-default.xml, mapred-default.xml and hdfs-default.xml " +"respectively");}addDefaultResource("core-default.xml");addDefaultResource("core-site.xml");}

Configuration類在類的初始化時加載了core-default.xml和core-site.xml這兩個文件。這樣namenode在啟動的時候就加載了core-*.xml和hdfs-*.xml文件,其中core-*.xml是由Configuration這個類加載的。

加載core-*.xml和mapred-*.xml文件執行完start-dfs.xml后,執行start-mapred.sh,該腳本和start-hdf.sh差不多。
start-mapred.sh# Start hadoop map reduce daemons. Run this on master node. bin=`dirname "$0"`bin=`cd "$bin"; pwd` if [ -e "$bin/../libexec/hadoop-config.sh" ]; then. "$bin"/../libexec/hadoop-config.shelse. "$bin/hadoop-config.sh"fi # start mapred daemons# start jobtracker first to minimize connection errors at startup"$bin"/hadoop-daemon.sh --config $HADOOP_CONF_DIR start jobtracker"$bin"/hadoop-daemons.sh --config $HADOOP_CONF_DIR start tasktracker 

該腳本同樣也會執行hadoop-config.sh,同樣也會執行hadoop-env.sh。這里和start-dfs.sh是統一的。最后兩行代碼是啟動jobtracker和tasktracker進程的。同樣對應著兩個類org.apache.hadoop.mapred.JobTracker和org.apache.hadoop.mapred.TaskTracker

以org.apache.hadoop.mapred.JobTracker為例,org.apache.hadoop.mapred.TaskTracker類似org.apache.hadoop.mapred.JobTracker
public class JobTracker implements MRConstants, InterTrackerProtocol,JobSubmissionProtocol, TaskTrackerManager, RefreshUserMappingsProtocol,RefreshAuthorizationPolicyProtocol, AdminOperationsProtocol,JobTrackerMXBean { static{Configuration.addDefaultResource("mapred-default.xml");Configuration.addDefaultResource("mapred-site.xml");}...}

ok,有了上面的解釋,現在已經很明白了。JobTracker啟動時加載了core-*.xml和mapred-*.xml文件,其中core-*.xml是由Configuration完成的。summarize: 使用start-all.sh啟動hadoop所有的進程時,各種配置文件得加載順序: HDFS:hadoop-env.sh --> core-default.xml --> core-site.xml --> hdfs-default.xml --> hdfs-site.xml Mapred:hadoop-env.sh --> core-default.xml --> core-site.xml --> mapred.default.xml --> mapred.site.xml注意到一點,core-*.xml系統的文件總是優先加載,而且hadoop中5個進程都會加載,這也說明core-*.xml是公共的基礎庫,被大家伙共享。 配置文件時在進程啟動時加載的,這也可以證明如果修改了hadoop的配置文件,無論是系統配置文件還是管理員配置文件,都需要重新啟動進程生效。
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 宿迁市| 泊头市| 涿州市| 瑞昌市| 湾仔区| 赤水市| 禹城市| 灵台县| 阿拉善左旗| 伽师县| 四子王旗| 平远县| 德钦县| 平塘县| 洛隆县| 榕江县| 澄迈县| 泉州市| 宝应县| 靖远县| 罗定市| 九江县| 临桂县| 尼玛县| 霍城县| 锡林浩特市| 章丘市| 天门市| 安仁县| 西峡县| 常州市| 梁平县| 青铜峡市| 林甸县| 霸州市| 建瓯市| 衡阳市| 镇安县| 高尔夫| 乌拉特前旗| 玉山县|