国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 學院 > 編程設計 > 正文

hadoop入門之hadoop集群驗證任務存放在不同的節點上

2020-07-14 13:30:02
字體:
來源:轉載
供稿:網友

Linux環境:CentOs6.4

Hadoop版本:Hadoop-1.1.2

master: 192.168.1.241      NameNode    JobTracker   DataNode   TaskTracker

slave:192.168.1.242    DataNode   TaskTracker

內容:想hadoop文件系統中上傳一個大文件,驗證文件分別分布在192.168.1.241節點和192.168.1.242節點上。

第一步: 前期工作:搭建Hadoop集群,

在hdfs-site.xml中的配置為2.


復制代碼
代碼如下:

<property>
<name>dfs.replication</name>
<value>2</value>
</property>

運行執行start-all.sh命令,運行結果如圖所示:

查看9000和9001的信息

9000是HDFS的入口9001是MapReduce的JobTracker的入口

從以上圖中可以確定Ip地址為192.168.1.241.

第二步:通過網頁查看節點的個數。在瀏覽器中輸入http://localhost:50070

以上看到LiveNodes的個數為2,說明啟動成功。

第三步:上傳大文件。具體步驟如圖所示:

通過網頁查看運行狀況:

大文件已經上傳成功.文件的大小是244.91MBlock的大小是64M。所以每個節點能夠有4個Block。

Replication為2,表明每個Block有2個備份。

查看節點的使用情況:

從圖中可以看出,此文件分成了4個Block。(TotalNumberofblocks:4)。

每個Block在兩個節點上進行了備份,分別是192.168.1.241192.168.1.242

hadoop集群至此測試結束。測試成功。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 耒阳市| 三河市| 康定县| 海宁市| 清丰县| 娄底市| 抚松县| 措美县| 平南县| 通河县| 丘北县| 丰顺县| 石嘴山市| 丽水市| 石首市| 凭祥市| 甘肃省| 贵南县| 台江县| 日照市| 烟台市| 静安区| 玛沁县| 大冶市| 图片| 从江县| 成安县| 当涂县| 大方县| 乌什县| 娄烦县| 根河市| 湘阴县| 玉山县| 南澳县| 肥乡县| 东源县| 嘉义县| 芒康县| 吉林省| 林芝县|