主頁 > 知識庫 > Hadoop 2.x偽分布式環(huán)境搭建詳細步驟

Hadoop 2.x偽分布式環(huán)境搭建詳細步驟

熱門標簽:Linux服務(wù)器 百度競價排名 網(wǎng)站排名優(yōu)化 地方門戶網(wǎng)站 服務(wù)外包 呼叫中心市場需求 AI電銷 鐵路電話系統(tǒng)

本文以圖文結(jié)合的方式詳細介紹了Hadoop 2.x偽分布式環(huán)境搭建的全過程,供大家參考,具體內(nèi)容如下

1、修改hadoop-env.sh、yarn-env.sh、mapred-env.sh

方法:使用notepad++(beifeng用戶)打開這三個文件

添加代碼:export JAVA_HOME=/opt/modules/jdk1.7.0_67

2、修改core-site.xml、hdfs-site.xml、yarn-site.xml、mapred-site.xml配置文件

1)修改core-site.xml

configuration>
  property>
    name>fs.defaultFS/name>
    value>hdfs://Hadoop-senior02.beifeng.com:8020/value>
  /property>
  property>
    name>hadoop.tmp.dir/name>
    value>/opt/modules/hadoop-2.5.0/data/value>
  /property>
/configuration>

2)修改hdfs-site.xml

configuration>
  property>
    name>dfs.replication/name>
    value>1/value>
  /property>
  property>
    name>dfs.namenode.http-address/name>
    value>Hadoop-senior02.beifeng.com:50070/value>
  /property>
/configuration>

3)修改yarn-site.xml

configuration>
  property>
    name>yarn.nodemanager.aux-services/name>
    value>mapreduce_shuffle/value>
  /property>
  property>
    name>yarn.resourcemanager.hostname/name>
    value>Hadoop-senior02.beifeng.com/value>
  /property>
  property>
    name>yarn.log-aggregation-enable/name>
    value>true/value>
  /property>
  property>
    name>yarn.log-aggregation.retain-seconds/name>
    value>86400/value>
  /property>
/configuration>

4)修改mapred-site.xml

configuration>
  property>
    name>mapreduce.framework.name/name>
    value>yarn/value>
  /property>
  property>
    name>mapreduce.jobhistory.webapp.address/name>
    value>0.0.0.0:19888/value>
  /property>
/configuration>

3、啟動hdfs

1)格式化namenode:$ bin/hdfs namenode -format

2)啟動namenode:$sbin/hadoop-daemon.sh start namenode

3)啟動datanode:$sbin/hadoop-daemon.sh start datanode

4)hdfs監(jiān)控web頁面:http://hadoop-senior02.beifeng.com:50070

4、啟動yarn

1)啟動resourcemanager:$sbin/yarn-daemon.sh start resourcemanager

2)啟動nodemanager:sbin/yarn-daemon.sh start nodemanager

3)yarn監(jiān)控web頁面:http://hadoop-senior02.beifeng.com:8088

5、測試wordcount jar包

1)定位路徑:/opt/modules/hadoop-2.5.0

2)代碼測試:bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /input/sort.txt /output6/

運行過程:

16/05/08 06:39:13 INFO client.RMProxy: Connecting to ResourceManager at Hadoop-senior02.beifeng.com/192.168.241.130:8032
16/05/08 06:39:15 INFO input.FileInputFormat: Total input paths to process : 1
16/05/08 06:39:15 INFO mapreduce.JobSubmitter: number of splits:1
16/05/08 06:39:15 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1462660542807_0001
16/05/08 06:39:16 INFO impl.YarnClientImpl: Submitted application application_1462660542807_0001
16/05/08 06:39:16 INFO mapreduce.Job: The url to track the job: http://Hadoop-senior02.beifeng.com:8088/proxy/application_1462660542807_0001/
16/05/08 06:39:16 INFO mapreduce.Job: Running job: job_1462660542807_0001
16/05/08 06:39:36 INFO mapreduce.Job: Job job_1462660542807_0001 running in uber mode : false
16/05/08 06:39:36 INFO mapreduce.Job: map 0% reduce 0%
16/05/08 06:39:48 INFO mapreduce.Job: map 100% reduce 0%
16/05/08 06:40:04 INFO mapreduce.Job: map 100% reduce 100%
16/05/08 06:40:04 INFO mapreduce.Job: Job job_1462660542807_0001 completed successfully
16/05/08 06:40:04 INFO mapreduce.Job: Counters: 49

3)結(jié)果查看:bin/hdfs dfs -text /output6/par*

運行結(jié)果:

hadoop 2
jps 1
mapreduce 2
yarn 1

6、MapReduce歷史服務(wù)器

1)啟動:sbin/mr-jobhistory-daemon.sh start historyserver

2)web ui界面:http://hadoop-senior02.beifeng.com:19888

7、hdfs、yarn、mapreduce功能

1)hdfs:分布式文件系統(tǒng),高容錯性的文件系統(tǒng),適合部署在廉價的機器上。

hdfs是一個主從結(jié)構(gòu),分為namenode和datanode,其中namenode是命名空間,datanode是存儲空間,datanode以數(shù)據(jù)塊的形式進行存儲,每個數(shù)據(jù)塊128M

2)yarn:通用資源管理系統(tǒng),為上層應(yīng)用提供統(tǒng)一的資源管理和調(diào)度。

yarn分為resourcemanager和nodemanager,resourcemanager負責資源調(diào)度和分配,nodemanager負責數(shù)據(jù)處理和資源

3)mapreduce:MapReduce是一種計算模型,分為Map(映射)和Reduce(歸約)。

map將每一行數(shù)據(jù)處理后,以鍵值對的形式出現(xiàn),并傳給reduce;reduce將map傳過來的數(shù)據(jù)進行匯總和統(tǒng)計。

以上就是本文的全部內(nèi)容,希望對大家的學習有所幫助。

您可能感興趣的文章:
  • linux下搭建hadoop環(huán)境步驟分享
  • 詳解從 0 開始使用 Docker 快速搭建 Hadoop 集群環(huán)境
  • Hadoop2.X/YARN環(huán)境搭建--CentOS7.0系統(tǒng)配置
  • 使用Maven搭建Hadoop開發(fā)環(huán)境
  • Hadoop2.X/YARN環(huán)境搭建--CentOS7.0 JDK配置
  • 詳解VMware12使用三臺虛擬機Ubuntu16.04系統(tǒng)搭建hadoop-2.7.1+hbase-1.2.4(完全分布式)
  • 基于CentOS的Hadoop分布式環(huán)境的搭建開發(fā)
  • 詳解使用docker搭建hadoop分布式集群
  • 在CentOS中搭建Hadoop的詳細步驟
  • ubantu 16.4下Hadoop完全分布式搭建實戰(zhàn)教程

標簽:湘潭 黃山 衡水 銅川 蘭州 仙桃 湖南 崇左

巨人網(wǎng)絡(luò)通訊聲明:本文標題《Hadoop 2.x偽分布式環(huán)境搭建詳細步驟》,本文關(guān)鍵詞  ;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 收縮
    • 微信客服
    • 微信二維碼
    • 電話咨詢

    • 400-1100-266