본문 바로가기
Cloud | AI | BigData

[AWS-EC2 Hadoop|Hive|Spark] Hdfs 파일 포맷, Hdfs/Yarm 시작 종료

by 개폰지밥 2022. 12. 10.
반응형
☞ 관련 글
2022.11.16 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark]AWS 회원가입, 계정 삭제, 비밀번호 변경
2022.12.03 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark]인스턴스 생성, 시작과 종료
2022.12.04 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark] 인스턴스 putty 접속 + root 접속 + puttygen .ppk 생성 +
2022.12.05 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark] 계정생성 Java8설치 + selinux해제
2022.12.06 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark] Haoop3.2 설치(Hadoop 계정)
2022.12.07 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark] Hadoop 3.2 설정파일 설정
2022.12.08 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark] 인스턴스 복사(AMI 생성) + 이미지/인스턴스 삭제
2022.12.09 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark] Hadoop Name/DataNode 및 Client 서버 기본 설정+ ssh 키생성
2022.12.10 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark] Hdfs 파일 포맷, Hdfs/Yarm 시작 종료
2022.12.10 - [Cloud | AI | BigData] - [AWS-Hadoop|Hive|Spark] Hadoop 구축 핵심 및 에러 정리
2022.12.11 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark] yum으로 MariaDB 10.5 설치
2022.12.12 - [Cloud | AI | BigData] - [AWS-Hadoop|Hive|Spark] Hive 3 설치
2022.12.13 - [Cloud | AI | BigData] - [AWS-Hadoop|Hive|Spark] Spark 3 설치
2022.12.14 - [Cloud | AI | BigData] - [AWS-Hadoop|Hive|Spark] pip install로 jupyter 설치

 

| SystemStructure

 

목차

1. Hdfs 파일 포맷
2. HDFS, YARM 시작 종료
  2.1 Hdfs, Yarm 시작
  2.2 Hdfs, Yarm 구동 확인
   2.2.1 jps로 확인
   2.2.2 Web에서 확인
   2.23 Hadoop 테스트
2.3 Hdfs, Yarm 종료

 

 

내용

1. Hdfs 파일 포맷

[hadoop@Namenode hadoop]$ hdfs namenode -format

 

2. HDFS, YARM 시작 종료

2.1 Hdfs, Yarm 시작

[hadoop@Namenode hadoop]$ start-dfs.sh

[hadoop@secondnode data]$ start-yarn.sh

저는 Resource Manager가 SecondaryNameNode에 위치했기 때문에 second 서버에서 start-yarm.sh 명령어를 했습니다.

NameNode에 Resource Manager가 있으면 NameNode서버에서 start-yarm.sh를 하시기 바랍니다 :)

[hadoop@Namenode hadoop]$ mapred --daemon start historyserver

 

 

2.2 Hdfs, Yarm 구동 확인

2.2.1 jps로 확인

2.2.1.1 NameNode, DataNode1, Job History

[hadoop@Namenode data]$ jps
5137 DataNode
5013 NameNode
5687 Jps
5451 NodeManager
5629 JobHistoryServer

 

2.2.1.2 Secdondary NameNode, DataNode2, Resource Manager
[hadoop@secondnode data]$ jps
5344 Jps
4737 SecondaryNameNode
4614 DataNode
4858 ResourceManager
4972 NodeManager

 

2.2.1.3 DataNode3

[hadoop@datanode3 ~]$ jps
2915 DataNode
3044 NodeManager
3193 Jps

2.2.1.4 Client

[hadoop@client ~]$ jps
2142 Jps

 

2.2.2 Web에서 확인

2.2.2.1 NameNode

http://NameNode설치서버_publicDNSorIP:50070

저는 NameNode서버에 NameNode를 설치했기 때문에 아래와 같이 접속했습니다.

AWS는 재시작시 마다 Public DNS와 IP가 바뀌기 때문에 확인해야 합니다.

 

현재 기준

- NameNode, History Server의 DNS : ec2-15-165-159-119.ap-northeast-2.compute.amazonaws.com

- SecondaryNode그리고Resource Manager DNS : ec2-3-36-128-89.ap-northeast-2.compute.amazonaws.com

 

http://ec2-15-165-159-119.ap-northeast-2.compute.amazonaws.com:50070/

 

접속이 안되는 분들은 포트 번호를 확인해보세요.

더보기

1. port 번호 확인 -> 50070

cat /home/hadoop/hadoop/etc/hadoop/hdfs-site.xml

<name>dfs.namenode.http-address</name>
<value>namenode:50070</value>

 

2. Port가 실행중인지 확인

netstat -tulpn | grep LISTEN

tcp        0      0 172.31.40.48:50070      0.0.0.0:*               LISTEN      5013/java

 

2.2.2.2 Secondary NameNode

http://NameNode설치서버_publicDNSorIP:50090

http://ec2-3-36-128-89.ap-northeast-2.compute.amazonaws.com:50090/

 

접속이 안되는 분들은 아래를 확인해보세요.

더보기

1. port 번호 확인 -> 50090

cat /home/hadoop/hadoop/etc/hadoop/hdfs-site.xml

<name>dfs.namenode.secondary.http-address</name>
<value>secondnode:50090</value>

 

2. Port가 실행중인지 확인

netstat -tulpn | grep LISTEN

tcp        0      0 172.31.38.6:50090       0.0.0.0:*               LISTEN      4737/java

 

2.2.2.3 Reousr Manager

http://Resource Manager 설치서버_publicDNSorIP:8088

-> 저는 Second 서버가 Resource Manager입니다.

http://ec2-3-36-128-89.ap-northeast-2.compute.amazonaws.com:8088/

 

접속이 안되는 분들은 아래를 확인해보세요.

더보기

1. port 번호 확인 -> 8088

참조 : https://hadoop.apache.org/docs/r3.2.3/hadoop-project-dist/hadoop-common/ClusterSetup.html

2. Port가 실행중인지 확인

netstat -tulpn | grep LISTEN

tcp        0      0 172.31.38.6:8088        0.0.0.0:*               LISTEN      4858/java

 

2.2.2.4 JobHistory Server

http://JobHistory Server 설치서버_publicDNSorIP:19888

-> 저는 namenode 서버에 같이 jobhistory server를 설치했습니다.

접속이 안되는 분들은 아래를 확인해보세요.

더보기

1. port 번호 확인 -> 19888

참조 : https://hadoop.apache.org/docs/r3.2.3/hadoop-project-dist/hadoop-common/ClusterSetup.html

2. Port가 실행중인지 확인

netstat -tulpn | grep LISTEN

tcp        0      0 172.31.40.48:19888      0.0.0.0:*               LISTEN      5629/java

 

2.2.3 Hadoop 테스트

[hadoop@Namenode hadoop]$ hdfs dfs -mkdir -p /hadoop-dir/test
[hadoop@Namenode hadoop]$ echo "HelloWorld" > HelloWorld.txt
[hadoop@Namenode hadoop]$ hdfs dfs -copyFromLocal HelloWorld.txt /hadoop-dir/test

이제 잘 올라갔는지 확인을 해보겠습니다.

http://ec2-15-165-159-119.ap-northeast-2.compute.amazonaws.com:50070/

 

Utilities -> Browse the file system -> 만든 폴더 Name선택 -> 만든 폴더 확인

 

2.3 Hdfs, Yarm 종료

namenode, resource manager 그리고 job history 서버에 맞춰 종료 명령어를 실행해주세요.

 

[hadoop@secondnode hadoop]$ stop-dfs.sh
Stopping namenodes on [namenode]
Stopping datanodes
Stopping secondary namenodes [secondnode]
[hadoop@Namenode hadoop]$ mapred --daemon stop historyserver


[hadoop@Namenode hadoop]$ stop-yarn.sh
Stopping nodemanagers
Stopping resourcemanager

 

반응형

댓글