본문 바로가기
Cloud | AI | BigData

[AWS-Hadoop|Hive|Spark] jupyter 설치 후 pyspark와 연동

by 개폰지밥 2022. 12. 14.
반응형
☞ 관련 글
2022.11.16 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark]AWS 회원가입, 계정 삭제, 비밀번호 변경
2022.12.03 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark]인스턴스 생성, 시작과 종료
2022.12.04 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark] 인스턴스 putty 접속 + root 접속 + puttygen .ppk 생성 +
2022.12.05 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark] 계정생성 Java8설치 + selinux해제
2022.12.06 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark] Haoop3.2 설치(Hadoop 계정)
2022.12.07 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark] Hadoop 3.2 설정파일 설정
2022.12.08 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark] 인스턴스 복사(AMI 생성) + 이미지/인스턴스 삭제
2022.12.09 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark] Hadoop Name/DataNode 및 Client 서버 기본 설정+ ssh 키생성
2022.12.10 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark] Hdfs 파일 포맷, Hdfs/Yarm 시작 종료
2022.12.10 - [Cloud | AI | BigData] - [AWS-Hadoop|Hive|Spark] Hadoop 구축 핵심 및 에러 정리
2022.12.11 - [Cloud | AI | BigData] - [AWS-EC2 Hadoop|Hive|Spark] yum으로 MariaDB 10.5 설치
2022.12.12 - [Cloud | AI | BigData] - [AWS-Hadoop|Hive|Spark] Hive 3 설치
2022.12.13 - [Cloud | AI | BigData] - [AWS-Hadoop|Hive|Spark] Spark 3 설치
2022.12.14 - [Cloud | AI | BigData] - [AWS-Hadoop|Hive|Spark] pip install로 jupyter 설치

 

| System Structure

 

목차

1. Jupyter Notebook 설치하기
2. Jupyter 패스워드 설정
3. Jupyter 환경설정
4. Pyspark - Jupyter 연동
5. Jupyter 서버 종료

 

1. Jupyter Notebook 설치하기

[hadoop@client ~]$ pip install jupyter

[hadoop@client ~]$ pip install py4j

 

2. Jupyter 패스워드 설정

Jupyter에 사용할 패스워드 암호화값을 만들기 위하여 iypthon으로 들어갑니다.

[hadoop@client ~]$ ipython
Python 3.9.14 (main, Nov  7 2022, 00:00:00)
Type 'copyright', 'credits' or 'license' for more information
IPython 8.7.0 -- An enhanced Interactive Python. Type '?' for help.

In [1]: from notebook.auth import passwd

In [2]: passwd()
Enter password: 암호화하고싶은_passwd 나는 jupyter로 했음
Verify password: jupyter
'argon2:$argon2id$v=19$m=10240,t=10,p=8$2HtQUOQ1wUXL+RKvgdvEbw$JbJR+IgDCjyjHzHWJfMhdZxfKVXu4ZP4ba6LLQRzf3k' --이것을 잘 복사해둡니다.

exit() 로 나올수있다.

 

3. Jupyter 환경설정

[hadoop@client ~]$ jupyter notebook --generate-config
Writing default config to: /home/hadoop/.jupyter/jupyter_notebook_config.py


[hadoop@client ~]$ vim  /home/hadoop/.jupyter/jupyter_notebook_config.py

3가지 부분 수정
c.NotebookApp.allow_origin = '*'
c.NotebookApp.open_browser = False
c.NotebookApp.password = 'argon2:$argon2id$v=19$m=10240,t=10,p=8$2HtQUOQ1wUXL+RKvgdvEbw$JbJR+IgDCjyjHzHWJfMhdZxfKVXu4ZP4ba6LLQRzf3k'
c.NotebookApp.notebook_dir = '/home/hadoop/workspace'

[hadoop@client ~]$ mkdir workspace

 

4. Pyspark - Jupyter 연동

[hadoop@client ~]$ vi ~/.bashrc

export PYSPARK_DRIVER_PYTHON=jupyter

export PYSPARK_DRIVER_PYTHON_OPTS='notebook --ip=0.0.0.0'

[hadoop@client ~]$ source ~/.bashrc

[hadoop@client ~]$ pyspark
[I 07:59:33.016 NotebookApp] Writing notebook server cookie secret to /home/hadoop/.local/share/jupyter/runtime/notebook_cookie_secret
[I 07:59:33.204 NotebookApp] Serving notebooks from local directory: /home/hadoop/workspace
[I 07:59:33.204 NotebookApp] Jupyter Notebook 6.5.2 is running at:
[I 07:59:33.204 NotebookApp] http://client:8888/ --> 이것으로 접속하면 된다.
[I 07:59:33.205 NotebookApp] Use Control-C to stop this server and shut down all kernels (twice to skip confirmation).
^C[I 07:59:45.018 NotebookApp] interrupted
Serving notebooks from local directory: /home/hadoop/workspace
0 active kernels
Jupyter Notebook 6.5.2 is running at:
http://client:8888/

http://client_publicDNSorIP:8888/

http://ec2-13-209-76-244.ap-northeast-2.compute.amazonaws.com:8888/

위에서 설정한 jupyter_notebook_config.py에서 설정한 c.NotebookApp.password를 입력한다.
나는 jupyter였다.

 

5. Jupyter 서버 종료

Ctrl + c 누르면  notebook server를 shutdown 할것이냐고 뜬다. y를 입력하면된다.

Shutdown this notebook server (y/[n])? y

5.1 hadoop/resouece manage, job history 서버 종료

[hadoop@Namenode ~]$ stop-dfs.sh
[hadoop@Namenode ~]$ mapred --daemon stop historyserver

[hadoop@secondnode ~]$ stop-yarn.sh

반응형

댓글