sudo apt install default-jdk scala git -y
설치가 잘 되었는지 확인
https://downloads.apache.org/spark/
본인에게 맞는 버전 다운로드 후 압축풀기
wget https://downloads.apache.org/spark/spark-3.0.3/spark-3.0.3-bin-hadoop3.2.tgz
tar xvf spark-3.0.3-bin-hadoop3.2.tgz
spark 폴더를 /opt/spark로 이동
.profile 파일 열기
vim ~/.profile
환경변수 추가
export SPARK_HOME=/opt/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
export PYSPARK_PYTHON=/usr/bin/python3.8
변경사항 적용
source ~/.profile
.profile
이랑 .bashrc
랑 뭐가 다른거지?
=> https://spidyweb.tistory.com/221
spark-shell