Spark 설치
1. https://spark.apache.org/downloads.html
Downloads | Apache Spark
Download Apache Spark™ Choose a Spark release: Choose a package type: Download Spark: Verify this release using the and project release KEYS. Note that, Spark 2.x is pre-built with Scala 2.11 except version 2.4.2, which is pre-built with Scala 2.12. Spar
spark.apache.org
위 링크 접속
2.

Spark 최신버전, 자신의 Hadoop에 맞는 버전을 선택하고
밑줄친 부분의 파일을 다운로드 받는다.
3. tar -xvzf 파일명 (tar -xvzf spark-3.1.2-bin-hadoop3.2.tgz)
압축을 푼다
4. 파일명 간소화

현재 압축 해제한 파일명은 spark-3.1.2-bin-hadoop3.2 인데
이것을 spark-3.1.2로 간소화 해준다
-> mv spark-3.1.2-bin-hadoop3.2 spark-3.1.2

그리고 압축파일은 이제 필요없으니 제거해주자. -> rm spark-3.1.2-bin-hadoop3.2.tgz
5. .bashrc을 열어서 spark를 위한 export를 작성한다.
export SPARK_HOME=/home/hdoop/spark-3.1.2
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
export SPARK_CONF_DIR=$SPARK_HOME/conf
export SPARK_MASTER_HOST=localhost
export PYSPARK_PYTHON=python3
export PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/lib/py4j-0.10.9-src.zip:$PYTHONPATH
export PATH=$SPARK_HOME/bin:$SPARK_HOME/python:$PATH

6. source .bashrc
7. spark-shell (엔터)
문제없이 작동하는지 확인하자

8. :quit
Scala 실행 상태에서 나가기.