1. https://spark.apache.org/downloads.html
Downloads | Apache Spark
Download Apache Spark™ Choose a Spark release: Choose a package type: Download Spark: Verify this release using the and project release KEYS. Note that, Spark 2.x is pre-built with Scala 2.11 except version 2.4.2, which is pre-built with Scala 2.12. Spar
spark.apache.org
위 링크 접속
2.
Spark 최신버전, 자신의 Hadoop에 맞는 버전을 선택하고
밑줄친 부분의 파일을 다운로드 받는다.
3. tar -xvzf 파일명 (tar -xvzf spark-3.1.2-bin-hadoop3.2.tgz)
압축을 푼다
4. 파일명 간소화
현재 압축 해제한 파일명은 spark-3.1.2-bin-hadoop3.2 인데
이것을 spark-3.1.2로 간소화 해준다
-> mv spark-3.1.2-bin-hadoop3.2 spark-3.1.2
그리고 압축파일은 이제 필요없으니 제거해주자. -> rm spark-3.1.2-bin-hadoop3.2.tgz
5. .bashrc을 열어서 spark를 위한 export를 작성한다.
export SPARK_HOME=/home/hdoop/spark-3.1.2
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
export SPARK_CONF_DIR=$SPARK_HOME/conf
export SPARK_MASTER_HOST=localhost
export PYSPARK_PYTHON=python3
export PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/lib/py4j-0.10.9-src.zip:$PYTHONPATH
export PATH=$SPARK_HOME/bin:$SPARK_HOME/python:$PATH
6. source .bashrc
7. spark-shell (엔터)
문제없이 작동하는지 확인하자
8. :quit
Scala 실행 상태에서 나가기.
'Hadoop' 카테고리의 다른 글
Pyspark 사용 예시(1) (0) | 2021.09.14 |
---|---|
Pyspark 설치 (0) | 2021.09.14 |
Spark(스파크) (0) | 2021.09.14 |
Beeline을 이용한 Hiveserver2 접근(feat. Ubuntu) (0) | 2021.09.10 |
Hiveserver2(Feat. Ubuntu) (0) | 2021.09.09 |
댓글