sqoop import --connect jdbc:mysql://localhost:3306/userdb?serverTimezone=UTC --username user1 --password user1pwd --table emp -m 1 --target-dir /user/data/mysql/emp
import : SQL DB로부터 HDFS영역에 데이터를 불러온다.
--table emp -m 1 : DB의 emp 테이블을 1개의 파일로 분산시켜 저장한다
--target-dir /user/data/mysql/emp : hdfs영역내의 저장할 디렉토리 지정
truncate table_name; - MySQL의 테이블 내용 비우기
: hdfs영역의 데이터를 SQL의 DB Table로 가져올 때 Table이 비우기 위해 쓴다
sqoop export --connect jdbc:mysql://localhost:3306/userdb?serverTimezone=UTC --username user1 --password user1pwd --table emp -m 1 --export-dir /user/data/mysql/emp/
export : hdfs영역의 데이터를 SQL의 DB에 저장한다
--table emp -m 1 : 1개로 분산되어있는 데이터를 emp테이블에 저장
--export-dir /user/data/mysql/emp/ : SQL db에 저장될 hdfs영역의 데이터 위치
*hdfs영역의 파일에 append하기
sqoop import --connect jdbc:mysql://localhost:3306/userdb?serverTimezone=UTC --username user1 --password user1pwd --target-dir /user/data/mysql/emp/ -m 1 --table emp --incremental append --check-column id
--incremental append : append하여 작성한다
--check-column id : id컬럼이 중복되는지 확인
'Hadoop' 카테고리의 다른 글
Sqoop <-> Hive 명령어 (1) | 2021.09.28 |
---|---|
Sqoop & Hive 연결 세팅 (0) | 2021.09.28 |
Sqoop 설치 (feat. Linux) (0) | 2021.09.27 |
MySQL & Spark (0) | 2021.09.27 |
Spark를 이용한 hive 접근 (0) | 2021.09.23 |
댓글