SQL + Hadoop 합쳐 만든 이름
데이터세트를 HDFS 로 가져오거나 내보내기.
MapReduce 를 사용하기 때문에 오버헤드 문제로 인해 작은 데이터에 대해선 효율을 기대하기 어려움. 큰 데이터 세트에 대해 유용
ex) MySQL, PostGres 와 같은 데이터베이스에 가져와 MapReduce를 수행, HDFS 로 적재
sqoop import --connect jdbc:mysql://localhost/movielens --driver com.mysql.jdbc.Driver --table movies
sqoop import --connect jdbc:mysql://localhost/movielens --driver com.mysql.jdbc.Driver --table movies --hive-import
--check-column : 타임스탬프 또는 일련번호 열
--last-value : 이 열의 값이 주어진 값보다 클 때에만 데이터를 가져옴
ex) Hive 에서 MySQL 로 적재
sqoop export --connect jdbc:mysql://localhost/movielens -m 1 --driver com.mysql.jdbc.Driver --table exported_movies --export-dir /apps/hive/warehouse/movies --input-fiels-terminated-by '\0001'