[Hive] Redhat8에 Hive 설치하기

Denver·2022년 11월 20일
0

Hadoop

목록 보기
2/9
post-thumbnail

0. 실행 환경

AWS EC2 t2.xlarge
OS : Redhat 8.6
Hive Version : 3.1.3


1. 설치하기

1) Hive 다운로드

# /home/ec2-user/project/sw에서 실행

# 다운로드
wget https://dlcdn.apache.org/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz

# 압축 풀기
tar xvf apache-hive-3.1.3-bin.tar.gz

# 디렉토리명 변경
mv apache-hive-3.1.3-bin/ hive

2) 환경변수 설정

2-1) .bashrc 수정

vi ~/.bashrc

아래 내용 추가

export HIVE_HOME=/home/ec2-user/project/sw/hive
export PATH=$PATH:$HIVE_HOME/bin
source ~/.bashrc

2-2) hive-env.sh 수정

vi $HIVE_HOME/conf/hive-env.sh

# hive-env.sh없으면
cp $HIVE_HOME/conf/hive-env.sh.template $HIVE_HOME/conf/hive-env.sh

아래 내용 추가

export HADOOP_HOME=<HADOOP_HOME>
HIVE_CONF_DIR="${HIVE_CONF_DIR:-$HIVE_HOME/conf}"
export HADOOP_HEAPSIZE=${HADOOP_HEAPSIZE:-256}
export HIVE_CONF_DIR=$HIVE_CONF_DIR
export HIVE_AUX_JARS_PATH=$HIVE_AUX_JARS_PATH

2-3) hive-config.sh 수정

vi $HIVE_HOME/bin/hive-config.sh

아래 내용 추가

export HADOOP_HOME=/home/ec2-user/project/sw/hadoop

3. HDFS에 Hive 디렉토리 생성

hdfs dfs -mkdir /tmp
hdfs dfs -chmod g+w /tmp
hdfs dfs -ls /

hdfs dfs -mkdir -p /user/hive/warehouse
hdfs dfs -chmod g+w /user/hive/warehouse
hdfs dfs -ls /user/hive


rm hive/lib/guava-19.0.jar
cp hadoop/share/hadoop/hdfs/lib/guava-27.0-jre.jar hive/lib/

hive/bin/schematool -initSchema -dbType derby

4. Hive 실행

hive


참고

https://dlcdn.apache.org/hive/hive-3.1.3/

profile
까먹었을 미래의 나를 위해

0개의 댓글