사전준비
]$ ulimit -a
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
scheduling priority (-e) 0
file size (blocks, -f) unlimited
pending signals (-i) 32832
max locked memory (kbytes, -l) 32
max memory size (kbytes, -m) unlimited
open files (-n) 16000
pipe size (512 bytes, -p) 8
POSIX message queues (bytes, -q) 819200
real-time priority (-r) 0
stack size (kbytes, -s) 10240
cpu time (seconds, -t) unlimited
max user processes (-u) 32832
virtual memory (kbytes, -v) unlimited
file locks (-x) unlimitedstable 버전
다운로드 http://www.apache.org/dyn/closer.cgi/hbase/
hbase-0.94.0
wget http://ftp.daum.net/apache/hbase/hbase-0.94.0/hbase-0.94.0.tar.gz
tar zxvf hbase-0.94.0.tar.gz
압축을 푸는 것으로 설치 완료!!!
링크 생성
ln -s hbase-0.94.0 hbase
프로파일 수정
.bash_profile
프로파일 적용
source .bash_profile
$ ll conf
합계 28
-rw-r--r-- 1 gurubee gurubee 2746 5월 2 07:21 hadoop-metrics.properties
-rw-r--r-- 1 gurubee gurubee 4355 5월 2 07:21 hbase-env.sh
-rw-r--r-- 1 gurubee gurubee 2250 5월 2 07:21 hbase-policy.xml
-rw-r--r-- 1 gurubee gurubee 983 5월 2 07:21 hbase-site.xml
-rw-r--r-- 1 gurubee gurubee 2070 5월 2 07:21 log4j.properties
-rw-r--r-- 1 gurubee gurubee 10 5월 2 07:21 regionservers
설정
$ ln -s /home/gurubee/apps/hadoop/conf/hdfs-site.xml hdfs-site.xml
$ ll
합계 28
-rw-r--r-- 1 gurubee gurubee 2746 5월 2 07:21 hadoop-metrics.properties
-rw-r--r-- 1 gurubee gurubee 4432 7월 10 20:27 hbase-env.sh
-rw-r--r-- 1 gurubee gurubee 2250 5월 2 07:21 hbase-policy.xml
-rw-r--r-- 1 gurubee gurubee 983 5월 2 07:21 hbase-site.xml
lrwxrwxrwx 1 gurubee gurubee 44 7월 10 20:30 hdfs-site.xml -> /home/gurubee/apps/hadoop/conf/hdfs-site.xml
-rw-r--r-- 1 gurubee gurubee 2070 5월 2 07:21 log4j.properties
-rw-r--r-- 1 gurubee gurubee 10 5월 2 07:21 regionservers
conf설정
hbase-env.sh
export HADOOP_HOME=/home/gurubee/apps/hadoop
export HBASE_CLASSPATH=${HBASE_CLASSPATH}:$HADOOP_HOME/conf
hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://tvdev83.blog:9000/hbase</value>
</property>
<property>
<name>dfs.support.append</name>
<value>true</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
hdfs-site.xml
<property>
<name>dfs.supprot.append</name>
<value>true</value>
</property>
<property>
<name>dfs.datanode.max.xcievers</name>
<value>4096</value>
</property>
$ rsync -av . gurubee@tvdev84.blog:/home/gurubee/apps/hbase/
$ rsync -av . gurubee@tvdev85.blog:/home/gurubee/apps/hbase/
1) hadoop 구동
$ ./start-all.sh
2) hbase 구동
$ cd $HBASE_HOME
$ ./bin/start-hbase.sh
starting master, logging to /home/gurubee/apps/hbase/bin/../logs/hbase-gurubee-master-tvdev83.blog.out
3) hbase 구동여부 확인
$ ./bin/hbase shell
HBase Shell; enter 'help<RETURN>' for list of supported commands.
Type "exit<RETURN>" to leave the HBase Shell
Version 0.94.0, r1332822, Tue May 1 21:43:54 UTC 2012
hbase(main):001:0> help
명령어 및 shell 사용법에 대하 설명이 출력된다.
http://hbase.apache.org/book/quickstart.html#shell_exercises
Hadoop 처럼 HBase는 자바로 만들어졌다.
org.apache.hadoop.hbase.mapred - HBase클래스와 유틸리티는 HBase를 원본으로서
그리고 MR작업의 결과 저장소로 사용된다.
HBase는 에이브로, REST, thrift의 인터페이스를 포함.
자바 이외의 다른 언어로 개발된 응용프로그램과 상호 작용할 때 유용함.
단, 자바 서버는 HBase 클라이언트의 broker 인스턴스를 관리해야 하고
추가로 요청과 응답을 대행하기 때문에 자바 클라이언트를 직접 사용하는 것보다는 느리다.
1) HBase Schema - http://blog.xebia.fr/2009/11/18/devoxx-jour-1-nosql-avec-hbase/
2) http://wiki.gurubee.net/pages/viewpage.action?pageId=23232556