1. HBase 本文安装 2.2.2版本,由于 HBase 版本依赖性强,所以安装 HBase 2.2.2 时,一定要安装 Hadoop 3.1.3。
Hadoop 3.1.3 安装详解:https://blog.csdn.net/qq_53715214/article/details/123936801?spm=1001.2014.3001.5502
HBase 官网:
http://archive.apache.org/dist/hbase/
本地机通过官网找到并下载 HBase 2.2.2 ,指定下载的文件夹,设置为虚拟机的共享文件夹,
共享文件夹设置详解:
https://blog.csdn.net/qq_53715214/article/details/123890380?spm=1001.2014.3001.5502
2. 解压移动 HBase,设置环境变量(gedit 或者 vim )
# vmhgfs-fuse .host:/ /mnt/hgfs 挂载共享文件夹
# cd /mnt/hgfs/Downloads 进入共享文件夹
# sudo tar -zxf hbase-2.2.2-bin.tar.gz -C /usr/local 解压 hbase
# cd /usr/local 进入解压后的目录
# sudo mv ./hbase-2.2.2 ./hbase 移动到指定目录
# gedit ~/.bashrc 编辑环境变量
若没有设置过其他 PATH 可以单独设置:
export PATH=$PATH:/usr/local/hbase/bin
若设置过其他 PATH 则可用:间隔开
export PATH=${JAVA_HOME}/bin:$PATH:/usr/local/hbase/bin
# source ~/.bashrc 保存使立即生效
3.查看 HBase 版本信息
# cd /usr/local
# hbase/bin/hbase version
能够显示版本信息说明安装好了
4. HBase 单机配置
单机配置需要 JDK (详细见 JDK 安装 ),伪分布式配置需要 SSH (详细见 SSH 安装)和 JDK 。
单机模式配置
# vim /usr/local/hbase/conf/hbase-env.sh
配置 Java 环境变量(若按照本文说到的JDK安装,位置如下:)
JDK的安装目录是/usr/lib/jvm/jdk1.8.0_162, 则JAVA _HOME =/usr/lib/jvm/jdk1.8.0_162;配置HBASE_MANAGES_ZK为true,表示由hbase自己管理zookeeper,不需要单独的zookeeper。hbase-env.sh中本来就存在这些变量的配置,大家只需要删除前面的#并修改配置内容即可(#代表注释):
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_162
export HBASE_MANAGES_ZK=true
添加完成后保存退出
# vim /usr/local/hbase/conf/hbase-site.xml
在启动HBase前需要设置属性hbase.rootdir,用于指定HBase数据的存储位置,此处设置为HBase安装目录下的hbase-tmp文件夹即(/usr/local/hbase/hbase-tmp),替换配置如下:
hbase.rootdir
file:///usr/local/hbase/hbase-tmp
测试运行
# cd /usr/local/hbase 切换目录
# bin/start-hbase.sh 启动hbase
# bin/hbase shell 启动shell
停止hbase命令:
# bin/stop-hbase.sh
5.伪分布式配置
# vim /usr/local/hbase/conf/hbase-env.sh
添加以下,若前面已添加部分则可只需添加 HBASE_CLASSPATH
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_162
export HBASE_CLASSPATH=/usr/local/hbase/conf
export HBASE_MANAGES_ZK=true
# vim /usr/local/hbase/conf/hbase-site.xml
修改hbase.rootdir,指定HBase数据在HDFS上的存储路径;将属性hbase.cluter.distributed设置为true。假设当前Hadoop集群运行在伪分布式模式下,在本机上运行,且NameNode运行在9000端口。
替换为以下:
hbase.rootdir
hdfs://localhost:9000/hbase
hbase.cluster.distributed
true
hbase.unsafe.stream.capability.enforce
false
测试运行
# ssh localhost
# cd /usr/local/hadoop
# ./sbin/start-dfs.sh
启动 hadoop,输入命令jps,能看到NameNode,DataNode和SecondaryNameNode都已经成功启动,表示hadoop启动成功
# cd /usr/local/hbase
# bin/start-hbase.sh
启动成功,输入命令jps,看到以下界面说明hbase启动成功
进入 shell 界面
# bin/hbase shell
基本命令
# cd /usr/local/hadoop 切换目录
# ./sbin/start-dfs.sh 启动 hadoop
# cd /usr/local/hbase 切换目录
# bin/start-hbase.sh 启动 hbase
# bin/hbase shell 进入 shell
exit 退出 shell
# bin/stop-hbase.sh 停止 hbase
# cd /usr/local/hadoop 切换目录
# ./sbin/stop-dfs.sh 关闭 hadoop
原文
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)