前言

本文隶属于专栏《1000个问题搞定大数据技术体系》,该专栏为笔者原创,引用请注明来源,不足和错误之处请在评论区帮忙指出,谢谢!

本专栏目录结构和参考文献请见1000个问题搞定大数据技术体系

正文

建议按照我的这篇博客完成三节点大数据环境的安装配置。
三节点大数据环境安装详细教程

安装部署

  1. 下载安装包
    https://hbase.apache.org/downloads.html
  2. 规划安装目录
  cd /opt/bigdata
  1. 上传安装包到服务器
  2. 解压安装包到指定的规划目录
 tar -zxvf hbase-xxx-bin.tar.gz -C /opt/bigdata
  1. 重命名解压目录
mv hbase-xxx hbase
  1. 修改配置文件
  • 需要把hadoop中的配置core-site.xml 、hdfs-site.xml拷贝到hbase安装目录下的conf文件夹中

  • 修改conf目录下配置文件

   #添加java环境变量
   export JAVA_HOME=/opt/bigdata/jdk
   #指定使用外部的zk集群
   export HBASE_MANAGES_ZK=FALSE
  • 修改 hbase-site.xml
    <configuration>
              <!-- 指定hbase在HDFS上存储的路径 -->
            <property>
                    <name>hbase.rootdir</name>
                    <value>hdfs://node1:9000/hbase</value>
            </property>
                    <!-- 指定hbase是分布式的 -->
            <property>
                    <name>hbase.cluster.distributed</name>
                    <value>true</value>
            </property>
                    <!-- 指定zk的地址,多个用“,”分割 -->
            <property>
                    <name>hbase.zookeeper.quorum</name>
                    <value>node1:2181,node2:2181,node3:2181</value>
            </property>
    </configuration>       
  • 修改regionservers
#指定regionserver节点
node2
node3
  • 修改backup-masters
node2
  1. 配置hbase的环境变量
export HBASE_HOME=/opt/bigdata/hbase
export PATH=$PATH:$HBASE_HOME/bin
  1. 分发hbase目录和环境变量到其他节点
scp -r hbase node2:/opt/bigdata
scp -r hbase node3:/opt/bigdata
scp /etc/profile node2:/etc
scp /etc/profile nod3:/etc
  1. 让所有节点的hbase环境变量生效
#在所有节点执行
source /etc/profile

hbase集群的启动和停止

启动

  • 前提条件:先启动hadoop和zk集群
  • 启动hbase

停止

上一篇 下一篇