hadoop安装(3)

zookeeper和hbase安装  #--hbase是Hadoop的数据库,依赖于zookeeper,默认的hbase自带zookeeper  #不是很好用,这里我们自己安装zookeeper  1.下载软件 & 解压软件      zookeeper.apache.org      hbase.apache.org      $ tar -zxvf zookeeper-3.4.11.tar.gz -C /usr/local      $ tar -zxvf hbase-1.3.1.tar.gz -C /usr/local  2.配置用户环境变量      export ZK_HOME=/usr/local/zookeeper-3.4.11      export PATH=$PATH:$ZK_HOME/bin      export HBASE_HOME=/usr/local/hbase-1.3.1      export PATH=$PATH:$HBASE_HOME/bin      $ source ~/.bashrc  3.配置zookeeper(这里是三个节点的zookeeper)      3.1在master节点配置      $ cp zoo_sample.cfg zoo.cfg      #修改以下几个地方      dataDir=/usr/local/zookeeper/data      server.1=bigdata1:2888:3888      server.2=bigdata2:2888:3888      server.3=bigdata3:2888:3888      #修改日志的目录,日志类型      $ vim log4j.properties      zookeeper.root.logger=INFO, ROLLINGFILE      log4j.appender.ROLLINGFILE=org.apache.log4j.DailyRollingFileAppender      $ vim zkEnv.sh      ZOO_LOG_DIR="/usr/local/zookeeper-3.4.11/logs"      ZOO_LOG4J_PROP="INFO,ROLLINGFILE"      #创建所需的目录,三个节点都需要这么创建      $ sudo mkdir /usr/local/zookeeper-3.4.11/logs/      $ sudo chown -R hadoop.hadoop /usr/local/zookeeper-3.4.11/logs      $ sudo mkdir -p /usr/local/zookeeper/data      $ sudo chown -R hadoop.hadoop /usr/local/zookeeper/      #创建节点myid文件,其它的节点需要改变,这里的id对应着zoo.cfg里的id      $ sudo echo "1" >/usr/local/zookeeper/data/myid      #拷贝文件到另外的节点      $ sudo scp -r zookeeper-3.4.11/ bigdata2:/usr/local/      $ sudo scp -r zookeeper-3.4.11/ bigdata3:/usr/local/      $ sudo scp -r zookeeper bigdata2:/usr/local/      $ sudo scp -r zookeeper bigdata3:/usr/local/      #启动      $ zkServer.sh      #检查      $ ps -ef|grep zoo  4.配置hbase      $ vim hbase-site.xml      <configuration>      <property>          <name>hbase.tmp.dir</name>          <value>/usr/local/hbase/tmp</value>      </property>      <property>          <name>hbase.rootdir</name>          <value>hdfs://bigdata1:9000/hbase</value>      </property>      <property>          <name>hbase.cluster.distributed</name>          <value>true</value>      </property>      <property>          <name>hbase.zookper.quorum</name>          <value>bigdata1,bigdata2,bigdata3</value>      </property>      <property>          <name>hbase.zookeeper.property.dataDir</name>          <value>/usr/local/zookeeper/</value>      </property>      </configuration>      #配置slave节点      $ vim regionservers      bigdata2      bigdata3      #配置java和zookeeper,false是不使用hbase自带的zookeeper      $ vim hbase-env.sh      export JAVA_HOME=/usr/local/jdk1.8.0_144/      export HBASE_MANAGES_ZK=false      #默认的日志位置就在logs下,但安装包没有创建,这里我们手动创建下,每个节点都要创建      $ sudo mkdir /usr/local/hbase-1.3.1/logs      $ sudo chown -R hadoop.hadoop /usr/local/hbase-1.3.1/logs/  5.拷贝hbase文件到其它节点上      $ sudo scp -r hbase-1.3.1/ bigdata2:/usr/local/      $ sudo scp -r hbase-1.3.1/ bigdata3:/usr/local/  6.启动hbase      $ start-hbase.sh  7.查看日志输出,一次情况根据日志处理