1. 安裝mysql
更換下載的地址為阿里。
~~~
cd /etc/apt
cp sources.list sources.list.bak
rm sources.list
vi sources.list
填寫內容
deb http://mirrors.aliyun.com/ubuntu/ xenial main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ xenial-security main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ xenial-updates main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ xenial-proposed main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ xenial-backports main restricted universe multiverse
保存
apt update
~~~
測試網絡是否通,如果連不通,檢查/etc/network/interfaces dns-nameservers服務器配置
~~~
ping www.baidu.com
~~~
# 安裝MySQL
安裝服務器
sudo apt update
sudo apt-get install mysql-server
安裝客戶端
sudo apt-get install mysql-client
sudo apt-get install libmysqlclient-dev
修改配置文件/etc/mysql/mysql.conf.d/mysqld.cnf
注釋掉這一行 bind-address = 127.0.0.1
進入mysql
~~~
mysql -u root -p
輸入密碼
~~~
執行以下3條語句
~~~
grant ALL PRIVILEGES on *.* to hive@'%' identified by'123456';
grant ALL PRIVILEGES ON *.* TO hive@'localhost' IDENTIFIED BY '123456'; FLUSH PRIVILEGES;
~~~
# Hive安裝
上傳包
將下載的hive安裝包上傳到/home/hadoop上
解壓
tar–zxvf apache-hive-1.2.1-bin.tar.gz
重命名包
mv apache-hive-1.2.1-bin hive-1.2.1
下載MySQL的驅動包mysql-connector-java-5.1.39.zip,將解壓出來的jar放入hive 的lib目錄下
# 配置hive環境變量
$vi .profile
?
注意CLASSPATH、PATH在原有配置上增加hive包路徑
export HIVE_HOME=/home/hadoop/hive-1.2.1
export PATH=$HIVE_HOME/bin:$PATH
export CLASSPATH=$CLASSPATH:$HIVE_HOME/lib
$source .profile
# 配置hive-env.sh
位置在hive的conf目錄下
cp hive-env.sh.template hive-env.sh
編輯hive-env.sh文件
HADOOP_HOME=/home/hadoop/hadoop-2.7.2
export HIVE_CONF_DIR=/home/hadoop/hive-1.2.1/conf
# HDFS存儲位置配置
Hive配置文件里要用到HDFS的一些路徑,需要手動創建如下路徑:
hdfs dfs -mkdir -p /hive/warehouse
hdfs dfs -mkdir -p /hive/logs
hdfs dfs -mkdir -p /hive/tmp
hdfs dfs -chmod 733 /hive/warehouse
hdfs dfs -chmod 733 /hive/logs
hdfs dfs -chmod 733 /hive/tmp
創建本地的目錄
mkdir -p /home/hadoop/hive-1.2.1/hivedata/logs
# 配置hive-site.xml
cp hive-default.xml.template hive-site.xml
編輯hive-site.xml文件
~~~
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://master:3306/metastore?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hive</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/hive/warehouse</value>
</property>
<property>
<name>hive.exec.scratchdir</name>
<value>/hive/tmp</value>
</property>
~~~
# 配置log4j
創建配置文件:
cp hive-exec-log4j.properties.template hive-exec-log4j.properties
cp hive-log4j.properties.template hive-log4j.properties
修改上面兩個文件中的配置:
hive.log.dir=/home/hadoop/hive-1.2.1/logs
log4j.appender.EventCounter=org.apache.hadoop.log.metrics.EventCounter
# 啟動hive
初始化mysql數據庫
schematool --dbType mysql -initSchema
啟動hive
hive
測試hive
~~~
hive> create TABLE test( id INT, name string);
hive> SHOW TABLES;
~~~
Hive的安裝--遠程模式安裝部署
scp -r hive-1.2.1 hadoop@slave1:/home/hadoop/
按照master上的配置修改其他節點上的.profile文件,添加hive的配置
修改hive-size.xml文件,刪除如下的配置:
~~~
javax.jdo.option.ConnectionURL
javax.jdo.option.ConnectionDriverName
javax.jdo.option.ConnectionUserName
javax.jdo.option.ConnectionPassword
~~~
修改hive-size.xml文件,添加如下的配置:
~~~
<property>
<name>hive.metastore.uris</name><value>thrift://192.168.80.3:9083</value>
</property>
~~~
在master上執行,這是后臺運行進程,運行完后提升starting... , 可以ctrl+c退出。
~~~
hive --service metastore &
~~~
測試
在slave上運行
hive>show databases;
hive>create TABLE test2( id INT, name string);
hive>show tables;
顯示
test1
test2
在masters上或者其他slave上也可以查看到新建的表
# 其他注意事項
重啟mysql服務。
sudo service mysql restart
sudo service mysql start
sudo service mysql stop
賦予hadoop用戶對hive目錄的讀寫權限
sudo chown hadoop:hadoop hive-1.2.1 -r(-r代表遞歸)
- 空白目錄
- 第一章 Linux虛擬機安裝
- 第二章 SSH配置
- 第三章 jdk配置
- 第四章 Hadoop配置-單機
- 第五章 Hadoop配置-集群
- 第六章 HDFS
- 第七章 MapReduce
- 7.1 MapReduce(上)
- 7.2 MapReduce(下)
- 7.3 MapReduce實驗1 去重
- 7.4 MapReduce實驗2 單例排序
- 7.5 MapReduce實驗3 TopK
- 7.6 MapReduce實驗4 倒排索引
- 第八章 Hive
- Hive安裝
- 數據定義
- 數據操作
- 第九章 HBase
- 第十章 SaCa RealRec數據科學平臺
- 第十一章 Spark Core
- 第十二章 Spark Streaming
- 第十章 Spark測試題