Ⅰ hivemetastore配置參數連接哪個數據
hive配置遠程metastore的方法:
1)首先配置hive使用本地Mysql存儲metastore(伺服器A 111.121.21.23)(也可以使用遠程mysql存儲)
2)配置完成後,在伺服器A啟動服務:/etc/init.d/Hadoop-hive-metastore start (默認監聽埠是:9083)
3)配置hive客戶端,修改hive-site.xml:(伺服器B-需要有hadoop環境)
<property>
<name>hive.metastore.local</name>
<value>false</value>
<description>controls whether to connect to remote metastore server or open a new metastore server in Hive Client JVM</description>
</property>
<property>
<name>hive.metastore.uris</name>
<value>thrift://127.0.0.1:9083</value>
<description></description>
</property>
4)hive 執行測試hql
Ⅱ hive2.0怎麼配置hpl/sql 與hive 的連接
你網路搜索一下"hive squirrel sql client lxw的大數據田地",
裡面詳細介紹了連接Hive的客戶端界面工具–SQuirrel SQL Client的詳細用法。
Ⅲ hive里怎麼設置讓參數在hive運行時就啟用,或者說在哪配置默認設置
最簡單的辦法,放到hive-site.xml裡面
Ⅳ 如何徹底刪除hive以及配置好的環境變數
Copyright © 1999-2020, CSDN.NET, All Rights Reserved
搜索博文/帖子/用戶
登錄
奇子君
關注
hive 設置環境變數的方法總結 原創
2020-02-19 14:02:47
奇子君
碼齡10年
關注
Hive提供三種可以改變環境變數的方法:
1.配置文件:修改${HIVE_HOME}/conf/hive-site.xml配置文件;
在Hive中,所有的默認配置都在${HIVE_HOME}/conf/hive-default.xml文件中,如果需要對默認的配置進行修改,可以創建一個hive-site.xml文件,放在${HIVE_HOME}/conf目錄下。裡面可以對一些配置進行個性化設定。在hive-site.xml的格式如下:
絕大多少配置都是在xml文件裡面配置的,這里做的配置都全局用戶都生效。用戶自定義配置會覆蓋默認配置。另外,Hive也會讀入Hadoop的配置,因為Hive是作為Hadoop的客戶端啟動的,Hive的配置會覆蓋Hadoop的配置。
2. 命令行參數:在啟動Hive cli的時候進行配置,可以在命令行添加-hiveconf param=value來設定參數,例如:
hive --hiveconf maprece.job.queuename=queue
在Hive中所有MapRece作業都提交到隊列queue中。這一設定對本次啟動的會話有效,下次啟動需要重新配置。
3. 參數申明:在已經進入cli時進行參數聲明,可以在HQL中使用SET關鍵字設定參數,例如:
hive> set maprece.job.queuename=queue;
這種配置也是對本次啟動的會話有效,下次啟動需要重新配置。
上述三種設定方式的優先順序依次遞增。即參數聲明覆蓋命令行參數,命令行參數覆蓋配置文件設定。
Ⅳ hive怎麼配置mysql的配置
hive支持jdbc和odbc數據源連接,可以連接很多種資料庫,mysql、oracle等等等等,它自己的metastore用的就是derbyDB。
Ⅵ centos7中hive配置怎麼搞這些步驟
可以看下我的博客:網頁鏈接
Ⅶ 請詳細描述安裝配置hive的步驟
Hive 安裝配置詳細 定義 Hive 是基於 Hadoop 構建的一套數據倉庫分析系統,它提供了豐富的 SQL 查詢方式來分析存儲在 Hadoop 分布式文件系統中的數據.Hive
Ⅷ 如何在偽分布式環境下安裝配置hive
STEP 1:安裝JDK
1.配置安裝JDK,將JDK解壓,
tar -zxvf jdk-8u-45-linux-i586.tar.gz /usr/lib/jkd/
2.再配置/etc/profile文件
sudo gedit /etc/profile
3.配置默認JDK版本
為了將我們安裝的JDK設置為默認JDK版本,還要進行如下工作。
執行代碼:
sudo update-alternatives --install /usr/bin/java java /usr/lib/jdk/jdk1.8.0_45/bin/java 300
sudo update-alternatives --install /usr/bin/javac javac /usr/lib/jdk/jdk1.8.0_45/bin/javac 300
sudo update-alternatives --config java
測試:
java -version
STEP 2:安裝Hadoop
有些問題需要解決:
a.若系統重啟之後中途發現jps時,namenode與datanode未能正常啟動.
解決:可能是因為重啟等原因,sbin/start-dfs.sh要重新運行一下。
STEP 3:安裝HIVE
安裝的問題不大,一步步解決即可。
但最後運行hive指令後,再運行show databases; 可能出現一些問題(沒有資料庫數據顯示)並提示:
Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D)
這種原因是因為沒有在HIVE_HOME/conf/hive-site.xml文件中指定絕對路徑導致的。
解決如下:
a. 新建iotmp文件夾,即 /usr/local/hive/iotmp
b. 在文件hive-site.xml中將${system:java.io.tmpdir}/${system:user.name}換成/usr/local/hive/iotmp
重啟Hive即可。
STEP 4:啟動HWI
Ⅸ hive的安裝配置
你可以下載一個已打包好的hive穩定版,也可以下載源碼自己build一個版本。
安裝需要 java 1.6,java 1.7或更高版本。 Hadoop 2.x或更高, 1.x. Hive 0.13 版本也支持 0.20.x, 0.23.x Linux,mac,windows操作系統。以下內容適用於linux系統。 安裝打包好的hive
需要先到apache下載已打包好的hive鏡像,然後解壓開該文件 $tar-xzvfhive-x.y.z.tar.gz設置hive環境變數 $cdhive-x.y.z$exportHIVE_HOME={{pwd}}設置hive運行路徑 $exportPATH=$HIVE_HOME/bin:$PATH編譯Hive源碼
下載hive源碼
此處使用maven編譯,需要下載安裝maven。
以Hive 0.13版為例 編譯hive 0.13源碼基於hadoop 0.23或更高版本
$cdhive$mvncleaninstall-Phadoop-2,dist$cdpackaging/target/apache-hive-{version}-SNAPSHOT-bin/apache-hive-{version}-SNAPSHOT-bin$lsLICENSENOTICEREADME.txtRELEASE_NOTES.txtbin/(alltheshellscripts)lib/(requiredjarfiles)conf/(configurationfiles)examples/(sampleinputandqueryfiles)hcatalog/(hcataloginstallation)scripts/(upgradescriptsforhive-metastore) 編譯hive 基於hadoop 0.20
$cdhive$antcleanpackage$cdbuild/dist#lsLICENSENOTICEREADME.txtRELEASE_NOTES.txtbin/(alltheshellscripts)lib/(requiredjarfiles)conf/(configurationfiles)examples/(sampleinputandqueryfiles)hcatalog/(hcataloginstallation)scripts/(upgradescriptsforhive-metastore) 運行hive
Hive運行依賴於hadoop,在運行hadoop之前必需先配置好hadoopHome。 exportHADOOP_HOME=<hadoop-install-dir>在hdfs上為hive創建 mp目錄和/user/hive/warehouse(akahive.metastore.warehouse.dir) 目錄,然後你才可以運行hive。
在運行hive之前設置HiveHome。 $exportHIVE_HOME=<hive-install-dir>在命令行窗口啟動hive $$HIVE_HOME/bin/hive若執行成功,將看到類似內容如圖所示
Ⅹ websphere 怎麼配置hive的數據源
展開全部
第一步:配置JDBC提供程序.
在左側的菜單->選擇
資源->JDBC->JDBC提供程序->新建
作用域:使用默認即可.
資料庫類型:根據你自己的需求選擇,有Sql
Server,DB2,Oracle.SyBase等等。這里我選擇Oracle
實現類型:連接數據源.
名稱:Oracle
JDBC
Driver(可以自己定義)
描述
:可以自己定義.
點擊下一步.
這一步是選擇驅動包所在的路徑..
類路徑:${ORACLE_JDBC_DRIVER_PATH}/ojdbc6.jar
這個是Oracle驅動的地址..
也可以指定自己的驅動jar包地址..
另存為
WebSphere
變數
${ORACLE_JDBC_DRIVER_PATH}
的
ojdbc6.jar
的目錄位置
下一步
點擊完成.JDBC提供程序就配置完成了.
第二步:配置數據源.
從左側菜單->選擇數據源->新建按鈕
輸入基本數據源信息
作用域:(選擇默認)
cells:WpsCell01:nodes:WpsNode01:servers:server1
數據源名稱:這里需要指定數據源名稱.可以隨便定義.然後記住就行了.我這里定義JDBCDataSource.
JNDI
名稱:這里是指你在Java程序中指定的JNDI介面名稱..這個一定要與Java程序中定義的JNDI名稱一致,否則Java程序中不能連接到WebSphere中配置的數據源.
WebSphere數據源的配置:
配置好之後,點擊下一步.選擇
JDBC
提供程序
這一步則是選擇剛剛配置的JDBC提供程序.
創建新的
JDBC
提供程序
選擇現有的
JDBC
提供程序
然後下拉框中選擇
Oracle
JDBC
Driver
.
然後下一步
填寫URL地址URL
:jdbc:oracle:thin:@localhost:1521:ORCL
點擊下一步設置安全性別名.
就是配置連接資料庫的用戶名和密碼.
右側-選擇
JAAS
-
J2C
認證數據
點擊新建。別名:databaseJ2C(可以隨便定義)
用戶標識:scott(資料庫的用戶名.)
密碼:tiger(資料庫的密碼).
描述:可以不輸入.
點擊,應用->點擊完成.
設置好認證信息之後.
回到設置安全性別名.選擇剛剛設置的認證信息即可.
點擊完成.
第三步測試數據源是否連接成功.
從左側菜單->資源->數據源,找到剛剛配置好的數據源信息.
選中復選框.
點擊測試連接按鈕.
測試結果:
在節點
WpsNode01
上的伺服器
server1
上,對數據源
JDBCDataSource執行的測試連接操作是成功的。