当前位置:首页 » 数据仓库 » 如何配置hive
扩展阅读
webinf下怎么引入js 2023-08-31 21:54:13
堡垒机怎么打开web 2023-08-31 21:54:11

如何配置hive

发布时间: 2022-02-02 16:17:05

Ⅰ hivemetastore配置参数连接哪个数据

hive配置远程metastore的方法:
1)首先配置hive使用本地Mysql存储metastore(服务器A 111.121.21.23)(也可以使用远程mysql存储)
2)配置完成后,在服务器A启动服务:/etc/init.d/Hadoop-hive-metastore start (默认监听端口是:9083)
3)配置hive客户端,修改hive-site.xml:(服务器B-需要有hadoop环境)
<property>
<name>hive.metastore.local</name>
<value>false</value>
<description>controls whether to connect to remote metastore server or open a new metastore server in Hive Client JVM</description>
</property>
<property>
<name>hive.metastore.uris</name>
<value>thrift://127.0.0.1:9083</value>
<description></description>
</property>
4)hive 执行测试hql

Ⅱ hive2.0怎么配置hpl/sql 与hive 的连接

你网络搜索一下"hive squirrel sql client lxw的大数据田地",
里面详细介绍了连接Hive的客户端界面工具–SQuirrel SQL Client的详细用法。

Ⅲ hive里怎么设置让参数在hive运行时就启用,或者说在哪配置默认设置

最简单的办法,放到hive-site.xml里面

Ⅳ 如何彻底删除hive以及配置好的环境变量

Copyright © 1999-2020, CSDN.NET, All Rights Reserved

搜索博文/帖子/用户
登录

奇子君
关注
hive 设置环境变量的方法总结 原创
2020-02-19 14:02:47

奇子君

码龄10年

关注
Hive提供三种可以改变环境变量的方法:

1.配置文件:修改${HIVE_HOME}/conf/hive-site.xml配置文件;

在Hive中,所有的默认配置都在${HIVE_HOME}/conf/hive-default.xml文件中,如果需要对默认的配置进行修改,可以创建一个hive-site.xml文件,放在${HIVE_HOME}/conf目录下。里面可以对一些配置进行个性化设定。在hive-site.xml的格式如下:

绝大多少配置都是在xml文件里面配置的,这里做的配置都全局用户都生效。用户自定义配置会覆盖默认配置。另外,Hive也会读入Hadoop的配置,因为Hive是作为Hadoop的客户端启动的,Hive的配置会覆盖Hadoop的配置。

2. 命令行参数:在启动Hive cli的时候进行配置,可以在命令行添加-hiveconf param=value来设定参数,例如:

hive --hiveconf maprece.job.queuename=queue

在Hive中所有MapRece作业都提交到队列queue中。这一设定对本次启动的会话有效,下次启动需要重新配置。

3. 参数申明:在已经进入cli时进行参数声明,可以在HQL中使用SET关键字设定参数,例如:

hive> set maprece.job.queuename=queue;

这种配置也是对本次启动的会话有效,下次启动需要重新配置。

上述三种设定方式的优先级依次递增。即参数声明覆盖命令行参数,命令行参数覆盖配置文件设定。

Ⅳ hive怎么配置mysql的配置

hive支持jdbc和odbc数据源连接,可以连接很多种数据库,mysql、oracle等等等等,它自己的metastore用的就是derbyDB。

Ⅵ centos7中hive配置怎么搞这些步骤

可以看下我的博客:网页链接

Ⅶ 请详细描述安装配置hive的步骤

Hive 安装配置详细 定义 Hive 是基于 Hadoop 构建的一套数据仓库分析系统,它提供了丰富的 SQL 查询方式来分析存储在 Hadoop 分布式文件系统中的数据.Hive

Ⅷ 如何在伪分布式环境下安装配置hive

STEP 1:安装JDK
1.配置安装JDK,将JDK解压,
tar -zxvf jdk-8u-45-linux-i586.tar.gz /usr/lib/jkd/
2.再配置/etc/profile文件
sudo gedit /etc/profile

3.配置默认JDK版本
为了将我们安装的JDK设置为默认JDK版本,还要进行如下工作。
执行代码:
sudo update-alternatives --install /usr/bin/java java /usr/lib/jdk/jdk1.8.0_45/bin/java 300
sudo update-alternatives --install /usr/bin/javac javac /usr/lib/jdk/jdk1.8.0_45/bin/javac 300
sudo update-alternatives --config java
测试:
java -version

STEP 2:安装Hadoop
有些问题需要解决:
a.若系统重启之后中途发现jps时,namenode与datanode未能正常启动.
解决:可能是因为重启等原因,sbin/start-dfs.sh要重新运行一下。
STEP 3:安装HIVE
安装的问题不大,一步步解决即可。
但最后运行hive指令后,再运行show databases; 可能出现一些问题(没有数据库数据显示)并提示:
Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D)
这种原因是因为没有在HIVE_HOME/conf/hive-site.xml文件中指定绝对路径导致的。
解决如下:
a. 新建iotmp文件夹,即 /usr/local/hive/iotmp
b. 在文件hive-site.xml中将${system:java.io.tmpdir}/${system:user.name}换成/usr/local/hive/iotmp
重启Hive即可。
STEP 4:启动HWI

Ⅸ hive的安装配置

你可以下载一个已打包好的hive稳定版,也可以下载源码自己build一个版本。
安装需要 java 1.6,java 1.7或更高版本。 Hadoop 2.x或更高, 1.x. Hive 0.13 版本也支持 0.20.x, 0.23.x Linux,mac,windows操作系统。以下内容适用于linux系统。 安装打包好的hive
需要先到apache下载已打包好的hive镜像,然后解压开该文件 $tar-xzvfhive-x.y.z.tar.gz设置hive环境变量 $cdhive-x.y.z$exportHIVE_HOME={{pwd}}设置hive运行路径 $exportPATH=$HIVE_HOME/bin:$PATH编译Hive源码
下载hive源码
此处使用maven编译,需要下载安装maven。
以Hive 0.13版为例 编译hive 0.13源码基于hadoop 0.23或更高版本
$cdhive$mvncleaninstall-Phadoop-2,dist$cdpackaging/target/apache-hive-{version}-SNAPSHOT-bin/apache-hive-{version}-SNAPSHOT-bin$lsLICENSENOTICEREADME.txtRELEASE_NOTES.txtbin/(alltheshellscripts)lib/(requiredjarfiles)conf/(configurationfiles)examples/(sampleinputandqueryfiles)hcatalog/(hcataloginstallation)scripts/(upgradescriptsforhive-metastore) 编译hive 基于hadoop 0.20
$cdhive$antcleanpackage$cdbuild/dist#lsLICENSENOTICEREADME.txtRELEASE_NOTES.txtbin/(alltheshellscripts)lib/(requiredjarfiles)conf/(configurationfiles)examples/(sampleinputandqueryfiles)hcatalog/(hcataloginstallation)scripts/(upgradescriptsforhive-metastore) 运行hive
Hive运行依赖于hadoop,在运行hadoop之前必需先配置好hadoopHome。 exportHADOOP_HOME=<hadoop-install-dir>在hdfs上为hive创建 mp目录和/user/hive/warehouse(akahive.metastore.warehouse.dir) 目录,然后你才可以运行hive。
在运行hive之前设置HiveHome。 $exportHIVE_HOME=<hive-install-dir>在命令行窗口启动hive $$HIVE_HOME/bin/hive若执行成功,将看到类似内容如图所示

Ⅹ websphere 怎么配置hive的数据源

展开全部
第一步:配置JDBC提供程序.
在左侧的菜单->选择
资源->JDBC->JDBC提供程序->新建
作用域:使用默认即可.
数据库类型:根据你自己的需求选择,有Sql
Server,DB2,Oracle.SyBase等等。这里我选择Oracle
实现类型:连接数据源.
名称:Oracle
JDBC
Driver(可以自己定义)
描述
:可以自己定义.
点击下一步.
这一步是选择驱动包所在的路径..
类路径:${ORACLE_JDBC_DRIVER_PATH}/ojdbc6.jar
这个是Oracle驱动的地址..
也可以指定自己的驱动jar包地址..
另存为
WebSphere
变量
${ORACLE_JDBC_DRIVER_PATH}

ojdbc6.jar
的目录位置
下一步
点击完成.JDBC提供程序就配置完成了.
第二步:配置数据源.
从左侧菜单->选择数据源->新建按钮
输入基本数据源信息
作用域:(选择默认)
cells:WpsCell01:nodes:WpsNode01:servers:server1
数据源名称:这里需要指定数据源名称.可以随便定义.然后记住就行了.我这里定义JDBCDataSource.
JNDI
名称:这里是指你在Java程序中指定的JNDI接口名称..这个一定要与Java程序中定义的JNDI名称一致,否则Java程序中不能连接到WebSphere中配置的数据源.
WebSphere数据源的配置:
配置好之后,点击下一步.选择
JDBC
提供程序
这一步则是选择刚刚配置的JDBC提供程序.
创建新的
JDBC
提供程序
选择现有的
JDBC
提供程序
然后下拉框中选择
Oracle
JDBC
Driver
.
然后下一步
填写URL地址URL
:jdbc:oracle:thin:@localhost:1521:ORCL
点击下一步设置安全性别名.
就是配置连接数据库的用户名和密码.
右侧-选择
JAAS

J2C
认证数据
点击新建。别名:databaseJ2C(可以随便定义)
用户标识:scott(数据库的用户名.)
密码:tiger(数据库的密码).
描述:可以不输入.
点击,应用->点击完成.
设置好认证信息之后.
回到设置安全性别名.选择刚刚设置的认证信息即可.
点击完成.
第三步测试数据源是否连接成功.
从左侧菜单->资源->数据源,找到刚刚配置好的数据源信息.
选中复选框.
点击测试连接按钮.
测试结果:
在节点
WpsNode01
上的服务器
server1
上,对数据源
JDBCDataSource执行的测试连接操作是成功的。