❶ 連接hiveserver2-Hive用戶配置
前幾天初次接觸Hive,需要連接hiveserver2進行一些操作,發現問題似乎並不是很簡單,查了好多資料才解決了問題,特做記錄。
操作之前做必要假設:
下面正式開始
其中, hadoopuser 為上面提到的運行Hadoop namenode進程的用戶名。
使用beeline連接hiveserver2
這里的用戶名 hive2 和密碼 hive2 自然便是前面在hive的配置文件 hive-site.xml 中配置的用戶名和密碼啦
先啟動beeline
然後在beeline中連接hiveserver2:
接著輸入hive用戶名和密碼即可。
怎麼說呢,這篇博客質量非常一般,很不符合我追根問底的性格,不說為何直接給配置,但是為什麼還要寫出來呢?因為我發現盲目追求質量,對每一個概念都解釋說明得比較清楚確實很花時間,所以導致我最近雖然有很多想寫的但是卻不敢寫出來。一方面是怕自己寫得不好,誤導別人,一方面是確實沒有太多時間打磨(也可能是我太懶了,蛤蛤蛤蛤)。
不過細細一想好像違背了自己當初記錄工作、學習中的小事的初衷。所以我單方面決定以後的博客就隨意一點啦,想寫啥寫啥(???),不過也會穿插一些經過自己仔細打磨的"私貨"。
所以要是有哪裡表述得不對的地方還請大家多多包含,也歡迎各位不吝賜教 :smile:
❷ hadoop hue配置文件怎樣設置加密密碼
ue是一個開源的Apache Hadoop UI系統,最早是由Cloudera Desktop演化而來,由Cloudera貢獻給開源社區,它是基於Python Web框架Django實現的。通過使用Hue我們可以在瀏覽器端的Web控制台上與Hadoop集群進行交互來分析處理數據,例如操作HDFS上的數據,運行MapRece Job等等。很早以前就聽說過Hue的便利與強大,一直沒能親自嘗試使用,下面先通過官網給出的特性,通過翻譯原文簡單了解一下Hue所支持的功能特性集合:
默認基於輕量級sqlite資料庫管理會話數據,用戶認證和授權,可以自定義為MySQL、Postgresql,以及Oracle
基於文件瀏覽器(File Browser)訪問HDFS
基於Hive編輯器來開發和運行Hive查詢
支持基於Solr進行搜索的應用,並提供可視化的數據視圖,以及儀錶板(Dashboard)
支持基於Impala的應用進行互動式查詢
支持Spark編輯器和儀錶板(Dashboard)
支持Pig編輯器,並能夠提交腳本任務
支持Oozie編輯器,可以通過儀錶板提交和監控Workflow、Coordinator和Bundle
支持HBase瀏覽器,能夠可視化數據、查詢數據、修改HBase表
支持Metastore瀏覽器,可以訪問Hive的元數據,以及HCatalog
支持Job瀏覽器,能夠訪問MapRece Job(MR1/MR2-YARN)
支持Job設計器,能夠創建MapRece/Streaming/Java Job
支持Sqoop 2編輯器和儀錶板(Dashboard)
支持ZooKeeper瀏覽器和編輯器
支持MySql、PostGresql、Sqlite和Oracle資料庫查詢編輯器
1 Hue安裝(參考官網:http://gethue.com/how-to-build-hue-on-ubuntu-14-04-trusty/)
1.1 在git上下載HUE源碼或者在它的官網下載(如果已經安裝git可省略第一步)
sudo apt-get install git
git clone https://github.com/cloudera/hue.git
1.2 需要安裝一些依賴的軟體包
官網給出了一些,如果環境不一樣,靈活調整,GIT上面給出的依賴文件列表: