A. hadoop配置偽分布式後localhost50030無法看,但是50070可以,這是怎麼回事求解答。
hadoop2.0的web頁面埠不是50030了,試試8088。
B. 查找hadoop的埠號
hdfs埠號在:$HADOOP_HOME/conf/core-site.xml中
mr埠號在:$HADOOP_HOME/conf/mapred-site.xml中
C. 在Cygwin下配置hadoop的偽分布式,啟動hadoop之後無法啟動HDFS,瀏覽器不能訪問localhost:5079
從start-dfs.sh的輸出結果來看,似乎HDFS的namenode,datanode和secondarynamenode進程都已經啟動並運行了。也許是埠好不對。HDFS默認的管理web埠是50070。你可以試一試。
D. 怎麼查看hadoop 9000埠
你說的9000應該指的是fs.default.name或fs.defaultFS(新版本)這一配置屬性吧,這個屬性是描述集群中NameNode結點的URI(包括協議、主機名稱、埠號)
50070其實是在hdfs-site.xml裡面的配置參數dfs.namenode.http-address,默認配置為dfs.namenode.http-address,這是HDFS web界面的監聽埠
E. logs中hdfs的埠為何顯示是53
HDFS是一種分布式文件系統,Hadoop集群藉此來存儲所有需要分析的輸入數據以及由MapRece作業生成的任何輸出結果。HDFS是一種基於數據塊的文件系統,它跨越集群中的多個節點,並且使用用戶數據可以存儲在文件中。它提供了傳統的分層文件組織,以便用戶或應用程序可以操作(創建、重命名、移動或刪除)文件和目錄。它還提供了一個流介面,藉助於該介面,可使用MapRece框架運行所選的任何應用程序。HDFS不支持設置硬鏈接或軟鏈接,因此用戶無法定址到特定數據塊或者覆蓋文件。
F. hadoop5140埠是什麼
埠都是自己在配置文件中手動配置的,我查了一下5140好像是一個日誌收集模塊的默認埠,應該不是hadoop和hadoop相關組件的埠號.
hadoop相關組件的埠號:
hdfs:50070
yarn:8088
RPC:8020
JournalNode:8485
zookeeper:2888,3888
zookeeper-quorum:2181
Spark master WEB:8080
Spark work WEB:8081
Spark master:7077
Spark歷史伺服器:18080
Spark對外默認服務埠:4040
希望我的回答對你有所幫助,謝謝
G. hadoop+9000+埠+沒
你說的9000應該指的是fs.default.name或fs.defaultFS(新版本)這一配置屬性吧,這個屬性是描述集群中NameNode結點的URI(包括協議、主機名稱、埠號)
50070其實是在hdfs-site.xml裡面的配置參數dfs.namenode.http-address,默認配置為dfs.namenode.http-address,這是HDFS web界面的監聽埠!