A. hadoop配置伪分布式后localhost50030无法看,但是50070可以,这是怎么回事求解答。
hadoop2.0的web页面端口不是50030了,试试8088。
B. 查找hadoop的端口号
hdfs端口号在:$HADOOP_HOME/conf/core-site.xml中
mr端口号在:$HADOOP_HOME/conf/mapred-site.xml中
C. 在Cygwin下配置hadoop的伪分布式,启动hadoop之后无法启动HDFS,浏览器不能访问localhost:5079
从start-dfs.sh的输出结果来看,似乎HDFS的namenode,datanode和secondarynamenode进程都已经启动并运行了。也许是端口好不对。HDFS默认的管理web端口是50070。你可以试一试。
D. 怎么查看hadoop 9000端口
你说的9000应该指的是fs.default.name或fs.defaultFS(新版本)这一配置属性吧,这个属性是描述集群中NameNode结点的URI(包括协议、主机名称、端口号)
50070其实是在hdfs-site.xml里面的配置参数dfs.namenode.http-address,默认配置为dfs.namenode.http-address,这是HDFS web界面的监听端口
E. logs中hdfs的端口为何显示是53
HDFS是一种分布式文件系统,Hadoop集群借此来存储所有需要分析的输入数据以及由MapRece作业生成的任何输出结果。HDFS是一种基于数据块的文件系统,它跨越集群中的多个节点,并且使用用户数据可以存储在文件中。它提供了传统的分层文件组织,以便用户或应用程序可以操作(创建、重命名、移动或删除)文件和目录。它还提供了一个流接口,借助于该接口,可使用MapRece框架运行所选的任何应用程序。HDFS不支持设置硬链接或软链接,因此用户无法寻址到特定数据块或者覆盖文件。
F. hadoop5140端口是什么
端口都是自己在配置文件中手动配置的,我查了一下5140好像是一个日志收集模块的默认端口,应该不是hadoop和hadoop相关组件的端口号.
hadoop相关组件的端口号:
hdfs:50070
yarn:8088
RPC:8020
JournalNode:8485
zookeeper:2888,3888
zookeeper-quorum:2181
Spark master WEB:8080
Spark work WEB:8081
Spark master:7077
Spark历史服务器:18080
Spark对外默认服务端口:4040
希望我的回答对你有所帮助,谢谢
G. hadoop+9000+端口+没
你说的9000应该指的是fs.default.name或fs.defaultFS(新版本)这一配置属性吧,这个属性是描述集群中NameNode结点的URI(包括协议、主机名称、端口号)
50070其实是在hdfs-site.xml里面的配置参数dfs.namenode.http-address,默认配置为dfs.namenode.http-address,这是HDFS web界面的监听端口!