當前位置:首頁 » 服務存儲 » 大數據存儲考試題
擴展閱讀
webinf下怎麼引入js 2023-08-31 21:54:13
堡壘機怎麼打開web 2023-08-31 21:54:11

大數據存儲考試題

發布時間: 2023-04-22 23:13:27

『壹』 單招大數據考試基本上考什麼題

選擇禪雀題,填空題,解答題。
單招只招語文,數學,英語及綜合素質四科,其中容易題佔70%左右,其中易中難比例都約為7比2比1,試題雖圓襲旁簡答,但是人橘橡數很多,競爭也是比較大的。
綜合素質考核分為上機考試和面試兩部分,上機考試就是在考生計算機上答題,面試則由專業面試官負責,主要考察學生的臨場反應能力、語言表達能力、心理素質、知識儲備量等。

『貳』 大數據面試題及答案誰能分享一下

大數據時代才剛剛開始。隨著越來越多的公司傾向於大數據運營,人才需求達到歷史最高水平。這對你意味著什麼?如果您想在任何大數據崗位上工作,它只能轉化為更好的機會。您可以選擇成為數據分析師,數據科學家,資料庫管理員,大數據工程師,Hadoop大數據工程師等。在本文中,慧都網將介紹與大數據相關的前10大數據面試問題。

以下是最重要的大數據面試問題以及具體問題的詳細解答。對於更廣泛的問題,答案取決於您的經驗,我們將分享一些如何回答它們的提示。

10個大數據面試入門級問題

無論何時進行大數據采訪,采訪者都可能會詢問一些基本問題。無論您是大數據領域的新手還是經驗豐富,都需要基礎知識。因此,讓我們來介紹一些常見的基本大數據面試問題以及破解大數據面試的答案。

1.您對「大數據」一詞有何了解?

答:大數據是與復雜和大型數據集相關的術語。關系資料庫無法處理大數據,這就是使用特殊工具和方法對大量數據執行操作的原因。大數據使公司能夠更好地了解其業務,並幫助他們從定期收集的非結構化和原始數據中獲取有意義的信息。大數據還允許公司採取數據支持的更好的業務決策。

2.大數據的五個V是什麼?

答:大數據的五個V如下:

  • Volume -Volume表示體積大,即以高速率增長的數據量,即以PB為單位的數據量

  • Velocity -Velocity是數據增長的速度。社交媒體在數據增長速度方面發揮著重要作用。

  • Variety -Variety是指不同的數據類型,即各種數據格式,如文本,音頻,視頻等。

  • Veracity -Veracity是指可用數據的不確定性。由於大量數據帶來不完整性和不一致性,因此產生了准確性。

  • Value -價值是指將數據轉化為價值。通過將訪問的大數據轉換為價值,企業可以創造收入。

  • YARN的兩個主要組成部分:

  • ResourceManager-該組件接收處理請求,並根據處理需要相應地分配給各個NodeManager。

  • NodeManager-它在每個單個數據節點上執行任務


  • 7.為什麼Hadoop可用於大數據分析?

    答:由於數據分析已成為業務的關鍵參數之一,因此,企業正在處理大量結構化,非結構化和半結構化數據。在Hadoop主要支持其功能的情況下,分析非結構化數據非常困難

  • 存儲

  • 處理

  • 數據採集

  • 此外,Hadoop是開源的,可在商用硬體上運行。因此,它是企業的成本效益解決方案。


    8.什麼是fsck?

    答:fsck代表文件系統檢查。它是HDFS使用的命令。此命令用於檢查不一致性以及文件中是否存在任何問題。例如,如果文件有任何丟失的塊,則通過此命令通知HDFS。


    9. NAS(網路附加存儲)和HDFS之間的主要區別是什麼?

    答:NAS(網路附加存儲)和HDFS之間的主要區別 -

  • HDFS在一組計算機上運行,而NAS在單個計算機上運行。因此,數據冗餘是HDFS中的常見問題。相反,復制協議在NAS的情況下是不同的。因此,數據冗餘的可能性要小得多。

  • 在HDFS的情況下,數據作為數據塊存儲在本地驅動器中。在NAS的情況下,它存儲在專用硬體中。


  • 10.格式化NameNode的命令是什麼?

    答:$ hdfs namenode -format。

    歡迎咨詢慧都在線客服,我們將幫您轉接大數據專家團隊,並發送相關資料給您!

    以上就是大數據面試題及答案,希望我的回答對您有幫助!

『叄』 大數據面試題以及答案整理(一)

一、Map端的shuffle

Map端會處理輸入數據並產生中間結果,這個中間結果會寫到本地磁碟,而不是HDFS。每昌悄個Map的輸出會先寫到內存緩沖區中,當寫入的數據達到設定的閾值時,系統將會啟動一個線程將緩沖區的數據寫到磁碟,這個過程叫做spill。

在spill寫入之前,會先進行二次排序,首先根據數據所屬的partition進行排序,然後每個partition中的數據再按key來排序。partition的目的是將記錄劃分到不同的Recer上去,以期望能夠達到負載均衡,以後的Recer就會根據partition來讀取自己對應的數據。接著運行combiner(如果設置了的話),combiner的本質也是一個Recer,其目的是對將要寫入到磁碟上的文件先進行一次處理,這樣,寫入到磁碟的數據量就會減少。最後將數據寫到本地磁碟產生spill文件(spill文件保存在{mapred.local.dir}指定的目錄中,Map任務結束後就會被刪除)。

最後,每個Map任務可能產生多個spill文件,在每個Map任務完成前,會通過多路歸並演算法將這些spill文件歸並成一個文件。至此,Map的shuffle過程就結束了。

二、Rece端的shuffle

Rece端的shuffle主要包括三個階段,、sort(merge)和rece。

首先要將Map端產生的輸出文件拷貝到Rece端,但每個Recer如何知道自己應該處理哪些數據呢?因為Map端進行partition的時候,實際上就相當於指定了每個Recer要處理的數據(partition就對應了Recer),所以Recer在拷貝數據的畝空時候只需拷貝與自己對應的partition中的數據即可。每個Recer會處理一個或者多個partition,但需要先將自己對應的partition中的數據從每個Map的輸出結果中拷貝過來。

接下來就是sort階段,也稱為merge階段,因為這個階段的主要工作是執行了歸並排序。從Map端拷貝到Rece端的數據都是有序的,所以很適合歸並排序。最終在Rece端生成一個較大的文件作為Rece的輸入。

最後就是Rece過程了,在這個過程中產生了最終的輸出結果,並將其寫到HDFS上。

 讀:

1、跟namenode通信查詢元數據,找到文件塊所在的迅迅瞎datanode伺服器

2、挑選一台datanode(就近原則,然後隨機)伺服器,請求建立socket流

3、datanode開始發送數據(從磁碟裡面讀取數據放入流,以packet為單位來做校驗)

4、客戶端以packet為單位接收,現在本地緩存,然後寫入目標文件

  寫:

1、與namenode通信請求上傳文件,namenode檢查目標文件是否已存在,父目錄是否存在

2、namenode返回是否可以上傳

3、client請求第一個 block該傳輸到哪些datanode伺服器上

4、namenode返回3個datanode伺服器ABC

5、client請求3台dn中的一台A上傳數據(本質上是一個RPC調用,建立pipeline),A收到請求會繼續調用B,然後B調用C,將真個pipeline建立完成,逐級返回客戶端

6、client開始往A上傳第一個block(先從磁碟讀取數據放到一個本地內存緩存),以packet為單位,A收到一個packet就會傳給B,B傳給C;A每傳一個packet會放入一個應答隊列等待應答

7、當一個block傳輸完成之後,client再次請求namenode上傳第二個block的伺服器

『肆』 最新雲計算大數據試題

雲計算與大數據概述
雲計算(cloud computing)是基於互聯網的相關服務的增加、使用和交付模式,通常涉及通過互聯網來提供動態易擴展且經常是虛擬化的資源。雲是網路、互聯網的一種比喻說法。過去在圖中往往用雲來表示電信網,後來也用來表示互聯網和底層基礎設施的抽象。狹義雲計算指IT基礎設施的交付和使用模式,指通過網路以按需、易擴展的方式獲得所需資源;廣義雲計算指服務的交付和使用模式,指通過網路以按需、易擴展的方式獲得所需服務。這種服務可以是IT和軟體、互聯網轎盯相關,也可是其他服務。它意味著計算能力也可作為一種商品通過互聯網進行流通。
大數據(big data),或稱海量數據,指的是所涉及的資料量規模巨大到無法透過目前主流軟體工具,在合理時間內達到擷取、管理、處理、並整理成為幫助企業經營決策更積極目的的資訊。大數據的4V特點:Volume、Velocity、Variety、Veracity。
從技術上看,大數據與雲計算的關系就像一枚硬幣的正反面一樣密不可分。大數據必然無法用單台的計算機進行處理,必須採用分布式計算架構。它的特色在於對海量數據的挖掘,但它必須依託雲計算的分布式處理、分布式資料庫、雲存儲和虛擬化技術。
大數據管理,分布式進行文件系統,如Hadoop、Maprece數據分割與訪問執行;同時SQL支持,以Hive+HADOOP為代表的SQL界面支持,在大數據技術上用雲計算構建下一代數據倉庫成為熱門話題。從慧旦系統需求來看,大數據的架構對系統提出了新的挑戰:
1、集成度更高。一個標准機箱最大限度完成特定任務。
2、配置更合理、速度更快。存儲、控制器、I/O通道、內存、CPU、網路均衡設計,針對數據倉庫訪問最優設計,比傳統類似平台高出一個數量級以上。
3、整體能耗更低。同等計算任務,能耗最低。
4、系統更加穩定可靠。能夠消除各種單點故障環節,統一一個部件、器件的品質和標准。
5、管理維護費用低。數據藏的常規管理全部集成。
6、可規劃和預見的系統擴容、升級路線圖。

雲計算與大數據的關系
簡單來說:雲計算是硬體資源的虛擬化,而大數據是海量數據的高效處理。雖然從這個解釋來看也不是完全貼切,但是卻可以幫助對這兩個名字不太明白的人很快理解其區別。當然,如果解釋更形象一點的話,雲計算相當於我們的計算機和操作系統,將大量的硬體資源虛擬化後在進行分配使用。
可以說,大數據相當於海量數據的閉碧和「資料庫」,通觀大數據領域的發展我們也可以看出,當前的大數據發展一直在向著近似於傳統資料庫體驗的方向發展,一句話就是,傳統資料庫給大數據的發展提供了足夠大的空間。
大數據的總體架構包括三層:數據存儲,數據處理和數據分析。數據先要通過存儲層存儲下來,然後根據數據需求和目標來建立相應的數據模型和數據分析指標體系對數據進行分析產生價值。
而中間的時效性又通過中間數據處理層提供的強大的並行計算和分布式計算能力來完成。三者相互配合,這讓大數據產生最終價值。
不看現在雲計算發展情況,未來的趨勢是:雲計算作為計算資源的底層,支撐著上層的大數據處理,而大數據的發展趨勢是,實時互動式的查詢效率和分析能力,借用Google一篇技術論文中的話:「動一下滑鼠就可以在妙極操作PB級別的數據」,確實讓人興奮不能止。

『伍』 大數據技術Hadoop筆試題

大數據技術Hadoop筆試題

導讀:Hadoop有高容錯性的特點,並且設計用來部署在低廉的(low-cost)硬體上。以下是由我J.L為您整理推薦的面試筆試題目和山岩乎經驗,歡迎參考閱讀。

單項選擇題

1. 下面哪個程序負責 HDFS 數據存儲。

a)NameNode

b)Jobtracker

c)Datanode

d)secondaryNameNode

逗悉e)tasktracker

2. HDfS 中的 block 默認保存幾份?

a)3 份

b)2 份

c)1 份

d)不確定

3. 下列哪個程序通常與 NameNode 在一個節點啟動?

a)SecondaryNameNode

b)DataNode

c)TaskTracker

d)Jobtracker

4. Hadoop 作者

a)Martin Fowler

b)Kent Beck

c)Doug cutting

5. HDFS 默認 Block Size

a)32MB

b)64MB

c)128MB

6. 下列哪項通常是集群的最主要瓶頸

a)CPU

b)網路

c)磁碟

d)內存

7. 關於 SecondaryNameNode 哪項是正確的?

a)它是 NameNode 的熱備

b)它對內存沒有要求

c)它的目的是幫助 NameNode 合並編輯日誌,減少 NameNode 啟動時間

d)SecondaryNameNode 應與 NameNode 部署到一個節點

多選題

8. 下列哪項可以作為集群的管理工具

a)Puppet

b)Pdsh

c)Cloudera Manager

d)d)Zookeeper

9. 配置機架感知的下面哪項正確

a)如果一個機架出問題,不會影響數據讀寫

b)寫入數據的時候會寫到不同機架的 DataNode 中

c)MapRece 會根據機架獲取離自己比較近的棗陸網路數據

10. Client 端上傳文件的時候下列哪項正確

a)數據經過 NameNode 傳遞給 DataNode

b)Client 端將文件切分為 Block,依次上傳

c)Client 只上傳數據到一台 DataNode,然後由 NameNode 負責 Block 復制工作

11. 下列哪個是 Hadoop 運行的模式

a)單機版

b)偽分布式

c)分布式

12. Cloudera 提供哪幾種安裝 CDH 的方法

a)Cloudera manager

b)Tar ball

c)Yum d)Rpm

判斷題

13. Ganglia 不僅可以進行監控,也可以進行告警。( )

14. Block Size 是不可以修改的。( )

15. Nagios 不可以監控 Hadoop 集群,因為它不提供 Hadoop 支持。( )

16. 如果 NameNode 意外終止,SecondaryNameNode 會接替它使集群繼續工作。( )

17. Cloudera CDH 是需要付費使用的。( )

18. Hadoop 是 Java 開發的,所以 MapRece 只支持 Java 語言編寫。( )

19. Hadoop 支持數據的隨機讀寫。( )

20. NameNode 負責管理 metadata,client 端每次讀寫請求,它都會從磁碟中讀取或則會寫入 metadata 信息並反饋 client 端。( )

21. NameNode 本地磁碟保存了 Block 的位置信息。( )

22. DataNode 通過長連接與 NameNode 保持通信。( )

23. Hadoop 自身具有嚴格的許可權管理和安全措施保障集群正常運行。( )

24. Slave 節點要存儲數據,所以它的磁碟越大越好。( )

25. hadoop dfsadmin –report 命令用於檢測 HDFS 損壞塊。( )

26. Hadoop 默認調度器策略為 FIFO( )

27. 集群內每個節點都應該配 RAID,這樣避免單磁碟損壞,影響整個節點運行。( )

28. 因為 HDFS 有多個副本,所以 NameNode 是不存在單點問題的。( )

29. 每個 map 槽就是一個線程。( )

30. Maprece 的 input split 就是一個 block。( )

31. NameNode 的 Web UI 埠是 50030,它通過 jetty 啟動的 Web 服務。( )

32. Hadoop 環境變數中的 HADOOP_HEAPSIZE 用於設置所有 Hadoop 守護線程的內存。它默認是 200 GB。( )

33. DataNode 首次加入 cluster 的時候,如果 log 中報告不兼容文件版本,那需要 NameNode執行“Hadoop namenode -format”操作格式化磁碟。( )

別走開,答案在後面哦!

1. 下面哪個程序負責 HDFS 數據存儲。答案C datanode

a)NameNode

b)Jobtracker

c)Datanode

d)secondaryNameNode

e)tasktracker

2. HDfS 中的 block 默認保存幾份? 答案A默認3分

a)3 份

b)2 份

c)1 份

d)不確定

3. 下列哪個程序通常與 NameNode 在一個節點啟動?答案D

a)SecondaryNameNode

b)DataNode

c)TaskTracker

d)Jobtracker

此題分析:

hadoop的集群是基於master/slave模式,namenode和jobtracker屬於master,datanode和 tasktracker屬於slave,master只有一個,而slave有多個SecondaryNameNode內存需求和NameNode在一個數量級上,所以通常secondary NameNode(運行在單獨的物理機器上)和NameNode運行在不同的機器上。

JobTracker和TaskTracker

JobTracker 對應於 NameNode

TaskTracker 對應於 DataNode

DataNode 和NameNode 是針對數據存放來而言的

JobTracker和TaskTracker是對於MapRece執行而言的

maprece中幾個主要概念,maprece整體上可以分為這么幾條執行線索:obclient,JobTracker與TaskTracker。

1、JobClient會在用戶端通過JobClient類將應用已經配置參數打包成jar文件存儲到hdfs,並把路徑提交到Jobtracker, 然後由JobTracker創建每一個Task(即MapTask和ReceTask)並將它們分發到各個TaskTracker服務中去執行。

2、JobTracker是一個master服務,軟體啟動之後JobTracker接收Job,負責調度Job的每一個子任務task運行於 TaskTracker上,並監控它們,如果發現有失敗的task就重新運行它。一般情況應該把JobTracker部署在單獨的機器上。

3、TaskTracker是運行在多個節點上的slaver服務。TaskTracker主動與JobTracker通信,接收作業,並負責直接執行每一個任務。TaskTracker都需要運行在HDFS的DataNode上。

4. Hadoop 作者 答案C Doug cutting

a)Martin Fowler

b)Kent Beck

c)Doug cutting

5. HDFS 默認 Block Size 答案:B

a)32MB

b)64MB

c)128MB

(因為版本更換較快,這里答案只供參考)

6. 下列哪項通常是集群的最主要瓶頸:答案:C磁碟

a)CPU

b)網路

c)磁碟IO

d)內存

該題解析:

首先集群的目的是為了節省成本,用廉價的pc機,取代小型機及大型機。小型機和大型機有什麼特點?

1.cpu處理能力強

2.內存夠大

所以集群的瓶頸不可能是a和d

3.網路是一種稀缺資源,但是並不是瓶頸。

4.由於大數據面臨海量數據,讀寫數據都需要io,然後還要冗餘數據,hadoop一般備3份數據,所以IO就會打折扣。

7. 關於 SecondaryNameNode 哪項是正確的?答案C

a)它是 NameNode 的熱備

b)它對內存沒有要求

c)它的目的是幫助 NameNode 合並編輯日誌,減少 NameNode 啟動時間

d)SecondaryNameNode 應與 NameNode 部署到一個節點。

多選題:

8. 下列哪項可以作為集群的管理?答案:ABD

a)Puppet

b)Pdsh

c)Cloudera Manager

d)Zookeeper

9. 配置機架感知的下面哪項正確:答案ABC

a)如果一個機架出問題,不會影響數據讀寫

b)寫入數據的時候會寫到不同機架的 DataNode 中

c)MapRece 會根據機架獲取離自己比較近的網路數據

10. Client 端上傳文件的時候下列哪項正確?答案B

a)數據經過 NameNode 傳遞給 DataNode

b)Client 端將文件切分為 Block,依次上傳

c)Client 只上傳數據到一台 DataNode,然後由 NameNode 負責 Block 復制工作

該題分析:

Client向NameNode發起文件寫入的請求。

NameNode根據文件大小和文件塊配置情況,返回給Client它所管理部分DataNode的信息。

Client將文件劃分為多個Block,根據DataNode的地址信息,按順序寫入到每一個DataNode塊中。

11. 下列哪個是 Hadoop 運行的模式:答案ABC

a)單機版

b)偽分布式

c)分布式

12. Cloudera 提供哪幾種安裝 CDH 的方法?答案:ABCD

a)Cloudera manager

b)Tarball

c)Yum

d)Rpm

判斷題:

13. Ganglia 不僅可以進行監控,也可以進行告警。( 正確)

分析:此題的目的是考Ganglia的'了解。嚴格意義上來講是正確。ganglia作為一款最常用的Linux環境中的監控軟體,它擅長的的是從節點中按照用戶的需求以較低的代價採集數據。但是ganglia在預警以及發生事件後通知用戶上並不擅長。最新的ganglia已經有了部分這方面的功能。但是更擅長做警告的還有Nagios。Nagios,就是一款精於預警、通知的軟體。通過將Ganglia和Nagios組合起來,把Ganglia採集的數據作為Nagios的數據源,然後利用Nagios來發送預警通知,可以完美的實現一整套監控管理的系統。

14. Block Size 是不可以修改的。(錯誤 )

分析:它是可以被修改的Hadoop的基礎配置文件是hadoop-default.xml,默認建立一個Job的時候會建立Job的Config,Config首先讀入hadoop-default.xml的配置,然後再讀入hadoop- site.xml的配置(這個文件初始的時候配置為空),hadoop-site.xml中主要配置需要覆蓋的hadoop-default.xml的系統級配置。

15. Nagios 不可以監控 Hadoop 集群,因為它不提供 Hadoop 支持。(錯誤 )

分析:Nagios是集群監控工具,而且是雲計算三大利器之一

16. 如果 NameNode 意外終止,SecondaryNameNode 會接替它使集群繼續工作。(錯誤 )

分析:SecondaryNameNode是幫助恢復,而不是替代,如何恢復,可以查看

17. Cloudera CDH 是需要付費使用的。(錯誤 )

分析:第一套付費產品是Cloudera Enterpris,Cloudera Enterprise在美國加州舉行的 Hadoop 大會 (Hadoop Summit) 上公開,以若干私有管理、監控、運作工具加強 Hadoop 的功能。收費採取合約訂購方式,價格隨用的 Hadoop 叢集大小變動。

18. Hadoop 是 Java 開發的,所以 MapRece 只支持 Java 語言編寫。(錯誤 )

分析:rhadoop是用R語言開發的,MapRece是一個框架,可以理解是一種思想,可以使用其他語言開發。

19. Hadoop 支持數據的隨機讀寫。(錯 )

分析:lucene是支持隨機讀寫的,而hdfs只支持隨機讀。但是HBase可以來補救。HBase提供隨機讀寫,來解決Hadoop不能處理的問題。HBase自底層設計開始即聚焦於各種可伸縮性問題:表可以很“高”,有數十億個數據行;也可以很“寬”,有數百萬個列;水平分區並在上千個普通商用機節點上自動復制。表的模式是物理存儲的直接反映,使系統有可能提高高效的數據結構的序列化、存儲和檢索。

20. NameNode 負責管理 metadata,client 端每次讀寫請求,它都會從磁碟中讀取或則會寫入 metadata 信息並反饋 client 端。(錯誤)

此題分析:

NameNode 不需要從磁碟讀取 metadata,所有數據都在內存中,硬碟上的只是序列化的結果,只有每次 namenode 啟動的時候才會讀取。

1)文件寫入

Client向NameNode發起文件寫入的請求。

NameNode根據文件大小和文件塊配置情況,返回給Client它所管理部分DataNode的信息。

Client將文件劃分為多個Block,根據DataNode的地址信息,按順序寫入到每一個DataNode塊中。

2)文件讀取

Client向NameNode發起文件讀取的請求。

21. NameNode 本地磁碟保存了 Block 的位置信息。( 個人認為正確,歡迎提出其它意見)

分析:DataNode是文件存儲的基本單元,它將Block存儲在本地文件系統中,保存了Block的Meta-data,同時周期性地將所有存在的Block信息發送給NameNode。NameNode返迴文件存儲的DataNode的信息。

Client讀取文件信息。

22. DataNode 通過長連接與 NameNode 保持通信。( )

這個有分歧:具體正在找這方面的有利資料。下面提供資料可參考。

首先明確一下概念:

(1).長連接

Client方與Server方先建立通訊連接,連接建立後不斷開,然後再進行報文發送和接收。這種方式下由於通訊連接一直存在,此種方式常用於點對點通訊。

(2).短連接

Client方與Server每進行一次報文收發交易時才進行通訊連接,交易完畢後立即斷開連接。此種方式常用於一點對多點通訊,比如多個Client連接一個Server.

23. Hadoop 自身具有嚴格的許可權管理和安全措施保障集群正常運行。(錯誤 )

hadoop只能阻止好人犯錯,但是不能阻止壞人干壞事

24. Slave 節點要存儲數據,所以它的磁碟越大越好。( 錯誤)

分析:一旦Slave節點宕機,數據恢復是一個難題

25. hadoop dfsadmin –report 命令用於檢測 HDFS 損壞塊。(錯誤 )

26. Hadoop 默認調度器策略為 FIFO(正確 )

27. 集群內每個節點都應該配 RAID,這樣避免單磁碟損壞,影響整個節點運行。(錯誤 )

分析:首先明白什麼是RAID,可以參考網路磁碟陣列。這句話錯誤的地方在於太絕對,具體情況具體分析。題目不是重點,知識才是最重要的。因為hadoop本身就具有冗餘能力,所以如果不是很嚴格不需要都配備RAID。具體參考第二題。

28. 因為 HDFS 有多個副本,所以 NameNode 是不存在單點問題的。(錯誤 )

29. 每個 map 槽就是一個線程。(錯誤 )

分析:首先我們知道什麼是map 槽,map 槽->map slotmap slot 只是一個邏輯值 ( org.apache.hadoop.mapred.TaskTracker.TaskLauncher.numFreeSlots ),而不是對應著一個線程或者進程

30. Maprece 的 input split 就是一個 block。(錯誤 )

31. NameNode 的 Web UI 埠是 50030,它通過 jetty 啟動的 Web 服務。(錯誤 )

32. Hadoop 環境變數中的 HADOOP_HEAPSIZE 用於設置所有 Hadoop 守護線程的內存。它默認是 200 GB。( 錯誤)

hadoop為各個守護進程(namenode,secondarynamenode,jobtracker,datanode,tasktracker)統一分配的內存在hadoop-env.sh中設置,參數為HADOOP_HEAPSIZE,默認為1000M。

33. DataNode 首次加入 cluster 的時候,如果 log 中報告不兼容文件版本,那需要 NameNode執行“Hadoop namenode -format”操作格式化磁碟。(錯誤 )

分析:

首先明白介紹,什麼ClusterID

ClusterID

添加了一個新的標識符ClusterID用於標識集群中所有的節點。當格式化一個Namenode,需要提供這個標識符或者自動生成。這個ID可以被用來格式化加入集群的其他Namenode。

二次整理

有的同學問題的重點不是上面分析內容:內容如下:

這個報錯是說明 DataNode 所裝的Hadoop版本和其它節點不一致,應該檢查DataNode的Hadoop版本

;