⑴ NAS紅盤問題,高手請回復
緩存大小還是比較重要的,尤其是頻繁大量的讀寫硬碟的時候。
64M緩存的話持續讀寫應該可以在100-150M/左右的。
緩存大的話大量讀寫的時候會節省很多的時間,看你的需求了。
至於穩定性的話沒有什麼太大的差別。
⑵ 家用nas一般配多大的容量
家用nas現在初略分三個層次的:
第一:只是存儲一般的個人文件、照片等等,選擇兩盤位的NAS(最大容量可以達到8T)為了數據的安全做個RAID1也還有4T的容量可以存儲。
第二:如果你是家用NAS發燒友用記專用於影音這塊,那最少得四個盤位16T(甚至更高盤位的nas)可選擇RAID5,容量有12T;
第三:家用監控,這樣存儲量也是需求比較大,也得4個盤位的16T,可選擇RAID5,容量有12T。
備註:目前nas都可以支持單塊硬碟4T容量的。
⑶ nas緩存檔原理
NAS =約= 區域網、無顯示器主機、可IE訪問 單位要求把一些文件作為內部共享,但沒有區域網。
⑷ 西數Re企業盤,黑盤,紅盤(以4T容量為例)應用在Nas網路存儲中那個比較合適,這三個種類的盤的主
黑盤:高性能,大緩存,速度快。
代號:LS WD Caviar Black。主要適用於企業,吞吐量大的伺服器,高性能計算應用,諸如多媒體視頻和相片編輯,高性能游戲機。
高速緩存:32 MB
容量:1TB;750GB;640GB;500GB
藍盤:普通硬碟,適合家用。優點是性能較強,價格較低,性價比高;缺點是聲音比綠盤略響,性能比黑盤略差。
高速緩存大小:2 MB;8 MB;16MB
容量:40 GB 到 750 GB
綠盤:SATA 硬碟,發熱量更低、更安靜、更環保。節能盤,適合大容量存儲;採用IntelliPower技術,轉速為5400轉。優勢是安靜、價格低;缺點是性能差,延遲高,壽命短。
高速緩存大小:32 MB;16 MB;64MB
容量:2 TB;1.5TB;1TB;808GB;750GB;500GB
紅盤:西數新推出的針對NAS市場的硬碟,面向的是擁有1 至5 個硬碟位的家庭或小型企業NAS用戶。性能特性與綠盤比較接近,功耗較低、噪音較小、能夠適應長時間的連續工作,擁有特色技術NASware,這技術讓其兼容性更加出色,無論是針對NAS或是RAID都能夠擁有突出的兼容性表現。
⑸ 群暉ssd緩存多大合適
C盤僅作為裝系統用,60G應經很充足,省下的分給D盤就行。
L502X的光碟機厚度是12.7mm,你買個SATA3介面的通用光碟機位托架就行,幾十塊。
⑹ 網路存儲器nas的容量有多大,500T數據能存儲嗎
NAS網路存儲設備的存儲容量取決於NAS中的硬碟容量大小和raid模式。與NAS本身無關。
⑺ nas硬碟買多大合適
250的與160的只差幾十塊錢,推薦使用250的,400元左右(品牌)。如果是發燒友的話250是不夠的,要使用更大容量的硬碟,至於多大,那就要看什麼樣的需求了。
⑻ 家用NAS存儲如何選擇硬碟
1、首先,得確認NAS存儲系統使用的硬碟類型,是SATA還是SAS,是2.5寸盤還是3.5寸盤,如果是SATA盤是否支持SATA III。
2、確認NAS存儲系統增加新硬碟是否需要硬碟托架或安裝支架。
3、確定硬碟類型後可以到京東上查看、購買硬碟,京東上專門有NAS硬碟專區,希捷和西數兩家的NAS盤質量都不錯,可根據需要的容量進行選擇。有兩點要注意:一、如果NAS系統支持,盡量選擇SATA III介面的硬碟,不少於6Gb/s的傳輸速度。二、同等容量、同等介面速度情況下,轉速越高越好。
⑼ 八盤位NAS上幾個硬碟能達到萬兆
1、主板:超微X10DRL-i
2、CPU:E5 2650L v3*2
2、內存:4*8g DDR4 REG ECC(SK Hynix HMA41GR7MFR8N-TF)
4*16g DDR4 REG ECC(Samsung M393A2G40DB0-CPB)
3、陣列卡:LSI 9208-8i IT模式(共有兩塊,只使用了一塊)
4、硬碟:8*日立HUS72302CLAR2000
5、電源:長城巨龍EPS1000DA
6、機箱:TT W200(對硬碟散熱使用了7把12cm風扇保證散熱)
軟體平台:
系統:Ubuntu Server 20.04.1 LTS
zfs陣列使用OpenZFS on linux v2.0.4
其餘raid陣列使用mdadm創建
測試腳本:
本次測試均使用script命令記錄測試結果
創建mdadm陣列使用如下腳本:
mdadm --create --verbose /dev/md1 -level=$level --raid-devices=$i --chunk=$chunk /dev/sd$j
其中$level與$chunk對應raid類型和chunk大小(條帶大小),$i和$j則因為有部分測試只使用4塊硬碟測試,使用md1因為操作系統安裝在由兩塊ssd(sda、sdb)以raid1組成的md0陣列上
創建文件系統,使用ext4文件系統:
mkdir -p /pool_0
yes | mkfs.ext4 -F /dev/md1
yes | mount -t ext4 /dev/md1 /pool_0
清理陣列:
mdadm --stop /dev/md1
mdadm --misc --zero-superblock /dev/sd$j
創建zfs陣列使用如下腳本:
zpool create pool_0 $raid-level /dev/sdc /dev/sdd /dev/sde /dev/sdf /dev/sdg /dev/sdh /dev/sdi /dev/sdj
或
zpool create pool_0 $raid-level /dev/sdc /dev/sdd /dev/sde /dev/sdf $raid-level /dev/sdg /dev/sdh /dev/sdi /dev/sdj
第二種方式用於組建如raidz0等跨越陣列時使用
因為zfs自動創建掛載點,故測試時直接使用默認掛載點測試
清理陣列:
zpool destroy pool_0
sgdisk --zap-all /dev/sd$j
測速命令:
dd if=/dev/zero of=/pool_0 bs=$bs count=10000
$bs為塊大小,分別測試了512,4k,8和1m下的速度
命令重復5次,去掉最大值和最小值計算平均值作為最終結果
另外還進行了每塊硬碟單獨測速,同樣使用ext4文件系統
測試結果
各硬碟測試結果
雖然這批硬碟都是二手貼標盤,但是測試速度還是可以的,除了作為二手盤的一些毛病外(之後會提到)。
接下來是陣列速度的測試,以下測試中,以8塊硬碟或4塊硬碟使用mdadm創建了raid0,5,6,10和使用zfs創建raid z1,z2,z3,2*z1,strip(等於raid0),mirror+strip(等於raid10),分別測試了mdadm設置不同chunk大小對速度的影響(不帶chunk的則為zfs陣列),以及使用不同bs大小測試陣列在不同塊大小下速度表現。
陣列測速 block size = 512
這次測試設置的最小塊大小為512,此時速度受影響最大的是使用zfs創建的各個陣列,全部只有60m/s出頭的速度,而最高速度梯隊均被8盤raid0占據,但速度只有140-150,與單盤相比只有不到一倍的提升,迷惑的是chunk大小對應的速度順序十分混亂,幾乎無法總結出規律。
陣列測速 block size = 4k
4k速度領先的仍然是raid0,zfs的各個陣列排在中間,最低的則變成了4盤組的raid10,速度甚至低於單盤速度,可謂慘不忍睹,而我常用的raid5速度在350左右,只有不到2倍提升。
陣列測速 block size = 8k
8k速度比較有意思,raid0速度仍然占據前列,而zfs的速度明顯提升,尤其是raidz1*2和使用zfs創建的raid10,這兩個都是我曾經選擇過的方案(raid10使用了16盤)
陣列測速 block size = 1M
最終來到1M塊大小的測試,這次變化比較大,速度最高的是8盤使用zfs創建的raid0,速度達到了1100+,而實際上,我測試12盤速度時,這種方式創建的陣列速度可以到達1300+,而其餘成績幾乎沒有什麼出乎預料的地方,只有上面提到的zfs下raidz1*2和raid10的排名繼續上升
總結
說一下我的感覺,在做這次測試之前我也預料到測試結果就是如此慘淡,因為平時我使用情況便是桌面機和伺服器之間使用萬兆網卡相連,通過smb共享文件,不過文件性能實在不是很滿意,從桌面機的ssd拷貝文件到伺服器上速度只有400出頭,而且遇到大量零碎文件時響應相當慢,一直以來我便考慮是smb的問題還是磁碟性能就是這樣,這個測試說出了答案。
測試中,速度最快的無疑是raid0,只不過應該不會有人選擇,其餘比較有價值的選擇分別是raid5和2*raid z1,這兩個選項都有不錯的性能,也分別有1盤和2盤的冗餘,當初我選擇使用2t磁碟,便是考慮到在損壞1塊硬碟時,2t硬碟重組陣列還是相對安全的,基本上一天以內陣列就恢復同步,當然我更偏向使用zfs,尤其是我最開始選擇這套配置便是奔著freenas去的,而且raid z2和raid z3雖然性能不足,但是安全性絕對是更高的,只不過8盤位下,這兩個選擇明顯沒有優勢。
對於條帶大小,實在是認識有限,之前一直使用默認參數,而網路上沒有找到有用的資料,只能說是瞎子過河,用我自己的理解去測試,結果是無功而返。
後記
這個測試差不多在一個多月前做的,現在才發純粹因為懶癌犯了,第一次在b站發文章,文案啰嗦得把自己也難受到了,還是感謝能看到這里,之後也許還會總結一些我之前的經驗,我會多多努力。發文的時候我的配置已經做了一個大的調整,也乘著這次礦潮,把之前的設備賣了,還得了一筆不小的差價,而目前硬體漲價實在厲害,還好我在漲價前購入了一塊12t硬碟,跟之前用來冷備的另一塊12t硬碟組一起,現在數據暫且存在這兩塊硬碟上,對nas的進一步改造只能留在將來了。
說到之前設備的缺點,只能說現實總是事與願違,一開始我選擇2t sas做陣列,主要是幾方面,一是價格,二是容量,三是速度。最開始我的群暉nas上選擇了兩塊6t和兩塊3t硬碟分別組raid1,光是硬碟價格就接近四千,而nas價格是三千出頭。而換成自組的nas和二手硬碟,價格只要一半多點,還能擁有8盤位和萬兆網路,價格便是最大的優勢。而2t硬碟前面提到了,我認為這個容量還是比較適合陣列掉盤後重建的,成功率和速度都能預測得到,而有了盤位優勢,容量便不是問題。至於速度,相比4盤位,8盤位優勢理所當然是更大。
而實際上,二手硬碟由於質量參差不齊,有一些盤用了很久依然堅挺,而有一些在使用兩三個月內就會出現問題,導致其成了消耗品,而為了安全性,我把盤位一步步提高,曾試過12盤和16盤,做了更高級別的raid如raidz3和2*raidz2,而代價是性能不升反降,而且一個大問題暴露出來了,這些硬碟本來功耗就不小,而我使用的環境沒有機房那樣的穩定溫度,導致硬碟發熱嚴重,而且電費也猛然飆升,最終只能下決定放棄,也意識到這個方案在我目前情況下不可行。
在測試結束後,我意識到這次測試並不太嚴謹,首先我只測試了寫入速度沒有測試讀取速度,原因是沒有找到合適的測試方法,在某些測試中,會因為緩存原因導致測出的速度發生明顯錯誤,而我測試的數據也沒有與其他人對比過,實際這個速度是否合格純粹是我個人的主觀判斷。並且,在創建文件系統時,我並沒有注意到有block的參數,而在後來發現這個參數也許會影響到結果。最後一個大問題是,在測試前後我都對硬碟進行過壞道測試,結果發現sdh盤,也就是那塊型號不同的,實際上是同型號的HP貼標盤,在測試後出現了三個連續壞道,而由於第二次壞道測試是在我轉讓硬碟前做最後測試時發現的,不確定壞道是否在此過程中出現,所以這次的測試,只能以極其不嚴謹的標志定義,在將來我有機會再次測試時,定要以嚴謹為首要,以彌補這次的遺憾。