A. 如何設置硬碟陣列
1、首先按F10進入BIOS,選擇Advanced System Options,檢查RAID配置存儲控制器選項,然後單擊Save。
B. 請問在哪裡有AE漢化腳本啊越全越好啊
AE腳本和表達式一樣,都是基於java編程的,運用腳本比表達式稍微好一點,易於理解些。。。如果要漢化的AE腳本的話,去這里有很多漢化的腳本,你可以去看看。。。腳本管理器
Duik 骨骼腳本
mask生成層MasksToLayers
mask轉化為形狀rd_MasksToShapes
txt腳本運行器rd_SimpleConsole
變換masks transformMasks
層 關鍵幀 向前向後推
層空間排列Layers2Grid
層排序rd_KindaSorta
層時間線偏移Sequencer
創建一個方盒子
反轉mask方向 reverseMasksDirection
從文件創建3d文字 3D_text_creator_from_file
反轉層mask的順序rd_ReverseMasksOrder
分解文字腳本。把一個文字層分成若干個文字層]
分裂圖像splitImage
空間環形排列腳本(可分割)
兩個平面層生成空物體適配P S Rrd_QueEsSpanNull
蒙版輔助選擇腳本
批量改變固態層名字
批量子父鏈接LayerChain
生成陣列腳本
實用表達式集
隨機變換屬性randomTransform
隨機時間偏移
隨機選擇層RandomLayerSelector
縮放選擇的層
鎖定屬性值lockProperties
為選擇的三維層自動創建燈光
為選擇的三維圖層創建攝像機
位置偏移offsetPositioning
選擇的層添加一個空物體Add Parented Null to Selected Layers
選擇的每層添加父物體Add Parented Null to Each Selected Layer
陣列分配層腳本
重新設置中心點
轉換選擇的屬性到標記點
腳本地址:
http://www.ld-video.com/forum.php?mod=viewthread&tid=115
C. 八盤位NAS上幾個硬碟能達到萬兆
1、主板:超微X10DRL-i
2、CPU:E5 2650L v3*2
2、內存:4*8g DDR4 REG ECC(SK Hynix HMA41GR7MFR8N-TF)
4*16g DDR4 REG ECC(Samsung M393A2G40DB0-CPB)
3、陣列卡:LSI 9208-8i IT模式(共有兩塊,只使用了一塊)
4、硬碟:8*日立HUS72302CLAR2000
5、電源:長城巨龍EPS1000DA
6、機箱:TT W200(對硬碟散熱使用了7把12cm風扇保證散熱)
軟體平台:
系統:Ubuntu Server 20.04.1 LTS
zfs陣列使用OpenZFS on linux v2.0.4
其餘raid陣列使用mdadm創建
測試腳本:
本次測試均使用script命令記錄測試結果
創建mdadm陣列使用如下腳本:
mdadm --create --verbose /dev/md1 -level=$level --raid-devices=$i --chunk=$chunk /dev/sd$j
其中$level與$chunk對應raid類型和chunk大小(條帶大小),$i和$j則因為有部分測試只使用4塊硬碟測試,使用md1因為操作系統安裝在由兩塊ssd(sda、sdb)以raid1組成的md0陣列上
創建文件系統,使用ext4文件系統:
mkdir -p /pool_0
yes | mkfs.ext4 -F /dev/md1
yes | mount -t ext4 /dev/md1 /pool_0
清理陣列:
mdadm --stop /dev/md1
mdadm --misc --zero-superblock /dev/sd$j
創建zfs陣列使用如下腳本:
zpool create pool_0 $raid-level /dev/sdc /dev/sdd /dev/sde /dev/sdf /dev/sdg /dev/sdh /dev/sdi /dev/sdj
或
zpool create pool_0 $raid-level /dev/sdc /dev/sdd /dev/sde /dev/sdf $raid-level /dev/sdg /dev/sdh /dev/sdi /dev/sdj
第二種方式用於組建如raidz0等跨越陣列時使用
因為zfs自動創建掛載點,故測試時直接使用默認掛載點測試
清理陣列:
zpool destroy pool_0
sgdisk --zap-all /dev/sd$j
測速命令:
dd if=/dev/zero of=/pool_0 bs=$bs count=10000
$bs為塊大小,分別測試了512,4k,8和1m下的速度
命令重復5次,去掉最大值和最小值計算平均值作為最終結果
另外還進行了每塊硬碟單獨測速,同樣使用ext4文件系統
測試結果
各硬碟測試結果
雖然這批硬碟都是二手貼標盤,但是測試速度還是可以的,除了作為二手盤的一些毛病外(之後會提到)。
接下來是陣列速度的測試,以下測試中,以8塊硬碟或4塊硬碟使用mdadm創建了raid0,5,6,10和使用zfs創建raid z1,z2,z3,2*z1,strip(等於raid0),mirror+strip(等於raid10),分別測試了mdadm設置不同chunk大小對速度的影響(不帶chunk的則為zfs陣列),以及使用不同bs大小測試陣列在不同塊大小下速度表現。
陣列測速 block size = 512
這次測試設置的最小塊大小為512,此時速度受影響最大的是使用zfs創建的各個陣列,全部只有60m/s出頭的速度,而最高速度梯隊均被8盤raid0占據,但速度只有140-150,與單盤相比只有不到一倍的提升,迷惑的是chunk大小對應的速度順序十分混亂,幾乎無法總結出規律。
陣列測速 block size = 4k
4k速度領先的仍然是raid0,zfs的各個陣列排在中間,最低的則變成了4盤組的raid10,速度甚至低於單盤速度,可謂慘不忍睹,而我常用的raid5速度在350左右,只有不到2倍提升。
陣列測速 block size = 8k
8k速度比較有意思,raid0速度仍然占據前列,而zfs的速度明顯提升,尤其是raidz1*2和使用zfs創建的raid10,這兩個都是我曾經選擇過的方案(raid10使用了16盤)
陣列測速 block size = 1M
最終來到1M塊大小的測試,這次變化比較大,速度最高的是8盤使用zfs創建的raid0,速度達到了1100+,而實際上,我測試12盤速度時,這種方式創建的陣列速度可以到達1300+,而其餘成績幾乎沒有什麼出乎預料的地方,只有上面提到的zfs下raidz1*2和raid10的排名繼續上升
總結
說一下我的感覺,在做這次測試之前我也預料到測試結果就是如此慘淡,因為平時我使用情況便是桌面機和伺服器之間使用萬兆網卡相連,通過smb共享文件,不過文件性能實在不是很滿意,從桌面機的ssd拷貝文件到伺服器上速度只有400出頭,而且遇到大量零碎文件時響應相當慢,一直以來我便考慮是smb的問題還是磁碟性能就是這樣,這個測試說出了答案。
測試中,速度最快的無疑是raid0,只不過應該不會有人選擇,其餘比較有價值的選擇分別是raid5和2*raid z1,這兩個選項都有不錯的性能,也分別有1盤和2盤的冗餘,當初我選擇使用2t磁碟,便是考慮到在損壞1塊硬碟時,2t硬碟重組陣列還是相對安全的,基本上一天以內陣列就恢復同步,當然我更偏向使用zfs,尤其是我最開始選擇這套配置便是奔著freenas去的,而且raid z2和raid z3雖然性能不足,但是安全性絕對是更高的,只不過8盤位下,這兩個選擇明顯沒有優勢。
對於條帶大小,實在是認識有限,之前一直使用默認參數,而網路上沒有找到有用的資料,只能說是瞎子過河,用我自己的理解去測試,結果是無功而返。
後記
這個測試差不多在一個多月前做的,現在才發純粹因為懶癌犯了,第一次在b站發文章,文案啰嗦得把自己也難受到了,還是感謝能看到這里,之後也許還會總結一些我之前的經驗,我會多多努力。發文的時候我的配置已經做了一個大的調整,也乘著這次礦潮,把之前的設備賣了,還得了一筆不小的差價,而目前硬體漲價實在厲害,還好我在漲價前購入了一塊12t硬碟,跟之前用來冷備的另一塊12t硬碟組一起,現在數據暫且存在這兩塊硬碟上,對nas的進一步改造只能留在將來了。
說到之前設備的缺點,只能說現實總是事與願違,一開始我選擇2t sas做陣列,主要是幾方面,一是價格,二是容量,三是速度。最開始我的群暉nas上選擇了兩塊6t和兩塊3t硬碟分別組raid1,光是硬碟價格就接近四千,而nas價格是三千出頭。而換成自組的nas和二手硬碟,價格只要一半多點,還能擁有8盤位和萬兆網路,價格便是最大的優勢。而2t硬碟前面提到了,我認為這個容量還是比較適合陣列掉盤後重建的,成功率和速度都能預測得到,而有了盤位優勢,容量便不是問題。至於速度,相比4盤位,8盤位優勢理所當然是更大。
而實際上,二手硬碟由於質量參差不齊,有一些盤用了很久依然堅挺,而有一些在使用兩三個月內就會出現問題,導致其成了消耗品,而為了安全性,我把盤位一步步提高,曾試過12盤和16盤,做了更高級別的raid如raidz3和2*raidz2,而代價是性能不升反降,而且一個大問題暴露出來了,這些硬碟本來功耗就不小,而我使用的環境沒有機房那樣的穩定溫度,導致硬碟發熱嚴重,而且電費也猛然飆升,最終只能下決定放棄,也意識到這個方案在我目前情況下不可行。
在測試結束後,我意識到這次測試並不太嚴謹,首先我只測試了寫入速度沒有測試讀取速度,原因是沒有找到合適的測試方法,在某些測試中,會因為緩存原因導致測出的速度發生明顯錯誤,而我測試的數據也沒有與其他人對比過,實際這個速度是否合格純粹是我個人的主觀判斷。並且,在創建文件系統時,我並沒有注意到有block的參數,而在後來發現這個參數也許會影響到結果。最後一個大問題是,在測試前後我都對硬碟進行過壞道測試,結果發現sdh盤,也就是那塊型號不同的,實際上是同型號的HP貼標盤,在測試後出現了三個連續壞道,而由於第二次壞道測試是在我轉讓硬碟前做最後測試時發現的,不確定壞道是否在此過程中出現,所以這次的測試,只能以極其不嚴謹的標志定義,在將來我有機會再次測試時,定要以嚴謹為首要,以彌補這次的遺憾。
D. Dell伺服器raid陣列怎麼配置
首先重啟Dell伺服器,我們會看到Dell的伺服器的啟動界面,稍等片刻
當我們看到出現下圖這個界面的時候 按一下鍵盤上的ctrl+R 鍵(注意下圖最後一行的configration utility )
按完後我們進入raid陣列卡的配置界面,由於我們初次沒有配置陣列卡 所以陣列卡顯示的是空的界面
我們將游標移到最上面,controller 0上面 這時候按一下鍵盤上面的F2鍵 彈出創建陣列盤選項,我們選擇creat new VD 回車一下
我們進入了是VD的界面在這里我們看到我們現在伺服器上面有多少個磁碟,以及可以做什麼陣列,按TAB鍵我們可以選擇我們的raid 級別 然後按tab切換到磁碟界面 我們選擇我們需要的磁碟(那幾塊需要組建raid)按空格鍵選擇
陣列模式和磁碟我們都已經選擇好了之後,我們接下來按tab鍵切換到ok選項 回車 確定磁碟陣列,接著會自動返回主界面
這時候我們可以看到有virtual disk 0選項 我們已經成功創建陣列組合,接著 我們游標移動到virtual disk 0選項上 按一下F2 彈出菜單 ,
選擇第一個選項初始化 然後我們選擇fast模式
這時候會彈出對話框我們選擇ok
初始化成功後重啟伺服器 raid成功配置完成!