當前位置:首頁 » 硬碟大全 » 硬碟ride
擴展閱讀
webinf下怎麼引入js 2023-08-31 21:54:13
堡壘機怎麼打開web 2023-08-31 21:54:11

硬碟ride

發布時間: 2022-12-18 13:32:56

⑴ RIAD error 0ccurred 0.1

  1. 先確認下,你的ride卡是否支持同時做兩組ride;

  2. 然後查看下你的做的是ride 幾;

  3. 兩塊1.8T是沒有做ride;

⑵ Windows 2003 Ride 1壞了一塊硬碟怎麼辦請高手指點

應該是raid1吧,raid1是鏡像冗餘模式,通俗講就是備份陣列模式,數據同時寫入兩塊硬碟。壞了硬碟替換個上去就行了。把新硬碟掛上去,會自動修復陣列。

⑶ centos 7安裝中怎麼組ride

RAID的早先設計理念為"rendant array of Inexpensive disks"即不貴的硬碟組,而現在的定義是"Rendant Array ofIndependent Disks"即獨立的硬碟組,作用是防止硬碟物理損壞以及增加存儲設備的吞吐量。RAID常見的組合有0、1、5和10:

RAID0:需要至少兩塊(含)硬碟,可以有效的提高硬碟的性能和吞吐量,但沒有數據的冗餘和錯誤修復能力。

將多塊硬碟通過硬體或軟體的方式串聯在一起,成為一個大的卷集,將數據依次寫入到各個硬碟中,這樣性能會極大提升,但若任意一塊硬碟故障則整個系統的數據都會受到破壞。
RAID1:需要至少兩塊(含)硬碟,可以有效的提高數據資料的安全性和可修復性,但成本卻提高了。

實現原來是在數據寫入硬碟時也會在另外一塊閑置的硬碟上生成鏡像文件,在不影響性能的情況下最大限度保證數據資料的可靠性,只要在一對鏡像盤中還有一塊硬碟可以使用,那麼數據也不會丟失,具有很好的硬碟冗餘能力,雖然對數據來講絕對的安全,但成本卻明顯增加,磁碟利用率僅為50%。
RAID5:需要至少三塊(含)硬碟,兼顧存儲性能、數據安全和儲存成本。

如上圖所示"parity"塊中保存的是其他硬碟數據的奇偶校驗信息(並非其他硬碟的數據),以數據的奇偶校驗信息來保證數據的安全,RAID5不以單獨的硬碟來存放數據的奇偶校驗信息,而是保存在各個磁碟上。
這樣當任何一個硬碟損壞都可以根據其他硬碟上的奇偶校驗信息來嘗試重建損壞的數據,性能也很高,兼顧了存儲性能、數據安全和存儲成本,可以看作是RAID0與RAID1的折中方案。
RAID10:需要至少四塊(含)硬碟,兼具速度和安全性,但成本很高。

繼承了RAID0的快速與RAID1的安全,RAID1在這里提供了冗餘備份的陣列,而RAID0則負責數據的讀寫陣列。
因這種結構的成本高,一般用於存放要求速度與差錯控制的數據。
mdadm命令用於管理系統軟體RAID硬碟陣列,格式為:"mdadm [模式] <RAID設備名稱> [選項] [成員設備名稱]"。
mdadm管理RAID陣列的動作有:
名稱 作用
Assemble 將設備加入到以前定義的陣列
Build 創建一個沒有超級塊的陣列
Create 創建一個新的陣列,每個設備具有超級塊。
Manage 管理陣列(如添加和刪除)。
Misc 允許單獨對陣列中的某個設備進行操作(如停止陣列)。
Follow or Monitor 監控狀態。
Grow 改變陣列的容量或設備數目。

mdadm管理RAID陣列的參數有:
參數 作用
-a 檢測設備名稱
-n 指定設備數量
-l 指定raid級別
-C 創建
-v 顯示過程
-f 模擬設備損壞
-r 移除設備
-Q 查看摘要信息
-D 查看詳細信息
-S 停止陣列

模擬訓練:RAID10配置流程:
第1步:在虛擬機中再添加4塊硬碟:

第2步:使用mdadm命令創建RAID10,名稱為"/dev/md0"。
-C代表創建操作,-v顯示創建過程,-a yes檢查RAID名稱,-n是用到的硬碟個數,-l是定義RAID的級別而後面寫上要加入陣列的硬碟名稱。
[root@linuxprobe ~]#mdadm -Cv /dev/md0 -a yes -n 4 -l 10 /dev/sdb /dev/sdc /dev/sdd /dev/sde
mdadm: layout defaults to n2
mdadm: layout defaults to n2
mdadm: chunk size defaults to 512K
mdadm: size set to 20954624K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

第3步:格式化並掛載使用
將RAID磁碟陣列格式化為ext4格式:
[root@linuxprobe ~]# mkfs.ext4 /dev/md0
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
2621440 inodes, 10477312 blocks
523865 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=2157969408
320 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624
Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done

創建掛載目錄:
[root@linuxprobe ~]# mkdir /RAID

進行文件系統的掛載:
[root@linuxprobe ~]# mount /dev/md0 /RAID

查看磁碟掛載信息:
[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 905M 0 905M 0% /dev
tmpfs 914M 84K 914M 1% /dev/shm
tmpfs 914M 8.9M 905M 1% /run
tmpfs 914M 0 914M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/md0 40G 49M 38G 1% /RAID

將此磁碟陣列掛載信息設置為重啟後也依然生效:
[root@linuxprobe ~]# echo "/dev/md0 /RAID ext4 defaults 0 0" >> /etc/fstab

第4步:查看/dev/md0設備信息
參數-D查看RAID陣列的詳細信息:
[root@linuxprobe ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Tue May 5 07:43:26 2015
Raid Level : raid10
Array Size : 41909248 (39.97 GiB 42.92 GB)
Used Dev Size : 20954624 (19.98 GiB 21.46 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Tue May 5 07:46:59 2015
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Name : localhost.localdomain:0 (local to host localhost.localdomain)
UUID : cc9a87d4:1e89e175:5383e1e8:a78ec62c
Events : 17
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 32 1 active sync /dev/sdc
2 8 48 2 active sync /dev/sdd
3 8 64 3 active sync /dev/sde

第5步:模擬有1塊硬碟損壞的情況
使用mdadm的-f參數將/dev/sdb移出陣列:
[root@linuxprobe ~]# mdadm /dev/md0 -f /dev/sdb
mdadm: set /dev/sdb faulty in /dev/md0

再看下陣列的狀態(此時的/dev/sdb狀態是已經被移除,失敗狀態):
[root@linuxprobe ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Fri May 8 08:11:00 2015
Raid Level : raid10
Array Size : 41909248 (39.97 GiB 42.92 GB)
Used Dev Size : 20954624 (19.98 GiB 21.46 GB)
Raid Devices : 4
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Fri May 8 08:27:18 2015
State : clean, degraded
Active Devices : 3
Working Devices : 3
Failed Devices : 1
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Name : linuxprobe.com:0 (local to host linuxprobe.com)
UUID : f2993bbd:99c1eb63:bd61d4d4:3f06c3b0
Events : 21
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 32 1 active sync /dev/sdc
2 8 48 2 active sync /dev/sdd
3 8 64 3 active sync /dev/sde
0 8 16 - faulty /dev/sdb

第6步:損壞後依然正常使用
因為RAID10級別能夠允許一組RAID1硬碟中存在一個故障盤而不影響使用,所以依然可以正常的創建或刪除文件~
現在就把新的硬碟添加進去吧,當然也可以讓硬碟sdb恢復使用:請重啟後執行「 mdadm /dev/md0 -a /dev/sdb」。
第7步:設置冗餘備份磁碟
現在發現了一個問題沒?運維人員需要在硬碟硬體出現故障後手工添加新的磁碟進去,這樣會不會比較不方便?
假如初始化RAID5陣列時直接給予4塊硬碟,其中1塊硬碟設備用於在陣列某塊磁碟故障時自動的替換上去,這樣很棒吧!
先將磁碟系統卸載:
[root@linuxprobe ~]# umount /dev/md0

停止該陣列設備,徹底的停用:
[root@linuxprobe ~]# mdadm -S /dev/md0
mdadm: stopped /dev/md0

現在該陣列已經找不到了:
[root@linuxprobe ~]# mdadm -D /dev/md0
mdadm: cannot open /dev/md0: No such file or directory

創建RAID5並設置1塊備份故障盤:
[root@linuxprobe ~]# mdadm -Cv /dev/md0 -n 3 -l 5 -x 1 /dev/sdb /dev/sdc /dev/sdd /dev/sde
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: /dev/sdb appears to be part of a raid array:
level=raid10 devices=4 ctime=Fri May 8 08:11:00 2015
mdadm: /dev/sdc appears to be part of a raid array:
level=raid10 devices=4 ctime=Fri May 8 08:11:00 2015
mdadm: /dev/sdd appears to be part of a raid array:
level=raid10 devices=4 ctime=Fri May 8 08:11:00 2015
mdadm: /dev/sde appears to be part of a raid array:
level=raid10 devices=4 ctime=Fri May 8 08:11:00 2015
mdadm: size set to 20954624K

此處需要輸入y,確認創建這個陣列:
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

查看下陣列的詳細信息(Spare Devices數量為1):
[root@linuxprobe ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Fri May 8 09:20:35 2015
Raid Level : raid5
Array Size : 41909248 (39.97 GiB 42.92 GB)
Used Dev Size : 20954624 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Fri May 8 09:22:22 2015
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Name : linuxprobe.com:0 (local to host linuxprobe.com)
UUID : 44b1a152:3f1809d3:1d234916:4ac70481
Events : 18
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 32 1 active sync /dev/sdc
4 8 48 2 active sync /dev/sdd
3 8 64 - spare /dev/sde

將磁碟陣列格式化為ext4系統:
[root@linuxprobe ~]# mkfs.ext4 /dev/md0
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
2621440 inodes, 10477312 blocks
523865 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=2157969408
320 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624
Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done

因為前面設置過fstab文件,所以現在可以直接給掛載:
[root@linuxprobe ~]# mount -a

將/dev/sdb設備設置為故障並移出陣列:
[root@linuxprobe ~]# mdadm /dev/md0 -f /dev/sdb
mdadm: set /dev/sdb faulty in /dev/md0

再來看下陣列的詳細信息(此時硬碟sde直接頂替上去了):
[root@linuxprobe ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Fri May 8 09:20:35 2015
Raid Level : raid5
Array Size : 41909248 (39.97 GiB 42.92 GB)
Used Dev Size : 20954624 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Fri May 8 09:23:51 2015
State : active, degraded, recovering
Active Devices : 2
Working Devices : 3
Failed Devices : 1
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Rebuild Status : 0% complete
Name : linuxprobe.com:0 (local to host linuxprobe.com)
UUID : 44b1a152:3f1809d3:1d234916:4ac70481
Events : 21
Number Major Minor RaidDevice State
3 8 64 0 spare rebuilding /dev/sde
1 8 32 1 active sync /dev/sdc
4 8 48 2 active sync /dev/sdd
0 8 16 - faulty /dev/sdb

直接cp,&……http://www.linuxprobe.com/chapter-07.html或者穩步這里看!

⑷ 硬碟RAID是什麼意思,怎麼搞

RAID就是一種由多塊廉價磁碟構成的冗餘陣列,在操作系統下是作為一個獨立的大型存儲設備出現。

RAID可以充分發揮出多塊硬碟的優勢,可以提升硬碟速度,增大容量,提供容錯功能夠確保數據安全性,易於管理的優點,在任何一塊硬碟出現問題的情況下都可以繼續工作,不會受到損壞硬碟的影響。

(4)硬碟ride擴展閱讀

優點

提高傳輸速率。RAID通過在多個磁碟上同時存儲和讀取數據來大幅提高存儲系統的數據吞吐量(Throughput)。

在RAID中,可以讓很多磁碟驅動器同時傳輸數據,而這些磁碟驅動器在邏輯上又是一個磁碟驅動器,所以使用RAID可以達到單個磁碟驅動器幾倍、幾十倍甚至上百倍的速率。

這也是RAID最初想要解決的問題。因為當時CPU的速度增長很快,而磁碟驅動器的數據傳輸速率無法大幅提高,所以需要有一種方案解決二者之間的矛盾。RAID最後成功了。

通過數據校驗提供容錯功能。普通磁碟驅動器無法提供容錯功能,如果不包括寫在磁碟上的CRC(循環冗餘校驗)碼的話。RAID容錯是建立在每個磁碟驅動器的硬體容錯功能之上的,所以它提供更高的安全性。

在很多RAID模式中都有較為完備的相互校驗/恢復的措施,甚至是直接相互的鏡像備份,從而大大提高了RAID系統的容錯度,提高了系統的穩定冗餘性。

磁碟陣列其樣式有三種,一是外接式磁碟陣列櫃、二是內接式磁碟陣列卡,三是利用軟體來模擬。

外接式磁碟陣列櫃最常被使用大型伺服器上,具可熱交換(Hot Swap)的特性,不過這類產品的價格都很貴。

內接式磁碟陣列卡,因為價格便宜,但需要較高的安裝技術,適合技術人員使用操作。硬體陣列能夠提供在線擴容、動態修改陣列級別、自動數據恢復、驅動器漫遊、超高速緩沖等功能。

它能提供性能、數據保護、可靠性、可用性和可管理性的解決方案。陣列卡專用的處理單元來進行操作。

利用軟體模擬的方式,是指通過網路操作系統自身提供的磁碟管理功能將連接的普通SCSI卡上的多塊硬碟配置成邏輯盤,組成陣列。

軟體陣列可以提供數據冗餘功能,但是磁碟子系統的性能會有所降低,有的降低幅度還比較大,達30%左右。因此會拖累機器的速度,不適合大數據流量的伺服器。

由加利福尼亞大學伯克利分校(University of California-Berkeley)在1988年,發表的文章:「A Case for Rendant Arrays of Inexpensive Disks」。

文章中,談到了RAID這個詞彙,而且定義了RAID的5層級。伯克利大學研究目的是反映當時CPU快速的性能。CPU效能每年大約成長30~50%,而硬磁機只能成長約7%。

研究小組希望能找出一種新的技術,在短期內,立即提升效能來平衡計算機的運算能力。在當時,柏克萊研究小組的主要研究目的是效能與成本。

另外,研究小組也設計出容錯(fault-tolerance),邏輯數據備份(logical data rendancy),而產生了RAID理論。

研究初期,便宜(Inexpensive)的磁碟也是主要的重點,但後來發現,大量便宜磁碟組合並不能適用於現實的生產環境,後來Inexpensive被改為independent,許多獨立的磁碟組。

獨立磁碟冗餘陣列(RAID,rendant array of independent disks)是把相同的數據存儲在多個硬碟的不同的地方(因此,冗餘地)的方法。

通過把數據放在多個硬碟上,輸入輸出操作能以平衡的方式交疊,改良性能。因為多個硬碟增加了平均故障間隔時間(MTBF),儲存冗餘數據也增加了容錯。

⑸ 做了ride的硬碟能直接讀取嗎

raid1是鏡像,兩塊盤的互相對等,可以的。
常見做raid的硬碟介面有sata和sas,sata盤可以直接接到工作機掛從盤,只要盤是好的或故障不嚴重,可以直接訪問數據。對於sas或scsi的盤麻煩點,需要一台帶有該介面卡的工作機,把盤接上線纜,進系統後即可訪問raid1成員盤。特別注意有些卡必須要初始化或給盤做配置才能訪問,不要用這種卡,會導致數據丟失。最好是換另一品牌卡來恢復數據,比如原來raid1是lsi的卡做的,現在接到promise的卡上來讀,可以避免盤上的raid配置信息起作用。

⑹ 為什麼 電腦安裝RIDE後會卡死

1 定期的,用魯大師等軟體,測下電腦各項溫度,如要溫度過高會引起電腦運行緩慢,就有可能是內部風扇壞什麼的,對電腦內的灰塵進行清理,台式機關機後打開機箱,用吹風機,冷風吹。

2 平時要常用 360 衛士 、金山衛士等工具清理系統垃圾和上網產生的臨時文件(ie 緩存),查殺惡意軟體。

3 電腦配置差,盡量把虛擬內存設置大點,(xp)右擊我的電腦 屬性 高級 性能…… 那裡 設置 高級 更改

在自定義那裡 設置為 2000 - 4000

(win7) 計算機-屬性-高級系統設置-性能設置-「高級」選項卡-虛擬內存-更改-選擇要設置的驅動器c盤,選擇系統管理大小或者根據需要選擇自定義大小-設置-確定。

4 殺毒軟體裝種占資源小的,如 nod32,或只裝一個輔助殺毒軟體。

5 盡量設置ip 為靜態ip ,可以減少電腦開機啟動時間和進入桌面後的反映時間。(cqjiangyong總結:很多人電腦開機後前幾分鍾動不了都是這個原因)

6 電腦桌面不要放太多文件和圖標,會使電腦反應變慢的,軟體盡量不要安裝在c盤。

7 關閉一些啟動程序。開始-運行-輸入msconfig—確定-在「系統配置實用程序」窗口中點選「啟動」-啟動 ,除輸入法(Ctfmon)、殺毒軟體外,一般的程序都可以關掉。也可以用360等軟體,智能優化開機加速。

8 建議只裝一個主殺毒軟體,裝多個會占電腦資源,會使電腦更慢。

9 定期的對整理磁碟碎片進行整理,打開我的電腦 要整理磁碟碎片的驅動器—屬性—工具--選擇整理的磁碟打開「磁碟碎片整理程序」窗口—分析—碎片整理—系統即開始整理。

10 安裝個優化大師或超級兔子等 電腦優化軟體,優化下,電腦也會快很多!!

11 現在的系統,占內存也比較大,有必要的話,加多條內存,也會快很多。

12 電腦硬碟用久了,也會使電腦變慢,重新分區安裝可以修復邏輯壞,電腦也會快點,硬碟物理讀寫速度慢,也只能是換個好點的。

⑺ ride0ride1ride5區別

兩者的概念不同,兩者的安全性不同,兩者的性能不同。
RAID1就是多磁碟同數據同步寫讀,讀寫速度與單盤相同,容量為單盤的容量。RAID1的安全性很高,但性能沒什麼優勢。RAUD0就是多磁碟數據分組同步寫讀;理論讀寫速度是單盤讀寫速度的X倍,X指加入到同一陣列的磁碟數。同時容量也為單盤容量的X倍。RAID0性能優越,但安全性差,只要一塊硬碟壞了,數據鏈就斷了。

⑻ ride 硬碟拆分不了

系統卡死了。
系統卡死了就會造成ride硬碟拆分不了的情況。
硬碟一般指電腦硬碟。 電腦硬碟是計算機最主要的存儲設備。硬碟(港台稱之為硬碟,英文名:Hard Disk Drive, 簡稱HDD 全名溫徹斯特式硬碟)由一個或者多個鋁制或者玻璃制的碟片組成。這些碟片外覆蓋有鐵磁性材料。絕大多數硬碟都是固定硬碟,被永久性地密封固定在硬碟驅動器中。早期的硬碟存儲媒介是可替換的,不過今日典型的硬碟是固定的存儲媒介,被封在硬碟里 (除了一個過濾孔,用來平衡空氣壓力)。隨著發展,可移動硬碟也出現了,而且越來越普及,種類也越來越多.大多數微機上安裝的硬碟,由於都採用溫切斯特(winchester)技術而被稱之為「溫切斯特硬碟」,或簡稱「溫盤」。

⑼ Raid0 和Raid1的區別在哪裡各自的優勢是

區別共有三點:

1、兩者的概念不同:

RAID0:是多磁碟數據分組同步寫讀。

RAID 1:是多磁碟同數據同步寫讀。

2、兩者的安全性不同:

RAID 0:無數據備份功能,安全性差。

RAID 1:盤間是相互備份的,安全性高。

3、兩者的性能不同:

RAID 0;理論讀寫速度是單盤讀寫速度的X倍,X指加入到同一陣列的磁碟數。同時容量也為單盤容量的X倍。

RAID 1:讀寫速度與單盤相同,容量為單盤的容量。

各自優勢:

RAID 0 :沒有數據冗餘,沒有數據校驗的磁碟陳列。實現RAID 0至少需要兩塊以上的硬碟,它將兩塊以上的硬碟合並成一塊,數據連續地分割在每塊盤上。 因為帶寬加倍,所以讀/寫速度加倍。

RAID 1:可以提高讀取性能。RAID 1是磁碟陣列中單位成本最高的,但提供了很高的數據安全性和可用性。當一個磁碟失效時,系統可以自動切換到鏡像磁碟上讀寫,而不需要重組失效的數據。

(9)硬碟ride擴展閱讀:

RAID 0優缺點:

RAID 0的缺點是不提供數據冗餘,因此一旦用戶數據損壞,損壞的數據將無法得到恢復。RAID0運行時只要其中任一塊硬碟出現問題就會導致整個數據的故障。一般不建議企業用戶單獨使用。

RAID 0具有的特點,使其特別適用於對性能要求較高,而對數據安全不太在乎的領域,如圖形工作站等。對於個人用戶,RAID 0也是提高硬碟存儲性能的絕佳選擇。

RAID1優缺點:

RAID1通過硬碟數據鏡像實現數據的冗餘,保護數據安全,在兩塊盤上產生互為備份的數據,當原始數據繁忙時,可直接從鏡像備份中讀取數據,因此RAID1可以提供讀取性能。

RAID1是硬碟中單位成本最高的,但提供了很高的數據安全性和可用性,當一個硬碟失效時,系統可以自動切換到鏡像硬碟上讀/寫,並且不需要重組失效的數據。

網路-RAID1