
特點硬盤及容量性能及安全典型應用
用于平行存儲,即條帶。其原理是把連續性能:讀寫性能高,隨機寫
無故障的迅速讀寫,要求
的數據分成幾份,然后分散存儲到陣列中硬盤數:一個或更多性能高
安全性不高,如圖形工作
raid0
容量:總的磁盤容量安全:無冗余,無熱備盤,的各個硬盤上。任何一個磁盤故障,都將
站等。
導致數據丟失。無容錯性,安全性低
鏡像存儲。其原理是把相同的數據分別寫
性能:讀寫性能低,隨機寫
性能低隨機數據寫入,要求安全
入陣列中的每一塊磁盤中,最大限度的保
硬盤數:兩個或2*N個
raid1
安全:利用復制進行冗余,性高,如服務器、數據庫證用戶數據的可用性和可修復性。缺點是容量:總磁盤容量的50%
有熱備盤,可容錯,安全性存儲領域。
存儲成本高。
高
分布奇偶位條帶。是一種存儲性能、數據
安全和存儲成本兼顧的存儲方案,也可理
解為是RAID0和RAID1的折衷方案。其
原理是把數據和相對應的奇偶校驗信息存
性能:隨機和連續寫性能
儲到組成RAID5的各個磁盤上,并且奇偶
硬盤數:三個或更多隨機數據傳輸要求安全
低,讀性能高
raid5校驗信息和相對應的數據分別存儲于不同
容量:(n-1)/n
的總磁盤容性高,如金融、數據庫、
安全:利用奇偶校驗進行冗
的磁盤上。當RAID5的一個磁盤數據發生量(n為磁盤數)存儲等。
余,可容錯,安全性高
損壞后,利用剩下的數據和相應的奇偶校
驗信息去恢復被損壞的數據。相對于RAID
0,只是多了一個奇偶校驗信息。多個數據
可對應一個奇偶校驗信息。
鏡像陣列條帶。兼顧存儲性能和數據安全,
性能:讀寫性能適中適于于要求存取數據量
提供了與RAID1
一樣的數據安全保障,同硬盤數:四個或
4*N個
raid10
安全:利用復制進行冗余,大,安全性高,如銀行、時具備與RAID0近似的存儲性能。缺點是容量:總磁盤容量的50%
存儲成本高。
可容錯,安全高金融等領域。
RAID10
和RAID01的區別:
RAID10
和RAID01是兩種邏輯方式不同的組合。RAID10是先鏡像后條帶,即先將硬盤縱向做鏡像,然后再橫向做條帶。在這
種情況下,只要不是同一個鏡像組中的幾塊硬盤同時壞掉,
RAID組都不會崩潰。即同一個鏡像組的硬盤不能同時壞掉。
RAID01是先條帶后鏡像,即先將硬盤橫向做條帶,然后再縱向做鏡像。
在這種情況下,只要不是兩個條帶上同時有硬盤壞掉,則
整個RAID組都不會崩潰。不管發生介質損壞的兩塊硬盤是否是鏡像
盤。即不同條帶組的硬盤不能同時壞掉。
RAID10
和RAID01在性能上基本相同,但RAID01發生故障的概率要大于RAID10。所以一般情況下都選擇RAID10。
附圖參考:
RAID0又稱為Stripe或Striping,它代表了所有RAID級別中最高的存儲性能。RAID0提高存儲性能的原理是把連續的數據分散
到
多個磁盤上存取,這樣,系統有數據請求就可以被多個磁盤并行的執行,每個磁盤執行屬于它自己的那部分數據請求。這種數據上的并行操作可以充分利用總線的帶寬,
顯著提高磁盤整體存取性能。
RAID1又稱為Mirror或Mirroring,它的宗旨是最大限度的保證用戶數據的可用性和可修復性。RAID1的操作方式是把用戶寫
入硬
盤的數據百分之百地自動復制到另外一個硬盤上。由于對存儲的數據進行百分之百的備份,在所有RAID級別中,RAID1提供最高的
數據安全保障。同樣,由于數據的百分之百備份,備份數據占了總存儲空間的一半,因而,Mirror的磁盤空間利用率低,存儲成本
高。
Mirror雖不能提高存儲性能,但由于其具有的高數據安全性,使其尤其適用于存放重要數據,如服務器和數據庫存儲等領域。
RAID1+0是先鏡射再分區數據。是將所有硬盤分為兩組,視為是
有著不錯的讀取速度,而且擁有比RAID0更高的數據保護性。
RAID0
的最低組合,然后將這兩組各自視為
RAID1運作。RAID1+0
RAID0+1則是跟RAID1+0的程序相反,是先分區再將數據鏡射到兩組硬盤。它將所有的硬盤分為兩組,變成RAID1的最低組合,而
將兩組硬盤各自視為RAID0運作。RAID0+1比起RAID1+0有著更快的讀寫速度,不過也多了一些會讓整個硬盤組停止運轉的機率;
因為只要同一組的硬盤全部損毀,RAID0+1就會停止運作,而RAID1+0則可以在犧牲RAID0的優勢下正常運作。
RAID10/01巧妙的利用了RAID0
的速度以及
RAID1
的保護兩種特性,不過它的缺點是需要的硬盤數較多,因為至少必須擁有四個以
上的偶數硬盤才能使用。
吞吐量與IOPS
陣列的瓶頸主要體現在2個方面,吞吐量與IOPS。
1、吞吐量
吞吐量主要取決于陣列的構架,光纖通道的大?。ìF在陣列一般都是光纖陣列,至于SCSI這樣的SSA陣列,我們不討論)以及硬盤的個數。陣列的構架與每個
陣列不同而不同,他們也都存在內部帶寬(類似于pc的系統總線),不過一般情況下,內部帶寬都設計的很充足,不是瓶頸
的所在。
光纖通道的影響還是比較大的,如數據倉庫環境中,對數據的流量要求很大,而一塊2Gb的光纖卡,所能支撐的最大流量應當
是2Gb/8(小B)=250MB/s(大B)的實際流量,當4塊光纖卡才能達到1GB/s的實際流量,所以數據倉庫環境可以考慮換4Gb的光纖卡。
最后說一下硬盤的限制,這里是最重要的,當前面的瓶頸不再存在的時候,就要看硬盤的個數了,我下面列一下不同的硬盤所能支撐的流量大小:
10Krpm15KrpmATA
—————————
10M/s13M/s8M/s
那么,假定一個陣列有120塊15Krpm的光纖硬盤,那么硬盤上最大的可以支撐的流量為120*13=1560MB/s,如果是2Gb的光
纖卡,可能需要6塊才能夠,而4Gb的光纖卡,3-4塊就夠了。
2、IOPS
決定IOPS的主要取決與陣列的算法,cache命中率,以及磁盤個數。陣列的算法因為不同的陣列不同而不同,如我們最近
遇到在hdsusp上面,可能因為ldev(lun)存在隊列或者資源限制,而單個ldev的iops就上不去,所以,在使用這個存儲之前,
有必要了解這個存儲的一些算法規則與限制。
cache的命中率取決于數據的分布,cachesize的大小,數據訪問的規則,以及cache的算法,如果完整的討論下來,這
里將變得很復雜,可以有一天好討論了。我這里只強調一個cache的命中率,如果一個陣列,讀cache的命中率越高越
好,一般表示它可以支持更多的IOPS,為什么這么說呢?這個就與我們下面要討論的硬盤IOPS有關系了。
硬盤的限制,每個物理硬盤能處理的IOPS是有限制的,如
10Krpm15KrpmATA
—————————
10015050
同樣,如果一個陣列有120塊15Krpm的光纖硬盤,那么,它能撐的最
大
IOPS
為
120*150=18000
,這個為硬件限制的理論值,如果超
過這個值,硬盤的響應可能會變的非常緩慢而不能正常提供業務。
另外,我們上一篇也討論了,在raid5與raid10上,讀iops沒有差別,但是,
相同的業務寫
別的,而我們評估的卻正是磁盤的IOPS,如果達到了磁盤的限制,性能肯定是上不去了。
iops
,最終落在磁盤上的
iops是有差
那我們假定一個ca
算在raid5與raid10
,業務的iops是10000
的情況下,每個磁盤的
,讀
iops
cache命中率是
為多少。
30%,讀iops為60%,寫iops為40%,磁盤個數為120,那么分別計
raid5:
單塊盤的
iops=(10000*(1-0.3)*0.6+4*(10000*0.4))/120
=(4200+16000)/120
=168
這里的10000*(1-0.3)*0.6
因為每一個寫,在raid5
的iops為16000個
表示是讀的iops
中,實際發生了4
,比例是0.6,除掉cache命中,實際只有4200個iops
而
個io(注:寫代價,RAID1寫代價為2,RAID5寫代價為
4*(10000*0.4)表示寫的iops,
4,RAID6寫代價為6),所以寫
為了考慮raid5在寫操作的時候,那2個讀操作也可能發生命中,所以更精確的計算為:
單塊盤的
iops=(10000*(1-0.3)*0.6+2*(10000*0.4)*(1-0.3)+2*(10000*0.4))/120
=(4200+5600+8000)/120
=148
計算出來單個盤的iops為148個,基本達到磁盤極限
raid10:
單塊盤的
iops=(10000*(1-0.3)*0.6+2*(10000*0.4))/120
=(4200+8000)/120
=102
可以看到,因為
磁盤的極限iops
raid10。對于一個寫操作,只發生2次
io
,所以,同樣的壓力,同樣的磁盤,每個盤的
iops只有102個,還遠遠低于
在一個實際的ca中,一個恢復壓力很大的standby
通過分析,每個磁盤的iops在高峰時期,快達
到200
個磁盤的iops降到100左右。
(這里主要是寫,而且是小io的寫),采用了
了,導致響應速度巨慢無比。后來改造成raid10
raid5的方案,發現性能很
差,,就避免了這個性能問題,每
本文發布于:2023-03-08 16:26:32,感謝您對本站的認可!
本文鏈接:http://www.newhan.cn/zhishi/a/167826399218784.html
版權聲明:本站內容均來自互聯網,僅供演示用,請勿用于商業和其他非法用途。如果侵犯了您的權益請與我們聯系,我們將在24小時內刪除。
本文word下載地址:raid.doc
本文 PDF 下載地址:raid.pdf
| 留言與評論(共有 0 條評論) |