楓林 發(fā)表于:13年09月23日 10:36 [原創(chuàng)] DOIT.com.cn
對(duì)于EMC高端存儲(chǔ)陣列Symmetrix,它的優(yōu)勢(shì)在于多前后端控制器,并行多核CPU處理,分布式的緩存。那么作為用戶,并不想自己所花費(fèi)的巨資購(gòu)買(mǎi)的存儲(chǔ)陣列只能發(fā)揮一半的性能潛力吧?讓硬件發(fā)揮最大潛力的,需要遵循一個(gè)原則“平衡”,如何將存儲(chǔ)陣列配置在一個(gè)性能平衡的狀態(tài)。本文就Symmetrix VMAX和DMX性能配置給出了幾點(diǎn)建議。
所謂的最佳實(shí)踐,可以理解為一些比較配置做法,這些做法被廠商或者其他用戶所驗(yàn)證。然而,對(duì)于用戶來(lái)說(shuō),它們并不是一定要遵守的“規(guī)則”。用戶通常被建議所遵循這些最佳實(shí)踐的規(guī)則來(lái)配置。不過(guò),如果用戶不那么做,陣列也可以運(yùn)行良好。但是作為用戶,你并不想自己鎖花的巨資購(gòu)入的硬件,也許只能發(fā)揮一半的潛力吧?讓Symmetrix DMX和VMAX硬件發(fā)揮最大潛力的,需要遵循一個(gè)原則 – 那就“Balance“,”平衡“,如何配置整個(gè)陣列讓他工作在平衡的狀態(tài),我們可以從以下幾點(diǎn)考慮:
我們先要從Symmetrix的性能組件講起,我們也把這些組件理解為陣列中的性能資源,這些陣列中的性能資源各自都有自己的處理IO的限制,最大的IOPS和數(shù)據(jù)吞吐量(MB per Seconds),它們包括:物理磁盤(pán)(Disk Drive)、后端控制器(DA,DX)、前端控制器(Fibre、FICON、FCoE、iSCSI)、SRDF控制器等等。
1. 對(duì)于這些組件的擴(kuò)展:首先需要考慮的是盡量配置足夠的資源來(lái)支持峰值的負(fù)載,同時(shí)盡量使用統(tǒng)一的規(guī)則分布這些資源。例如,在擴(kuò)展當(dāng)前硬件的的情況的,建議以相同的硬件配置擴(kuò)展引擎。原來(lái)的系統(tǒng)裝有兩個(gè)引擎,480個(gè)物理磁盤(pán),64GB緩存。那么如果要對(duì)現(xiàn)有的VMAX進(jìn)行擴(kuò)展到4個(gè)引擎,需要同樣添加兩個(gè)引擎,包括480個(gè)物理磁盤(pán)(內(nèi)部的類(lèi)型混合也需要類(lèi)似),64GB緩存,避免不平衡現(xiàn)象的發(fā)生。
2. 對(duì)于CPU和緩存利用率:建議值是VMAX陣列整體利用率在50%-70%會(huì)相對(duì)健康。陣列的整體的利用率會(huì)直接影響到對(duì)于前端主機(jī)應(yīng)用的響應(yīng)時(shí)間。也許有些用戶會(huì)說(shuō),我的陣列長(zhǎng)期處于80%的整體利用率,系統(tǒng)響應(yīng)時(shí)間也可以接受。那么,我們還需要考慮到極端情況 - 硬件故障,因?yàn)閂MAX陣列的所有組件都是以配對(duì)的形式存在。在一邊硬件故障的時(shí)候,所有的負(fù)載會(huì)直接轉(zhuǎn)移到另外一個(gè),那對(duì)于配對(duì)的另外一邊組件,CPU,緩存的壓力就會(huì)翻倍,那么如果長(zhǎng)期運(yùn)行在80%,那么在某個(gè)組件損壞以后,結(jié)果就是一個(gè)組件需要一下子處理超過(guò)160%的負(fù)載,性能影響將會(huì)很?chē)?yán)重。所以,盡量將各個(gè)引擎的負(fù)載“平衡“分配,可以保證陣列運(yùn)行在健康的性能狀態(tài)之下。
3. 對(duì)于物理磁盤(pán)配置:建議也盡量將所有的物理磁盤(pán)在所有的控制器上均勻分布。特別是針對(duì)EFD(閃存盤(pán)),尤為重要,因?yàn)镋FD的IOPS可以達(dá)到1000以上,對(duì)DA的負(fù)載要求比FC和SATA要求更高,均衡的“平衡”分布,會(huì)最大化DA的處理能力。盡量使用適合的RAID保護(hù)級(jí)別,不同RAID保護(hù)級(jí)別在性能和空間利用率上有所差異,這里就不詳細(xì)展開(kāi)了,具體內(nèi)容參考(淺談RAID寫(xiě)懲罰(Write Penalty)與IOPS計(jì)算)。 在性能考慮的時(shí)候需要計(jì)算,而這種計(jì)算需要在滿足容量需求的前提下考慮IOPS。這里提一下些不同磁盤(pán)的IOPS的比較:顯然EFD的IOPS是最高的,15K FC通常會(huì)比10K FC快30%左右(對(duì)于Read Miss而言),比SATA快60%左右。10K FC比SATA快40%左右。但是SATA在順序讀的IO情況下表現(xiàn)還是不錯(cuò)的,但是前提是沒(méi)有并發(fā)的讀取發(fā)生,如果并發(fā),則磁盤(pán)需要更多的尋道時(shí)間,SATA的就會(huì)比較慢了。
4. 對(duì)于FE前端卡的連接: 建議遵循的原則是“Go wide before you go deep”, 也就是說(shuō), 盡量將主機(jī)的鏈路擴(kuò)展多個(gè)前端控制器,如果你的主機(jī)有8條鏈路,正巧你的VMAX也是8個(gè)引擎,那么比較推薦的做法是將這八條鏈路分別連接到每個(gè)前端卡的一個(gè)端口上。如果是4個(gè)引擎,可以選擇是將4條鏈路分別連接到FE前端卡的0 Port,另外連接四條1 Port。如果只有雙引擎,以此類(lèi)推。另外,如果在同一個(gè)前端控制器的兩個(gè)端口連接兩個(gè)鏈路,其實(shí)并不會(huì)對(duì)IO處理量帶來(lái)太多的提升。
5. 關(guān)于Meta Device和主機(jī)端的條帶: 有些用戶會(huì)問(wèn),如果我用Symmetrix中的Meta Device,是不是還需要使用主機(jī)端的,比如LVM的條帶?這里的建議是盡量不要使用多層次的條帶。然而,一個(gè)大的Meta Device的性能表現(xiàn)會(huì)好于有主機(jī)條帶組成的多個(gè)小的Meta Device,例如,24個(gè)Meta Member組成的單個(gè)Meta Device性能會(huì)好于由4個(gè)Meta Member組成的6個(gè)Meta Device然后做了主機(jī)端條帶的。同時(shí),使用Symmetrix 的Meta Device一定意義上可以降低主機(jī)端的配置復(fù)雜度。主機(jī)端的條帶也有的優(yōu)勢(shì),就是對(duì)于每個(gè)主機(jī)端卷,都可以維護(hù)一個(gè)IO隊(duì)列,并發(fā)吞吐量會(huì)比較高。所以,Meta Device 和主機(jī)端的條帶選擇,還需要看實(shí)際情況,IO訪問(wèn)類(lèi)型(關(guān)于不同應(yīng)用程序存儲(chǔ)IO類(lèi)型的描述)等等,沒(méi)有絕對(duì)最優(yōu)做法。
6. 適時(shí)的性能監(jiān)控: 即使你的Symmetrix陣列已經(jīng)很好的配置,可以很好的完成應(yīng)用存儲(chǔ)負(fù)載。但沒(méi)有適當(dāng)?shù)貙?duì)系統(tǒng)進(jìn)行監(jiān)控,性能問(wèn)題可能在短期內(nèi)不會(huì)出現(xiàn),而長(zhǎng)期來(lái)看,也許一年兩年后,性能問(wèn)題還是可能會(huì)出現(xiàn)。因?yàn)檫@段時(shí)間,前端的應(yīng)用負(fù)載在增加,存儲(chǔ)的數(shù)據(jù)總?cè)萘恳矔?huì)增長(zhǎng)。原先沒(méi)有顯現(xiàn)的性能問(wèn)題會(huì)慢慢浮出水面,所以適當(dāng)?shù)臅r(shí)候使用工具(Symmetrix SPA,主機(jī)端的IOSTAT、SAR、RMF)監(jiān)控陣列和存儲(chǔ)的狀態(tài)也是必要的工作之一。
最后總結(jié)一下幾點(diǎn)本文的幾個(gè)要點(diǎn):
•配置足夠的資源來(lái)對(duì)應(yīng)負(fù)載,同時(shí)足夠考慮峰值和硬件損壞的狀況。
•均勻的使用陣列中的資源,前端、后端控制器、物理磁盤(pán)等等。
•盡量簡(jiǎn)單的配置,不要把配置搞得太復(fù)雜。
•使用多路徑控制軟件可以優(yōu)化前端卡的負(fù)載,使用FAST和Optimizer可以優(yōu)化后端卡的負(fù)載。
本文作者為EMC中文技術(shù)社區(qū)(https://community.emc.com/go/chinese)技術(shù)版主。如果您對(duì)本文有任何疑問(wèn)和不同見(jiàn)解,也歡迎到EMC中文支持論壇參與討論。
公司簡(jiǎn)介 | 媒體優(yōu)勢(shì) | 廣告服務(wù) | 客戶寄語(yǔ) | DOIT歷程 | 誠(chéng)聘英才 | 聯(lián)系我們 | 會(huì)員注冊(cè) | 訂閱中心
Copyright © 2013 DOIT Media, All rights Reserved. 北京楚科信息技術(shù)有限公司 版權(quán)所有.