當前位置:工程項目OA系統(tǒng) > 泛普各地 > 遼寧OA系統(tǒng) > 沈陽OA系統(tǒng) > 沈陽OA行業(yè)資訊
未來數(shù)據(jù)中心基礎(chǔ)架構(gòu)的新挑戰(zhàn)與新發(fā)展
1 概述
隨著企業(yè)數(shù)據(jù)中心建設(shè)的深化進行,企業(yè)業(yè)務(wù)數(shù)據(jù)集中密度越來越高,服務(wù)器存儲數(shù)量不斷增長,網(wǎng)絡(luò)架構(gòu)不斷擴展,空間布局、系統(tǒng)布線、電力能耗壓力不斷增加。作為數(shù)據(jù)中心業(yè)務(wù)承載的大動脈,基礎(chǔ)網(wǎng)絡(luò)架構(gòu)層面則直接面臨著持續(xù)的嚴格挑戰(zhàn)。
網(wǎng)絡(luò)基礎(chǔ)技術(shù)的快速發(fā)展為數(shù)據(jù)中心變革提供了強大支撐動力,基礎(chǔ)網(wǎng)絡(luò)演進加快。
2 數(shù)據(jù)中心基礎(chǔ)網(wǎng)絡(luò)的挑戰(zhàn)與驅(qū)動力
2.1 高密服務(wù)器、存儲數(shù)據(jù)中心
數(shù)據(jù)中心的物理服務(wù)器、存儲系統(tǒng)數(shù)量快速增長,使得數(shù)據(jù)中心規(guī)模不斷擴大。企業(yè)數(shù)據(jù)集中、業(yè)務(wù)整合的過程,表現(xiàn)為高密應用系統(tǒng)的集中,同時,服務(wù)器與存儲等IT設(shè)備計算處理能力遵循摩爾定律的增長,也使得數(shù)據(jù)中心的業(yè)務(wù)處理能力持續(xù)性增強。
目前1Gbps~8Gbps級別的服務(wù)器、存儲系統(tǒng)網(wǎng)絡(luò)接口已經(jīng)是主流,從而使得基礎(chǔ)網(wǎng)絡(luò)系統(tǒng)的千兆接入、萬兆互聯(lián)成為數(shù)據(jù)中心建設(shè)的基本標準。
下一代計算設(shè)備已經(jīng)開始提供萬兆接口,目前多核服務(wù)器已經(jīng)具備萬兆吞吐能力,多萬兆網(wǎng)絡(luò)接口的服務(wù)器、存儲系統(tǒng)已經(jīng)開始在企業(yè)數(shù)據(jù)中心進行部署,計算能力迅速提升的同時也使得面向網(wǎng)絡(luò)的接入帶寬需求過渡到萬兆環(huán)境。
計算虛擬化的技術(shù)革新,使得單一高計算能力物理服務(wù)器虛擬化成多個邏輯計算單元,極大提高了系統(tǒng)的計算效能以及對存儲訪問的高速吞吐。同時,因等同于將此前的多個服務(wù)器應用系統(tǒng)疊加在一個網(wǎng)絡(luò)接口下,網(wǎng)絡(luò)流量急速提升,對數(shù)據(jù)中心基礎(chǔ)網(wǎng)絡(luò)提出了相當于傳統(tǒng)環(huán)境下數(shù)倍乃至數(shù)十倍的性能要求。
同時,在高密應用集中環(huán)境下,基礎(chǔ)網(wǎng)絡(luò)的可靠性要求更為苛刻。局部網(wǎng)絡(luò)產(chǎn)生的故障,對數(shù)據(jù)中心提供服務(wù)能力的影響比傳統(tǒng)環(huán)境要更為嚴重。傳統(tǒng)數(shù)據(jù)中心的局部故障可能只對單一應用造成短時影響,而新的數(shù)據(jù)中心環(huán)境下,大量應用密集,故障影響范圍擴大化。因此對于網(wǎng)絡(luò)變化的快速收斂、更強的故障自愈能力成為下一代數(shù)據(jù)中心平臺的重要研究課題。
2.2 數(shù)據(jù)中心多個獨立網(wǎng)絡(luò)
數(shù)據(jù)中心發(fā)展建設(shè)過程中,出于不同的應用連接要求,逐步出現(xiàn)了多個獨立網(wǎng)絡(luò)系統(tǒng),如圖1所示。
以太網(wǎng)交換網(wǎng)絡(luò):用于連接承載終端客戶與業(yè)務(wù)服務(wù)器系統(tǒng)的數(shù)據(jù)訪問,強調(diào)高速、可靠、安全、遠端互聯(lián)性、開放性,是當前標準化最普遍的基礎(chǔ)網(wǎng)絡(luò)形態(tài)。
服務(wù)器高速互聯(lián)網(wǎng)絡(luò):多用于服務(wù)器高速集群互聯(lián),在大多數(shù)條件下使用以太網(wǎng)進行承載;但在某些特殊要求應用環(huán)境下,使用Infiniband(簡稱IB)網(wǎng)絡(luò)進行集群互聯(lián),IB的特點主要是時延小,不丟包。IB的低時延在于轉(zhuǎn)發(fā)機制為cut-through模式(傳統(tǒng)以太網(wǎng)交換機為store-forwarding模式),可達200納秒。同時IB通過credit機制進行端到端流控,使得網(wǎng)絡(luò)突發(fā)大流量得到平緩,數(shù)據(jù)保持在服務(wù)器接口而避免流量丟失。
存儲訪問網(wǎng)絡(luò):用于承載服務(wù)器上層應用系統(tǒng)對后端存儲的數(shù)據(jù)操作,存儲網(wǎng)路主要在于傳送SCSI指令,核心要求是高帶寬、不丟包。目前常見的存儲網(wǎng)絡(luò)有FC交換機構(gòu)建的FC-SAN和以太網(wǎng)交換機構(gòu)建的IP-SAN。
多套網(wǎng)絡(luò)的數(shù)據(jù)中心(圖1),不僅增加了投資成本,同時由于技術(shù)差異大,需要不同的專業(yè)人員進行操作,給數(shù)據(jù)中心的運行管理帶來更多的不便及較高的培訓成本。隨著數(shù)據(jù)中心規(guī)模的不斷增大,龐大的異構(gòu)網(wǎng)絡(luò)也成為影響數(shù)據(jù)中心TCO的一個重要環(huán)節(jié)。
2.3 數(shù)據(jù)中心流量突發(fā)
數(shù)據(jù)中心基礎(chǔ)網(wǎng)絡(luò)高性能的特點已經(jīng)為建設(shè)者不容置疑,全線速、高帶寬是設(shè)備選型的核心因素。但是,隨著數(shù)據(jù)中心應用的迅猛增長,網(wǎng)絡(luò)承載的業(yè)務(wù)流也不斷增長。
根據(jù)網(wǎng)絡(luò)觀測(圖2),以1毫秒為間隔采集到的流量峰值是平均流量的2-3倍。因此在高密應用環(huán)境下的數(shù)據(jù)中心網(wǎng)絡(luò)中,特別是萬兆互聯(lián)環(huán)境下,業(yè)務(wù)流量突發(fā)異常顯著,而這樣的突發(fā)數(shù)據(jù)流需要網(wǎng)絡(luò)交換系統(tǒng)進行緩存和排隊調(diào)度。通常的網(wǎng)絡(luò)設(shè)計雖然是千兆服務(wù)器接入、萬兆網(wǎng)絡(luò)骨干,然而在網(wǎng)絡(luò)的骨干層面是基本存在一定的帶寬收斂設(shè)計,如出現(xiàn)多個萬兆端口向較少萬兆端口突發(fā)數(shù)據(jù),則存在嚴重的突發(fā)擁塞瓶頸。
當交換系統(tǒng)對流量突發(fā)的緩存調(diào)度能力有限時,必然引起在集中業(yè)務(wù)訪問引起的流量突發(fā)情況下的大量丟包,引起傳輸層的窗口滑動、重傳和流量環(huán)境進一步惡化,降低服務(wù)響應能力。
傳統(tǒng)的交換方式只能進行最多8種流的區(qū)分和調(diào)度,業(yè)務(wù)能力有限,難以滿足當前數(shù)據(jù)中心高密應用需求,特別是浪涌突發(fā)環(huán)境下,粗粒度調(diào)度能力、低容量網(wǎng)絡(luò)緩存無法解決眾多關(guān)鍵應用的高吞吐量突發(fā)訪問業(yè)務(wù)要求。
3 數(shù)據(jù)中心基礎(chǔ)架構(gòu)的新發(fā)展
3.1 100G時代來臨
以太網(wǎng)技術(shù)發(fā)展是以10倍速方式躍階的,如圖3所示。當前的千兆接入、萬兆骨干已經(jīng)是普遍構(gòu)建的網(wǎng)絡(luò)架構(gòu),隨著成本的持續(xù)下降,萬兆技術(shù)也開始從網(wǎng)絡(luò)的核心,推進到網(wǎng)絡(luò)邊緣,推進到服務(wù)器、存儲設(shè)備上。
研究下一代以太網(wǎng)標準的HSSG技術(shù)工作組已經(jīng)結(jié)束爭論,制定一個包含40Gbps和100Gbps速度的單一標準,IEEE802.3ba,并將在2010年確定。40Gbps主要面向服務(wù)器,而100Gbps則面向網(wǎng)絡(luò)匯聚和骨干。每種速度將提供一組物理接口:40Gbps將有1米交換機背板鏈路、10米銅纜鏈路和100米多模光纖鏈路標準;100Gbps將有10米銅纜鏈路、100米多模光纖鏈路和10千米、40公里單模光纖鏈路標準。
基于面向40G/100G下一代超高帶寬的發(fā)展理念,H3C推出的下一代數(shù)據(jù)中心級業(yè)務(wù)調(diào)度統(tǒng)一交換平臺12500在架構(gòu)設(shè)計上考慮了對40G/100G的兼容,架構(gòu)上設(shè)計當前每槽位可達到80G線速帶寬,可支持兩個40G接口,并能通過后端交換矩陣擴展到每槽位1個100G接口。在802.3ba標準發(fā)布后,能夠通過技術(shù)平滑升級過度到超高速網(wǎng)絡(luò)環(huán)境,并保持對傳統(tǒng)千兆、萬兆的兼容性。
3.2 數(shù)據(jù)中心的網(wǎng)絡(luò)浪涌容載能力與業(yè)務(wù)調(diào)度
為解決數(shù)據(jù)中心高密應用的調(diào)度、流量的浪涌式突發(fā)緩沖等關(guān)鍵的性能問題,必然在進行交換平臺的基礎(chǔ)架構(gòu)設(shè)計上進行技術(shù)革新。
首先是在交換平臺上提供硬件化的流量管理能力,大容量的緩存匹配密集的硬件調(diào)度隊列,將調(diào)度能力擴展到上萬個隊列,一旦使上層應用數(shù)據(jù)流進入相應的硬件隊列,則可實現(xiàn)大范圍(遠超過8個隊列)的數(shù)據(jù)中心級業(yè)務(wù)調(diào)度能力,如圖4所示。
另一個技術(shù)變革是改變傳統(tǒng)交換系統(tǒng)的出端口緩存方式,而采用分布式ingress緩存架構(gòu)。傳統(tǒng)出端口緩存方式,整個系統(tǒng)的業(yè)務(wù)突發(fā)容載能力僅由出端口可分配的緩存大小決定,因此容量是固定的,流量達到一定的突發(fā)界限,即瞬時突發(fā)數(shù)據(jù)量超過了出端口緩存大小,便導致整個系統(tǒng)開始出現(xiàn)丟包,而且,經(jīng)測試觀測,此種緩存能力的實際表現(xiàn)與根據(jù)端口緩存大小的理論計算是符合的。
分布式緩存技術(shù)則采用了區(qū)別于傳統(tǒng)方式的架構(gòu),如圖5所示,正常轉(zhuǎn)發(fā)過程中,出端口是以萬兆線速對外轉(zhuǎn)發(fā)數(shù)據(jù)的,當出現(xiàn)多個萬兆到一個萬兆的突發(fā)流量開始超萬兆擁塞時,在出端口的報文標記隊列計數(shù)將快速增長,達到一定閾值(進入準擁塞狀態(tài))便產(chǎn)生端到端(E2E)流控信息到各流量來源(ingress)端口,ingress端口緩存即開始將突發(fā)流量緩存到本地并停止對出口發(fā)送數(shù)據(jù),同時出口仍然以萬兆線速發(fā)送瞬時的超萬兆突發(fā)流量,當出端口解除準擁塞狀態(tài)后,E2E流控通知ingress緩存將保留的數(shù)據(jù)進行正常轉(zhuǎn)發(fā)。
整個分布式緩存機制由流量管理器在硬件層面協(xié)調(diào),無需軟件參與,因而工作在系統(tǒng)時鐘級別。而每個ingress緩存大小均要求在萬兆全線速條件下達到200毫秒的突發(fā)流量緩存能力,因此,在突發(fā)引起的瞬時擁塞時,N個端口向一個端口轉(zhuǎn)發(fā)的緩存能力是N*200毫秒,與傳統(tǒng)出端口緩存固定能力相比有本質(zhì)的提升。
3.3 數(shù)據(jù)中心級HA進入毫秒計時
高可用是數(shù)據(jù)中心基礎(chǔ)網(wǎng)絡(luò)的永恒話題,據(jù)有關(guān)機構(gòu)調(diào)查,可用性是各行業(yè)數(shù)據(jù)中心各項業(yè)務(wù)指標排在首位的關(guān)注項。
對于當前數(shù)據(jù)中心密集應用環(huán)境下,核心基礎(chǔ)網(wǎng)絡(luò)平臺的應對故障快速恢復能力已經(jīng)不是秒級指標能夠滿足的,當前的快速收斂目標已經(jīng)設(shè)定在毫秒級,因此,毫秒級恢復能力成為數(shù)據(jù)中心的故障恢復指標。
H3C數(shù)據(jù)中心交換平臺12500可提供的已測試部分指標數(shù)據(jù)為:
雙引擎主備倒換切換時間 0丟包
單電源模塊更換 0丟包
OSPF GR 0丟包
BFD for VRRP 50毫秒
路由學習能力 8000條/秒
3.4 數(shù)據(jù)中心統(tǒng)一交換架構(gòu)
隨著以太網(wǎng)技術(shù)的進一步發(fā)展,新的技術(shù)標準不斷推動基礎(chǔ)平臺架構(gòu)的變化與融合。
萬兆交換系統(tǒng)的時延已經(jīng)降低到微妙級別,而當前已經(jīng)有技術(shù)使得以太網(wǎng)芯片在cut-through方式下能夠達到200-300納秒級別,已經(jīng)逼近Infiniban的低時延水平。而對于計算型應用而言,采用以太網(wǎng)互聯(lián)的微妙級時延已經(jīng)能夠滿足大量的計算需求,近幾年高性能計算TOP500排名中基本上超過50%的計算網(wǎng)絡(luò)互聯(lián)是采用了千兆以太網(wǎng),隨著萬兆、40/100G技術(shù)的深入發(fā)展和終端萬兆接口技術(shù)成熟,以太網(wǎng)將成為服務(wù)器互聯(lián)計算承載的主流平臺。
無丟包以太網(wǎng)技術(shù)標準族(802.3Qau、802.1Qbb、802.1Qaz、Data Center Bridging Exchange Protocol)和相關(guān)技術(shù)即將發(fā)布。并在此基礎(chǔ)上進一步支持FCOE,使得以太交換網(wǎng)絡(luò)能夠承載FC存儲數(shù)據(jù)流。
數(shù)據(jù)中心網(wǎng)絡(luò)發(fā)展趨勢是融合的統(tǒng)一交換架構(gòu),在一個交換平臺上有效支撐業(yè)務(wù)的前端訪問、服務(wù)器高速互聯(lián)、存儲訪問。
對于H3C數(shù)據(jù)中心方案架構(gòu)而言,統(tǒng)一架構(gòu)的網(wǎng)絡(luò)平臺與業(yè)內(nèi)技術(shù)發(fā)展是同步的,遵循圖6所示的幾個階段。
隨著當前數(shù)據(jù)中心系統(tǒng)架構(gòu)的不斷發(fā)展,密集的業(yè)務(wù)需求,要求數(shù)據(jù)中心交換網(wǎng)絡(luò)成為高性能、融合業(yè)務(wù)統(tǒng)一交換的基礎(chǔ)平臺,滿足數(shù)據(jù)中心規(guī)模的不斷發(fā)展。
- 1云計算也許帶給安全行業(yè)一次新的機遇
- 2Google新功能:政府管控數(shù)據(jù)搜索
- 3采用上網(wǎng)本處理器的服務(wù)器或成為新市場
- 4OA適應XX集團在未來較長時期內(nèi)的發(fā)展變化
- 5排除Linux服務(wù)器接入故障的七個要素
- 6透過宣傳迷霧了解服務(wù)器虛擬化真相
- 7中小企業(yè)如何選擇Linux備份工具?
- 8存儲的多樣選擇與安防存儲發(fā)展趨勢
- 9SaaS不能夠吃大鍋飯
- 10虛擬化現(xiàn)狀分析:是前進還是搖擺?
- 1130年信息安全發(fā)展歷程的十大里程碑
- 12安全技術(shù):從網(wǎng)絡(luò)注入到釣魚式攻擊?
- 13數(shù)據(jù)集成服務(wù)破解SaaS集成難題
- 14IT管理之力 避企業(yè)信息泄密之誤
- 15八種方法對現(xiàn)有數(shù)據(jù)中心進行“綠化”
- 16SAS 下一代存儲技術(shù)的新寵
- 17分析:2015年云計算市場規(guī)模將達1800億美元
- 18Linux系統(tǒng)與Win系統(tǒng)目錄結(jié)構(gòu)差異
- 19優(yōu)化SQL語句中的物理查詢方法分享
- 20國產(chǎn)SSL VPN應具備的九大技術(shù)和功能
- 21石曉虹:從斷網(wǎng)事件看“肉雞”的威脅
- 22鎖好數(shù)據(jù)防盜門 走出安全誤區(qū)
- 23基站建設(shè):環(huán)保理念需要貫穿始終
- 24信息如何存儲 云計算有國界嗎?
- 25泛普OA辦公系統(tǒng)項目營銷推廣策劃
- 26以色列國防部老兵看云計算的安全問題
- 27制定綠色IT策略應該考慮的四個方面
- 28股份公司OA辦公系統(tǒng)證照管理和會議管理實施功能簡介
- 29OA辦公系統(tǒng)未來是簡單好,還是全副武裝好
- 30如何使用虛擬化里的高級NAS功能?
成都公司:成都市成華區(qū)建設(shè)南路160號1層9號
重慶公司:重慶市江北區(qū)紅旗河溝華創(chuàng)商務(wù)大廈18樓