加入收藏 設為首頁 聯(lián)系我們 歡迎光臨本網站!
郵箱:support@zcecs.com
地址:北京市西城區(qū)南濱河路27號貴都國際中心A座1111室
數(shù)據(jù)中心的發(fā)展趨勢
最近幾年來,互聯(lián)網的快速發(fā)展導致了諸如電子商務、社交媒體和互聯(lián)網金融服務等新興業(yè)務的出現(xiàn)。而隨著智能移動設備的使用的增長,人們的工作學習和個人日常生活都比以前任何時候更緊密地連接到互聯(lián)網,進而創(chuàng)造了對數(shù)據(jù)的巨大需求。而鑒于當前的這樣一個由我們自己每天所生成、處理和存儲的大量數(shù)據(jù)的“大數(shù)據(jù)”時代,使得越來越多的企業(yè)組織機構開始意識到,更有效地管理數(shù)據(jù)將是他們未來業(yè)務成功的關鍵要素。因此,數(shù)據(jù)中心也成為當下增長最快的市場之一。
根據(jù)最新的預測顯示,全球未來對于以太網光收發(fā)器的驅動力將主要來自大型數(shù)據(jù)中心,電信運營商和傳統(tǒng)企業(yè)的快速增長。而根據(jù)Dell‘Oro集團根據(jù)2015年全球以太網服務器出貨量的預測,10GbE服務器將在2016年占據(jù)最大的市場份額,而25GbE服務器的市場份額將在2017年實現(xiàn)快速增長。
在過去,傳統(tǒng)企業(yè)的數(shù)據(jù)中心主要關注于數(shù)據(jù)存儲和準備災難恢復方面,但從未對實時的多用戶數(shù)據(jù)檢索和突發(fā)的大流量訪問的承載能力提出過多要求。然而,隨著大數(shù)據(jù)的出現(xiàn),數(shù)據(jù)中心的操作運營正逐漸從數(shù)據(jù)存儲轉移到基于需求的實時數(shù)據(jù)分析和處理。企業(yè)和個人消費者越來越多地要求越來越多的實時數(shù)據(jù)訪問。許多中小型企業(yè)(SME)負擔不起通過自建的大型數(shù)據(jù)中心來支持這類大數(shù)據(jù)服務,故而他們的這些需求可以通過借助云計算來滿足。一些預測稱,未來企業(yè)網絡中云服務方面的支出將占到IT預算的高達三分之一到一半。
在云計算的快速增長的驅動下,大型數(shù)據(jù)中心正在飛躍發(fā)展。全球的許多互聯(lián)網巨頭目前都已經將云服務作為其未來的重要戰(zhàn)略。他們在全世界范圍內廣泛的尋找合適的地方建立巨型數(shù)據(jù)中心,希望抓住更大的全球云計算市場的份額。甚至盡管許多新興的互聯(lián)網巨頭在意識到云計算將會是整個網絡行業(yè)的未來的關鍵方面起步較晚,但他們也開始在國內外加大對于其數(shù)據(jù)中心的投資。
三級網絡架構與二級葉脊網絡架構
與傳統(tǒng)的、流量是由本地客戶端到服務器交互(南北走向)為主的企業(yè)數(shù)據(jù)中心相比,大型互聯(lián)網數(shù)據(jù)中心的網絡流量主要是由服務器到服務器的流量(東西走向),是云計算應用程序所必需的。這些數(shù)據(jù)中心的用戶數(shù)量巨大,他們有多樣化和分散的需求,他們需要不間斷的用戶體驗;ヂ(lián)網數(shù)據(jù)中心需要更高的帶寬和更有效的網絡架構來處理來自大量用戶的尖峰業(yè)務需求,例如對于在線音樂、視頻、游戲和購物的需求。
目前,主流的三級樹型狀網絡架構是基于傳統(tǒng)的南北走向傳輸模型。當某臺服務器需要與不同網段的另一臺服務器通信時,必須通過接入層——匯聚層——核心層——匯聚層——接入層這樣的一個路徑。在具有數(shù)千臺服務器互相通信的大數(shù)據(jù)服務的云計算環(huán)境中,這種模型是無效的,因為其會消耗大量的系統(tǒng)帶寬并引發(fā)延遲性的問題。為了解決這些問題,近年來世界上的大型互聯(lián)網數(shù)據(jù)中心越來越多地使用葉脊(spine-and-leaf)網絡架構,這在服務器(東西走向)之間傳輸數(shù)據(jù)更加方便。參見下圖1.
這種網絡架構主要由兩部分組成:一個脊椎交換層和葉交換層。作為其最佳功能特征,每個葉交換機在pod中連接到每臺脊交換機,這極大地提高了通信效率,并減少了不同服務器之間的延遲。此外,脊葉兩級網絡架構避免了購買昂貴的核心層交換設備的需要,并且在業(yè)務需要保證的情況下可以使得逐漸添加交換機和網絡設備以用于擴展更容易,從而節(jié)省了初始投資成本。

圖1:傳統(tǒng)的三級網絡架構vs. 脊葉兩級網絡架構
處理脊葉兩層架構的布線挑戰(zhàn)
數(shù)據(jù)中心管理人員們在部署具有脊葉兩級網絡架構的數(shù)據(jù)中心時遇到了一些新問題。由于每臺葉交換機必須連接到每臺脊交換機,處理大量的網絡布線成為了一大主要的挑戰(zhàn)。例如,Corning公司的網狀互連模塊(下表1)解決了這一困難的問題。
表1:網格模塊產品描述。

現(xiàn)在,許多企業(yè)用戶已經開始使用高密度的40GbE交換線卡作為10GbE應用程序的一部分了。例如,高密度的10GbE SFP +線卡具有48x10GbE端口,而高密度40GbE QSFP +主板可具有36x40GbE端口。因此,可以使用40GbE線路卡在相同的布線空間和功耗條件下獲得4×36 = 144×10GbE的端口,從而降低單端口10GbE的成本和功耗。
下圖2顯示了布線系統(tǒng)中網格模塊的三種典型的應用。四個QSFP 40GbE通道(A,B,C和D)在網格模塊的MTP輸入處分為4x4的10GbE通道。然后將10GbE信道在網格模塊內被打亂,使得與QSFP收發(fā)器A相關聯(lián)的四個10GbE信道跨四個MTP輸出上分離。其結果是,連接到一個MTP輸出的四個SFP收發(fā)器從QSFP收發(fā)器A,B,C和D中的每一個接收10GbE信道。因此,我們在QSFP脊柱交換器端口和葉交換機端口之間實現(xiàn)了全網狀10GbE架構連接,而不必在MDA處斷開到LC連接。

圖2:布線系統(tǒng)中的網格模塊的三種典型應用。
下面的示例顯示了如何在主分布區(qū)(MDA)優(yōu)化的脊柱和葉片配置的布線結構。例如,我們使用具有48x10GbE SFP +端口線卡的葉交換機和具有4x36x40GbE QSFP +端口線卡的脊柱交換機。如果葉交換機具有3:1的超額預訂比率,則來自每個葉交換機的16x10GbE上行鏈路端口必須連接到16臺脊柱交換機。假定來自脊柱交換機的40GbE端口作為四個10G端口運行,則每個脊柱交換機必須連接4x36x4 = 576個葉交換機,如圖3所示。

圖3:在10GbE應用中的脊柱和葉兩級網絡拓撲架構

圖4:全交叉連接布線結構與脊葉網架構MDA的比較
如果您企業(yè)使用傳統(tǒng)布線以實現(xiàn)脊葉交換機的完全架構網絡,則每臺脊柱交換機的40GbE QSFP +端口通過MDA中的MTP至LC模塊分為4x10GbE通道,然后通過交叉連接跳線以及連接到葉交換機的10GbE通道的相應數(shù)量的MTP-LC模塊(如圖4的左側所示)。傳統(tǒng)的方法沒有被廣泛使用,因為布線系統(tǒng)非常復雜,成本相對較高,并且在MDA需要大量的機架空間。在這種情況下,網格模塊可以成為解決這些問題的一個很好的解決方案。如圖4的右側所示,在MDA中的網絡模塊的情況下,葉交換機完全網格的實現(xiàn),不必通過一個MTP至LC的模塊將脊交換機的40GbE端口拆分成10GbE信道。這種方法大大提高了MDA布線架構,并且對用戶有很大的價值,如下表2所示。
表2:在MDA中的網格模塊的優(yōu)勢。

結論
隨著數(shù)據(jù)中心網絡帶寬需求的增加,數(shù)據(jù)中心骨干網逐漸從10GbE升級到40GbE,未來將達到100GbE.因此,通過使用現(xiàn)在分解為4×10GbE的40GbE和將來的100GbE分解成4×25GbE,脊葉網絡架構將是用于支持大數(shù)據(jù)傳輸?shù)慕洕透咝У木W絡架構。使用網格模塊實現(xiàn)脊葉網絡的完全架構網絡支持當前的40GbE網絡,并且還允許實現(xiàn)到未來的100GbE網絡能力的無縫過渡。