數據中心核心網絡技術一覽
來源:程序員人生 發布時間:2015-01-30 08:28:09 閱讀次數:3720次
主機內2層轉發(即服務器內虛機間轉發)
基于本地軟件交換機交換
VMWare 方案,通過服務器上軟件交換機(如 Linux 網橋、OpenvSwitch)來實現。主要問題是對服務器性能有消耗。
802.1Qbh BPE(Bridging Port Extend)
已終止。Cisco 主導,數據層面為 PE(Port Extender)。
802.1BR
Cisco 主導,將交換放在外部交換機,用 tag 來辨別 vm 流量。
Cisco VN-Tag
Cisco 私有技術,
802.1Qbg EVB(Edge Virtual Bridging)
數據層包括3種實現:
- VEB(Virtual Ethernet Bridging):本地交換機(服務器內,軟或硬)作為完全功能交換機,流量正常交換,擴大性好
- VEPA(Virtual Ethernet Port Aggregator):本地交換機端口分上行(接外部交換機)和下行(接虛機),將流量扔給外部交換機交換,VEPA
負責處理往下行的多播/廣播
- Multi Channel:虛機通過虛通道直接連到外部交換機的虛擬接口上,本地不做任何交換處理 取得主流非 Cisco 廠家支持
跨核心網的2層交換
2層 Ethernet 網絡的多路徑技術,解決范圍問題和效力問題。
- SPB & PBB:軟件計算路徑。
- TRILL:MACinMAC 封裝,添加 TRILL 頭(含有入、出口 NickName),核心根據 NickName 來轉發。
- Fabric Path/L2MP/E-TRILL:外層用私有的頭封裝后轉發。
跨數據中心2層交換
光纖直連
基于 MPLS 的2層互聯
VLL 和 VPLS。
基于 IP 網絡的3層互聯
1般斟酌的點包括遷移、交換機表項壓力、VLAN 數量限制等問題。基本思路就是利用隧道或覆蓋網進行穿透。
VLLoGRE、VPLSoGRE
用 GRE 隧道在 IP 網絡上進行跨站點溝通。
L2TPv3
封裝2層包在 IP 內,僅支持兩站互通。
OTV
封裝2層包在 IP 內。
VXLAN
最多見,由 Cisco 和 VMware 發起,目前 Brocade、Avaya、Arista 等均已支持。
- 封裝為 UDP 包轉發。這里有個小問題:UDP 端口如果唯1將影響到中間如何多路徑均衡,不唯1又沒法解決 VXLAN 協議探測問題;我個人推薦用1組固定的 UDP 端口。
- 24 位 VXLAN ID (VNI) 取代本來的 12 位 VLAN ID。
- 隧道兩端是 VTEP,負責進行封裝(VLAN ID->VNI)和解封裝(VNI -> VLAN ID)。
- 控制平面上用封裝的 ARP 包來進行定位,利用 IP 組播來詢問和傳播位置信息,所以相同 MAC 地址的虛機同時出現的租戶數受組播數量限制。
- VTEP 保存兩個信息,1個是本地虛機(VLAN ID 或 MAC 地址等其它信息) 到 VNI 的雙向映照,另外一個是目標 MAC+VNI 到目標 VTEP IP 的映照。同時,VTEP 可以額外檢查 VNI 和 MAC 的信息是不是匹配。
NVGRE
基于 GRE 的通用封裝。
STT
VMware 支持,底下用 TCP 轉發。
GENEVE
通用封裝,試圖整合已有協議。
PTN
PTN 基于 MPLS-TP,最初面向2層互聯,先已支持3層。標準化略成熟
IP RAN
增強型路由器,3層功能完備。
虛擬化
數據平面
主機處理的都是以太網包,封裝后,在邏輯交換層(多利用 IP 路由)黑箱轉發。目前多是1虛多。
控制平面
- 1虛多是將同1個控制平面進行隔離,管理不同的實體。代表有 VRF。
- 多虛1,是將多個控制實體之間的信息進行溝通整合,構成1個邏輯對象。
多數據中心的選擇
- 1個是多個服務在不同站點,如何弄負載均衡。主要想法是更新 DNS 或 NAT 映照信息。
- 1個是遷移服務,保持 IP 不變。其實主要是想法從 IP (同時做標志和位置) 中將標志信息提取出來,這個是個很古老的想法了。
SLB/GSLB/3DNS/GSS
LISP:Cisco 私有協議
后端存儲網絡
傳統的fabric網絡
發展比較緩慢。
FCoE
在以太網上封裝 fabric 的協議。
轉載請注明:http://blog.csdn.net/yeasy/article/details/42967049
生活不易,碼農辛苦
如果您覺得本網站對您的學習有所幫助,可以手機掃描二維碼進行捐贈