云计算数据中心组网技术.docx

avatar
作者
筋斗云
阅读量:14

26·2012年第4

期·

CLOUDCOMPUTINGFORUM

云计算专题

CLOUDCOMPUTINGFORUM

电信工程技术与标准化

10个VM跑10个应用,带宽可能就需要100Mbit/s了。

另外,虚拟机迁移技术的出现推动了数据中心站点

间大二层互联和多站点动态选路的网络需求,从而导致

OTV和VPLS等一系列新网络技术的出现。

2.2数据中心多站点及灾备对网络的需求

多个数据中心站点主要有两个目的,一是扩容,二

是灾备。

随着最近几年自然灾害如火山、地震的发生,数据

中心容灾就越来越受到重视。基于云存储数据多副本、

系统容灾需求,一个云计算资源池的各种IT基础设施

资源通常分布于一个物理地区内的多个(大于1,一般

2〜3个)数据中心中。在扩容时,可能遇到某一

应用或计算任务被分配在

多个站点的物理服务器或虚拟机来完成的情况,这时可

以利用虚拟机迁移技术来进行整合。

无论是扩容还是容灾,均提出了跨多个数据中心站

点的以太网络大二层互联需求。

2.3云计算给数据中心网络带来的主要变化

(1)更高的带宽和更低的延迟;

(2)服务器节点(VM)规模的增加;

(3)虚拟机(VM)间通信管理;

(4)跨数据中心站点间的二层互联以承载虚拟机迁

移的需求。

2.4云计算数据中心的网络特点

2.4.1大规模云组网能力

(1)高带宽,高性能:10Gbit/s接口及流量转发

能力;

(2)高可靠性,高扩展性;

(3)易管理性。

2.4.2逻辑集中的云平台能力

(1)物理分散,容灾备份,业务迁移;

(2)大二层网络的采用。

2.4.3虚拟化支持

(1)提供对资源虚拟化的完善支持;

(2)虚拟机流量交换;

(3)虚拟机的控制管理和访问安全。

多业务承载:支持搜索、云服务等各类业务。

3当前数据中心网络技术的演进方向

3.1虚拟机本地互访网络技术

虚拟机本地互访主要指从服务器角度来看,同一台

物理服务器上的虚拟机(VM)互访和数据交换。

为实现虚拟机之间以及虚拟机与外部网络的通信,

必须存在一个“虚拟以太网交换机”以实现转发功能。

在IEEE的文档中,“虚拟以太网交换机”正式英文名称

为“VirtualEthernetBridge”,简称VEB。VEB可以

在虚拟化软件中采用纯软件方式实现,也可以借助

支持SR-IOV特性的网卡通过全硬件方式实现。

软件VEB(或称VSwitch)是目前较为成熟且

产品化较好的技术方案。在一个虚拟化服务器中,

VSwitch从物理网卡接收以太网报文,之后根据虚拟化

软件下发的虚拟机MAC与VSwitch逻辑端口对应关系

表来转发报文;当一个虚拟机发送报文的目的MAC地

址是同一物理服务器上的其它虚拟机时,VSwitch

通过虚拟机与逻辑网卡的对应关系表来转发报文。

VSwitch方案具有虚拟机间报文转发性能好、与外部网

络兼容性好等优点,但是也具有消耗CPU资源、缺乏

网络流量 的可视性、缺乏网络访问控制策略的实施能

力、缺乏管 理可扩展性等问题。

硬件 VEB 的设计思想是将 VEB 功能从虚拟化软件

移植到物理服务器网卡,通过网卡硬件改善 VSwitch 占

用 CPU 资源而影响虚拟机性能的问题。采用硬件 VEB

方案,对 CPU 资源占用少,但仍没有解决虚拟机间流

量的监管、网络策略的部署以及管理可扩展性问题,同

时缺乏主流操作系统产品的支持。

基于软硬件 VEB 的局限性,IEEE 标准组织提出了

802.1Qbg EVB 和 802.1BR(802.1Qbh 的 后 续 版 本 )

两条标准路线。

IEEE 802.1Qbg 由 HP、3COM、IBM、Broadcom、

27 ·2012 年 第4

期·

云 计 算 专 题

C L O U DC O M P U T I N GF O R U M

T E L E C O ME N G I N E E R I N GT E C H N I C SA N DS T A N D A R D I Z A T I O N

图1802.1Qbg EVB 和 802.1Qbh 示意

Qlogic、Emulex 等 公 司 主 导, 它 指 定 了 一 种 Edge

Virtual Bridging(EVB) 标 准, 该 标 准 基 于 一 个 名 为

Virtual Ethernet Port Aggregator (VEPA) 的 技 术。

该标准的核心思想是将虚拟机产生的网络流量全部

交由 与服务器相连的物理交换机进行处理,即使同

一台服务 器的虚拟机间的流量,也发往外部物理交

换机进行转发 处理。

IEEE 802.1Qbh 由 Cisco 主 导, 定 义 了 新 的 以 太

报文格式,增加标签 M-TAG,将端口扩展设备借助报

文 TAG 中的信息,将端口扩展设备上的物理端口映射

成上行物理交换机上的一个虚拟端口,且使用 TAG 中

的 信 息 来 实 现 报 文 转 发 和 策 略 控 制。 该 方 案 的 主 要 目

标 是 为 了 实 现 端 口 扩 展 设 备 与 上 行 交 换 机 之 间 的 通 信

标准化。802.1Qbh 需要变更交换机的转发芯片以适

应 M-Tag 转 发, 目 前 除 了 Cisco 自 己 做 的 芯 片 外, 其

他 厂商都无法支持。

VEB、IEEE 802.1Qbg、IEEE 802.1Qbh 均 实 现

了 类 似 的 功 能, 实 现 上 各 有 千 秋, 技 术 上 各 有 所 长,

并 不 是 绝 对 替 代 关 系, 应 根 据 实 际 情 况 选 择 合 适 的 技

术方案。

3.2 数据中心大二层组网技术

鉴于传统二层组网存在以下问题 :

(1)环路的形成 :为了避免单点故障,接入交换机

双上联到汇聚交换机,形成环路 ;

(2) 广 播 风 暴 的 产 生 :二 层 依 靠 广 播 报 文 实 现

MAC 地址学习,当拓扑中存在环路时,必然形成广播

风暴,影响整个二层域。 目前主要采用生成树协

议(STP)通过有选择性的

阻塞网络冗余链路来达到消除网络二层环路和广播风暴

的 目 的, 同 时 具 备 链 路 的 备 份 功 能。 但 STP 协 议 存 在

收敛速度慢、链路利用率低,链路阻断等问题。

取而代之的技术主要有两大类,一种是在较大型数

据中心采用的增强二层技术(集群 / 堆叠 / 跨机箱捆绑),

厂家通过私有协议采用设备集群 / 堆叠或跨机箱端口捆

绑等技术,实现二层网络设备间所有链路共同转发流量,

同时解决二层环路问题。

3.2.1 堆叠 / 集群技术(IRF2/CSS/VSC)

堆 叠 / 集 群 技 术 是 指 把 两 台 物 理 设 备 虚 拟 成 一 台

逻辑设备,原有两台设备的控制平面和转发平面

整合为 一个整体,对外显示为一台设备,主备设

备控制平面为 Active-Standby 的工作模式,所有设

备的处理能力被 集中在一台设备控制引擎上,整个集

群处理能力为单引 擎能力,集群设备内部需要同步大量

的控制信息、状态 信息。

华三的 IRF2、华为的 CSS、中兴的 VSC 本质上均

为此类技术,具体的实现方式略有不同。

3.2.2 跨机箱链路捆绑(vPC)

跨 机 箱 链 路 捆 绑 技 术 是 指 在 原 有 的 链 路 捆 绑 技 术

基础上进行扩展,实现跨机箱。多设备只有转发

平面整 合,对外显示为一台设备,每台设备运行

独自的控制平

28 ·2012 年 第4

期·

云 计 算 专 题

C L O U DC O M P U T I N GF O R U M

电信工程技术与标准化

面,网络中的设备控制平面工作状态为 Active-Active

模式。设备间只需交互少量的链路捆绑信息,扩展性不

受限于单机控制平面能力。

Cisco 的 vPC 即采用此种方式实现。

表1增强二层与 STP 技术比

等问题,使得二层网络具有和三层网络一样的高扩展性

和高可靠性,同时提供了三层网络无法完成的虚拟机迁

移、资源扩展等功能,是大规模云计算数据中心组网的

发展趋势。但其相关标准正在制定过程中,各厂家均处

于跟踪状态,仅极少数厂家有产品支持,成熟度差。

3.3 数据中心之间二层互联技术

二层互联也称为数据中心服务器网络互联。在不同

的数据中心服务器网络接入层,构建一个跨数据中心的

大 二 层 网 络(VLAN), 以 满 足 服 务 器 集 群 或 虚 拟 机 动

态迁移等场景对二层网络接入的需求。

针对如何跨 IP 网络在不同数据中心之间实现大二

层互联,业界有两种主流的数据中心互联技术。一种是

OTV(私有技术),一种是 VPLS(公共技术标准)。

VPLS(Virtual Private LAN Service) 是 多 协 议

标 记 交 换 的 一 种 形 式, 在 VPLS 网 络 中, 每 个 VPLS

实 例 都 需 要 在 该 实 例 中 的 n 个 PE 路 由 器 之 间 建 立 全

网 状 的 标 签 交 换 路 径 (LSP) 隧 道, 这 样 一 方 面 会 产 生

大量的信令开销,另一方面 PE 路由器要为每条配置的

PW(Pseudo Wire) 复 制 分 组, 处 理 负 担 较 大, 上 述 两

个因素制约了 VPLS 组网规模,影响了该技术更大规模

的部署。

虚 拟 化 中 继 传 输 (OTV,Overlay Transport

Virtualization)技术,是由 Cisco 公司提出,其核心思

想是通过“MAC in IP”的方式,通过隧道技术穿越三

通过上面的比较可以看出,增强二层技术具有链路

利用率高、收敛速度快等优势,而且目前主流交换机厂

家均有相应解决方案的产品,但由于是基于厂家私有技

术实现,且现网应用案例较少,其性能和稳定性还有待

于进一步验证。

另外一种技术是在大型 / 超大型数据中心采用的大

二 层 技 术, 目 前 存 在 两 个 国 际 标 准 Trill(IETF 主 导 )

和 SPB(IEEE 主导)。

Trill 协 议 通 过 建 立 独 立 的 控 制 平 面, 各 交 换 机

MAC 地址信息依靠控制平面报文单独发送,避免了广

播报文的发送。网络中无广播报文,无环路问题,不存

在阻塞链路,所有链路均可承载流量,转发效率高。网

络故障时,无需所有交换机重新计算转发路径,本地实

时收敛,且不影响其它设备流量转发。

SPB 与 Trill 类似,两种协议都主要是在二层环境

中实现类似三层 IP 的路由行为,能实现设备间多路径

负载分担,均衡网络流量,两种协议都是利用 IS-IS 协

议和最短路径来实现在二层网络多路径转发。

大二层技术消除了传统二层技术效率低、扩展性差

表2OTV 与 VPLS 比

29 ·2012 年 第4

期·

OTV VPLS

对广域网的要求 IP 可达即可 必须部署 MPLS

MAC 地址学习方

基于控制平

面学习

基于数据平面广播学习

未知报文是否广播

到其它数据中心

不会

多出口下环路避免

控制平面天

然无环路

需运行 STP over VPLS,

技术复杂,风险高

多出口,多路径负

载分担

支持

不支持,运行 STP 会阻塞

出口,只有一个出口可用

可管理性

配置简单,

维护方便

配置维护复杂

特性 增强二层(集群 / 堆叠) 传统技术(STP)

带宽利

用率

( 所有链路全部转发 )

( 大量链路被 STP 阻塞 )

可靠性

( 支持二层上的负载分担

和快速收敛 )

( 网络收敛慢 )

技术成

熟度

应用少,存在稳定性风险

应用多,成熟

互通性 /

兼容性

设备成对实现,厂家私有

协议,无国际标准

基于 IEEE 标准实现,无

互通问题

管理性 简单 配置复杂

扩展性

(设备的增加不影响性能)

(设备越多收敛越慢性能

越差)

云 计 算 专 题

C L O U DC O M P U T I N GF O R U M

T E L E C O ME N G I N E E R I N GT E C H N I C SA N D S T A N D A R D I Z A T I O N

层 网 络 实 现 二 层 网 络 的 互 通。OTV 技 术 可 以 说 是 专 门

针对数据中心二层互联所提出的,对底层网络要求低,

只 要 IP 可 达 都 可 以 启 用。 配 置 简 单, 安 全 性 高( 故 障

隔离,广播风暴抑制,MAC 地址有策略的同步),内置

负载均衡机制等。

目 前 思 科 采 用 的 是 OTV 技 术, 而 H3C 选 择 的 是

VPLS, 两 者 之 间 最 大 的 不 同 是, 前 者 是 私 有 的 技 术,

只有 Cisco 支持,而后者是开放的标准技术,在目前已

有的大部分产品上都可以实现。

数据中心还是云计算数据中心,其网络架构均应基于可

靠性、可扩展性、灵活性、可管理性等原则采用层次化、

模块化设计。

提供云服务(以 IaaS 和 SaaS 为主)的产业将如雨

后春笋般出现,这些服务提供商将会搭建大量的云计算

数据中心为客户提供云租用服务,互联网数据中心将步

入虚拟化、高带宽、大型化为主的时代。

新型的云计算数据中心网络技术仍在不断推出、完

广告一刻

为您即时展示最新活动产品广告消息,让您随时掌握产品活动新动态!