26·2012年第4
期·
CLOUDCOMPUTINGFORUM
云计算专题
CLOUDCOMPUTINGFORUM
电信工程技术与标准化
10个VM跑10个应用,带宽可能就需要100Mbit/s了。
另外,虚拟机迁移技术的出现推动了数据中心站点
间大二层互联和多站点动态选路的网络需求,从而导致
OTV和VPLS等一系列新网络技术的出现。
2.2数据中心多站点及灾备对网络的需求
多个数据中心站点主要有两个目的,一是扩容,二
是灾备。
随着最近几年自然灾害如火山、地震的发生,数据
中心容灾就越来越受到重视。基于云存储数据多副本、
系统容灾需求,一个云计算资源池的各种IT基础设施
资源通常分布于一个物理地区内的多个(大于1,一般
2〜3个)数据中心中。在扩容时,可能遇到某一
应用或计算任务被分配在
多个站点的物理服务器或虚拟机来完成的情况,这时可
以利用虚拟机迁移技术来进行整合。
无论是扩容还是容灾,均提出了跨多个数据中心站
点的以太网络大二层互联需求。
2.3云计算给数据中心网络带来的主要变化
(1)更高的带宽和更低的延迟;
(2)服务器节点(VM)规模的增加;
(3)虚拟机(VM)间通信管理;
(4)跨数据中心站点间的二层互联以承载虚拟机迁
移的需求。
2.4云计算数据中心的网络特点
2.4.1大规模云组网能力
(1)高带宽,高性能:10Gbit/s接口及流量转发
能力;
(2)高可靠性,高扩展性;
(3)易管理性。
2.4.2逻辑集中的云平台能力
(1)物理分散,容灾备份,业务迁移;
(2)大二层网络的采用。
2.4.3虚拟化支持
(1)提供对资源虚拟化的完善支持;
(2)虚拟机流量交换;
(3)虚拟机的控制管理和访问安全。
多业务承载:支持搜索、云服务等各类业务。
3当前数据中心网络技术的演进方向
3.1虚拟机本地互访网络技术
虚拟机本地互访主要指从服务器角度来看,同一台
物理服务器上的虚拟机(VM)互访和数据交换。
为实现虚拟机之间以及虚拟机与外部网络的通信,
必须存在一个“虚拟以太网交换机”以实现转发功能。
在IEEE的文档中,“虚拟以太网交换机”正式英文名称
为“VirtualEthernetBridge”,简称VEB。VEB可以
在虚拟化软件中采用纯软件方式实现,也可以借助
支持SR-IOV特性的网卡通过全硬件方式实现。
软件VEB(或称VSwitch)是目前较为成熟且
产品化较好的技术方案。在一个虚拟化服务器中,
VSwitch从物理网卡接收以太网报文,之后根据虚拟化
软件下发的虚拟机MAC与VSwitch逻辑端口对应关系
表来转发报文;当一个虚拟机发送报文的目的MAC地
址是同一物理服务器上的其它虚拟机时,VSwitch
通过虚拟机与逻辑网卡的对应关系表来转发报文。
VSwitch方案具有虚拟机间报文转发性能好、与外部网
络兼容性好等优点,但是也具有消耗CPU资源、缺乏
网络流量 的可视性、缺乏网络访问控制策略的实施能
力、缺乏管 理可扩展性等问题。
硬件 VEB 的设计思想是将 VEB 功能从虚拟化软件
移植到物理服务器网卡,通过网卡硬件改善 VSwitch 占
用 CPU 资源而影响虚拟机性能的问题。采用硬件 VEB
方案,对 CPU 资源占用少,但仍没有解决虚拟机间流
量的监管、网络策略的部署以及管理可扩展性问题,同
时缺乏主流操作系统产品的支持。
基于软硬件 VEB 的局限性,IEEE 标准组织提出了
802.1Qbg EVB 和 802.1BR(802.1Qbh 的 后 续 版 本 )
两条标准路线。
IEEE 802.1Qbg 由 HP、3COM、IBM、Broadcom、
27 ·2012 年 第4
期·
云 计 算 专 题
C L O U DC O M P U T I N GF O R U M
T E L E C O ME N G I N E E R I N GT E C H N I C SA N DS T A N D A R D I Z A T I O N
图1802.1Qbg EVB 和 802.1Qbh 示意
图
Qlogic、Emulex 等 公 司 主 导, 它 指 定 了 一 种 Edge
Virtual Bridging(EVB) 标 准, 该 标 准 基 于 一 个 名 为
Virtual Ethernet Port Aggregator (VEPA) 的 技 术。
该标准的核心思想是将虚拟机产生的网络流量全部
交由 与服务器相连的物理交换机进行处理,即使同
一台服务 器的虚拟机间的流量,也发往外部物理交
换机进行转发 处理。
IEEE 802.1Qbh 由 Cisco 主 导, 定 义 了 新 的 以 太
报文格式,增加标签 M-TAG,将端口扩展设备借助报
文 TAG 中的信息,将端口扩展设备上的物理端口映射
成上行物理交换机上的一个虚拟端口,且使用 TAG 中
的 信 息 来 实 现 报 文 转 发 和 策 略 控 制。 该 方 案 的 主 要 目
标 是 为 了 实 现 端 口 扩 展 设 备 与 上 行 交 换 机 之 间 的 通 信
标准化。802.1Qbh 需要变更交换机的转发芯片以适
应 M-Tag 转 发, 目 前 除 了 Cisco 自 己 做 的 芯 片 外, 其
他 厂商都无法支持。
VEB、IEEE 802.1Qbg、IEEE 802.1Qbh 均 实 现
了 类 似 的 功 能, 实 现 上 各 有 千 秋, 技 术 上 各 有 所 长,
并 不 是 绝 对 替 代 关 系, 应 根 据 实 际 情 况 选 择 合 适 的 技
术方案。
3.2 数据中心大二层组网技术
鉴于传统二层组网存在以下问题 :
(1)环路的形成 :为了避免单点故障,接入交换机
双上联到汇聚交换机,形成环路 ;
(2) 广 播 风 暴 的 产 生 :二 层 依 靠 广 播 报 文 实 现
MAC 地址学习,当拓扑中存在环路时,必然形成广播
风暴,影响整个二层域。 目前主要采用生成树协
议(STP)通过有选择性的
阻塞网络冗余链路来达到消除网络二层环路和广播风暴
的 目 的, 同 时 具 备 链 路 的 备 份 功 能。 但 STP 协 议 存 在
收敛速度慢、链路利用率低,链路阻断等问题。
取而代之的技术主要有两大类,一种是在较大型数
据中心采用的增强二层技术(集群 / 堆叠 / 跨机箱捆绑),
厂家通过私有协议采用设备集群 / 堆叠或跨机箱端口捆
绑等技术,实现二层网络设备间所有链路共同转发流量,
同时解决二层环路问题。
3.2.1 堆叠 / 集群技术(IRF2/CSS/VSC)
堆 叠 / 集 群 技 术 是 指 把 两 台 物 理 设 备 虚 拟 成 一 台
逻辑设备,原有两台设备的控制平面和转发平面
整合为 一个整体,对外显示为一台设备,主备设
备控制平面为 Active-Standby 的工作模式,所有设
备的处理能力被 集中在一台设备控制引擎上,整个集
群处理能力为单引 擎能力,集群设备内部需要同步大量
的控制信息、状态 信息。
华三的 IRF2、华为的 CSS、中兴的 VSC 本质上均
为此类技术,具体的实现方式略有不同。
3.2.2 跨机箱链路捆绑(vPC)
跨 机 箱 链 路 捆 绑 技 术 是 指 在 原 有 的 链 路 捆 绑 技 术
基础上进行扩展,实现跨机箱。多设备只有转发
平面整 合,对外显示为一台设备,每台设备运行
独自的控制平
28 ·2012 年 第4
期·
云 计 算 专 题
C L O U DC O M P U T I N GF O R U M
电信工程技术与标准化
面,网络中的设备控制平面工作状态为 Active-Active
模式。设备间只需交互少量的链路捆绑信息,扩展性不
受限于单机控制平面能力。
Cisco 的 vPC 即采用此种方式实现。
表1增强二层与 STP 技术比
较
等问题,使得二层网络具有和三层网络一样的高扩展性
和高可靠性,同时提供了三层网络无法完成的虚拟机迁
移、资源扩展等功能,是大规模云计算数据中心组网的
发展趋势。但其相关标准正在制定过程中,各厂家均处
于跟踪状态,仅极少数厂家有产品支持,成熟度差。
3.3 数据中心之间二层互联技术
二层互联也称为数据中心服务器网络互联。在不同
的数据中心服务器网络接入层,构建一个跨数据中心的
大 二 层 网 络(VLAN), 以 满 足 服 务 器 集 群 或 虚 拟 机 动
态迁移等场景对二层网络接入的需求。
针对如何跨 IP 网络在不同数据中心之间实现大二
层互联,业界有两种主流的数据中心互联技术。一种是
OTV(私有技术),一种是 VPLS(公共技术标准)。
VPLS(Virtual Private LAN Service) 是 多 协 议
标 记 交 换 的 一 种 形 式, 在 VPLS 网 络 中, 每 个 VPLS
实 例 都 需 要 在 该 实 例 中 的 n 个 PE 路 由 器 之 间 建 立 全
网 状 的 标 签 交 换 路 径 (LSP) 隧 道, 这 样 一 方 面 会 产 生
大量的信令开销,另一方面 PE 路由器要为每条配置的
PW(Pseudo Wire) 复 制 分 组, 处 理 负 担 较 大, 上 述 两
个因素制约了 VPLS 组网规模,影响了该技术更大规模
的部署。
虚 拟 化 中 继 传 输 (OTV,Overlay Transport
Virtualization)技术,是由 Cisco 公司提出,其核心思
想是通过“MAC in IP”的方式,通过隧道技术穿越三
通过上面的比较可以看出,增强二层技术具有链路
利用率高、收敛速度快等优势,而且目前主流交换机厂
家均有相应解决方案的产品,但由于是基于厂家私有技
术实现,且现网应用案例较少,其性能和稳定性还有待
于进一步验证。
另外一种技术是在大型 / 超大型数据中心采用的大
二 层 技 术, 目 前 存 在 两 个 国 际 标 准 Trill(IETF 主 导 )
和 SPB(IEEE 主导)。
Trill 协 议 通 过 建 立 独 立 的 控 制 平 面, 各 交 换 机
MAC 地址信息依靠控制平面报文单独发送,避免了广
播报文的发送。网络中无广播报文,无环路问题,不存
在阻塞链路,所有链路均可承载流量,转发效率高。网
络故障时,无需所有交换机重新计算转发路径,本地实
时收敛,且不影响其它设备流量转发。
SPB 与 Trill 类似,两种协议都主要是在二层环境
中实现类似三层 IP 的路由行为,能实现设备间多路径
负载分担,均衡网络流量,两种协议都是利用 IS-IS 协
议和最短路径来实现在二层网络多路径转发。
大二层技术消除了传统二层技术效率低、扩展性差
表2OTV 与 VPLS 比
较
29 ·2012 年 第4
期·
OTV VPLS
对广域网的要求 IP 可达即可 必须部署 MPLS
MAC 地址学习方
式
基于控制平
面学习
基于数据平面广播学习
未知报文是否广播
到其它数据中心
不会
会
多出口下环路避免
控制平面天
然无环路
需运行 STP over VPLS,
技术复杂,风险高
多出口,多路径负
载分担
支持
不支持,运行 STP 会阻塞
出口,只有一个出口可用
可管理性
配置简单,
维护方便
配置维护复杂
特性 增强二层(集群 / 堆叠) 传统技术(STP)
带宽利
用率
高
( 所有链路全部转发 )
低
( 大量链路被 STP 阻塞 )
可靠性
高
( 支持二层上的负载分担
和快速收敛 )
低
( 网络收敛慢 )
技术成
熟度
应用少,存在稳定性风险
应用多,成熟
互通性 /
兼容性
设备成对实现,厂家私有
协议,无国际标准
基于 IEEE 标准实现,无
互通问题
管理性 简单 配置复杂
扩展性
(设备的增加不影响性能)
高
(设备越多收敛越慢性能
差
越差)
云 计 算 专 题
C L O U DC O M P U T I N GF O R U M
T E L E C O ME N G I N E E R I N GT E C H N I C SA N D S T A N D A R D I Z A T I O N
层 网 络 实 现 二 层 网 络 的 互 通。OTV 技 术 可 以 说 是 专 门
针对数据中心二层互联所提出的,对底层网络要求低,
只 要 IP 可 达 都 可 以 启 用。 配 置 简 单, 安 全 性 高( 故 障
隔离,广播风暴抑制,MAC 地址有策略的同步),内置
负载均衡机制等。
目 前 思 科 采 用 的 是 OTV 技 术, 而 H3C 选 择 的 是
VPLS, 两 者 之 间 最 大 的 不 同 是, 前 者 是 私 有 的 技 术,
只有 Cisco 支持,而后者是开放的标准技术,在目前已
有的大部分产品上都可以实现。
数据中心还是云计算数据中心,其网络架构均应基于可
靠性、可扩展性、灵活性、可管理性等原则采用层次化、
模块化设计。
提供云服务(以 IaaS 和 SaaS 为主)的产业将如雨
后春笋般出现,这些服务提供商将会搭建大量的云计算
数据中心为客户提供云租用服务,互联网数据中心将步
入虚拟化、高带宽、大型化为主的时代。
新型的云计算数据中心网络技术仍在不断推出、完