基于NFV,的5G,核心网络切片研究

时间:2023-08-10 12:40:02 来源:网友投稿

蔡卫红,郭旭静,李聪

湖南邮电职业技术学院信息通信学院,湖南 长沙 410015

5G 移动系统通过将一个物理网络分割成多个逻辑虚拟网络,来满足各种5G 业务QoS(Quality of Service,服务质量)的需求。欧洲电信标准化协会(ETSI)定义的NFV(Network Function Virtualization,网络功能虚拟化)开放网络架构将5G 网络功能与底层硬件解耦,实现资源管理的灵活弹性、资源灵活共享、新业务快速开发和部署,使5G 网络能以更低成本和更高灵活性满足各种业务需求。我们通过仿真支持三种不同类型带宽要求eMBB(Enhanced Mobile Broadband,增强型移动宽带)应用场景服务的多切片架构、单切片架构设计,比较其在吞吐量、响应时间和CPU 利用率方面的差异。

1.1 5G 核心网功能

5G 核心网使用开源软件,将用户平面和控制平面功能分离,各平面独立部署和演进,其提供的5G NFs(Network Functions,网络功能)包括:网络切片选择功能、认证服务器功能、网络存储库功能、接入和移动管理功能、统一数据管理功能、会话管理功能、策略控制功能、应用功能、网络开放功能、统一数据存储库功能、用户面功能等,从而实现NFV 环境下网络功能的灵活高效部署。

1.2 支持NFV 的网络切片

NFV 是5G 移动系统实现网络切片的关键技术,消除了对专有硬件的要求,为eMBB、uRLLC(ultra Reliable Low Latency Communication,超可靠低延迟通信)、mMTC(massive Machine Type of Communication,海量机器类通信)三类特定场景的QoS 需求量身定制。借助NFV,可将NFs 作为VNFs(Virtual Network Functions,虚拟网络功能)部署到云计算基础架构上。

1.2.1 NFV-MANO 体系结构

NFV-MANO(Management and Orchestration,管理编排)负责配置、部署、管理和扩展网络切片,包括三个主要部分:NFVO(NFV Orchestrator,NFV 编排器)、VNFM(VNF Manager,VNF 管理器)和VIM(Virtualized Infrastructure Manager,虚拟化基础设施管理器)。另外还有几个补充组件:NS(Network Service,网络服务)目录、VNF(Virtualized Network Function,虚拟网络功能)目录、NFVI(NFV Infrastructure,网络功能虚拟化基础设施)资源库和NFV 实例库[1]。

NFV-MANO 体系各组件功能分别为:(1)NFVO:NS 生命周期管理模块,负责对NFV资源(含VNFs 和NFVI)的编排和NSs 的管理;
(2)VNFM:VNF 管理模块,负责VNF 实例的生命周期管理、控制和监视,一般与VNF 一一对应;
(3)VIM:NFVI 管理模块,负责管理NFVI,包括计算、存储和网络资源;
(4)NS 目录:表示网络服务的存储库,支持通过NFVO 公开的接口操作创建和管理NS 部署模板,包括NSD(Network Service Descriptor,网络服务描述符)、VLD(Visual Link Descriptor,虚拟链路描述符)、VNFFGD(VNF Forwarding Graph Descriptor,网络功能虚拟化转发图描述符);
(5)VNF 目录:表示所有已加载VNF 包的存储库,支持通过NFVO 公开的接口操作创建和管理VNF 包;
(6)NFVI 资源库:保存了关于可用的、保留的和已分配的NFVI 资源的信息,并被NFVO 用于编排和管理VIM 抽象的资源;
(7)NFV 实例库:保存所有VNF 实例和网络服务实例信息。

1.2.2 3GPP 网络切片和NFV 网络服务

根据3GPP,网络切片是一种端到端的网络架构,它由多个网络切片子网组成[2]。每个网络切片子网包含一个或多个网络功能,还可包含其他网络切片子网。每个网络切片子网可为端到端网络中的一个组成网段,如接入网、核心网和传输网[3-4]。对NSI(Network Slice Instance,网络切片实例)包含至少一个VNF 的情况,可将NFV NS 视为网络切片以资源为中心的视图[5]。根据3GPP,一个NSSI(Network Slice Subnet Instance,网络切片子网实例)可被多个NSIs 共享[6]。NFV-MANO 作为网络切片关键使能技术,将每个网络切片(或网络切片子网)映射到一个NS。因此,要实例化一个网络切片子网,通常需要使用NSD 来描述NFVMANO。

1.2.3 网络服务描述符

NSD(Network Service Descriptor,网络服务描述符)是NS 的部署模板,其NS 部署模板还包含所有NS 组件的描述符,如VNFDs(Virtualized Network Function Descriptors,虚拟化网络功能模块描述符)、VLDs、VNFFGDs。NFV-MANO 使用这些描述符来实现网络服务的动态组合,部署专用网络服务,并管理网络切片的服务质量[7]。

1.3 相关软件

(1)OpenStack:是云计算管理工具,通过命令或基于Web 可视化控制面板来管理IaaS云 端 的 资 源 池;
(2)Tacker:是OpenStack 下的一个内孵化模块,提供VNF 管理功能,管理VNF 生命周期,配置、监视、重启和扩展VNF;
(3)Kubernetes:是一个开源管理云平台中多主机上容器化的应用,通过抽象底层的计算、存储和网络基础设施,使部署容器化的应用变得简单且高效;
(4)CNI:是云原生计算基金会推出的容器插件(模块化)网络接口的解决方案,定义了编写插件在Linux 容器中配置网络接口的规范,以实现互操作性。

5G 核心网切片系统设计使用OpenStack 作为VIM,使用Tacker 同时作为NFVO 及VNFM,使用free5GC 提供所需的5GC NFs,以此建立一个支持5G 核心网切片的NFV-MANO 测试平台。我们设计使用相同环境支持NFV 的两种5G 核心网架构:多切片架构、单切片架构。

2.1 架构设计

对多切片核心网架构,设计3 个网络切片来支持3 种不同带宽需求的eMBB 业务;
对单切片网络架构,设计1 个网络切片来满足3 种不同带宽需求的eMBB 业务。以上两种核心网切片架构,虽然每个切片都实现一个独立5G 核心网络功能,但对前者来说,3 个切片分别连到其对应的数据服务器,而后者唯一的切片同时连到3 个数据服务器。

假设两种5G 核心网架构都用9 个VNF 来部署。其中CP(Control Plane,控制面)有8 个:NRF(Network Repository Function,网 络 仓 储 功能)、AMF(Access and Mobility Management Function,接入和移动性管理功能)、SMF(Session Management Function,会 话 管 理 功 能)、UDR(Unified Data Repository,统一数据仓库存储)、PCF(Policy Control Function,策略控制功能)、UDM(Unified Data Management,统一数据管理)、AUSF(Authentication Server Function,认证服务器功能)、MongoDB。UP(User Plane,用户面)有1个:UPF(User Plane Function,用户面功能)。多切片架构的每个切片都有一个单独CP 来提供信令交换,每个切片都有一个单独UP 以实现并行处理数据包转发。

假设每个5G 核心网VNF 都在单独的OpenStack虚拟机或Kubernetes 容器上运行。两种架构都采用3 种数据产生器来模拟5G UE 发送数据包,每个数据产生器模拟多个终端运行,并使终端注册到5G 核心网,3 种数据产生器分别用于模拟高(900 Mbps)、中(100 Mbps)、低(10 Mbps)3 种eMBB 数据传输服务。高、中、低3 种数据产生器均传输两类数据包:不同数据速率(如900 Mbps、100 Mbps 和10 Mbps)UDP 数据包;
每秒一次的ICMP 回复数据包。通过UDP 数据包速率,可测量5G 核心网切片的吞吐量,通过ICMP 回复数据包可测得UE 和DS 数据服务器在5G 核心网切片上的响应时间。对多切片网络架构,3 种不同数据速率数据包被定向到带宽最匹配的网络切片上。对单切片网络架构,3 种不同数据速率数据包被发到唯一网络切片,该切片提供了足够带宽来处理所有的数据流量。以上两种核心网切片架构都使用3 个数据服务器作为5G PDU 会话接收器,接收来自3个数据产生器的数据包,并测量其切片吞吐量。此外,数据服务器还将ICMP 回复消息发回数据产生器,以计算响应时间。

2.2 VNFD 与NSD 设计

在通过Tacker NFVO 基于VM(Virtual Machine,虚拟机)环境部署5G 核心网切片前,NSs 和VNFs都需在基于云应用TOSCA 标准用YAML 编写的NSDs 和VNFDs 中来进行描述。在Tacker 中,VNF的行为和部署信息在VNFD 中定义。VNFD 由以下部分组成:VDU(Virtualization Deployment Unit,虚拟部署单元)、CPD(Connection Point Descriptor,连接点描述符)、VLD、FIP(Floating IP Address,动态IP地址)。在当前的Tacker 实现中,VNF 包括VDU、CPt(Connection Point,连接点)和VL(Virtual Link,虚拟链路)。每个VDU 都需通过CPt 连到VL,每个CPt 都必须与VDU 绑定。VL 为VDUs 间的通信提供连接。当VDU 需访问公网时,可为其分配动态IP 地址。一个VNFD 用于部署5G 核心网的一个VNF,且每个VNF 只有一个VDU,故VNF、VDU和一个5G 核心网NF 在逻辑上是等价的,同一个5G 核心网切片的VDUs 通过它们的CPts 连接到同一个VL。

网络切片使用NSD 部署。根据ETSI NFVMANO,NSD 包括:VNFD、VNFFGD、VLD 和PNFD(Physical Network Function Descriptor,物理网络功能描述符)。我们的VL 处于NS 级别,不同于VNF 级别的VL,VNFFGD 通常用于定义VNFs的连接拓扑结构,以创建业务功能链。根据VNFD中的部署信息,5G 核心网的每个组件都将作为VNF 部署,然后使用NSD 导入5G 核心网NFs 的9 个VNFDs,以创建一个5G 核心网切片。

2.3 系统工作流程

切片系统工作流程如图1 所示。

图1 基于OpenStack 的NFV-MANO 体系结构系统切片工作流程

2.3.1 准备

将NS 实例化到一个目标VIM。使用Tacker前先进行VIM 注册,NFVO 使用身份验证URL、用户名、密码、证书、令牌等账户信息,通过存在点(POP)将OpenStack 注册为VIM。

2.3.2 加载

VIM 注册成功后,先前设计的VNFDs/NSDs在NS 实例化前提交给NFVO,此过程即“加载”。NFVO 验证加载的VNFDs 及NSDs 的完整性和安全性,一旦核实,NFVO 将把NSDs 和VNFDs 分别插入NS 目录和VNF 目录中。

2.3.3 实例化

提供加载网络切片ID,通过NFVO 请求实例化5G 网络切片。NFVO 收到请求后,会请求VIM检查VNF 实例化和互连所需的网络资源的可用性,并预留这些资源。一旦VIM 确认资源预留完成,NFVO 将请求VNFM 通过将相应VNFD 转换为用于VIM 执行部署操作的Heat 模板来实例化NS 中的每个VNF,完成后,NFVO 将确认网络切片实例化完成。

2.3.4 QoS 策略设置

通过VIM 设置每个网络切片的QoS 策略。QoS策略定义了带宽、时延、可靠性等网络切片服务要求。设计中所提的多切片架构由3 个对带宽有不同QoS 要求的切片组成。而单切片架构仅使用1 个QoS要求切片,该切片支持3 个子切片提供的带宽总和。

2.3.5 测试

多切片/单切片系统就绪后,数据产生器开始通过网络切片发送UDP 和ICMP 数据包到数据服务器。数据服务器通过接收到的数据包来计算出吞吐量,同时通过Linux 信令监视服务器。监视CPU在收到ICMP 包后,发确认Echo 应答消息,数据产生器收到Echo 应答消息后计算出响应时间。

3.1 仿真环境设置

使用3 个相同服务器来进行仿真,其配置见表1。一种OpenStack 用于测试多切片网络架构,另一种OpenStack 用于测试单切片网络架构。两种架构配置如表2 和表3 所示。3 个数据产生器和3 个数据服务器的配置是1 个vCPU、16 GB RAM 和20 GB 磁盘,每个都配备Ubuntu 18.04。数据产生器和数据服务器部署为OpenStack VNF,且与5G 核心网环境分离。

表1 实施环境配置

表2 单切片网络架构配置

表3 多切片网络架构配置

如表2 所示,单切片架构只有1 个切片,其切片虚拟资源相当于多切片架构中3 个切片之和。如表3 所示,多切片架构的每个切片上设置了9 个5G 核心网NFs 作为VNFs,每个VNF 都运行在OpenStack 虚拟机上。OpenStack 上总共部署有27 个虚拟机,3 个切片配置相同CP NF,但3 个UPF 根据其QoS 要求配置不同带宽,以支持5G eMBB 业务的高、中、低三种服务带宽,故每个UPF 配置不同大小的RAM 来处理相应流量。

3.2 仿真比较

通过仿真来比较多切片、单切片网络架构在吞吐量、响应时间、CPU 利用率三方面性能的差异。结果表明:多切片网络架构在吞吐量、响应时间方面表现较好,而单切片网络架构在CPU 利用率方面表现较好。多切片网络架构的数据产生器分别通过切片1、2、3 向各自数据服务器发送900 Mbps、100 Mbps、10 Mbps 的UDP 报文。单切片网络架构的3 个数据产生器将其UDP 报文通过相同切片发送到对应数据服务器。两种架构中的每个数据产生器同时向相应数据服务器发送UDP报文和ICMP Echo 请求报文,并接收数据服务器返回的ICMP Echo 应答报文,来计算响应时间。数据服务器通过接收到的数据包统计各切片吞吐量,同时收集整个物理服务器在实验时的CPU 利用率。仿真持续10 min,测试取3 个数据服务器和3 个数据产生器记录的吞吐量平均值、响应时间平均值和CPU 利用率平均值。

图2 为两种架构设计平均吞吐量的仿真结果。多切片网络架构具有较好的数据吞吐性能,其平均吞吐量大约比单切片网络架构高100 Mbps。

图2 平均吞吐量

图3 为以微秒(µs)为单位的两种架构设计平均响应时间结果。结果表明,多切片网络架构具有较好的平均响应性能,其平均响应时间大约为单切片网络架构的1/8。

图3 平均响应时间

图4 以百分比(%)显示了两种架构设计平均CPU 利用率的对比情况。结果表明,多切片网络架构具有较高CPU 利用率,与单切片网络架构相比,平均CPU 利用率增加了约20 个百分点。

图4 平均CPU 利用率

仿真结果表明,在虚拟资源和物理资源配置相同的情况下,我们提出的多切片架构需占用更多CPU 资源,但其吞吐量和响应时间优于单切片网络架构,因为多切片架构需同时使用3 个UPF 来并行处理数据流量,故有更高的CPU 利用率,但具有更高吞吐量和更短响应时间。

综上所述,利用NCTU free5GC、Tacker、OpenStack 和Kubernetes,可 研 究NFV 环境 不同5G 核心网切片架构设计对核心网性能的影响,仿真对比多切片架构与单切片架构在吞吐量、响应时间和CPU 利用率方面的差异。通过实验仿真,我们验证了多切片架构可提高5G 核心网吞吐量和缩短响应时间,但其比单切片架构占用更多CPU 资源。

猜你喜欢核心网数据包切片GSM-R核心网升级改造方案铁道通信信号(2019年6期)2019-10-08SmartSniff网络安全和信息化(2018年4期)2018-11-095G移动通信核心网关键技术通信电源技术(2018年3期)2018-06-26通信核心网技术的应用探讨电子测试(2018年1期)2018-04-18基于SDN与NFV的网络切片架构电信科学(2016年11期)2016-11-23肾穿刺组织冷冻切片技术的改进方法中国组织化学与细胞化学杂志(2016年3期)2016-02-27VoLTE核心网建设方案电信工程技术与标准化(2015年10期)2015-12-22冰冻切片、快速石蜡切片在中枢神经系统肿瘤诊断中的应用价值比较中国当代医药(2015年17期)2015-03-01视觉注意的数据包优先级排序策略研究深圳信息职业技术学院学报(2013年3期)2013-08-22移动IPV6在改进数据包发送路径模型下性能分析电子设计工程(2011年24期)2011-06-09

推荐访问:切片 核心 研究