随着移动互联通信和高速铁路技术的飞速发展, 窄带通信技术GSM-R已经无法满足高速移动的场景需求[1]。LTE具有扁平化的网络结构, 其以OFDM和MIMO为关键技术[2], 能够降低网络节点和系统复杂度, 从而减小系统时延。LTE支持高速移动的终端环境, 最高时速可达到500 km/h[3], 将其应用到高速移动环境时具有一定优势。
目前, 研究LTE系统切换算法多数在A3事件基础上进行。文献[4]提出基于GPS信息的切换算法, 利用GPS信息的先验性来提高网络性能。文献[5]提出基于模糊逻辑的切换算法, 对迟滞容限参数hys进行动态调整, 使切换更准确、切换率更高。文献[6]提出采用网络功能虚拟化(NFV)技术来提高切换的时延性能。文献[7]提出一种用于移动中继系统的信道借用的预测组切换方案来降低连接系统的阻塞率和切换的掉话率。文献[8]提出在高速列车中引入车载中继站, 并在车头和车尾分别设立天线, 通过两部天线协作来减小切换失败率。文献[9]探讨一种基于预承载的切换判决算法来减少切换时延, 提高切换成功率。文献[10]提出在LTE切换中实现软切换, 该方式可以实现不中断切换, 但是对硬件设备需进行改动, 所以实践性较低。但是A3切换算法存在判决不准确带来的乒乓切换和掉话等固有的问题, 越区切换的容错性不高。
本文针对A3切换算法存在的问题, 提出一种具有良好容错性以及学习能力的算法——基于RBF神经网络的切换算法。该算法利用RBF神经网络快速收敛、唯一最佳逼近的特性, 来适应高速铁路移动环境。
1 高速环境LTE切换模型的建立 1.1 多RRU共小区覆盖多远端射频单元(Remote Radio Unit, RRU)共小区覆盖方案是将1个~6个RRU配置到一个小区中, 并放置在铁路沿线, 形成连续覆盖区域, 如图 1所示, 在6个RRU共小区时, 覆盖区域的切换次数减少了71.43%, 大幅提高了切换成功率和服务质量。
|
Download:
|
| 图 1 RRU+BBU覆盖示意图 | |
多RRU覆盖方式是通过光纤将基站中的射频模块放到远端射频单元, 其数据处理在下行方向时, 将基带信号经变频、滤波, 再经过射频滤波、线性功率放大器后发送至移动端, 在上行方向时, 多个RRU天线同时接收移动终端的信号, 然后将接收到的信号通过光纤传输到基带处理单元(Base Band Unit, BBU)。
1.2 越区切换规划方案当移动用户端UE(User Equipment)在高速行驶时, 随着接收到服务小区参考信号接收功率(RSRP)的减小和目标小区RSRP的增大, 如果列车要进行越区切换, 则需要设计重叠覆盖区作为缓冲区, 以保证二次切换能顺利完成。如图 2所示, X为过渡区, 在这段距离目标基站的RSPR和服务基站RSRP的差值达到了切换门限。触发A3事件的条件如下:
| $ {M_t} - hys > {M_s} $ | (1) |
|
Download:
|
| 图 2 重叠覆盖区示意图 | |
其中, Mt是目标小区的信号强度, Ms是当前小区的信号强度, hys为切换的迟滞门限参数, Y为切换区, 在这段距离内, 列车完成小区之间的切换。
1.3 LTE优化切换算法 1.3.1 RBF神经网络RBF神经网络是具有单隐层的前馈神经网络[11], 其使用径向基函数作为隐层神经元激活函数[12], 本文使用高斯函数, 常用的高斯径向基函数如式(2)所示。
| $ \rho \left( {x,{c_j}} \right) = \exp \left( { - \frac{{{{\left\| {x - {c_j}} \right\|}^2}}}{{{d^2}}}} \right) $ | (2) |
RBF神经网络的设计主要有2个方面[13]:一方面是参数的设计, 由上述映射函数可知, 网络参数主要有基函数的中心参数cj、方差(宽度) d以及隐层到输出层的连接权值ω; 另一方面是网络结构的设计, 即输入输出参数的确定以及隐层神经元数量的确定。
1.3.2 RBF神经网络的模型设计A3事件下的高速列车切换因为切换迟滞参数ttt和迟滞容限hys的固定, 从而导致在列车速度发生变化时会产生乒乓效应和掉话现象, 因此, 需要对ttt和hys进行动态优化。图 3所示为基于高斯核的RBF神经网络的拓扑结构。
|
Download:
|
| 图 3 RBF神经网络的拓扑结构 | |
RBF神经网络的拓扑结构如下:
1) 输入层:输入层由信号源节点构成, 该层的作用是对数据信息进行传递, 对输入信息不做任何变换, 输入为X=[x1, x2, …, xn]T, 其中, n为输入层的单元数。神经元的个数根据输入信号的维数确定, 输入层和输出层节点个数与选定的训练样本和目标输出密切相关。由于输入节点输入的是训练参数集, 因此通过找到在列车行进过程中不同速度和hys、ttt的对应关系, 并设定这个因素为神经网络的输入参数, 输入层节点个数设为1。
2) 隐层:节点数目根据需要设定。隐层神经元激活函数是Guass函数, 对输入信息进行非线性变换, 表达式为:
| $ \rho \left( {x,{c_j}} \right) = f\left( {{x_1},{x_2}, \cdots ,{x_n}} \right) $ | (3) |
其中, 参数含义同式(2)。RBF神经网络是将低维数据映射到高维, 再做线性叠加, 因此, 隐层节点数的确定比较重要, 如果隐层结点数过少, 则网络不具有期望的学习能力和信息处理能力, 造成“欠拟合”。如果节点数过多, 不仅会增加网络结构的复杂性, 而且还会将训练样本自身的一些特点当作所有潜在的样本都具有的一般性质, 导致了泛化性能的降低, 造成了“过拟合”[14]。常见的隐层神经元数确定方法有:经验公式法[15], 此方法中隐层个数无法更改, 这使得网络结构很难达到最优; 灵敏度法[16], 该方法涉及Hessian矩阵的求解, 计算量较大; 本文隐层节点数的确定采用“试凑法”[17], 由于输入节点数少, 试凑法具有实现简单、能够较快地确定达到模型最优隐层节点数的优点, 计算公式如下:
| $ m = \sqrt {n + l} + \alpha $ | (4) |
其中, m为隐层节点数, n为是输入层节点数, l为输出层节点数, α通常取1~10范围的常数。
由上文可知, 隐层节点数可设置为3~11, 利用样本数据对神经网络进行多次训练和测试, 统计出系统耗时以及绝对误差的平均值。通过对比, 选出最优隐层节点数为8。不同隐层节点数的误差和系统耗时对比如表 1所示。
|
下载CSV 表 1 不同隐层节点数的误差和系统耗时对比 |
3) 输出层:输出层是对隐层神经元输出的信息进行线性加权后进行输出, 是整个神经网络的输出结果, 其映射函数表达式为:
| $ y(x) = \sum\limits_{i = 1}^q {{w_i}} \rho \left( {x,{c_i}} \right) $ | (5) |
其中,
由上文输入到输出的映射公式可知, 隐层各神经元的中心参数为
本文采用监督法对网络中的参数(基函数的中心参数、方差以及隐层到输出层的连接权值)进行误差修正, 网路输出的均方误差采用梯度下降法, 设Ok是k时刻希望输出向量, yk是k时刻的实际输出量, 均方误差表达式为:
| $ {E_k} = \frac{1}{2}{e^2}(k) $ | (6) |
设:
| $ e(k) = {o_k} - {y_k} $ | (7) |
则性能指标函数为:
| $ {E_k} = \frac{1}{2}\sum\limits_{k = 1}^q {{{\left( {{o_k} - {y_k}} \right)}^2}} $ | (8) |
由式(2)和式(3)可得隐层神经元的输出为:
| $ {Z_j}(x(k)) = \exp \left( { - \frac{{x(k) - {{\left\| {c(k - 1)} \right\|}^2}}}{{d_j^2(k - 1)}}} \right) $ | (9) |
输出层神经元的输出为:
| $ {y_m}(k) = \sum\limits_{j = 1}^m {{\omega _j}} (k - 1){z_j}(x(k)) $ | (10) |
高斯函数的偏导可以表示为:
| $ \begin{array}{*{20}{c}} {\frac{{\partial {Z_j}(k)}}{{\partial {d_j}}} = \exp \left( { - \frac{{{{\left\| {x - {c_j}} \right\|}^2}}}{{d_j^2}}} \right)\frac{{{{\left\| {x - {c_j}} \right\|}^2}}}{{d_j^3}} - }\\ {{Z_j}(k)\frac{{{{\left\| {x - {c_j}} \right\|}^2}}}{{d_j^3}}} \end{array} $ | (11) |
| $ \begin{array}{*{20}{c}} {\frac{{\partial {Z_j}(k)}}{{\partial {c_{ji}}}} = \exp \left( { - \frac{{{{\left\| {x - {c_j}} \right\|}^2}}}{{d_j^2}}} \right)\frac{{{{\left\| {x - {c_{ji}}} \right\|}^2}}}{{d_j^3}} = }\\ {{Z_j}(k)\frac{{{{\left\| {x - {c_{ji}}} \right\|}^2}}}{{d_j^2}}} \end{array} $ | (12) |
梯度下降法是在性能指标参数的负梯度方向上逐步修正网络参数的估计值, 使性能指标达到最小值的过程, 当输出误差小于阈值或训练次数大于设定值时, 停止训练。该方法具有计算速度快、容易实现等优点[19]。各参数修正量如下:
| $ \Delta {c_j} = - \eta \frac{{\partial E}}{{\partial {c_j}}} $ | (13) |
| $ \Delta {d_j} = - \eta \frac{{\partial E}}{{\partial {d_j}}} $ | (14) |
| $ \Delta {\omega _j} = - \eta \frac{{\partial E}}{{\partial {\omega _j}}} $ | (15) |
权值参数的计算公式如下所示。
由式(6)和式(7)可知:
| $ \frac{{\partial E(k)}}{{\partial {y_m}(k)}} = \frac{{\partial E(k)}}{{\partial e(k)}}\frac{{\partial e(k)}}{{\partial {y_m}(k)}} = - e(k) $ | (16) |
由式(10)和式(16)可知:
| $ \frac{{\partial E(k)}}{{\partial {\omega _j}(k - 1)}} = \frac{{\partial e(k)}}{{\partial {y_m}(k)}}\frac{{\partial {y_m}(k)}}{{\partial {\omega _j}(k - 1)}} = - e(k){Z_j}(x(k)) $ | (17) |
隐层到输出层之间的连接权值ωji(k)的学习算法公式为:
| $ \Delta {\omega _j}(k) = - \eta \frac{{\partial E(k)}}{{\partial {\omega _j}(k - 1)}} = \eta e(k){Z_j}(x(k)) $ | (18) |
| $ \begin{array}{l} {\omega _{ji}}(k) = {\omega _{kj}}(k - 1) - \eta \frac{{\partial E(k)}}{{\partial {\omega _{kj}}(k - 1)}} + \\ \;\;\;\;\;\;\;\;\;\;\;\alpha \left[ {{\omega _{kj}}(k - 1) - {\omega _{kj}}(k - 2)} \right] \end{array} $ | (19) |
其中, η为学习率(η>0), 反映网络的学习速率, α为动量因子, α∈(0, 1), ωji(k)为第j个输出神经元与第i个隐层神经元在第k次迭代计算时的连接权重。
宽度向量和中心参数的计算公式如下所示。
由式(10)和式(16)可知:
| $ \frac{{\partial E(k)}}{{\partial {Z_j}(x(k))}} = \frac{{\partial E(k)}}{{\partial {y_m}(k)}}\frac{{\partial {y_m}(k)}}{{\partial {Z_j}(x(k))}} = - e(k){\omega _j}(k - 1) $ | (20) |
由式(11)和式(20)可知:
| $ \begin{array}{l} \frac{{\partial E(k)}}{{\partial {d_j}(x(k - 1))}} = - e(k){\omega _j}(k - 1){Z_j}(x(k)) \times \\ \;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\frac{{{{\left\| {{x_i}(k) - {c_j}(k - 1)} \right\|}^2}}}{{d_j^3(k - 1)}} \end{array} $ | (21) |
| $ \begin{array}{l} \Delta {d_j}(k) = \eta e(k){\omega _j}(k - 1){Z_j}(x(k)) \times \\ \;\;\;\;\;\;\;\;\;\;\;\;\;\;\frac{{{{\left\| {{x_i}(k) - {c_j}(k - 1)} \right\|}^2}}}{{d_j^3(k - 1)}} \end{array} $ | (22) |
迭代计算如下:
| $ {d_{ji}}(k) = {d_{ji}}(k - 1) - \eta \frac{{\partial E}}{{\partial {d_{kj}}(k - 1)}} + \alpha \left[ {{d_{kj}}(k - 1) - {d_{ji}}(k - 2)} \right] $ | (23) |
其中, dj(k)为中心参数Cji(k)对应的宽度。
由式(12)和式(20)可知:
| $ \begin{array}{*{20}{c}} {\frac{{\partial E(k)}}{{\partial {{\rm{c}}_{ji}}(k - 1)}} = - e(k){\omega _j}(k - 1){Z_j}(x(k)) \times }\\ {\frac{{{x_i}(k) - {c_{ji}}(k - 1)}}{{d_j^2(k - 1)}}} \end{array} $ | (24) |
| $ \begin{array}{*{20}{c}} {\Delta {c_{ji}}(k) = \eta e(k){\omega _j}(k - 1){Z_j}(x(k)) \times }\\ {\frac{{{x_i}(k) - {c_{ji}}(k - 1)}}{{d_j^2(k - 1)}}} \end{array} $ | (25) |
迭代计算如下:
| $ \begin{array}{l} {C_{ji}}(k) = {C_{ji}}(k - 1) - \eta \frac{{\partial E}}{{\partial {C_{kj}}(k - 1)}} + \\ \;\;\;\;\;\;\;\;\;\;\;\;\;\alpha \left[ {{c_{kj}}(k - 1) - {c_{ji}}(k - 2)} \right] \end{array} $ | (26) |
其中, Cji(k)为第j个隐层神经元对于第i个输入神经元在第k次迭代计算时的中心分量。
若误差不满足要求, 网络则进入误差前馈传播阶段, 并依据反传的误差逐步进行参数修正, 中心参数、宽度和调节权重参数均通过学习来自适应调节到最佳值, 其参数训练流程如图 4所示。
|
Download:
|
| 图 4 RBF神经网络训练流程 | |
RBF神经网络训练步骤如下:
步骤1 对神经网络的参数(中心向量、权值向量、宽度)进行初始化。
步骤2 设定学习率η为0.05(一般设置在0.001~0.900)、动量参数α为0.1, 迭代终止精度mse的值为1e-5。
步骤3 将训练参数样本集送入神经网络, 得出隐层、输出层的结果。
步骤4 用式(7)~式(9)对权重向量、中心向量和宽度参数进行迭代计算。
步骤5 按式(6)计算网络输出的均方根误差值Ek, 若Ek <mse, 或者训练次数达到上限值1 000, 则训练结束, 否则转到步骤3。
1.3.4 自矫正的RBF神经网络由于数据采集具有环境局限性, 为了更好地适应复杂多变的环境, 本文提出带有自矫正的RBF神经网络, 使得系统对环境有更好的适应性, 在仿真过程中, 采用“三分段Hermite插值”来仿真列车在运行过程中实时接收到的RSRQ, 基于仿真效果, 得到如下的矫正公式:
| $ h y s(k m)=R B F_{-} h y s \pm \delta \times \lg (R S R Q t-R S R Q(m)) $ | (27) |
其中, hys(km)为实时检测门限, δ为自矫正系数, RBF_hys是神经网络训练出的结果, RSRQt是经过插值之后得到的仿真实时RSRQ, m为检测区间, 此区间可以根据数据采集过程中的RSRQ确定。
2 实验结果与分析 2.1 实验参数设置本文采用自带动量项(α)的RBF神经网络对切换参数进行优化, UE发生越区切换时可以根据自身运行速度的不同选择最适宜的参数, 本文以速度5 m/s作为步长, 寻找列车切换过程中最优的参数点, 将选取的训练参数集放入神经网络中进行学习, 产生一个非线性拟合曲线, 为了达到更好的效果, 本文选择参数比较复杂的“山地模型”, 其具体参数如表 2所示。
|
下载CSV 表 2 仿真参数 |
为得到清晰的展示结果, 现将有RBF神经网络训练的输出分别在2个图形中展示出来。RBF神经网络对输入hys参数进行拟合的结果如图 5所示。RBF神经网络对输入的ttt参数进行拟合的结果如图 6所示。
|
Download:
|
| 图 5 hys参数在神经网络中的拟合曲线 | |
|
Download:
|
| 图 6 ttt参数在神经网络中的拟合曲线 | |
从图 6可以看出, RBF神经网络对采集的各点进行很好的拟合, 达到了预期的目标。
2.2.2 系统仿真结果切换成功率是优化的后切换算法的评估标准, 图 7为自矫正RBF神经网络算法(改进算法)和A3算法在相同训练集比例下的切换成功率对比。
|
Download:
|
| 图 7 2种算法的切换成功率对比 | |
当列车速度为0 m/s~100 m/s时, 随着神经网络训练的hys和ttt参数的变化, 速度增加, 切换成功率下降, 神经网络的切换成功率在速度分别为100 m/s、80 m/s、60 m/s时为82%、89%、93%, 如表 3所示, 而A3算法的切换成功率在速度分别为100 m/s、80 m/s、60 m/s时为77.2%、84.8%、90.1%, 结果表明神经网络算法输出结果随移动端速度的增加, 切换成功率高于A3算法。其中, 成功率结果统计方法为成功率×0.85+稳定率×0.15。
|
下载CSV 表 3 2种算法在不同速度时切换成功率对比 |
在使用RBF神经网络优化算法之后, 切换乒乓率比A3算法低, 图 8为相同输入比例下2种算法的乒乓效应的切换率。
|
Download:
|
| 图 8 2种算法乒乓切换率对比 | |
由表 4可知, 当列车速度逐渐增加时, 优化算法的乒乓切换率在速度分别为100 m/s、80 m/s、60 m/s时为0.01%、0.05%、0.07%, 而A3算法的乒乓切换率在速度分别为100 m/s、80 m/s、60 m/s时为0.04%、0.06%、0.11%, 结果表明, 神经网络算法切换效果明显好于A3算法。
|
下载CSV 表 4 2种算法在不同速度时乒乓切换率对比 |
在高度移动场景中, 列车极易发生无线链路连接失败现象, 由图 9可知, 本文所用的优化算法有效的降低了切换中的无线链路连接失败率。
|
Download:
|
| 图 9 2种算法的无线链路连接失败率对比 | |
由表 5可知, 当列车速度为20 m/s~100 m/s时, 优化后算法的掉话率分别为2.00%、3.01%、4.87%、4.50%、6.92%、9.32%、10.95%、14.95%、17.97%, 低于A3算法的掉话率, 优化后的算法更稳定。
|
下载CSV 表 5 2种算法在不同速度时切换掉话率对比 |
本文提出一种基于RBF神经网络的LTE切换算法。通过切换效果较好的hys和ttt参数集, 并将其发送到RBF神经网络进行训练, 得到不同速度下hys和ttt的非线性表达式, 并加入自矫正项对hys和ttt进行二次调整和优化。实验结果表明, 该算法能够较好地提高切换率。在相同条件下, 神经网络算法的切换率及鲁棒性明显优于A3算法, 并且乒乓切换率较低, 随着速度的增加, 无线链路失败率也低于A3算法。但是该算法的数据采样具有局限性, 下一步将采集更多的动态数据进行拟合, 以提升算法的稳定性。
| [1] |
SNIADY A, SOLER J.Performance of LTE in high speed railway scenarios impact on transfer delay and integrity of ETCS messages[C]//Proceedings of International Workshop on Communication Technologies for Vehicles.Berlin, Germany: Springer, 2013: 211-222.
( 0)
|
| [2] |
SNIADY A.Communication technologies support to railway infrastructure and operations[D]. Kongens Lyngby, Denmark: Technical University of Denmark, 2015.
( 0)
|
| [3] |
王映明, 孙韶辉. TD-LTE技术原理与系统设计[M]. 北京: 人民邮电出版社, 2010.
( 0)
|
| [4] |
刘洋.高速铁路通信系统切换算法和关键技术研究[D].北京: 北京邮电大学, 2013. http://cdmd.cnki.com.cn/article/cdmd-10013-1015524644.htm
( 0)
|
| [5] |
LI Ye, YAN Yusong.Fuzzy logic based handoff decision algorithm in GSM-R network[C]//Proceedings of IET Conference on Wireless, Mobile and Sensor Networks.Washington D.C., USA: IEEE Press, 2007: 125-136.
( 0)
|
| [6] |
LEE C, SHIN S, CHUNG J M.Enhanced LTE handover scheme using NFV for LTE handover delay reduction[C]//Proceedings of IEEE International Conference on Consumer Electronics-Asia.Seoul, South Korea: [s.n.], 2016: 154-168.
( 0)
|
| [7] |
SHAN Lianhai, LIU Fuqiang, WANG Liping, et al.Predictive group handover scheme with channel borrowing for mobile relay systems[C]//Proceedings of IEEE International Wireless Communications and Mobile Computing Conference.Crete Island, Greece: IEEE Press, 2008: 325-336.
( 0)
|
| [8] |
刘云毅.面向高速铁路环境的LTE-R越区切换技术研究[D].北京: 北京交通大学, 2018. http://cdmd.cnki.com.cn/Article/CDMD-10004-1018083217.htm
( 0)
|
| [9] |
栾林林.支持高速切换的信令的设计及其优化的研究[D].北京: 北京邮电大学, 2013. http://cdmd.cnki.com.cn/Article/CDMD-10013-1013326185.htm
( 0)
|
| [10] |
LUO Wantuan, ZHANG Ruiqiang, FANG Xuming. A CoMP soft handover scheme for LTE systems in highspeed railway[J]. Eurasip Journal on Wireless Communications and Networking, 2012, 21(1): 196-199. ( 0)
|
| [11] |
HOU Muzhou, HAN Xuli. Constructive approximation to multivariate function by decay RBF neural network[J]. IEEE Journals and Magazines, 2010, 21(9): 1517-1523. ( 0)
|
| [12] |
ZHANG Weiwei, LUO Qifang, ZHOU Yongquan.A method for training RBF neural networks based on population migration algorithm[C]//Proceedings of 2009 International Conference on Artificial Intelligence and Computational Intelligence.Washington D.C., USA: IEEE Press, 2009: 254-265.
( 0)
|
| [13] |
吴成茂, 范九伦. 确定RBF神经网络隐层节点数的最大矩阵元法[J]. 计算机工程与应用, 2004, 31(3): 77-79. ( 0)
|
| [14] |
韩红桂, 乔俊飞. 薄迎春基于信息强度的RBF神经网络结构设计研究[J]. 自动化学报, 2012, 22(4): 1083-1090. ( 0)
|
| [15] |
BASHEER I A, HAJMEER M. Artificial neural networks fundamentals, computing, design and application[J]. Journal of Microbiological Methods, 2000, 43(1): 3-31. DOI:10.1016/S0167-7012(00)00201-3 ( 0)
|
| [16] |
何述东, 瞿坦, 黄献青, 等. 多层前项神经网络结构的研究进展[J]. 控制理论与应用, 1998, 18(6): 313-319. ( 0)
|
| [17] |
毛义华, 刘悦. 基于RBF神经网络的商业银行客户信用评级[J]. 财经论坛, 2010, 49(2): 151-153. ( 0)
|
| [18] |
姜鹏飞, 蔡之华. 基于遗传算法和梯度下降的RBF神经网络组合训练方法[J]. 计算机应用, 2007, 53(16): 366-368. ( 0)
|
| [19] |
周志华. 机器学习[M]. 北京: 清华大学出版社, 2016.
( 0)
|
2019, Vol. 45

0)