2. 重庆邮电大学 电子信息与网络工程研究院, 重庆 400065
2. Institute of Electronic Information and Network Engineering, Chongqing University of Posts and Telecommunications, Chongqing 400065, China
开放科学(资源服务)标志码(OSID):
极化码[1]自2009年由ARIKAN提出以来,因其在无记忆信道中被证明可以达到香农极限信道容量的特性,以及编解码的低复杂度而备受关注[2]。由于极化码在短块长度下具有良好的误码率(Bit Error Rate,BER)性能,因此在第五代移动通信技术(5th Generation Mobile Communication Technology,5G)中被采用为控制信道编码方案。同时,极化码的译码算法得到学者的广泛研究,其中,串行抵消(Successive Cancellation,SC)和置信传播(Belief Propagation,BP)是极化码最常用的两种译码算法。相比于SC译码算法[3]以及在其基础上改进的串行抵消列表(Successive Cancellation List,SCL)译码算法[4],BP译码算法的并行译码过程具有更高的吞吐量及更低的时延[5-6],因此更能满足5G场景的需求。但随着迭代次数及码长的增加,运算复杂度大幅提高,即使采用最小和近似[7]和早期终止准则[8]来降低复杂度和冗余迭代次数,BP译码算法在有限的迭代中仍然表现不理想。
近年来,基于神经网络的译码器受到了人们广泛的关注。为改善BP译码算法的性能,国内外研究者对此进行了大量研究并取得了显著的进展。文献[9-10]将BP迭代译码结构运用到神经网络架构中,并通过深度学习优化最小和近似后用于弥补性能损失的缩放因子,大幅降低了迭代次数并提升了误码率性能。对神经网络译码算法的进一步优化主要从增强译码BER性能和降低运算复杂度或时延两个方面进行。在提升BER性能方面,文献[11-12]结合循环冗余校验(Cyclic Redundancy Check,CRC)与BP译码算法两者的因子图及神经网络,取得了接近于CA-SCL译码算法的性能,文献[13]在此基础上将神经网络架构修改为长短期记忆网络(Long Short-Term Memory,LSTM)以平衡译码性能与运算复杂度。在降低运算复杂度及时延方面,文献[14]结合分块方法及深度神经网络改善了长码情况下的译码性能,文献[15]则是通过卷积神经网络(Convolutional Neural Network,CNN)对神经网络架构中的值传递过程进行简化以降低运算复杂度,文献[16]提出一种残差网络降噪译码算法并完成了硬件实现,取得了极低的译码时延。
但以上方法大部分仍存存在2个待解决的关键问题:额外的权值存储开销,随着极化码码长的增加与迭代次数的影响,成倍增长的权重因子导致了相当大的存储空间开销,阻碍了神经网络在实际通信系统中的应用;大量的乘法运算,与使用最小和近似的BP算法相比,深度学习的辅助使得算法具有更好的性能。但以上算法大部分添加了相乘的缩放因子,增加了运算复杂度。
针对神经网络译码器存在的问题,受BCH(Bose-Chaudhuri-Hocquenghem)译码所采用的偏移最小和近似(Offset Min-Sum,OMS)BP译码算法[17-18],以及循环神经网络(Recurrent Neural Network,RNN)译码架构[19]的启发,本文对极化码的BP译码算法和深度学习进行研究,提出一种基于循环神经网络的偏移最小和置信传播(RNN-OMS-BP)译码算法。通过循环神经网络结构实现神经网络多次迭代之间的参数共享,并运用偏移最小和近似算法修改迭代过程中的消息更新策略,以实现低运算复杂度、低内存占用的极化码译码算法。
1 极化码与BP译码算法 1.1 极化码极化码是一种通过信道极化原理构造的线性分组码,理论上可以达到香农容量,其原理可简述为对于
$ {\mathit{\boldsymbol{x}}^N} = {\mathit{\boldsymbol{u}}^N}{\mathit{\boldsymbol{G}}_N} = {\mathit{\boldsymbol{u}}^N}{\mathit{\boldsymbol{F}}^{ \otimes n}}{\mathit{\boldsymbol{B}}_N} $ | (1) |
其中:
置信传播(BP)是一种广泛应用的消息传递译码算法,主要应用于低密度匹配校验码(Low Density Parity Check Code,LDPC)和BCH码。但不同于以上2种信道编码的BP译码过程是基于奇偶校验矩阵进行消息更新的,极化码的BP译码算法的消息更新过程是在因子图上迭代进行的,并且采用类似SC译码算法的连续消除规则[20]。该因子图一共由
![]() |
Download:
|
图 1 极化码的BP译码算法因子图 Fig. 1 Factor graph of BP decoding algorithm for polar code |
在图 1中,下标
$ \left\{\begin{array}{l}{L}_{(i, j)}^{\left(t\right)}=g({L}_{i+1, j}^{(t-1)}, {L}_{i+1, j+N/{2}^{i}}^{(t-1)}+{R}_{i, j+N/{2}^{i}}^{\left(t\right)})\\ {L}_{i, j+N/{2}^{i}}^{\left(t\right)}=g({R}_{i, j}^{\left(t\right)}, {L}_{i+1, j}^{(t-1)})+{L}_{i+1, j+N/2}^{(t-1)}\\ {R}_{i, j}^{\left(t\right)}=g({R}_{i, j}^{\left(t\right)}, {L}_{i+1, j+N/{2}^{i}}^{(t-1)}+{R}_{i, j+N/{2}^{i}}^{\left(t\right)})\\ {R}_{i, j+N/{2}^{i}}^{\left(t\right)}=g({R}_{i, j}^{\left(t\right)}, {L}_{i+1, j}^{(t-1)})+{R}_{i, j+N/{2}^{i}}^{(t-1)}\end{array}\right. $ | (2) |
其中:函数
$ \begin{array}{c}g(a, b)\approx {\rm{sign}}(a)\times {\rm{sign}}(b){\rm{min}}(\left|a\right|, \left|b\right|)\end{array} $ | (3) |
在迭代开始时,两类对数似然比信息初始化如下:
$ R_{1,j}^{\left( 1 \right)} = \left\{ {\begin{array}{*{20}{l}} {0,j \in \mathit{\boldsymbol{A}}}\\ {\infty ,j \in {\mathit{\boldsymbol{A}}^c}} \end{array}} \right. $ | (4) |
$ {L}_{n+1, j}^{\left(1\right)}=\mathrm{l}\mathrm{n}\frac{p\left({y}_{j}\right|{x}_{j}=0)}{p\left({y}_{j}\right|{x}_{j}=1)} $ | (5) |
其中:A表示信息比特集合;Ac表示冻结比特集合;
$ {o}_{j}^{N}=\left\{\begin{array}{l}0, {L}_{1, j}^{\left(T\right)}\ge 0\\ 1, {L}_{1, j}^{\left(T\right)} < 0\end{array}\right. $ | (6) |
最小和近似虽然有效地降低了复杂度,但也会导致误码率性能损失。文献[10]提出了基于深度神经网络的BP译码算法,该网络架构可以看作极化码因子图的展开结构,并在消息更新因子图中设置了可学习的参数,从而弥补最小和近似带来的性能损失。式(2)被替换如下:
$ \left\{\begin{array}{l}{L}_{(i, j)}^{\left(t\right)}=L{v}_{i, j}^{\left(t\right)}\cdot g({L}_{i+1, j}^{(t-1)}, {L}_{i+1, j+N/{2}^{i}}^{(t-1)}+{R}_{i, j+N/{2}^{i}}^{\left(t\right)})\\ {L}_{i, j+N/{2}^{i}}^{\left(t\right)}=L{v}_{i, j+N/{2}^{i}}^{\left(t\right)}\cdot g({R}_{i, j}^{\left(t\right)}, {L}_{i+1, j}^{(t-1)})+{L}_{i+1, j+N/2}^{(t-1)}\\ {R}_{i, j}^{\left(t\right)}=R{v}_{i+1, j}^{\left(t\right)}\cdot g({R}_{i, j}^{\left(t\right)}, {L}_{i+1, j+N/{2}^{i}}^{(t-1)}+{R}_{i, j+N/{2}^{i}}^{\left(t\right)})\\ {R}_{i, j+N/{2}^{i}}^{\left(t\right)}=R{v}_{i+1, j+N/{2}^{i}}^{\left(t\right)}\cdot g({R}_{i, j}^{\left(t\right)}, {L}_{i+1, j}^{(t-1)})+{R}_{i, j+N/{2}^{i}}^{(t-1)}\end{array}\right. $ | (7) |
其中:
在
$ L(\mathit{\boldsymbol{u}},\mathit{\boldsymbol{o}}) = - \frac{1}{N}\sum\limits_{j = 1}^N {{u_j}} {\rm{lo}}{{\rm{g}}_a}{o_j} + \left( 1 \right. - {u_j}){\rm{lo}}{{\rm{g}}_a}\left( 1 \right. - {o_j}) $ | (8) |
该模型的最终目标是通过反向传播算法计算损失函数梯度,并使用随机梯度下降(Stochastic Gradient Descent,SGD)算法最小化损失函数,确定最优缩放因子的值。
2 基于循环神经网络的偏移最小和近似BP译码算法 2.1 偏移最小和近似DNN-BP可以更好地解决最小和的近似损失问题,但是该深度神经网络架构仍然存在2个问题:
1)引入缩放因子为算法增加了大量的乘法运算,运算复杂度大幅增加。
2)存储空间被该深度架构中大量的缩放因子的存储所占用。这2个问题都阻碍了DNN-BP在现实通信系统中的部署。
本文提出一种基于循环神经网络的偏移最小和近似置信传播(RNN-OMS-BP)译码算法用于极化码译码,以实现乘法缩放因子的替代以及不同次迭代之间的权值共享。
使用偏移最小和近似算法[18]代替缩放因子最小和近似算法,式(3)被替换如下:
$ g\text{'}(a, b, \beta )=\mathrm{s}\mathrm{i}\mathrm{g}\mathrm{n}\left(a\right)\mathrm{s}\mathrm{i}\mathrm{g}\mathrm{n}\left(b\right)\mathrm{m}\mathrm{a}\mathrm{x}\left(\mathrm{m}\mathrm{i}\mathrm{n}\right(\left|a\right|, \left|b\right|)-\beta , 0) $ | (9) |
其中:
为改善系统性能,因子图中不同节点应用不同的偏移量,式(7)更新如下:
$ \left\{\begin{array}{l}{L}_{(i, j)}^{\left(t\right)}=g\text{'}\left({L}_{i+1, j}^{(t-\left.1\right)}, {L}_{i+1, j+N/{2}^{i}}^{(t-\left.1\right)}+{R}_{i, j+N/{2}^{i}}^{\left(t\right)}, {\beta }_{{L}_{i, j}^{t}}\right)\\ {L}_{i, j+N/{2}^{i}}^{\left(t\right)}=g\text{'}\left({R}_{i, j}^{\left(t\right)}, {L}_{i+1, j}^{(t-\left.1\right)}, {\beta }_{{L}_{i, j+N/{2}^{i}}^{t}}\right)+{L}_{i+1, j+N/2}^{(t-1)}\\ {R}_{i, j}^{\left(t\right)}=g\text{'}\left({R}_{i, j}^{\left(t\right)}, {L}_{i+1, j+N/{2}^{i}}^{(t-\left.1\right)}+{R}_{i, j+N/{2}^{i}}^{\left(t\right)}, {\beta }_{{R}_{i+1, j}^{t}}\right)\\ {R}_{i, j+N/{2}^{i}}^{\left(t\right)}=g\text{'}\left({R}_{i, j}^{\left(t\right)}, {L}_{i+1, j}^{(t-\left.1\right)}, {\beta }_{{R}_{i+1, j+N/{2}^{i}}^{t}}\right)+{R}_{i, j+N/{2}^{i}}^{(t-1)}\end{array}\right. $ | (10) |
其中:
使用偏移量替代缩放因子后,解决了引入大量乘法运算的问题。但大量的可学习偏移量仍然占用了较大的存储空间。因此,受到文献[19]的启发,本文基于上述的偏移最小和近似算法提出改进的循环神经网络架构,代替文献[10]所采用的前馈神经网络架构。以(4,2)极化码为例的网络架构如图 2所示。
![]() |
Download:
|
图 2 循环神经网络架构及神经元图 Fig. 2 Recurrent neural network architecture and neuronal graphs |
在图 2(a)神经网络结构中,右信息以及左信息传递的过程分别展开为
1)在每层隐藏层的计算单元中因为偏移量最小和近似加入了
$ {f}_{\mathrm{R}\mathrm{e}\mathrm{L}\mathrm{U}}\left(x\right)=\mathrm{m}\mathrm{a}\mathrm{x}\left(0, x\right) $ | (11) |
2)在每
图 2(b)中计算单元1、计算单元2分别用于承担式(10)中第1、3式及第2、4式与sigmoid函数的计算,分别记为
$ \left\{ {\begin{array}{*{20}{l}} {{f_{\rm{I}}}{{\left( {{x_{l - 1}};{\beta _l}} \right)}^{(l)}} = g'\left( {x_{l - 1}^\prime ,x_{l - 1}^{\prime \prime } + z',\beta _l^I} \right)}\\ {{f_{{\rm{II}}}}{{\left( {{x_{l - 1}};{\beta _l}} \right)}^{(l)}} = g'\left( {x_{l - 1}^\prime ,z'',\beta _l^{{\rm{II}}}} \right) + x_{l - 1}^{\prime \prime }}\\ {o = o\left( {{x_L}} \right) = \sigma \left( {{x_{L - 1}}} \right)} \end{array}} \right. $ | (12) |
其中:
选择合理的损失函数对训练过程的效率和运算复杂度都有明显的帮助,DNN-BP算法采用如式(8)所示的交叉熵损失函数作为损失函数,交叉熵函数无疑是契合于该应用场景的损失函数。但交叉熵损失函数同样也存在不够硬件友好的缺点,在求导计算中需要计算
$ {L_{{\rm{hinge}}}}(\mathit{\boldsymbol{u}},\mathit{\boldsymbol{o}}) = \frac{1}{N}\sum\limits_{j = 1}^N {\rm{m ax}}({\rm{0}},{\rm{1}} - {u_j}o_j^{}) $ | (13) |
通过合理的损失函数选择,可有效减少训练复杂度及时间,而几乎未带来可见的性能下降。
2.3 译码算法伪代码算法 RNN-OMS-BP译码算法
输入 模型参数设置(包括码长
输出 预测信息比特集o,损失函数值
1.初始化:生成用于训练和验证的码字集
for i = 1,2,…,SNR(=5)do
Generate:
end for
2.RNN-OMS-BP算法:将占位符(placeholder)带入以RNN架构展开的因子图中,计算出所有加入偏移量β后的左信息
for i = 4,3,…,0 do
for j = 16,15,…,0 do
计算
end for
end for
3.设置损失函数
$ \mathrm{x}={\mathrm{L}}_{1}^{\mathrm{T}} $ |
$ \mathrm{l}\mathrm{o}\mathrm{s}\mathrm{s}=\mathrm{r}\mathrm{e}\mathrm{d}\mathrm{u}\mathrm{c}\mathrm{e}\_\mathrm{m}\mathrm{e}\mathrm{a}\mathrm{n}\left(\mathrm{式}\right(8\left)\mathrm{或}\mathrm{式}\right(13\left)\right) $ |
for i = 1,2,…,epochs = 25 do
$ \mathrm{o}, \mathrm{L}=\mathrm{s}\mathrm{e}\mathrm{s}\mathrm{s}.\mathrm{r}\mathrm{u}\mathrm{n}(\mathrm{x}, \mathrm{y}, \mathrm{o}\mathrm{p}\mathrm{t}\mathrm{i}\mathrm{m}\mathrm{i}\mathrm{z}\mathrm{e}\mathrm{r}, \mathrm{l}\mathrm{o}\mathrm{s}\mathrm{s}) $ |
end for
4.进行测试,将最优偏移量集
$ {\mathrm{o}}_{\mathrm{t}\mathrm{e}\mathrm{s}\mathrm{t}}, {\mathrm{L}}_{\mathrm{t}\mathrm{e}\mathrm{s}\mathrm{t}}=\mathrm{s}\mathrm{e}\mathrm{s}\mathrm{s}.\mathrm{r}\mathrm{u}\mathrm{n}({\mathrm{x}}_{\mathrm{t}\mathrm{e}\mathrm{s}\mathrm{t}}, {\mathrm{y}}_{\mathrm{t}\mathrm{e}\mathrm{s}\mathrm{t}}, \mathrm{l}\mathrm{o}\mathrm{s}\mathrm{s}) $ |
最终计算出BER以评估译码算法性能。
3 仿真结果与分析为评估本文所提出的RNN-OMS-BP译码算法的性能,分别通过仿真将其与原始BP译码算法、DNN-BP译码算法在误码率(Bit Error Rate,BER)、收敛速度及运算复杂度方面进行对比。表 1所示为仿真中所用的实验参数。
![]() |
下载CSV 表 1 仿真参数设置 Table 1 Simulation parameters setup |
第一个实验是模拟在码长及码率相同的情况下,不同迭代次数下原始BP、DNN-BP与本文提出的RNN-OMS-BP译码算法的BER性能,观测迭代次数对神经网络译码器的架构设计和参数的调整有重要意义。仿真结果如图 3所示(以(16,8)极化码为例)。
![]() |
Download:
|
图 3 不同迭代次数下3种译码算法BER性能 Fig. 3 BER performance of three decoding algorithms under different iteration times |
从图 3可以看出,对于(16,8)极化码,DNN-BP和RNN-OMS-BP译码算法只需约5次迭代即可收敛,就能获得良好的性能。另一方面,传统的BP译码算法需要超过40次迭代才能达到与神经网络译码器迭代2次相近的BER性能。因此,传统BP算法消耗的计算资源较多,能耗高,时延较长。此外,RNN-OMS-BP与DNN-BP两种算法具有几乎相同的误码率,但RNN-OMS-BP算法计算复杂度与存储空间占用减少,更适合部署在实际通信系统中。
3.2 不同码长下的BER性能分析信道编码码长对系统BER性能有显著影响,因此本文对(16,8)、(64,32)和(128,64)3种不同码长的RNN-OMS-BP译码算法、DNN-BP译码算法以及传统BP译码算法BER性能进行仿真对比,其中,传统BP译码算法迭代次数为40,RNN-OMS-BP译码算法迭代次数为5,仿真结果如图 4所示。
![]() |
Download:
|
图 4 不同码长下3种译码算法BER性能 Fig. 4 BER performance of three algorithms under different code lengths |
从图 4可以看出,在(16,8)的短码长情况下,相比于传统BP译码算法,RNN-OMS-BP算法的BER性能得到明显改善,与DNN-BP算法的BER性能差距非常小;在码长为(64,32)和(128,64)的情况下,与传统BP译码算法相比,RNN-OMS-BP亦可以实现更低的误码率,且优势在高信噪比区域更加明显,与短码长情况类似,相较于DNN-BP译码算法BER性能下降非常微小。仿真结果与预测情况一致,即提出的RNN-OMS-BP算法在长短码情况下相较于传统BP算法均有显著改善,相较于DNN-BP算法,性能下降相当微小。
3.3 偏移量值的分布本节以(64,32)极化码为例,对本文提出的RNN-OMS-BP译码算法中偏移量
![]() |
Download:
|
图 5 偏移量值的分布直方图 Fig. 5 Histogram of distribution of offset values |
从图 5可以看出,当训练次数即
表 2的运算复杂度分析以(16,8)极化码为例,列举了在传统BP译码算法迭代
![]() |
下载CSV 表 2 运算复杂度分析 Table 2 Analysis of computational complexity |
由表 2可知,相比于传统BP译码算法,两种神经网络结构的BP译码算法将迭代次数减少80%以上,并且有效降低了最小和近似带来的BER性能损失。相比于DNN-BP译码算法,RNN-OMS-BP译码算法在同样经过5次迭代的前提下,以增加12.5%的加法运算量为代价,替代了所有的乘法运算。同时通过循环神经网络结构在迭代次数为
除译码过程的运算复杂度分析外,本文还通过仿真测试了训练过程采用不同损失函数下的BER性能,如图 6所示(以(64,32)极化码为例)。
![]() |
Download:
|
图 6 不同损失函数下的BER性能 Fig. 6 BER performance under different loss functions |
从图 6可以看出,使用
本文提出一种基于RNN-OMS-BP的极化码译码算法。将偏移最小和近似算法替代乘法运算,采用改进的循环神经网络架构实现参数共享,有效减少内存开销,并通过离线学习减少BP译码算法的迭代次数。仿真结果表明,该译码算法在误码率性能和运算复杂度之间取得了良好的平衡,对于BP译码算法的硬件实现和实际应用更加友好。下一步将结合具有软判决输出的多用户检测算法,设计基于循环神经网络架构的联合迭代检测译码算法[21-22],以获得更显著的系统性能增益。
[1] |
ARIKAN E. Channel polarization: a method for constructing capacity-achieving codes[C]//Proceedings of 2008 IEEE International Symposium on Information Theory. Washington D.S., USA: IEEE Press, 2008: 143-156.
|
[2] |
ARIKAN E. Channel polarization: a method for constructing Capacity-achieving codes for symmetric binary-input memoryless channels[J]. IEEE Transactions on Information Theory, 2009, 55(7): 3051-3073. DOI:10.1109/TIT.2009.2021379 |
[3] |
ALAMDAR-YAZDI A, KSCHISCHANG F R. A simplified successive-cancellation decoder for polar codes[J]. IEEE Communications Letters, 2013, 17(12): 2360-2363. DOI:10.1109/LCOMM.2013.110413.132136 |
[4] |
刘亚军, 李世宝, 刘建航, 等. 一种低时延极化码列表连续删除译码算法[J]. 计算机工程, 2018, 44(3): 78-81. LIU Y J, LI S B, LIU J H, et al. A low-latency successive cancellation list decoding algorithm for polar codes[J]. Computer Engineering, 2018, 44(3): 78-81. (in Chinese) |
[5] |
FAYYAZ U U, BARRY J R. Polar codes for partial response channels[C]//Proceedings of IEEE International Conference on Communications. Washington D. S., USA: IEEE Press, 2013: 4337-4341.
|
[6] |
YANG J, ZHANG C, ZHOU H, et al. Pipelined belief propagation polar decoders[C]//Proceedings of 2016 IEEE International Symposium on Circuits and Systems. Washington D. S., USA: IEEE Press, 2016: 352-367.
|
[7] |
YUAN B, PARHI K K. Architecture optimizations for BP polar decoders[C]//Proceedings of IEEE International Conference on Acoustics. Washington D.S., USA: IEEE Press, 2013: 653-669.
|
[8] |
YUAN B, PARHI K K. Early stopping criteria for energy-efficient low-latency belief-propagation polar code decoders[J]. IEEE Transactions on Signal Processing, 2014, 62(24): 6496-6506. DOI:10.1109/TSP.2014.2366712 |
[9] |
NACHMANI E, MARCIANO E, LUGOSCH L, et al. Deep learning methods for improved decoding of linear codes[J]. IEEE Journal of Selected Topics in Signal Processing, 2018, 12(1): 585-597. |
[10] |
XU W, WU Z, UENG Y L, et al. Improved polar decoder based on deep learning[C]//Proceedings of 2017 IEEE International Workshop on Signal Processing Systems. Washington D.S., USA: IEEE Press, 2017: 235-246.
|
[11] |
DOAN N, HASHEMI S A, MAMBOU E N, et al. Neural belief propagation decoding of CRC-Polar concatenated codes[EB/OL]. [2020-11-01]. https://arxiv.org/pdf/1811.00124.pdf.
|
[12] |
WANG X, ZHENG Z, LI J, et al. Belief propagation bit-strengthening decoder for polar codes[J]. IEEE Communications Letters, 2019, 23(11): 1958-1961. DOI:10.1109/LCOMM.2019.2939801 |
[13] |
CHEN C H, TENG C F, WU A Y. Low-complexity LSTM-assisted bit-flipping algorithm for successive cancellation list polar decoder[C]//Proceedings of 2020 IEEE International Conference on Acoustics, Speech and Signal Processing. Washington D.S., USA: IEEE Press, 2020: 1451-1467.
|
[14] |
WEN C, XIONG J, GUI L, et al. A BP-NN decoding algorithm for polar codes[C]//Proceedings of the 11th International Conference on Wireless Communications and Signal Processing. Washington D.S., USA: IEEE Press, 2019: 325-331.
|
[15] |
TENG C F, HO K S, WU C H, et al. Convolutional neural network-aided bit-flipping for belief propagation decoding of polar codes[C]//Proceedings of IEEE International Conference on Acoustics, Speech and Signal Processing. Washington D.S., USA: IEEE Press, 2019: 656-667.
|
[16] |
CAO Z, ZHU H, ZHAO Y, et al. Learning to denoise and decode: a novel residual neural network decoder for polar codes[C]//Proceedings of the 92nd IEEE Vehicular Technology Conference. Washington D.S., USA: IEEE Press, 2019: 764-778.
|
[17] |
XU W, TAN X, BEERY Y, et al. Deep learning-aided belief propagation decoder for polar codes[J]. IEEE Journal on Emerging and Selected Topics in Circuits and Systems, 2020, 55(9): 145-156. |
[18] |
LUGOSCH L, GROSS W J. Neural offset min-sum decoding[C]//Proceedings of IEEE International Symposium on Information Theory. Washington D.S., USA: IEEE Press, 2017: 1361-1365.
|
[19] |
TENG C F, CHEN H, HO K S, et al. Low-complexity recurrent neural network-based polar decoder with weight quantization Mechanism[C]//Proceedings of 2019 IEEE International Conference on Acoustics, Speech and Signal Processing. Washington D.S., USA: IEEE Press, 2019: 667-675
|
[20] |
WODIANY I, POP A. Low-precision neural network decoding of polar codes[C]//Proceedings of the 20th IEEE International Workshop on Signal Processing Advances in Wireless Communications. Washington D.S., USA: IEEE Press, 2019: 256-268.
|
[21] |
PAN Z, LI E, ZHANG L, et al. Design and optimization of joint iterative detection and decoding receiver for uplink polar coded SCMA system[J]. IEEE Access, 2018, 7: 11365-11376. |
[22] |
SUN F, NIU K, DONG C. Deep learning based joint detection and decoding of non-orthogonal multiple access systems[C]//Proceedings of 2018 IEEE GLOBECOM Workshops. Washington D.S., USA: IEEE Press, 2018: 367-378.
|