作者:颛孙少帅; 杨俊安; 刘辉; 黄科举机器学习强化学习正强化正交分解多臂老虎机干扰决策
摘要:强化学习作为自学习和在线学习方法,以试错的方式与动态环境进行持续交互,进而学习到最优策略,成为机器学习领域一个重要的分支。针对当前无线通信干扰策略研究依赖先验信息以及学习速度过慢的缺点,提出了基于正强化学习-正交分解的干扰策略选择算法。该算法利用正强化的思想提高了最优动作被选中的概率,进而加快了系统的学习速度。特别地,当通信信号星座图因诸多因素而产生畸变时,利用提出的正交分解算法能够学习到最佳干扰信号的同相分量和正交分量,即通过学习获得最佳干扰样式。仿真结果表明,利用正强化学习-正交分解算法能够更加快速地学习到最优干扰参数和最佳干扰样式,相同任务中,仅需更少的交互次数且干扰效果更好,较现有干扰策略选择算法更优。
注:因版权方要求,不能公开全文,如需全文,请咨询杂志社