鲁棒的基于强化学习的对数最优策略
摘要:鲁棒对数最优策略(RLOS)是一种改进一般对数最优策略(GLOS)的新的投资组合管理方法,通过用二次泰勒展开逼近传统的目标函数来改进GLOS。它避免了GLOS复杂的累积分布函数估计过程,因此可以抵抗由估计误差引起的“蝴蝶效应”。此外,RLOS保留了GLOS的盈利能力,而且与GLOS相比,RLOS所涉及的优化问题在计算上更加实用。此外,我们将RLOS与强化学习(RL)相结合,提出了所谓的具有强化学习的鲁棒对数最优策略(RLOSRL),其中RL代理接收来自RLOS的分析结果,并观察交易环境以做出全面的投资决策。我们通过几次回测将RLOSRL的绩效与一些传统策略进行了对比,在这些回测中,我们随机选择了CSI300指数的几只成分股作为管理资产,并且测试结果验证了其盈利能力和稳定性。
作者:Yifeng Guo, Xingyu Fu, Yuyan Shi, Mingwen Liu
论文ID:1805.00205
分类:Portfolio Management
分类简称:q-fin.PM
提交时间:2018-05-02