鲁棒的基于强化学习的对数最优策略

摘要:鲁棒对数最优策略(RLOS)是一种改进一般对数最优策略(GLOS)的新的投资组合管理方法,通过用二次泰勒展开逼近传统的目标函数来改进GLOS。它避免了GLOS复杂的累积分布函数估计过程,因此可以抵抗由估计误差引起的“蝴蝶效应”。此外,RLOS保留了GLOS的盈利能力,而且与GLOS相比,RLOS所涉及的优化问题在计算上更加实用。此外,我们将RLOS与强化学习(RL)相结合,提出了所谓的具有强化学习的鲁棒对数最优策略(RLOSRL),其中RL代理接收来自RLOS的分析结果,并观察交易环境以做出全面的投资决策。我们通过几次回测将RLOSRL的绩效与一些传统策略进行了对比,在这些回测中,我们随机选择了CSI300指数的几只成分股作为管理资产,并且测试结果验证了其盈利能力和稳定性。

作者:Yifeng Guo, Xingyu Fu, Yuyan Shi, Mingwen Liu

论文ID:1805.00205

分类:Portfolio Management

分类简称:q-fin.PM

提交时间:2018-05-02

PDF 下载: 英文版 中文版pdf翻译中