张量化的多任务回归问题中的LSSVMs

摘要:利用多任务学习(MTL)可以提高性能,同时发挥多个任务之间的相关性。多模态数据的出现使得任务可以通过多个索引进行引用。高阶张量能够为这些任务提供高效的表示,同时保留结构化的任务关系。本文通过利用低秩张量分析和构建张量化最小二乘支持向量机的新型MTL方法,即tLSSVM-MTL,来灵活地施加多线性建模及其非线性扩展。我们使用高阶张量作为所有权重,并使用CP分解对其进行分解,为所有任务分配一个共享因子,并保留沿每个索引的任务特定潜在因子。然后,推导出用于非凸优化的交替算法,其中每个子问题的解决方案为线性系统。实验结果显示了我们tLSSVM-MTL方法的良好性能。

作者:Jiani Liu, Qinghua Tao, Ce Zhu, Yipeng Liu, Johan A.K. Suykens

论文ID:2303.02451

分类:Machine Learning

分类简称:cs.LG

提交时间:2023-08-23

PDF 下载: 英文版 中文版pdf翻译中