支持向量回归机(SVR)是在统计学习理论和最优化理论的基础上发展起来的一种机器学习方法,它继承了支持向量机方法的克服了“维数灾难”和“过学习”等优点,具有直观的几何解释和完美的数学形式,从而有力地推动了回归预测的发展,成为研究热点。 本文主要研究多维输出支持向量回归机及其应用问题。主要创新工作如下: 1、提出了多维输出双支持向量回归机(Multidimensional Output Twin Support Vector Regression,MTSVR)。用扩充的多维核函数映射空间来代替原有的一维输出核函数空间,将双支持向量回归机(Twin Support Vector Regression,TSVR)改进为适应多维输出的算法。实验结果表明对于二维输出的情况,MTSVR算法要比TSVR算法拟合精确度更高。 2、提出了基于二次损失函数的多维输出支持向量回归机(Quadratic Loss Functionε-Support Vector Machine,L2-MSVR)。引入二范数损失函数到标准支持向量回归机(ε-SVR)中,使其适用于多维输出的情况。实验结果表明二维输出情况下,L2-MSVR比ε-SVR的回归拟合精度高,算法对于不敏感参数的稳定性好,且时间上更快。 3、提出了基于扩充核函数和二次损失函数的多维输出支持向量回归机(Quadratic Loss Function Multidimensional Outputε-Support Vector Machine,L2-MkSVR)。在MTSVR算法和L2-MSVR算法的基础上将两种改进思想进行融合,共同应用到标准支持向量回归机中,实验结果表明在一定参数的情况下L2-MkSVR算法要比L2-MSVR算法在算法稳定性和预测精度上更高。