目前平台处于试运行阶段,如有任何问题或建议,请发送邮件至 service@dataju.cn 或加入QQ群 565136792 联系管理员。

满足不同角色需求:领域专家 数据管理者 数据科学家 科研人员、高校教师及研究生 数据分析爱好者
线性核函数C-SVR回归方法
1327次浏览 dataju 于 2016-07-10 发布
该内容是由用户自发提供,聚数力平台仅提供平台,让大数据应用过程中的信息实现共享、交易与托管。如该内容涉及到您的隐私或可能侵犯版权,请告知我们及时删除。
分析方法描述
线性核函数C-SVC模型,是采用线性核函数的C-SVR模型。C-SVR模型是支持向量机模型(Support Vector Machine)的一种,针对有监督学习(Supervised Learning)中的归回或称函数拟合(Regression)问题。使用线性函数$ f(x) = w^T \cdot x +b $对数据进行拟合。求解最优化问题的原始问题如下: $$ \begin{equation} \begin{split} \min_{w, \xi} & \quad \frac{1}{2} \|w\|^2 + C \sum_{i=1}^{n} { (\xi_i+\xi_i^*) } \\ s.t. & \quad (w^T \cdot x_i + b) - y_i \leq \epsilon + \xi_i, \\ & \quad y_i - (w^T \cdot x_i + b) \leq \epsilon + \xi_i, \\ & \quad \xi_i \geq 0, \xi_i^* \geq 0, i=1,2,..,n. \end{split} \label{equ:svrOriginal} \end{equation} $$ 其中,建模对象数量为$n$,每个建模实例为$x_i$。最终的归回拟合函数为 $ f(x) = w^T \cdot x +b $。 原始问题\ref{equ:svrOriginal}对应的对偶问题为 $$ \begin{equation} \begin{split} \min_{\alpha} & \quad \frac{1}{2} \sum_{i=1}^{n}\sum_{j=1}^{n} (\alpha_i^* - \alpha_i)(\alpha_j^* - \alpha_j)(x_i \cdot x_j) \\ & \quad + \epsilon \sum_{i=1}^n(\alpha_i^* + \alpha_i) - \sum_{i=1}^{n} y_i(\alpha_i^* - \alpha_i) \\ s.t. & \quad \sum_{i=1}^{n} (\alpha_i-\alpha_i^*) = 0, \\ & \quad 0 \leq \alpha_i \leq C, 0 \leq \alpha_i^* \leq C, i=1,2,..,n. \end{split} \label{equ:svrDual} \end{equation} $$ 其中,建模对象数量为$n$,$\alpha_i,\alpha_i^*$为原始问题不等式约束对应的拉格朗日乘子。相应的拟合函数为 $ f(x) = w^T \cdot x + b =\sum_{i=1}^n( \alpha_i^* - \alpha_i )( x_i \cdot x ) + b$。
分析方法参数
# 名称 描述
1 C值 cost
2 Epsilon值 epsilon
相关应用案例
暂无
参考资料
暂无

目前平台处于试运行阶段,如有任何问题或建议,请发送邮件至 service@dataju.cn 或加入QQ群 565136792 联系管理员。