Lasso回归
发表于|更新于|统计学
|浏览量:
Lasso回归问题的背景是解决传统回归问题中变量太多的问题,作为一种变量选择方法被提出。
min∣∣Y−βTX∣∣22+λi=1∑p∣βi∣
lasso回归的求解难点在于目标函数不可导(含有绝对值),当X是正交矩阵或单位阵的时候,问题会变得容易求解:
β^=sgn(y)(∣y∣−λ)=⎩⎪⎨⎪⎧y−λ,y>λ0,−λ≤y≤λy+λ,y<−λ
Lasso的优缺点:
- 与Ridge回归的比例收缩相比(除法),Lasso回归的参数收缩是过滤收缩(减法),因此Lasso回归的系数可以为0,进而起到了变量选择的作用。
- Lasso采取L1正则化方法,与Ridge回归相比,计算速度会更快
同样需要注意Lasso有如下缺点: - 模型中变量高度相关时,Lasso模型容易误选变量(选择了)
可以证明,上述问题的解与下式的解相同:
min∣∣Y−((I−XTX)β+XTY)∣∣22+λi=1∑p∣Yi∣
在这个式子里Y与β的地位是相反的
参数选择
与岭回归参数选择一致,注意AIC容易over-selection(AIC对参数个数惩罚力度小)
文章作者: 爱编程的小明
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 小明的博客!
相关推荐

2022-05-13
一元线性回归
本章小结 一元线性回归(掌握) 回归方程及估计(经验)的回归方程(掌握) 参数的最小二乘估计一最小化残差平方和(掌握) 回归方程的拟合优度: 和估计标准误差(掌握) 回归模型的显著性检验(掌握) 回归方程总体的显著性检脸(线性关系检验,或 F 检验) 回归系数的显著性检验(回归系数检验,或 t 检验) 回归系数的区间估计(掌握) 利用回归方程进行估计和预测(理解) 点估计:个别值的,点估计、平均值的点估计 区间估计:平均值的置信区间估计、个别值的预测区间 相关和回归分析是用来度量数值型自变量和数值型因变量之间关系的分析方法。 相关分析 相关关系是指变量之间存在的不确定的数量关系。这种关系与函数关系最大的区别是一个变量的取值不能由另一个变量唯一确定。 相关是考察两个变量是否存在共同变化的趋势 两个变量共同变化的趋势在统计中用共变异数(covariance)来表示,即变量 A 的取值从低到高变化时变量 B 是否也同样发生变化。 线性相关关系的度量 相关系数(correlation coefficient)是根据样本数据计算的度量两个变量之间线性关系强度的统计量。可以根据计算数...

2022-03-17
Logistic Regression
当因变量的类型属于二元(1 / 0,真/假,是/否)变量时,应该使用逻辑回归。这里,Y的值为0或1,它可以用以下方程表示: \begin{equation*} \begin{aligned} odds &= \frac{p}{1-p}\\ &=\frac{probability\hspace{5pt} of\hspace{5pt} event\hspace{5pt} occurrence}{probability\hspace{5pt} of\hspace{5pt} not\hspace{5pt} event \hspace{5pt} {}occurrence} \end{aligned} \end{equation*} 其中有: logit(p)=log(odds)=b0+b1X1+⋯+bkXklogit(p)=\log(odds)=b_0+b_1X_1+\dots+b_kX_k logit(p)=log(odds)=b0+b1X1+⋯+bkXk 为什么要在公式中使用对数log呢?因为在这里使用的是二项分布(因变量),需要选...

2022-03-09
回归分析
在实际中,常常希望根据已有数据,确定因变量(数值变量)与自变量(可以是类别变量)的关系,在此关系的基础上对未知数据进行预测。这种方法叫回归分析。 一般情况下可以按照模型的形式分为线性回归和非线性回归两种形式。 分类 线性模型 线性回归是在研究相关关系时优先考虑(最为直观)的一种模型,它假定所有解释变量对被解释变量的影响是线性叠加的,一般假设总体存在如下关系(矩阵形式): \begin{equation} \boldsymbol{Y}=\boldsymbol{X} \boldsymbol{\beta}+\boldsymbol{\mu} \end{equation} 在统计学习的视角下,不同的线性模型则是从不同的假设出发建立不同的目标函数/约束条件,进而求解得到不同的估计结果,常见的线性模型有最小二乘法、岭回归、套索回归、弹性网络回归等。对于线性回归的线性也可以从多个角度理解,通过适当放松线性条件则可以得到其它的回归方法,如多项式回归(变量非线性)、 OLS 最小二乘法是用于拟合回归线最常用的方法。对于观测数据,它通过最小化每个数据点到线的垂直偏差平方和来计算最佳拟合线。 在计算总...

2022-03-01
回归分析实战
回归分析 线性回归 scikit-learn提供了广义线性模型模块sklearn.linear_model. 它定义线性模型为: linear_model模块提供用于线性回归的类: class sklearn.linear_model.LinearRegression(fit_intercept=True, normalize=False, copy_X=True, n_jobs=1) 生成一个LinearRegression类的实例。 使用该实例调用fit()方法来拟合数组 X, y fit(X, y, sample_weight=None),其中X, y接收数组,分别代表训练集和目标。 将线性模型的系数w存储在其成员变量coef_中。 用户可通过访问coef_和intercept_观察拟合的方程中,各自变量的系数和截距。 使用predict()方法能够预测一个新的样本的回归值: predict(X),其中X是新的样本。 #ch7#例7-1 读取第5章产生的1元线性回归数据,进行回归分析,可视化回归结果import numpy as npimport matplotlib...

2022-08-31
多元线性回归
主要分享计量的多元线性回归模型及离差形式系数的求解过程,在学习完多元线性回归之后一时兴起用了一个小时在本子上写出了公式的推导,回到宿舍后为了方便npy看花费了两个小时转成了数学公式(主要是自己写的公式区分度不高,mathpix看了落泪),排版的过程中顿觉markdown的苍白无力,latex的交叉引用是真的好用,但因为种种原因最后还是选择了markdown作为自己写笔记的主要工具,好像也没有什么办法,毕竟不可能事事尽善尽美。 模型 \begin{equation} \begin{aligned} Y_i &=\beta_0+\beta_1 X_{i 1}+\beta_2 X_{i 2}+\ldots \beta_k X_{i k}+\mu_i \\ &=\left[\begin{array}{lllll} 1 & X_{i 1} & X_{i 2} & \ldots & X_{i k} \end{array}\right]\left(\begin{array}{c} \beta_0 \\ \beta_1 \\ \beta_2 \...

2023-11-08
岭回归
前言 在多元线性回归中曾经提到,经典线性回归模型的估计结果: \begin{equation} \boldsymbol{\hat{\beta}}=\left(\boldsymbol{X'}\boldsymbol{X}\right)^{-1}\boldsymbol{X'}\boldsymbol{Y} \end{equation} 上述估计量的方差为: \begin{equation} \begin{aligned} \operatorname{Var}(\hat{\beta})&=\operatorname{Var}\left(\left(\boldsymbol{X'}\boldsymbol{X}\right)^{-1}\boldsymbol{X'}\boldsymbol{Y}\right)\\ &=\left(\left(\boldsymbol{X'}\boldsymbol{X}\right)^{-1}\boldsymbol{X'}\right)^T\operatorname{Var}(Y)\left(...