Lasso回归问题的背景是解决传统回归问题中变量太多的问题,作为一种变量选择方法被提出。
min∣∣Y−βTX∣∣22+λi=1∑p∣βi∣
lasso回归的求解难点在于目标函数不可导(含有绝对值),当X是正交矩阵或单位阵的时候,问题会变得容易求解:
β^=sgn(y)(∣y∣−λ)=⎩⎪⎨⎪⎧y−λ,y>λ0,−λ≤y≤λy+λ,y<−λ
Lasso的优缺点:
- 与Ridge回归的比例收缩相比(除法),Lasso回归的参数收缩是过滤收缩(减法),因此Lasso回归的系数可以为0,进而起到了变量选择的作用。
- Lasso采取L1正则化方法,与Ridge回归相比,计算速度会更快
同样需要注意Lasso有如下缺点:
- 模型中变量高度相关时,Lasso模型容易误选变量(选择了)
可以证明,上述问题的解与下式的解相同:
min∣∣Y−((I−XTX)β+XTY)∣∣22+λi=1∑p∣Yi∣
在这个式子里Y与β的地位是相反的
参数选择
与岭回归参数选择一致,注意AIC容易over-selection(AIC对参数个数惩罚力度小)