La regresión Lasso, también conocida como regularización L1, es una forma de regularización para modelos de regresión lineal . La regularización es un método estadístico para reducir los errores causados por el sobreajuste de los datos de entrenamiento. Este enfoque puede reflejarse con esta fórmula:
w-hat = argminw MSE(W ) + ||w||1
Los conceptos que subyacen a la técnica Lasso se remontan a un artículo de investigación geofísica de 1986 (enlace externo a ibm.com) de Santosa y Symes1, que utilizaron la penalización L1 para los coeficientes. Sin embargo, en 1996, el estadístico Robert Tibshirani desarrolló y popularizó de forma independiente el término2 (enlace externo a ibm.com), "Lasso", basado en el trabajo de garrote no negativo de Breiman3 (enlace externo a ibm.com).
Lasso son las siglas de Least Absolute Shrinkage and Selection Operator. Se utiliza con frecuencia en el machine learning para gestionar datos de alta dimensión, ya que facilita la selección automática de funciones con su aplicación. Lo hace añadiendo un término de penalización a la suma residual de cuadrados (RSS) y, a continuación, se multiplica por el parámetro de regularización (lambda o λ). Este parámetro de regularización controla la cantidad de regularización aplicado. Los valores más altos de lambda aumentan la penalización y reducen más coeficientes hasta cero; esto reduce la importancia (o elimina por completo) de algunas de las funciones del modelo, lo que resulta en la selección automática de funciones. Por el contrario, los valores más pequeños de lambda reducen el efecto de la penalización y conservan más funciones del modelo.
Esta penalización promueve la dispersión dentro del modelo, lo que puede ayudar a evitar problemas de multicolinealidad y sobreajuste en los conjuntos de datos. La multicolinealidad ocurre cuando dos o más variables independientes están altamente correlacionadas entre sí, lo que puede ser problemático para el modelado causal. Los modelos sobreajustados generalizarán mal los nuevos datos, lo que disminuirá totalmente su valor. Al reducir los coeficientes de regresión a cero, la regresión Lasso puede eliminar de manera eficaz las variables independientes del modelo, lo que permite eludir estos posibles problemas dentro del proceso de modelado. La dispersión de modelos también puede mejorar la interpretabilidad del modelo en comparación con otras técnicas de regularización, como la regresión (también conocida como regularización L2).
Como nota, este artículo se centra en la regularización de modelos de regresión lineal, pero vale la pena señalar que la regresión Lasso también se puede aplicar en la regresión logística.