Resampling

resampling

Resampling

Authors

Affiliations

Eduardo Selim M. M.

 

Carlos A. Ar.

 

Published

May 30, 2021

DOI

Resampling methods

Cross-validation

Validation out-of-sample

Desventajas

Leave-one-out cross-validation

Desventajas

Ventajas

K-fold cross-validation

Ventajas

  1. Si \(k<n\), un mérito obvio del \(k\)-fold cross-validation comparado con Loocv es que \(k\)-fold CV es computacionalmente no demandante, pues se ajustan \(k\) modelos en vez de \(n\).

Sesgo y varianza

Training MSE v.s. Testo MSE

\[ \text{Training MSE} = \frac{1}{n} \sum_{i=1}^{n} (y_i - \hat{f}(x_i)) \]

Un modelo con training MSE bajo, no necesariamente tiene un testMSE bajo.

El “mejor” modelo es aquel que minimiza el test MSE.

Trade-off sesgo -varianza

\[ \underbrace{\mathbb{E}\bigg[ (y_0 - \hat{f}(x_0))^2 \bigg]}_{\text{test MSE esperado} \\ \text{es }x_n} = Var(\hat{f}(x_0)) + \bigg[ \text{Sesgo}(\hat{f}(x_0)) \bigg]^2 + \underbrace{Var(\epsilon_i)}_{\text{Error irreducible}} \]

Hay que hablar largo y tendido de este tema…

Footnotes