Reduciendo el ruido: cómo PCA y Feature Selection revelan las variables clave del valor inmobiliario
Contexto¶
Esta práctica aborda el desafío de reducir la complejidad de los datos sin perder su esencia predictiva, aplicando dos estrategias complementarias:
PCA (Análisis de Componentes Principales) y Feature Selection.
A partir del dataset Ames Housing, se busca identificar qué variables explican realmente el precio de una vivienda, diferenciando entre ruido estadístico y señales valiosas.
El objetivo es descubrir cómo distintas técnicas —desde transformaciones lineales hasta selección basada en modelos— pueden mejorar la precisión del modelo y, al mismo tiempo, hacerlo más interpretable y eficiente.
El enfoque combina rigor técnico con una mirada de negocio, mostrando que reducir variables no significa perder información, sino concentrar la atención en los factores que más impacto tienen en el mercado inmobiliario.
Objetivos¶
- Aplicar PCA para reducir dimensionalidad y analizar la varianza explicada.
- Evaluar distintos métodos de Feature Selection (Filter, Wrapper, Embedded).
- Comparar el impacto de cada método sobre las métricas de rendimiento (RMSE y R²).
- Identificar las features más robustas y su relevancia en la predicción del precio de venta.
- Reflexionar sobre los trade-offs entre precisión, interpretabilidad y costo computacional.
Actividades¶
- Preparación y preprocesamiento de datos
- Carga y limpieza del dataset Ames Housing (1.460 observaciones, ~80 features).
- Imputación de valores faltantes (
medianymost_frequent). - Codificación de variables categóricas con Label Encoding.
-
Escalado de variables mediante
StandardScaler. -
Aplicación de PCA (Análisis de Componentes Principales)
- Estandarización de datos + PCA con distintos valores de
n_components. - Análisis de la varianza explicada acumulada y generación de scree plots.
- Selección de componentes por umbral de varianza (80%, 90%, 95%).
-
Interpretación de los loadings para entender qué combinaciones de features explican mejor la varianza del precio.
-
Filter Methods
- Implementación de
SelectKBestcon F-test (f_regression) y Mutual Information (mutual_info_regression). - Selección de top-k features (k = 20, 30, 40) y comparación de desempeño con Random Forest Regressor.
-
Identificación de features más influyentes según correlación y relevancia estadística.
-
Wrapper Methods
- Aplicación de Forward Selection, Backward Elimination y Recursive Feature Elimination (RFE).
- Evaluación de precisión mediante cross-validation (5-fold).
-
Comparación de tiempos de ejecución y número de features seleccionadas.
-
Embedded Methods
- Entrenamiento de modelos con LassoCV, RidgeCV y Random Forest.
- Análisis de coeficientes no nulos (Lasso) y feature importance (Random Forest).
-
Visualización de las 10 variables más relevantes según importancia del modelo.
-
Comparación global de resultados
- Consolidación de resultados en una tabla resumen de RMSE, R² y cantidad de features.
- Detección de features consistentes (presentes en múltiples métodos).
- Discusión sobre el equilibrio entre performance, interpretabilidad y tiempo de cómputo.
Desarrollo¶
El desarrollo se realizó de manera incremental, iniciando con el preprocesamiento y escalado del dataset.
Posteriormente, se aplicaron los tres enfoques principales de reducción de dimensionalidad:
- Filter Methods: rápidos y estadísticamente interpretables.
- Wrapper Methods: más precisos pero de alto costo computacional.
- Embedded Methods: integran la selección de variables en el proceso de entrenamiento del modelo.
Cada método fue evaluado mediante validación cruzada (5-fold) sobre métricas de RMSE y R², considerando además la cantidad de features seleccionadas y el tiempo de ejecución.
Los resultados mostraron que el método Mutual Information (Filter) ofreció el mejor balance entre velocidad y precisión, mientras que Forward Selection (Wrapper) alcanzó un RMSE similar con menos variables, aunque con mayor tiempo de cómputo.
El modelo Random Forest (Embedded) se destacó por su estabilidad y facilidad para interpretar la importancia relativa de las variables.
Evidencias¶
Scree Plot y Varianza Acumulada¶

El scree plot muestra cómo se distribuye la varianza explicada entre los primeros componentes principales. El primer componente captura una proporción notable de la varianza total, lo que evidencia relaciones fuertes entre variables estructurales del dataset (principalmente superficies y calidades).
El gráfico de varianza acumulada confirma que con aproximadamente 25 componentes se supera el 90% de la varianza total, validando que el dataset presenta alta redundancia y que PCA permite reducir dimensionalidad sin sacrificar información significativa.
Loadings Plot – Contribución de Features a PC1 y PC2¶

Este gráfico permite interpretar las variables más influyentes en los dos componentes principales.
- PC1 se asocia fuertemente a variables de superficie (Gr Liv Area, Total Bsmt SF, 1st Flr SF).
- PC2 captura variaciones en calidad constructiva (Kitchen Qual, Bsmt Qual, Garage Finish).
La distribución de puntos evidencia que el dataset se organiza en torno a dos ejes conceptuales dominantes: tamaño y calidad, confirmando la naturaleza multivariada del problema.
RFE Ranking – Top 30 Features Seleccionadas¶

El ranking de RFE revela cuáles variables se mantienen más tiempo en el proceso de eliminación recursiva.
Las features con mejor ranking corresponden a variables estructurales del inmueble, mientras que variables menos influyentes (como Alley, Land Contour o condiciones puntuales del sótano) aparecen eliminadas antes.
Este enfoque es útil porque evalúa la relevancia considerando interacciones entre variables, no solo su aporte individual.
Random Forest Feature Importances – Top 30¶

La importancia de variables del modelo Random Forest muestra una dominancia clara de OverallQual, que supera ampliamente al resto.
Le siguen superficies clave como Gr Liv Area, Total Bsmt SF, y antigüedad (Year Built).
La asimetría extrema de la distribución indica que pocas variables concentran la mayor capacidad predictiva, lo que habilita una reducción significativa del espacio de features sin pérdida de rendimiento.
Comparación entre PCA y Feature Selection¶
| Criterio | PCA (Análisis de Componentes Principales) | Feature Selection (Filter, Wrapper, Embedded) |
|---|---|---|
| Propósito principal | Reducir dimensionalidad mediante combinaciones lineales de las variables originales. | Seleccionar las variables más relevantes basándose en métricas estadísticas o información del modelo. |
| Interpretabilidad | Baja: los componentes no representan variables reales sino combinaciones. | Alta: las variables seleccionadas conservan significado de negocio. |
| Manejo de colinealidad | Excelente: condensa información redundante en pocos componentes. | Bueno: algunos métodos (Lasso, RF, MI) detectan redundancia, pero no siempre la resuelven completamente. |
| Impacto en performance del modelo | Mejora rendimiento cuando el dataset tiene mucha correlación interna o ruido. | Mejora rendimiento al eliminar variables irrelevantes sin perder interpretabilidad. |
| Costo computacional | Bajo a moderado. PCA es rápido una vez escalado el dataset. | Variable: Filter es rápido; Wrapper puede ser muy costoso; Embedded intermedio. |
| Requerimiento de escalado | Obligatorio (StandardScaler). |
No siempre necesario (depende del método). |
| Preservación del significado original | No preserva significado; pierde semántica del dominio. | Sí preserva el significado; útil para explicar decisiones de negocio. |
| Cuándo usarlo | Cuando hay alta colinealidad, ruido o necesidad de compresión. | Cuando se requiere interpretabilidad o cuando algunas variables tienen señal clara. |
| Resultado final | Nuevos componentes sintéticos. | Subconjunto de variables originales y comprensibles. |
Conclusión operativa:
PCA es ideal para reducir ruido y colinealidad, mientras que Feature Selection permite mantener interpretabilidad y concentrarse en las variables que aportan señal predictiva. En conjunto, ambos métodos permiten equilibrar eficiencia, claridad y precisión.
Insights clave¶
- Mutual Information fue el método más eficiente, combinando bajo error y alta velocidad.
- Wrapper Methods (Forward/RFE) ofrecen gran precisión, pero son sensibles al tamaño del dataset.
- PCA es útil para reducir colinealidad, pero sacrifica interpretabilidad.
- Lasso demostró capacidad para eliminar variables redundantes sin afectar la performance.
- La combinación Filter + Wrapper podría ofrecer el equilibrio ideal entre rendimiento y costo.
Reflexión¶
Esta práctica consolidó el entendimiento de cómo la reducción de dimensionalidad puede mejorar tanto la eficiencia como la generalización de los modelos de predicción.
Mientras PCA actúa como un filtro matemático que condensa información, los métodos de Feature Selection permiten conservar variables interpretables y útiles desde el punto de vista del negocio.
El ejercicio demostró que la selección de características no solo es una cuestión técnica, sino también estratégica: elegir qué información conservar implica decidir qué aspectos del problema son realmente relevantes.
Además, se evidenció que el mejor método depende del contexto: los Filter Methods son ideales para datasets grandes y exploratorios, mientras que los Wrapper y Embedded Methods son preferibles cuando se busca máxima precisión en modelos finales.
Notebook en Google Colab¶
📓 El notebook completo con el desarrollo de esta práctica puede consultarse en el siguiente enlace:
Referencias¶
- Scikit-learn: Feature Selection
- Principal Component Analysis – Documentation
- Feature Engineering & Selection – Kuhn & Johnson, 2020
Navegación¶
⬅️ Codificando la realidad: cómo el encoding categórico mejora la predicción de ingresos en datos del censo
➡️ Modelando el tiempo: cómo el feature engineering temporal anticipa la recompra en e-commerce
📓 Índice del Portafolio