Es una técnica en el aprendizaje automático que combina múltiples modelos individuales para mejorar el rendimiento predictivo. Los modelos individuales pueden ser del mismo tipo o de tipos diferentes. Al combinar las predicciones de múltiples modelos, el ensamble puede reducir el sesgo y la varianza, lo que lleva a un modelo más robusto y generalizable. Algunos métodos comunes de ensamble incluyen el bagging, boosting y la combinación de modelos por voto.