La régularisation est un domaine souvent oublié (ou peu connu) dans l’optimisation des modèles du machine learning. Son objectif est d’éviter le sur apprentissage du modèle afin de s’assurer que celui-ci puisse se généraliser sur de nouvelles données.
Lors d’un meetup, nous avons présenté la notion de la régularisation à travers le points suivants :
- Overfitting et Underfitting ?
- La régularisation appliquée au machine learning :
- La regression ridge L2
- La régression Lasso L1
- La régression Elastic Net
- La régularisation appliquée au deep learning:
- L1 et L2
- Le drop out
- La data augmentation
- L’early stopping
Retrouvez la vidéo de cet événement ci dessous et n’hésitez pas à nous faire part de vos questions et remarques.
Si vous souhaitez obtenir les jeux de données, la présentation et les différents cas pratiques n’hésitez pas à nous en faire la demande !