La régularisation est un domaine souvent oublié (ou peu connu) dans l’optimisation des modèles du machine learning. Son objectif est d’éviter le sur apprentissage du modèle afin de s’assurer que celui-ci puisse se généraliser sur de nouvelles données.

Lors d’un meetup, nous avons présenté la notion de la régularisation à travers le points suivants :

  • Overfitting et Underfitting ?
  • La régularisation appliquée au machine learning :
    • La regression ridge L2
    • La régression Lasso L1
    • La régression Elastic Net
  • La régularisation appliquée au deep learning:
    • L1 et L2
    • Le drop out
    • La data augmentation
    • L’early stopping

Retrouvez la vidéo de cet événement ci dessous et n’hésitez pas à nous faire part de vos questions et remarques.

Si vous souhaitez obtenir les jeux de données, la présentation et les différents cas pratiques n’hésitez pas à nous en faire la demande !