- En machine learning, il est important de normaliser chaque variable, c'est-à-dire les mettre toutes sur une même échelle
- C'est important car pour beaucoup d'algorithmes de machine learning, lorsqu'une variable est plus "grande" qu'une autre, alors celle-ci aura un impact plus important sur la sortie du modèle (et donc ses erreurs, sa performance, etc.)
- Exemple:
![[Normalisation_exemple_taille_poids.png|800]]
-> le poids va beaucoup plus influencer la sortie du modèle que la taille.
- en normalisant les données ont va éliminer ce problème
- 2 méthodes de normalisation
- [[Normalisation Min-Max]]
- [[Standardisation]]
Chaque méthode a ses avantages et inconvénients mais dans la pratique, on peut tester les deux et garder celle qui donne les meilleurs résultats
### Normaliser une Target
- En machine learning, lorsqu'on entraîne un modèle de régression, il n'est généralement pas nécessaire de normaliser la cible (la "Target"), contrairement aux variables d'entrée (les "Features") qui bénéficient souvent de la normalisation ou de la standardisation.
- Cependant,
- pour certains types de modèles (par exemple les réseaux de neurones) cela peut parfois augmenter la vitesse d'apprentissage
- lorsque la Target s'étend sur des valeurs très élevées (par exemple le prix d'une maison), cela peut faciliter l'apprentissage de certains modèles
### Mise en pratique
![[5_DOC/Code/normalisation|normalisation]]
---