La star des algorithmes de ML : XGBoost 7
Découvrez dans cet article pourquoi XGBoost est la star des compétition des Machine Learning … et surtout comment l'utiliser !
Découvrez dans cet article pourquoi XGBoost est la star des compétition des Machine Learning … et surtout comment l'utiliser !
C'est bientôt la rentrée, il a fait chaud, la plage a été bonne et le sable bien chaud. Vous êtes donc bien reposé et prêt à attaquer la rentrée. C'est donc le bon moment pour remettre à plat quelques bases de statistiques qui vous permettront de mieux comprendre et utiliser les algorithmes de Machine Learning.
Cet article explique par la pratique pourquoi et comment mettre à l'echelle (Feature Scaling) les caractéristiques d'un modèle de Machine Learning en œuvre avec Scikit-Learn.
Dans ce second volet sur les données MNSIT, nous allons voir comment retoucher et préparer les données pour atteindre 97%.
Lançons-nous dans la reconnaissance de chiffres avec le jeu de données bien connu MNSIT !
Après le feature engineering, place au tuning des hyperparametres pour ajuster finement vos prédictions !
Au travers des données Kaggle du Titanic, l'idée de cet article est d'illustrer quelques techniques de features engineering.
Lancez-vous dans votre première compétation Kaggle et obtenez 75% avec le Titanic !
Découvrez dans cet article comment evaluer et donc pouvoir optimiser sont modèle ML de classification.
Découvrez de manière simple et ludique comment fonctionne un algorithme de Régression Linéaire.