000 | 09669cam0a2200469 4500 | ||
---|---|---|---|
001 | 15429 | ||
009 | 224736191 | ||
003 | http://www.sudoc.fr/224736191 | ||
005 | 20250630092525.0 | ||
010 |
_a9782412034460 _bbr. _d35 EUR |
||
073 | 1 | _a9782412034460 | |
090 | _a15429 | ||
099 |
_tOUVR _zALEX30717 |
||
100 | _a20180306h20182018k y0frey50 ba | ||
101 | 1 |
_afre _ceng _2639-2 |
|
102 | _aFR | ||
105 | _aa z 001yy | ||
106 | _ar | ||
181 |
_6z01 _ctxt _2rdacontent |
||
181 | 1 |
_6z01 _ai# _bxxxe## |
|
182 |
_6z01 _cn _2rdamedia |
||
182 | 1 |
_6z01 _an |
|
183 | 1 |
_6z01 _anga _2RDAfrCarrier |
|
200 | 1 |
_aLe machine learning avec Python _ela bible des data scientists _fAndreas C. Müller et Sarah Guido _g[traduction de l'anglais, Daniel Rougé] |
|
214 | 0 |
_aParis _cFirst interactive _dDL 2018 |
|
215 |
_a1 vol. (XII-376 p.) _cill., couv. ill. _d23 cm |
||
306 | _aLe nom de l'éditeur (O'Reilly) de la version anglaise du livre figure sur la page de couverture | ||
320 | _aIndex | ||
330 | _aLa 4e de couv. indique : "Le machine learning (ou apprentissage automatique) est désormais partie intégrante de nombreuses applications commerciales et projets de recherche. Mais ce domaine ne reste pas l'apanage des grandes entreprises dotées d'un département en recherche et développement. Si vous connaissez un minimum le langage de programmation Python, vous apprendrez grâce à ce livre à concevoir vos propres solutions de machine learning. Avec la masse de données qui circulent actuellement, la seule limite que peuvent connaître vos applications de machine learning, c'est votre imagination. Cet ouvrage énumère les étapes nécessaires à la création d'une application de machine learning réussie avec Python et la librairie scikit-learn. Ses auteurs se sont efforcés de ne pas trop insister sur les aspects mathématiques de l'apprentissage automatique, mais plutôt sur les utilisations pratiques de ces algorithmes. Si vous êtes déjà quelque peu familiarisé avec les librairies NumPy et matplotlib, vous n'en serez que plus à l'aise. Au programme de ce livre : concepts fondamentaux et applications de machine learning ; avantages et inconvénients d'utiliser les algorithmes de machine learning les plus courants ; comment représenter les données traitées par le machine learning, et sur lesquelles se concentrer ; méthodes avancées d'évaluation de modèle et ajustement des paramètres ; le concept de pipeline pour le chaînage des modèles et l'encapsulation du flux de travail ; techniques de traitement des données textuelles ; suggestions pour améliorer vos compétences en apprentissage automatique et en sciences des données" | ||
359 | 2 |
_pP. ix _bPréface _pP. ix _cQui devrait lire ce livre ? _pP. x _cPourquoi nous avons écrit ce livre _pP. x _cNaviguer dans le livre _pP. xi _cConventions utilisées dans ce livre _pP. xii _cUtiliser les exemples de code _pP. 1 _b1. Introduction _pP. 2 _cPourquoi l'apprentissage automatique ? _pP. 2 _cLes problèmes que l'apprentissage automatique peut résoudre _pP. 5 _cComprendre votre but et comprendre vos données _pP. 6 _cPourquoi Python ? _pP. 6 _cscikit-learn _pP. 7 _dInstaller scikit-learn _pP. 8 _cLibrairies et outils essentiels _pP. 8 _dJupyter Notebook _pP. 9 _dNumPy _pP. 9 _dSciPy _pP. 10 _dmatplotlib _pP. 11 _dpandas _pP. 12 _dmglearn _pP. 13 _cPython 2 versus Python 3 _pP. 13 _cVersions utilisées dans ce livre _pP. 15 _cUne première application : classifier des espèces d'iris _pP. 16 _dÀ la rencontre des données _pP. 19 _dMesurer la réussite : entraîner et tester les données _pP. 20 _dAu commencement de tout : vérifier vos données _pP. 22 _dConstruire votre premier modèle : les K plus proches voisins _pP. 24 _dFaire des prédictions _pP. 25 _dÉvaluer le modèle _pP. 26 _cRésumé et perspectives _pP. 29 _b2. Apprentissage supervisé _pP. 29 _cClassification et régression _pP. 30 _cGénéralisation, surapprentissage et sous-apprentissage _pP. 33 _dRelation entre complexité du modèle et taille du jeu de données _pP. 33 _cAlgorithmes pour l'apprentissage automatique supervisé _pP. 34 _dExemples de jeux de données _pP. 38 _dLes k plus proches voisins _pP. 48 _dModèles linéaires _pP. 71 _dClassifieurs bayésiens naïfs _pP. 73 _dArbres de décision _pP. 86 _dEnsembles d'arbres de décision _pP. 95 _dSVM à noyau _pP. 107 _dRéseaux de neurones (deep learning) _pP. 121 _cEstimer l'incertitude pour les classifieurs _pP. 122 _dLa fonction de décision _pP. 124 _dPrédire les probabilités _pP. 127 _dClassification multiclasse et incertitude _pP. 129 _cRésumé et perspectives _pP. 133 _b3. Apprentissage non supervisé et prétraitement _pP. 133 _cTypes d'apprentissages non supervisés _pP. 134 _cLes défis de l'apprentissage non supervisé _pP. 135 _cPrétraitement et recalibrage _pP. 135 _dDifférents types de prétraitement _pP. 136 _dAppliquer des transformations aux données _pP. 139 _dRecalibrer de la même manière le jeu d'apprentissage et le jeu de test _pP. 141 _dEffet du prétraitement sur l'apprentissage supervisé _pP. 142 _cRéduction de la dimension, extraction de caractéristiques et apprentissage de variétés _pP. 143 _dAnalyse en composantes principales (PCA) _pP. 159 _dFactorisation en matrices non négatives (NMF) _pP. 167 _dApprentissage de variétés avec t-SNE _pP. 171 _cClustering _pP. 171 _dPartitionnement en k-moyennes _pP. 185 _dClustering agglomératif _pP. 189 _dDBSCAN _pP. 194 _dComparer et évaluer les algorithmes de clustering _pP. 209 _dRésumons les méthodes de clustering _pP. 209 _cRésumé et perspectives |
|
359 | 2 |
_pP. 213 _b4. Représentation des données et ingénierie des caractéristiques _pP. 214 _cVariables catégorielles _pP. 215 _dEncodage one-hot (variables indicatrices) _pP. 220 _dLes nombres peuvent encoder des catégories _pP. 222 _cBinning, discrétisation, modèles linéaires et arbres _pP. 226 _cInteractions et polynômes _pP. 234 _cTransformations non linéaires univariées _pP. 237 _cSélection automatique de caractéristiques _pP. 238 _dStatistiques univariées _pP. 240 _dSélection de caractéristiques basée sur le modèle _pP. 242 _dSélection itérative de caractéristiques _pP. 243 _cSavoir utiliser l'expertise _pP. 252 _cRésumé et perspectives _pP. 253 _b5. Évaluation et amélioration du modèle _pP. 254 _cValidation croisée _pP. 255 _dValidation croisée dans scikit-learn _pP. 256 _dBénéfices de la validation croisée _pP. 257 _dValidation croisée à k-plis stratifiée et autres stratégies _pP. 263 _cRecherche sur grille _pP. 263 _dExemple simple de recherche sur grille _pP. 264 _dLe danger du surapprentissage des paramètres et du jeu de validation _pP. 266 _dRecherche sur grille avec validation croisée _pP. 278 _cMétriques dévaluation et scoring _pP. 278 _dNe jamais oublier le but final _pP. 279 _dMétriques dévaluation pour la classification binaire _pP. 300 _dMétriques pour la classification multiclasse _pP. 303 _dMétriques de régression _pP. 303 _dUtiliser des métriques d'évaluation dans la sélection de modèles _pP. 305 _cRésumé et perspectives _pP. 307 _b6. Chaînage d'algorithmes et pipelines _pP. 308 _cSélection de paramètres avec prétraitement _pP. 310 _cConstruire des pipelines _pP. 311 _cUtiliser des pipelines dans des recherches sur grille _pP. 314 _cInterface générale de la classe Pipeline _pP. 315 _dCréer facilement un pipeline avec make_pipeline _pP. 317 _dAccéder aux attributs des étapes _pP. 317 _dAccéder aux attributs d'un pipeline depuis GridSearchCV _pP. 319 _cÉtapes de prétraitement et paramètres du modèle _pP. 321 _cEffectuer une recherche sur grille pour trouver quel modèle utiliser _pP. 322 _cRésumé et perspectives _pP. 325 _b7. Travailler avec des données textuelles _pP. 325 _cTypes de données représentés sous forme de chaînes de caractères _pP. 327 _cExemple d'application : analyse de sentiment dans des commentaires de films _pP. 330 _cReprésenter les données textuelles sous forme de sacs de mots _pP. 331 _dAppliquer une représentation par sac de mots à un jeu de données jouet _pP. 333 _dLa représentation par sac de mots appliquée aux critiques de films _pP. 337 _cMots vides (stop words) _pP. 338 _cPondérer les données avec tf-idf _pP. 341 _cInvestiguer les coefficients du modèle _pP. 342 _cDes sacs avec plusieurs mots (n-grammes) _pP. 347 _cTokenisation avancée, racinisation et lemmatisation _pP. 350 _cModèles de sujets et partitionnement de document _pP. 350 _dL'allocation de Dirichlet latente (LDA) _pP. 357 _cRésumé et perspectives _pP. 359 _b8. Pour conclure _pP. 359 _cAborder un problème d'apprentissage automatique _pP. 360 _dEst-ce qu'il y des humains dans la boucle ? _pP. 361 _cDu prototype à la production _pP. 362 _cTester des systèmes de production _pP. 362 _cConstruire votre propre estimateur _pP. 363 _cPour aller plus loin _pP. 363 _dThéorie _pP. 364 _dAutres packages et ressources pour l'apprentissage automatique _pP. 365 _dRanking, systèmes de recommandation, et autres types d'apprentissage _pP. 365 _dInférence, programmation et modélisation probabiliste _pP. 366 _dRéseaux de neurones _pP. 367 _dRecalibrer les jeux de données _pP. 368 _dAméliorer vos compétences _pP. 368 _cConclusion _pP. 369 _bIndex |
|
454 |
_tIntroduction to machine learning with Python _nO'Reilly Media _dcop. 2017 |
||
605 |
_3223831433 _aScikit-Learn _nlogiciel _2rameau |
||
606 |
_3027940373 _aApprentissage automatique _2rameau |
||
606 |
_3051626225 _aPython (langage de programmation) _2rameau |
||
606 |
_3035198222 _aExploration de données _2rameau |
||
676 |
_a006.31 _v23 _zfre |
||
680 | _aQ325.5 | ||
686 |
_a68T05 _c2000 _2msc |
||
700 | 1 |
_3196396069 _aMüller _bAndreas C. _4070 |
|
701 | 1 |
_3196396182 _aGuido _bSarah _4070 |
|
701 | 1 |
_3028974867 _aRougé _bDaniel _f1952-2020 _cmathématicien _4730 |