000 09669cam0a2200469 4500
001 15429
009 224736191
003 http://www.sudoc.fr/224736191
005 20250630092525.0
010 _a9782412034460
_bbr.
_d35 EUR
073 1 _a9782412034460
090 _a15429
099 _tOUVR
_zALEX30717
100 _a20180306h20182018k y0frey50 ba
101 1 _afre
_ceng
_2639-2
102 _aFR
105 _aa z 001yy
106 _ar
181 _6z01
_ctxt
_2rdacontent
181 1 _6z01
_ai#
_bxxxe##
182 _6z01
_cn
_2rdamedia
182 1 _6z01
_an
183 1 _6z01
_anga
_2RDAfrCarrier
200 1 _a˜Le œmachine learning avec Python
_ela bible des data scientists
_fAndreas C. Müller et Sarah Guido
_g[traduction de l'anglais, Daniel Rougé]
214 0 _aParis
_cFirst interactive
_dDL 2018
215 _a1 vol. (XII-376 p.)
_cill., couv. ill.
_d23 cm
306 _aLe nom de l'éditeur (O'Reilly) de la version anglaise du livre figure sur la page de couverture
320 _aIndex
330 _aLa 4e de couv. indique : "Le machine learning (ou apprentissage automatique) est désormais partie intégrante de nombreuses applications commerciales et projets de recherche. Mais ce domaine ne reste pas l'apanage des grandes entreprises dotées d'un département en recherche et développement. Si vous connaissez un minimum le langage de programmation Python, vous apprendrez grâce à ce livre à concevoir vos propres solutions de machine learning. Avec la masse de données qui circulent actuellement, la seule limite que peuvent connaître vos applications de machine learning, c'est votre imagination. Cet ouvrage énumère les étapes nécessaires à la création d'une application de machine learning réussie avec Python et la librairie scikit-learn. Ses auteurs se sont efforcés de ne pas trop insister sur les aspects mathématiques de l'apprentissage automatique, mais plutôt sur les utilisations pratiques de ces algorithmes. Si vous êtes déjà quelque peu familiarisé avec les librairies NumPy et matplotlib, vous n'en serez que plus à l'aise. Au programme de ce livre : concepts fondamentaux et applications de machine learning ; avantages et inconvénients d'utiliser les algorithmes de machine learning les plus courants ; comment représenter les données traitées par le machine learning, et sur lesquelles se concentrer ; méthodes avancées d'évaluation de modèle et ajustement des paramètres ; le concept de pipeline pour le chaînage des modèles et l'encapsulation du flux de travail ; techniques de traitement des données textuelles ; suggestions pour améliorer vos compétences en apprentissage automatique et en sciences des données"
359 2 _pP. ix
_bPréface
_pP. ix
_cQui devrait lire ce livre ?
_pP. x
_cPourquoi nous avons écrit ce livre
_pP. x
_cNaviguer dans le livre
_pP. xi
_cConventions utilisées dans ce livre
_pP. xii
_cUtiliser les exemples de code
_pP. 1
_b1. Introduction
_pP. 2
_cPourquoi l'apprentissage automatique ?
_pP. 2
_cLes problèmes que l'apprentissage automatique peut résoudre
_pP. 5
_cComprendre votre but et comprendre vos données
_pP. 6
_cPourquoi Python ?
_pP. 6
_cscikit-learn
_pP. 7
_dInstaller scikit-learn
_pP. 8
_cLibrairies et outils essentiels
_pP. 8
_dJupyter Notebook
_pP. 9
_dNumPy
_pP. 9
_dSciPy
_pP. 10
_dmatplotlib
_pP. 11
_dpandas
_pP. 12
_dmglearn
_pP. 13
_cPython 2 versus Python 3
_pP. 13
_cVersions utilisées dans ce livre
_pP. 15
_cUne première application : classifier des espèces d'iris
_pP. 16
_dÀ la rencontre des données
_pP. 19
_dMesurer la réussite : entraîner et tester les données
_pP. 20
_dAu commencement de tout : vérifier vos données
_pP. 22
_dConstruire votre premier modèle : les K plus proches voisins
_pP. 24
_dFaire des prédictions
_pP. 25
_dÉvaluer le modèle
_pP. 26
_cRésumé et perspectives
_pP. 29
_b2. Apprentissage supervisé
_pP. 29
_cClassification et régression
_pP. 30
_cGénéralisation, surapprentissage et sous-apprentissage
_pP. 33
_dRelation entre complexité du modèle et taille du jeu de données
_pP. 33
_cAlgorithmes pour l'apprentissage automatique supervisé
_pP. 34
_dExemples de jeux de données
_pP. 38
_dLes k plus proches voisins
_pP. 48
_dModèles linéaires
_pP. 71
_dClassifieurs bayésiens naïfs
_pP. 73
_dArbres de décision
_pP. 86
_dEnsembles d'arbres de décision
_pP. 95
_dSVM à noyau
_pP. 107
_dRéseaux de neurones (deep learning)
_pP. 121
_cEstimer l'incertitude pour les classifieurs
_pP. 122
_dLa fonction de décision
_pP. 124
_dPrédire les probabilités
_pP. 127
_dClassification multiclasse et incertitude
_pP. 129
_cRésumé et perspectives
_pP. 133
_b3. Apprentissage non supervisé et prétraitement
_pP. 133
_cTypes d'apprentissages non supervisés
_pP. 134
_cLes défis de l'apprentissage non supervisé
_pP. 135
_cPrétraitement et recalibrage
_pP. 135
_dDifférents types de prétraitement
_pP. 136
_dAppliquer des transformations aux données
_pP. 139
_dRecalibrer de la même manière le jeu d'apprentissage et le jeu de test
_pP. 141
_dEffet du prétraitement sur l'apprentissage supervisé
_pP. 142
_cRéduction de la dimension, extraction de caractéristiques et apprentissage de variétés
_pP. 143
_dAnalyse en composantes principales (PCA)
_pP. 159
_dFactorisation en matrices non négatives (NMF)
_pP. 167
_dApprentissage de variétés avec t-SNE
_pP. 171
_cClustering
_pP. 171
_dPartitionnement en k-moyennes
_pP. 185
_dClustering agglomératif
_pP. 189
_dDBSCAN
_pP. 194
_dComparer et évaluer les algorithmes de clustering
_pP. 209
_dRésumons les méthodes de clustering
_pP. 209
_cRésumé et perspectives
359 2 _pP. 213
_b4. Représentation des données et ingénierie des caractéristiques
_pP. 214
_cVariables catégorielles
_pP. 215
_dEncodage one-hot (variables indicatrices)
_pP. 220
_dLes nombres peuvent encoder des catégories
_pP. 222
_cBinning, discrétisation, modèles linéaires et arbres
_pP. 226
_cInteractions et polynômes
_pP. 234
_cTransformations non linéaires univariées
_pP. 237
_cSélection automatique de caractéristiques
_pP. 238
_dStatistiques univariées
_pP. 240
_dSélection de caractéristiques basée sur le modèle
_pP. 242
_dSélection itérative de caractéristiques
_pP. 243
_cSavoir utiliser l'expertise
_pP. 252
_cRésumé et perspectives
_pP. 253
_b5. Évaluation et amélioration du modèle
_pP. 254
_cValidation croisée
_pP. 255
_dValidation croisée dans scikit-learn
_pP. 256
_dBénéfices de la validation croisée
_pP. 257
_dValidation croisée à k-plis stratifiée et autres stratégies
_pP. 263
_cRecherche sur grille
_pP. 263
_dExemple simple de recherche sur grille
_pP. 264
_dLe danger du surapprentissage des paramètres et du jeu de validation
_pP. 266
_dRecherche sur grille avec validation croisée
_pP. 278
_cMétriques dévaluation et scoring
_pP. 278
_dNe jamais oublier le but final
_pP. 279
_dMétriques dévaluation pour la classification binaire
_pP. 300
_dMétriques pour la classification multiclasse
_pP. 303
_dMétriques de régression
_pP. 303
_dUtiliser des métriques d'évaluation dans la sélection de modèles
_pP. 305
_cRésumé et perspectives
_pP. 307
_b6. Chaînage d'algorithmes et pipelines
_pP. 308
_cSélection de paramètres avec prétraitement
_pP. 310
_cConstruire des pipelines
_pP. 311
_cUtiliser des pipelines dans des recherches sur grille
_pP. 314
_cInterface générale de la classe Pipeline
_pP. 315
_dCréer facilement un pipeline avec make_pipeline
_pP. 317
_dAccéder aux attributs des étapes
_pP. 317
_dAccéder aux attributs d'un pipeline depuis GridSearchCV
_pP. 319
_cÉtapes de prétraitement et paramètres du modèle
_pP. 321
_cEffectuer une recherche sur grille pour trouver quel modèle utiliser
_pP. 322
_cRésumé et perspectives
_pP. 325
_b7. Travailler avec des données textuelles
_pP. 325
_cTypes de données représentés sous forme de chaînes de caractères
_pP. 327
_cExemple d'application : analyse de sentiment dans des commentaires de films
_pP. 330
_cReprésenter les données textuelles sous forme de sacs de mots
_pP. 331
_dAppliquer une représentation par sac de mots à un jeu de données jouet
_pP. 333
_dLa représentation par sac de mots appliquée aux critiques de films
_pP. 337
_cMots vides (stop words)
_pP. 338
_cPondérer les données avec tf-idf
_pP. 341
_cInvestiguer les coefficients du modèle
_pP. 342
_cDes sacs avec plusieurs mots (n-grammes)
_pP. 347
_cTokenisation avancée, racinisation et lemmatisation
_pP. 350
_cModèles de sujets et partitionnement de document
_pP. 350
_dL'allocation de Dirichlet latente (LDA)
_pP. 357
_cRésumé et perspectives
_pP. 359
_b8. Pour conclure
_pP. 359
_cAborder un problème d'apprentissage automatique
_pP. 360
_dEst-ce qu'il y des humains dans la boucle ?
_pP. 361
_cDu prototype à la production
_pP. 362
_cTester des systèmes de production
_pP. 362
_cConstruire votre propre estimateur
_pP. 363
_cPour aller plus loin
_pP. 363
_dThéorie
_pP. 364
_dAutres packages et ressources pour l'apprentissage automatique
_pP. 365
_dRanking, systèmes de recommandation, et autres types d'apprentissage
_pP. 365
_dInférence, programmation et modélisation probabiliste
_pP. 366
_dRéseaux de neurones
_pP. 367
_dRecalibrer les jeux de données
_pP. 368
_dAméliorer vos compétences
_pP. 368
_cConclusion
_pP. 369
_bIndex
454 _tIntroduction to machine learning with Python
_nO'Reilly Media
_dcop. 2017
605 _3223831433
_aScikit-Learn
_nlogiciel
_2rameau
606 _3027940373
_aApprentissage automatique
_2rameau
606 _3051626225
_aPython (langage de programmation)
_2rameau
606 _3035198222
_aExploration de données
_2rameau
676 _a006.31
_v23
_zfre
680 _aQ325.5
686 _a68T05
_c2000
_2msc
700 1 _3196396069
_aMüller
_bAndreas C.
_4070
701 1 _3196396182
_aGuido
_bSarah
_4070
701 1 _3028974867
_aRougé
_bDaniel
_f1952-2020
_cmathématicien
_4730