EDP Sciences
1711717476
20240329
fre
laboutique.edpsciences.fr-002253
03
01
002253
03
9782759831456
15
9782759831456
00
BA
02
15
mm
01
23
mm
10
01
02
Pratique R
01
01
Régression avec R
3ème édition
1
A01
01
A1790
Pierre-André Cornillon
Cornillon, Pierre-André
Pierre-André
Cornillon
<p>Pierre-André Cornillon est Maître de Conférences à l’université Rennes-2-Haute-Bretagne. </p>
2
A01
01
A1791
Nicolas Hengartner
Hengartner, Nicolas
Nicolas
Hengartner
Après un doctorat en statistique obtenu à l’Université de Berkely (Californie), Nicolas W. Hengartner a rejoint le Département de statistique de l'Université de Yale en tant que professeur adjoint, puis promu professeur associé en 1999. En 2002, il a rejoint le groupe de science statistique du laboratoire national de Los Alamos. Il est actif dans les activités de sensibilisation académique et, en 2004, a été nommé professeur auxiliaire au Département de statistique de l'Université Simon Fraser, Burnaby , au Canada. Ses recherches portent sur l'application transdisciplinaire des statistiques, de la modélisation stochastique et des sciences de l'information à la physique, à l'épidémiologie et aux simulations sociotechniques à grande échelle.
3
A01
01
A1792
Eric Matzner-Løber
Matzner-Løber, Eric
Eric
Matzner-Løber
<p>Eric Matzner-Løber est Professeur à l’université Rennes-2-Haute-Bretagne.</p>
4
A01
01
A1793
Laurent Rouvière
Rouvière, Laurent
Laurent
Rouvière
<p>Laurent Rouvière est Maître de Conférences à l’université Rennes-2-Haute-Bretagne.</p>
01
fre
00
452
03
01
24
Izibook:Subject
Mathématiques
20
Régression simple;régression multiple;modèle linéaire;régression;spline;informatique;mathématiques;programmation
10
MAT029030
29
CLIL3052
29
CLIL3056
01
510
05
03
00
<blockquote>Cet ouvrage expose de manière détaillée, exemples à l’appui, différentes façons de répondre à un des problèmes statistiques les plus courants : la régression. Cette nouvelle édition se décompose en cinq parties. La première donne les grands principes des régressions simple et multiple par moindres carrés. Les fondamentaux de la méthode, tant au niveau des choix opérés que des hypothèses et leur utilité, sont expliqués. La deuxième partie est consacrée à l’inférence et présente les outils permettant de vérifier les hypothèses mises en œuvre. Les techniques d’analyse de la variance et de la covariance sont également présentées dans cette partie. Le cas de la grande dimension est ensuite abordé dans la troisième partie. Différentes méthodes de réduction de la dimension telles que la sélection de variables, les régressions sous contraintes (lasso, elasticnet ou ridge) et sur composantes (PLS ou PCR) sont notamment proposées. Un dernier chapitre propose des algorithmes, basés sur des méthodes de rééchantillonnage comme l’apprentissage/validation ou la validation croisée, qui permettent d’établir une comparaison entre toutes ces méthodes. La quatrième partie se concentre sur les modèles linéaires généralisés et plus particulièrement sur les régressions logistique et de Poisson avec ou sans technique de régularisation. Une section particulière est consacrée aux comparaisons de méthodes en classification supervisée. Elle introduit notamment des critères de performance pour scorer des individus comme les courbes ROC et lift et propose des stratégies de choix seuil (Younden, macro F1...) pour les classer. Ces notions sont ensuite mises en œuvre sur des données réelles afin de sélectionner une méthode de prévision parmi plusieurs algorithmes basés sur des modèles logistiques (régularisés ou non). Une dernière section aborde le problème des données déséquilibrées qui est souvent rencontré en régression binaire. Enfin, la dernière partie présente l’approche non paramétrique à travers les splines, les estimateurs à noyau et des plus proches voisins. La présentation témoigne d’un réel souci pédagogique des auteurs qui bénéficient d’une expérience d’enseignement auprès de publics très variés. Les résultats exposés sont replacés dans la perspective de leur utilité pratique grâce à l’analyse d’exemples concrets. Les commandes permettant le traitement des exemples sous R figurent dans le corps du texte. Enfin, chaque chapitre est complété par une suite d’exercices corrigés. Les codes, les données et les corrections des exercices se trouvent sur le site https://regression-avec-r.github.io/ Cet ouvrage s’adresse principalement à des étudiants de Master et d’écoles d’ingénieurs ainsi qu’aux chercheurs travaillant dans les divers domaines des sciences appliquées</blockquote>
02
00
<p>Cet ouvrage expose, de manière détaillée avec exemples à l’appui, différentes façons de répondre à un des problèmes statistiques les plus courants : la régression.</p>
04
00
<p class="MsoNormal" style="text-align:justify">Remerciements vii<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">Avant-Propos ix<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">I Introduction au modèle linéaire1<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1 La régression linéaire simple 3<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.1 Introduction............................... 3<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.1.1 Un exemple : la pollution de l’air ............... 3<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.1.2 Un second exemple : la hauteur des arbres .......... 5<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.2 Modélisation mathématique..................... 7<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.2.1 Choix du critère de qualité et distance à la droite ...... 7<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.2.2 Choix des fonctions à utiliser ................. 9<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.3 Modélisation statistique . .. . . . . . . . . . . . . . . . . . . . . . 10<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.4 Estimateurs des moindres carrés . . . . . . . . . . . . . . . . . . . 11<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.4.1 Calcul des estimateurs de βj , quelques propriétés . . . . . . 11<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.4.2 Résidus et varianc résiduelle . . . . . . . . . . . . . . . . . 15<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.4.3 Prévision . . . . . . . . .. . . . . . . . . . . . . . . . . . . 15<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.5 Interprétations géométriques. . . . . . . . . . . . . . . . . . . . . 16<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.5.1 Représentation desindividus . . . . . . . . . . . . . . . . . 16<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.5.2 Représentation desvariables . . . . . . . . . . . . . . . . . . 17<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.6 Inférence statistique . . . .. . . . . . . . . . . . . . . . . . . . . . 19<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.7 Exemples . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 22<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.8 Exercices . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 29<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2 La régression linéaire multiple..31<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.1 Introduction . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 31<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.2 Modélisation . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 32<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.3 Estimateurs des moindres carrés . . . . . . . . . . . . . . . . . . . 34<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.3.1 Calcul de βˆ . . . . . . .. . . . . . . . . . . . . . . . . . . . 35<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.3.2 Interprétation . . . . . .. . . . . . . . . . . . . . . . . . . . 37<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.3.3 Quelques propriétés statistiques . . . . . . . . . . . . . . . . 38<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.3.4 Résidus et variance résiduelle . . . . . . . . . . . . . . . . . 40<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.3.5 Prévision . . . . . . . . .. . . . . . . . . . . . . . . . . . . 41<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.4 Interprétation géométrique .. . . . . . . . . . . . . . . . . . . . . 42<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.5 Exemples . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 43<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.6 Exercices . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 47<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3 Validation du modèle 51<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.1 Analyse des résidus . . . . .. . . . . . . . . . . . . . . . . . . . . . 52<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.1.1 Les différents résidus . .. . . . . . . . . . . . . . . . . . . . 52<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.1.2 Ajustement individuel au modèle, valeur aberrante . . . . . 53<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.1.3 Analyse de la normalité . .. . . . . . . . . . . . . . . . . . 54<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.1.4 Analyse de l’homoscédasticité . . . . . . . . . . . . . . . . . 55<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.1.5 Analyse de la structure des résidus . . . . . . . . . . . . . . 56<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.2 Analyse de la matrice de projection . . . . . . . . . . . . . . . . . . 59<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.3 Autres mesures diagnostiques. . . . . . . . . . . . . . . . . . . . . 60<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.4 Effet d’une variable explicative . . . . . . . . . . . . . . . . . . . . 63<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.4.1 Ajustement au modèle . . .. . . . . . . . . . . . . . . . . . 63<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.4.2 Régression partielle : impact d’une variable . . . . . . . . . 64<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.4.3 Résidus partiels et résidus partiels augmentés . . . . . . . . 65<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.5 Exemple : la concentration en ozone . . . . . . . . . . . . . . . . . 67<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.6 Exercices . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 70<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4 Extensions : non-inversibilitéet (ou) erreurs corrélées 73<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.1 Régression ridge . . . . . .. . . . . . . . . . . . . . . . . . . . . . 73<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.1.1 Une solution historique . .. . . . . . . . . . . . . . . . . . 74<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.1.2 Minimisation des MCO pénalisés . . . . . . . . . . . . . . . 75<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.1.3 Equivalence avec une contrainte sur la norme des coefficients 75<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.1.4 Propriétés statistiques de l’estimateur ridge βˆridge . . . . . . 76<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.2 Erreurs corrélées : moindres carrés généralisés . . . . . . . . . . . . 78<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.2.1 Erreurs hétéroscédastiques. . . . . . . . . . . . . . . . . . . 79<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.2.2 Estimateur des moindres carrés généralisés . . . . . . . . . 82<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.2.3 Matrice Ω inconnue . . . .. . . . . . . . . . . . . . . . . . 84<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.3 Exercices . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 85<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">II Inférence 89<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5 Inférence dans le modèle gaussien 91<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.1 Estimateurs du maximum de vraisemblance . . . . . . . . . . . . . 91<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.2 Nouvelles propriétés statistiques . . . . . . . . . . . . . . . . . . . 92<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.3 Intervalles et régions de confiance . . . . . . . . . . . . . . . . . . . 94<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.4 Prévision . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 97<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.5 Les tests d’hypothèses . . .. . . . . . . . . . . . . . . . . . . . . . 98<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.5.1 Introduction . . . . . . .. . . . . . . . . . . . . . . . . . . 98<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.5.2 Test entre modèles emboîtés. . . . . . . . . . . . . . . . . . 98<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.6 Applications . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 102<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.7 Exercices . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 106<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.8 Notes . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 109<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.8.1 Intervalle de confiance : bootstrap . . . . . . . . . . . . . . 109<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.8.2 Test de Fisher pour une hypothèse linéaire quelconque . . . 112<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.8.3 Propriétés asymptotiques .. . . . . . . . . . . . . . . . . . 114<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6 Variables qualitatives : ANCOVAet ANOVA 117<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.1 Introduction . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 117<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.2 Analyse de la covariance . .. . . . . . . . . . . . . . . . . . . . . . 119<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.2.1 Introduction : exemple des eucalyptus . . . . . . . . . . . . 119<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.2.2 Modélisation du problème .. . . . . . . . . . . . . . . . . . 121<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.2.3 Hypothèse gaussienne . . .. . . . . . . . . . . . . . . . . . 123<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.2.4 Exemple : la concentrationen ozone . . . . . . . . . . . . . 124<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.2.5 Exemple : la hauteur des eucalyptus . . . . . . . . . . . . . 129<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.3 Analyse de la variance à 1facteur . . . . . . . . . . . . . . . . . . . 131<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.3.1 Introduction . . . . . . .. . . . . . . . . . . . . . . . . . . 131<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.3.2 Modélisation du problème .. . . . . . . . . . . . . . . . . . 132<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.3.3 Interprétation des contraintes . . . . . . . . . . . . . . . . . 134<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.3.4 Estimation des paramètres .. . . . . . . . . . . . . . . . . 134<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.3.5 Hypothèse gaussienne et test d’influence du facteur . . . . . 136<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.3.6 Exemple : la concentration en ozone . . . . . . . . . . . . . 137<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.3.7 Une décomposition directe de la variance . . . . . . . . . . 142<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.4 Analyse de la variance à 2 facteurs . . . . . . . . . . . . . . . . . . 142<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.4.1 Introduction . . . . . . .. . . . . . . . . . . . . . . . . . . 142<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.4.2 Modélisation du problème .. . . . . . . . . . . . . . . . . . 143<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.4.3 Estimation des paramètres .. . . . . . . . . . . . . . . . . 145<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.4.4 Analyse graphique del’interaction . . . . . . . . . . . . . . 146<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.4.5 Hypothèse gaussienne ettest de l’interaction . . . . . . . . 148<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.4.6 Exemple : la concentration en ozone . . . . . . . . . . . . . 150<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.5 Exercices . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 152<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.6 Note : identifiabilité et contrastes . . . . . . . . . . . . . . . . . . . 155<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">III Réduction de dimension 157<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7 Choix de variables 159<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.1 Introduction . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 159<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.2 Choix incorrect de variables: conséquences . . . . . . . . . . . . . 161<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.2.1 Biais des estimateurs . . .. . . . . . . . . . . . . . . . . . 161<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.2.2 Variance des estimateurs .. . . . . . . . . . . . . . . . . . . 163<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.2.3 Erreur quadratique moyenne. . . . . . . . . . . . . . . . . 163<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.2.4 Erreur quadratique moyenne de prévision . . . . . . . . . . 166<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.3 Critères classiques de choix de modèles . . . . . . . . . . . . . . . 168<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.3.1 Tests entre modèles emboîtés . . . . . . . . . . . . . . . . . 169<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.3.2 Le R2 . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . 170<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.3.3 Le R2 ajusté . . . . . . .. . . . . . . . . . . . . . . . . . . 171<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.3.4 Le Cp de Mallows . . . . .. . . . . . . . . . . . . . . . . . 172<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.3.5 Vraisemblance et pénalisation . . . . . . . . . . . . . . . . . 174<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.3.6 Liens entre les critères .. . . . . . . . . . . . . . . . . . . . 176<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.4 Procédure de sélection . . .. . . . . . . . . . . . . . . . . . . . . . 178<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.4.1 Recherche exhaustive . . .. . . . . . . . . . . . . . . . . . . 178<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.4.2 Recherche pas à pas . . . .. . . . . . . . . . . . . . . . . . 178<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.5 Exemple : la concentration en ozone . . . . . . . . . . . . . . . . . 180<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.5.1 Variables explicatives quantitatives . . . . . . . . . . . . . . 180<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.5.2 Intégration de variables qualitatives . . . . . . . . . . . . . 183<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.6 Exercices . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 184<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.7 Note : Cp et biais de sélection . . . . . . . . . . . . . . . . . . . . . 187<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8 Régularisation des moindres carrés : Ridge, Lasso et elastic-net 191<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.1 Introduction . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 191<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.2 Problème du centrage-réduction des variables . . . . . . . . . . . . 194<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.3 Ridge, lasso et elastic-net .. . . . . . . . . . . . . . . . . . . . . . 195<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.3.1 Régressions avec la package glmnet . . . . . . . . . . . . . . 199<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.3.2 Interprétation géométrique. . . . . . . . . . . . . . . . . . 202<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.3.3 Simplification quand les X sont orthogonaux . . . . . . . . 203<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.3.4 Choix du paramètre de régularisation λ . . . . . . . . . . . 206<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.4 Intégration de variables qualitatives . . . . . . . . . . . . . . . . . 208<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.5 Exercices . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 210<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.6 Note : lars et lasso . . . .. . . . . . . . . . . . . . . . . . . . . . . 213<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9 Régression sur composantes :PCR et PLS 217<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.1 Régression sur composantes principales (PCR) . . . . . . . . . . . 218<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.1.1 Changement de base . . . .. . . . . . . . . . . . . . . . . . 218<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.1.2 Estimateurs des MCO . . . .. . . . . . . . . . . . . . . . . 219<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.1.3 Choix decomposantes/variables . . . . . . . . . . . . . . . 220<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.1.4 Retour aux donnéesd’origine . . . . . . . . . . . . . . . . . 222<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.1.5 La régression sur composantes en pratique . . . . . . . . . . 223<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.2 Régression aux moindres carrés partiels (PLS) . . . . . . . . . . . . 225<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.2.1 Algorithmes PLS . . . . . .. . . . . . . . . . . . . . . . . . 227<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.2.2 Choix decomposantes/variables . . . . . . . . . . . . . . . 228<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.2.3 Retour aux données d’origine. . . . . . . . . . . . . . . . . 229<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.2.4 La régression PLS en pratique . . . . . . . . . . . . . . . . 230<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.3 Exercices . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 231<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.4 Notes . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 233<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.4.1 ACP et changement de base .. . . . . . . . . . . . . . . . . 233<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.4.2 Colinéarité parfaite : |X<span style="font-size:11.0pt;line-height:107%;font-family:"Calibri",sans-serif;mso-ascii-theme-font:minor-latin;mso-fareast-font-family:Calibri;mso-fareast-theme-font:minor-latin;mso-hansi-theme-font:minor-latin;mso-bidi-font-family:"Times New Roman";mso-bidi-theme-font:minor-bidi;mso-ansi-language:FR;mso-fareast-language:EN-US;mso-bidi-language:AR-SA">[1] </span>X| = 0 . . . . . . . . . . . . .. . . 235</p><p class="MsoNormal" style="text-align:justify"><o:p></o:p></p><p class="MsoNormal" style="text-align:justify">10 Comparaison des différentes méthodes, étude de cas réels 237<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">10.1 Erreur de prévision et validation croisée . . . . . . . . . . . . . . . 237<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">10.2 Analyse de l’ozone . . . . .. . . . . . . . . . . . . . . . . . . . . . 241<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">10.2.1 Préliminaires . . . . . .. . . . . . . . . . . . . . . . . . . . 241<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">10.2.2 Méthodes et comparaison .. . . . . . . . . . . . . . . . . . 241<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">10.2.3 Pour aller plus loin . . .. . . . . . . . . . . . . . . . . . . . 245<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">10.2.4 Conclusion . . . . . . . .. . . . . . . . . . . . . . . . . . . 248<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">IV Le modèle linéaire généralisé...249<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11 Régression logistique 251<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.1 Présentation du modèle . . .. . . . . . . . . . . . . . . . . . . . . 251<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.1.1 Exemple introductif . . .. . . . . . . . . . . . . . . . . . . 251<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.1.2 Modélisation statistique .. . . . . . . . . . . . . . . . . . . 252<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.1.3 Variables explicatives qualitatives, interactions . . . . . . . 255<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.2 Estimation . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 257<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.2.1 La vraisemblance . . . . .. . . . . . . . . . . . . . . . . . . 257<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.2.2 Calcul des estimateurs : l’algorithme IRLS . . . . . . . . . . 259<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.2.3 Propriétés asymptotiques de l’EMV . . . . . . . . . . . . . 260<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.3 Intervalles de confiance et tests . . . . . . . . . . . . . . . . . . . . 261<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.3.1 IC et tests sur les paramètres du modèle . . . . . . . . . . . 262<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.3.2 Test sur un sous-ensemble de paramètres . . . . . . . . . . 264<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.3.3 Prévision . . . . . . . .. . . . . . . . . . . . . . . . . . . . 267<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.4 Adéquation du modèle . . . .. . . . . . . . . . . . . . . . . . . . . 269<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.4.1 Le modèle saturé . . . . .. . . . . . . . . . . . . . . . . . . 270<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.4.2 Tests d’adéquation de la déviance et de Pearson . . . . . . 272<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.4.3 Analyse des résidus . . .. . . . . . . . . . . . . . . . . . . . 275<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.5 Choix de variables . . . . .. . . . . . . . . . . . . . . . . . . . . . 279<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.5.1 Tests entre modèles emboîtés . . . . . . . . . . . . . . . . . 279<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.5.2 Procédures automatiques .. . . . . . . . . . . . . . . . . . 280<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.6 Exercices . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 282<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">12 Régression de Poisson 289<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">12.1 Le modèle linéaire généralisé (GLM) . . . . . . . . . . . . . . . . . 289<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">12.2 Exemple : modélisation du nombre de visites . . . . . . . . . . . . 292<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">12.3 Régression Log-linéaire . .. . . . . . . . . . . . . . . . . . . . . . . 295<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">12.3.1 Le modèle . . . . . . . .. . . . . . . . . . . . . . . . . . . . 295<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">12.3.2 Estimation . . . . . . . .. . . . . . . . . . . . . . . . . . . 296<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">12.3.3 Tests et intervalles de confiance . . . . . . . . . . . . . . . . 297<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">12.3.4 Choix de variables . . . .. . . . . . . . . . . . . . . . . . . 302<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">12.4 Exercices . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 303<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">13 Régularisation de la vraisemblance 309<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">13.1 Régressions ridge, lasso et elastic-net . . . . . . . . . . . . . . . . . 309<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">13.2 Choix du paramètre de régularisation λ . . . . . . . . . . . . . . . 313<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">13.3 Group-lasso . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 317<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">13.4 Exercices . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 319<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14 Comparaison en classification supervisée 321<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.1 Prévision en classification supervisée . . . . . . . . . . . . . . . . . 321<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.2 Performance d’une règle . .. . . . . . . . . . . . . . . . . . . . . . 323<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.2.1 Erreur de classification et accuracy . . . . . . . . . . . . . . 326<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.2.2 Sensibilité (recall) et taux de faux négatifs . . . . . . . . . . 327<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.2.3 Spécificité et taux de faux positifs . . . . . . . . . . . . . . 327<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.2.4 Mesure sur les tables de contingence . . . . . . . . . . . . . 328<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.3 Performance d’un score . . .. . . . . . . . . . . . . . . . . . . . . 329<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.3.1 Courbe ROC . . . . . . . .. . . . . . . . . . . . . . . . . . 329<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.3.2 Courbe lift . . . . . . .. . . . . . . . . . . . . . . . . . . . 331<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.4 Choix du seuil . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 332<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.4.1 Respect des proportions initiales . . . . . . . . . . . . . . . 332<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.4.2 Maximisation d’indices adhoc . . . . . . . . . . . . . . . . 332<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.4.3 Maximisation d’un coût moyen . . . . . . . . . . . . . . . . 333<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.5 Analyse des données chd . .. . . . . . . . . . . . . . . . . . . . . . 334<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.5.1 Les données . . . . . . .. . . . . . . . . . . . . . . . . . . . 334<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.5.2 Comparaison des algorithmes . . . . . . . . . . . . . . . . . 334<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.5.3 Pour aller plus loin . . .. . . . . . . . . . . . . . . . . . . . 340<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.6 Application : détection d’images publicitaires sur internet . . . . . 346<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.6.1 Les données . . . . . . .. . . . . . . . . . . . . . . . . . . . 346<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.6.2 Ajustement des modèles . .. . . . . . . . . . . . . . . . . . 347<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.7 Exercices . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 351<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15 Données déséquilibrées 353<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.1 Données déséquilibrées et modèle logistique . . . . . . . . . . . . . 353<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.1.1 Un exemple . . . . . . . .. . . . . . . . . . . . . . . . . . . 353<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.1.2 Rééquilibrage pour le modèle logistique . . . . . . . . . . . 355<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.1.3 Exemples de schéma de rééquilibrage . . . . . . . . . . . . . 356<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.2 Stratégies pour données déséquilibrées . . . . . . . . . . . . . . . . 361<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.2.1 Quelques méthodes de rééquilibrage . . . . . . . . . . . . . 361<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.2.2 Critères pour données déséquilibrées . . . . . . . . . . . . . 366<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.3 Choisir un algorithme de rééquilibrage . . . . . . . . . . . . . . . . 370<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.3.1 Rééquilibrage et validation croisée . . . . . . . . . . . . . . 370<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.3.2 Application aux données d’images publicitaires . . . . . . . 372<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.4 Exercices . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 376<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">V Introduction à la régression non paramétrique 379<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">16 Introduction à la régression spline 381<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">16.1 Introduction . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 381<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">16.2 Régression spline . . . . .. . . . . . . . . . . . . . . . . . . . . . . 385<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">16.2.1 Introduction . . . . . . .. . . . . . . . . . . . . . . . . . . 385<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">16.2.2 Spline de régression . . .. . . . . . . . . . . . . . . . . . . 386<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">16.3 Spline de lissage . . . . .. . . . . . . . . . . . . . . . . . . . . . . 390<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">16.4 Exercices . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 393<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17 Estimateurs à noyau et k plus proches voisins 395<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.1 Introduction . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 395<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.2 Estimateurs par moyennes locales . . . . . . . . . . . . . . . . . . . 398<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.2.1 Estimateurs à noyau . . .. . . . . . . . . . . . . . . . . . . 398<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.2.2 Les k plus proches voisins. . . . . . . . . . . . . . . . . . . 402<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.3 Choix des paramètres de lissage . . . . . . . . . . . . . . . . . . . . 403<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.4 Ecriture multivariée et fléau de la dimension . . . . . . . . . . . . . 406<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.4.1 Ecriture multivariée . . .. . . . . . . . . . . . . . . . . . . 406<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.4.2 Biais et variance . . . .. . . . . . . . . . . . . . . . . . . . 407<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.4.3 Fléau de la dimension . .. . . . . . . . . . . . . . . . . . . 409<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.5 Exercices . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 411<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">A Rappels 415<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">A.1 Rappels d’algèbre . . . . . .. . . . . . . . . . . . . . . . . . . . . . 415<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">A.2 Rappels de probabilités . . .. . . . . . . . . . . . . . . . . . . . . 418<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">Bibliographie 419<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">Index 423<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">Notations 431<o:p></o:p></p><p></p><p class="MsoNormal" style="text-align:justify">Fonctions et packages R 433<o:p></o:p></p>
21
00
06
01
https://laboutique.edpsciences.fr/produit/1335/9782759831463/regression-avec-r
01
00
03
02
https://laboutique.edpsciences.fr/system/product_pictures/data/009/982/914/original/9782759831456_Regression-R-ED3_couv-sofedis.jpg?1680259530
01
P1
EDP Sciences
01
01
P1
EDP Sciences
17 avenue du Hoggar - PA de Courtaboeuf - 91944 Les Ulis cedex A
http://publications.edpsciences.org/
04
11
00
20230511
01
00
20230511
2024
06
3052868830012
01
WORLD
27
03
9782759831463
15
9782759831463
WORLD
08
EDP Sciences
04
01
00
20230511
03
01
D1
EDP Sciences
21
04
05
01
02
1
00
32.00
01
S
5.50
1.67
EUR
laboutique.edpsciences.fr-R001889
03
01
R001889
00
ED
E107
00
01
01
Régression avec R
3ème édition
08
451
03
22
4703957
17
01
P1
EDP Sciences
01
01
P1
EDP Sciences
17 avenue du Hoggar - PA de Courtaboeuf - 91944 Les Ulis cedex A
http://publications.edpsciences.org/
11
00
20230511
02
01
002254
03
9782759831463
15
9782759831463
03
01
D1
EDP Sciences
45
03
laboutique.edpsciences.fr-002254
03
01
002254
03
9782759831463
15
9782759831463
10
EA
E107
00
01
R001889
ED
E107
1
10
01
02
Pratique R
01
01
Régression avec R
3ème édition
1
A01
01
A1790
Pierre-André Cornillon
Cornillon, Pierre-André
Pierre-André
Cornillon
<p>Pierre-André Cornillon est Maître de Conférences à l’université Rennes-2-Haute-Bretagne. </p>
2
A01
01
A1791
Nicolas Hengartner
Hengartner, Nicolas
Nicolas
Hengartner
Après un doctorat en statistique obtenu à l’Université de Berkely (Californie), Nicolas W. Hengartner a rejoint le Département de statistique de l'Université de Yale en tant que professeur adjoint, puis promu professeur associé en 1999. En 2002, il a rejoint le groupe de science statistique du laboratoire national de Los Alamos. Il est actif dans les activités de sensibilisation académique et, en 2004, a été nommé professeur auxiliaire au Département de statistique de l'Université Simon Fraser, Burnaby , au Canada. Ses recherches portent sur l'application transdisciplinaire des statistiques, de la modélisation stochastique et des sciences de l'information à la physique, à l'épidémiologie et aux simulations sociotechniques à grande échelle.
3
A01
01
A1792
Eric Matzner-Løber
Matzner-Løber, Eric
Eric
Matzner-Løber
<p>Eric Matzner-Løber est Professeur à l’université Rennes-2-Haute-Bretagne.</p>
4
A01
01
A1793
Laurent Rouvière
Rouvière, Laurent
Laurent
Rouvière
<p>Laurent Rouvière est Maître de Conférences à l’université Rennes-2-Haute-Bretagne.</p>
01
fre
08
452
03
01
24
Izibook:Subject
Mathématiques
20
Régression simple;régression multiple;modèle linéaire;régression;spline;informatique;mathématiques;programmation
10
MAT029030
29
CLIL3052
29
CLIL3056
01
510
05
03
00
<blockquote>Cet ouvrage expose de manière détaillée, exemples à l’appui, différentes façons de répondre à un des problèmes statistiques les plus courants : la régression. Cette nouvelle édition se décompose en cinq parties. La première donne les grands principes des régressions simple et multiple par moindres carrés. Les fondamentaux de la méthode, tant au niveau des choix opérés que des hypothèses et leur utilité, sont expliqués. La deuxième partie est consacrée à l’inférence et présente les outils permettant de vérifier les hypothèses mises en œuvre. Les techniques d’analyse de la variance et de la covariance sont également présentées dans cette partie. Le cas de la grande dimension est ensuite abordé dans la troisième partie. Différentes méthodes de réduction de la dimension telles que la sélection de variables, les régressions sous contraintes (lasso, elasticnet ou ridge) et sur composantes (PLS ou PCR) sont notamment proposées. Un dernier chapitre propose des algorithmes, basés sur des méthodes de rééchantillonnage comme l’apprentissage/validation ou la validation croisée, qui permettent d’établir une comparaison entre toutes ces méthodes. La quatrième partie se concentre sur les modèles linéaires généralisés et plus particulièrement sur les régressions logistique et de Poisson avec ou sans technique de régularisation. Une section particulière est consacrée aux comparaisons de méthodes en classification supervisée. Elle introduit notamment des critères de performance pour scorer des individus comme les courbes ROC et lift et propose des stratégies de choix seuil (Younden, macro F1...) pour les classer. Ces notions sont ensuite mises en œuvre sur des données réelles afin de sélectionner une méthode de prévision parmi plusieurs algorithmes basés sur des modèles logistiques (régularisés ou non). Une dernière section aborde le problème des données déséquilibrées qui est souvent rencontré en régression binaire. Enfin, la dernière partie présente l’approche non paramétrique à travers les splines, les estimateurs à noyau et des plus proches voisins. La présentation témoigne d’un réel souci pédagogique des auteurs qui bénéficient d’une expérience d’enseignement auprès de publics très variés. Les résultats exposés sont replacés dans la perspective de leur utilité pratique grâce à l’analyse d’exemples concrets. Les commandes permettant le traitement des exemples sous R figurent dans le corps du texte. Enfin, chaque chapitre est complété par une suite d’exercices corrigés. Les codes, les données et les corrections des exercices se trouvent sur le site https://regression-avec-r.github.io/ Cet ouvrage s’adresse principalement à des étudiants de Master et d’écoles d’ingénieurs ainsi qu’aux chercheurs travaillant dans les divers domaines des sciences appliquées</blockquote>
02
00
<p>Cet ouvrage expose, de manière détaillée avec exemples à l’appui, différentes façons de répondre à un des problèmes statistiques les plus courants : la régression.</p>
04
00
<p class="MsoNormal" style="text-align:justify">Remerciements vii<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">Avant-Propos ix<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">I Introduction au modèle linéaire1<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1 La régression linéaire simple 3<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.1 Introduction............................... 3<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.1.1 Un exemple : la pollution de l’air ............... 3<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.1.2 Un second exemple : la hauteur des arbres .......... 5<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.2 Modélisation mathématique..................... 7<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.2.1 Choix du critère de qualité et distance à la droite ...... 7<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.2.2 Choix des fonctions à utiliser ................. 9<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.3 Modélisation statistique . .. . . . . . . . . . . . . . . . . . . . . . 10<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.4 Estimateurs des moindres carrés . . . . . . . . . . . . . . . . . . . 11<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.4.1 Calcul des estimateurs de βj , quelques propriétés . . . . . . 11<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.4.2 Résidus et varianc résiduelle . . . . . . . . . . . . . . . . . 15<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.4.3 Prévision . . . . . . . . .. . . . . . . . . . . . . . . . . . . 15<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.5 Interprétations géométriques. . . . . . . . . . . . . . . . . . . . . 16<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.5.1 Représentation desindividus . . . . . . . . . . . . . . . . . 16<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.5.2 Représentation desvariables . . . . . . . . . . . . . . . . . . 17<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.6 Inférence statistique . . . .. . . . . . . . . . . . . . . . . . . . . . 19<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.7 Exemples . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 22<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">1.8 Exercices . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 29<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2 La régression linéaire multiple..31<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.1 Introduction . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 31<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.2 Modélisation . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 32<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.3 Estimateurs des moindres carrés . . . . . . . . . . . . . . . . . . . 34<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.3.1 Calcul de βˆ . . . . . . .. . . . . . . . . . . . . . . . . . . . 35<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.3.2 Interprétation . . . . . .. . . . . . . . . . . . . . . . . . . . 37<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.3.3 Quelques propriétés statistiques . . . . . . . . . . . . . . . . 38<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.3.4 Résidus et variance résiduelle . . . . . . . . . . . . . . . . . 40<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.3.5 Prévision . . . . . . . . .. . . . . . . . . . . . . . . . . . . 41<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.4 Interprétation géométrique .. . . . . . . . . . . . . . . . . . . . . 42<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.5 Exemples . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 43<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">2.6 Exercices . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 47<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3 Validation du modèle 51<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.1 Analyse des résidus . . . . .. . . . . . . . . . . . . . . . . . . . . . 52<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.1.1 Les différents résidus . .. . . . . . . . . . . . . . . . . . . . 52<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.1.2 Ajustement individuel au modèle, valeur aberrante . . . . . 53<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.1.3 Analyse de la normalité . .. . . . . . . . . . . . . . . . . . 54<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.1.4 Analyse de l’homoscédasticité . . . . . . . . . . . . . . . . . 55<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.1.5 Analyse de la structure des résidus . . . . . . . . . . . . . . 56<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.2 Analyse de la matrice de projection . . . . . . . . . . . . . . . . . . 59<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.3 Autres mesures diagnostiques. . . . . . . . . . . . . . . . . . . . . 60<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.4 Effet d’une variable explicative . . . . . . . . . . . . . . . . . . . . 63<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.4.1 Ajustement au modèle . . .. . . . . . . . . . . . . . . . . . 63<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.4.2 Régression partielle : impact d’une variable . . . . . . . . . 64<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.4.3 Résidus partiels et résidus partiels augmentés . . . . . . . . 65<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.5 Exemple : la concentration en ozone . . . . . . . . . . . . . . . . . 67<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">3.6 Exercices . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 70<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4 Extensions : non-inversibilitéet (ou) erreurs corrélées 73<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.1 Régression ridge . . . . . .. . . . . . . . . . . . . . . . . . . . . . 73<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.1.1 Une solution historique . .. . . . . . . . . . . . . . . . . . 74<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.1.2 Minimisation des MCO pénalisés . . . . . . . . . . . . . . . 75<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.1.3 Equivalence avec une contrainte sur la norme des coefficients 75<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.1.4 Propriétés statistiques de l’estimateur ridge βˆridge . . . . . . 76<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.2 Erreurs corrélées : moindres carrés généralisés . . . . . . . . . . . . 78<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.2.1 Erreurs hétéroscédastiques. . . . . . . . . . . . . . . . . . . 79<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.2.2 Estimateur des moindres carrés généralisés . . . . . . . . . 82<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.2.3 Matrice Ω inconnue . . . .. . . . . . . . . . . . . . . . . . 84<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">4.3 Exercices . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 85<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">II Inférence 89<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5 Inférence dans le modèle gaussien 91<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.1 Estimateurs du maximum de vraisemblance . . . . . . . . . . . . . 91<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.2 Nouvelles propriétés statistiques . . . . . . . . . . . . . . . . . . . 92<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.3 Intervalles et régions de confiance . . . . . . . . . . . . . . . . . . . 94<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.4 Prévision . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 97<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.5 Les tests d’hypothèses . . .. . . . . . . . . . . . . . . . . . . . . . 98<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.5.1 Introduction . . . . . . .. . . . . . . . . . . . . . . . . . . 98<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.5.2 Test entre modèles emboîtés. . . . . . . . . . . . . . . . . . 98<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.6 Applications . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 102<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.7 Exercices . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 106<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.8 Notes . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 109<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.8.1 Intervalle de confiance : bootstrap . . . . . . . . . . . . . . 109<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.8.2 Test de Fisher pour une hypothèse linéaire quelconque . . . 112<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">5.8.3 Propriétés asymptotiques .. . . . . . . . . . . . . . . . . . 114<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6 Variables qualitatives : ANCOVAet ANOVA 117<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.1 Introduction . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 117<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.2 Analyse de la covariance . .. . . . . . . . . . . . . . . . . . . . . . 119<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.2.1 Introduction : exemple des eucalyptus . . . . . . . . . . . . 119<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.2.2 Modélisation du problème .. . . . . . . . . . . . . . . . . . 121<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.2.3 Hypothèse gaussienne . . .. . . . . . . . . . . . . . . . . . 123<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.2.4 Exemple : la concentrationen ozone . . . . . . . . . . . . . 124<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.2.5 Exemple : la hauteur des eucalyptus . . . . . . . . . . . . . 129<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.3 Analyse de la variance à 1facteur . . . . . . . . . . . . . . . . . . . 131<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.3.1 Introduction . . . . . . .. . . . . . . . . . . . . . . . . . . 131<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.3.2 Modélisation du problème .. . . . . . . . . . . . . . . . . . 132<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.3.3 Interprétation des contraintes . . . . . . . . . . . . . . . . . 134<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.3.4 Estimation des paramètres .. . . . . . . . . . . . . . . . . 134<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.3.5 Hypothèse gaussienne et test d’influence du facteur . . . . . 136<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.3.6 Exemple : la concentration en ozone . . . . . . . . . . . . . 137<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.3.7 Une décomposition directe de la variance . . . . . . . . . . 142<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.4 Analyse de la variance à 2 facteurs . . . . . . . . . . . . . . . . . . 142<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.4.1 Introduction . . . . . . .. . . . . . . . . . . . . . . . . . . 142<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.4.2 Modélisation du problème .. . . . . . . . . . . . . . . . . . 143<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.4.3 Estimation des paramètres .. . . . . . . . . . . . . . . . . 145<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.4.4 Analyse graphique del’interaction . . . . . . . . . . . . . . 146<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.4.5 Hypothèse gaussienne ettest de l’interaction . . . . . . . . 148<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.4.6 Exemple : la concentration en ozone . . . . . . . . . . . . . 150<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.5 Exercices . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 152<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">6.6 Note : identifiabilité et contrastes . . . . . . . . . . . . . . . . . . . 155<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">III Réduction de dimension 157<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7 Choix de variables 159<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.1 Introduction . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 159<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.2 Choix incorrect de variables: conséquences . . . . . . . . . . . . . 161<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.2.1 Biais des estimateurs . . .. . . . . . . . . . . . . . . . . . 161<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.2.2 Variance des estimateurs .. . . . . . . . . . . . . . . . . . . 163<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.2.3 Erreur quadratique moyenne. . . . . . . . . . . . . . . . . 163<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.2.4 Erreur quadratique moyenne de prévision . . . . . . . . . . 166<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.3 Critères classiques de choix de modèles . . . . . . . . . . . . . . . 168<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.3.1 Tests entre modèles emboîtés . . . . . . . . . . . . . . . . . 169<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.3.2 Le R2 . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . 170<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.3.3 Le R2 ajusté . . . . . . .. . . . . . . . . . . . . . . . . . . 171<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.3.4 Le Cp de Mallows . . . . .. . . . . . . . . . . . . . . . . . 172<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.3.5 Vraisemblance et pénalisation . . . . . . . . . . . . . . . . . 174<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.3.6 Liens entre les critères .. . . . . . . . . . . . . . . . . . . . 176<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.4 Procédure de sélection . . .. . . . . . . . . . . . . . . . . . . . . . 178<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.4.1 Recherche exhaustive . . .. . . . . . . . . . . . . . . . . . . 178<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.4.2 Recherche pas à pas . . . .. . . . . . . . . . . . . . . . . . 178<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.5 Exemple : la concentration en ozone . . . . . . . . . . . . . . . . . 180<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.5.1 Variables explicatives quantitatives . . . . . . . . . . . . . . 180<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.5.2 Intégration de variables qualitatives . . . . . . . . . . . . . 183<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.6 Exercices . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 184<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">7.7 Note : Cp et biais de sélection . . . . . . . . . . . . . . . . . . . . . 187<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8 Régularisation des moindres carrés : Ridge, Lasso et elastic-net 191<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.1 Introduction . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 191<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.2 Problème du centrage-réduction des variables . . . . . . . . . . . . 194<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.3 Ridge, lasso et elastic-net .. . . . . . . . . . . . . . . . . . . . . . 195<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.3.1 Régressions avec la package glmnet . . . . . . . . . . . . . . 199<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.3.2 Interprétation géométrique. . . . . . . . . . . . . . . . . . 202<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.3.3 Simplification quand les X sont orthogonaux . . . . . . . . 203<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.3.4 Choix du paramètre de régularisation λ . . . . . . . . . . . 206<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.4 Intégration de variables qualitatives . . . . . . . . . . . . . . . . . 208<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.5 Exercices . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 210<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">8.6 Note : lars et lasso . . . .. . . . . . . . . . . . . . . . . . . . . . . 213<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9 Régression sur composantes :PCR et PLS 217<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.1 Régression sur composantes principales (PCR) . . . . . . . . . . . 218<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.1.1 Changement de base . . . .. . . . . . . . . . . . . . . . . . 218<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.1.2 Estimateurs des MCO . . . .. . . . . . . . . . . . . . . . . 219<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.1.3 Choix decomposantes/variables . . . . . . . . . . . . . . . 220<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.1.4 Retour aux donnéesd’origine . . . . . . . . . . . . . . . . . 222<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.1.5 La régression sur composantes en pratique . . . . . . . . . . 223<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.2 Régression aux moindres carrés partiels (PLS) . . . . . . . . . . . . 225<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.2.1 Algorithmes PLS . . . . . .. . . . . . . . . . . . . . . . . . 227<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.2.2 Choix decomposantes/variables . . . . . . . . . . . . . . . 228<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.2.3 Retour aux données d’origine. . . . . . . . . . . . . . . . . 229<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.2.4 La régression PLS en pratique . . . . . . . . . . . . . . . . 230<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.3 Exercices . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 231<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.4 Notes . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 233<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.4.1 ACP et changement de base .. . . . . . . . . . . . . . . . . 233<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">9.4.2 Colinéarité parfaite : |X<span style="font-size:11.0pt;line-height:107%;font-family:"Calibri",sans-serif;mso-ascii-theme-font:minor-latin;mso-fareast-font-family:Calibri;mso-fareast-theme-font:minor-latin;mso-hansi-theme-font:minor-latin;mso-bidi-font-family:"Times New Roman";mso-bidi-theme-font:minor-bidi;mso-ansi-language:FR;mso-fareast-language:EN-US;mso-bidi-language:AR-SA">[1] </span>X| = 0 . . . . . . . . . . . . .. . . 235</p><p class="MsoNormal" style="text-align:justify"><o:p></o:p></p><p class="MsoNormal" style="text-align:justify">10 Comparaison des différentes méthodes, étude de cas réels 237<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">10.1 Erreur de prévision et validation croisée . . . . . . . . . . . . . . . 237<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">10.2 Analyse de l’ozone . . . . .. . . . . . . . . . . . . . . . . . . . . . 241<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">10.2.1 Préliminaires . . . . . .. . . . . . . . . . . . . . . . . . . . 241<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">10.2.2 Méthodes et comparaison .. . . . . . . . . . . . . . . . . . 241<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">10.2.3 Pour aller plus loin . . .. . . . . . . . . . . . . . . . . . . . 245<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">10.2.4 Conclusion . . . . . . . .. . . . . . . . . . . . . . . . . . . 248<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">IV Le modèle linéaire généralisé...249<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11 Régression logistique 251<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.1 Présentation du modèle . . .. . . . . . . . . . . . . . . . . . . . . 251<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.1.1 Exemple introductif . . .. . . . . . . . . . . . . . . . . . . 251<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.1.2 Modélisation statistique .. . . . . . . . . . . . . . . . . . . 252<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.1.3 Variables explicatives qualitatives, interactions . . . . . . . 255<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.2 Estimation . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 257<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.2.1 La vraisemblance . . . . .. . . . . . . . . . . . . . . . . . . 257<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.2.2 Calcul des estimateurs : l’algorithme IRLS . . . . . . . . . . 259<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.2.3 Propriétés asymptotiques de l’EMV . . . . . . . . . . . . . 260<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.3 Intervalles de confiance et tests . . . . . . . . . . . . . . . . . . . . 261<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.3.1 IC et tests sur les paramètres du modèle . . . . . . . . . . . 262<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.3.2 Test sur un sous-ensemble de paramètres . . . . . . . . . . 264<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.3.3 Prévision . . . . . . . .. . . . . . . . . . . . . . . . . . . . 267<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.4 Adéquation du modèle . . . .. . . . . . . . . . . . . . . . . . . . . 269<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.4.1 Le modèle saturé . . . . .. . . . . . . . . . . . . . . . . . . 270<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.4.2 Tests d’adéquation de la déviance et de Pearson . . . . . . 272<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.4.3 Analyse des résidus . . .. . . . . . . . . . . . . . . . . . . . 275<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.5 Choix de variables . . . . .. . . . . . . . . . . . . . . . . . . . . . 279<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.5.1 Tests entre modèles emboîtés . . . . . . . . . . . . . . . . . 279<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.5.2 Procédures automatiques .. . . . . . . . . . . . . . . . . . 280<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">11.6 Exercices . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 282<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">12 Régression de Poisson 289<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">12.1 Le modèle linéaire généralisé (GLM) . . . . . . . . . . . . . . . . . 289<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">12.2 Exemple : modélisation du nombre de visites . . . . . . . . . . . . 292<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">12.3 Régression Log-linéaire . .. . . . . . . . . . . . . . . . . . . . . . . 295<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">12.3.1 Le modèle . . . . . . . .. . . . . . . . . . . . . . . . . . . . 295<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">12.3.2 Estimation . . . . . . . .. . . . . . . . . . . . . . . . . . . 296<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">12.3.3 Tests et intervalles de confiance . . . . . . . . . . . . . . . . 297<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">12.3.4 Choix de variables . . . .. . . . . . . . . . . . . . . . . . . 302<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">12.4 Exercices . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 303<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">13 Régularisation de la vraisemblance 309<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">13.1 Régressions ridge, lasso et elastic-net . . . . . . . . . . . . . . . . . 309<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">13.2 Choix du paramètre de régularisation λ . . . . . . . . . . . . . . . 313<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">13.3 Group-lasso . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 317<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">13.4 Exercices . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 319<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14 Comparaison en classification supervisée 321<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.1 Prévision en classification supervisée . . . . . . . . . . . . . . . . . 321<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.2 Performance d’une règle . .. . . . . . . . . . . . . . . . . . . . . . 323<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.2.1 Erreur de classification et accuracy . . . . . . . . . . . . . . 326<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.2.2 Sensibilité (recall) et taux de faux négatifs . . . . . . . . . . 327<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.2.3 Spécificité et taux de faux positifs . . . . . . . . . . . . . . 327<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.2.4 Mesure sur les tables de contingence . . . . . . . . . . . . . 328<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.3 Performance d’un score . . .. . . . . . . . . . . . . . . . . . . . . 329<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.3.1 Courbe ROC . . . . . . . .. . . . . . . . . . . . . . . . . . 329<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.3.2 Courbe lift . . . . . . .. . . . . . . . . . . . . . . . . . . . 331<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.4 Choix du seuil . . . . . . .. . . . . . . . . . . . . . . . . . . . . . 332<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.4.1 Respect des proportions initiales . . . . . . . . . . . . . . . 332<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.4.2 Maximisation d’indices adhoc . . . . . . . . . . . . . . . . 332<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.4.3 Maximisation d’un coût moyen . . . . . . . . . . . . . . . . 333<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.5 Analyse des données chd . .. . . . . . . . . . . . . . . . . . . . . . 334<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.5.1 Les données . . . . . . .. . . . . . . . . . . . . . . . . . . . 334<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.5.2 Comparaison des algorithmes . . . . . . . . . . . . . . . . . 334<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.5.3 Pour aller plus loin . . .. . . . . . . . . . . . . . . . . . . . 340<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.6 Application : détection d’images publicitaires sur internet . . . . . 346<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.6.1 Les données . . . . . . .. . . . . . . . . . . . . . . . . . . . 346<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.6.2 Ajustement des modèles . .. . . . . . . . . . . . . . . . . . 347<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">14.7 Exercices . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 351<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15 Données déséquilibrées 353<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.1 Données déséquilibrées et modèle logistique . . . . . . . . . . . . . 353<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.1.1 Un exemple . . . . . . . .. . . . . . . . . . . . . . . . . . . 353<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.1.2 Rééquilibrage pour le modèle logistique . . . . . . . . . . . 355<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.1.3 Exemples de schéma de rééquilibrage . . . . . . . . . . . . . 356<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.2 Stratégies pour données déséquilibrées . . . . . . . . . . . . . . . . 361<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.2.1 Quelques méthodes de rééquilibrage . . . . . . . . . . . . . 361<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.2.2 Critères pour données déséquilibrées . . . . . . . . . . . . . 366<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.3 Choisir un algorithme de rééquilibrage . . . . . . . . . . . . . . . . 370<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.3.1 Rééquilibrage et validation croisée . . . . . . . . . . . . . . 370<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.3.2 Application aux données d’images publicitaires . . . . . . . 372<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">15.4 Exercices . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 376<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">V Introduction à la régression non paramétrique 379<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">16 Introduction à la régression spline 381<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">16.1 Introduction . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 381<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">16.2 Régression spline . . . . .. . . . . . . . . . . . . . . . . . . . . . . 385<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">16.2.1 Introduction . . . . . . .. . . . . . . . . . . . . . . . . . . 385<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">16.2.2 Spline de régression . . .. . . . . . . . . . . . . . . . . . . 386<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">16.3 Spline de lissage . . . . .. . . . . . . . . . . . . . . . . . . . . . . 390<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">16.4 Exercices . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 393<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17 Estimateurs à noyau et k plus proches voisins 395<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.1 Introduction . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 395<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.2 Estimateurs par moyennes locales . . . . . . . . . . . . . . . . . . . 398<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.2.1 Estimateurs à noyau . . .. . . . . . . . . . . . . . . . . . . 398<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.2.2 Les k plus proches voisins. . . . . . . . . . . . . . . . . . . 402<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.3 Choix des paramètres de lissage . . . . . . . . . . . . . . . . . . . . 403<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.4 Ecriture multivariée et fléau de la dimension . . . . . . . . . . . . . 406<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.4.1 Ecriture multivariée . . .. . . . . . . . . . . . . . . . . . . 406<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.4.2 Biais et variance . . . .. . . . . . . . . . . . . . . . . . . . 407<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.4.3 Fléau de la dimension . .. . . . . . . . . . . . . . . . . . . 409<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">17.5 Exercices . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 411<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">A Rappels 415<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">A.1 Rappels d’algèbre . . . . . .. . . . . . . . . . . . . . . . . . . . . . 415<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">A.2 Rappels de probabilités . . .. . . . . . . . . . . . . . . . . . . . . 418<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">Bibliographie 419<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">Index 423<o:p></o:p></p><p class="MsoNormal" style="text-align:justify">Notations 431<o:p></o:p></p><p></p><p class="MsoNormal" style="text-align:justify">Fonctions et packages R 433<o:p></o:p></p>
21
00
06
01
https://laboutique.edpsciences.fr/produit/1335/9782759831463/regression-avec-r
01
00
03
02
https://laboutique.edpsciences.fr/system/product_pictures/data/009/982/914/original/9782759831456_Regression-R-ED3_couv-sofedis.jpg?1680259530
01
P1
EDP Sciences
01
01
P1
EDP Sciences
17 avenue du Hoggar - PA de Courtaboeuf - 91944 Les Ulis cedex A
http://publications.edpsciences.org/
04
11
00
20230511
01
00
20230511
2024
06
3052868830012
01
WORLD
13
03
9782759831456
15
9782759831456
WORLD
08
EDP Sciences
04
01
00
20230511
03
01
D1
EDP Sciences
20
04
05
01
02
1
00
21.99
01
S
5.50
1.15
EUR
04
06
01
02
1
00
77.99
01
S
5.50
1.15
EUR
01
04
06
01
02
1
00
85.99
01
S
5.50
4.48
USD
01