<?xml version="1.0" encoding="UTF-8"?>
<ONIXMessage release="3.0" xmlns="http://ns.editeur.org/onix/3.0/reference">
  <Header>
    <Sender>
      <SenderName>EDP Sciences</SenderName>
    </Sender>
    <MessageNumber>1775512272</MessageNumber>
    <SentDateTime>20260406</SentDateTime>
    <DefaultLanguageOfText>fre</DefaultLanguageOfText>
  </Header>
  <Product>
    <RecordReference>laboutique.edpsciences.fr-002880</RecordReference>
    <NotificationType>03</NotificationType>
    <RecordSourceType>01</RecordSourceType>
    <ProductIdentifier>
      <ProductIDType>01</ProductIDType>
      <IDValue>002880</IDValue>
    </ProductIdentifier>
    <ProductIdentifier>
      <ProductIDType>03</ProductIDType>
      <IDValue>9782759824328</IDValue>
    </ProductIdentifier>
    <ProductIdentifier>
      <ProductIDType>15</ProductIDType>
      <IDValue>9782759824328</IDValue>
    </ProductIdentifier>
    <DescriptiveDetail>
      <ProductComposition>00</ProductComposition>
      <ProductForm>BA</ProductForm>
      <Measure>
        <MeasureType>02</MeasureType>
        <Measurement>160</Measurement>
        <MeasureUnitCode>mm</MeasureUnitCode>
      </Measure>
      <Measure>
        <MeasureType>01</MeasureType>
        <Measurement>240</Measurement>
        <MeasureUnitCode>mm</MeasureUnitCode>
      </Measure>
      <Collection>
        <CollectionType>10</CollectionType>
        <TitleDetail>
          <TitleType>01</TitleType>
          <TitleElement>
            <TitleElementLevel>02</TitleElementLevel>
            <TitleText>PratiqueR</TitleText>
          </TitleElement>
        </TitleDetail>
      </Collection>
      <TitleDetail>
        <TitleType>01</TitleType>
        <TitleElement>
          <TitleElementLevel>01</TitleElementLevel>
          <TitleText>Régression avec Python</TitleText>
        </TitleElement>
      </TitleDetail>
      <Contributor>
        <SequenceNumber>1</SequenceNumber>
        <ContributorRole>A01</ContributorRole>
        <NameIdentifier>
          <NameIDType>01</NameIDType>
          <IDValue>A1790</IDValue>
        </NameIdentifier>
        <PersonName>Pierre-André Cornillon</PersonName>
        <PersonNameInverted>Cornillon, Pierre-André</PersonNameInverted>
        <NamesBeforeKey>Pierre-André</NamesBeforeKey>
        <KeyNames>Cornillon</KeyNames>
        <BiographicalNote>&lt;p&gt;Pierre-André Cornillon est Maître de Conférences à l’université Rennes-2-Haute-Bretagne. &lt;/p&gt;</BiographicalNote>
      </Contributor>
      <Contributor>
        <SequenceNumber>2</SequenceNumber>
        <ContributorRole>A01</ContributorRole>
        <NameIdentifier>
          <NameIDType>01</NameIDType>
          <IDValue>A1791</IDValue>
        </NameIdentifier>
        <PersonName>Nicolas Hengartner</PersonName>
        <PersonNameInverted>Hengartner, Nicolas</PersonNameInverted>
        <NamesBeforeKey>Nicolas</NamesBeforeKey>
        <KeyNames>Hengartner</KeyNames>
        <BiographicalNote language="fre">Après un doctorat en statistique obtenu à l’Université de Berkely (Californie), Nicolas W. Hengartner a rejoint le Département de statistique de l'Université de Yale en tant que professeur adjoint, puis promu professeur associé en 1999. En 2002, il a rejoint le groupe de science statistique du laboratoire national de Los Alamos. Il est actif dans les activités de sensibilisation académique et, en 2004, a été nommé professeur auxiliaire au Département de statistique de l'Université Simon Fraser, Burnaby , au Canada. Ses recherches portent sur l'application transdisciplinaire des statistiques, de la modélisation stochastique et des sciences de l'information à la physique, à l'épidémiologie et aux simulations sociotechniques à grande échelle.</BiographicalNote>
        <BiographicalNote language="eng">&lt;p&gt;Nicolas Hengartner est du Los Alamos National Laboratory (USA)&lt;/p&gt;</BiographicalNote>
      </Contributor>
      <Contributor>
        <SequenceNumber>3</SequenceNumber>
        <ContributorRole>A01</ContributorRole>
        <NameIdentifier>
          <NameIDType>01</NameIDType>
          <IDValue>A1792</IDValue>
        </NameIdentifier>
        <PersonName>Eric Matzner-Løber</PersonName>
        <PersonNameInverted>Matzner-Løber, Eric</PersonNameInverted>
        <NamesBeforeKey>Eric</NamesBeforeKey>
        <KeyNames>Matzner-Løber</KeyNames>
        <BiographicalNote>&lt;p&gt;Eric Matzner-Løber est Professeur à l’université Rennes-2-Haute-Bretagne.&lt;/p&gt;</BiographicalNote>
      </Contributor>
      <Contributor>
        <SequenceNumber>4</SequenceNumber>
        <ContributorRole>A01</ContributorRole>
        <NameIdentifier>
          <NameIDType>01</NameIDType>
          <IDValue>A1793</IDValue>
        </NameIdentifier>
        <PersonName>Laurent Rouvière</PersonName>
        <PersonNameInverted>Rouvière, Laurent</PersonNameInverted>
        <NamesBeforeKey>Laurent</NamesBeforeKey>
        <KeyNames>Rouvière</KeyNames>
        <BiographicalNote>&lt;p&gt;Laurent Rouvière est Maître de Conférences à l’université Rennes-2-Haute-Bretagne.&lt;/p&gt;</BiographicalNote>
      </Contributor>
      <Language>
        <LanguageRole>01</LanguageRole>
        <LanguageCode>fre</LanguageCode>
      </Language>
      <Extent>
        <ExtentType>00</ExtentType>
        <ExtentValue>424</ExtentValue>
        <ExtentUnit>03</ExtentUnit>
      </Extent>
      <Illustrated>01</Illustrated>
      <Subject>
        <MainSubject/>
        <SubjectSchemeIdentifier>24</SubjectSchemeIdentifier>
        <SubjectSchemeName>Izibook:Subject</SubjectSchemeName>
        <SubjectHeadingText>Mathématiques</SubjectHeadingText>
      </Subject>
      <Subject>
        <SubjectSchemeIdentifier>24</SubjectSchemeIdentifier>
        <SubjectSchemeName>Izibook:Subject</SubjectSchemeName>
        <SubjectHeadingText>Informatique</SubjectHeadingText>
      </Subject>
      <Subject>
        <MainSubject/>
        <SubjectSchemeIdentifier>24</SubjectSchemeIdentifier>
        <SubjectSchemeName>Izibook:SubjectAndCategoryAndTags</SubjectSchemeName>
        <SubjectHeadingText>|Mathématiques|</SubjectHeadingText>
      </Subject>
      <Subject>
        <SubjectSchemeIdentifier>24</SubjectSchemeIdentifier>
        <SubjectSchemeName>Izibook:SubjectAndCategoryAndTags</SubjectSchemeName>
        <SubjectHeadingText>|Informatique|</SubjectHeadingText>
      </Subject>
      <Subject>
        <SubjectSchemeIdentifier>20</SubjectSchemeIdentifier>
        <SubjectHeadingText>Régression;inférence;analyse de la variance;covariance;variable;algorithme;modèle linéaire;Poisson;technique de régularisation;données déséquilibrées;régression binaire</SubjectHeadingText>
      </Subject>
      <Subject>
        <SubjectSchemeIdentifier>10</SubjectSchemeIdentifier>
        <SubjectSchemeVersion>2011</SubjectSchemeVersion>
        <SubjectCode>MAT029030</SubjectCode>
      </Subject>
      <Subject>
        <MainSubject/>
        <SubjectSchemeIdentifier>29</SubjectSchemeIdentifier>
        <SubjectCode>CLIL3056</SubjectCode>
      </Subject>
      <Subject>
        <SubjectSchemeIdentifier>29</SubjectSchemeIdentifier>
        <SubjectCode>CLIL3057</SubjectCode>
      </Subject>
      <Subject>
        <SubjectSchemeIdentifier>29</SubjectSchemeIdentifier>
        <SubjectCode>CLIL3231</SubjectCode>
      </Subject>
      <Subject>
        <SubjectSchemeIdentifier>01</SubjectSchemeIdentifier>
        <SubjectCode>510</SubjectCode>
      </Subject>
      <AudienceCode>05</AudienceCode>
      <AudienceCode>06</AudienceCode>
      <AudienceCode>06</AudienceCode>
    </DescriptiveDetail>
    <CollateralDetail>
      <TextContent>
        <TextType>03</TextType>
        <ContentAudience>00</ContentAudience>
        <Text>&lt;blockquote&gt;Cet ouvrage expose de manière détaillée et exemples à l’appui, différentes façons de répondre à un des problèmes statistiques les plus courants : la régression.&lt;br&gt;Cette nouvelle édition se décompose en 4 parties. La première donne les grands principes des régressions simple et multiple par moindres carrés. Les fondamentaux de la méthode tant au niveau des choix opérés que des hypothèses et leur utilité sont expliqués. La deuxième partie est consacrée à l’inférence et présente les outils permettant de vérifier les hypothèses mises en oeuvre. Les techniques d’analyse de la variance et de la covariance sont également présentées dans cette partie. Le cas de la grande dimension est ensuite abordé dans la troisième partie. Différentes méthodes de réduction de la dimension telles que la sélection de variables, les régressions sous contraintes (lasso, elastic-net ou ridge) et sur composantes (PLS ou PCR) sont notamment proposées. Un dernier chapitre propose des algorithmes, basés sur des méthodes de ré-échantillonnage comme l’apprentissage/validation ou la validation croisée, qui permettent d’établir une comparaison entre toutes ces méthodes. Enfin la quatrième et dernière partie se concentre sur les modèles linéaires généralisés et plus particulièrement sur les régressions logistiques et de Poisson avec ou sans technique de régularisation. Une section particulière est consacrée aux comparaisons de méthodes en classification supervisée. Elle introduit notamment des critères de performance pour « scorer » des individus comme les courbes ROC et lift et propose des stratégies de choix seuil (Youden, F1...) pour les classer. Ces notions sont ensuite mises en oeuvre sur des données réelles afin de sélectionner une méthode de prévision parmi plusieurs algorithmes basés sur des modèles logistiques (régularisés ou non). Une dernière section aborde le problème des données déséquilibrées qui est souvent rencontré en régression binaire.&lt;/blockquote&gt;&lt;div&gt;&lt;br&gt;&lt;/div&gt;</Text>
      </TextContent>
      <TextContent>
        <TextType>02</TextType>
        <ContentAudience>00</ContentAudience>
        <Text>&lt;p&gt;Ce livre rappelle les grands principes des régressions simple et multiple par moindres carrés, puis présente l’inférence et les outils permettant de vérifier les hypothèses mises en oeuvre. Le cas de la grande dimension est ensuite abordé, puis les modèles linéaires généralisés et plus particulièrement sur les régressions logistiques et de Poisson.&lt;/p&gt;</Text>
      </TextContent>
      <TextContent>
        <TextType>04</TextType>
        <ContentAudience>00</ContentAudience>
        <Text>&lt;p&gt;Remerciements vii&lt;/p&gt;&lt;p&gt;Avant-Propos ix&lt;/p&gt;&lt;p&gt;I Introduction au modèle linéaire 1&lt;/p&gt;&lt;p&gt;1 La régression linéaire simple 3&lt;/p&gt;&lt;p&gt;1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3&lt;/p&gt;&lt;p&gt;1.1.1 Un exemple : la pollution de l’air . . . . . . . . . . . . . . . 3&lt;/p&gt;&lt;p&gt;1.1.2 Un second exemple : la hauteur des arbres . . . . . . . . . . 5&lt;/p&gt;&lt;p&gt;1.2 Modélisation mathématique . . . . . . . . . . . . . . . . . . . . . 7&lt;/p&gt;&lt;p&gt;1.2.1 Choix du critère de qualité et distance à la droite . . . . . . 7&lt;/p&gt;&lt;p&gt;1.2.2 Choix des fonctions à utiliser . . . . . . . . . . . . . . . . . 9&lt;/p&gt;&lt;p&gt;1.3 Modélisation statistique . . . . . . . . . . . . . . . . . . . . . . . . 10&lt;/p&gt;&lt;p&gt;1.4 Estimateurs des moindres carrés . . . . . . . . . . . . . . . . . . . 11&lt;/p&gt;&lt;p&gt;1.4.1 Calcul des estimateurs de βj , quelques propriétés . . . . . . 11&lt;/p&gt;&lt;p&gt;1.4.2 Résidus et variance résiduelle . . . . . . . . . . . . . . . . . 15&lt;/p&gt;&lt;p&gt;1.4.3 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15&lt;/p&gt;&lt;p&gt;1.5 Interprétations géométriques . . . . . . . . . . . . . . . . . . . . . 16&lt;/p&gt;&lt;p&gt;1.5.1 Représentation des individus . . . . . . . . . . . . . . . . . 16&lt;/p&gt;&lt;p&gt;1.5.2 Représentation des variables . . . . . . . . . . . . . . . . . . 17&lt;/p&gt;&lt;p&gt;1.6 Inférence statistique . . . . . . . . . . . . . . . . . . . . . . . . . . 19&lt;/p&gt;&lt;p&gt;1.7 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22&lt;/p&gt;&lt;p&gt;1.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28&lt;/p&gt;&lt;p&gt;2 La régression linéaire multiple 31&lt;/p&gt;&lt;p&gt;2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31&lt;/p&gt;&lt;p&gt;2.2 Modélisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32&lt;/p&gt;&lt;p&gt;2.3 Estimateurs des moindres carrés . . . . . . . . . . . . . . . . . . . 34&lt;/p&gt;&lt;p&gt;2.3.1 Calcul de ˆ β . . . . . . . . . . . . . . . . . . . . . . . . . . . 35&lt;/p&gt;&lt;p&gt;2.3.2 Interprétation . . . . . . . . . . . . . . . . . . . . . . . . . . 37&lt;/p&gt;&lt;p&gt;2.3.3 Quelques propriétés statistiques . . . . . . . . . . . . . . . . 38&lt;/p&gt;&lt;p&gt;2.3.4 Résidus et variance résiduelle . . . . . . . . . . . . . . . . . 40&lt;/p&gt;&lt;p&gt;2.3.5 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41&lt;/p&gt;&lt;p&gt;2.4 Interprétation géométrique . . . . . . . . . . . . . . . . . . . . . . 42&lt;/p&gt;&lt;p&gt;2.5 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43&lt;/p&gt;&lt;p&gt;2.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46&lt;/p&gt;&lt;p&gt;3 Validation du modèle 51&lt;/p&gt;&lt;p&gt;3.1 Analyse des résidus . . . . . . . . . . . . . . . . . . . . . . . . . . . 52&lt;/p&gt;&lt;p&gt;3.1.1 Les différents résidus . . . . . . . . . . . . . . . . . . . . . . 52&lt;/p&gt;&lt;p&gt;3.1.2 Ajustement individuel au modèle, valeur aberrante . . . . . 53&lt;/p&gt;&lt;p&gt;3.1.3 Analyse de la normalité . . . . . . . . . . . . . . . . . . . . 54&lt;/p&gt;&lt;p&gt;3.1.4 Analyse de l’homoscédasticité . . . . . . . . . . . . . . . . . 55&lt;/p&gt;&lt;p&gt;3.1.5 Analyse de la structure des résidus . . . . . . . . . . . . . . 56&lt;/p&gt;&lt;p&gt;3.2 Analyse de la matrice de projection . . . . . . . . . . . . . . . . . . 59&lt;/p&gt;&lt;p&gt;3.3 Autres mesures diagnostiques . . . . . . . . . . . . . . . . . . . . . 60&lt;/p&gt;&lt;p&gt;3.4 Effet d’une variable explicative . . . . . . . . . . . . . . . . . . . . 63&lt;/p&gt;&lt;p&gt;3.4.1 Ajustement au modèle . . . . . . . . . . . . . . . . . . . . . 63&lt;/p&gt;&lt;p&gt;3.4.2 Régression partielle : impact d’une variable . . . . . . . . . 64&lt;/p&gt;&lt;p&gt;3.4.3 Résidus partiels et résidus partiels augmentés . . . . . . . . 65&lt;/p&gt;&lt;p&gt;3.5 Exemple : la concentration en ozone . . . . . . . . . . . . . . . . . 67&lt;/p&gt;&lt;p&gt;3.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71&lt;/p&gt;&lt;p&gt;4 Extensions : non-inversibilité et (ou) erreurs corrélées 73&lt;/p&gt;&lt;p&gt;4.1 Régression ridge . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73&lt;/p&gt;&lt;p&gt;4.1.1 Une solution historique . . . . . . . . . . . . . . . . . . . . 74&lt;/p&gt;&lt;p&gt;4.1.2 Minimisation des MCO pénalisés . . . . . . . . . . . . . . . 75&lt;/p&gt;&lt;p&gt;4.1.3 Equivalence avec une contrainte sur la norme des coefficients 75&lt;/p&gt;&lt;p&gt;4.1.4 Propriétés statistiques de l’estimateur ridge ˆ βridge . . . . . . 76&lt;/p&gt;&lt;p&gt;4.2 Erreurs corrélées : moindres carrés généralisés . . . . . . . . . . . . . 78&lt;/p&gt;&lt;p&gt;4.2.1 Erreurs hétéroscédastiques . . . . . . . . . . . . . . . . . . . 79&lt;/p&gt;&lt;p&gt;4.2.2 Estimateur des moindres carrés généralisés . . . . . . . . . 81&lt;/p&gt;&lt;p&gt;4.2.3 Matrice Ω inconnue . . . . . . . . . . . . . . . . . . . . . . 84&lt;/p&gt;&lt;p&gt;4.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85&lt;/p&gt;&lt;p&gt;5 Régression polynomiale et régression spline 87&lt;/p&gt;&lt;p&gt;5.1 Régression polynomiale . . . . . . . . . . . . . . . . . . . . . . . . 87&lt;/p&gt;&lt;p&gt;5.2 Régression spline . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91&lt;/p&gt;&lt;p&gt;5.2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . 91&lt;/p&gt;&lt;p&gt;5.2.2 Spline de régression . . . . . . . . . . . . . . . . . . . . . . 92&lt;/p&gt;&lt;p&gt;5.3 Spline de lissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96&lt;/p&gt;&lt;p&gt;5.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99&lt;/p&gt;&lt;p&gt;II Inférence 101&lt;/p&gt;&lt;p&gt;6 Inférence dans le modèle gaussien 103&lt;/p&gt;&lt;p&gt;6.1 Estimateurs du maximum de vraisemblance . . . . . . . . . . . . . 103&lt;/p&gt;&lt;p&gt;Table des matières xiii&lt;/p&gt;&lt;p&gt;6.2 Nouvelles propriétés statistiques . . . . . . . . . . . . . . . . . . . 104&lt;/p&gt;&lt;p&gt;6.3 Intervalles et régions de confiance . . . . . . . . . . . . . . . . . . . 106&lt;/p&gt;&lt;p&gt;6.4 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109&lt;/p&gt;&lt;p&gt;6.5 Les tests d’hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . 110&lt;/p&gt;&lt;p&gt;6.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . 110&lt;/p&gt;&lt;p&gt;6.5.2 Test entre modèles emboîtés . . . . . . . . . . . . . . . . . . 111&lt;/p&gt;&lt;p&gt;6.6 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114&lt;/p&gt;&lt;p&gt;6.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118&lt;/p&gt;&lt;p&gt;6.8 Notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121&lt;/p&gt;&lt;p&gt;6.8.1 Intervalle de confiance : bootstrap . . . . . . . . . . . . . . 121&lt;/p&gt;&lt;p&gt;6.8.2 Test de Fisher pour une hypothèse linéaire quelconque . . . 123&lt;/p&gt;&lt;p&gt;6.8.3 Propriétés asymptotiques . . . . . . . . . . . . . . . . . . . 125&lt;/p&gt;&lt;p&gt;7 Variables qualitatives : ANCOVA et ANOVA 129&lt;/p&gt;&lt;p&gt;7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129&lt;/p&gt;&lt;p&gt;7.2 Analyse de la covariance . . . . . . . . . . . . . . . . . . . . . . . . 131&lt;/p&gt;&lt;p&gt;7.2.1 Introduction : exemple des eucalyptus . . . . . . . . . . . . 131&lt;/p&gt;&lt;p&gt;7.2.2 Modélisation du problème . . . . . . . . . . . . . . . . . . . 133&lt;/p&gt;&lt;p&gt;7.2.3 Hypothèse gaussienne . . . . . . . . . . . . . . . . . . . . . 135&lt;/p&gt;&lt;p&gt;7.2.4 Exemple : la concentration en ozone . . . . . . . . . . . . . 136&lt;/p&gt;&lt;p&gt;7.2.5 Exemple : la hauteur des eucalyptus . . . . . . . . . . . . . 140&lt;/p&gt;&lt;p&gt;7.3 Analyse de la variance à 1 facteur . . . . . . . . . . . . . . . . . . . 142&lt;/p&gt;&lt;p&gt;7.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . 142&lt;/p&gt;&lt;p&gt;7.3.2 Modélisation du problème . . . . . . . . . . . . . . . . . . . 143&lt;/p&gt;&lt;p&gt;7.3.3 Interprétation des contraintes . . . . . . . . . . . . . . . . . 145&lt;/p&gt;&lt;p&gt;7.3.4 Estimation des paramètres . . . . . . . . . . . . . . . . . . 145&lt;/p&gt;&lt;p&gt;7.3.5 Hypothèse gaussienne et test d’influence du facteur . . . . . 147&lt;/p&gt;&lt;p&gt;7.3.6 Exemple : la concentration en ozone . . . . . . . . . . . . . 148&lt;/p&gt;&lt;p&gt;7.3.7 Une décomposition directe de la variance . . . . . . . . . . 152&lt;/p&gt;&lt;p&gt;7.4 Analyse de la variance à 2 facteurs . . . . . . . . . . . . . . . . . . 153&lt;/p&gt;&lt;p&gt;7.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . 153&lt;/p&gt;&lt;p&gt;7.4.2 Modélisation du problème . . . . . . . . . . . . . . . . . . . 154&lt;/p&gt;&lt;p&gt;7.4.3 Estimation des paramètres . . . . . . . . . . . . . . . . . . 156&lt;/p&gt;&lt;p&gt;7.4.4 Analyse graphique de l’interaction . . . . . . . . . . . . . . 157&lt;/p&gt;&lt;p&gt;7.4.5 Hypothèse gaussienne et test de l’interaction . . . . . . . . 158&lt;/p&gt;&lt;p&gt;7.4.6 Exemple : la concentration en ozone . . . . . . . . . . . . . 161&lt;/p&gt;&lt;p&gt;7.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162&lt;/p&gt;&lt;p&gt;7.6 Note : identifiabilité et contrastes . . . . . . . . . . . . . . . . . . . 165&lt;/p&gt;&lt;p&gt;III Réduction de dimension 167&lt;/p&gt;&lt;p&gt;8 Choix de variables 169&lt;/p&gt;&lt;p&gt;8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169&lt;/p&gt;&lt;p&gt;8.2 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171&lt;/p&gt;&lt;p&gt;8.3 Choix incorrect de variables : conséquences . . . . . . . . . . . . . 172&lt;/p&gt;&lt;p&gt;8.3.1 Biais des estimateurs . . . . . . . . . . . . . . . . . . . . . 172&lt;/p&gt;&lt;p&gt;8.3.2 Variance des estimateurs . . . . . . . . . . . . . . . . . . . . 174&lt;/p&gt;&lt;p&gt;8.3.3 Erreur quadratique moyenne . . . . . . . . . . . . . . . . . 175&lt;/p&gt;&lt;p&gt;8.3.4 Erreur quadratique moyenne de prévision . . . . . . . . . . 177&lt;/p&gt;&lt;p&gt;8.4 Critères classiques de choix de modèles . . . . . . . . . . . . . . . 179&lt;/p&gt;&lt;p&gt;8.4.1 Tests entre modèles emboîtés . . . . . . . . . . . . . . . . . 180&lt;/p&gt;&lt;p&gt;8.4.2 Le R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181&lt;/p&gt;&lt;p&gt;8.4.3 Le R2 ajusté . . . . . . . . . . . . . . . . . . . . . . . . . . 182&lt;/p&gt;&lt;p&gt;8.4.4 Le Cp de Mallows . . . . . . . . . . . . . . . . . . . . . . . 183&lt;/p&gt;&lt;p&gt;8.4.5 Vraisemblance et pénalisation . . . . . . . . . . . . . . . . . 185&lt;/p&gt;&lt;p&gt;8.4.6 Liens entre les critères . . . . . . . . . . . . . . . . . . . . . 187&lt;/p&gt;&lt;p&gt;8.5 Procédure de sélection . . . . . . . . . . . . . . . . . . . . . . . . . 189&lt;/p&gt;&lt;p&gt;8.5.1 Recherche exhaustive . . . . . . . . . . . . . . . . . . . . . . 189&lt;/p&gt;&lt;p&gt;8.5.2 Recherche pas à pas . . . . . . . . . . . . . . . . . . . . . . 189&lt;/p&gt;&lt;p&gt;8.6 Exemple : la concentration en ozone . . . . . . . . . . . . . . . . . 191&lt;/p&gt;&lt;p&gt;8.6.1 Variables explicatives quantitatives . . . . . . . . . . . . . . 191&lt;/p&gt;&lt;p&gt;8.6.2 Intégration de variables qualitatives . . . . . . . . . . . . . 192&lt;/p&gt;&lt;p&gt;8.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193&lt;/p&gt;&lt;p&gt;8.8 Note : Cp et biais de sélection . . . . . . . . . . . . . . . . . . . . . 195&lt;/p&gt;&lt;p&gt;9 Régularisation des moindres carrés : ridge, lasso et elastic-net 199&lt;/p&gt;&lt;p&gt;9.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199&lt;/p&gt;&lt;p&gt;9.2 Problème du centrage réduction des variables . . . . . . . . . . . . 202&lt;/p&gt;&lt;p&gt;9.3 Propriétés des régressions ridge et lasso . . . . . . . . . . . . . . . 203&lt;/p&gt;&lt;p&gt;9.3.1 Interprétation géométrique . . . . . . . . . . . . . . . . . . 207&lt;/p&gt;&lt;p&gt;9.3.2 Simplification quand les X sont orthogonaux . . . . . . . . 209&lt;/p&gt;&lt;p&gt;9.3.3 Choix de λ par validation croisée . . . . . . . . . . . . . . . 211&lt;/p&gt;&lt;p&gt;9.4 Régularisation avec le module scikitlearn . . . . . . . . . . . . . . . 214&lt;/p&gt;&lt;p&gt;9.4.1 Estimation des paramètres . . . . . . . . . . . . . . . . . . 215&lt;/p&gt;&lt;p&gt;9.4.2 Chemin de régularisation . . . . . . . . . . . . . . . . . . . 216&lt;/p&gt;&lt;p&gt;9.4.3 Choix du paramètre de régularisation α . . . . . . . . . . . 217&lt;/p&gt;&lt;p&gt;9.4.4 Mise en pratique . . . . . . . . . . . . . . . . . . . . . . . . 219&lt;/p&gt;&lt;p&gt;9.5 Intégration de variables qualitatives . . . . . . . . . . . . . . . . . 219&lt;/p&gt;&lt;p&gt;9.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222&lt;/p&gt;&lt;p&gt;9.7 Note : lars et lasso . . . . . . . . . . . . . . . . . . . . . . . . . . . 226&lt;/p&gt;&lt;p&gt;10 Régression sur composantes : PCR et PLS 229&lt;/p&gt;&lt;p&gt;10.1 Régression sur composantes principales (PCR) . . . . . . . . . . . 230&lt;/p&gt;&lt;p&gt;10.1.1 Changement de base . . . . . . . . . . . . . . . . . . . . . . 230&lt;/p&gt;&lt;p&gt;10.1.2 Estimateurs des MCO . . . . . . . . . . . . . . . . . . . . . 231&lt;/p&gt;&lt;p&gt;10.1.3 Choix de composantes/variables . . . . . . . . . . . . . . . 232&lt;/p&gt;&lt;p&gt;10.1.4 Retour aux données d’origine . . . . . . . . . . . . . . . . . 234&lt;/p&gt;&lt;p&gt;10.1.5 La régression sur composantes en pratique . . . . . . . . . . 235&lt;/p&gt;&lt;p&gt;10.2 Régression aux moindres carrés partiels (PLS) . . . . . . . . . . . . 238&lt;/p&gt;&lt;p&gt;10.2.1 Algorithmes PLS . . . . . . . . . . . . . . . . . . . . . . . . 240&lt;/p&gt;&lt;p&gt;10.2.2 Choix de composantes/variables . . . . . . . . . . . . . . . 240&lt;/p&gt;&lt;p&gt;10.2.3 Retour aux données d’origine . . . . . . . . . . . . . . . . . 241&lt;/p&gt;&lt;p&gt;10.2.4 La régression PLS en pratique . . . . . . . . . . . . . . . . 243&lt;/p&gt;&lt;p&gt;10.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244&lt;/p&gt;&lt;p&gt;10.4 Notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246&lt;/p&gt;&lt;p&gt;10.4.1 ACP et changement de base . . . . . . . . . . . . . . . . . . 246&lt;/p&gt;&lt;p&gt;10.4.2 Colinéarité parfaite : |X’X|=0 . . . . . . . . . . . . . . . . 247&lt;/p&gt;&lt;p&gt;11 Comparaison des différentes méthodes, étude de cas réels 251&lt;/p&gt;&lt;p&gt;11.1 Erreur de prévision et validation croisée . . . . . . . . . . . . . . . 251&lt;/p&gt;&lt;p&gt;11.2 Analyse de l’ozone . . . . . . . . . . . . . . . . . . . . . . . . . . . 255&lt;/p&gt;&lt;p&gt;11.2.1 Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . 255&lt;/p&gt;&lt;p&gt;11.2.2 Méthodes et comparaison . . . . . . . . . . . . . . . . . . . 256&lt;/p&gt;&lt;p&gt;11.3 Modification de variables : feature engineering . . . . . . . . . . . . 259&lt;/p&gt;&lt;p&gt;11.3.1 Modèle de prévision avec interactions . . . . . . . . . . . . 259&lt;/p&gt;&lt;p&gt;11.3.2 Modèle de prévision avec des polynômes . . . . . . . . . . . 260&lt;/p&gt;&lt;p&gt;11.3.3 Modèle de prévision avec des splines . . . . . . . . . . . . . 260&lt;/p&gt;&lt;p&gt;11.3.4 Modèle de prévision avec interactions et splines . . . . . . . 261&lt;/p&gt;&lt;p&gt;11.3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 262&lt;/p&gt;&lt;p&gt;IV Le modèle linéaire généralisé 263&lt;/p&gt;&lt;p&gt;12 Régression logistique 265&lt;/p&gt;&lt;p&gt;12.1 Présentation du modèle . . . . . . . . . . . . . . . . . . . . . . . . 265&lt;/p&gt;&lt;p&gt;12.1.1 Exemple introductif . . . . . . . . . . . . . . . . . . . . . . 265&lt;/p&gt;&lt;p&gt;12.1.2 Modélisation statistique . . . . . . . . . . . . . . . . . . . . 266&lt;/p&gt;&lt;p&gt;12.1.3 Variables explicatives qualitatives, interactions . . . . . . . 269&lt;/p&gt;&lt;p&gt;12.2 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271&lt;/p&gt;&lt;p&gt;12.2.1 La vraisemblance . . . . . . . . . . . . . . . . . . . . . . . . 271&lt;/p&gt;&lt;p&gt;12.2.2 Calcul des estimateurs : l’algorithme IRLS . . . . . . . . . . 273&lt;/p&gt;&lt;p&gt;12.2.3 Propriétés asymptotiques de l’EMV . . . . . . . . . . . . . 274&lt;/p&gt;&lt;p&gt;12.3 Intervalles de confiance et tests . . . . . . . . . . . . . . . . . . . . 275&lt;/p&gt;&lt;p&gt;12.3.1 IC et tests sur les paramètres du modèle . . . . . . . . . . . 276&lt;/p&gt;&lt;p&gt;12.3.2 Test sur un sous-ensemble de paramètres . . . . . . . . . . 277&lt;/p&gt;&lt;p&gt;12.3.3 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280&lt;/p&gt;&lt;p&gt;12.4 Adéquation du modèle . . . . . . . . . . . . . . . . . . . . . . . . . 282&lt;/p&gt;&lt;p&gt;12.4.1 Le modèle saturé . . . . . . . . . . . . . . . . . . . . . . . . 283&lt;/p&gt;&lt;p&gt;12.4.2 Tests d’adéquation de la déviance et de Pearson . . . . . . 285&lt;/p&gt;&lt;p&gt;12.4.3 Analyse des résidus . . . . . . . . . . . . . . . . . . . . . . . 288&lt;/p&gt;&lt;p&gt;12.5 Choix de variables . . . . . . . . . . . . . . . . . . . . . . . . . . . 292&lt;/p&gt;&lt;p&gt;12.5.1 Tests entre modèles emboîtés . . . . . . . . . . . . . . . . . 292&lt;/p&gt;&lt;p&gt;12.5.2 Procédures automatiques . . . . . . . . . . . . . . . . . . . 293&lt;/p&gt;&lt;p&gt;12.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295&lt;/p&gt;&lt;p&gt;13 Régression de Poisson 301&lt;/p&gt;&lt;p&gt;13.1 Le modèle linéaire généralisé (GLM) . . . . . . . . . . . . . . . . . 301&lt;/p&gt;&lt;p&gt;13.2 Exemple : modélisation du nombre de visites . . . . . . . . . . . . 304&lt;/p&gt;&lt;p&gt;13.3 Régression Log-linéaire . . . . . . . . . . . . . . . . . . . . . . . . . 307&lt;/p&gt;&lt;p&gt;13.3.1 Le modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307&lt;/p&gt;&lt;p&gt;13.3.2 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . 308&lt;/p&gt;&lt;p&gt;13.3.3 Tests et intervalles de confiance . . . . . . . . . . . . . . . . 309&lt;/p&gt;&lt;p&gt;13.3.4 Choix de variables . . . . . . . . . . . . . . . . . . . . . . . 313&lt;/p&gt;&lt;p&gt;13.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314&lt;/p&gt;&lt;p&gt;14 Régularisation de la vraisemblance 319&lt;/p&gt;&lt;p&gt;14.1 Régressions ridge, lasso et elastic-net . . . . . . . . . . . . . . . . . 319&lt;/p&gt;&lt;p&gt;14.2 Choix du paramètre de régularisation λ . . . . . . . . . . . . . . . 324&lt;/p&gt;&lt;p&gt;14.3 Group-lasso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327&lt;/p&gt;&lt;p&gt;14.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329&lt;/p&gt;&lt;p&gt;15 Comparaison en classification supervisée 331&lt;/p&gt;&lt;p&gt;15.1 Prévision en classification supervisée . . . . . . . . . . . . . . . . . 331&lt;/p&gt;&lt;p&gt;15.2 Performance d’une règle . . . . . . . . . . . . . . . . . . . . . . . . 333&lt;/p&gt;&lt;p&gt;15.2.1 Erreur de classification et accuracy . . . . . . . . . . . . . . 336&lt;/p&gt;&lt;p&gt;15.2.2 Sensibilité (recall) et taux de faux négatifs . . . . . . . . . . 337&lt;/p&gt;&lt;p&gt;15.2.3 Spécificité et taux de faux positifs . . . . . . . . . . . . . . 337&lt;/p&gt;&lt;p&gt;15.2.4 Mesure sur les tables de contingence . . . . . . . . . . . . . 338&lt;/p&gt;&lt;p&gt;15.3 Performance d’un score . . . . . . . . . . . . . . . . . . . . . . . . 339&lt;/p&gt;&lt;p&gt;15.3.1 Courbe ROC . . . . . . . . . . . . . . . . . . . . . . . . . . 339&lt;/p&gt;&lt;p&gt;15.3.2 Courbe lift . . . . . . . . . . . . . . . . . . . . . . . . . . . 341&lt;/p&gt;&lt;p&gt;15.4 Choix du seuil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342&lt;/p&gt;&lt;p&gt;15.4.1 Respect des proportions initiales . . . . . . . . . . . . . . . 342&lt;/p&gt;&lt;p&gt;15.4.2 Maximisation d’indices ad hoc . . . . . . . . . . . . . . . . 342&lt;/p&gt;&lt;p&gt;15.4.3 Maximisation d’un coût moyen . . . . . . . . . . . . . . . . 343&lt;/p&gt;&lt;p&gt;15.5 Analyse des données chd . . . . . . . . . . . . . . . . . . . . . . . . 344&lt;/p&gt;&lt;p&gt;15.5.1 Les données . . . . . . . . . . . . . . . . . . . . . . . . . . . 344&lt;/p&gt;&lt;p&gt;15.5.2 Méthodes et comparaison . . . . . . . . . . . . . . . . . . . 344&lt;/p&gt;&lt;p&gt;15.6Modification de variables : feature engineering . . . . . . . . . . . . 351&lt;/p&gt;&lt;p&gt;15.6.1 Modèle de prévision avec interactions . . . . . . . . . . . . 352&lt;/p&gt;&lt;p&gt;15.6.2 Modèle de prévision avec des polynômes . . . . . . . . . . . 352&lt;/p&gt;&lt;p&gt;15.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354&lt;/p&gt;&lt;p&gt;16 Données déséquilibrées 357&lt;/p&gt;&lt;p&gt;16.1 Données déséquilibrées et modèle logistique . . . . . . . . . . . . . 357&lt;/p&gt;&lt;p&gt;16.1.1 Un exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . 357&lt;/p&gt;&lt;p&gt;16.1.2 Rééquilibrage pour le modèle logistique . . . . . . . . . . . 359&lt;/p&gt;&lt;p&gt;16.1.3 Exemples de schéma de rééquilibrage . . . . . . . . . . . . . 360&lt;/p&gt;&lt;p&gt;16.2 Stratégies pour données déséquilibrées . . . . . . . . . . . . . . . . 365&lt;/p&gt;&lt;p&gt;16.2.1 Quelques méthodes de rééquilibrage . . . . . . . . . . . . . 365&lt;/p&gt;&lt;p&gt;16.2.2 Critères pour données déséquilibrées . . . . . . . . . . . . . 370&lt;/p&gt;&lt;p&gt;16.3 Choisir un algorithme de rééquilibrage . . . . . . . . . . . . . . . . 373&lt;/p&gt;&lt;p&gt;16.3.1 Rééquilibrage et validation croisée . . . . . . . . . . . . . . 374&lt;/p&gt;&lt;p&gt;16.3.2 Application aux données d’images publicitaires . . . . . . . 375&lt;/p&gt;&lt;p&gt;16.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379&lt;/p&gt;&lt;p&gt;A Rappels 381&lt;/p&gt;&lt;p&gt;A.1 Rappels d’algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381&lt;/p&gt;&lt;p&gt;A.2 Rappels de probabilités . . . . . . . . . . . . . . . . . . . . . . . . 384&lt;/p&gt;&lt;p&gt;A.3 Modules Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385&lt;/p&gt;&lt;p&gt;Bibliographie 391&lt;/p&gt;&lt;p&gt;Index 395&lt;/p&gt;&lt;p&gt;Notations 403&lt;/p&gt;&lt;p&gt;Fonctions et modules python 405&lt;/p&gt;&lt;div&gt;&lt;br&gt;&lt;/div&gt;</Text>
      </TextContent>
      <SupportingResource>
        <ResourceContentType>21</ResourceContentType>
        <ContentAudience>00</ContentAudience>
        <ResourceMode>06</ResourceMode>
        <ResourceVersion>
          <ResourceForm>01</ResourceForm>
          <ResourceLink>https://laboutique.edpsciences.fr/produit/1476/9782759837793/regression-avec-python</ResourceLink>
        </ResourceVersion>
      </SupportingResource>
      <SupportingResource>
        <ResourceContentType>01</ResourceContentType>
        <ContentAudience>00</ContentAudience>
        <ResourceMode>03</ResourceMode>
        <ResourceVersion>
          <ResourceForm>02</ResourceForm>
          <ResourceLink>https://laboutique.edpsciences.fr/system/product_pictures/data/009/983/353/original/9782759824328-Regression-python_couv-sofedis.jpg</ResourceLink>
          <ContentDate>
            <ContentDateRole>17</ContentDateRole>
            <DateFormat>14</DateFormat>
            <Date>20250306T163035+0100</Date>
          </ContentDate>
        </ResourceVersion>
      </SupportingResource>
    </CollateralDetail>
    <PublishingDetail>
      <Imprint>
        <ImprintIdentifier>
          <ImprintIDType>01</ImprintIDType>
          <IDValue>P1</IDValue>
        </ImprintIdentifier>
        <ImprintName>EDP Sciences</ImprintName>
      </Imprint>
      <Publisher>
        <PublishingRole>01</PublishingRole>
        <PublisherIdentifier>
          <PublisherIDType>01</PublisherIDType>
          <IDValue>P1</IDValue>
        </PublisherIdentifier>
        <PublisherName>EDP Sciences</PublisherName>
        <Website>
          <WebsiteDescription>17 avenue du Hoggar - PA de Courtaboeuf - 91944 Les Ulis cedex A</WebsiteDescription>
          <WebsiteLink>http://publications.edpsciences.org/</WebsiteLink>
        </Website>
      </Publisher>
      <PublishingStatus>04</PublishingStatus>
      <PublishingDate>
        <PublishingDateRole>11</PublishingDateRole>
        <DateFormat>00</DateFormat>
        <Date>20250515</Date>
      </PublishingDate>
      <PublishingDate>
        <PublishingDateRole>01</PublishingDateRole>
        <DateFormat>00</DateFormat>
        <Date>20250515</Date>
      </PublishingDate>
      <PublishingDate>
        <PublishingDateRole>19</PublishingDateRole>
        <DateFormat>00</DateFormat>
        <Date>20250515</Date>
      </PublishingDate>
      <CopyrightStatement>
        <CopyrightYear>2026</CopyrightYear>
        <CopyrightOwner>
          <CopyrightOwnerIdentifier>
            <CopyrightOwnerIDType>06</CopyrightOwnerIDType>
            <IDValue>3052868830012</IDValue>
          </CopyrightOwnerIdentifier>
        </CopyrightOwner>
      </CopyrightStatement>
      <SalesRights>
        <SalesRightsType>01</SalesRightsType>
        <Territory>
          <RegionsIncluded>WORLD</RegionsIncluded>
        </Territory>
      </SalesRights>
    </PublishingDetail>
    <RelatedMaterial>
      <RelatedProduct>
        <ProductRelationCode>27</ProductRelationCode>
        <ProductIdentifier>
          <ProductIDType>03</ProductIDType>
          <IDValue>9782759837793</IDValue>
        </ProductIdentifier>
        <ProductIdentifier>
          <ProductIDType>15</ProductIDType>
          <IDValue>9782759837793</IDValue>
        </ProductIdentifier>
      </RelatedProduct>
    </RelatedMaterial>
    <ProductSupply>
      <Market>
        <Territory>
          <RegionsIncluded>WORLD</RegionsIncluded>
        </Territory>
      </Market>
      <MarketPublishingDetail>
        <PublisherRepresentative>
          <AgentRole>08</AgentRole>
          <AgentName>EDP Sciences</AgentName>
        </PublisherRepresentative>
        <MarketPublishingStatus>04</MarketPublishingStatus>
        <MarketDate>
          <MarketDateRole>01</MarketDateRole>
          <DateFormat>00</DateFormat>
          <Date>20250515</Date>
        </MarketDate>
      </MarketPublishingDetail>
      <SupplyDetail>
        <Supplier>
          <SupplierRole>03</SupplierRole>
          <SupplierIdentifier>
            <SupplierIDType>01</SupplierIDType>
            <IDValue>D1</IDValue>
          </SupplierIdentifier>
          <SupplierName>EDP Sciences</SupplierName>
        </Supplier>
        <ProductAvailability>21</ProductAvailability>
        <Price>
          <PriceType>04</PriceType>
          <PriceQualifier>05</PriceQualifier>
          <PriceCondition>
            <PriceConditionType>01</PriceConditionType>
            <PriceConditionQuantity>
              <PriceConditionQuantityType>02</PriceConditionQuantityType>
              <Quantity>1</Quantity>
              <QuantityUnit>00</QuantityUnit>
            </PriceConditionQuantity>
          </PriceCondition>
          <PriceAmount>34.00</PriceAmount>
          <Tax>
            <TaxType>01</TaxType>
            <TaxRatePercent>5.50</TaxRatePercent>
            <TaxAmount>1.77</TaxAmount>
          </Tax>
          <CurrencyCode>EUR</CurrencyCode>
        </Price>
      </SupplyDetail>
    </ProductSupply>
  </Product>
  <Product>
    <RecordReference>laboutique.edpsciences.fr-R002701</RecordReference>
    <NotificationType>03</NotificationType>
    <RecordSourceType>01</RecordSourceType>
    <ProductIdentifier>
      <ProductIDType>01</ProductIDType>
      <IDValue>R002701</IDValue>
    </ProductIdentifier>
    <DescriptiveDetail>
      <ProductComposition>00</ProductComposition>
      <ProductForm>ED</ProductForm>
      <ProductFormDetail>E107</ProductFormDetail>
      <EpubTechnicalProtection>00</EpubTechnicalProtection>
      <TitleDetail>
        <TitleType>01</TitleType>
        <TitleElement>
          <TitleElementLevel>01</TitleElementLevel>
          <TitleText>Régression avec Python</TitleText>
        </TitleElement>
      </TitleDetail>
      <Language>
        <LanguageRole>01</LanguageRole>
        <LanguageCode>fre</LanguageCode>
      </Language>
      <Extent>
        <ExtentType>08</ExtentType>
        <ExtentValue>426</ExtentValue>
        <ExtentUnit>03</ExtentUnit>
      </Extent>
      <Extent>
        <ExtentType>22</ExtentType>
        <ExtentValue>4969542</ExtentValue>
        <ExtentUnit>17</ExtentUnit>
      </Extent>
    </DescriptiveDetail>
    <CollateralDetail>
    </CollateralDetail>
    <PublishingDetail>
      <Imprint>
        <ImprintIdentifier>
          <ImprintIDType>01</ImprintIDType>
          <IDValue>P1</IDValue>
        </ImprintIdentifier>
        <ImprintName>EDP Sciences</ImprintName>
      </Imprint>
      <Publisher>
        <PublishingRole>01</PublishingRole>
        <PublisherIdentifier>
          <PublisherIDType>01</PublisherIDType>
          <IDValue>P1</IDValue>
        </PublisherIdentifier>
        <PublisherName>EDP Sciences</PublisherName>
        <Website>
          <WebsiteDescription>17 avenue du Hoggar - PA de Courtaboeuf - 91944 Les Ulis cedex A</WebsiteDescription>
          <WebsiteLink>http://publications.edpsciences.org/</WebsiteLink>
        </Website>
      </Publisher>
      <PublishingDate>
        <PublishingDateRole>11</PublishingDateRole>
        <DateFormat>00</DateFormat>
        <Date>20250515</Date>
      </PublishingDate>
    </PublishingDetail>
    <RelatedMaterial>
      <RelatedProduct>
        <ProductRelationCode>02</ProductRelationCode>
        <ProductIdentifier>
          <ProductIDType>01</ProductIDType>
          <IDValue>002881</IDValue>
        </ProductIdentifier>
        <ProductIdentifier>
          <ProductIDType>03</ProductIDType>
          <IDValue>9782759837793</IDValue>
        </ProductIdentifier>
        <ProductIdentifier>
          <ProductIDType>15</ProductIDType>
          <IDValue>9782759837793</IDValue>
        </ProductIdentifier>
      </RelatedProduct>
    </RelatedMaterial>
    <ProductSupply>
      <SupplyDetail>
        <Supplier>
          <SupplierRole>03</SupplierRole>
          <SupplierIdentifier>
            <SupplierIDType>01</SupplierIDType>
            <IDValue>D1</IDValue>
          </SupplierIdentifier>
          <SupplierName>EDP Sciences</SupplierName>
        </Supplier>
        <ProductAvailability>45</ProductAvailability>
        <UnpricedItemType>03</UnpricedItemType>
      </SupplyDetail>
    </ProductSupply>
  </Product>
  <Product>
    <RecordReference>laboutique.edpsciences.fr-002881</RecordReference>
    <NotificationType>03</NotificationType>
    <RecordSourceType>01</RecordSourceType>
    <ProductIdentifier>
      <ProductIDType>01</ProductIDType>
      <IDValue>002881</IDValue>
    </ProductIdentifier>
    <ProductIdentifier>
      <ProductIDType>03</ProductIDType>
      <IDValue>9782759837793</IDValue>
    </ProductIdentifier>
    <ProductIdentifier>
      <ProductIDType>15</ProductIDType>
      <IDValue>9782759837793</IDValue>
    </ProductIdentifier>
    <DescriptiveDetail>
      <ProductComposition>10</ProductComposition>
      <ProductForm>EA</ProductForm>
      <ProductFormDetail>E107</ProductFormDetail>
      <PrimaryContentType>10</PrimaryContentType>
      <EpubTechnicalProtection>00</EpubTechnicalProtection>
      <ProductPart>
        <ProductIdentifier>
          <ProductIDType>01</ProductIDType>
          <IDValue>R002701</IDValue>
        </ProductIdentifier>
        <ProductForm>ED</ProductForm>
        <ProductFormDetail>E107</ProductFormDetail>
        <NumberOfCopies>1</NumberOfCopies>
      </ProductPart>
      <Collection>
        <CollectionType>10</CollectionType>
        <TitleDetail>
          <TitleType>01</TitleType>
          <TitleElement>
            <TitleElementLevel>02</TitleElementLevel>
            <TitleText>PratiqueR</TitleText>
          </TitleElement>
        </TitleDetail>
      </Collection>
      <TitleDetail>
        <TitleType>01</TitleType>
        <TitleElement>
          <TitleElementLevel>01</TitleElementLevel>
          <TitleText>Régression avec Python</TitleText>
        </TitleElement>
      </TitleDetail>
      <Contributor>
        <SequenceNumber>1</SequenceNumber>
        <ContributorRole>A01</ContributorRole>
        <NameIdentifier>
          <NameIDType>01</NameIDType>
          <IDValue>A1790</IDValue>
        </NameIdentifier>
        <PersonName>Pierre-André Cornillon</PersonName>
        <PersonNameInverted>Cornillon, Pierre-André</PersonNameInverted>
        <NamesBeforeKey>Pierre-André</NamesBeforeKey>
        <KeyNames>Cornillon</KeyNames>
        <BiographicalNote>&lt;p&gt;Pierre-André Cornillon est Maître de Conférences à l’université Rennes-2-Haute-Bretagne. &lt;/p&gt;</BiographicalNote>
      </Contributor>
      <Contributor>
        <SequenceNumber>2</SequenceNumber>
        <ContributorRole>A01</ContributorRole>
        <NameIdentifier>
          <NameIDType>01</NameIDType>
          <IDValue>A1791</IDValue>
        </NameIdentifier>
        <PersonName>Nicolas Hengartner</PersonName>
        <PersonNameInverted>Hengartner, Nicolas</PersonNameInverted>
        <NamesBeforeKey>Nicolas</NamesBeforeKey>
        <KeyNames>Hengartner</KeyNames>
        <BiographicalNote language="fre">Après un doctorat en statistique obtenu à l’Université de Berkely (Californie), Nicolas W. Hengartner a rejoint le Département de statistique de l'Université de Yale en tant que professeur adjoint, puis promu professeur associé en 1999. En 2002, il a rejoint le groupe de science statistique du laboratoire national de Los Alamos. Il est actif dans les activités de sensibilisation académique et, en 2004, a été nommé professeur auxiliaire au Département de statistique de l'Université Simon Fraser, Burnaby , au Canada. Ses recherches portent sur l'application transdisciplinaire des statistiques, de la modélisation stochastique et des sciences de l'information à la physique, à l'épidémiologie et aux simulations sociotechniques à grande échelle.</BiographicalNote>
        <BiographicalNote language="eng">&lt;p&gt;Nicolas Hengartner est du Los Alamos National Laboratory (USA)&lt;/p&gt;</BiographicalNote>
      </Contributor>
      <Contributor>
        <SequenceNumber>3</SequenceNumber>
        <ContributorRole>A01</ContributorRole>
        <NameIdentifier>
          <NameIDType>01</NameIDType>
          <IDValue>A1792</IDValue>
        </NameIdentifier>
        <PersonName>Eric Matzner-Løber</PersonName>
        <PersonNameInverted>Matzner-Løber, Eric</PersonNameInverted>
        <NamesBeforeKey>Eric</NamesBeforeKey>
        <KeyNames>Matzner-Løber</KeyNames>
        <BiographicalNote>&lt;p&gt;Eric Matzner-Løber est Professeur à l’université Rennes-2-Haute-Bretagne.&lt;/p&gt;</BiographicalNote>
      </Contributor>
      <Contributor>
        <SequenceNumber>4</SequenceNumber>
        <ContributorRole>A01</ContributorRole>
        <NameIdentifier>
          <NameIDType>01</NameIDType>
          <IDValue>A1793</IDValue>
        </NameIdentifier>
        <PersonName>Laurent Rouvière</PersonName>
        <PersonNameInverted>Rouvière, Laurent</PersonNameInverted>
        <NamesBeforeKey>Laurent</NamesBeforeKey>
        <KeyNames>Rouvière</KeyNames>
        <BiographicalNote>&lt;p&gt;Laurent Rouvière est Maître de Conférences à l’université Rennes-2-Haute-Bretagne.&lt;/p&gt;</BiographicalNote>
      </Contributor>
      <Language>
        <LanguageRole>01</LanguageRole>
        <LanguageCode>fre</LanguageCode>
      </Language>
      <Extent>
        <ExtentType>08</ExtentType>
        <ExtentValue>424</ExtentValue>
        <ExtentUnit>03</ExtentUnit>
      </Extent>
      <Illustrated>01</Illustrated>
      <Subject>
        <MainSubject/>
        <SubjectSchemeIdentifier>24</SubjectSchemeIdentifier>
        <SubjectSchemeName>Izibook:Subject</SubjectSchemeName>
        <SubjectHeadingText>Mathématiques</SubjectHeadingText>
      </Subject>
      <Subject>
        <SubjectSchemeIdentifier>24</SubjectSchemeIdentifier>
        <SubjectSchemeName>Izibook:Subject</SubjectSchemeName>
        <SubjectHeadingText>Informatique</SubjectHeadingText>
      </Subject>
      <Subject>
        <MainSubject/>
        <SubjectSchemeIdentifier>24</SubjectSchemeIdentifier>
        <SubjectSchemeName>Izibook:SubjectAndCategoryAndTags</SubjectSchemeName>
        <SubjectHeadingText>|Mathématiques|</SubjectHeadingText>
      </Subject>
      <Subject>
        <SubjectSchemeIdentifier>24</SubjectSchemeIdentifier>
        <SubjectSchemeName>Izibook:SubjectAndCategoryAndTags</SubjectSchemeName>
        <SubjectHeadingText>|Informatique|</SubjectHeadingText>
      </Subject>
      <Subject>
        <SubjectSchemeIdentifier>20</SubjectSchemeIdentifier>
        <SubjectHeadingText>Régression;inférence;analyse de la variance;covariance;variable;algorithme;modèle linéaire;Poisson;technique de régularisation;données déséquilibrées;régression binaire</SubjectHeadingText>
      </Subject>
      <Subject>
        <SubjectSchemeIdentifier>10</SubjectSchemeIdentifier>
        <SubjectSchemeVersion>2011</SubjectSchemeVersion>
        <SubjectCode>MAT029030</SubjectCode>
      </Subject>
      <Subject>
        <MainSubject/>
        <SubjectSchemeIdentifier>29</SubjectSchemeIdentifier>
        <SubjectCode>CLIL3056</SubjectCode>
      </Subject>
      <Subject>
        <SubjectSchemeIdentifier>29</SubjectSchemeIdentifier>
        <SubjectCode>CLIL3057</SubjectCode>
      </Subject>
      <Subject>
        <SubjectSchemeIdentifier>29</SubjectSchemeIdentifier>
        <SubjectCode>CLIL3231</SubjectCode>
      </Subject>
      <Subject>
        <SubjectSchemeIdentifier>01</SubjectSchemeIdentifier>
        <SubjectCode>510</SubjectCode>
      </Subject>
      <AudienceCode>05</AudienceCode>
      <AudienceCode>06</AudienceCode>
      <AudienceCode>06</AudienceCode>
    </DescriptiveDetail>
    <CollateralDetail>
      <TextContent>
        <TextType>03</TextType>
        <ContentAudience>00</ContentAudience>
        <Text>&lt;blockquote&gt;Cet ouvrage expose de manière détaillée et exemples à l’appui, différentes façons de répondre à un des problèmes statistiques les plus courants : la régression.&lt;br&gt;Cette nouvelle édition se décompose en 4 parties. La première donne les grands principes des régressions simple et multiple par moindres carrés. Les fondamentaux de la méthode tant au niveau des choix opérés que des hypothèses et leur utilité sont expliqués. La deuxième partie est consacrée à l’inférence et présente les outils permettant de vérifier les hypothèses mises en oeuvre. Les techniques d’analyse de la variance et de la covariance sont également présentées dans cette partie. Le cas de la grande dimension est ensuite abordé dans la troisième partie. Différentes méthodes de réduction de la dimension telles que la sélection de variables, les régressions sous contraintes (lasso, elastic-net ou ridge) et sur composantes (PLS ou PCR) sont notamment proposées. Un dernier chapitre propose des algorithmes, basés sur des méthodes de ré-échantillonnage comme l’apprentissage/validation ou la validation croisée, qui permettent d’établir une comparaison entre toutes ces méthodes. Enfin la quatrième et dernière partie se concentre sur les modèles linéaires généralisés et plus particulièrement sur les régressions logistiques et de Poisson avec ou sans technique de régularisation. Une section particulière est consacrée aux comparaisons de méthodes en classification supervisée. Elle introduit notamment des critères de performance pour « scorer » des individus comme les courbes ROC et lift et propose des stratégies de choix seuil (Youden, F1...) pour les classer. Ces notions sont ensuite mises en oeuvre sur des données réelles afin de sélectionner une méthode de prévision parmi plusieurs algorithmes basés sur des modèles logistiques (régularisés ou non). Une dernière section aborde le problème des données déséquilibrées qui est souvent rencontré en régression binaire.&lt;/blockquote&gt;&lt;div&gt;&lt;br&gt;&lt;/div&gt;</Text>
      </TextContent>
      <TextContent>
        <TextType>02</TextType>
        <ContentAudience>00</ContentAudience>
        <Text>&lt;p&gt;Ce livre rappelle les grands principes des régressions simple et multiple par moindres carrés, puis présente l’inférence et les outils permettant de vérifier les hypothèses mises en oeuvre. Le cas de la grande dimension est ensuite abordé, puis les modèles linéaires généralisés et plus particulièrement sur les régressions logistiques et de Poisson.&lt;/p&gt;</Text>
      </TextContent>
      <TextContent>
        <TextType>04</TextType>
        <ContentAudience>00</ContentAudience>
        <Text>&lt;p&gt;Remerciements vii&lt;/p&gt;&lt;p&gt;Avant-Propos ix&lt;/p&gt;&lt;p&gt;I Introduction au modèle linéaire 1&lt;/p&gt;&lt;p&gt;1 La régression linéaire simple 3&lt;/p&gt;&lt;p&gt;1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3&lt;/p&gt;&lt;p&gt;1.1.1 Un exemple : la pollution de l’air . . . . . . . . . . . . . . . 3&lt;/p&gt;&lt;p&gt;1.1.2 Un second exemple : la hauteur des arbres . . . . . . . . . . 5&lt;/p&gt;&lt;p&gt;1.2 Modélisation mathématique . . . . . . . . . . . . . . . . . . . . . 7&lt;/p&gt;&lt;p&gt;1.2.1 Choix du critère de qualité et distance à la droite . . . . . . 7&lt;/p&gt;&lt;p&gt;1.2.2 Choix des fonctions à utiliser . . . . . . . . . . . . . . . . . 9&lt;/p&gt;&lt;p&gt;1.3 Modélisation statistique . . . . . . . . . . . . . . . . . . . . . . . . 10&lt;/p&gt;&lt;p&gt;1.4 Estimateurs des moindres carrés . . . . . . . . . . . . . . . . . . . 11&lt;/p&gt;&lt;p&gt;1.4.1 Calcul des estimateurs de βj , quelques propriétés . . . . . . 11&lt;/p&gt;&lt;p&gt;1.4.2 Résidus et variance résiduelle . . . . . . . . . . . . . . . . . 15&lt;/p&gt;&lt;p&gt;1.4.3 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15&lt;/p&gt;&lt;p&gt;1.5 Interprétations géométriques . . . . . . . . . . . . . . . . . . . . . 16&lt;/p&gt;&lt;p&gt;1.5.1 Représentation des individus . . . . . . . . . . . . . . . . . 16&lt;/p&gt;&lt;p&gt;1.5.2 Représentation des variables . . . . . . . . . . . . . . . . . . 17&lt;/p&gt;&lt;p&gt;1.6 Inférence statistique . . . . . . . . . . . . . . . . . . . . . . . . . . 19&lt;/p&gt;&lt;p&gt;1.7 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22&lt;/p&gt;&lt;p&gt;1.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28&lt;/p&gt;&lt;p&gt;2 La régression linéaire multiple 31&lt;/p&gt;&lt;p&gt;2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31&lt;/p&gt;&lt;p&gt;2.2 Modélisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32&lt;/p&gt;&lt;p&gt;2.3 Estimateurs des moindres carrés . . . . . . . . . . . . . . . . . . . 34&lt;/p&gt;&lt;p&gt;2.3.1 Calcul de ˆ β . . . . . . . . . . . . . . . . . . . . . . . . . . . 35&lt;/p&gt;&lt;p&gt;2.3.2 Interprétation . . . . . . . . . . . . . . . . . . . . . . . . . . 37&lt;/p&gt;&lt;p&gt;2.3.3 Quelques propriétés statistiques . . . . . . . . . . . . . . . . 38&lt;/p&gt;&lt;p&gt;2.3.4 Résidus et variance résiduelle . . . . . . . . . . . . . . . . . 40&lt;/p&gt;&lt;p&gt;2.3.5 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41&lt;/p&gt;&lt;p&gt;2.4 Interprétation géométrique . . . . . . . . . . . . . . . . . . . . . . 42&lt;/p&gt;&lt;p&gt;2.5 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43&lt;/p&gt;&lt;p&gt;2.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46&lt;/p&gt;&lt;p&gt;3 Validation du modèle 51&lt;/p&gt;&lt;p&gt;3.1 Analyse des résidus . . . . . . . . . . . . . . . . . . . . . . . . . . . 52&lt;/p&gt;&lt;p&gt;3.1.1 Les différents résidus . . . . . . . . . . . . . . . . . . . . . . 52&lt;/p&gt;&lt;p&gt;3.1.2 Ajustement individuel au modèle, valeur aberrante . . . . . 53&lt;/p&gt;&lt;p&gt;3.1.3 Analyse de la normalité . . . . . . . . . . . . . . . . . . . . 54&lt;/p&gt;&lt;p&gt;3.1.4 Analyse de l’homoscédasticité . . . . . . . . . . . . . . . . . 55&lt;/p&gt;&lt;p&gt;3.1.5 Analyse de la structure des résidus . . . . . . . . . . . . . . 56&lt;/p&gt;&lt;p&gt;3.2 Analyse de la matrice de projection . . . . . . . . . . . . . . . . . . 59&lt;/p&gt;&lt;p&gt;3.3 Autres mesures diagnostiques . . . . . . . . . . . . . . . . . . . . . 60&lt;/p&gt;&lt;p&gt;3.4 Effet d’une variable explicative . . . . . . . . . . . . . . . . . . . . 63&lt;/p&gt;&lt;p&gt;3.4.1 Ajustement au modèle . . . . . . . . . . . . . . . . . . . . . 63&lt;/p&gt;&lt;p&gt;3.4.2 Régression partielle : impact d’une variable . . . . . . . . . 64&lt;/p&gt;&lt;p&gt;3.4.3 Résidus partiels et résidus partiels augmentés . . . . . . . . 65&lt;/p&gt;&lt;p&gt;3.5 Exemple : la concentration en ozone . . . . . . . . . . . . . . . . . 67&lt;/p&gt;&lt;p&gt;3.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71&lt;/p&gt;&lt;p&gt;4 Extensions : non-inversibilité et (ou) erreurs corrélées 73&lt;/p&gt;&lt;p&gt;4.1 Régression ridge . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73&lt;/p&gt;&lt;p&gt;4.1.1 Une solution historique . . . . . . . . . . . . . . . . . . . . 74&lt;/p&gt;&lt;p&gt;4.1.2 Minimisation des MCO pénalisés . . . . . . . . . . . . . . . 75&lt;/p&gt;&lt;p&gt;4.1.3 Equivalence avec une contrainte sur la norme des coefficients 75&lt;/p&gt;&lt;p&gt;4.1.4 Propriétés statistiques de l’estimateur ridge ˆ βridge . . . . . . 76&lt;/p&gt;&lt;p&gt;4.2 Erreurs corrélées : moindres carrés généralisés . . . . . . . . . . . . . 78&lt;/p&gt;&lt;p&gt;4.2.1 Erreurs hétéroscédastiques . . . . . . . . . . . . . . . . . . . 79&lt;/p&gt;&lt;p&gt;4.2.2 Estimateur des moindres carrés généralisés . . . . . . . . . 81&lt;/p&gt;&lt;p&gt;4.2.3 Matrice Ω inconnue . . . . . . . . . . . . . . . . . . . . . . 84&lt;/p&gt;&lt;p&gt;4.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85&lt;/p&gt;&lt;p&gt;5 Régression polynomiale et régression spline 87&lt;/p&gt;&lt;p&gt;5.1 Régression polynomiale . . . . . . . . . . . . . . . . . . . . . . . . 87&lt;/p&gt;&lt;p&gt;5.2 Régression spline . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91&lt;/p&gt;&lt;p&gt;5.2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . 91&lt;/p&gt;&lt;p&gt;5.2.2 Spline de régression . . . . . . . . . . . . . . . . . . . . . . 92&lt;/p&gt;&lt;p&gt;5.3 Spline de lissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96&lt;/p&gt;&lt;p&gt;5.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99&lt;/p&gt;&lt;p&gt;II Inférence 101&lt;/p&gt;&lt;p&gt;6 Inférence dans le modèle gaussien 103&lt;/p&gt;&lt;p&gt;6.1 Estimateurs du maximum de vraisemblance . . . . . . . . . . . . . 103&lt;/p&gt;&lt;p&gt;Table des matières xiii&lt;/p&gt;&lt;p&gt;6.2 Nouvelles propriétés statistiques . . . . . . . . . . . . . . . . . . . 104&lt;/p&gt;&lt;p&gt;6.3 Intervalles et régions de confiance . . . . . . . . . . . . . . . . . . . 106&lt;/p&gt;&lt;p&gt;6.4 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109&lt;/p&gt;&lt;p&gt;6.5 Les tests d’hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . 110&lt;/p&gt;&lt;p&gt;6.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . 110&lt;/p&gt;&lt;p&gt;6.5.2 Test entre modèles emboîtés . . . . . . . . . . . . . . . . . . 111&lt;/p&gt;&lt;p&gt;6.6 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114&lt;/p&gt;&lt;p&gt;6.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118&lt;/p&gt;&lt;p&gt;6.8 Notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121&lt;/p&gt;&lt;p&gt;6.8.1 Intervalle de confiance : bootstrap . . . . . . . . . . . . . . 121&lt;/p&gt;&lt;p&gt;6.8.2 Test de Fisher pour une hypothèse linéaire quelconque . . . 123&lt;/p&gt;&lt;p&gt;6.8.3 Propriétés asymptotiques . . . . . . . . . . . . . . . . . . . 125&lt;/p&gt;&lt;p&gt;7 Variables qualitatives : ANCOVA et ANOVA 129&lt;/p&gt;&lt;p&gt;7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129&lt;/p&gt;&lt;p&gt;7.2 Analyse de la covariance . . . . . . . . . . . . . . . . . . . . . . . . 131&lt;/p&gt;&lt;p&gt;7.2.1 Introduction : exemple des eucalyptus . . . . . . . . . . . . 131&lt;/p&gt;&lt;p&gt;7.2.2 Modélisation du problème . . . . . . . . . . . . . . . . . . . 133&lt;/p&gt;&lt;p&gt;7.2.3 Hypothèse gaussienne . . . . . . . . . . . . . . . . . . . . . 135&lt;/p&gt;&lt;p&gt;7.2.4 Exemple : la concentration en ozone . . . . . . . . . . . . . 136&lt;/p&gt;&lt;p&gt;7.2.5 Exemple : la hauteur des eucalyptus . . . . . . . . . . . . . 140&lt;/p&gt;&lt;p&gt;7.3 Analyse de la variance à 1 facteur . . . . . . . . . . . . . . . . . . . 142&lt;/p&gt;&lt;p&gt;7.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . 142&lt;/p&gt;&lt;p&gt;7.3.2 Modélisation du problème . . . . . . . . . . . . . . . . . . . 143&lt;/p&gt;&lt;p&gt;7.3.3 Interprétation des contraintes . . . . . . . . . . . . . . . . . 145&lt;/p&gt;&lt;p&gt;7.3.4 Estimation des paramètres . . . . . . . . . . . . . . . . . . 145&lt;/p&gt;&lt;p&gt;7.3.5 Hypothèse gaussienne et test d’influence du facteur . . . . . 147&lt;/p&gt;&lt;p&gt;7.3.6 Exemple : la concentration en ozone . . . . . . . . . . . . . 148&lt;/p&gt;&lt;p&gt;7.3.7 Une décomposition directe de la variance . . . . . . . . . . 152&lt;/p&gt;&lt;p&gt;7.4 Analyse de la variance à 2 facteurs . . . . . . . . . . . . . . . . . . 153&lt;/p&gt;&lt;p&gt;7.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . 153&lt;/p&gt;&lt;p&gt;7.4.2 Modélisation du problème . . . . . . . . . . . . . . . . . . . 154&lt;/p&gt;&lt;p&gt;7.4.3 Estimation des paramètres . . . . . . . . . . . . . . . . . . 156&lt;/p&gt;&lt;p&gt;7.4.4 Analyse graphique de l’interaction . . . . . . . . . . . . . . 157&lt;/p&gt;&lt;p&gt;7.4.5 Hypothèse gaussienne et test de l’interaction . . . . . . . . 158&lt;/p&gt;&lt;p&gt;7.4.6 Exemple : la concentration en ozone . . . . . . . . . . . . . 161&lt;/p&gt;&lt;p&gt;7.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162&lt;/p&gt;&lt;p&gt;7.6 Note : identifiabilité et contrastes . . . . . . . . . . . . . . . . . . . 165&lt;/p&gt;&lt;p&gt;III Réduction de dimension 167&lt;/p&gt;&lt;p&gt;8 Choix de variables 169&lt;/p&gt;&lt;p&gt;8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169&lt;/p&gt;&lt;p&gt;8.2 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171&lt;/p&gt;&lt;p&gt;8.3 Choix incorrect de variables : conséquences . . . . . . . . . . . . . 172&lt;/p&gt;&lt;p&gt;8.3.1 Biais des estimateurs . . . . . . . . . . . . . . . . . . . . . 172&lt;/p&gt;&lt;p&gt;8.3.2 Variance des estimateurs . . . . . . . . . . . . . . . . . . . . 174&lt;/p&gt;&lt;p&gt;8.3.3 Erreur quadratique moyenne . . . . . . . . . . . . . . . . . 175&lt;/p&gt;&lt;p&gt;8.3.4 Erreur quadratique moyenne de prévision . . . . . . . . . . 177&lt;/p&gt;&lt;p&gt;8.4 Critères classiques de choix de modèles . . . . . . . . . . . . . . . 179&lt;/p&gt;&lt;p&gt;8.4.1 Tests entre modèles emboîtés . . . . . . . . . . . . . . . . . 180&lt;/p&gt;&lt;p&gt;8.4.2 Le R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181&lt;/p&gt;&lt;p&gt;8.4.3 Le R2 ajusté . . . . . . . . . . . . . . . . . . . . . . . . . . 182&lt;/p&gt;&lt;p&gt;8.4.4 Le Cp de Mallows . . . . . . . . . . . . . . . . . . . . . . . 183&lt;/p&gt;&lt;p&gt;8.4.5 Vraisemblance et pénalisation . . . . . . . . . . . . . . . . . 185&lt;/p&gt;&lt;p&gt;8.4.6 Liens entre les critères . . . . . . . . . . . . . . . . . . . . . 187&lt;/p&gt;&lt;p&gt;8.5 Procédure de sélection . . . . . . . . . . . . . . . . . . . . . . . . . 189&lt;/p&gt;&lt;p&gt;8.5.1 Recherche exhaustive . . . . . . . . . . . . . . . . . . . . . . 189&lt;/p&gt;&lt;p&gt;8.5.2 Recherche pas à pas . . . . . . . . . . . . . . . . . . . . . . 189&lt;/p&gt;&lt;p&gt;8.6 Exemple : la concentration en ozone . . . . . . . . . . . . . . . . . 191&lt;/p&gt;&lt;p&gt;8.6.1 Variables explicatives quantitatives . . . . . . . . . . . . . . 191&lt;/p&gt;&lt;p&gt;8.6.2 Intégration de variables qualitatives . . . . . . . . . . . . . 192&lt;/p&gt;&lt;p&gt;8.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193&lt;/p&gt;&lt;p&gt;8.8 Note : Cp et biais de sélection . . . . . . . . . . . . . . . . . . . . . 195&lt;/p&gt;&lt;p&gt;9 Régularisation des moindres carrés : ridge, lasso et elastic-net 199&lt;/p&gt;&lt;p&gt;9.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199&lt;/p&gt;&lt;p&gt;9.2 Problème du centrage réduction des variables . . . . . . . . . . . . 202&lt;/p&gt;&lt;p&gt;9.3 Propriétés des régressions ridge et lasso . . . . . . . . . . . . . . . 203&lt;/p&gt;&lt;p&gt;9.3.1 Interprétation géométrique . . . . . . . . . . . . . . . . . . 207&lt;/p&gt;&lt;p&gt;9.3.2 Simplification quand les X sont orthogonaux . . . . . . . . 209&lt;/p&gt;&lt;p&gt;9.3.3 Choix de λ par validation croisée . . . . . . . . . . . . . . . 211&lt;/p&gt;&lt;p&gt;9.4 Régularisation avec le module scikitlearn . . . . . . . . . . . . . . . 214&lt;/p&gt;&lt;p&gt;9.4.1 Estimation des paramètres . . . . . . . . . . . . . . . . . . 215&lt;/p&gt;&lt;p&gt;9.4.2 Chemin de régularisation . . . . . . . . . . . . . . . . . . . 216&lt;/p&gt;&lt;p&gt;9.4.3 Choix du paramètre de régularisation α . . . . . . . . . . . 217&lt;/p&gt;&lt;p&gt;9.4.4 Mise en pratique . . . . . . . . . . . . . . . . . . . . . . . . 219&lt;/p&gt;&lt;p&gt;9.5 Intégration de variables qualitatives . . . . . . . . . . . . . . . . . 219&lt;/p&gt;&lt;p&gt;9.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222&lt;/p&gt;&lt;p&gt;9.7 Note : lars et lasso . . . . . . . . . . . . . . . . . . . . . . . . . . . 226&lt;/p&gt;&lt;p&gt;10 Régression sur composantes : PCR et PLS 229&lt;/p&gt;&lt;p&gt;10.1 Régression sur composantes principales (PCR) . . . . . . . . . . . 230&lt;/p&gt;&lt;p&gt;10.1.1 Changement de base . . . . . . . . . . . . . . . . . . . . . . 230&lt;/p&gt;&lt;p&gt;10.1.2 Estimateurs des MCO . . . . . . . . . . . . . . . . . . . . . 231&lt;/p&gt;&lt;p&gt;10.1.3 Choix de composantes/variables . . . . . . . . . . . . . . . 232&lt;/p&gt;&lt;p&gt;10.1.4 Retour aux données d’origine . . . . . . . . . . . . . . . . . 234&lt;/p&gt;&lt;p&gt;10.1.5 La régression sur composantes en pratique . . . . . . . . . . 235&lt;/p&gt;&lt;p&gt;10.2 Régression aux moindres carrés partiels (PLS) . . . . . . . . . . . . 238&lt;/p&gt;&lt;p&gt;10.2.1 Algorithmes PLS . . . . . . . . . . . . . . . . . . . . . . . . 240&lt;/p&gt;&lt;p&gt;10.2.2 Choix de composantes/variables . . . . . . . . . . . . . . . 240&lt;/p&gt;&lt;p&gt;10.2.3 Retour aux données d’origine . . . . . . . . . . . . . . . . . 241&lt;/p&gt;&lt;p&gt;10.2.4 La régression PLS en pratique . . . . . . . . . . . . . . . . 243&lt;/p&gt;&lt;p&gt;10.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244&lt;/p&gt;&lt;p&gt;10.4 Notes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246&lt;/p&gt;&lt;p&gt;10.4.1 ACP et changement de base . . . . . . . . . . . . . . . . . . 246&lt;/p&gt;&lt;p&gt;10.4.2 Colinéarité parfaite : |X’X|=0 . . . . . . . . . . . . . . . . 247&lt;/p&gt;&lt;p&gt;11 Comparaison des différentes méthodes, étude de cas réels 251&lt;/p&gt;&lt;p&gt;11.1 Erreur de prévision et validation croisée . . . . . . . . . . . . . . . 251&lt;/p&gt;&lt;p&gt;11.2 Analyse de l’ozone . . . . . . . . . . . . . . . . . . . . . . . . . . . 255&lt;/p&gt;&lt;p&gt;11.2.1 Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . 255&lt;/p&gt;&lt;p&gt;11.2.2 Méthodes et comparaison . . . . . . . . . . . . . . . . . . . 256&lt;/p&gt;&lt;p&gt;11.3 Modification de variables : feature engineering . . . . . . . . . . . . 259&lt;/p&gt;&lt;p&gt;11.3.1 Modèle de prévision avec interactions . . . . . . . . . . . . 259&lt;/p&gt;&lt;p&gt;11.3.2 Modèle de prévision avec des polynômes . . . . . . . . . . . 260&lt;/p&gt;&lt;p&gt;11.3.3 Modèle de prévision avec des splines . . . . . . . . . . . . . 260&lt;/p&gt;&lt;p&gt;11.3.4 Modèle de prévision avec interactions et splines . . . . . . . 261&lt;/p&gt;&lt;p&gt;11.3.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 262&lt;/p&gt;&lt;p&gt;IV Le modèle linéaire généralisé 263&lt;/p&gt;&lt;p&gt;12 Régression logistique 265&lt;/p&gt;&lt;p&gt;12.1 Présentation du modèle . . . . . . . . . . . . . . . . . . . . . . . . 265&lt;/p&gt;&lt;p&gt;12.1.1 Exemple introductif . . . . . . . . . . . . . . . . . . . . . . 265&lt;/p&gt;&lt;p&gt;12.1.2 Modélisation statistique . . . . . . . . . . . . . . . . . . . . 266&lt;/p&gt;&lt;p&gt;12.1.3 Variables explicatives qualitatives, interactions . . . . . . . 269&lt;/p&gt;&lt;p&gt;12.2 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271&lt;/p&gt;&lt;p&gt;12.2.1 La vraisemblance . . . . . . . . . . . . . . . . . . . . . . . . 271&lt;/p&gt;&lt;p&gt;12.2.2 Calcul des estimateurs : l’algorithme IRLS . . . . . . . . . . 273&lt;/p&gt;&lt;p&gt;12.2.3 Propriétés asymptotiques de l’EMV . . . . . . . . . . . . . 274&lt;/p&gt;&lt;p&gt;12.3 Intervalles de confiance et tests . . . . . . . . . . . . . . . . . . . . 275&lt;/p&gt;&lt;p&gt;12.3.1 IC et tests sur les paramètres du modèle . . . . . . . . . . . 276&lt;/p&gt;&lt;p&gt;12.3.2 Test sur un sous-ensemble de paramètres . . . . . . . . . . 277&lt;/p&gt;&lt;p&gt;12.3.3 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280&lt;/p&gt;&lt;p&gt;12.4 Adéquation du modèle . . . . . . . . . . . . . . . . . . . . . . . . . 282&lt;/p&gt;&lt;p&gt;12.4.1 Le modèle saturé . . . . . . . . . . . . . . . . . . . . . . . . 283&lt;/p&gt;&lt;p&gt;12.4.2 Tests d’adéquation de la déviance et de Pearson . . . . . . 285&lt;/p&gt;&lt;p&gt;12.4.3 Analyse des résidus . . . . . . . . . . . . . . . . . . . . . . . 288&lt;/p&gt;&lt;p&gt;12.5 Choix de variables . . . . . . . . . . . . . . . . . . . . . . . . . . . 292&lt;/p&gt;&lt;p&gt;12.5.1 Tests entre modèles emboîtés . . . . . . . . . . . . . . . . . 292&lt;/p&gt;&lt;p&gt;12.5.2 Procédures automatiques . . . . . . . . . . . . . . . . . . . 293&lt;/p&gt;&lt;p&gt;12.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295&lt;/p&gt;&lt;p&gt;13 Régression de Poisson 301&lt;/p&gt;&lt;p&gt;13.1 Le modèle linéaire généralisé (GLM) . . . . . . . . . . . . . . . . . 301&lt;/p&gt;&lt;p&gt;13.2 Exemple : modélisation du nombre de visites . . . . . . . . . . . . 304&lt;/p&gt;&lt;p&gt;13.3 Régression Log-linéaire . . . . . . . . . . . . . . . . . . . . . . . . . 307&lt;/p&gt;&lt;p&gt;13.3.1 Le modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307&lt;/p&gt;&lt;p&gt;13.3.2 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . 308&lt;/p&gt;&lt;p&gt;13.3.3 Tests et intervalles de confiance . . . . . . . . . . . . . . . . 309&lt;/p&gt;&lt;p&gt;13.3.4 Choix de variables . . . . . . . . . . . . . . . . . . . . . . . 313&lt;/p&gt;&lt;p&gt;13.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314&lt;/p&gt;&lt;p&gt;14 Régularisation de la vraisemblance 319&lt;/p&gt;&lt;p&gt;14.1 Régressions ridge, lasso et elastic-net . . . . . . . . . . . . . . . . . 319&lt;/p&gt;&lt;p&gt;14.2 Choix du paramètre de régularisation λ . . . . . . . . . . . . . . . 324&lt;/p&gt;&lt;p&gt;14.3 Group-lasso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327&lt;/p&gt;&lt;p&gt;14.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329&lt;/p&gt;&lt;p&gt;15 Comparaison en classification supervisée 331&lt;/p&gt;&lt;p&gt;15.1 Prévision en classification supervisée . . . . . . . . . . . . . . . . . 331&lt;/p&gt;&lt;p&gt;15.2 Performance d’une règle . . . . . . . . . . . . . . . . . . . . . . . . 333&lt;/p&gt;&lt;p&gt;15.2.1 Erreur de classification et accuracy . . . . . . . . . . . . . . 336&lt;/p&gt;&lt;p&gt;15.2.2 Sensibilité (recall) et taux de faux négatifs . . . . . . . . . . 337&lt;/p&gt;&lt;p&gt;15.2.3 Spécificité et taux de faux positifs . . . . . . . . . . . . . . 337&lt;/p&gt;&lt;p&gt;15.2.4 Mesure sur les tables de contingence . . . . . . . . . . . . . 338&lt;/p&gt;&lt;p&gt;15.3 Performance d’un score . . . . . . . . . . . . . . . . . . . . . . . . 339&lt;/p&gt;&lt;p&gt;15.3.1 Courbe ROC . . . . . . . . . . . . . . . . . . . . . . . . . . 339&lt;/p&gt;&lt;p&gt;15.3.2 Courbe lift . . . . . . . . . . . . . . . . . . . . . . . . . . . 341&lt;/p&gt;&lt;p&gt;15.4 Choix du seuil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342&lt;/p&gt;&lt;p&gt;15.4.1 Respect des proportions initiales . . . . . . . . . . . . . . . 342&lt;/p&gt;&lt;p&gt;15.4.2 Maximisation d’indices ad hoc . . . . . . . . . . . . . . . . 342&lt;/p&gt;&lt;p&gt;15.4.3 Maximisation d’un coût moyen . . . . . . . . . . . . . . . . 343&lt;/p&gt;&lt;p&gt;15.5 Analyse des données chd . . . . . . . . . . . . . . . . . . . . . . . . 344&lt;/p&gt;&lt;p&gt;15.5.1 Les données . . . . . . . . . . . . . . . . . . . . . . . . . . . 344&lt;/p&gt;&lt;p&gt;15.5.2 Méthodes et comparaison . . . . . . . . . . . . . . . . . . . 344&lt;/p&gt;&lt;p&gt;15.6Modification de variables : feature engineering . . . . . . . . . . . . 351&lt;/p&gt;&lt;p&gt;15.6.1 Modèle de prévision avec interactions . . . . . . . . . . . . 352&lt;/p&gt;&lt;p&gt;15.6.2 Modèle de prévision avec des polynômes . . . . . . . . . . . 352&lt;/p&gt;&lt;p&gt;15.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354&lt;/p&gt;&lt;p&gt;16 Données déséquilibrées 357&lt;/p&gt;&lt;p&gt;16.1 Données déséquilibrées et modèle logistique . . . . . . . . . . . . . 357&lt;/p&gt;&lt;p&gt;16.1.1 Un exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . 357&lt;/p&gt;&lt;p&gt;16.1.2 Rééquilibrage pour le modèle logistique . . . . . . . . . . . 359&lt;/p&gt;&lt;p&gt;16.1.3 Exemples de schéma de rééquilibrage . . . . . . . . . . . . . 360&lt;/p&gt;&lt;p&gt;16.2 Stratégies pour données déséquilibrées . . . . . . . . . . . . . . . . 365&lt;/p&gt;&lt;p&gt;16.2.1 Quelques méthodes de rééquilibrage . . . . . . . . . . . . . 365&lt;/p&gt;&lt;p&gt;16.2.2 Critères pour données déséquilibrées . . . . . . . . . . . . . 370&lt;/p&gt;&lt;p&gt;16.3 Choisir un algorithme de rééquilibrage . . . . . . . . . . . . . . . . 373&lt;/p&gt;&lt;p&gt;16.3.1 Rééquilibrage et validation croisée . . . . . . . . . . . . . . 374&lt;/p&gt;&lt;p&gt;16.3.2 Application aux données d’images publicitaires . . . . . . . 375&lt;/p&gt;&lt;p&gt;16.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379&lt;/p&gt;&lt;p&gt;A Rappels 381&lt;/p&gt;&lt;p&gt;A.1 Rappels d’algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381&lt;/p&gt;&lt;p&gt;A.2 Rappels de probabilités . . . . . . . . . . . . . . . . . . . . . . . . 384&lt;/p&gt;&lt;p&gt;A.3 Modules Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385&lt;/p&gt;&lt;p&gt;Bibliographie 391&lt;/p&gt;&lt;p&gt;Index 395&lt;/p&gt;&lt;p&gt;Notations 403&lt;/p&gt;&lt;p&gt;Fonctions et modules python 405&lt;/p&gt;&lt;div&gt;&lt;br&gt;&lt;/div&gt;</Text>
      </TextContent>
      <SupportingResource>
        <ResourceContentType>21</ResourceContentType>
        <ContentAudience>00</ContentAudience>
        <ResourceMode>06</ResourceMode>
        <ResourceVersion>
          <ResourceForm>01</ResourceForm>
          <ResourceLink>https://laboutique.edpsciences.fr/produit/1476/9782759837793/regression-avec-python</ResourceLink>
        </ResourceVersion>
      </SupportingResource>
      <SupportingResource>
        <ResourceContentType>01</ResourceContentType>
        <ContentAudience>00</ContentAudience>
        <ResourceMode>03</ResourceMode>
        <ResourceVersion>
          <ResourceForm>02</ResourceForm>
          <ResourceLink>https://laboutique.edpsciences.fr/system/product_pictures/data/009/983/353/original/9782759824328-Regression-python_couv-sofedis.jpg</ResourceLink>
          <ContentDate>
            <ContentDateRole>17</ContentDateRole>
            <DateFormat>14</DateFormat>
            <Date>20250306T163035+0100</Date>
          </ContentDate>
        </ResourceVersion>
      </SupportingResource>
    </CollateralDetail>
    <PublishingDetail>
      <Imprint>
        <ImprintIdentifier>
          <ImprintIDType>01</ImprintIDType>
          <IDValue>P1</IDValue>
        </ImprintIdentifier>
        <ImprintName>EDP Sciences</ImprintName>
      </Imprint>
      <Publisher>
        <PublishingRole>01</PublishingRole>
        <PublisherIdentifier>
          <PublisherIDType>01</PublisherIDType>
          <IDValue>P1</IDValue>
        </PublisherIdentifier>
        <PublisherName>EDP Sciences</PublisherName>
        <Website>
          <WebsiteDescription>17 avenue du Hoggar - PA de Courtaboeuf - 91944 Les Ulis cedex A</WebsiteDescription>
          <WebsiteLink>http://publications.edpsciences.org/</WebsiteLink>
        </Website>
      </Publisher>
      <PublishingStatus>04</PublishingStatus>
      <PublishingDate>
        <PublishingDateRole>11</PublishingDateRole>
        <DateFormat>00</DateFormat>
        <Date>20250515</Date>
      </PublishingDate>
      <PublishingDate>
        <PublishingDateRole>01</PublishingDateRole>
        <DateFormat>00</DateFormat>
        <Date>20250515</Date>
      </PublishingDate>
      <PublishingDate>
        <PublishingDateRole>19</PublishingDateRole>
        <DateFormat>00</DateFormat>
        <Date>20250515</Date>
      </PublishingDate>
      <CopyrightStatement>
        <CopyrightYear>2026</CopyrightYear>
        <CopyrightOwner>
          <CopyrightOwnerIdentifier>
            <CopyrightOwnerIDType>06</CopyrightOwnerIDType>
            <IDValue>3052868830012</IDValue>
          </CopyrightOwnerIdentifier>
        </CopyrightOwner>
      </CopyrightStatement>
      <SalesRights>
        <SalesRightsType>01</SalesRightsType>
        <Territory>
          <RegionsIncluded>WORLD</RegionsIncluded>
        </Territory>
      </SalesRights>
    </PublishingDetail>
    <RelatedMaterial>
      <RelatedProduct>
        <ProductRelationCode>13</ProductRelationCode>
        <ProductIdentifier>
          <ProductIDType>03</ProductIDType>
          <IDValue>9782759824328</IDValue>
        </ProductIdentifier>
        <ProductIdentifier>
          <ProductIDType>15</ProductIDType>
          <IDValue>9782759824328</IDValue>
        </ProductIdentifier>
      </RelatedProduct>
    </RelatedMaterial>
    <ProductSupply>
      <Market>
        <Territory>
          <RegionsIncluded>WORLD</RegionsIncluded>
        </Territory>
      </Market>
      <MarketPublishingDetail>
        <PublisherRepresentative>
          <AgentRole>08</AgentRole>
          <AgentName>EDP Sciences</AgentName>
        </PublisherRepresentative>
        <MarketPublishingStatus>04</MarketPublishingStatus>
        <MarketDate>
          <MarketDateRole>01</MarketDateRole>
          <DateFormat>00</DateFormat>
          <Date>20250515</Date>
        </MarketDate>
      </MarketPublishingDetail>
      <SupplyDetail>
        <Supplier>
          <SupplierRole>03</SupplierRole>
          <SupplierIdentifier>
            <SupplierIDType>01</SupplierIDType>
            <IDValue>D1</IDValue>
          </SupplierIdentifier>
          <SupplierName>EDP Sciences</SupplierName>
        </Supplier>
        <ProductAvailability>20</ProductAvailability>
        <Price>
          <PriceType>04</PriceType>
          <PriceQualifier>05</PriceQualifier>
          <PriceCondition>
            <PriceConditionType>01</PriceConditionType>
            <PriceConditionQuantity>
              <PriceConditionQuantityType>02</PriceConditionQuantityType>
              <Quantity>1</Quantity>
              <QuantityUnit>00</QuantityUnit>
            </PriceConditionQuantity>
          </PriceCondition>
          <PriceAmount>22.99</PriceAmount>
          <Tax>
            <TaxType>01</TaxType>
            <TaxRatePercent>5.50</TaxRatePercent>
            <TaxAmount>1.20</TaxAmount>
          </Tax>
          <CurrencyCode>EUR</CurrencyCode>
        </Price>
        <Price>
          <PriceType>04</PriceType>
          <PriceQualifier>06</PriceQualifier>
          <PriceCondition>
            <PriceConditionType>01</PriceConditionType>
            <PriceConditionQuantity>
              <PriceConditionQuantityType>02</PriceConditionQuantityType>
              <Quantity>1</Quantity>
              <QuantityUnit>00</QuantityUnit>
            </PriceConditionQuantity>
          </PriceCondition>
          <PriceAmount>82.99</PriceAmount>
          <Tax>
            <TaxType>01</TaxType>
            <TaxRatePercent>5.50</TaxRatePercent>
            <TaxAmount>1.20</TaxAmount>
          </Tax>
          <CurrencyCode>EUR</CurrencyCode>
          <PrintedOnProduct>01</PrintedOnProduct>
        </Price>
        <Price>
          <PriceType>04</PriceType>
          <PriceQualifier>06</PriceQualifier>
          <PriceCondition>
            <PriceConditionType>01</PriceConditionType>
            <PriceConditionQuantity>
              <PriceConditionQuantityType>02</PriceConditionQuantityType>
              <Quantity>1</Quantity>
              <QuantityUnit>00</QuantityUnit>
            </PriceConditionQuantity>
          </PriceCondition>
          <PriceAmount>90.99</PriceAmount>
          <Tax>
            <TaxType>01</TaxType>
            <TaxRatePercent>5.50</TaxRatePercent>
            <TaxAmount>4.74</TaxAmount>
          </Tax>
          <CurrencyCode>USD</CurrencyCode>
          <PrintedOnProduct>01</PrintedOnProduct>
        </Price>
      </SupplyDetail>
    </ProductSupply>
  </Product>
</ONIXMessage>
