DSpace À propos de l'application DSpace
 

Depot Institutionnel de l'UMBB >
Mémoires de Master 2 >
Faculté des Sciences >
Mathématique >
Modélisation Stochastique et Statistique >

Veuillez utiliser cette adresse pour citer ce document : http://dlibrary.univ-boumerdes.dz:8080/handle/123456789/12160

Titre: Régression linéaires aux valeurs extrêmes
Auteur(s): Gariti, Kenza
Haddad, Nawal
Benmansour, M.Promoteur
Mots-clés: Régression
Estimation robuste
Estimateur non robuste
Simulation et comparaison
Date de publication: 2022
Editeur: UNIVERSITE M’HAMED BOUGARA - BOUMERDES : Faculté des sciences
Résumé: Pour conclure, la présence de données aberrantes dans une expérience peut grandement affecter les résultats. Dans ce mémoire nous avons présenté différentes méthodes d’estimation qui permettent d’obtenir des résultats qui ne seront peu affectés par la présence de données aberrantes. Pour une régression linéaire, l’influence d’une observation augmente si son résidu est grand (valeur extrême de y) ou si elle a un grand effet de levier (valeur extrême de x). La distance de Cook mesure l’effet combiné de ces deux facteurs. La régression robuste basée sur les MM-estimateurs (fonction lmrob du package robustbase) produit des estimés presque aussi précis que la régression linéaire si les suppositions de celle-ci sont respectées, tout en étant beaucoup moins sensibles à la présence de quelques valeurs extrêmes. Dans les statistiques robustes, la régression robuste est une forme d’analyse de régression conçue pour surmonter certaines limites des méthodes paramétriques et non paramétriques traditionnelles. L’analyse de régression cherche à trouver la relation entre une ou plusieurs variables indépendantes et une variable dépendante. Certaines méthodes de régression largement utilisées, telles que les moindres carrés ordinaires, ont des propriétés favorables si leurs hypothèses sous-jacentes sont vraies, mais peuvent donner des résultats trompeurs si ces hypothèses ne sont pas vraies ; on dit donc que les moindres carrés ordinaires ne sont pas robustes aux violations de ses hypothèses. Les méthodes de régression robustes sont conçues pour ne pas être trop affectées par les violations des hypothèses par le processus de génération de données sous-jacent. En particulier, les estimations des moindres carrés pour les modèles de régression sont très sensibles aux valeurs aberrantes. Bien qu’il n’y ait pas de définition précise d’une valeur aberrante, les valeurs aberrantes sont des observations qui ne suivent pas le modèle des autres observations. Ce n’est normalement pas un problème si la valeur aberrante est simplement une observation extrême tirée de la queue d’une distribution normale, mais si la valeur aberrante résulte d’une erreur de mesure non normale ou d’une autre violation des hypothèses standard des moindres carrés ordinaires, cela compromet la validité. des résultats de la régression si une technique de régression non robuste est utilisée Ce mémoire sera principalement consacré à l’étude des méthodes de régression robuste et la dernière partie de celui ci sera dédiée à l’application de ces méthodes aux données obtenues par la simulation d’un modèle de régression linéaire simple sous logiciel R. 123 On a trouver que la MM-estimation est la plus robuste parmi les cinq méthode qu’on a traité dans ce mémoire.
Description: 135 p. : ill. ; 30 cm.
URI/URL: http://dlibrary.univ-boumerdes.dz:8080/handle/123456789/12160
Collection(s) :Modélisation Stochastique et Statistique

Fichier(s) constituant ce document :

Fichier Description TailleFormat
KENZA NAWEL FIN D'ETUDE.pdf3,54 MBAdobe PDFVoir/Ouvrir
View Statistics

Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.

 

Valid XHTML 1.0! Ce site utilise l'application DSpace, Version 1.4.1 - Commentaires