2. Add your first bullet point here
Add your second bullet point here
Add your third bullet point here
3. Introduction générale
les méthodes d'estimation non paramétriques et semi-paramétriques ont
connu un regain d'intérêt particulier en statistique et en économétrie, du fait
qu'elles permettent une plus grande flexibilité à la fois dans l'estimation de
densités de probabilité et dans le choix de modèles de régression
De nombreuses applications, notamment en économie (répartition des
revenus, étude de la convergence économique, etc.) et en finance (la
dynamique du taux d'intérêt, mesure des rendements et de leur volatilité,
etc.) ont eu recours à ces techniques utilisant plusieurs types de données
(individuelles, temporelles et qualitatives).
5. Introduction
La régression non paramétrique est un outil statistique permettant de décrire la relation
entre une variable dépendante et une ou plusieurs variables explicatives, sans supposer
une forme particulière pour cette relation.
Cette méthode permet de construire une forme d’analyse de la régression dans laquelle la
fonction d’estimation, ne prend pas une forme prédéterminée.
Elle est construite selon les informations provenant des données et exige que la taille
d’échantillon soit plus importante que celle de la régression basée sur des modèles
paramétriques parce que les données doivent fournir la structure du modèle ainsi que
l’estimation du modèle.
Parmi les méthodes non paramétriques les plus robustes :
-La méthode à noyau.
-La méthode Loess (par polynôme locale et par polynôme localepondéré).
-La méthode spline.
6. 1-La méthode à noyau de Nadaraya-Watson
Considérer le modèle de régression
Y=m(X) + ԑ
où ԑ ∼i.i.d.(0, σ2), X variable (aléatoire) explicative and Y la réponse. La fonction m(.)est
de forme inconnue.
Comment estimer m, en observant l’échantillon (Xi,Yi )n
i=1 ?
Supposons que nous ayons un ensemble de données disponible avec des observations
(x1,y1),...,(xn , yn). Un estimateur à noyau simple de m(x) est l’estimateur Nadaraya-
Watson kernel régression (1964), défini comme
7. avec K(·)pour certaines fonctions du noyau et paramètres de fenêtre
h>0. La fonction K(·)est généralement une densité de probabilité
symétrique et des exemples de fonctions de noyau couramment
utilisées sont le noyau gaussien K(t) =(√2π)−1 exp(− t 2/2)et
Epanechnikov kernel K(t) = max{3
4 (1− t 2),0}
Comment interpréter cet estimateur ?
•Moyenne locale
•Moindres carrés pondérés
•Vraisemblance locale
8. Moyenne locale et Moindres carrés pondérés
Soit n* nombres d’observations Xi proche de x (c.à.d. d’une distance < h de x) et Ix
l’ensemble des indices de ces observations. On peut écrire
Ceci résulte en l’estimateur NW avec noyau uniforme :
L’estimation de régression à noyau ˆm(x)est aussi appelée estimateur local constant car
L’estimateur NW peut être obtenu comme minimisation du critère
Par rapport à m pour un x donné.
9. 2- La régression locale (loess)
La régression locale, ou LOESS, est une méthode de régression non
paramétrique fortement connexe qui combine plusieurs modèles de régression
multiple au sein d’un méta-modèle qui repose sur la méthode des k plus proches
voisins. « LOESS »est, en anglais, l’acronyme de « LOcally Estimated
Scatterplot Smoothing ».
Dans une régression loess, l’ajustement de la courbe se fait localement. Pour
déterminer la valeur y que prend la courbe au point d’abscisse xi, on ajuste un
polynôme de degré 1 ou 2 aux points au voisinage de xi. Cet ajustement se fait
avec pondération : les points les plus proches de xi ont davantage de poids dans
l’ajustement
10. 3- La régression par lissage de spline
Dans la méthode La régression par lissage de spline, les données sont ajustées à un
ensemble de fonctions de base de splines avec un ensemble réduit de nœuds, généralement
par les moindres carrés. ... Cela combine les nœuds réduits des splines de régression, avec la
pénalité de rugosité du lissage des splines . Les splines de lissage sont une approche
puissante pour estimer les relations fonctionnelles entre un prédicteur X et une réponse Y.
Les splines sont largement utilisées pour l’interpolation et l’approximation des données
échantillonnées à un ensemble discret de points - par ex. pour l’interpolation de séries
temporelles . Les nœuds sont là où les pentes changent, et un seul niveau de continuité est
appliqué. Lorsque je discute de splines cubiques(avec les 3 niveaux de continuité habituels) ou
de splines cubiques naturelles (splines cubiques restreintes à queue linéaire),je parle souvent
de manière vague de "un nœud est l’endroit où un changement de courbure se produit" ou où
un "changement
12. introduction
Les modèles semi-paramétriques ont alors été développés pour conjuguer les
avantages des approches paramétriques et non paramétriques, `a savoir la capacité
d’interprétation des modèles paramétriques et la souplesse des modèles non
paramétriques. Dans de tels modèles, la variable `a expliquer y dépend généralement
de x par le biais d’un nombre fini de paramètres euclidiens θ 0 1 , . . . , θ0 K et d’un
paramètre fonctionnel f. Dans la section suivante, nous présentons le modèle de
référence dans le cadre on va travailler dans la suite de ce mémoire.
13. Le principe de cette méthode
Assez populaires
Combinent des éléments des 2 approches
Compromis
S’appuient sur des paramètres
Donc inconsistant en cas de fausse spécification
Utiles lorsque
La malédiction de la dimensionnalité fait que le np ne fonctionne pas bien
On veut utiliser un modèle paramétrique pour seulement une partie des répresseurs
...
Pas une méthode
plutôt un cahier de recettes propres à des cas particuliers
14. Extensions du modèle linéaire
Modèles partiellement linéaires
Les splines sont un autre cas partiellement linéaire
Coefficients aléatoires
Modèles à index unique
y dichotomique
y inconnu
15. Les avantages
une méthode semi-paramétrique qui présente l’avantage de fournir des tests de
significativité des paramètres et des procédures de choix de modèles sans avoir à
faire des hypothèses (difficilement testables) sur la forme des lois de probabilités des
variables d’intérêt.
Ces méthodes permettent en particulier de tester les hypothèses faites sur les
moments conditionnels et de les estimer, sans faire d’hypothèse sur les lois et sans
être confronté au problème des paramètres incidents.
les modèles semi-paramétriques ont été développés. Ces modèles dépendent
généralement d’un paramètre de dimension finie, not ́e θ, ainsi que d’une fonction de
lien f à estimer
16. Les motifs d'utilisation de cette modèle
l’avantage de cette méthode est de prendre en compte l’arrivée temporelle des
informations et d’affiner ainsi au fil du temps les algorithmes d’estimation mis en
œuvre. Un intérêt majeur de ces méthodes est qu’il n’est pas nécessaire de relancer le
calcul de l’estimateur sur la totalité des données a` chaque fois que la base de
données est complétée par de nouvelles observations. L’idée est ici d’utiliser les
estimations calculées sur la base de données initiales et de les remettre a` jour en
tenant uniquement compte des nouvelles données arrivant dans la base. Le gain en
terme de temps de calculs peut être très intéressant et les applications d’une telle
approche sont nombreuses.
17. Title and Content Layout with Chart
0
1
2
3
4
5
6
Category 1 Category 2 Category 3 Category 4
Series 1 Series 2 Series 3
18. Two Content Layout with Table
First bullet point here
Second bullet point here
Third bullet point here
Class Group 1 Group 2
Class 1 82 95
Class 2 76 88
Class 3 84 90
19. Title and Content Layout with SmartArt
Task
description
Task
description
Task
description
Task
description
Step
1 Title
Task
description
Task
description
Task
description
Step
2 Title
Task
description
Task
description
Step
3 Title
Task
description
Task
description
Step
4 Title