Un modèle exponentiel est un modèle décrit par l'équation suivante:
L'approche la plus couramment utilisée pour estimer un tel modèle est la linéarisation, qui peut être effectuée facilement en calculant les logarithmes des deux côtés. Quelles sont les autres approches? Je suis particulièrement intéressé par ceux qui peuvent gérer dans certaines observations.
Mise à jour 31.01.2011
Je suis conscient du fait que ce modèle ne peut pas produire zéro. Je vais élaborer un peu ce que je modélise et pourquoi je choisis ce modèle. Disons que nous voulons prédire combien d'argent un client dépense dans un magasin. Bien sûr, de nombreux clients ne font que regarder et n'achètent rien, c'est pourquoi il y en a 0. Je ne voulais pas utiliser de modèle linéaire car il produit beaucoup de valeurs négatives, ce qui n'a aucun sens. L'autre raison est que ce modèle fonctionne vraiment bien, bien mieux que le linéaire. J'ai utilisé un algorithme génétique pour estimer ces paramètres, ce n'était donc pas une approche «scientifique». J'aimerais maintenant savoir comment résoudre un problème en utilisant des méthodes plus scientifiques. On peut également supposer que la plupart, voire la totalité, des variables sont des variables binaires.
la source
Réponses:
Il y a plusieurs problèmes ici.
(1) Le modèle doit être explicitement probabiliste . Dans presque tous les cas, il n'y aura aucun ensemble de paramètres pour lesquels le lhs correspond au rhs pour toutes vos données: il y aura des résidus. Vous devez faire des hypothèses sur ces résidus. Vous attendez-vous à ce qu'ils soient nuls en moyenne? Pour être distribué symétriquement? Pour être distribué approximativement normalement?
Voici deux modèles qui sont en accord avec celui spécifié mais qui autorisent un comportement résiduel radicalement différent (et qui entraîneront donc généralement des estimations de paramètres différentes). Vous pouvez faire varier ces modèles en faisant varier les hypothèses sur la distribution conjointe de :ϵi
B: y i = β 0 exp ( β 1 x 1 i + … + β k x k i ) + ϵ i .
(Notez que ce sont des modèles pour les données ; il n'existe généralement pas de valeur de données estimée .)^ y iyi yi^
(2) La nécessité de gérer des valeurs nulles pour les y implique que le modèle indiqué (A) est à la fois erroné et inadéquat , car il ne peut pas produire une valeur nulle quelle que soit l'erreur aléatoire. Le deuxième modèle ci-dessus (B) autorise des valeurs nulles (voire négatives) de y. Cependant, il ne faut pas choisir un modèle uniquement sur cette base. Pour réitérer # 1: il est important de modéliser raisonnablement bien les erreurs.
(3) La linéarisation modifie le modèle . En règle générale, il en résulte des modèles comme (A) mais pas comme (B). Il est utilisé par des personnes qui ont suffisamment analysé leurs données pour savoir que ce changement n'affectera pas sensiblement les estimations des paramètres et par des personnes qui ignorent ce qui se passe. (Il est difficile, souvent, de faire la différence.)
(4) Une manière courante de gérer la possibilité d'une valeur nulle est de proposer que (ou une certaine ré-expression de celle-ci, comme la racine carrée) ait une chance strictement positive égale à zéro. Mathématiquement, nous mélangeons une masse ponctuelle (une "fonction delta") avec une autre distribution. Ces modèles ressemblent à ceci:y
où est l'un des paramètres implicites du vecteur , est une famille de distributions paramétrées par et est la réexpression des (la fonction "link" d'un modèle linéaire généralisé: voir la réponse de onestop). (Bien sûr, alors, = lorsque ) Les exemples sont les Modèles de Poisson et de Binôme négatifs gonflés à zéro .PrFθ[f(Y)=0]=θj+1>0 F θ 1 , … , θ j f y Pr F θ [ f ( Y ) ≤ t ] ( 1 - θ j + 1 ) F θ ( t ) t ≠ 0θ F θ1,…,θj f y PrFθ[f(Y)≤t] (1−θj+1)Fθ(t) t≠0
(5) Les problèmes de construction et d'adaptation d'un modèle sont liés mais différents . À titre d'exemple simple, même un modèle de régression ordinaire peut être ajusté de nombreuses façons au moyen des moindres carrés (ce qui donne les mêmes estimations de paramètres que le maximum de vraisemblance et presque les mêmes erreurs standard), moindres carrés itérativement repondérés , diverses autres formes de « moindres carrés robustes », etc. Le choix de l'adaptation est souvent basé sur la commodité, l'opportunité ( par exemple , la disponibilité du logiciel), la familiarité, l'habitude ou la convention, mais au moins une réflexion devrait être donné à ce qui est approprié pour la distribution supposée des termes d'erreur , à ce que leϵ iY=β0+β1X+ϵ ϵi la fonction de perte pour le problème pourrait raisonnablement être, et à la possibilité d'exploiter des informations supplémentaires (comme une distribution préalable des paramètres).
la source
Il s'agit d'un modèle linéaire généralisé (GLM) avec une fonction de liaison logarithmique .
Toute distribution de probabilité sur avec une densité non nulle à zéro gérera dans certaines observations; la plus courante serait la distribution de Poisson, entraînant une régression de Poisson , alias modélisation log-linéaire. Un autre choix serait une distribution binomiale négative .y i = 0[0,∞) yi=0
Si vous ne disposez pas de données de comptage ou si prend des valeurs non entières, vous pouvez toujours utiliser le cadre des modèles linéaires généralisés sans spécifier complètement une distribution pour mais à la place spécifiant uniquement la relation entre sa moyenne et sa variance en utilisant la quasi-vraisemblance . P ( y i | x )yi P(yi|x)
la source
Vous pouvez toujours utiliser des moindres carrés non linéaires . Ensuite, votre modèle sera:
Les zéros de seront alors traités comme des écarts par rapport à la tendance non linéaire.yi
la source