Comment comparer les méthodes de prévision?

8

J'ai plusieurs données intermittentes. Sur la base de ces données, je voudrais comparer plusieurs méthodes de prévision (lissage exponentiel, moyenne mobile, Croston et Syntetos-Boylan), et décider si Croston ou Syntetos Boylan est meilleur que SES ou MA pour les données intermittentes ou non. La mesure que je voudrais comparer est le taux absolu moyen ou le taux carré moyen proposé par Kourentzes (2014) au lieu de la mesure MAPE, MSE habituelle, à chaque niveau du paramètre de lissage \ alpha $, en supposant que le paramètre de lissage utilisé pour l'intervalle entre les demandes et la taille de la demande à Croston et Syntetos boylan est la même.

Ma question est: 1. Considérant que pour chaque donnée, il y a la possibilité que la valeur de l'alpha optimal soit différente pour chaque méthode de lissage, donc une valeur d'alpha dans une méthode peut minimiser le MAR ou MSR et pas dans une autre méthode , de sorte qu'une méthode peut être meilleure qu'une autre méthode pour cette valeur d'alpha et peut ne pas l'être dans une autre méthode. Comment résout-on ce genre de problème? ma solution actuelle est de comparer les deux graphiques de MAR pour chaque niveau d'alpha entre deux méthodes différentes. je m'attends à ce que les deux méthodes différentes présentent des caractéristiques différentes lors de l'analyse du profil.

  1. Existe-t-il une meilleure solution, comme la conception expérimentale? Je suis plutôt confus quant à la façon de concevoir les expériences. l'observation est ces plusieurs données, le niveau est en train de lisser le paramètre alpha, le traitement est ces méthodes. et la valeur est le MAR. est-ce viable? et logique à faire? L'hypothèse est de savoir s'il existe des différences dans chaque traitement à chaque niveau d'alpha ou non. et je doute que l'hypothèse de linéarité soit remplie ici.

Edit: Quoi qu'il en soit, je ne pense pas que ce soit viable comme question de recherche. Le fait que la mesure d'erreur soit dépendante de l'échelle (si ma définition de l'échelle dépendante est juste) a rendu l'étude de ce problème assez problématique, car il n'y a aucun moyen de comparer les différentes méthodes de prévision.

Fikri
la source
1
Avez-vous envisagé de tester vos prévisions à partir de différentes méthodes de prévision?
prévisionniste
Je ne sais pas s'il y a un sens à retenir des données d'échantillonnage dans la méthode Croston. pour autant que je sache, les prévisions de croston et de syntetos boylan devaient être évaluées chaque fois qu'il y avait une demande. par conséquent, évaluer les prévisions en retenant des données d'échantillon me semble étrange.
Fikri
oui, vous pouvez utiliser les données bloquées pour les données intermittentes. C'est le seul moyen de vous assurer que les paramètres de votre modèle sont fiables. Si vous avez de petites données, j'utiliserais une validation croisée ou des méthos de couteau. Dans cet article, les auteurs ont comparé les méthodes de prévision en utilisant des données d'initialisation et de test (maintien) pour la prévision intermittente et la méthode de Croston en fait partie.
prévisionniste
Avez-vous google "comparaison des prévisions"? Il y a beaucoup de recherches dans ce domaine en économétrie depuis au moins les années 1980
Aksakal

Réponses:

0

Modèle: yt+1=f(y0,,yt,a)+ϵt

a est un vecteur de paramètres de modèle

Ce que vous proposez actuellement est essentiellement:

  1. Pour chaque modèle f(y0,,yt,a) utiliser une sorte de moindres carrés / NLS pour s'adapter à un modèle (trouver a)
  2. Choisissez un α valeur
  3. Utiliser une fonction g(f(y0,,yt,a),α) évaluer les modèles.
  4. Si le modèle optimal dépend en grande partie de αalors ????

Pouvez-vous faire un échantillonnage endogène? Si oui, que diriez-vous d'estimer directement les fonctions optimales (fixer la maximisation)g(f(y0,,yt,a),α) directement pour plusieurs valeurs de α. Vous pouvez prendre les modèles et les exécuter en parallèle, en faisant une famille de prédictions. Vous pourriez alors augmenter la probabilité d'échantillonnage lorsque les modèles étaient en désaccord, en particulier dans leurs prévisions. Cela augmenterait le caractère informatif de l'échantillonnage limité pour distinguer les modèles.

BKay
la source