Pour motiver la question, considérons un problème de régression où nous cherchons à estimer utilisant les variables observées
Lors de la régression polynomiale multivariée, j'essaie de trouver la paramétrisation optimale de la fonction
qui correspondent le mieux aux données dans un sens le moins carré.
Le problème avec cela, cependant, est que les paramètres ne sont pas indépendants. Existe-t-il un moyen de faire la régression sur un ensemble différent de vecteurs "de base" qui sont orthogonaux? Cela présente de nombreux avantages évidents
1) les coefficients ne sont plus corrélés. 2) les valeurs des elles-mêmes ne dépendent plus du degré des coefficients. 3) Cela a également l'avantage de pouvoir supprimer les termes d'ordre supérieur pour une approximation plus grossière mais toujours précise des données.
Ceci est facilement réalisé dans le cas à variable unique en utilisant des polynômes orthogonaux, en utilisant un ensemble bien étudié tel que les polynômes de Chebyshev. Il n'est cependant pas évident (pour moi de toute façon) comment généraliser cela! Il m'est venu à l'esprit que je pouvais multiplier les polynômes de Chebyshev par paire, mais je ne suis pas sûr que ce soit la chose mathématiquement correcte à faire.
Votre aide est appréciée
la source
Réponses:
Par souci d'achèvement (et pour aider à améliorer les statistiques de ce site, ha), je dois me demander si ce document ne répondrait pas également à votre question?
Sinon, la base produit-tenseur des polynômes unidimensionnels n'est pas seulement la technique appropriée, mais aussi la seule que je puisse trouver pour cela.
la source