Disons que je calcule certains paramètres du modèle en minimisant la somme des résidus au carré, et je suppose que mes erreurs sont gaussiennes. Mon modèle produit des dérivées analytiques, donc l'optimiseur n'a pas besoin d'utiliser des différences finies. Une fois l'ajustement terminé, je veux calculer les erreurs standard des paramètres ajustés.
Généralement, dans cette situation, la Hesse de la fonction d'erreur est considérée comme étant liée à la matrice de covariance par: où est la variance des résidus.σ 2
Lorsqu'aucune dérivée analytique de l'erreur n'est disponible, il est généralement impossible de calculer la Hesse, donc est considéré comme une bonne approximation.
Cependant, dans mon cas, j'ai un J analytique, il est donc relativement bon marché pour moi de calculer H par différenciation finie J.
Donc, ma question est la suivante: serait-il plus précis d'approximer H en utilisant mon J exact et d'appliquer l'approximation ci-dessus, ou d'approximer H par différenciation finie J?
la source
h_actual = (x + h_desired) - x