Je recherche une référence (ou des références) solides sur les techniques d'optimisation numérique destinées aux statisticiens, c'est-à-dire qu'elles appliqueraient ces méthodes à certains problèmes inférentiels standard (par exemple MAP / MLE dans les modèles courants). Des choses comme la descente de gradient (droite et stochastique), l'EM et ses retombées / généralisations, le recuit simulé, etc.
J'espère qu'il contiendrait des notes pratiques sur la mise en œuvre (si souvent manquantes dans les documents). Il ne doit pas être complètement explicite mais devrait au moins fournir une bibliographie solide.
Quelques recherches superficielles ont révélé quelques textes: Analyse numérique pour les statisticiens de Ken Lange et Méthodes numériques de statistique de John Monahan. Les critiques de chacun semblent mitigées (et clairsemées). Des deux, une lecture de la table des matières suggère que la 2e édition du livre de Lange est la plus proche de ce que je recherche.
Réponses:
Statistiques computationnelles de James Gentle (2009).
Algèbre matricielle de James Gentle: théorie, calculs et applications en statistique (2007) , plus encore vers la fin du livre, le début est bien aussi mais ce n'est pas exactement ce que vous recherchez.
Reconnaissance des formes de Christopher M. Bishop (2006).
Les éléments de l'apprentissage statistique de Hastie et al.: Exploration de données, inférence et prédiction (2009).
Recherchez-vous quelque chose d'aussi bas niveau qu'un texte qui répondra à une question telle que: "Pourquoi est-il plus efficace de stocker des matrices et des tableaux de dimensions supérieures en tant que tableau 1-D, et comment puis-je les indexer dans le M habituel (0, 1, 3, ...) façon? " ou quelque chose comme "Quelles sont les techniques courantes utilisées pour optimiser les algorithmes standard tels que la descente de gradient, EM, etc.?"?
La plupart des textes sur l'apprentissage automatique fourniront des discussions approfondies sur le (s) sujet (s) que vous recherchez.
la source
Livre Nocedal et Wrights
http://users.eecs.northwestern.edu/~nocedal/book/
est une bonne référence pour l'optimisation en général, et beaucoup de choses dans leur livre intéressent un statisticien. Il existe également un chapitre entier sur les moindres carrés non linéaires.
la source
Optimization , par Kenneth Lange (Springer, 2004), révisé dans JASA par Russell Steele. C'est un bon manuel avec l' algèbre matricielle de Gentle pour un cours d'introduction au calcul matriciel et à l'optimisation, comme celui de Jan de Leeuw (courses / 202B).
la source
En complément de ceux-ci, vous pouvez trouver Magnus, JR et H. Neudecker (2007). Matrix Calculus with Applications in Statistics and Econometrics, 3rd ed utile quoique lourd. Il développe un traitement complet des opérations infinitésimales avec des matrices, puis les applique à un certain nombre de tâches statistiques typiques telles que l'optimisation, le MLE et les moindres carrés non linéaires. Si à la fin de la journée vous finirez par trouver la stabilité en arrière de vos algorithmes matriciels, une bonne compréhension du calcul matriciel sera indispensable. J'ai personnellement utilisé les outils du calcul matriciel pour dériver des résultats asymptotiques dans les statistiques spatiales et les modèles paramétriques multivariés.
la source