Statistiques et Big Data

9
Peut-on rejeter une hypothèse nulle avec des intervalles de confiance produits par échantillonnage plutôt que l'hypothèse nulle?

On m'a appris que nous pouvons produire une estimation de paramètre sous la forme d'un intervalle de confiance après échantillonnage à partir d'une population. Par exemple, des intervalles de confiance à 95%, sans hypothèse non respectée, devraient avoir un taux de réussite de 95% pour contenir...

9
Améliorer l'estimateur minimum

Supposons que je nnn paramètres positifs pour estimer μ1,μ2,...,μnμ1,μ2,...,μn\mu_1,\mu_2,...,\mu_n et leur correspondant nnn estimations non biaisées produites par les estimateurs μ1^,μ2^,...,μn^μ1^,μ2^,...,μn^\hat{\mu_1},\hat{\mu_2},...,\hat{\mu_n} , soit E[μ1^]=μ1E[μ1^]=μ1\mathrm...

9
Densité antérieure non informative sur la normale

L'analyse des données bayésiennes (p. 64) dit, concernant un modèle normal : une densité a priori vague sensible pour μμ\mu et σσ\sigma, en supposant une indépendance préalable des paramètres de localisation et d'échelle, est uniforme sur ( μ , logσ)(μ,Journal⁡σ)(\mu, \log \sigma), ou équivalent, p...

9
Optimisation de la descente de gradient

J'essaie de comprendre l'optimisation de la descente de gradient dans les algorithmes ML (machine learning). Je comprends qu'il ya une fonction où le coût l'objectif est de minimiser l'erreur y - y . Dans un scénario où les poids w 1 , w 2 sont optimisés pour donner l'erreur minimale et des...