Statistiques et Big Data

20
Erreur de prédiction attendue - dérivation

J'ai du mal à comprendre la dérivation de l'erreur de prédiction attendue ci-dessous (ESL), en particulier sur la dérivation de 2.11 et 2.12 (conditionnement, le pas vers le minimum point par point). Tous les pointeurs ou liens très appréciés. Ci-dessous, je rapporte l'extrait de ESL pg. 18. Les...

20
Interprétation des résultats de spline

J'essaie d'adapter une spline pour un GLM à l'aide de R. Une fois que j'ai ajusté la spline, je veux pouvoir prendre mon modèle résultant et créer un fichier de modélisation dans un classeur Excel. Par exemple, supposons que j'ai un ensemble de données où y est une fonction aléatoire de x et la...

20
Machine d'apprentissage extrême: de quoi s'agit-il?

Je réfléchis, implémente et utilise le paradigme ELM (Extreme Learning Machine) depuis plus d'un an maintenant, et plus je le fais, plus je doute que ce soit vraiment une bonne chose. Mon opinion, cependant, semble être en contraste avec la communauté scientifique où - lors de l'utilisation de...

20
Y a-t-il un avantage de SVD sur PCA?

Je sais comment calculer mathématiquement PCA et SVD, et je sais que les deux peuvent être appliqués à la régression linéaire des moindres carrés. Le principal avantage de SVD semble mathématiquement être qu'il peut être appliqué à des matrices non carrées. Les deux se concentrent sur la...

20
Pourquoi les valeurs estimées d'un meilleur prédicteur linéaire sans biais (BLUP) diffèrent-elles d'un meilleur estimateur linéaire sans biais (BLUE)?

Je comprends que la différence entre eux est liée au fait que la variable de regroupement dans le modèle est estimée comme un effet fixe ou aléatoire, mais je ne comprends pas pourquoi elles ne sont pas les mêmes (si elles ne sont pas les mêmes). Je suis particulièrement intéressé par la façon dont...