Statistiques et Big Data

10
Variance des résistances en parallèle

Supposons que vous ayez un ensemble de résistances R, qui sont toutes distribuées avec la moyenne μ et la variance σ. Considérons une section d'un circuit avec la disposition suivante: (r) || (r + r) || (r + r + r). La résistance équivalente de chaque partie est r, 2r et 3r. La variance de chaque...

10
Ajustement de la distribution log-normale dans R vs. SciPy

J'ai adapté un modèle lognormal utilisant R avec un ensemble de données. Les paramètres résultants étaient: meanlog = 4.2991610 sdlog = 0.5511349 J'aimerais transférer ce modèle sur Scipy, que je n'ai jamais utilisé auparavant. En utilisant Scipy, j'ai pu obtenir une forme et une échelle de 1 et...

10
Temps de survie moyen pour une fonction de survie log-normale

J'ai trouvé beaucoup de formules montrant comment trouver le temps de survie moyen pour une distribution exponentielle ou de Weibull, mais j'ai beaucoup moins de chance pour les fonctions de survie log-normales. Étant donné la fonction de survie suivante: S( t ) = 1 - ϕ [ ln( t ) -...

10
Questions sur la spécification de modèles mixtes linéaires dans R pour les données de mesures répétées avec une structure d'imbrication supplémentaire

Structure de données > str(data) 'data.frame': 6138 obs. of 10 variables: $ RT : int 484 391 422 516 563 531 406 500 516 578 ... $ ASCORE : num 5.1 4 3.8 2.6 2.7 6.5 4.9 2.9 2.6 7.2 ... $ HSCORE : num 6 2.1 7.9 1 6.9 8.9 8.2 3.6 1.7 8.6 ... $ MVMNT : Factor w/ 2 levels "_Withd","Appr": 2 2 1 1 2...

10
Kurtosis gigantesque?

Je fais des statistiques descriptives des rendements quotidiens des indices boursiers. Autrement dit, si et sont les niveaux de l'indice au jour 1 et au jour 2, respectivement, alors est le retour que j'utilise (tout à fait standard dans la littérature).P 2 l o g e ( P 2P1P1P_1P2P2P_2l o ge(...

10
Un modèle de P (Y | X) peut-il être formé par descente de gradient stochastique à partir d'échantillons non iid de P (X) et d'iid échantillons de P (Y | X)?

Lors de la formation d'un modèle paramétré (par exemple pour maximiser la probabilité) par descente de gradient stochastique sur certains ensembles de données, il est communément supposé que les échantillons d'apprentissage sont tirés de la distribution des données d'apprentissage. Donc, si...