Questions marquées «bagging»

L'ensachage ou l'agrégation bootstrap est un cas particulier de moyennage modèle. Étant donné un ensemble d'entraînement standard, l'ensachage génère m m nouveaux ensembles d'entraînement par bootstrapping, puis les résultats de l'utilisation d'une méthode d'entraînement sur le m m les ensembles de données générés sont moyennés. L'ensachage peut stabiliser les résultats de certaines méthodes instables telles que les arbres.

17
Boosting et ensachage des arbres (XGBoost, LightGBM)

Il existe de nombreux articles de blog, vidéos YouTube, etc. sur les idées d' ensachage ou de renforcement des arbres. Ma compréhension générale est que le pseudo-code pour chacun est: Ensachage: Prélever N échantillons aléatoires de x% des échantillons et y% des fonctionnalités Ajustez votre...

15
Quelle méthode de comparaison multiple utiliser pour un modèle lmer: lsmeans ou glht?

J'analyse un ensemble de données à l'aide d'un modèle à effets mixtes avec un effet fixe (condition) et deux effets aléatoires (participant en raison de la conception et de la paire du sujet). Le modèle a été généré avec le lme4package:

9
Confusion liée à la technique d'ensachage

J'ai un peu de confusion. Je lisais cet article où il expliquait que la technique d'ensachage réduit considérablement la variance et n'augmente que légèrement le biais. Je ne l'ai pas compris comment cela réduit la variance. Je sais ce qu'est la variance et le biais. Le biais est l'incapacité du...