Pourquoi xgboost est-il tellement plus rapide que sklearn GradientBoostingClassifier?
J'essaie de former un modèle d'augmentation de gradient sur plus de 50k exemples avec 100 fonctionnalités numériques. XGBClassifiergère 500 arbres en 43 secondes sur ma machine, alors qu'il GradientBoostingClassifierne gère que 10 arbres (!) en 1 minute et 2 secondes :( Je n'ai pas pris la peine...
scikit-learn
xgboost
gbm
data-mining
classification
data-cleaning
machine-learning
reinforcement-learning
data-mining
bigdata
dataset
nlp
language-model
stanford-nlp
machine-learning
neural-network
deep-learning
randomized-algorithms
machine-learning
beginner
career
xgboost
loss-function
neural-network
software-recommendation
naive-bayes-classifier
classification
scikit-learn
feature-selection
r
random-forest
cross-validation
data-mining
python
scikit-learn
random-forest
churn
python
clustering
k-means
machine-learning
nlp
sentiment-analysis
machine-learning
programming
python
scikit-learn
nltk
gensim
visualization
data
csv
neural-network
deep-learning
descriptive-statistics
machine-learning
supervised-learning
text-mining
orange
data
parameter-estimation
python
pandas
scraping
r
clustering
k-means
unsupervised-learning