Je suis un R noob qui est tenu de faire divers types d'analyses sur de grands ensembles de données dans R. Donc, en regardant autour de ce site et ailleurs, il m'a semblé qu'il y avait beaucoup de problèmes ésotériques et moins connus impliqués ici - comme quel package utiliser quand, quelles transformations appliquer (ne pas) appliquer aux données, etc.
Je me demande simplement s'il existe un livre / tutoriel / guide qui démystifie tout cela et présente les informations de manière systématique? Je préfère faire cela au lieu de regarder autour de moi et de rassembler des informations provenant de différentes sources en ligne.
Merci d'avance.
r
large-data
TeachMeR
la source
la source
Réponses:
Voici quelques articles de blog que j'ai faits sur ce sujet des grands ensembles de données avec R. Il existe quelques packages comme ff et bigmemory qui utilisent l'échange de fichiers et l'allocation de mémoire. Quelques autres packages utilisent la connectivité aux bases de données telles que sqldf, RMySQL et RSQLite.
R Références pour la gestion des Big Data
Régression logistique Big Data en R avec ODBC
la source