J'ai un grand contenu statique que je dois fournir via un serveur Web basé sur Linux. Il s'agit d'un ensemble de plus d'un million de petits fichiers gzip. 90% des fichiers sont inférieurs à 1 Ko et les fichiers restants sont au plus 50 Ko. À l'avenir, cela pourrait atteindre plus de 10 millions de fichiers gzip.
Dois-je mettre ce contenu dans une structure de fichiers ou dois-je envisager de mettre tout ce contenu dans une base de données? S'il se trouve dans une structure de fichiers, puis-je utiliser de grands répertoires ou dois-je envisager des répertoires plus petits?
On m'a dit qu'une structure de fichiers serait plus rapide pour la livraison, mais d'un autre côté, je sais que les fichiers prendront beaucoup d'espace sur le disque, car les blocs de fichiers seront plus de 1K.
Quelle est la meilleure stratégie concernant les performances de livraison?
METTRE À JOUR
Pour mémoire, j'ai effectué un test sous Windows 7, avec un demi-million de fichiers:
la source