Pourquoi le matériel ralentit-il avec le temps?

38

Pourquoi le matériel ralentit-il avec le temps? Je suis propriétaire d’un PC depuis 1990 et chaque ordinateur que j’ai eu dans ma vie est devenu vraiment très lent après 3-4 ans (même avec une réinstallation complète du système). C'est le cas avec les PC Windows. C'est également le cas avec Apple Hardware. Pourquoi cela arrive-t-il? Cela peut-il être évité?

Alexey Kulikov
la source
17
Les fées de l'informatique s'ennuient et vont dans un endroit plus rapide :(
Phoshi
1
@ Fées informatiques Phoshi? Je pensais que c’était des gremlins qui dévoraient les cycles du processeur.
alex
2
Les fées font en sorte que le processeur fonctionne mieux. C'est une bataille constante.
Phoshi
11
fées informatiques? bah. C'est un fait bien connu que les hamsters plus âgés ne courent pas aussi vite que les plus jeunes. vous devez ouvrir le boîtier et échanger de temps en temps un hamster frais.
Quack Quotote
2
La plus grande question est de savoir quoi faire avec les hamsters usés. J'ai nommé les deux derniers "Cheaper Than" et "Cat Food", mais je ne suis pas convaincu que ce soit la meilleure méthode d'élimination.
Quack Quackote

Réponses:

32

Parfois, c’est le matériel, en particulier avec les ordinateurs portables. Les processeurs modernes disposent de circuits pour les protéger contre la surchauffe et réduiront délibérément la vitesse du processeur si la température à cœur devient trop chaude (ou également pour économiser de l'énergie lorsque la demande est faible et que vous utilisez des batteries. Intel appelle la fonction "SpeedStep" leurs processeurs). Si vous remarquez que votre ventilateur tourne tout le temps ou que la machine chauffe excessivement autour de la sortie du ventilateur de refroidissement, les «voies respiratoires» de votre ordinateur peuvent s'être obstruées par la poussière.

J'avais un Dell Latitude qui fonctionnait comme neuf après l'avoir ouvert et enlevé une "éponge" d'épaisseur d'environ un quart de pouce d'épaisseur de poussière entre le ventilateur et le dissipateur de chaleur. En fait, Dell propose sur son site Web des instructions de service téléchargeables qui expliquent toutes les étapes à suivre pour ouvrir la machine et accéder à ce type de service. Si vous n'êtes pas à l'aise avec cela, vous avez probablement un ami technophile qui vous aidera. Sinon, le risque en vaut la peine si vous envisagez de vous débarrasser de la machine autrement!

Si vous pensez que cela pourrait être le cas sur votre ordinateur, essayez de télécharger un utilitaire tel que "SpeedFan" qui vous permet de vérifier la température de votre CPU ainsi que d'autres composants. Avec cette application, vous pouvez représenter graphiquement les températures lorsque vous démarrez la machine pour la première fois. S'ils commencent à grimper rapidement et ne semblent jamais diminuer, vous pouvez parier que le refroidissement est un problème. Dans mon cas, j’ai également utilisé une application gratuite appelée "CS Fire Monitor" pour me montrer la vitesse réelle de mon processeur et j’ai constaté qu’une fois qu’il faisait chaud, il tombait à moins de la moitié de la vitesse. Il y a beaucoup de bons logiciels gratuits qui vous montreront ce type d'informations. juste "CPU Temp Freeware" ou "CPU Speed ​​Freeware" ou quelque chose du genre et vous trouverez toutes sortes d'options.

Espérons que cela évitera à quelques personnes de remplacer ou de jeter du matériel informatique correct nécessitant une thérapie respiratoire!

Todd Corson
la source
38

Il y a quelques effets ici:

  1. Votre perception de la rapidité avec laquelle l'ordinateur devrait évoluer. Lorsque vous recevez un nouveau matériel, vous avez quelque chose de concret à comparer: l'ancien matériel. Cela vous donne une mesure empirique de l'amélioration de la vitesse. Au fil du temps, votre mémoire sur la lenteur avec laquelle le vieux matériel s'effaçait s'estompe.
  2. De nouvelles versions de logiciels apparaissent qui ajoutent de nouvelles fonctionnalités pour étendre les fonctionnalités ou utiliser le nouveau matériel. Ce sera, par définition, un programme plus volumineux qu’avant, qui nécessitera plus de ressources, ce qui ralentira un peu le fonctionnement de votre matériel.
  3. Accumulation de pilotes, programmes / tâches exécutés en arrière-plan, etc. Chaque tâche supplémentaire de pilote / arrière-plan nécessite un peu plus de ressources - espace sur le disque dur, mémoire, cycles de processeur etc. Bien que chacun ne soit pas important, l'effet est cumulatif. Les gens s'attendent à ce que les programmes modernes se mettent à jour eux-mêmes. Il y a donc d'autres tâches en cours d'exécution dont vous n'êtes pas au courant. Plus vous avez l'ordinateur longtemps, plus vous aurez probablement installé ces programmes.

Pris ensemble, ils donnent l’impression que le matériel ralentit.

Il peut également y avoir d'autres effets dus à l'usure du matériel (fragmentation du disque, latence de la mémoire).

ChrisF
la source
10
Ce n'est pas vrai. Par exemple, je me suis filmé avec mon nouveau PowerBook G4 quelques jours après son arrivée. Je n'ai pas eu à attendre une seconde pour que le Finder s'ouvre et effectue les tâches habituelles de gestion de fichiers. La charge moyenne du processeur était inférieure à 2%. Pour prouver mon propos, j'ai réinstallé TIGER en formatant complètement le disque dur. Je reçois toujours une charge de processeur moyenne de 30% et dois attendre 3 à 4 secondes avant que toute opération de recherche ne soit terminée.
Alexey Kulikov
1
@Alexey Kulikov - ChrisF n'a pas dit "Tout est dans votre tête" était la seule raison pour laquelle le matériel ralentissait. L'usure du matériel pourrait entraîner ce que vous décrivez aussi. Il y a tellement de variables qu'il est difficile de dire exactement pourquoi.
J. Polfer
1
Votre réinstallation complète inclut-elle l’application des mises à jour? Dans ce cas, ce n'est pas une comparaison vraie entre pommes.
Chris Nava
5
@Chris - "Pommes à Pommes", lol. Jeu de mots intentionnel?
Moshe
3
@Moshe J'aimerais pouvoir dire oui, mais cela ne m'a jamais traversé l'esprit. :-( Sérieusement, les correctifs (notamment les correctifs de sécurité) ont souvent des répercussions sur les performances. Il est donc difficile de tester un système entièrement corrigé par rapport à ce que vous vous souvenez d'il y a des années.
Chris Nava
14

Lorsque j’ai exécuté des tests de performance (aussi triviaux que bogomips , et plus sérieux comme Dhrystone et Whetstone ) sur du matériel vieux de cinq à huit ans, j’ai toujours trouvé que c’était le même résultat que lorsqu’il était neuf. (Toujours sous Linux et Mac OS boxen, BTW.)

J'ai moins d'expérience avec les disques durs, mais j'ai testé un disque SCSI2 rapide et large environ cinq ans après (avec hdparm) et obtenu des réponses comparables à celles de la spécification d'origine.

Ainsi, comme d’autres l’ont dit, c’est surtout une combinaison de nouvelles attentes et de logiciels plus lourds.

Cela dit, je n'ai actuellement un G4 powerbook qui pourrait utiliser le test, car il vous semble maintenant plus lent que par le passé . La suggestion ci-dessus que la limitation d'horloge peut entrer en jeu si le système de refroidissement est encrassé est une bonne idée.

dmckee
la source
12

La loi de la page ;)

La loi de Wirth, également connue sous le nom de loi de Page, loi de Gates et loi de May, est un adage informatique qui dit que le logiciel ralentit plus rapidement que le matériel.

sYnfo
la source
3
+1 Ce n'est pas le matériel, mais le logiciel est plus lent
Ivo Flipse
J'ai eu cela comme une gifle au visage quand j'ai eu le haut débit (et donc j'ai pu télécharger un nouveau logiciel). PC est devenu tellement plus lent si vite, et rien n'a aidé :(
Phoshi
6
haha, la loi de Gate y est également mentionnée: "... la vitesse des logiciels commerciaux ralentit généralement de 50% tous les 18 mois, annulant ainsi tous les avantages de la loi de Moore."
Bratch
6

Certains ralentissements sont dus à la fragmentation du disque dur , dont le remède est la défragmentation .
ceci est défini comme:

La fragmentation du système de fichiers, parfois appelée vieillissement du système de fichiers, est l’incapacité d’un système de fichiers d’organiser séquentiellement (de manière contiguë) les données connexes, phénomène inhérent aux systèmes de fichiers sauvegardés en mémoire qui permet la modification en place de leur contenu. C'est un cas particulier de fragmentation des données. La fragmentation du système de fichiers augmente le mouvement ou la recherche de la tête de disque, connus pour entraver le débit. La correction à la fragmentation existante consiste à réorganiser les fichiers et à libérer de l'espace dans des zones contiguës, un processus appelé défragmentation.

Sur Windows, il y a une autre raison, celle du registre Windows

Le registre Windows est une base de données qui stocke les paramètres et les options des systèmes d'exploitation Microsoft Windows. Il contient des informations et des paramètres pour le matériel, le logiciel du système d'exploitation, la plupart des logiciels autres que du système d'exploitation et les paramètres par utilisateur. Le registre fournit également une fenêtre sur le fonctionnement du noyau, exposant les informations d'exécution telles que les compteurs de performance et le matériel actuellement actif.

Au fil du temps, le temps de registre accumule les fichiers indésirables et doit également être nettoyé et optimisé.

Une autre explication est que les versions les plus récentes du système d'exploitation sont généralement plus lourdes et donc plus lentes. Cela signifie qu'en installant la dernière version ou les derniers correctifs du système d'exploitation, vous constaterez soudainement que votre ordinateur est maintenant plus lent au bout de quelques années. Il est temps d'investir dans un nouveau matériel capable de répondre efficacement aux exigences de la dernière système opérateur.

harrymc
la source
en supposant qu'une "nouvelle installation" inclut le formatage du lecteur système, aucun de ceux-ci n'affecte une nouvelle installation de système d'exploitation sur du matériel plus ancien.
Quack Quotote
L’effet de la fragmentation dépend également beaucoup du système de fichiers que vous utilisez. Certains systèmes de fichiers (avec FAT) souffrent beaucoup , d’autres très peu. Tous les systèmes d’exploitation n’utilisent pas non plus une base de données centralisée en croissance constante pour stocker divers commutateurs et options.
dmckee
Je vais me lancer dans une impasse ici et déclarer qu'en 20 ans d'utilisation intensive de l'ordinateur, je n'ai jamais vu un système accélérer de manière notable après le défragmentation d'un disque. Existe-t-il des preuves objectives à contredire par expérience?
Matthew Lock
1
cela dépend de ce que vous faites. parcourir mon lecteur de données non-système (par exemple, effectuer des calculs md5) est beaucoup plus rapide lorsque tous les fichiers du lecteur sont défragmentés que lorsque des fichiers de 1 Go ou plus sont dispersés dans plus de 200 fragments. si vous ne voyez pas d'accélération du système après une défragmentation, vos fichiers système n'ont peut-être pas été fragmentés pour commencer.
Quack Quotote
Pour ajouter au commentaire de Matthew, je n'ai jamais vu un ordinateur accélérer aussi longtemps que le registre a été nettoyé. Pour les centaines de milliers d'entrées, supprimer quelques centaines ne fera aucune différence.
Richard
4

Vous vous habituez à la vitesse et la vitesse est maintenant plus longue.

Par exemple, un de mes clients avait une routine (qu’ils considéraient comme un temps mort) qui prenait plus d’une heure sur un vieil ordinateur; lorsqu’ils mettaient à niveau leur ordinateur, le processus prenait cinq minutes, ce qui les rendait très heureux pendant un certain temps.

Quelques années plus tard, ils se plaignent maintenant que cette routine prend cinq minutes. Et chaque fois qu'ils se plaignent, ils semblent vraiment avoir oublié le temps qu'il a fallu une heure.

sgmoore
la source
2

Il y a un certain problème de perception, mais si vous mesurez réellement une réduction de performance, je regarderais des pièces mobiles dans le système.

"Pièces mobiles", vous demandez, "quelles pièces mobiles?"

Deux catégories faciles à vérifier: les ventilateurs et les lecteurs de disque. Les ventilateurs sont évidents, mais en plus du ventilateur lui-même, assurez-vous que le flux d'air et le refroidissement ne sont pas obstrués afin de vous assurer que la température des composants intérieurs est celle où elle se trouvait lorsque la boîte était neuve. Les disques sont un peu plus subtils, mais un disque en détérioration peut réduire considérablement les performances tout en semblant fonctionner. Vérifiez si les tests de performance du disque correspondent aux nouvelles performances ou si le nombre d'erreurs a considérablement augmenté.

Bien qu'ils ne bougent pas vraiment, ils représentent l'équivalent moral: des connecteurs de câbles. Toute extrémité détachable de chaque câble. Débranchez, assurez-vous de nettoyer, rebranchez et assurez-vous serré.

mpez0
la source
1

Peut-être est-ce purement dû à votre perception.

Il y a 3-4 ans, le nouveau matériel scintillant était plus rapide que la génération précédente, ce qui le rend très rapide.

En 3-4 ans depuis lors, vous avez sans doute utilisé des ordinateurs avec un meilleur matériel. Ainsi, même si vous effectuez une installation propre sur l’ancienne machine, vos expériences sur du matériel plus récent laisseront une impression terne de l’ancienne machine.

Ou avez-vous des preuves empiriques que la machine fonctionne réellement plus lentement?

JRT
la source
Oui, il y a des preuves: je me suis filmé avec mon nouveau PowerBook G4 quelques jours après son arrivée. Je n'ai pas eu à attendre une seconde pour que le Finder s'ouvre et effectue les tâches habituelles de gestion de fichiers. La charge moyenne du processeur était inférieure à 2%. Pour prouver mon propos, j'ai réinstallé TIGER en formatant complètement le disque dur. Je reçois toujours une charge de processeur moyenne de 30% et dois attendre 3 à 4 secondes avant que toute opération de recherche ne soit terminée.
Alexey Kulikov
D'accord, mon autre idée serait qu'avec le temps, le disque dur a développé des secteurs défectueux, ce qui entraînerait une surcharge de travail en raison de la relecture de données dont les contrôles d'intégrité ont échoué. Cela se produirait même après un formatage complet.
JRT
Combien de temps a duré le délai entre le moment où vous vous êtes filmé avec votre nouveau PowerBook et celui où vous avez réinstallé TIGER?
J. Polfer
4 années. J'ai toujours eu cette impression que le matériel était usé et il y a quelques jours, j'ai trouvé un screencast que j'ai enregistré il y a 4 ans. Alors je suis allé pour l'expérience, et le tour est joué - tout fait.
Alexey Kulikov
1

Je crois que certaines mises à jour de pilotes peuvent également, ces jours-ci, mettre à jour le micrologiciel du périphérique concerné. Il existe également des mises à jour potentielles CPU-microcode, bien que rares.

J'ai vu des outils de diagnostic / benchmark populaires affirmer que les choses fonctionnaient à une vitesse normale, mais qu'il existait un problème de pilote / matériel de bas niveau qui entraînait l'exploration et le saut du pointeur de la souris. À l'époque, je ne savais pas comment mesurer la latence DPC - cet outil aurait probablement indiqué qu'il y avait un problème.

Le fait est qu'il est possible que les choses ralentissent d'une manière qui ralentisse les choses, sans toutefois apparaître dans le type d'outils utilisés par les utilisateurs occasionnels de PC.

Si quelqu'un veut creuser la question, je pense qu'il devrait avoir 2 ordinateurs identiques, l'autre ne se connectant jamais sur le net, ne disposant jamais de mises à jour ou de nouveaux pilotes. Et chronométrez les deux ordinateurs en utilisant une minuterie / heure de contrôle externe à partir de NTP, juste pour être sûr. - et au bout de 4 ans, reprenez le temps et s'il y a une différence, clonez le disque de l'ordinateur non connecté à l'ordinateur connecté et réessayez. Et vérifiez toutes les modifications de version de firmware, etc. Modifier: Et quand je dis "heure", je veux dire le chronométrage de certaines tâches personnalisées, sans utiliser de repère existant. Les fournisseurs de processeurs graphiques et de processeurs ont été pris au piège des jeux connus selon Anandtech et quelques autres sites ces dernières années que j'ai lus.

Lâche anonyme
la source
0

En réalité, ce n'est pas un problème technique, mais plutôt un problème de cerveau humain. Cela peut vous surprendre, mais laissez-moi vous expliquer. J'ai une bonne base pour ce que je dis.

Une partie du problème tient à la manière dont les mises à jour logicielles et les correctifs sont appliqués, mais je ne pense pas que ce soit le cœur du problème.

Les machines matérielles sont devenues beaucoup plus rapides au fil des ans, mais la capacité du logiciel à le charger a augmenté à un rythme encore plus rapide, donnant l'impression et la réalité que certaines choses sont plus lentes qu'elles ne le sont en réalité.

Par exemple, ma première boîte Z-80 avait une vitesse d'horloge de 1 mégahertz. Maintenant, ma plate-forme de développement tourne à 2,66 GHz, soit plus de 2 000 fois plus vite. Je ne me souviens pas exactement, mais tout le CPM correspond à environ 16kb. Maintenant, Windows est celui qui sait combien il est gros, mais beaucoup plus gros. Il utilise de nombreuses couches d'abstraction qui permettent d'obtenir des résultats étonnants d'une manière plus générale, mais ces couches nuisent à la performance.

Permettez-moi de revenir au cerveau humain. Ce que l’on comprend bien, c’est que, pendant de nombreuses années, les ingénieurs en logiciel ont dit et croyaient, pour de bonnes raisons, que le matériel deviendrait de plus en plus rapide et que les logiciels n’auraient donc pas besoin d’être vigilants face aux problèmes d’optimisation. Les programmeurs ont donc fait le nécessaire pour que les choses fonctionnent rapidement au détriment de la vitesse, ... en pensant que les responsables du matériel s'occuperaient de ce problème. Les mises à jour et les correctifs sont donc faits en pensant qu’ils sont temporaires, c’est-à-dire à court terme.

C’est: à court terme, micro-pensée, à long terme, macro-problème.

J'ai lu un livre intéressant, il y a de nombreuses années, dans lequel deux scientifiques ont exposé ce problème de pensée humaine à court terme et à long terme, et effectué des expériences sur un large éventail d'êtres humains pour voir comment ils réalisaient ces compromis. Leur livre est New World New Mind, et les auteurs sont Paul Ehrlich et Robert Ornstein. Je dirais que c’est l’ouvrage le plus important que j’ai lu ces 20 dernières années, car c’est un cadre solide pour la résolution du problème.

Ce qu'ils ont noté, c'est que le cerveau humain a évolué à un moment où il était logique de prendre des décisions à court terme. Vis pour le moment et le jour, mais ne pense pas trop à l'avenir. Cela n'en valait simplement pas la peine. Ainsi, notre intuition des choses que nous utilisons souvent pour prendre des décisions est une très vieille partie du cerveau et n'est pas bien adaptée à de nombreux problèmes modernes. Et le cerveau n'a pas eu le temps réaliste d'évoluer alors que le monde évolue rapidement avec la croissance démographique et l'impact de la technologie sur les choses.

Ehrlich et Ornstein, professeurs, ont découvert que des docteurs mais aussi des concierges très intelligents et bien formés, commettaient les mêmes erreurs devant les problèmes à court et à long terme. Nous pensons généralement que ce n’est pas le cas.

Un très bon exemple convaincant de la façon dont ce même problème se pose dans le monde d’aujourd’hui ne concerne PAS l’environnement matériel, mais c’est le grand frère de tout ce putain d’environnement dans lequel nous vivons. Nous, les humains, commettons généralement l’erreur de vivre pour aujourd’hui, mais le fait est que le réchauffement climatique est sur nous exactement parce que nous ne l’avons pas permis ni pris de mesures pour le combattre. C'est le ralentissement du matériel, par le problème logiciel, encore une fois, mais dans un contexte différent.

Ornstein et Ehrlich ont suggéré que nous serions peut-être en mesure de prendre des décisions plus correctes en fondant notre décision non sur notre instinct, mais plutôt sur des données et des statistiques. Ainsi, par exemple, si un ingénieur informaticien disposait de statistiques sur la vitesse à laquelle son logiciel ralentissait par rapport à la vitesse à laquelle le matériel s'accélérait, il pourrait prendre de meilleures décisions quant à ce qu'il faut inclure, ce qu'il faut laisser et combien d'optimiser les algorithmes. En d'autres termes, s'ils utilisaient des données réelles pour prendre des décisions, plutôt que leur instinct.

Merci pour la bonne question. Parfois, les questions simples sont les meilleures que je pense. cela m'a donné l'occasion d'envisager cela sous un nouvel angle. Je n'avais encore jamais vu le parallèle entre la question du logiciel matériel dans le contexte humain.

Vue elliptique
la source
0

La plupart des tests (le cas échéant) ne sont pas fiables pour mesurer la vivacité du système d'exploitation. À moins que la référence ne soit un système USB à USB contrôlant l'interface utilisateur d'un autre ordinateur, émulant comme une souris / un clavier, les chemins d'exécution seront entièrement différents. La lenteur des PC dont je suis au courant est due à des mises à jour du pilote / de la sécurité qui peuvent également mettre à jour le micrologiciel (et vous ne savez pas si la mise à jour fw du pilote persiste ou non). ordinateurs et ne connectez jamais l’autre à Internet ou ne mettez pas à jour les pilotes après la première installation, mais conservez-le pour une comparaison ultérieure à l’aide de cet outil d’analyse comparative externe.

J'ai commencé à suspecter tous les tests de performance lorsque j'ai découvert un cas dans lequel l'indice de référence renvoyait des "bons" chiffres, alors qu'un problème matériel entraînait le blocage de la souris et que le système n'était en réalité que difficilement contrôlable. niveler les choses qui peuvent affecter par exemple. la vivacité et la contrôlabilité du PC.

(Cas légèrement différent mais similaire: même si le Q6600 comparait à peu près au même cœur que le dual core Ghz équivalent, j’ai remarqué que la réactivité était nettement plus basse. À l'époque, cela était dû au fait que le planificateur Win-Vista n'était pas bon avec 4 cœurs - un point comme la plupart des tests de performance indiquant que FPS ne détecte pas certaines petites craintes ressenties par l'utilisateur, les tests de performance sur PC utilisés par la presse technique ne mesurent pas des mesures telles que "Interrompre le traitement de la latence" et en affichent les statistiques au lieu d'une moyenne.

edit: Et si vous faites une telle configuration avec un PC de référence vierge, s'il a une batterie et / ou est toujours alimenté, le fabricant peut tricher en exécutant un LFO pour obsolète secrètement le matériel, par exemple. en ralentissant certaines opérations que les repères ne font pas. Un point de repère de la presse de jeu meilleur que d'habitude serait de courir par exemple. dosbox, émulateurs, mesures de latence dans vmware / hyperv, qui taxeront le processeur de manière plus complexe qu’autrement.

edit2: et s'ils le voulaient vraiment, ils pourraient utiliser quelque chose qui prend de l'âge ou un compteur de puissance ultra-basse et un condensateur ou une petite batterie chargée en usine. Donc, peu importe si vous n'alimentez jamais l'appareil, ils pourraient ralentir le processus avec le temps, mais ce genre de chose peut être un handicap si quelqu'un le trouve, mais cela n'aurait pas d'importance si cela n'était pas rendu illégal et que les amendes suffisaient pour les exclure du travail.

Lâche anonyme
la source