Pourquoi le matériel ralentit-il avec le temps? Je suis propriétaire d’un PC depuis 1990 et chaque ordinateur que j’ai eu dans ma vie est devenu vraiment très lent après 3-4 ans (même avec une réinstallation complète du système). C'est le cas avec les PC Windows. C'est également le cas avec Apple Hardware. Pourquoi cela arrive-t-il? Cela peut-il être évité?
performance
Alexey Kulikov
la source
la source
Réponses:
Parfois, c’est le matériel, en particulier avec les ordinateurs portables. Les processeurs modernes disposent de circuits pour les protéger contre la surchauffe et réduiront délibérément la vitesse du processeur si la température à cœur devient trop chaude (ou également pour économiser de l'énergie lorsque la demande est faible et que vous utilisez des batteries. Intel appelle la fonction "SpeedStep" leurs processeurs). Si vous remarquez que votre ventilateur tourne tout le temps ou que la machine chauffe excessivement autour de la sortie du ventilateur de refroidissement, les «voies respiratoires» de votre ordinateur peuvent s'être obstruées par la poussière.
J'avais un Dell Latitude qui fonctionnait comme neuf après l'avoir ouvert et enlevé une "éponge" d'épaisseur d'environ un quart de pouce d'épaisseur de poussière entre le ventilateur et le dissipateur de chaleur. En fait, Dell propose sur son site Web des instructions de service téléchargeables qui expliquent toutes les étapes à suivre pour ouvrir la machine et accéder à ce type de service. Si vous n'êtes pas à l'aise avec cela, vous avez probablement un ami technophile qui vous aidera. Sinon, le risque en vaut la peine si vous envisagez de vous débarrasser de la machine autrement!
Si vous pensez que cela pourrait être le cas sur votre ordinateur, essayez de télécharger un utilitaire tel que "SpeedFan" qui vous permet de vérifier la température de votre CPU ainsi que d'autres composants. Avec cette application, vous pouvez représenter graphiquement les températures lorsque vous démarrez la machine pour la première fois. S'ils commencent à grimper rapidement et ne semblent jamais diminuer, vous pouvez parier que le refroidissement est un problème. Dans mon cas, j’ai également utilisé une application gratuite appelée "CS Fire Monitor" pour me montrer la vitesse réelle de mon processeur et j’ai constaté qu’une fois qu’il faisait chaud, il tombait à moins de la moitié de la vitesse. Il y a beaucoup de bons logiciels gratuits qui vous montreront ce type d'informations. juste "CPU Temp Freeware" ou "CPU Speed Freeware" ou quelque chose du genre et vous trouverez toutes sortes d'options.
Espérons que cela évitera à quelques personnes de remplacer ou de jeter du matériel informatique correct nécessitant une thérapie respiratoire!
la source
Il y a quelques effets ici:
Pris ensemble, ils donnent l’impression que le matériel ralentit.
Il peut également y avoir d'autres effets dus à l'usure du matériel (fragmentation du disque, latence de la mémoire).
la source
Lorsque j’ai exécuté des tests de performance (aussi triviaux que bogomips , et plus sérieux comme Dhrystone et Whetstone ) sur du matériel vieux de cinq à huit ans, j’ai toujours trouvé que c’était le même résultat que lorsqu’il était neuf. (Toujours sous Linux et Mac OS boxen, BTW.)
J'ai moins d'expérience avec les disques durs, mais j'ai testé un disque SCSI2 rapide et large environ cinq ans après (avec
hdparm
) et obtenu des réponses comparables à celles de la spécification d'origine.Ainsi, comme d’autres l’ont dit, c’est surtout une combinaison de nouvelles attentes et de logiciels plus lourds.
Cela dit, je n'ai actuellement un G4 powerbook qui pourrait utiliser le test, car il vous semble maintenant plus lent que par le passé . La suggestion ci-dessus que la limitation d'horloge peut entrer en jeu si le système de refroidissement est encrassé est une bonne idée.
la source
La loi de la page ;)
la source
Certains ralentissements sont dus à la fragmentation du disque dur , dont le remède est la défragmentation .
ceci est défini comme:
Sur Windows, il y a une autre raison, celle du registre Windows
Au fil du temps, le temps de registre accumule les fichiers indésirables et doit également être nettoyé et optimisé.
Une autre explication est que les versions les plus récentes du système d'exploitation sont généralement plus lourdes et donc plus lentes. Cela signifie qu'en installant la dernière version ou les derniers correctifs du système d'exploitation, vous constaterez soudainement que votre ordinateur est maintenant plus lent au bout de quelques années. Il est temps d'investir dans un nouveau matériel capable de répondre efficacement aux exigences de la dernière système opérateur.
la source
Vous vous habituez à la vitesse et la vitesse est maintenant plus longue.
Par exemple, un de mes clients avait une routine (qu’ils considéraient comme un temps mort) qui prenait plus d’une heure sur un vieil ordinateur; lorsqu’ils mettaient à niveau leur ordinateur, le processus prenait cinq minutes, ce qui les rendait très heureux pendant un certain temps.
Quelques années plus tard, ils se plaignent maintenant que cette routine prend cinq minutes. Et chaque fois qu'ils se plaignent, ils semblent vraiment avoir oublié le temps qu'il a fallu une heure.
la source
Il y a un certain problème de perception, mais si vous mesurez réellement une réduction de performance, je regarderais des pièces mobiles dans le système.
"Pièces mobiles", vous demandez, "quelles pièces mobiles?"
Deux catégories faciles à vérifier: les ventilateurs et les lecteurs de disque. Les ventilateurs sont évidents, mais en plus du ventilateur lui-même, assurez-vous que le flux d'air et le refroidissement ne sont pas obstrués afin de vous assurer que la température des composants intérieurs est celle où elle se trouvait lorsque la boîte était neuve. Les disques sont un peu plus subtils, mais un disque en détérioration peut réduire considérablement les performances tout en semblant fonctionner. Vérifiez si les tests de performance du disque correspondent aux nouvelles performances ou si le nombre d'erreurs a considérablement augmenté.
Bien qu'ils ne bougent pas vraiment, ils représentent l'équivalent moral: des connecteurs de câbles. Toute extrémité détachable de chaque câble. Débranchez, assurez-vous de nettoyer, rebranchez et assurez-vous serré.
la source
Peut-être est-ce purement dû à votre perception.
Il y a 3-4 ans, le nouveau matériel scintillant était plus rapide que la génération précédente, ce qui le rend très rapide.
En 3-4 ans depuis lors, vous avez sans doute utilisé des ordinateurs avec un meilleur matériel. Ainsi, même si vous effectuez une installation propre sur l’ancienne machine, vos expériences sur du matériel plus récent laisseront une impression terne de l’ancienne machine.
Ou avez-vous des preuves empiriques que la machine fonctionne réellement plus lentement?
la source
Je crois que certaines mises à jour de pilotes peuvent également, ces jours-ci, mettre à jour le micrologiciel du périphérique concerné. Il existe également des mises à jour potentielles CPU-microcode, bien que rares.
J'ai vu des outils de diagnostic / benchmark populaires affirmer que les choses fonctionnaient à une vitesse normale, mais qu'il existait un problème de pilote / matériel de bas niveau qui entraînait l'exploration et le saut du pointeur de la souris. À l'époque, je ne savais pas comment mesurer la latence DPC - cet outil aurait probablement indiqué qu'il y avait un problème.
Le fait est qu'il est possible que les choses ralentissent d'une manière qui ralentisse les choses, sans toutefois apparaître dans le type d'outils utilisés par les utilisateurs occasionnels de PC.
Si quelqu'un veut creuser la question, je pense qu'il devrait avoir 2 ordinateurs identiques, l'autre ne se connectant jamais sur le net, ne disposant jamais de mises à jour ou de nouveaux pilotes. Et chronométrez les deux ordinateurs en utilisant une minuterie / heure de contrôle externe à partir de NTP, juste pour être sûr. - et au bout de 4 ans, reprenez le temps et s'il y a une différence, clonez le disque de l'ordinateur non connecté à l'ordinateur connecté et réessayez. Et vérifiez toutes les modifications de version de firmware, etc. Modifier: Et quand je dis "heure", je veux dire le chronométrage de certaines tâches personnalisées, sans utiliser de repère existant. Les fournisseurs de processeurs graphiques et de processeurs ont été pris au piège des jeux connus selon Anandtech et quelques autres sites ces dernières années que j'ai lus.
la source
En réalité, ce n'est pas un problème technique, mais plutôt un problème de cerveau humain. Cela peut vous surprendre, mais laissez-moi vous expliquer. J'ai une bonne base pour ce que je dis.
Une partie du problème tient à la manière dont les mises à jour logicielles et les correctifs sont appliqués, mais je ne pense pas que ce soit le cœur du problème.
Les machines matérielles sont devenues beaucoup plus rapides au fil des ans, mais la capacité du logiciel à le charger a augmenté à un rythme encore plus rapide, donnant l'impression et la réalité que certaines choses sont plus lentes qu'elles ne le sont en réalité.
Par exemple, ma première boîte Z-80 avait une vitesse d'horloge de 1 mégahertz. Maintenant, ma plate-forme de développement tourne à 2,66 GHz, soit plus de 2 000 fois plus vite. Je ne me souviens pas exactement, mais tout le CPM correspond à environ 16kb. Maintenant, Windows est celui qui sait combien il est gros, mais beaucoup plus gros. Il utilise de nombreuses couches d'abstraction qui permettent d'obtenir des résultats étonnants d'une manière plus générale, mais ces couches nuisent à la performance.
Permettez-moi de revenir au cerveau humain. Ce que l’on comprend bien, c’est que, pendant de nombreuses années, les ingénieurs en logiciel ont dit et croyaient, pour de bonnes raisons, que le matériel deviendrait de plus en plus rapide et que les logiciels n’auraient donc pas besoin d’être vigilants face aux problèmes d’optimisation. Les programmeurs ont donc fait le nécessaire pour que les choses fonctionnent rapidement au détriment de la vitesse, ... en pensant que les responsables du matériel s'occuperaient de ce problème. Les mises à jour et les correctifs sont donc faits en pensant qu’ils sont temporaires, c’est-à-dire à court terme.
C’est: à court terme, micro-pensée, à long terme, macro-problème.
J'ai lu un livre intéressant, il y a de nombreuses années, dans lequel deux scientifiques ont exposé ce problème de pensée humaine à court terme et à long terme, et effectué des expériences sur un large éventail d'êtres humains pour voir comment ils réalisaient ces compromis. Leur livre est New World New Mind, et les auteurs sont Paul Ehrlich et Robert Ornstein. Je dirais que c’est l’ouvrage le plus important que j’ai lu ces 20 dernières années, car c’est un cadre solide pour la résolution du problème.
Ce qu'ils ont noté, c'est que le cerveau humain a évolué à un moment où il était logique de prendre des décisions à court terme. Vis pour le moment et le jour, mais ne pense pas trop à l'avenir. Cela n'en valait simplement pas la peine. Ainsi, notre intuition des choses que nous utilisons souvent pour prendre des décisions est une très vieille partie du cerveau et n'est pas bien adaptée à de nombreux problèmes modernes. Et le cerveau n'a pas eu le temps réaliste d'évoluer alors que le monde évolue rapidement avec la croissance démographique et l'impact de la technologie sur les choses.
Ehrlich et Ornstein, professeurs, ont découvert que des docteurs mais aussi des concierges très intelligents et bien formés, commettaient les mêmes erreurs devant les problèmes à court et à long terme. Nous pensons généralement que ce n’est pas le cas.
Un très bon exemple convaincant de la façon dont ce même problème se pose dans le monde d’aujourd’hui ne concerne PAS l’environnement matériel, mais c’est le grand frère de tout ce putain d’environnement dans lequel nous vivons. Nous, les humains, commettons généralement l’erreur de vivre pour aujourd’hui, mais le fait est que le réchauffement climatique est sur nous exactement parce que nous ne l’avons pas permis ni pris de mesures pour le combattre. C'est le ralentissement du matériel, par le problème logiciel, encore une fois, mais dans un contexte différent.
Ornstein et Ehrlich ont suggéré que nous serions peut-être en mesure de prendre des décisions plus correctes en fondant notre décision non sur notre instinct, mais plutôt sur des données et des statistiques. Ainsi, par exemple, si un ingénieur informaticien disposait de statistiques sur la vitesse à laquelle son logiciel ralentissait par rapport à la vitesse à laquelle le matériel s'accélérait, il pourrait prendre de meilleures décisions quant à ce qu'il faut inclure, ce qu'il faut laisser et combien d'optimiser les algorithmes. En d'autres termes, s'ils utilisaient des données réelles pour prendre des décisions, plutôt que leur instinct.
Merci pour la bonne question. Parfois, les questions simples sont les meilleures que je pense. cela m'a donné l'occasion d'envisager cela sous un nouvel angle. Je n'avais encore jamais vu le parallèle entre la question du logiciel matériel dans le contexte humain.
la source
La plupart des tests (le cas échéant) ne sont pas fiables pour mesurer la vivacité du système d'exploitation. À moins que la référence ne soit un système USB à USB contrôlant l'interface utilisateur d'un autre ordinateur, émulant comme une souris / un clavier, les chemins d'exécution seront entièrement différents. La lenteur des PC dont je suis au courant est due à des mises à jour du pilote / de la sécurité qui peuvent également mettre à jour le micrologiciel (et vous ne savez pas si la mise à jour fw du pilote persiste ou non). ordinateurs et ne connectez jamais l’autre à Internet ou ne mettez pas à jour les pilotes après la première installation, mais conservez-le pour une comparaison ultérieure à l’aide de cet outil d’analyse comparative externe.
J'ai commencé à suspecter tous les tests de performance lorsque j'ai découvert un cas dans lequel l'indice de référence renvoyait des "bons" chiffres, alors qu'un problème matériel entraînait le blocage de la souris et que le système n'était en réalité que difficilement contrôlable. niveler les choses qui peuvent affecter par exemple. la vivacité et la contrôlabilité du PC.
(Cas légèrement différent mais similaire: même si le Q6600 comparait à peu près au même cœur que le dual core Ghz équivalent, j’ai remarqué que la réactivité était nettement plus basse. À l'époque, cela était dû au fait que le planificateur Win-Vista n'était pas bon avec 4 cœurs - un point comme la plupart des tests de performance indiquant que FPS ne détecte pas certaines petites craintes ressenties par l'utilisateur, les tests de performance sur PC utilisés par la presse technique ne mesurent pas des mesures telles que "Interrompre le traitement de la latence" et en affichent les statistiques au lieu d'une moyenne.
edit: Et si vous faites une telle configuration avec un PC de référence vierge, s'il a une batterie et / ou est toujours alimenté, le fabricant peut tricher en exécutant un LFO pour obsolète secrètement le matériel, par exemple. en ralentissant certaines opérations que les repères ne font pas. Un point de repère de la presse de jeu meilleur que d'habitude serait de courir par exemple. dosbox, émulateurs, mesures de latence dans vmware / hyperv, qui taxeront le processeur de manière plus complexe qu’autrement.
edit2: et s'ils le voulaient vraiment, ils pourraient utiliser quelque chose qui prend de l'âge ou un compteur de puissance ultra-basse et un condensateur ou une petite batterie chargée en usine. Donc, peu importe si vous n'alimentez jamais l'appareil, ils pourraient ralentir le processus avec le temps, mais ce genre de chose peut être un handicap si quelqu'un le trouve, mais cela n'aurait pas d'importance si cela n'était pas rendu illégal et que les amendes suffisaient pour les exclure du travail.
la source