La première chose, rappelez-vous que la loi de Moore n'est pas une loi, c'est juste une observation. Et cela n'a pas à voir avec la vitesse, pas directement quand même.
À l’origine, c’était simplement un constat: la densité des composants doublait quasiment toutes les [périodes], c’est tout, rien à voir avec la vitesse.
En tant qu'effet secondaire, cela a effectivement rendu les choses plus rapides (plus de choses sur la même puce, les distances sont plus proches) et moins chères (moins de puces nécessaires, plus de puces par tranche de silicium).
Il y a cependant des limites. À mesure que la conception de la puce suit la loi de Moore et que les composants deviennent plus petits, de nouveaux effets apparaissent. Au fur et à mesure que les composants deviennent plus petits, leur surface augmente par rapport à leur taille et le courant s'échappe. Il est donc nécessaire d'injecter plus d'électricité dans la puce. Finalement, vous perdez suffisamment de jus pour chauffer la puce et gaspillez plus de courant que vous ne pouvez en utiliser.
Bien que je ne sois pas sûr, il s’agit probablement de la limite de vitesse actuelle, car les composants sont si petits qu’ils sont plus difficiles à rendre stables électroniquement. Il y a de nouveaux matériaux pour vous aider, mais jusqu'à ce que des matériaux extrêmement nouveaux apparaissent (diamants, graphène), nous allons nous approcher des limites de vitesse brutes en MHz.
Cela dit, le processeur MHz n'est pas la vitesse de l'ordinateur, tout comme la puissance n'est pas la vitesse d'une voiture. Il y a beaucoup de façons d'accélérer les choses sans un nombre supérieur de MHz supérieur.
EDIT TARD
La loi de Moore a toujours fait référence à un processus selon lequel il est possible de doubler la densité sur les puces à intervalles réguliers. Il semble maintenant que le processus en dessous de 20 nm soit bloqué. Nouvelle mémoire est expédiée sur le même processus que l'ancienne mémoire . Oui, il s’agit d’un point unique, mais c’est peut-être un présage de l’avenir.
UN AUTRE ÉDITION TARDIF
Un article d'Ars Technica le déclarant mort . C'était amusant de t'avoir 50 ans.
La loi de Moore décrit une tendance à long terme dans l'histoire du matériel informatique. Le nombre de transistors pouvant être placés à moindre coût sur un circuit intégré a doublé environ tous les deux ans. Ce n'est pas à propos de la vitesse d'horloge.
En outre, la vitesse d'horloge d'un processeur n'est pas un indicateur fiable de sa puissance de traitement .
la source
Plus la vitesse d'horloge est rapide, plus la chute de tension doit être importante pour produire un signal cohérent. Plus la tension doit monter, plus la puissance requise est importante. Plus la puissance requise est importante, plus votre puce dégagera de la chaleur. Cela dégrade les puces plus rapidement et les ralentit.
À un moment donné, il n’est tout simplement pas utile d’augmenter la vitesse d’horloge, car la température augmentée serait supérieure à celle qu’il faudrait pour ajouter un autre cœur. C'est pourquoi il y a une augmentation du nombre de cœurs.
En ajoutant plus de noyaux, la chaleur monte linéairement. C'est-à-dire qu'il existe un rapport constant entre la vitesse d'horloge et la consommation électrique. En rendant les cœurs plus rapides, il existe une relation quadratique entre la chaleur et les cycles de l'horloge. Lorsque les deux ratios sont égaux, il est temps d’obtenir un autre noyau.
Ceci est indépendant de la loi de Moore, mais puisque la question concerne le nombre de cycles d'horloge, pas le nombre de transistors, cette explication semble plus appropriée. Il convient de noter que la loi de Moore donne ses propres limites cependant.
EDIT: Plus de transistors signifie plus de travail est effectué par cycle d'horloge. Il s’agit là d’une mesure très importante qui est parfois négligée (il est possible d’avoir un processeur 2Ghz plus performant qu’un processeur 3Ghz) et c’est un domaine d’innovation majeur aujourd’hui. Ainsi, même si les vitesses d'horloge sont restées stables, les processeurs sont devenus plus rapides en ce sens qu'ils peuvent faire plus de travail par unité de temps.
EDIT 2: Voici un lien intéressant qui contient plus d’informations sur des sujets connexes. Vous trouverez peut-être cela utile.
EDIT 3: La question du parallélisme est sans rapport avec le nombre total de cycles d'horloge (nombre de cœurs * cycles d'horloge par cœur). Si un programme ne peut pas mettre ses instructions en parallèle, le fait que vous disposiez de plusieurs cœurs ne signifie rien. Il ne peut en utiliser qu'un à la fois. C’était un problème beaucoup plus important qu’aujourd’hui. La plupart des langages actuels supportent beaucoup plus le parallélisme qu'avant, et certains langages (principalement des langages de programmation fonctionnels) en ont fait une partie essentielle (par exemple , Erlang , Ada et Go ).
la source
La loi de Moore prévoyait que le nombre de transistors doublerait tous les 18 mois. Dans le passé, cela signifiait que les vitesses d'horloge pouvaient doubler. Une fois que nous avons eu environ 3 ghz, les fabricants de matériel ont réalisé qu’ils se heurtaient aux limitations de la vitesse de la lumière.
Rappelez-vous comment la vitesse de la lumière est 299.792.458 mètres / seconde? Cela signifie que sur une machine de 3 GHz, la lumière parcourt environ un tiers de mètre à chaque cycle d'horloge. C'est la lumière qui traverse l'air. Tenez compte du fait que l’électricité est plus lente que cela, et que les portes et les transistors le sont encore plus lentement et qu’il n’ya pas grand-chose à faire en si peu de temps. En conséquence, les vitesses d'horloge ont en fait diminué un peu et le matériel a été déplacé vers plusieurs cœurs.
Herb Sutter en a parlé dans son article de 2005 "Free Lunch is Over":
http://www.gotw.ca/publications/concurrency-ddj.htm
la source
quickly_now
de ce commentaire, un signal peut parcourir environ 6 cm par tick d'horloge 3GHz. Ce n'est pas très loinLes puces à base de silicium ont une limite d'horloge générale d'environ 5 GHz avant de commencer littéralement à fondre. Des recherches ont été menées sur l'utilisation de l'arséniure de gallium (GaAs), qui permettrait aux puces d'avoir des fréquences d'horloge plus élevées, comme dans les centaines de GHz, mais je ne suis pas sûr de la distance parcourue.
Mais la loi de Moore concerne les transistors sur une puce, et non la performance ou la vitesse d'horloge. Et à cet égard, je suppose que vous pourriez dire que nous respectons toujours la loi de Moore en nous implantant dans plusieurs cœurs de traitement toujours sur la même puce.
Selon l'article de Wikipedia sur la loi de Moore , elle devrait se maintenir jusqu'en 2015.
Si vous souhaitez connaître un autre moyen de disposer de processeurs plus rapides à la même vitesse d'horloge, il faut également tenir compte du nombre d'instructions pouvant être exécutées par impulsion d'horloge. Ce nombre a régulièrement augmenté au fil des ans.
La chronologie des instructions par seconde est un bon graphique du nombre d'instructions par cycle d'horloge.
la source
Je ne suis pas un expert en EE ou en physique, mais j’ai acheté des ordinateurs environ tous les trois ou quatre ans depuis 1981 (en 1981, j’ai acheté mon premier, un Sinclair ZX81 et, trois ans plus tard, un Commadore 64, des jouets véritables, puis mon premier clone en 1987), j’ai donc 30 ans de "données de terrain" sur ce sujet.
Même en utilisant mon premier clone IBM en 1987 comme point de départ (avec 640 Ko de RAM et un disque dur de 32 Mo), en multipliant le tout par deux tous les 18 mois, j'obtiens aujourd'hui 10 Go de RAM et un disque dur de 1 To. DAMN PROCHE !!!! Juste un peu trop de RAM et un peu moins de HD que ce qui est sur mon bureau aujourd'hui.
Considérant que cette "loi" était de toute évidence censée être une attente générale de la croissance exponentielle de la puissance des ordinateurs dans l’avenir, j’ai été franchement choqué par la précision de sa précision sur trois décennies. Si seulement les "voyages spatiaux civils", les "robots personnels" et les "voitures stationnaires" avaient connu une croissance exponentielle similaire. Pitié.
Mais du point de vue STRICTEMENT des utilisateurs, la loi de Moore semble tenir le coup pour le moment.
Le modérateur condense plusieurs réponses:
Bien que la loi de Moore traite explicitement du nombre de transistors dans une micropuce, il ne s'agit que d'un repère UNIQUE dans un monde beaucoup plus vaste de technologies évoluant à un rythme exponentiel.
Pour être bloqué sur les vitesses d'horloge manque le point. Il suffit de consulter les tests de performances du processeur PassMark: http://www.cpubenchmark.net/high_end_cpus.html , pour constater que les ordinateurs deviennent VERSEMENT PLUS puissants TOUS LES JOURS.
Le nombre de transistors sur une puce est simplement l'un des facteurs permettant d'améliorer la puissance des ordinateurs actuels.
Bien que je ne sois ni Moore ni le connaisse, je suppose que, dans un sens plus large, sa loi visait à prédire l'augmentation exponentielle de la puissance de calcul. Il a choisi "le nombre de transistors sur une puce" comme critère CONCRETE et le plus important, QUANTIFIABLE, par opposition à une affirmation beaucoup plus "ambiguë et difficile à prouver" selon laquelle "la puissance de l'ordinateur doublera tous les deux ans". Pour prouver sa théorie, il était clairement nécessaire de disposer d'une mesure facilement mesurable. Mais je vais aller un peu plus loin ici et suggérer qu'il prédisait une tendance plus large traitant de CHAQUE aspect de l'informatique.
la source
Nous pouvons toujours accélérer les processeurs avec le silicium (mais pas trop vite), mais à ce stade, il est moins coûteux / plus efficace de réduire la taille des processeurs (ou de leurs noyaux) et de les placer davantage dans une matrice. Des matériaux plus récents, tels que le graphène, extraient le silicium de l'eau en termes de vitesse de commutation des transistors, mais nous n'avons pas encore maîtrisé le processus de fabrication. Soyez patient, plus de vitesse viendra, probablement plus tôt que plus tard.
la source