Par "ordinateurs modernes", j'entends des ordinateurs électroniques programmables tels que ceux qui ont été développés vers le milieu du 20e siècle.
Je crois comprendre que les premiers ordinateurs, tels que les "machines à calculer" de Charles Babbage, fonctionnaient principalement sur des principes mécaniques, à la manière d'un "abaque" moderne. Apparemment, les machines postérieures étaient davantage électroniques. Je parle d’ordinateurs qui ont évolué de l’utilisation de tubes à vide aux transistors en passant par les circuits intégrés, puis les puces en silicium.
Quelles avancées techniques ont permis à la transition ci-dessus de se produire d'un moyen physique (par exemple, des tubes à vide) à un moyen électronique (par exemple, des transistors) à l'époque (milieu du 20e siècle)?
Réponses:
Le transistor
le transistor était le remplacement révolutionnaire de la tuyau d'aspirateur , qui était au cœur des ordinateurs depuis la première moitié du 20e siècle. Les tubes à vide eux-mêmes n'avaient que deux problèmes principaux: ils étaient avides d'énergie et ils étaient relativement gros. Par rapport à leurs remplaçants, c’est. Ils avaient également tendance à s’étouffer ou à fuir pendant le fonctionnement, ce qui pourrait se révéler désastreux.
En 1947, John Bardeen et Walter Brattain ainsi que William Shockley, leur patron chez Bell Labs, ont réussi à amplifier un courant électrique, en utilisant du germanium Ce "transistor à contact de point" , comme on l'appelait, a rapidement été utilisé pour accélérer l'informatique et rendre les ordinateurs plus petits et plus efficaces.
Un bon exemple du transistor et du tube à vide est la construction du Ordinateurs Manchester , développé à l'Université de Manchester. Le premier, le SSEM (Small-Scale Experimental Machine) (développé en 1947), était un banc d'essai à la pointe de la technologie pour les innovations informatiques, telles que le tube de Williams. Mais il utilisait encore des tubes à vide. Il avait 550 soupapes et prenait 3500 watts de puissance.
Le successeur du SSEM, le Manchester Mark 1 (développé en 1949), était beaucoup plus puissant. Il utilisait 4050 vannes et consommait 25 000 watts de puissance. Pourtant, le très bien nommé Transistor Computer, construit en 1955, n’utilisait que 200 transistors et 1 300 diodes, et n’utilisait que 150 watts. Ce n'était pas le premier ordinateur à utiliser exclusivement des tubes à vide, mais c'était un énorme pas en avant.
Il est difficile de dire exactement pourquoi le transistor a été créé à l'époque (je réponds maintenant à la dernière partie de votre question), mais on pourrait faire valoir que les avancées informatiques de la Seconde Guerre mondiale (comme le Harvard Mark I ) a veillé à ce que de nombreuses avancées informatiques soient réalisées; le transistor s'est avéré être l'un d'entre eux.
Le circuit intégré
le intégré Le circuit, développé environ une décennie après le transistor, a également eu de profonds effets sur l’informatique. Il a été développé par Jack Kilby en 1958 - bien que beaucoup d'autres aient été impliqués le long du chemin et il y a des disputes à qui devrait obtenir le crédit pour l’inventer en premier - chez Texas Instruments. Il a utilisé semi-conducteurs pour créer une puce informatique complète - le circuit intégré.
Un circuit intégré peut contenir une quantité incroyable de transistors, et c'est cette complexité et cette compacité qui le rendent si utile. La fabrication était également beaucoup plus facile et rapide. Les circuits intégrés ont entamé une deuxième révolution informatique, qui a jeté les bases d’ordinateurs moins coûteux, accessibles aux masses.
Maintenant que la question porte sur la transition entre les tubes à vide et les transistors, j'aimerais ajouter quelque chose à propos de semi-conducteurs , car ils jouent un rôle clé dans les transistors.
Les semi-conducteurs permettent une bonne conduction de l’électricité, mais l’une de leurs propriétés réellement utiles est que leur conduction peut être modifiée au cours d’un processus appelé dopage des semi-conducteurs . Cela ajoute des "impuretés" au semi-conducteur, en ajoutant des électrons ou des trous. Les semi-conducteurs peuvent être de type n ou de type p - les semi-conducteurs de type n ont un excès d'électrons, alors que les semi-conducteurs de type p ont un excès de trous. Ceux-ci peuvent être combinés pour former une diode.
Un autre développement pertinent a été la création du Procédé Czochralski , qui permet la croissance de cristaux pour semi-conducteurs. Cela implique également le dopage des semi-conducteurs et a permis la production de semi-conducteurs à grande échelle, facilitant la construction de transistors.
Existe-t-il d'autres technologies cruciales pour le développement informatique? Bien sûr. Je pourrais citer le tube à vide, le tube à rayons cathodiques, les disques SSD et une foule d'autres comme cruciaux pour le développement informatique. Mais le transistor et le circuit intégré ont été les deux principaux acteurs du développement de "l'ordinateur moderne" au cours de la période considérée - le milieu du 20e siècle. Je suppose que vous pourriez défendre d'autres technologies, mais je les classerais certainement en tête de liste.
la source
Je ne comprends toujours pas ce que vous entendez par "progrès de l'ingénierie". Pour moi, des choses comme les tubes à vide, les transistors et les circuits intégrés sont les technologies , et l'ingénierie est tout au sujet appliquer ces technologies à des problèmes du monde réel, tels que la construction d'ordinateurs.
Les ingénieurs ont généralement pris chaque technologie disponible à sa limite pratique - au point où d'autres problèmes deviennent prédominants. Voici des exemples:
Sont-ce le genre de ingénierie questions que vous cherchez?
Avec les circuits intégrés, la technologie actuelle, les problèmes d’ingénierie concernent notamment la taille minimale des caractéristiques, la dissipation statique et dynamique de la puissance et la densité des défauts. Trouver la meilleure combinaison de paramètres pour créer les puces les plus rentables (et les plus rentables!) Est un problème complexe.
Comme je l’ai dit, les propriétés physiques des pièces mécaniques et leur aptitude à les usiner limitent avec précision la vitesse et la complexité des ordinateurs mécaniques et électromécaniques (à relais).
La capacité de produire en série des tubes à vide fiables a permis de construire des circuits purement électroniques qui correspondent (voire dépassent) la complexité de la logique à relais, tout en fonctionnant à des vitesses beaucoup plus élevées: des dizaines et des centaines de kHz, plutôt que des dizaines de cycles par seconde ou moins. Cependant, la fiabilité des filaments des tubes est finalement devenue le problème dominant, une fois que les ordinateurs en ont eu besoin de dizaines de milliers.
Le développement du transistor a permis de réduire les circuits d'au moins un ordre de grandeur, mais plus important encore, le MTBF des transistors a dépassé celui des tubes de plusieurs ordres de grandeur. Ces deux avantages ont permis le développement d’ordinateurs plus complexes. Mais la taille physique du transistor dans son boîtier posait toujours un problème en termes de taille de l'ordinateur et le grand nombre de connexions discrètes posait toujours un problème de fiabilité.
Le circuit intégré a résolu ces deux problèmes, avec des millions de transistors entassés dans le volume requis par un seul transistor discret, et les connexions étant établies en configurant du métal directement sur la surface du CI. La complexité et la vitesse des ordinateurs ont augmenté à pas de géant, car nous avons appris à créer des motifs de plus en plus fins à la surface des puces. Nous commençons tout juste à constater certaines limites fondamentales quant à la mesure dans laquelle nous pouvons pousser cela avant d’avoir besoin d’une nouvelle technologie fondamentale.
la source
Le HDE 226868 a déjà mentionné le transistor en détail. J'ajouterai donc de nombreuses avancées technologiques et connaissances théoriques à l'évolution de l'ordinateur.
Métallurgie
Pour le marché de masse, vous avez besoin de méthodes peu coûteuses et fiables pour produire les éléments électroniques souhaités. Pour la production en série, vous avez besoin de circuits intégrés, ce qui signifie que, surtout pour les petites dimensions, vous avez besoin d’un matériau de base homogène de haute qualité. C’est seulement possible avec des tranches de silicium de haute qualité et, bien que le Procédé Czochralski à partir de 1916 est pas cher, il n'a pas donné de tels bons résultats pour le silicium comme fusion de zone qui a été inventé 1950/51.
Boolesche Algebra und Cybernetics . L'algèbre logique développée par Boole autorisé à construire des ordinateurs sur des états binaires. Si vous avez déjà eu le plaisir d’utiliser des systèmes décimaux sur une machine électronique (BCD), vous verrez à quel point il est incroyablement facile de mettre en œuvre des fonctions logiques et numériques. Avec la complexité croissante, il était également nécessaire d’inventer les bases nécessaires au développement et au contrôle de systèmes électroniques complexes. La cybernétique a alors commencé à se développer. On ne peut vraiment pas sous-estimer ce que Babbage et plus tard von Neumann ont fait: Au lieu de construire des modèles spécialisés pour des tâches spécifiques, ils ont inventé l’idée d’une machine programmable: Fournissez de simples blocs de construction de commandes et exprimez votre solution avec ces commandes simples au lieu de recâbler la machine (Peut-être. il y a encore des gens ici qui ont littéralement "reprogrammé" les ordinateurs en recâblant des pièces!). Autoriser l'exécution conditionnelle. Traiter les données et le programme comme une unité. L'ordinateur à usage général était né.
Photographie et chimie Seule la photographie était en mesure de fournir aux personnes concernées la possibilité de réduire les solutions développées à moindre coût, de manière robuste et efficace. Sans photolithographie et sans développement de produits chimiques permettant la gravure de structures microscopiques, les ordinateurs pourraient être petits, mais extrêmement coûteux.
la source