On m'a récemment confié la lecture des débats de Tanenbaum-Torvalds dans ma classe de système d'exploitation. Dans les débats, Tanenbaum fait certaines prédictions:
- Les micro-noyaux sont l'avenir
- x86 s'éteindra et les architectures RISC domineront le marché
- (Dans 5 ans) tout le monde utilisera un système d’exploitation GNU gratuit
J'avais un an lorsque les débats ont eu lieu et je manque donc d'intuition historique. Pourquoi ces prédictions ne se sont-elles pas révélées? Il me semble que, du point de vue de Tanenbaum, ce sont des prédictions assez raisonnables pour l'avenir. Que s'est-il passé pour qu'ils ne se réalisent pas?
Linus "my first, and hopefully last flamefest" Torvalds
qui n'a évidemment pas été réalisée aussi.Réponses:
Les micro-noyaux sont l'avenir
Je pense que Linus a touché les points sur les noyaux monolithiques dans son débat. Certaines leçons tirées de la recherche sur les micro-noyaux ont certainement été appliquées aux noyaux monolithiques. Microsoft avait parfois l'habitude de prétendre que le noyau Win32 était une architecture de micro-noyau. Il est un peu exagéré de regarder certains micro-noyaux manuels, mais les revendications avaient une justification technique.
x86 s'éteindra et les architectures RISC domineront le marché
Si vous sauvegardez à partir de postes de travail et de serveurs, RISC domine le marché des processeurs, quelle que soit leur mesure. ARM (R = RISC) dépasse le nombre de processeurs x86, il y a plus de processeurs ARM que de processeurs x86 et la capacité de calcul totale ARM est supérieure à la capacité de calcul x86. Cette année, un seul fournisseur ARM (ouais, Apple) pourrait être mieux vendu que tous les fournisseurs x86 combinés. X86 domine uniquement dans l’espace bureau et serveur. Tant que Windows est la plate-forme dominante pour les ordinateurs de bureau et Linux pour les serveurs, il est probable que cela reste vrai pendant un certain temps.
Il y a une partie b à cela aussi. Les ingénieurs d’Intel ont fait un travail incroyable pour extraire la vie de leur jeu d’instructions, allant même jusqu’à créer un noyau RISC avec un traducteur de code opération qui se trouve au-dessus. Comparez avec l'un des principaux fabricants de puces de bureau RISC, IBM, qui n'a pas pu obtenir un G5 économe en énergie et hautes performances pour les ordinateurs portables Apple dans un délai raisonnable.
(Dans 5 ans) tout le monde utilisera un système d’exploitation GNU gratuit
Je pense que les différents fournisseurs de systèmes d’exploitation proposent toujours des propositions de valeur convaincantes sur leurs systèmes d’exploitation. GNU n'est même pas nécessairement le joueur le plus important de la communauté Open Source, aussi une adoption plus répandue des logiciels open source ne s'est-elle pas traduite par des systèmes d'exploitation GNU. Pourtant, il y a beaucoup de choses sur GNU (tous les Mac sont livrés avec Bash de GNU , par exemple. Il existe probablement des outils système GNU sur les téléphones Android). Je pense que l'écosystème informatique est beaucoup plus diversifié que ne le prévoyait Tanenbaum, même lorsque vous limitez votre vue aux ordinateurs de bureau.
la source
Les experts en logiciels ont ignoré les aspects économiques du matériel
... ou "Moore avait raison et ils avaient tous deux tort"
La plus grande chose qui a été négligée dans ce débat a été l’impact de la technologie de fabrication des processeurs et de l’économie, entraîné par la réduction de la taille des transistors exprimée dans la loi de Moore (ce qui n’est pas surprenant car ils en savaient beaucoup sur le matériel du Fabrication de CPU ou économie). Les coûts de fabrication fixes qui sont amortis sur les CPU (par exemple, la conception ISA, la conception de CPU et les installations de production de CPU) ont rapidement augmenté, augmentant ainsi la valeur des économies d'échelle; avec des coûts de processeur par unité (en termes de "rapport qualité-prix" et de "rendement pour le watt"), le coût d'un processeur ne doit pas nécessairement être amorti sur une sélection aussi étendue de fonctions pour offrir une valeur ajoutée, de sorte que l'informatique dans les produits avec fonction fixe a explosé; Les budgets des transistors CPU ont augmenté de manière exponentielle,
1. L'échelle de l'unité centrale l'emporte sur la diversité de l'unité centrale
L'importance des économies d'échelle a permis de faire en sorte que les avantages d'un processeur ISA / CPU ciblant un marché plus vaste (et donc plus large) l'emportent sur les avantages potentiels des choix de conception qui restreignent le marché d'un processeur ISA / CPU. Les OS peuvent prendre en charge des parts de marché de plus en plus grandes par processeur ISA / CPU pris en charge. Par conséquent, les exercices de portage sont peu nécessaires (voire nuls) pour permettre à un écosystème OS de prospérer. Les domaines problématiques Les cibles d'ISA et de CPU ont tendance à être si larges qu'elles se chevauchent généralement. Ainsi, pour tout logiciel au-delà d'un compilateur, la taille des exercices de portage a également diminué. On peut dire que Torvalds et Tanenbaumsurestimé la partie de la conception et de la mise en œuvre du noyau qui doit maintenant être spécifique à ISA ou même au processeur. Comme Tanenbaum l'a décrit, les noyaux d'OS modernes font abstraction des distinctions entre les CPU et les ISA. Cependant, le code spécifique au processeur / ISA dans les systèmes d'exploitation modernes est beaucoup plus petit qu'un micro-noyau. Plutôt que de mettre en œuvre le traitement / ordonnancement des interruptions, la gestion de la mémoire, la communication et les E / S, ces bits non portables ne représentent qu'une infime partie de la mise en œuvre de ces services, même la grande majorité de l'architecture de ces fonctions de base du système d'exploitation est portable.
2. Open Source a remporté la bataille, mais a perdu la guerre
Plus rentable signifie qu'une part plus importante de l'informatique est réalisée par des produits à fonction fixe, où la possibilité de modifier le produit ne fait pas partie de la proposition de valeur pour le client. Ironiquement, l’open source s’épanouit dans ces dispositifs à fonction fixe, mais le plus souvent, les utilisateurs de ces produits tirent davantage parti de ces libertés, plutôt que les utilisateurs finaux (ce qui était encore vrai du marché du logiciel à l’époque: Microsoft était un gros consommateur de logiciels open source, mais leurs clients ne l'étaient pas). De même, on pourrait affirmer que l'open source a plus de mal à occuper les postes de travail généraux que partout ailleurs, mais à mesure que le Web et le cloud computing se développaient, l'informatique de bureau était de plus en plus utilisée à des fins plus étroites (principalement par le biais d'un navigateur), les autres fonctions étant exécutées dans le nuage (ironiquement, principalement sur des plates-formes open source). En bref: l'open source est vraiment propriétaire de l'espace informatique à usage général, mais le marché est devenu plus sophistiqué; moins souvent que les emballages de produits informatiques s'arrêtent à la fonction d'usage général, mais continuent pour les produits destinés aux fonctions fixes, où une grande partie de l'avantage de l'informatique à source ouverte est en contradiction avec les objectifs du produit.
3. 2 n Croissance signifie fixe k L'épargne n'est pas importante
La croissance exponentielle des budgets de transistors a conduit à la prise de conscience du fait que le coût du budget de transistors d’une architecture CISC est presque totalement fixe. L’avantage stratégique de RISC réside dans le fait qu’il élimine la complexité du jeu d’instructions de la CPU au compilateur (sans doute en partie motivée par le fait que les rédacteurs de compilateur tiraient un bien meilleur profit des ISA complexes que du codage par les développeurs humains dans l’assemblage, mais les compilateurs pouvaient beaucoup plus facilement raisonner. mathématiquement sur, et donc exploitent, un ISA plus simple); les économies de transistors obtenues pourraient ensuite être appliquées à l'amélioration des performances du processeur. La mise en garde était que les économies de budget des transistors générées par un ISA plus simple étaient en grande partie fixes (et que la conception du compilateur comportait également des frais généraux). Alors que cet impact fixe constituait une énorme partie du budget de la journée, Comme on peut l’imaginer, il ne faut que quelques cycles de croissance exponentielle pour que l’impact devienne trivial. Cet impact en déclin rapide, combiné à l'importance croissante susmentionnée de la monoculture de CPU, ne laissait qu'une très petite fenêtre d'opportunité pour toute nouvelle ISA de s'établir. Même là où les nouvelles ISA ont réussi, les ISA "RISC" modernes ne sont pas les ISA orthogonales décrites dans la stratégie RISC, car la croissance continue des budgets de transistors et l’applicabilité plus large du traitement SIMD en particulier ont encouragé l’adoption de nouvelles instructions adaptées à des fonctions spécifiques. Cet impact en déclin rapide, combiné à l'importance croissante susmentionnée de la monoculture de CPU, ne laissait qu'une très petite fenêtre d'opportunité pour toute nouvelle ISA de s'établir. Même là où les nouvelles ISA ont réussi, les ISA "RISC" modernes ne sont pas les ISA orthogonales décrites dans la stratégie RISC, car la croissance continue des budgets de transistors et l’applicabilité plus large du traitement SIMD en particulier ont encouragé l’adoption de nouvelles instructions adaptées à des fonctions spécifiques. Cet impact en déclin rapide, combiné à l'importance croissante susmentionnée de la monoculture de CPU, ne laissait qu'une très petite fenêtre d'opportunité pour toute nouvelle ISA de s'établir. Même là où les nouvelles ISA ont réussi, les ISA "RISC" modernes ne sont pas les ISA orthogonales décrites dans la stratégie RISC, car la croissance continue des budgets de transistors et l’applicabilité plus large du traitement SIMD en particulier ont encouragé l’adoption de nouvelles instructions adaptées à des fonctions spécifiques.
4. Simple: séparation des préoccupations. Complexe: Séparation de l'espace d'adressage.
Le noyau Linux moderne (comme la plupart des autres noyaux) correspond à la définition plutôt vague du macro-noyau et non à la définition plutôt étroite du micro-noyau. Cela dit, avec son architecture de pilotes, ses modules chargés de manière dynamique et ses optimisations de multitraitement qui rendent les communications spatiales dans le noyau de plus en plus similaires à la transmission des messages par un micro-noyau, sa structure ressemble plus à une conception de micro-noyau (telle qu'incarnée par Minix) qu'à la conception de macro-noyau (telle qu'incarnée par la conception de Linux au moment de la discussion). À la manière d'un micro-noyau, le noyau Linux fournit une communication généralisée, la planification, la gestion des interruptions et la gestion de la mémoire pour tous les autres composants du système d'exploitation. ses composants ont tendance à avoir un code et des structures de données distincts. Alors que les modules sont chargés dynamiquement, Des morceaux de code portable faiblement couplés, qui communiquent via des interfaces fixes, n'utilisent plus une propriété des micro-noyaux: ils ne sont pas des processus d'espace utilisateur. À la fin, la loi de Moore garantissait que les problèmes liés au matériel, tels que la portabilité (une préoccupation de Tanenbaum) et la performance (une préoccupation de Torvalds), diminuaient, mais que les problèmes de développement de logiciels devenaient d'une importance primordiale. Les avantages non réalisés restants qu'une séparation d'espaces d'adresses pourrait fournir sont compensés par les bagages supplémentaires imposés au logiciel du système d'exploitation en raison de limitations de conception et de la complexité accrue des interfaces de composants. s Law garantissait que les problèmes liés au matériel, tels que la portabilité (une préoccupation de Tanenbaum) et les performances (une préoccupation de Torvalds), diminuaient, mais que les problèmes de développement de logiciels devenaient d'une importance primordiale. Les avantages non réalisés restants qu'une séparation d'espaces d'adresses pourrait fournir sont compensés par les bagages supplémentaires imposés au logiciel du système d'exploitation en raison de limitations de conception et de la complexité accrue des interfaces de composants. s Law garantissait que les problèmes liés au matériel, tels que la portabilité (une préoccupation de Tanenbaum) et les performances (une préoccupation de Torvalds), diminuaient, mais que les problèmes de développement de logiciels devenaient d'une importance primordiale. Les avantages non réalisés restants qu'une séparation d'espaces d'adresses pourrait fournir sont compensés par les bagages supplémentaires imposés au logiciel du système d'exploitation en raison de limitations de conception et de la complexité accrue des interfaces de composants.
Fait intéressant, ce qui a été une tendance forte est l’émergence de l’hyperviseur, qui, tout comme les micro-noyaux, fait abstraction du matériel. Certains prétendent que les hyperviseurs sont des micro-noyaux. L’architecture de l’hyperviseur est différente, car les responsabilités qui incombent à des micro-noyaux sont gérées par les noyaux "invités", au sommet desquels se trouvent des hyperviseurs multiplexés.
En conclusion: l'avenir favorise ceux qui adoptent la sémantique la moins stricte
* .. ou "Nullpickers sucer à prédire l'avenir"
Dans la pratique, une grande partie du bien / du mal dans le débat est une question de sémantique (et cela faisait partie des arguments de Torvalds et IMHO Tanenbaum n’a pas pleinement compris). Il est difficile d’établir des définitions précises de l’avenir car de nombreux facteurs en dehors de l’argument peuvent intervenir. Une sémantique plus souple signifie que vos prédictions sont une cible plus grande sur le tableau de fléchettes que les autres gars, vous offrant ainsi de meilleures chances. Si vous ignorez la sémantique, les arguments avancés par Torvalds et Tanenbaum étaient corrects à propos de beaucoup de choses et erronés à propos de très peu de choses.
tl; dr
La plupart des ISA ne correspondent pas à la définition sémantique de RISC, mais exploitent la plupart des avantages de conception qui caractérisaient les CPU RISC à l'époque. la quantité de système d'exploitation spécifique au processeur est inférieure à celle attendue par Tanenbaum, sans parler de Torvalds; l'open source domine l'informatique à usage général, mais les consommateurs de ce marché sont principalement ceux qui intègrent l'informatique à des produits à fonction fixe, où une grande partie des avantages des logiciels open source ne sont pas réalisés; Séparer la fonction du système d'exploitation entre les espaces d'adresses ne s'est pas avéré bénéfique, mais la séparation de la fonction du système d'exploitation entre le matériel "virtuel" l'a été. Si vous voulez affirmer que vos prédictions se sont avérées correctes, laissez-vous le plus de marge possible pour les manœuvres sémantiques, tout comme M. Torvalds.
PS Une dernière observation ironique: Linus Torvalds est l’un des plus fervents partisans de la conservation du plus grand nombre possible de nouvelles fonctionnalités dans l’espace utilisateur et hors du noyau Linux.
la source
Il s'est trompé, il semble que tout converge vers l'utilisation de noyaux hybrides. Linux est toujours formellement monolithique, mais l’ajout d’objets tels que FUSE, etc., lui donne un aspect hybride.
Ok, donc x86 n'a pas disparu. Mais RISC ne domine-t-il pas le marché? Des milliards de smartphones utilisant ARM, toutes les consoles de jeu utilisant des processeurs RISC, la plupart du matériel réseau utilisant des processeurs MIPS.
De plus, au début des années 2000, RISC et le CDCI ont tellement convergé qu’il n’y avait pas de différences nettes dans la conception interne. Les processeurs x86 modernes sont essentiellement des RISC internes avec une interface CISC.
Si par GNU OS il entendait GNU Hurd, alors une prédiction totalement fausse. Ce que les gens utilisent massivement, c'est Android. Android est Linux, mais ce n'est pas GNU, car il n'utilise pas GNU libc. Au lieu de cela, il utilise le propre Bionic de Google . Et la part de marché de Linux de bureau standard est toujours inférieure à 2%. Mais parlait-il vraiment de PC grand public? Sur le marché des serveurs, Linux domine absolument avec 70 à 90% des parts, en fonction du segment.
la source
Pas certain.
Demi-droite. Les puces «x86» actuelles sont des RISC sous le capot, avec essentiellement une «interface CISC». x86 ne s'est pas éteint parce qu'Intel avait une part de marché et un chiffre d'affaires suffisants pour effectuer cette transition et la réaliser correctement avant que d'autres solutions RISC ne capturent une part de marché importante.
Deux raisons principales: compatibilité et facilité d'utilisation.
Encore une fois, les systèmes existants (Windows et, dans une moindre mesure, Mac OS) ont une base installée très importante. Cela signifie que beaucoup d'utilisateurs utilisent beaucoup de programmes. Les systèmes d'exploitation GNU gratuits ne peuvent pas dupliquer cela. Le projet WINE a beaucoup travaillé dans cette direction, mais il ne remplace toujours pas un système Windows réel, et les développeurs de WINE n'essaient même pas de prétendre le contraire. Les gens ne veulent pas utiliser un système d'exploitation qui n'exécutera pas leurs programmes favoris, aussi génial soit-il. (Et sans base d'utilisateurs installée, personne ne veut développer pour le système. C'est un problème de poule à l'oeuf.)
Et puis nous arrivons à la convivialité. Ma mère a un système Windows. Elle peut l'utiliser parfaitement pour ses besoins. Tout ce dont elle a besoin pour travailler avec son ordinateur est disponible à partir de l’interface Windows. Si je lui utilisais les mots "ligne de commande", elle ne saurait même pas de quoi je parle. Autant que je sache, il n’est toujours pas possible de le faire sur un système d’exploitation GNU libre. En fait, il est si difficile de travailler avec Linux que même le plus grand des demi-dieux de la communauté a parfois de gros problèmes avec des tâches simples. Et ils ne semblent jamais «comprendre» et travaillent pour résoudre les problèmes, ce qui explique pourquoi ils ne gagnent jamais de parts de marché. (L'article lié devrait être une lecture obligatoire pour quiconque tente de produire un programme grand public!)
la source
Je pense qu'il y a plusieurs raisons assez sérieuses, mais qui n'ont pas été mentionnées.
La première est l'hypothèse plutôt aveugle de Tanenbaum selon laquelle la supériorité technique conduirait à la domination du marché. Les gens se disputent depuis des années pour savoir si les micro-noyaux (nanokernels, picokernels, etc.) sont techniquement supérieurs, mais pour le moment, supposons qu’ils le soient. Nous nous demandons toujours si cette supériorité technique est susceptible de se traduire par une domination du marché. Je vais poser que ce n'est pas. Pour la plupart des gens, Windows, Mac OS, etc. sont suffisants. Pire encore, les améliorations qui feraient une différence significative pour la plupart des utilisateurs concerneraient l'interface utilisateur, et non le noyau.
La seconde consiste à surestimer considérablement le taux de changement sur un marché (raisonnablement) mature. Il est assez facile de changer les choses rapidement si vous avez un nouveau marché. Pour que pratiquement tout le monde soit changé en cinq ans, la migration aurait dû se dérouler à toute vitesse, même s'il l'avait prédit.
Je noterais également une autre manière dont il avait raison et que je n'ai pas vue mentionnée. Les gens ont déjà noté l'omniprésence de RISC (par exemple, dans les téléphones cellulaires). Ce qu'ils n'ont pas mentionné, c'est l'omniprésence de ce que j'appellerais "microkernel 2.0". Ceci est maintenant plus souvent appelé "machine virtuelle" ou "hyperviseur". Ce sont vraiment des micro-noyaux.
La grande différence est que Tanenbaum a pensé à un micro-noyau et à une émulation de système d'exploitation en mode utilisateur conçus spécifiquement l'un pour l'autre. Au lieu de cela, nous avons essentiellement maintenu le système d'exploitation inchangé et conçu le micro-noyau pour l'exécuter tel quel. Ce n’est pas aussi agréable techniquement, mais du point de vue du marché, il est nettement supérieur - au lieu d’un tout nouveau système, l’utilisateur peut continuer à utiliser la majeure partie de son code existant tel quel, et simplement ajouter un nouveau "utilitaire" qui se trouve être vraiment un système d'exploitation micro-noyau.
la source
Une des principales raisons était Windows, en particulier Windows 3.1 et un peu plus tard, Windows 95 et NT 3.51. Les consommateurs ont particulièrement apprécié les interfaces graphiques, contrairement aux anciens systèmes Unix et DOS à base de texte. Cela signifiait que plus de personnes en moyenne achèteraient des ordinateurs pour un usage domestique. En outre, l'explosion d'Internet au milieu des années 90 a entraîné une augmentation des ventes.
Les prix des ordinateurs personnels ont également baissé au cours des années 90 jusqu'à ce qu'ils atteignent le point où ils se trouvent aujourd'hui. Cela était dû aux économies d’échelle présentées par une demande accrue des consommateurs et des entreprises. Par exemple, mes cinq ordinateurs actuels coûtent moins cher que le 486 ordinateurs de bureau que j'ai acheté en 1992.
D'une certaine manière, il a peut-être raison mais dans une direction inattendue. La montée en puissance des appareils mobiles, des smartphones et des tablettes a partiellement contribué à la simplification des systèmes d’exploitation et pourrait réduire l’importance de x86. Cependant, ils vont bien au-delà de ce qui avait été prédit en 1992.
la source
En fin de compte, tout se résume au fait que les choses n’aiment pas vraiment changer.
Nous n'avons pas migré vers un micro-noyau mieux architecturé, car les monolithiques étaient plus faciles à créer, tournaient plus vite et tout le monde savait comment les construire. De plus, étant donné que Linux a été développé en tant que noyau monolithique et est devenu populaire, aucun micro-noyau n’a connu le succès escompté. (c'est un peu la même raison pour laquelle nous utilisons tous Windows, nous utilisons Windows car tout le monde exécute Windows)
RISC, d’autres ont fait remarquer que x86 est à peu près une architecture RISC de nos jours, avec un wrapper CISC au-dessus pour une compatibilité ascendante.
Beaucoup de gens utilisent un système d’exploitation GNU gratuit - sur le serveur. Le Web en est à peu près le moteur. Personne ne le remarque car tous les clients sont Windows. À cette époque, vous aviez le choix: Linux était encore un système d'exploitation amateur; une saveur d'Unix mais vous ne pouviez pas vous permettre de l'acheter; ou pas cher n joyeux Windows. Linux a mis trop de temps à remplacer Unix et n'a toujours pas assez de solution convaincante pour fonctionner sur le bureau (en partie à cause de problèmes idéologiques avec différents systèmes Windows, de pilotes graphiques binaires et de l'absence d'une ABI stable). Cela se passe plutôt bien dans d'autres marchés non liés aux ordinateurs de bureau, tels que celui des systèmes intégrés et mobiles.
la source
Tous sont vrais si vous ne pensez pas qu'un ordinateur est quelque chose sur votre bureau.
C'est vrai - les micro-noyaux n'ont jamais fonctionné parce qu'ils n'étaient jamais assez micro. Si la totalité de votre Linux intégré est plus petite que le bit x86 spécifique du noyau MACH, la question des micro-noyaux est-elle pertinente?
RISC domine le marché. Plus de processeurs ARM sont vendus chaque année que les processeurs X86. Vous n'êtes probablement jamais à plus de 6 pieds d'un processeur ARM.
Presque tout le monde utilise Linux, que ce soit dans son routeur, sa TV setop, son Tivo et son téléphone Android - ils ne savent tout simplement pas qu'ils ont un système d'exploitation
la source
1) Il s'est trompé sur les micro-noyaux. D'après ce que j'ai compris, l'exigence de rapidité l'emporte sur la séparation des préoccupations imposée dans les micro-noyaux, du moins dans le noyau Linux.
2) L'architecture prédominante dans les tablettes et les téléphones mobiles est ARM, qui est un jeu d'instructions RISC. Même Windows a été porté.
3) Tout le monde n’exécute pas un système d’exploitation GNU libre. Ceci est principalement dû aux brevets et à la compatibilité ascendante. Ceux qui ne veulent pas de Windows choisissent fréquemment OS X.
la source
1. Microkernels a échoué
Pour les raisons que Linus Torvalds a exposées, sur le papier, il semble théoriquement attrayant, mais sa mise en oeuvre sur des systèmes modernes - systèmes très complexes - rend la complexité impossible à gérer de façon exponentielle. L’étude de cas est GNU Hurd, un système entièrement à micro-noyau qui n’a même pas réussi à atteindre les fonctions de base. La structure de Mac OS X est similaire à celle de Hurd. Il s'agit du système d'exploitation le moins stable et le plus contraint du marché.
2. Architecture du processeur
Ceci est devenu diversifié pour divers cas d'utilisation. Une architecture de processeur n’a pas dominé car les cas d’utilisation embarqués, mobiles, de bureau, de serveur, etc. sont différents et nécessitent des approches différentes. Tannenbaum n'a pas vu cette diversification.
3. GNU vs Monde?
GNU ne dominait pas, mais Linux le faisait sur serveur, embarqué et mobile. Les tablettes et téléphones Apple fonctionnent sous iOS, ce qui est tout simplement un vieil Unix. Il est difficile d’obtenir des statistiques précises pour les déploiements Linux sur poste de travail car il n’existe pas de véritable mécanisme central - la vente d’unités - pouvant donner une valeur exacte. La plupart des déploiements Linux sur le bureau sont parfois enregistrés en tant que déploiements Windows car les utilisateurs achètent un système Windows et l'écrivent ensuite avec Linux. Toutefois, si vous segmentez les systèmes d’exploitation, alors que Linux a environ 5 à 6% du nombre total de postes de travail sur le bureau, selon http://www.w3schools.com/browsers/browsers_os.asp , ce qui correspond au nombre d’utilisateurs de Windows Vista dans le monde, ce qui est très significatif. .
D'après mes propres estimations provenant de diverses sources, il semble que Linux sur le bureau puisse en réalité être égal au nombre d'utilisateurs de Windows XP - environ 25% - si vous comptez des pays non occidentaux comme la Chine et l'Inde où Linux est plus populaire que dans États-Unis ou de l’UE mais qui pourraient ne pas être comptés dans les statistiques occidentales car ils ne comptent que le trafic sur des sites Web anglophones destinés aux Occidentaux.
En Inde, la plupart des étudiants utilisent Ubuntu ou Fedora, car il s’agit du système d’exploitation par défaut des systèmes d’enseignement indiens et du célèbre IIT. La plupart des bureaux du gouvernement indien utilisent également Linux. En Chine, Red Flag Linux est l’OS officiel du gouvernement et des systèmes scolaires chinois - les Académies des arts et des sciences - et l’OS recommandé en Chine par les médias gérés par l’État pour empêcher les jeunes Chinois appauvris d’utiliser des copies piratées de Windows. Si vous tenez compte de l'utilisation de Linux en Inde et en Chine, cela choquerait la plupart des experts en technologie occidentaux et changerait radicalement la perception de la véritable domination de l'ordinateur Linux dans les pays en développement non occidentaux où il est dominant.
la source
La production est devenue moins chère, le x86 étant si proche du prix du RISC qu'il n'était plus envisageable de l'utiliser. Il y avait aussi un petit lock-in vendeur.
la source
la source
Cela dépend de la façon dont vous voyez et définissez l'avenir, au sens traditionnel où ses prédictions ont échoué.
Cependant, le temps n'est pas encore écoulé (une autre discussion plus approfondie est laissée de côté) .
Ainsi, les choses pourraient encore changer:
Les micro-noyaux ou certaines variantes pourraient faire leur retour
RISC / ARM pourrait bien dominer -> tablettes / mobiles
Dans 10 ou 15 ans. Qui sait, l'open source change lentement le monde ..
la source
Pour 2: le jeu d'instructions CISIC présente un gros avantage: il est plus compact que le code machine compressé. De nos jours, décoder les instructions de l'ICCA en micro-opérations coûte très peu cher et accéder à la mémoire RAM est très coûteux. Donc, le CDCI a l’avantage d’insérer plus de code dans les caches L1 / L2 / L3
la source
Je me souviens du temps - et du temps qui l'a précédé. Je ne sais pas pour les microkernaux, mais
2) L'idée de RISC reposait sur deux piliers: l'optimisation logicielle pouvait être mieux réalisée dans le logiciel que dans le matériel et les puces RISC pouvaient être fabriquées économiquement plus rapidement que les puces CISC.
Les deux idées se sont révélées fausses à court terme. Intel pouvait, et a fait, des puces CISC cadencées plus rapidement que les puces RISC concurrentes, à un prix concurrentiel. Intel pourrait, et a fait, rendre les puces CISC qui optimisent le programme matériellement mieux que celles du compilateur ou du superviseur d’exécution du logiciel - et toute optimisation logicielle pourrait être ajoutée par-dessus Puce RISC.
3) L'informatique, la programmation et les opérations ont été complètement réinventées 4 fois dans ma carrière. Du cadre principal au PC. De la ligne de commande à l'interface graphique. De l'interface graphique à Internet. D'Internet à l'iPad. La révolution semble normale maintenant, mais NOUS N'AVONS PAS PRÉVU CELA. Comme tous les programmeurs plus âgés à l'époque, il prédit la «fin de l'histoire».
Très peu de personnes utilisaient un système d’exploitation GNU au cours des cinq dernières années, car le décompte avait repris.
Peut-être que ça continue. Il y a 5 ans, vous auriez prédit que notre serveur Windows serait remplacé par des serveurs * nix (à l'heure où j'écris, SAMBA a publié un serveur de domaine AD, qui était la pièce manquante du puzzle). Cela ne se produira pas là où je travaille: nous n’aurons aucun serveur local.
la source