Pourquoi Alan Kay a-t-il dit: «Internet était si bien fait, mais le Web était par des amateurs»?

86

OK, alors j'ai paraphrasé. La citation complète:

Internet était si bien fait que la plupart des gens y voient une ressource naturelle comme l'océan Pacifique, plutôt que quelque chose de artificiel. Quand était la dernière fois une technologie avec une telle échelle était-elle si sans erreur? Le Web, en comparaison, est une blague. Le Web a été fait par des amateurs. - Alan Kay.

J'essaie de comprendre l'histoire d'Internet et du Web, et cette affirmation est difficile à comprendre. J'ai lu ailleurs qu'Internet est maintenant utilisé pour des choses très différentes de celles pour lesquelles il a été conçu, et peut-être que cela en tient compte.

Qu'est-ce qui rend Internet si bien fait, et qu'est-ce qui rend le web si amateur?

(Bien sûr, Alan Kay est faillible, et personne ici n'est Alan Kay, nous ne pouvons donc pas savoir précisément pourquoi il a dit cela, mais quelles sont les explications possibles?)

* Voir aussi l'interview originale *.

Kalaracey
la source
24
En fait, Alan Kay a déjà répondu à une question de débordement de pile ...
World Engineer
6
À mon humble avis, la plus grande opportunité manquée n’était pas de rendre l’analyse HTML stricte. Par exemple, les prédécesseurs tels que SGML, etc., avaient des règles d’analyse strictes, mais les premiers serveurs Web / UA autorisaient tout type de HTML et faisaient de leur mieux pour les afficher. Cela facilitait le démarrage de HTML, mais posait des problèmes pendant des années.
Jqa
9
À mon humble avis, le problème fondamental est que l'utilisation du Web a été étendue bien au-delà de son domaine d'application initial (hyper text).
chmike
3
J'ai beaucoup de respect pour le travail d'Alan Kay, mais il parle de son dos s'il croit vraiment cela. En tant que personne qui a passé beaucoup de temps à implémenter des analyseurs syntaxiques de bas niveau, je peux affirmer en toute confiance que les API pour TCP / IP étaient aussi amateures que naïves. Bien sûr, implémentez une extension d’extensions d’options de longueur variable (que personne n’a jamais utilisée), mais fixez l’espace adresse et fixez-le à une longueur de 2 octets, car ce n’était pas idiot.
Evan Plaice

Réponses:

61

Il développe en fait ce sujet à la deuxième page de l'interview. Ce ne sont pas les défauts techniques du protocole qu'il déplore, mais la vision des concepteurs de navigateurs Web. Comme il l'a dit:

Vous voulez que ce soit un mini-système d'exploitation, et les utilisateurs du navigateur l'ont confondu avec une application.

Il donne des exemples spécifiques, tels que la page Wikipedia sur un langage de programmation ne pouvant exécuter aucun exemple de programme dans ce langage et l'absence d'édition WYSIWYG, même si celle-ci était disponible dans les applications de bureau bien avant le Web. 23 ans plus tard, nous parvenons à peine à contourner les limites imposées par les décisions de conception de navigateur Web d'origine.

Karl Bielefeldt
la source
Il souhaitait donc que le navigateur soit un mini système d'exploitation, en ce sens qu'il serait plus interactif que le début HTML (ça s'améliore maintenant, je suis d'accord)?
Kalaracey
2
Qu'est-ce que WYSIWYG a à voir avec le Web? C'est purement une fonctionnalité du navigateur. Or, le manque d’ édition appropriée est un véritable échec Web. POSTest tout à fait inadéquat à cette fin.
MSalters
9
"Qu'est-ce que WYSIWYG a à voir avec le Web?" C'est le point, la vision du web est très limitée. Fichiers texte statiques en cours de circulation. Aucune interaction. Aucune logique. Pas de code. C'est une vision très limitée par rapport à ce que les ordinateurs peuvent faire et ce que Kay avait déjà vu se faire des années auparavant. Et parce que le Web est si statique, il nécessite une révision constante. Selon la vision de Kay, le navigateur lui-même viendrait avec la page Web affichée.
Cormac Mulhall
2
Dans un monde idéal, des frameworks tels que les applets Java et Flash tentaient de le transformer en réalité. Lorsque vous prenez en compte les aspects de sécurité, la compatibilité intersystème, la capacité à évoluer et le travail nécessaire pour conserver l'état entre les demandes. Il n’est pas étonnant que l’avancement ait pris si longtemps. Certaines personnes très intelligentes / talentueuses ont passé des années à résoudre les défauts / faiblesses fondamentaux d'une spécification naïve.
Evan Plaice
79

En un sens, il avait raison. Les versions originales (pré-spéc.) De HTML, HTTP et URL ont été conçues par des amateurs (et non des utilisateurs de standards). Et il y a des aspects des designs respectifs ... et des spécifications (originales) suivantes ... qui sont (pour le dire poliment) pas aussi bons qu'ils auraient pu l'être. Par exemple:

  • HTML ne séparait pas la structure / le contenu de la présentation, et il a nécessité une série de révisions ... et des spécifications supplémentaires (CSS) ... pour y remédier.

  • HTTP 1.0 était très inefficace, nécessitant une nouvelle connexion TCP pour chaque "document" récupéré.

  • La spécification d'URL était en fait une tentative de désosser une spécification pour quelque chose qui était essentiellement ad hoc et incohérent. Il y a encore des lacunes dans le domaine de la définition des schémas, et les règles de syntaxe pour les URL (par exemple, ce qui doit être échappé là où) sont baroques.

Et s'il y avait eu auparavant plus de personnes "professionnelles" dans le domaine des normes, beaucoup de ces "ratés" n'auraient peut-être pas été faits . (Bien sûr, nous ne le saurons jamais.)

Cependant, le Web a réussi à merveille malgré ces choses. Et tout le mérite devrait aller aux personnes qui ont rendu cela possible. Qu'ils soient ou non "amateurs" à l'époque, ils ne le sont certainement pas pour le moment.

Stephen C
la source
29
il y a aussi le problème que HTML a été pollué par la guerre du navigateur
Ratchet Freak
3
Cela explique en partie mon insatisfaction face aux normes actuelles. Je ne peux m'empêcher de penser que c'est une chose que nous devons revoir avec les avantages à la fois de l'expérience, du recul et des capacités techniques actuelles.
Greyfade
3
@greyfade - Malheureusement, le W3C est sérieusement entravé dans cet objectif par 1) des millions d'installations de serveurs Web héritées, des milliards de pages Web héritées et 2) des entreprises qui sont plus intéressées par l'utilisation de la carte "avantage commercial" que par la résolution de problèmes.
Stephen C
3
@StephenC: Néanmoins, je soutiendrais fermement un effort visant à établir de nouvelles normes plus performantes.
Greyfade
1
@ Greyfade C'est aussi le problème d'Internet. Des millions de routeurs avec une pile IP / TCP et un modèle OSI, un modèle meilleur et normalisé ne sera pas adopté.
m3th0dman
27

Cela semble être dû à un désaccord fondamental entre Alan Kay et les personnes (principalement Tim Berners-Lee) qui ont conçu le Web, à propos du fonctionnement d'un tel système.

Selon Kay, le navigateur idéal devrait vraiment être un mini système d'exploitation avec une seule tâche: exécuter en toute sécurité le code téléchargé sur Internet. Dans la conception de Kays, le Web ne consiste pas en pages, mais en "objets" de type boîte noire pouvant contenir tout type de code (dans la mesure où il est sûr). C'est pourquoi il dit qu'un navigateur ne devrait pas avoir de fonctionnalités. Un navigateur n'aurait pas besoin d'un analyseur HTML ou d'un moteur de rendu, car tout cela devrait être implémenté par les objets. C'est aussi la raison pour laquelle il ne semble pas aimer les normes. Si le contenu n'est pas rendu par le navigateur mais par l'objet lui-même, aucun standard n'est nécessaire.

Évidemment, cela serait immensément plus puissant que le Web aujourd'hui où les pages sont limitées par les bugs et les limitations des navigateurs et des normes Web actuels.

La philosophie de Tim Berners-Lee, l'inventeur du Web, est presque exactement l'inverse. Le document " Le principe du moindre pouvoir " expose les principes de conception sous-jacents à HTTP, HTML, URL, etc. Il souligne les avantages des limitations. Par exemple, il est plus facile d'analyser un langage déclaratif bien spécifié, tel que HTML, ce qui permet aux moteurs de recherche tels que Google. L'indexation n'est pas vraiment possible dans le Web Kays d'objets turing-complets de boîte noire. Donc, le manque de contraintes sur les objets les rend beaucoup moins utiles. Quelle est la valeur des objets puissants si vous ne les trouvez pas? Et sans une notion standard de liens et d'URL, l'algorithme de classement par page de Googles ne pourrait pas fonctionner. Et les signets non plus.

Un autre problème est la production de contenu. Nous avons maintenant divers outils, mais même depuis le début, tout amateur peut apprendre à créer une page html dans le bloc-notes. C'est ce qui a lancé le Web et l'a fait se répandre comme une traînée de poudre. Déterminez si la seule façon de créer une page Web vous oblige à commencer à programmer votre propre moteur de rendu? La barrière à l'entrée serait immense.

Les applets Java et Silverlight ressemblent dans une certaine mesure à la vision de Kays. Les deux systèmes sont beaucoup plus flexibles et puissants que le Web (vous pouvez y intégrer un navigateur), mais souffrent des problèmes décrits ci-dessus. Et les deux technologies sont fondamentalement mortes dans l'eau.

Tim Berners-Lee était un informaticien qui avait une expérience des réseaux et des systèmes d’information avant d’inventer le Web. Il semble que Kay ne comprenne pas les idées derrière le Web et pense donc que les concepteurs sont des amateurs sans connaissance de l’informatique. Mais Tim Berners-Lee n'était certainement pas un amateur.

JacquesB
la source
6
+1 Selon Alan Kay, beaucoup de choses le font apparaître comme le genre de personne qui ne comprendrait pas la vieille blague sur la différence entre la théorie et la pratique. Au fil des ans, il a développé de nombreuses théories qui ont échoué dans la pratique et ont été complètement surclassées sur le «marché des idées» par des systèmes moins théoriquement jolis qui fonctionnent réellement, et Kay ne semblait jamais le comprendre.
Mason Wheeler
2
"langage déclaratif bien spécifié comme HTML". C'est riche.
Andy
2
Pour son objectif, hypertexte, html va bien. Mais en tant que plate-forme d'application, il échoue lamentablement. Le seul avantage était l'absence de déploiement et de plate-forme agnostique. La recherche n'est pas la seule chose que les gens font sur un ordinateur. Planification financière, jeux, interactions sociales, etc. Qui se soucie de savoir si je ne peux pas rechercher mon jeu de blackjack? Étant donné le choix entre une application Web et une application mobile, la plupart des utilisateurs choisissent l'application native. Il y a une raison à cela.
Andy
2
Nul doute que les applications natives sont plus puissantes, mais ce n'est pas vraiment la question. Selon Kay, le Web ne devrait provenir que d'applications natives, pas du tout de HTML. Une telle toile n'aurait jamais décollé.
JacquesB
3
@ Pacerier: Nous avions déjà la possibilité de faire tout cela avec des applets Java il y a plusieurs décennies, et avec ActiveX, Silverlight, etc. Le Web n’est pas du tout retardé car il ne vous limite pas au HTML, il peut prendre en charge tous les formats de supports, y compris le code tel que les applets Java. Il n’est tout simplement pas utilisé très largement pour les raisons que j’ai mentionnées dans la réponse.
JacquesB
22

J’ai lu que Kay connaissait assez mal les protocoles de niveau inférieur pour supposer qu’ils étaient bien plus propres que le Web de niveau supérieur. L’époque de la «conception par les professionnels» dont il parle a toujours des problèmes majeurs de sécurité (usurpation d’espionnage, c’est encore trop facile), de fiabilité et de performances. Retournez un peu plus loin et les noms d’hôtes ont été résolus en recherchant un fichier texte que les gens devaient distribuer!

Les deux systèmes sont des systèmes hétérogènes complexes et posent d'importants problèmes de compatibilité ascendante chaque fois que vous souhaitez réparer une verrue. Il est facile de repérer les problèmes, difficile à les résoudre, et comme l’affiche la liste des concurrents échoués, il est étonnamment difficile de concevoir quelque chose d’équivalent sans suivre la même courbe d’apprentissage.

Comme un biologiste pourrait le dire à un défenseur de la conception intelligente, si vous examinez l’une ou l’autre solution et la conception géniale, vous ne la regardez pas assez attentivement.

Chris Adams
la source
2
Le fichier .hosts est toujours utilisé sur pratiquement toutes les plateformes. C'est pratique pour mettre un site malveillant sur une liste noire.
Rob K
@RobK Certainement - cette histoire est profonde, même si nous n'utilisons pas des outils tels que tools.ietf.org/html/rfc953 pour le mettre à jour. Ces jours-ci, cependant, je me demande si l'usage le plus courant est le malware.
Chris Adams
10

Ah oui, j'ai posé cette question à Alan à plusieurs reprises, par exemple lorsqu'il était à Potsdam et sur la liste de diffusion fonc . Voici une citation plus récente de la liste qui me l'a très bien résumé:

Après avoir littéralement passé des décennies à essayer d'ajouter de plus en plus de fonctionnalités et ne correspondant pas encore au logiciel par rapport aux machines sur lesquelles le navigateur d'origine était utilisé, ils commencent lentement à penser qu'ils devraient exécuter en toute sécurité des programmes écrits par d'autres. Ce n’est que depuis quelques années - avec Native Client sous Chrome - que des programmes très rapides peuvent être téléchargés en toute sécurité en tant qu’exécutables sans la permission d’un administrateur système.

D'après ce que je comprends de ses diverses réponses, il pense que les navigateurs Web ne devraient pas afficher de documents (HTML), éventuellement enrichis, mais simplement exécuter des programmes. Personnellement, je pense qu'il a tort, même si je peux voir d'où il vient. Nous avions déjà ce genre de chose avec ActiveX, les applets Java, Flash et maintenant les applications JavaScript "riches", et l'expérience n'a généralement pas été satisfaisante, et mon opinion personnelle est que, même à l'heure actuelle, la plupart des sites lourds en JavaScript sont un peu en retrait du bon code HTML. sites, pas un arrêt en avant.

Théoriquement, bien sûr, tout cela a du sens: essayer d’ajouter une interactivité fragmentaire à ce qui est fondamentalement le langage de description de document est rétrograde et s'apparente à l’ajout de plus en plus d’épicycles au système ptolémaïque, alors que la «bonne» réponse consiste à déterminer ) le texte est un cas particulier d’un programme et nous devrions donc envoyer des programmes.

Cependant, étant donné le succès concret du WWW, je pense qu'il est sage de modifier nos théories plutôt que de le critiquer pour ne pas avoir le culot de se conformer à nos théories.

mpw
la source
1
J'en viens à cette conviction pour voir mon commentaire sur la question initiale. L’exécution de code native et sécurisée dans le navigateur (en tant que "système d’exploitation") plutôt qu’en tant que version plus dynamique de documents fondamentalement statiques (je pense, peut-être certainement) est ce à quoi il s’intéresse.
Kalaracey
1
Oui, mais nous avons déjà un système d’exploitation et nous pouvons déjà télécharger des programmes du Web pour les exécuter sur notre système d’exploitation. Si nous voulions cette fonctionnalité, nous l’avions déjà! Donc, le navigateur, IMHO, répond à un besoin différent des utilisateurs, mais le moteur du Web en tant que plate-forme de diffusion d'applications semble être davantage axé sur le fournisseur (cool shiny tech + déploiement plus facile).
mpw
3
"Oui, mais nous avons déjà un système d'exploitation et nous pouvons déjà télécharger des programmes du Web pour les exécuter sur notre système d'exploitation ..." Mais le problème est la confiance . Vous ne téléchargeriez pas le même nombre d'applications natives sur votre ordinateur en une journée que le nombre de sites Web que vous visitez, simplement parce que vous ne téléchargez que les applications auxquelles vous faites confiance (le producteur de l'application) / verify (MD5 / SHA), vous ne le faites pas. t aveuglément télécharger des dizaines (centaines) de personnes que vous ne connaissez pas. OTOH, avec le navigateur comme système d'exploitation, vous obtenez le meilleur des deux mondes!
Kalaracey
@mpw non, le navigateur ne répond pas à cela. Les "applications" de Brower sont horribles car elles essaient d'abuser du navigateur pour en faire quelque chose qui ne l'est pas. Il offre les contrôles les plus élémentaires et JavaScript est utilisé pour essayer de rendre tout ce qui est distant du jeu de contrôles riche. Ce qui fait avancer la vision de Kays, ce sont les magasins d'applications de Microsoft, Apple et Google. Je pense que les utilisateurs normaux utiliseront moins les navigateurs au fur et à mesure que les applications continuent à progresser. Le Web sera toujours là, mais il sera utilisé en coulisse par les applications.
Andy
@mpw, nous devrions l'avoir, mais nous ne l' avons pas déjà. Quel est l'URI pour exécuter Eclipse dans mon navigateur maintenant? Il n'y en a pas. C'est le problème. C'est la différence entre la vision d'Alan et l'idée virale à courte vue de Tim. Avec l’idée boiteuse de Tim, vous devez télécharger Eclipse en utilisant un URI de votre navigateur sur votre système d’exploitation, puis l’exécuter manuellement en dehors du navigateur. Avec l'idée d'Alan, il vous suffit de télécharger, d'exécuter en cache, d'exécuter Eclipse à l'aide d'un URI. Tim n'a pas inventé le web , il a tué il avec son boiteux, minable produit « contrefait ». ...
Pacerier
4

On ne peut pas vraiment dire qu'Internet ou le Web ait été inventé par des amateurs ou des professionnels, car ces domaines sont absolument nouveaux. toutes les personnes étaient amateurs de protocoles Internet avant d’être inventées, de sorte que, d’un point de vue, les inventeurs d’Internet étaient aussi des amateurs.

Si nous devions vraiment juger, Internet n'était pas si génial après tout: IPv6 est nécessaire. Et il ne s'agit pas uniquement de l'espace d'adressage; IPv6 a un nouvel en-tête avec moins de champs différents.

Une autre grande différence par rapport à Internet et au Web est la façon dont ils sont perçus par le programmeur; un programmeur interagit rarement avec Internet. De son point de vue en IP, vous avez des adresses et en TCP, vous avez un port en plus et vous êtes assuré que les paquets sont envoyés. C'est à peu près tout ... Alors qu'avec le Web, le programmeur a une interaction plus intense: méthodes HTTP, en-têtes, HTML, URL, etc. Il est normal de voir les limites de quelque chose avec beaucoup plus de possibilités que dans quelque chose avec presque aucune possibilité. Avec cela, je ne veux pas dire que l'Internet est simple:

En ce qui concerne la grandeur de ces deux technologies, Internet est très apprécié parce qu’il s’agit d’une technologie très évolutive et que l’idée de superposition en couches était très bonne; aux niveaux inférieurs, vous pouvez utiliser n’importe quelle technologie (WLAN, Ethernet, Token Ring, etc.) et utiliser IP comme protocole intermédiaire standard sur lequel TCP et UDP sont placés et au-dessus duquel vous pouvez essentiellement ajouter le protocole d’application souhaité.

La grandeur du Web est strictement liée à la grandeur de l’Internet parce que le Web repose fortement sur Internet, avec la pile TCP / IP en dessous. Mais je dirais qu'Internet dépend aussi du Web. Internet existait 20 ans avant le Web et était plutôt anonyme, mais 20 ans après le Web, Internet est omniprésent et tout cela grâce au Web.

m3th0dman
la source
10
Ce n'est pas tout à fait vrai. Vinton Cerf a étudié la mise en réseau de paquets de données dans une école supérieure et Bob Kahn a travaillé pour le bureau des technologies de traitement de l'information de l'ARPA. Ils étaient donc tous deux des professionnels lorsqu'ils ont développé le protocole TCP / IP. Berners-Lee, en revanche, était en physique des particules.
2
@ GrahamLee Berners-Lee n'était pas en physique; Selon Wikipédia en 1980 au CERN, il "proposa un projet basé sur le concept d'hypertexte, afin de faciliter le partage et la mise à jour des informations entre chercheurs". De 1981 à 1984, "travaillait sur un appel de procédure à distance en temps réel qui lui donnait une expérience des réseaux informatiques". Ainsi , en 1989-1990 , il n'a pas été un amateur ... les deux citations ont des références en.wikipedia.org/wiki/Tim_Berners-Lee
m3th0dman
Ensuite, la réponse a plus de problèmes: tout le monde couvert par "tous les gens étaient amateurs" se révèle être unamateur :-(
@ GrahamLee Si nous voulons être des absolutistes; J'ai tendance à croire que von Neumann n'était pas vraiment un professionnel de l'architecture informatique quand il l'a écrit - en.wikipedia.org/wiki/First_Draft_of_a_Report_on_the_EDVAC - au fond, il n'était même pas terminé et représentait le plan en bleu pour la plupart des architecture informatique utilisée aujourd'hui. À cette époque, von Neumann était occupé par le projet Manhattan et avant cela, l'architecture informatique n'existait pas (ou nous pourrions aller à Babbage et dire la même chose).
m3th0dman
1
Non, il n'était pas, il était mathématicien. Bien que les gens cherchent des solutions aux contraintes des machines de von Neumann (ou plus exactement de
4

Je pense qu'il indiquait quelque chose de moins obscur. TBL ne connaissait rien du travail sur l'hypertexte entrepris depuis les années 60. Ce travail n'a donc pas influencé la conception du Web. Il parle souvent de l'informatique en tant que culture pop, où les praticiens ne connaissent pas leur histoire et «réinventent continuellement le pneu crevé».

Gregor McNish
la source
4

Internet a remarquablement bien fonctionné en tant que prototype du concept de commutation par paquets découvert par Baran, Pouzin et ses contemporains. Contrairement à l'opinion courante, cela ne signifie pas que IPv4, tel qu'il a été transmis, constitue l'architecture de protocole parfaite, ni qu'IPv6 constitue la voie à suivre. John Day, qui était profondément impliqué dans le développement d'ARPANET et de l'IP, l'explique dans son livre de 2008 intitulé Patterns of Network Architecture .

En ce qui concerne le Web, selon les mots de Richard Gabriel, "Pire c'est mieux". Le compte de Tim Berners-Lee, Weaving The Web , est décent. La naissance du Web par Gillies & Cailliau est plus dense et moins lisible, mais présente de nombreux détails et des liens fascinants avec d’autres événements de l’informatique personnelle de l’époque. Je ne pense pas que Kay lui accorde suffisamment de crédit.

vdm
la source
1

Je ne sais pas, une partie de l'internet non-Web a des verrues horribles. Le courrier électronique existait avant le Web et faisait partie d’Internet. Le standard est très ouvert et nécessite beaucoup de piratages pour pouvoir traiter (mais pas résoudre) le problème du spam.

Rory
la source
3
Je pense que par Internet, il voulait dire tcp / ip, et par Internet, http / html / javascript, plutôt que par courrier électronique. Il parle ensuite du navigateur.
Kalaracey
Le courrier électronique se rapporte à Internet exactement comme le fait le Web. Il est donc tout simplement inexact de qualifier d'internet quelque chose de distinct. En outre, Kay a déclaré que nous prenions le filet pour acquis, tout comme l'océan Pacifique. Le fait que vous commenciez à parler de courrier électronique dans votre réponse prouve assez bien le problème. :-)
The Pellmeister le
0

"Amateur" ne désigne pas le manque de compétences en programmation, mais le manque d'imagination.

Le problème sous-jacent au Web de Tim Berners-Lee est qu’il n’a jamais été conçu pour les développeurs . (Cela contraste vivement avec la toile d'Alan Kay.)

Le site Web de Tim a été conçu pour les non-développeurs qui publieraient directement sur le Web en manipulant des fichiers contenant leurs journaux / articles entrecoupés de langage HT-markup: c'est comme dans les années 1980 WordPerfect et MS-Word, sauf qu'ils utiliseraient " <b> < / b> "au lieu de cliquer sur l' Bicône, et l'enregistrerait au format " .htm " ouvert au lieu du format propriétaire" .doc ". Il s’agit de la balise " <a> " qui permet à ces revues / articles statiques d’être globalement interconnectés.

Et voilà, c'est toute la vision Web de Tim: son site Web n'est qu'une simple autoroute mondiale d' articles statiques interdépendants . Peut-être que si vous aviez l'argent, vous pouvez acheter un éditeur comme Dreamweaver, Nexus , Publisher, Citydesk ( ? ) , Etc. , qui vous aiderait à générer tous les tags " <b> </ b> " en cliquant sur l' Bicône.

Et nous voyons comment sa vision n'a pas fonctionné comme prévu. En effet, il y a d'énormes drapeaux rouges dès le début que le monde avait voulu bien plus que ce que propose la vision de Tim:

  • Drapeau rouge 1: L'essor rapide de "smart CGI" (PHP).

  • Drapeau rouge 2: La montée rapide du "HTML intelligent" (Javascript).

Ces jours-ci, nous avons encore plus de drapeaux rouges comme la montée de Chrome-OS-le-navigateur-est-le-système d'exploitation ( exactement ce qu'Alan Kay avait prévu pour le navigateur) et les extensions WASM / browser.


Contrairement au site Web de Tim, le site Web d'Alan Kay est un site Web dynamique conçu pour les programmeurs: une autoroute mondiale composée de programmes dynamiques interdépendants . Les non-développeurs qui ont besoin d'une "page" en publieraient simplement une en utilisant un programme sur le Web . (Et le programme lui-même a évidemment été écrit par des programmeurs, pas par des HTML-dabblers.)

C'est exactement le statu quo de la toile de Tim dans les années 2000, mais si nous avions eu la toile d'Alan, cela aurait été fait dans les années 1990: au lieu que le monde ait "wordpress and friendster" seulement dans les années 2000, nous le ferons ont-ils raison quand le Web a commencé dans les années 1990.

.. De même, au lieu d’avoir des programmes comme Steam, Visual Studio, Warcraft, VM Ware sur le Web dans les années 2040, nous les aurons maintenant dans les années 2010. (Le retard de plusieurs décennies est dû au fait que ces programmes ont déjà été conçus pour le système d'exploitation tel que l'OS n'est pas le navigateur, ce qui réduit l'incitation économique à les reconstruire sur un système d'exploitation tel que le navigateur. -OS.)

C’est donc ce que les gens veulent dire quand ils disent que Tim Berners-Lee a tué le True Web dynamique en poussant son "web statique minable" sur le monde. Avez-vous déjà entendu parler des termes "Web 2.0", "Web 3.0"? Ils auraient simplement été appelés "Le Web" si nous avions le site Web d'Alan au lieu du site Web de Tim. Mais le site Web de Tim a besoin d'une révision constante car il est tellement statique .

De toute évidence, tous les espoirs ne sont pas perdus, car le Web peut être réaménagé de la manière que les vendeurs de navigateurs définissent. Mais le fait est que tous ces trucs "d’avant-garde" qu’ils "inventent" sur le Web sont déjà des trucs qui ont déjà été inventés. Nous pourrions déjà tout avoir aujourd'hui, pas demain.

Pacerier
la source