OK, alors j'ai paraphrasé. La citation complète:
Internet était si bien fait que la plupart des gens y voient une ressource naturelle comme l'océan Pacifique, plutôt que quelque chose de artificiel. Quand était la dernière fois une technologie avec une telle échelle était-elle si sans erreur? Le Web, en comparaison, est une blague. Le Web a été fait par des amateurs. - Alan Kay.
J'essaie de comprendre l'histoire d'Internet et du Web, et cette affirmation est difficile à comprendre. J'ai lu ailleurs qu'Internet est maintenant utilisé pour des choses très différentes de celles pour lesquelles il a été conçu, et peut-être que cela en tient compte.
Qu'est-ce qui rend Internet si bien fait, et qu'est-ce qui rend le web si amateur?
(Bien sûr, Alan Kay est faillible, et personne ici n'est Alan Kay, nous ne pouvons donc pas savoir précisément pourquoi il a dit cela, mais quelles sont les explications possibles?)
* Voir aussi l'interview originale *.
la source
Réponses:
Il développe en fait ce sujet à la deuxième page de l'interview. Ce ne sont pas les défauts techniques du protocole qu'il déplore, mais la vision des concepteurs de navigateurs Web. Comme il l'a dit:
Il donne des exemples spécifiques, tels que la page Wikipedia sur un langage de programmation ne pouvant exécuter aucun exemple de programme dans ce langage et l'absence d'édition WYSIWYG, même si celle-ci était disponible dans les applications de bureau bien avant le Web. 23 ans plus tard, nous parvenons à peine à contourner les limites imposées par les décisions de conception de navigateur Web d'origine.
la source
POST
est tout à fait inadéquat à cette fin.En un sens, il avait raison. Les versions originales (pré-spéc.) De HTML, HTTP et URL ont été conçues par des amateurs (et non des utilisateurs de standards). Et il y a des aspects des designs respectifs ... et des spécifications (originales) suivantes ... qui sont (pour le dire poliment) pas aussi bons qu'ils auraient pu l'être. Par exemple:
HTML ne séparait pas la structure / le contenu de la présentation, et il a nécessité une série de révisions ... et des spécifications supplémentaires (CSS) ... pour y remédier.
HTTP 1.0 était très inefficace, nécessitant une nouvelle connexion TCP pour chaque "document" récupéré.
La spécification d'URL était en fait une tentative de désosser une spécification pour quelque chose qui était essentiellement ad hoc et incohérent. Il y a encore des lacunes dans le domaine de la définition des schémas, et les règles de syntaxe pour les URL (par exemple, ce qui doit être échappé là où) sont baroques.
Et s'il y avait eu auparavant plus de personnes "professionnelles" dans le domaine des normes, beaucoup de ces "ratés" n'auraient peut-être pas été faits . (Bien sûr, nous ne le saurons jamais.)
Cependant, le Web a réussi à merveille malgré ces choses. Et tout le mérite devrait aller aux personnes qui ont rendu cela possible. Qu'ils soient ou non "amateurs" à l'époque, ils ne le sont certainement pas pour le moment.
la source
Cela semble être dû à un désaccord fondamental entre Alan Kay et les personnes (principalement Tim Berners-Lee) qui ont conçu le Web, à propos du fonctionnement d'un tel système.
Selon Kay, le navigateur idéal devrait vraiment être un mini système d'exploitation avec une seule tâche: exécuter en toute sécurité le code téléchargé sur Internet. Dans la conception de Kays, le Web ne consiste pas en pages, mais en "objets" de type boîte noire pouvant contenir tout type de code (dans la mesure où il est sûr). C'est pourquoi il dit qu'un navigateur ne devrait pas avoir de fonctionnalités. Un navigateur n'aurait pas besoin d'un analyseur HTML ou d'un moteur de rendu, car tout cela devrait être implémenté par les objets. C'est aussi la raison pour laquelle il ne semble pas aimer les normes. Si le contenu n'est pas rendu par le navigateur mais par l'objet lui-même, aucun standard n'est nécessaire.
Évidemment, cela serait immensément plus puissant que le Web aujourd'hui où les pages sont limitées par les bugs et les limitations des navigateurs et des normes Web actuels.
La philosophie de Tim Berners-Lee, l'inventeur du Web, est presque exactement l'inverse. Le document " Le principe du moindre pouvoir " expose les principes de conception sous-jacents à HTTP, HTML, URL, etc. Il souligne les avantages des limitations. Par exemple, il est plus facile d'analyser un langage déclaratif bien spécifié, tel que HTML, ce qui permet aux moteurs de recherche tels que Google. L'indexation n'est pas vraiment possible dans le Web Kays d'objets turing-complets de boîte noire. Donc, le manque de contraintes sur les objets les rend beaucoup moins utiles. Quelle est la valeur des objets puissants si vous ne les trouvez pas? Et sans une notion standard de liens et d'URL, l'algorithme de classement par page de Googles ne pourrait pas fonctionner. Et les signets non plus.
Un autre problème est la production de contenu. Nous avons maintenant divers outils, mais même depuis le début, tout amateur peut apprendre à créer une page html dans le bloc-notes. C'est ce qui a lancé le Web et l'a fait se répandre comme une traînée de poudre. Déterminez si la seule façon de créer une page Web vous oblige à commencer à programmer votre propre moteur de rendu? La barrière à l'entrée serait immense.
Les applets Java et Silverlight ressemblent dans une certaine mesure à la vision de Kays. Les deux systèmes sont beaucoup plus flexibles et puissants que le Web (vous pouvez y intégrer un navigateur), mais souffrent des problèmes décrits ci-dessus. Et les deux technologies sont fondamentalement mortes dans l'eau.
Tim Berners-Lee était un informaticien qui avait une expérience des réseaux et des systèmes d’information avant d’inventer le Web. Il semble que Kay ne comprenne pas les idées derrière le Web et pense donc que les concepteurs sont des amateurs sans connaissance de l’informatique. Mais Tim Berners-Lee n'était certainement pas un amateur.
la source
J’ai lu que Kay connaissait assez mal les protocoles de niveau inférieur pour supposer qu’ils étaient bien plus propres que le Web de niveau supérieur. L’époque de la «conception par les professionnels» dont il parle a toujours des problèmes majeurs de sécurité (usurpation d’espionnage, c’est encore trop facile), de fiabilité et de performances. Retournez un peu plus loin et les noms d’hôtes ont été résolus en recherchant un fichier texte que les gens devaient distribuer!
Les deux systèmes sont des systèmes hétérogènes complexes et posent d'importants problèmes de compatibilité ascendante chaque fois que vous souhaitez réparer une verrue. Il est facile de repérer les problèmes, difficile à les résoudre, et comme l’affiche la liste des concurrents échoués, il est étonnamment difficile de concevoir quelque chose d’équivalent sans suivre la même courbe d’apprentissage.
Comme un biologiste pourrait le dire à un défenseur de la conception intelligente, si vous examinez l’une ou l’autre solution et la conception géniale, vous ne la regardez pas assez attentivement.
la source
Ah oui, j'ai posé cette question à Alan à plusieurs reprises, par exemple lorsqu'il était à Potsdam et sur la liste de diffusion fonc . Voici une citation plus récente de la liste qui me l'a très bien résumé:
D'après ce que je comprends de ses diverses réponses, il pense que les navigateurs Web ne devraient pas afficher de documents (HTML), éventuellement enrichis, mais simplement exécuter des programmes. Personnellement, je pense qu'il a tort, même si je peux voir d'où il vient. Nous avions déjà ce genre de chose avec ActiveX, les applets Java, Flash et maintenant les applications JavaScript "riches", et l'expérience n'a généralement pas été satisfaisante, et mon opinion personnelle est que, même à l'heure actuelle, la plupart des sites lourds en JavaScript sont un peu en retrait du bon code HTML. sites, pas un arrêt en avant.
Théoriquement, bien sûr, tout cela a du sens: essayer d’ajouter une interactivité fragmentaire à ce qui est fondamentalement le langage de description de document est rétrograde et s'apparente à l’ajout de plus en plus d’épicycles au système ptolémaïque, alors que la «bonne» réponse consiste à déterminer ) le texte est un cas particulier d’un programme et nous devrions donc envoyer des programmes.
Cependant, étant donné le succès concret du WWW, je pense qu'il est sage de modifier nos théories plutôt que de le critiquer pour ne pas avoir le culot de se conformer à nos théories.
la source
On ne peut pas vraiment dire qu'Internet ou le Web ait été inventé par des amateurs ou des professionnels, car ces domaines sont absolument nouveaux. toutes les personnes étaient amateurs de protocoles Internet avant d’être inventées, de sorte que, d’un point de vue, les inventeurs d’Internet étaient aussi des amateurs.
Si nous devions vraiment juger, Internet n'était pas si génial après tout: IPv6 est nécessaire. Et il ne s'agit pas uniquement de l'espace d'adressage; IPv6 a un nouvel en-tête avec moins de champs différents.
Une autre grande différence par rapport à Internet et au Web est la façon dont ils sont perçus par le programmeur; un programmeur interagit rarement avec Internet. De son point de vue en IP, vous avez des adresses et en TCP, vous avez un port en plus et vous êtes assuré que les paquets sont envoyés. C'est à peu près tout ... Alors qu'avec le Web, le programmeur a une interaction plus intense: méthodes HTTP, en-têtes, HTML, URL, etc. Il est normal de voir les limites de quelque chose avec beaucoup plus de possibilités que dans quelque chose avec presque aucune possibilité. Avec cela, je ne veux pas dire que l'Internet est simple:
En ce qui concerne la grandeur de ces deux technologies, Internet est très apprécié parce qu’il s’agit d’une technologie très évolutive et que l’idée de superposition en couches était très bonne; aux niveaux inférieurs, vous pouvez utiliser n’importe quelle technologie (WLAN, Ethernet, Token Ring, etc.) et utiliser IP comme protocole intermédiaire standard sur lequel TCP et UDP sont placés et au-dessus duquel vous pouvez essentiellement ajouter le protocole d’application souhaité.
La grandeur du Web est strictement liée à la grandeur de l’Internet parce que le Web repose fortement sur Internet, avec la pile TCP / IP en dessous. Mais je dirais qu'Internet dépend aussi du Web. Internet existait 20 ans avant le Web et était plutôt anonyme, mais 20 ans après le Web, Internet est omniprésent et tout cela grâce au Web.
la source
Je pense qu'il indiquait quelque chose de moins obscur. TBL ne connaissait rien du travail sur l'hypertexte entrepris depuis les années 60. Ce travail n'a donc pas influencé la conception du Web. Il parle souvent de l'informatique en tant que culture pop, où les praticiens ne connaissent pas leur histoire et «réinventent continuellement le pneu crevé».
la source
Internet a remarquablement bien fonctionné en tant que prototype du concept de commutation par paquets découvert par Baran, Pouzin et ses contemporains. Contrairement à l'opinion courante, cela ne signifie pas que IPv4, tel qu'il a été transmis, constitue l'architecture de protocole parfaite, ni qu'IPv6 constitue la voie à suivre. John Day, qui était profondément impliqué dans le développement d'ARPANET et de l'IP, l'explique dans son livre de 2008 intitulé Patterns of Network Architecture .
En ce qui concerne le Web, selon les mots de Richard Gabriel, "Pire c'est mieux". Le compte de Tim Berners-Lee, Weaving The Web , est décent. La naissance du Web par Gillies & Cailliau est plus dense et moins lisible, mais présente de nombreux détails et des liens fascinants avec d’autres événements de l’informatique personnelle de l’époque. Je ne pense pas que Kay lui accorde suffisamment de crédit.
la source
Je ne sais pas, une partie de l'internet non-Web a des verrues horribles. Le courrier électronique existait avant le Web et faisait partie d’Internet. Le standard est très ouvert et nécessite beaucoup de piratages pour pouvoir traiter (mais pas résoudre) le problème du spam.
la source
"Amateur" ne désigne pas le manque de compétences en programmation, mais le manque d'imagination.
Le problème sous-jacent au Web de Tim Berners-Lee est qu’il n’a jamais été conçu pour les développeurs . (Cela contraste vivement avec la toile d'Alan Kay.)
Le site Web de Tim a été conçu pour les non-développeurs qui publieraient directement sur le Web en manipulant des fichiers contenant leurs journaux / articles entrecoupés de langage HT-markup: c'est comme dans les années 1980 WordPerfect et MS-Word, sauf qu'ils utiliseraient " <b> < / b> "au lieu de cliquer sur l' Bicône, et l'enregistrerait au format " .htm " ouvert au lieu du format propriétaire" .doc ". Il s’agit de la balise " <a> " qui permet à ces revues / articles statiques d’être globalement interconnectés.
Et voilà, c'est toute la vision Web de Tim: son site Web n'est qu'une simple autoroute mondiale d' articles statiques interdépendants . Peut-être que si vous aviez l'argent, vous pouvez acheter un éditeur comme Dreamweaver, Nexus , Publisher, Citydesk ( ? ) , Etc. , qui vous aiderait à générer tous les tags " <b> </ b> " en cliquant sur l' Bicône.
Et nous voyons comment sa vision n'a pas fonctionné comme prévu. En effet, il y a d'énormes drapeaux rouges dès le début que le monde avait voulu bien plus que ce que propose la vision de Tim:
Drapeau rouge 1: L'essor rapide de "smart CGI" (PHP).
Drapeau rouge 2: La montée rapide du "HTML intelligent" (Javascript).
Ces jours-ci, nous avons encore plus de drapeaux rouges comme la montée de Chrome-OS-le-navigateur-est-le-système d'exploitation ( exactement ce qu'Alan Kay avait prévu pour le navigateur) et les extensions WASM / browser.
Contrairement au site Web de Tim, le site Web d'Alan Kay est un site Web dynamique conçu pour les programmeurs: une autoroute mondiale composée de programmes dynamiques interdépendants . Les non-développeurs qui ont besoin d'une "page" en publieraient simplement une en utilisant un programme sur le Web . (Et le programme lui-même a évidemment été écrit par des programmeurs, pas par des HTML-dabblers.)
C'est exactement le statu quo de la toile de Tim dans les années 2000, mais si nous avions eu la toile d'Alan, cela aurait été fait dans les années 1990: au lieu que le monde ait "wordpress and friendster" seulement dans les années 2000, nous le ferons ont-ils raison quand le Web a commencé dans les années 1990.
.. De même, au lieu d’avoir des programmes comme Steam, Visual Studio, Warcraft, VM Ware sur le Web dans les années 2040, nous les aurons maintenant dans les années 2010. (Le retard de plusieurs décennies est dû au fait que ces programmes ont déjà été conçus pour le système d'exploitation tel que l'OS n'est pas le navigateur, ce qui réduit l'incitation économique à les reconstruire sur un système d'exploitation tel que le navigateur. -OS.)
C’est donc ce que les gens veulent dire quand ils disent que Tim Berners-Lee a tué le True Web dynamique en poussant son "web statique minable" sur le monde. Avez-vous déjà entendu parler des termes "Web 2.0", "Web 3.0"? Ils auraient simplement été appelés "Le Web" si nous avions le site Web d'Alan au lieu du site Web de Tim. Mais le site Web de Tim a besoin d'une révision constante car il est tellement statique .
De toute évidence, tous les espoirs ne sont pas perdus, car le Web peut être réaménagé de la manière que les vendeurs de navigateurs définissent. Mais le fait est que tous ces trucs "d’avant-garde" qu’ils "inventent" sur le Web sont déjà des trucs qui ont déjà été inventés. Nous pourrions déjà tout avoir aujourd'hui, pas demain.
la source