Cette question est née des commentaires sur les différents types de progrès de l'informatique au cours des 50 dernières années.
Certains des autres participants m'ont demandé de la poser comme question à l'ensemble du forum.
L'idée de base ici n'est pas de dénigrer l'état actuel des choses, mais d'essayer de comprendre quelque chose sur les progrès de l'élaboration de nouvelles idées et principes fondamentaux.
Je prétends que nous avons vraiment besoin de nouvelles idées dans la plupart des domaines de l'informatique, et j'aimerais connaître toutes les idées importantes et puissantes qui ont été faites récemment. Si nous ne pouvons pas vraiment les trouver, alors nous devrions demander "Pourquoi?" et "Que devons-nous faire?"
innovation
Alan Kay
la source
la source
Réponses:
Internet lui-même est antérieur à 1980, mais le World Wide Web ("hypertexte distribué via des mécanismes simples") tel que proposé et mis en œuvre par Tim Berners-Lee a commencé en 1989/90.
Alors que l'idée d'hypertexte existait auparavant ( le Xanadu de Nelson avait essayé de mettre en œuvre un schéma distribué), le WWW était une nouvelle approche pour la mise en œuvre d'un système hypertexte distribué. Berners-Lee a combiné un protocole client-serveur simple, un langage de balisage et un schéma d'adressage d'une manière puissante et facile à mettre en œuvre.
Je pense que la plupart des innovations sont créées en combinant de manière originale des pièces existantes. Chacune des pièces du WWW avait existé sous une forme antérieure, mais la combinaison n'était évidente qu'avec du recul.
Et je sais avec certitude que vous l'utilisez maintenant.
la source
Fondation pour le logiciel libre (fondée en 1985)
Même si vous n'êtes pas un fervent partisan de leur philosophie, les idées qu'ils ont poussées, à propos du logiciel libre, de l'open source ont eu une influence incroyable sur l'industrie du logiciel et le contenu en général (par exemple Wikipedia).
la source
Je pense qu'il est juste de dire qu'en 1980, si vous utilisiez un ordinateur, vous étiez payé ou vous étiez un geek ... alors qu'est-ce qui a changé?
Imprimantes et PAO grand public . Cela signifiait que vous n'aviez pas besoin d'une presse à imprimer pour produire des documents imprimés de grande qualité et de grand volume. C'était énorme - bien sûr, de nos jours, nous le tenons complètement pour acquis, et la plupart du temps, nous ne nous soucions même pas de la partie impression, car tout le monde est en ligne de toute façon.
Couleur . Sérieusement. Les écrans couleur ont fait une énorme différence dans la perception des non-geeks des jeux et des applications. Tout à coup, les jeux ressemblaient moins à du travail acharné qu'à de la télévision, ce qui ouvrait les portes à Sega, Nintendo, Atari et al pour faire entrer les jeux grand public dans la maison.
Compression multimédia (MP3 et fichiers vidéo). Et tout un tas de choses - comme TiVO et iPods - que nous ne considérons plus vraiment comme des ordinateurs, car ils sont tellement omniprésents et tellement conviviaux. Mais ils sont.
Le fil conducteur ici, je pense, est une chose qui était autrefois impossible (faire des documents imprimés; reproduire des images couleur avec précision; envoyer des messages dans le monde entier en temps réel; distribuer du matériel audio et vidéo), et qui était alors coûteux en raison de l'équipement et de la logistique impliqué, et est désormais au niveau des consommateurs. Donc - que font les grandes entreprises maintenant qui étaient auparavant impossibles mais qui pourraient être cool si nous pouvons trouver comment faire les choses à petite échelle et à bon marché?
Tout ce qui implique toujours un transport physique est intéressant à regarder. La visioconférence n'a pas encore remplacé de vraies réunions - mais avec la bonne technologie, elle le pourrait toujours. Certains voyages récréatifs pourraient être éliminés par un environnement immersif pleinement sensoriel - le cinéma à domicile est un exemple trivial; un autre est le "parcours de golf virtuel" dans un immeuble de bureaux à Soho, où vous jouez 18 trous de vrai golf sur un parcours simulé.
Pour moi, cependant, la prochaine grande chose va être la fabrication. Faire des choses. Cuillères et guitares et chaises et vêtements et voitures et carreaux et autres. Des choses qui dépendent encore d'une infrastructure de fabrication et de distribution. Je n'ai plus besoin d'aller dans un magasin pour acheter un film ou un album - combien de temps jusqu'à ce que je n'aie pas à aller au magasin pour des vêtements et des ustensiles de cuisine?
Bien sûr, il y a des développements intéressants en cours avec les écrans OLED et les conteneurs GPS et haut débit mobile et IoC et les scripts et "le cloud" - mais ce ne sont que de nouvelles façons de mettre des images sur un écran. Je peux imprimer mes propres photos et écrire mes propres pages Web, mais je veux pouvoir fabriquer un panier en lin qui s'insère exactement dans ce coin à côté de mon bureau, et un support de montage pour coller mon FX de guitare sur mon bureau, et quelque chose pour clipser mon téléphone portable sur le guidon de mon vélo.
Pas lié à la programmation? Non ... mais en 1980, la production sonore n'était pas non plus. Ou la distribution vidéo. Ou envoyer des messages à vos proches en Zambie. Voyez grand, les gens ... :)
la source
Gestion des packages et contrôle de révision distribué.
Ces modèles dans la façon dont les logiciels sont développés et distribués sont assez récents et commencent tout juste à avoir un impact.
Ian Murdock a appelé la gestion des packages "la plus grande avancée que Linux a apportée à l'industrie". Eh bien, il le ferait, mais il a raison. La façon dont les logiciels sont installés a considérablement changé depuis 1980, mais la plupart des utilisateurs d'ordinateurs n'ont toujours pas connu ce changement.
Joel et Jeff ont parlé du contrôle des révisions (ou du contrôle de version ou du contrôle de source) avec Eric Sink dans le podcast # 36 . Il semble que la plupart des développeurs n'aient pas encore rattrapé les systèmes centralisés , et DVCS est largement considéré comme mystérieux et inutile.
Extrait de la transcription du podcast 36 :
la source
With distributed version control, the distributed part is actually not the most interesting part.
BitTorrent . Il transforme complètement ce qui semblait auparavant être une règle visiblement immuable: le temps nécessaire à une seule personne pour télécharger un fichier sur Internet augmente proportionnellement au nombre de personnes qui le téléchargent. Il corrige également les failles des solutions peer-to-peer précédentes, en particulier en ce qui concerne les «sangsues», d'une manière qui est organique pour la solution elle-même.
BitTorrent transforme élégamment ce qui est normalement un inconvénient - de nombreux utilisateurs essayant de télécharger un seul fichier simultanément - en un avantage, distribuant le fichier géographiquement comme une partie naturelle du processus de téléchargement. Sa stratégie d'optimisation de l'utilisation de la bande passante entre deux pairs décourage les sangsues comme effet secondaire - il est dans l'intérêt de tous les participants d'appliquer la limitation.
C'est une de ces idées qui, une fois que quelqu'un d'autre l'invente, semble simple, sinon évidente.
la source
L'inférence de type Damas-Milner (souvent appelée inférence de type Hindley-Milner) a été publiée en 1983 et est depuis la base de tout système de type statique sophistiqué. C'était une idée véritablement nouvelle dans les langages de programmation (admise sur la base d'idées publiées dans les années 1970, mais qui n'a été mise en pratique qu'après 1980). En termes d'importance, je l'ai mis en place avec le Soi et les techniques utilisées pour mettre en œuvre le Soi; en termes d'influence, il n'a pas de pair. (Le reste du monde OO fait encore des variations sur Smalltalk ou Simula.)
Les variations sur l'inférence de type se jouent toujours; la variation que je soulignerais le plus est le mécanisme de classe de type de Wadler et Blott pour résoudre la surcharge, qui a été découvert plus tard comme offrant des mécanismes très puissants pour la programmation au niveau du type. La fin de cette histoire est toujours en cours d'écriture.
la source
Voici une prise pour Google map-Reduce , non seulement pour lui-même, mais comme proxy pour la réalisation par Google de l'exécution de services rapides et fiables sur des fermes de machines de base peu fiables. Certainement une invention importante et totalement différente des approches mainframe gros fer pour le calcul des poids lourds qui ont régné sur le perchoir en 1980.
la source
Le balisage , la façon dont les informations sont classées. Oui, les petites cases de texte sous chaque question.
Il est étonnant qu'il ait fallu environ 30 ans pour inventer le marquage. Nous avons utilisé des listes et des tables des matières; nous avons utilisé des choses optimisées pour les livres imprimés.
Cependant, 30 ans est beaucoup plus court que le temps nécessaire aux gens pour se rendre compte que les livres imprimés peuvent être en plus petit format. Les gens peuvent garder des livres en mains.
Je pense que le concept de marquage est sous-estimé parmi les gars de CS de base. Toutes les recherches sont axées sur le traitement du langage naturel (approche descendante). Mais le balisage est la première langue dans laquelle les ordinateurs et les gens peuvent bien comprendre. Il s'agit d'une approche ascendante qui fait que les ordinateurs utilisent des langues naturelles.
la source
Je pense que nous considérons cela de la mauvaise façon et tirons les mauvaises conclusions. Si je comprends bien, le cycle continue:
Idée -> première mise en œuvre -> adoption minoritaire -> masse critique -> produit de base
De la toute première idée à la marchandise, vous avez souvent des siècles, en supposant que l'idée arrive à ce stade. Da Vinci a peut-être dessiné une sorte d'hélicoptère en 1493, mais il a fallu environ 400 ans pour obtenir une véritable machine capable de se soulever du sol.
De la première description d'un sous-marin par William Bourne en 1580 à la première mise en œuvre en 1800, vous avez 220 ans et les sous-marins actuels n'en sont encore qu'à leurs balbutiements: nous ne savons presque rien des voyages sous-marins (avec 2/3 de la planète sous-marine, pensez à l'immobilier potentiel;).
Et rien ne dit qu'il n'y avait pas d'idées antérieures, beaucoup plus anciennes dont nous n'avions jamais entendu parler. Basé sur certaines légendes, il semble qu'Alexandre le Grand ait utilisé une sorte de cloche de plongée en 332 avant JC (ce qui est l'idée de base d'un sous-marin: un appareil pour transporter des personnes et un approvisionnement en air sous la mer). En comptant cela, nous regardons 2000 ans de l'idée (même avec un prototype de base) au produit.
Ce que je dis, c'est que chercher aujourd'hui des implémentations, encore moins des produits, qui n'étaient même pas des idées avant 1980, c'est ... Je parie que l'algorithme de "tri rapide" a été utilisé par certains commis sans nom dans la Chine ancienne. Et alors?
Il y avait des ordinateurs en réseau il y a 40 ans, bien sûr, mais cela ne se comparait pas à Internet d'aujourd'hui. L'idée de base / la technologie était là, mais vous ne pouviez pas jouer à un jeu de Warcraft en ligne.
Historiquement, nous n'avons jamais été en mesure de les «trouver» aussi près de l'idée, aussi rapidement. Je pense que le cycle s'accélère, mais l'informatique est encore très jeune.
Actuellement, j'essaie de comprendre comment faire un hologramme (du genre Star Wars, sans aucun support physique). Je pense que je sais comment le faire fonctionner. Je n'ai même pas rassemblé les outils, les matériaux, le financement et pourtant, même si je devais réussir dans une certaine mesure, l'idée réelle aurait déjà plusieurs décennies, à tout le moins et les implémentations / technologies associées ont été utilisées pendant aussi longtemps .
Dès que vous commencez à répertorier les produits réels, vous pouvez être sûr que les concepts et les premières implémentations existaient il y a quelque temps. Peu importe.
Vous pourriez argumenter avec quelque raison que rien n'est nouveau, jamais, ou que tout est nouveau, toujours. C'est la philosophie et les deux points de vue peuvent être défendus.
D'un point de vue pratique, la vérité se situe quelque part entre les deux. La vérité n'est pas un concept binaire, la logique booléenne est damnée.
Les Chinois ont peut-être inventé la presse à imprimer il y a quelque temps, mais cela ne fait que 10 ans environ que la plupart des gens peuvent imprimer des photos en couleur décentes à la maison pour un prix raisonnable.
L'invention n'est nulle part et partout, selon vos critères et votre référentiel.
la source
Algorithme de Page Rank de Google . Bien qu'il puisse être considéré comme un simple raffinement des moteurs de recherche d'exploration du Web, je voudrais souligner qu'ils ont également été développés après 1980.
la source
DNS, 1983 et les avancées dépendantes comme la résolution de l'hôte de messagerie via des enregistrements MX au lieu de bang-chemins. *frémir*
Zeroconf fonctionnant au dessus de DNS, 2000. Je branche mon imprimante au réseau et mon ordinateur portable le voit. Je démarre un serveur Web sur le réseau et mon navigateur le voit. (En supposant qu'ils diffusent leur disponibilité.)
NTP (1985) basé sur l'algorithme de Marzullo (1984). Temps précis sur les réseaux nerveux.
La molette de défilement de la souris, 1995. L'utilisation de souris sans elle semble si primitive. Et non, ce n'est pas quelque chose que l'équipe d'Engelbart a pensé et oublié de mentionner. Du moins pas quand j'ai demandé à quelqu'un qui faisait partie de l'équipe à l'époque. (C'était lors d'un événement Engelbart en 1998 ou à peu près. J'ai pu manipuler l'une des premières souris.)
Unicode, 1987, et ses avancées dépendantes pour différents types d'encodage, de normalisation, de texte bidirectionnel, etc.
Oui, il est assez courant que les gens utilisent les 5 tous les jours.
Ces "idées sont-elles vraiment nouvelles?" Après tout, il y avait des souris, il y avait des encodages de caractères, il y avait un chronométrage du réseau. Dites-moi comment je peux faire la distinction entre "nouveau" et "vraiment nouveau" et je répondrai à celle-ci pour vous. Mon intuition dit que ce sont assez nouveaux.
Dans les domaines plus petits, il y a des progrès facilement plus récents. En bioinformatique, par exemple, Smith-Waterman (1981) et plus particulièrement BLAST (1990) rendent effectivement le domaine possible. Mais il semble que vous demandiez des idées qui sont très larges dans tout le domaine de l'informatique, et les fruits bas sont cueillis en premier. Il en est toujours ainsi avec un nouveau domaine.
la source
Et les appareils photo numériques?
Selon Wikipedia, le premier véritable appareil photo numérique est apparu en 1988, avec des appareils photo grand public devenus abordables à la fin des années 1990.
la source
Langages d'ombrage modernes et prévalence des GPU modernes.
Le GPU est également un supercalculateur parallèle à faible coût avec des outils comme CUDA et OpenCL pour un code parallèle rapide de haut niveau . Merci à tous ces joueurs qui font baisser les prix de ces merveilles matérielles de plus en plus impressionnantes. Au cours des cinq prochaines années, j'espère que chaque nouvel ordinateur vendu (et les iPhones aussi) aura la capacité d'exécuter du code massivement parallèle comme hypothèse de base, un peu comme la couleur 24 bits ou le mode protégé 32 bits.
la source
La compilation JIT a été inventée à la fin des années 80.
la source
Répondre aux deux questions sur «Pourquoi la mort de nouvelles idées» et «que faire à ce sujet»?
Je soupçonne qu'une grande partie du manque de progrès est due à l'afflux massif de capitaux et à la richesse ancrée dans l'industrie. Cela semble contre-intuitif, mais je pense que c'est devenu la sagesse conventionnelle que toute nouvelle idée ait un coup; s'il ne réussit pas du premier coup, il ne peut pas revenir. Il est acheté par quelqu'un avec des intérêts bien ancrés, ou tout simplement des échecs, et l'énergie a disparu. Quelques exemples sont les ordinateurs tablettes et les logiciels bureautiques intégrés. Le Newton et plusieurs autres avaient un réel potentiel, mais ont fini par perdre leur droit d'aînesse (par attrition compétitive et mauvais jugement), tuant des catégories entières. (J'aimais particulièrement le cadre d'Ashton Tate; mais je suis toujours coincé avec Word et Excel).
Que faire? La première chose qui me vient à l'esprit est Wm. Le conseil de Shakespeare: "Tuez tous les avocats". Mais maintenant, ils sont trop bien armés, je le crains. En fait, je pense que la meilleure alternative est de trouver une sorte d'initiative Open Source. Ils semblent mieux maintenir l'accessibilité et l'amélioration progressive que les alternatives. Mais l'industrie est devenue suffisamment grande pour qu'une sorte de mécanisme de collaboration organique soit nécessaire pour obtenir une traction.
Je pense également qu'il y a une dynamique qui dit que les intérêts enracinés (en particulier les plates-formes) nécessitent une quantité substantielle de changement - le taux de désabonnement - pour justifier la poursuite des flux de revenus; et cela absorbe beaucoup d'énergie créative qui aurait pu être dépensée de meilleures façons. Regardez combien de temps nous passons sur l'eau avec la dernière itération de Microsoft ou Sun ou Linux ou Firefox, apportant des modifications aux systèmes qui fonctionnent pour la plupart déjà bien. Ce n'est pas parce qu'ils sont mauvais, c'est juste intégré à l'industrie. L'équilibre stable n'existe pas; tous les mécanismes de rétroaction sont positifs, favorisant le changement par rapport à la stabilité. (Avez-vous déjà vu une fonctionnalité retirée ou un changement retiré?)
L'autre indice qui a été discuté sur l'OS est le syndrome de Skunkworks (réf: Geoffrey Moore): une véritable innovation dans les grandes organisations presque toujours (90% +) se manifeste dans des projets non autorisés qui émergent spontanément, alimentés exclusivement par une initiative individuelle ou en petit groupe ( et le plus souvent opposé par les hiérarchies de gestion formelles). Donc: Questionner l'autorité, Buck le système.
la source
Une chose qui m'étonne est l'humble feuille de calcul. Les non-programmeurs construisent des solutions sauvages et merveilleuses aux problèmes du monde réel avec une simple grille de formule. Répliquer leurs efforts dans une application de bureau prend souvent 10 à 100 fois plus de temps qu'il n'en a fallu pour écrire la feuille de calcul et l'application résultante est souvent plus difficile à utiliser et pleine de bogues!
Je crois que la clé du succès de la feuille de calcul est l'analyse automatique des dépendances. Si l'utilisateur de la feuille de calcul était obligé d'utiliser le modèle d'observateur, il n'aurait aucune chance de le faire correctement.
Ainsi, la grande avancée est l'analyse automatique des dépendances. Maintenant, pourquoi aucune plate-forme moderne (Java, .Net, services Web) n'a intégré cela au cœur du système? Surtout à une époque de mise à l'échelle par parallélisation - un graphique des dépendances conduit à un recalcul parallèle de manière triviale.
Edit: Dang - juste vérifié. VisiCalc est sorti en 1979 - supposons que c'est une invention post-1980.
Edit2: Semble que la feuille de calcul est déjà notée par Alan de toute façon - si la question qui l'a acheté sur ce forum est correcte!
la source
Logiciel:
Virtualisation et émulation
Transferts de données P2P
projets communautaires tels que Wikipedia, SETI @ home ...
moteurs de recherche et de recherche sur le Web, c'est-à-dire indexation d'informations diffusées dans le monde entier
Matériel:
le PC modulaire
E-paper
la source
La redécouverte de la monade par les chercheurs en programmation fonctionnelle. La monade a contribué à permettre à un langage pur et paresseux (Haskell) de devenir un outil pratique; il a également influencé la conception des bibliothèques de combinateurs (les combinateurs d'analyseurs monadiques ont même trouvé leur chemin en Python).
«Un compte-rendu théorique des modules de programme» de Moggi (1989) est généralement reconnu pour avoir mis en évidence les monades pour un calcul efficace; Le travail de Wadler (par exemple, "Imperative Functional Programming" (1993)) a présenté les monades comme un outil pratique.
la source
Logiciel de rétrécissement
Avant 1980, les logiciels étaient principalement écrits spécialement. Si vous dirigiez une entreprise et vouliez informatiser, vous obtiendrez généralement un ordinateur, un compilateur et une base de données, et vous ferez écrire vos propres trucs. Les logiciels d'entreprise étaient généralement écrits pour s'adapter aux pratiques commerciales. Cela ne veut pas dire qu'il n'y avait pas de logiciel en conserve (j'ai travaillé avec SPSS avant 1980), mais ce n'était pas la norme, et ce que j'ai vu avait tendance à être un logiciel d'infrastructure et de recherche.
De nos jours, vous pouvez vous rendre dans une boutique informatique et trouver, sur l'étagère, tout ce dont vous avez besoin pour gérer une petite entreprise. Il n'est pas conçu pour s'intégrer parfaitement à toutes les pratiques que vous aviez auparavant, mais il fonctionnera bien une fois que vous aurez appris à travailler plus ou moins en fonction de son flux de travail. Les grandes entreprises sont beaucoup plus proches du film rétractable qu'auparavant, avec des choses comme SAP et PeopleSoft.
Ce n'est pas une rupture nette, mais après 1980, il y a eu un changement très net de logiciels personnalisés coûteux vers des logiciels standard à faible coût, et la flexibilité est passée des logiciels aux procédures commerciales.
Cela a également affecté l'économie des logiciels. Les solutions logicielles personnalisées peuvent être rentables, mais elles ne sont pas évolutives. Vous ne pouvez facturer qu'un seul client et vous ne pouvez pas vendre la même chose à plusieurs clients. Avec le logiciel de film rétractable, vous pouvez vendre beaucoup et beaucoup de la même chose, amortissant les coûts de développement sur une très grande base de vente. (Vous devez fournir une assistance, mais cela évolue. Considérez-le simplement comme un coût marginal de vente du logiciel.)
Théoriquement, là où il y a de gros gagnants d'un changement, il y aura des perdants. Jusqu'à présent, le secteur des logiciels a continué de croître, de sorte qu'au fur et à mesure que les zones se banalisent, d'autres zones s'ouvrent. Il est probable que cela prenne fin un jour, et les développeurs modérément talentueux se retrouveront dans une vraie crise, incapables de travailler pour les grands garçons et évincés du marché. (Cela se produit probablement pour d'autres domaines; je soupçonne que la demande de comptables est beaucoup plus petite qu'elle ne le serait sans QuickBooks et autres.)
la source
En dehors des innovations matérielles, j'ai tendance à constater qu'il y a peu ou rien de nouveau sous le soleil. La plupart des idées vraiment importantes remontent à des gens comme von Neumann et Alan Turing.
Beaucoup de choses qui sont étiquetées `` technologie '' de nos jours ne sont en fait qu'un programme ou une bibliothèque que quelqu'un a écrit, ou le rechapage d'une vieille idée avec une nouvelle métaphore, acronyme ou nom de marque.
la source
Les vers informatiques ont été recherchés au début des années quatre-vingt du siècle dernier au Xerox Palo Alto Research Center.
Extrait des programmes "Worm" de John Shoch et Jon Hupp - Early Experience with a Distributed Computation "(Communications of the ACM, March 1982 Volume 25 Number 3, pp.172-180, mars 1982):
Citant Alan Kay: "La meilleure façon de prédire l'avenir est de l'inventer."
la source
De meilleures interfaces utilisateur.
Les interfaces utilisateur d'aujourd'hui sont toujours nulles. Et je ne parle pas de petites manières mais de grandes manières fondamentales. Je ne peux pas m'empêcher de remarquer que même les meilleurs programmes ont encore des interfaces qui sont extrêmement complexes ou qui nécessitent beaucoup de réflexion abstraite d'autres manières, et qui n'abordent tout simplement pas la facilité des outils non logiciels conventionnels.
Certes, cela est dû au fait que le logiciel permet de faire bien plus que les outils conventionnels. Ce n'est cependant pas une raison pour accepter le statu quo. De plus, la plupart des logiciels ne sont tout simplement pas bien faits.
En général, les applications manquent encore d'un certain sentiment de «marche juste» trop orientées par ce qui peut être fait plutôt que par ce qui devrait être fait. Un point qui a été soulevé à maintes reprises, et qui n'est toujours pas résolu, est le point de sauver. Les applications se bloquent, détruisant les heures de travail. J'ai l'habitude d'appuyer sur Ctrl + S toutes les quelques secondes (bien sûr, cela ne fonctionne plus dans les applications Web). Pourquoi dois-je faire ça? C'est stupidement stupéfiant. Il s'agit clairement d'une tâche d'automatisation. Bien sûr, l'application doit également enregistrer un diff pour chaque modification que je fais (essentiellement une liste d'annulation infinie) au cas où je ferais une erreur.
Résoudre ce problème n'est même pas vraiment difficile. Il serait juste difficile de l'implémenter dans chaque application car il n'y a pas de bonne API pour le faire. Les outils de programmation et les bibliothèques doivent s'améliorer considérablement avant de permettre une implémentation sans effort de tels efforts sur toutes les plates-formes et programmes, pour tous les formats de fichiers avec un stockage de sauvegarde arbitraire et aucune interaction utilisateur requise. Mais c'est une étape nécessaire avant de commencer enfin à écrire de «bonnes» applications au lieu de simplement adéquates.
Je crois qu'Apple se rapproche actuellement du sentiment de «fonctionne juste» à certains égards. Prenez par exemple leur dernière version d'iPhoto qui dispose d'une reconnaissance faciale qui regroupe automatiquement les photos des personnes qui y apparaissent. Il s'agit d'une tâche classique que l'utilisateur ne souhaite pas effectuer manuellement et ne comprend pas pourquoi l'ordinateur ne le fait pas automatiquement. Et même iPhoto est encore très loin d'une bonne interface utilisateur, car cette fonctionnalité nécessite toujours une confirmation ultime de l'utilisateur (pour chaque photo!), Car le moteur de reconnaissance des visages n'est pas parfait.
la source
Systèmes HTM ( Hiearchical Temporal Memory ).
Une nouvelle approche de l'intelligence artificielle, initiée par Jeff Hawkins à travers le livre " On Intelligence ".
Désormais actif en tant que société appelée Numenta ces idées sont mises à l'épreuve par le développement de la "vraie" IA, avec une invitation à la communauté à participer en utilisant le système via des SDK.
Il s'agit davantage de construire l'intelligence artificielle à partir de zéro, plutôt que d'essayer d'imiter le raisonnement humain.
la source
L'utilisation de la physique dans l'interaction homme-machine pour fournir une métaphore alternative et compréhensible. Ceci combiné avec des gestes et des haptiques se traduira probablement par un remplacement de la métaphore actuelle de l'interface graphique commune inventée dans les années 70 et couramment utilisée depuis le milieu à la fin des années 80.
La puissance de calcul n'était pas présente en 1980 pour rendre cela possible. Je pense que les Jeux ont probablement ouvert la voie ici. Un exemple peut facilement être vu dans l'interaction du défilement de liste dans l'iPod Touch / iPhone. Le mécanisme d'interaction repose sur l'intuition de la façon dont l'élan et la friction fonctionnent dans le monde réel pour fournir un moyen simple de faire défiler une liste d'éléments, et l'utilisabilité repose sur le geste physique qui provoque le défilement.
la source
Je crois que les tests unitaires, le TDD et l'intégration continue sont des inventions importantes après 1980.
la source
Téléphones portables.
Alors que le premier brevet de "téléphone sans fil" date de 1908, et qu'ils cuisinaient depuis longtemps (0G en 1945, 1G lancé au Japon en 1979), les téléphones portables numériques 2G n'apparaissent qu'en 1991. Les SMS n'existent pas jusqu'en 1993, et l'accès à Internet est apparu en 1999.
la source
J'ai commencé à programmer le 2 janvier 1980. J'ai essayé de penser à de nouvelles inventions importantes au cours de ma carrière. J'ai du mal à penser à tout. La plupart de ce que je considère comme significatif ont été inventés avant 1980 mais n'ont ensuite été largement adoptés ou améliorés qu'après.
Alors que le matériel s'est considérablement amélioré, l'industrie du logiciel a eu du mal à suivre. Nous avons des années-lumière d'avance sur 1980, mais la plupart des améliorations sont des améliorations plutôt que des inventions. Depuis 1980, nous avons été trop occupés à appliquer ce que les progrès nous ont permis de faire plutôt qu'à inventer. En soi, la plupart de ces inventions incrémentielles ne sont ni importantes ni puissantes, mais si vous regardez en arrière au cours des 29 dernières années, elles sont assez puissantes.
Nous devons probablement adopter les améliorations progressives et les diriger. Je crois que des idées vraiment originales proviendront probablement de personnes peu exposées aux ordinateurs et qu'elles sont de plus en plus difficiles à trouver.
la source
Rien.
Je pense que c'est parce que les gens ont changé d'attitude. Les gens croyaient que s'ils trouvaient cette "grande idée", ils la trouveraient riche. Aujourd'hui, les gens croient que c'est l'exécution et non la découverte qui rapporte le plus. Vous avez des mantras tels que "les idées sont un centime" et "la deuxième souris prend le fromage". Les gens se concentrent donc sur l'exploitation des idées existantes plutôt que sur de nouvelles.
la source
Développement communautaire Open Source.
la source
L' iPad (sorti en avril 2010): un tel concept est sûrement absolument révolutionnaire!
texte de remplacement http://www.ubergizmo.com/photos/2010/1/apple-ipad//apple-ipad-05.JPG
Pas question pour Alan Kay de voir ça dans les années 1970!
Imaginez un tel "manipulateur d'informations personnel et portable" ...
...
Attendre? Quoi!? Le Dynabook tu dis?
Pensé par Alan Kay dès 1968, et décrit en détail dans cet article de 1972 ??
NOOOooo ooooo ....
Oh bien ... tant pis.
la source