À l'époque de l'informatique moderne, dans les «applications d'entreprise typiques» - pourquoi les performances sont-elles importantes? [fermé]

29

Cela peut sembler une question étrange pour certains d'entre vous.

Je suis un programmeur Java amateur. J'ai développé plusieurs jeux, un programme d'IA qui crée de la musique, un autre programme de peinture et des trucs similaires. C'est pour vous dire que j'ai une expérience en programmation, mais pas en développement professionnel d'applications métiers.

Je vois beaucoup de discussions sur ce site sur les performances. Les gens discutent souvent de ce qui serait l'algorithme le plus efficace en C # pour effectuer une tâche, ou pourquoi Python est lent et Java est plus rapide, etc.

Ce que j'essaie de comprendre, c'est: pourquoi est-ce important?

Il y a des domaines spécifiques de l'informatique où je vois pourquoi les performances sont importantes: les jeux, où des dizaines de milliers de calculs se produisent chaque seconde dans une boucle de mise à jour constante, ou les systèmes de bas niveau sur lesquels d'autres programmes s'appuient, tels que les OS et les VM, etc.

Mais pour l'application commerciale normale de haut niveau, pourquoi les performances sont-elles importantes?

Je peux comprendre pourquoi cela comptait autrefois, il y a des décennies. Les ordinateurs étaient beaucoup plus lents et avaient beaucoup moins de mémoire, il fallait donc bien réfléchir à ces choses.

Mais aujourd'hui, nous avons tellement de mémoire à épargner et les ordinateurs sont si rapides: est-ce vraiment important si un algorithme Java particulier est O (n ^ 2)? Cela fera-t-il réellement une différence pour les utilisateurs finaux de cette application d'entreprise typique?

Lorsque vous appuyez sur un bouton GUI dans une application d'entreprise typique, et en arrière-plan, il appelle un algorithme O (n ^ 2), en ces jours d'informatique moderne - ressentez-vous réellement l'inefficacité?

Ma question est divisée en deux:

  1. En pratique, aujourd'hui, la performance est-elle importante dans un programme d'entreprise normal?
  2. Si c'est le cas, donnez-moi des exemples concrets d'endroits dans une telle application, où les performances et les optimisations sont importantes.
Aviv Cohn
la source
Les performances sont importantes si elles sont médiocres.
Mike Dunlavey

Réponses:

40

Vous avez raison, les performances des applications professionnelles ne sont pas vraiment un sujet important de la manière dont elles sont discutées par la plupart des programmeurs . Habituellement, les discussions liées aux performances que j'entends des programmeurs ont plusieurs problèmes:

  • Ce sont surtout des optimisations prématurées . Habituellement, quelqu'un veut "le moyen le plus rapide" pour effectuer une opération sans raison apparente, et finit par faire des changements de code qui sont effectués par la plupart des compilateurs de toute façon (comme remplacer la division par la multiplication ou intégrer une méthode), ou passer des jours à faire des changements ce qui aidera à gagner quelques microsecondes à l'exécution.

  • Ils sont souvent spéculatifs . Je suis heureux de voir que sur Stack Overflow et Programmers.SE, le profilage est fréquemment mentionné lorsque la question est liée aux performances, mais je suis également déçu quand je vois deux programmeurs qui ne savent pas de quel profil discutent les performances. changements connexes qu'ils devraient faire dans leur code. Ils croient que les changements rendront tout plus rapide, mais pratiquement à chaque fois, cela n'aura aucun effet visible ou ralentira les choses, tandis qu'un profileur les aurait dirigés vers une autre partie du code qui peut facilement être optimisée et qui gaspille 80% du temps.

  • Ils se concentrent uniquement sur les aspects techniques. Les performances des applications orientées utilisateur concernent le sentiment: se sent-il rapide et réactif, ou se sent-il lent et maladroit? Dans ce contexte, les problèmes de performances sont généralement beaucoup mieux résolus par les concepteurs d'expérience utilisateur: une transition animée simple peut souvent faire la différence entre une application qui se sent terriblement lente et l'application qui se sent sensible, alors que les deux passent 600 ms. faire l'opération.

  • Ils sont basés sur des éléments subjectifs même lorsqu'ils sont liés à des contraintes techniques. S'il ne s'agit pas de se sentir rapide et réactif, il devrait y avoir une exigence non fonctionnelle qui spécifie la vitesse à laquelle une opération doit être effectuée sur des données spécifiques, s'exécutant sur un système spécifique . En réalité, cela se passe plus comme ça: le gestionnaire dit qu'il trouve quelque chose de lent, puis les développeurs doivent comprendre ce que cela signifie. Est-ce lent comme dans "il devrait être inférieur à 30 ms. Alors qu'actuellement, cela gaspille dix secondes", ou lent comme "nous pouvons peut-être réduire la durée de dix à neuf secondes"?

Au début de ma carrière de programmeur, je travaillais sur un logiciel pour un groupe de mes clients. J'étais convaincu que ce logiciel est la prochaine grande chose qui fera le bonheur du monde, j'étais donc évidemment préoccupé par les performances.

J'ai entendu des termes tels que «profilage» ou «référence», mais je ne savais pas ce qu'ils signifiaient et je m'en fichais. De plus, j'étais trop concentré sur la lecture du livre sur le C, et surtout le chapitre où les techniques d'optimisation étaient discutées. Lorsque j'ai découvert que les ordinateurs effectuent la multiplication plus rapidement que la division, j'ai remplacé la division par la multiplication partout où je le pouvais. Lorsque j'ai découvert que l'appel d'une méthode peut être lent, j'ai combiné autant de méthodes que possible, comme si les 100 méthodes LOC précédentes n'étaient pas déjà un problème.

Parfois, je passais des nuits à faire des changements qui, j'étais convaincu, faisaient la différence entre une application lente que personne ne veut et une application rapide que tout le monde veut télécharger et utiliser. Le fait que deux clients réels intéressés par cette application aient demandé des fonctionnalités réelles ne me dérangeait pas: "Qui voudrait une fonctionnalité si l'application est lente?" - pensais-je.

Enfin, les deux seuls clients ont cessé d'utiliser l'application. Cela n'a pas été incroyablement rapide malgré tous mes efforts, principalement parce que lorsque vous ne savez pas ce que sont les index et que votre application est gourmande en bases de données, il y a quelque chose qui ne va pas. Quoi qu'il en soit, lorsque je faisais juste un autre changement lié aux performances, qui améliorait de quelques microsecondes l'exécution du code utilisé une fois par mois, les clients n'ont pas vu de changements. Ce qu'ils voyaient, c'est que l'expérience utilisateur était terrible, la documentation manquante, les fonctionnalités cruciales qu'ils demandaient depuis des mois n'étaient pas là et le nombre de bogues à résoudre augmentait constamment.

Résultat: j'espérais que cette application serait utilisée par des milliers d'entreprises à travers le monde, mais aujourd'hui, vous ne trouverez aucune information sur cette application sur Internet. Les deux seuls clients l'ont abandonné et le projet a également été abandonné. Il n'a jamais été commercialisé, jamais annoncé publiquement, et aujourd'hui, je ne suis même pas sûr de pouvoir le compiler sur mon PC (ni trouver les sources originales). Cela ne serait pas arrivé si je me concentrais davantage sur des choses qui comptent vraiment.

Cela dit, les performances en général sont importantes :

  • Dans les applications non professionnelles, cela peut devenir crucial. Il y a des logiciels embarqués , des logiciels exécutés sur des serveurs (lorsque vous avez quelques milliers de demandes par seconde, ce qui n'est pas si gros, les performances commencent à être un problème), des logiciels exécutés sur des smartphones , des jeux vidéo , des logiciels pour les professionnels (essayez de gérer un fichier de 50 Go dans Photoshop sur une machine pas très rapide pour s'en convaincre) et même des produits logiciels ordinaires qui sont vendus à beaucoup de monde (si Microsoft Word passe deux fois son temps à faire chaque opération qu'il fait, le temps perdu multiplié par le nombre des utilisateurs deviendra un problème).

  • Dans les applications d'entreprise, il y a de nombreux cas où une application qui se sent et est ralentiront être haï par les utilisateurs. Vous ne voulez pas cela, ce qui rend vos performances préoccupantes.

Arseni Mourzenko
la source
4
Excellente réponse, en particulier parce qu'elle met l'accent sur les discussions de performances inutiles et les optimisations inutiles.
Doc Brown du
1
a simple animated transition may often be the difference between an app which feels terribly slow and the app which feels responsive- bien que celles-ci doivent certainement être utilisées avec parcimonie, pour les applications qui jonchent les animations et les transitions partout peuvent être frustrantes si vous regardez ces transitions au quotidien!
Cosmic Ossifrage
quelle est la source de votre devis?
Adam Johns
1
@AdamJohns: aucune source. Il est cité à partir des brouillons de mes propres articles qui ne sont pas encore publiés sur mon blog.
Arseni Mourzenko
@MainMa Oh génial. J'ai vraiment apprécié cette petite illustration de votre propos.
Adam Johns
44

Oui. Oui. La vitesse d'exécution n'est pas la seule préoccupation que vous devriez avoir, et ce n'est pas aussi pressant qu'en 1982, ou comme c'est toujours le cas sur les systèmes embarqués de faible puissance, mais c'est toujours une préoccupation, et il est important que vous compreniez pourquoi il en est ainsi.

D'une part, la complexité asymptotique que vous mentionnez décrit le comportement d'un programme à mesure que sa taille d'entrée augmente . Un programme non linéaire qui traite de 10 éléments peut vous permettre de faire un travail superflu, mais il vous mordra lorsqu'un jour vous devrez en gérer 1000, car il ne semblera pas seulement plus lent, mais beaucoup, beaucoup plus lent. Et vous ne savez pas (sans analyse approfondie et analyse comparative) si ce point sera à 100 éléments, à 1000 éléments, ou non jusqu'à ce que vous atteigniez 100 000 éléments. Cela peut être difficile à croire, mais le choix du meilleur algorithme est bien sûr beaucoup plus facile que d'estimer ce point pour chaque routine et de choisir votre implémentation en fonction de cette estimation.

Veuillez également lire les bases de l'expérience utilisateur. Il existe des seuils bien documentés qui déterminent comment l'interaction avec un programme est perçue en fonction de ses temps de réponse (10 ms, 100 ms, quelques secondes, etc.). Le franchissement de l'un de ces seuils entraînera le désengagement des utilisateurs de votre application, et à moins que vous ne soyez dans la position heureuse d'écrire un logiciel monopolistique que les gens doivent utiliser, les utilisateurs désengagés se traduisent directement par une valeur commerciale négative car cela entraîne la perte de clients.

Ce ne sont que quelques-unes des raisons pour lesquelles un programmeur professionnel doit connaître la complexité algorithmique et la gérer de manière responsable. De nos jours, il n'est généralement pas nécessaire de sortir de votre chemin et de programmer du code spécialement optimisé et mal lisible pour quoi que ce soit, sauf s'il s'avère que c'est une boucle interne critique, mais vous ne devriez jamais, jamais invoquer une classe de complexité supérieure à ce qui est évidemment nécessaire pour faire le travail.

Kilian Foth
la source
2
Une autre chose à garder à l'esprit concernant le choix de l'algorithme: en raison des bibliothèques et des abstractions, de nombreux choix d'algo ont déjà été faits pour vous ou du moins "sous le capot". Vous devez toujours en connaître les implications sur les performances. Et cette performance compte .
joshin4colours
14

Oui!

Puisque vous avez demandé des exemples, plusieurs situations quotidiennes viennent à l'esprit:

  1. Gestion des mégadonnées : de nombreuses applications métier sont soutenues par des bases de données et, dans de nombreux cas, ces bases de données débordent de données. Et comme l'espace disque est bon marché, les quantités de données enregistrées et stockées sont folles. Pas plus tard que la semaine dernière, un client s'est plaint que son application était tellement lente, en affichant simplement des nombres moyens (requêtes sur plusieurs millions de lignes ...) heures. L'année dernière, une optimisation algorithmique a réduit le temps de traitement d'un lot de 8 à 4 heures, maintenant il n'entre plus en collision avec le quart de jour!

  2. Réactivité : Il y a eu des études d'utilisabilité (si j'ai le temps, j'ajouterai des liens vers les questions pertinentes sur ux.se ...) que la satisfaction des utilisateurs est fortement liée à la réactivité. Une différence dans un temps de réponse de 200 ms contre 400 ms peut facilement vous coûter un pourcentage important de vos clients vous laissant pour vos concurrents.

  3. Systèmes embarqués : les ordinateurs ne progressent pas plus vite, ils deviennent plus lents et plus petits ^ _ ^ Le développement mobile a un impact énorme sur le développement d'applications. Bien sûr, nous pouvons lancer des cycles de mémoire et de processeur comme Jelly Beans sur des ordinateurs de bureau modernes, mais maintenant votre patron vous demande d'implémenter l'algorithme d'analyse du sommeil sur une montre freakin ou sur une carte SIM ...

Falco
la source
4

En pratique, aujourd'hui, la performance est-elle importante dans un programme d'entreprise normal?

Je ne sais pas ce qu'est un programme d'entreprise normal typique. Ce que je sais, c'est que les utilisateurs finissent toujours par alimenter nos programmes avec beaucoup plus de données que ce que nous avions prévu (souvent après leur avoir demandé quelle serait leur taille et ajouté une marge de sécurité) et que dans ce cas, ils s'attendent à une augmentation linéaire de au moment de l'exécution, acceptez un comportement de journalisation et vous plaignez que l'application se bloque en cas de problème. Et ils ont tendance à considérer la taille du résultat plus que la taille de l'entrée sauf dans le cas où il est évident d'après leur PDV que toutes les données d'entrée doivent être traitées.

Alors oui, la performance, au moins au niveau de la complexité, compte. La micro-optimisation à l'intérieur d'une classe de complexité n'a pas vraiment d'importance, sauf si vous êtes visiblement pire que la concurrence (que ce soit dans les benchmarks sur certains marchés ou par perception brute - changer la classe dans la progression "instantané", "pas instantané mais pas l'utilisateur pas passer à autre chose "," assez lentement pour que l’utilisateur passe à autre chose au risque d’interrompre le déroulement des actions "," assez lentement pour que l’utilisateur lance la tâche puis vérifie de temps en temps "," assez lentement que l'utilisateur prévoit de lancer la tâche pendant le déjeuner, la nuit, le week-end ").

AProgrammer
la source
4

Dans les applications professionnelles modernes, les problèmes de performances ne sont pas dus à un manque de CPU ou de mémoire. Mais ils se présentent sous la forme de latences réseau, de performances d'E / S et d'abstractions masquant tout cela. Tout dépend de la qualité du design et de l'expérience des développeurs. Même une simple application CRUD peut s'arrêter si elle tire de la base de données une ligne à la fois au lieu d'exécuter une requête (également connue sous le nom de problème N + 1).

Le problème est qu'avoir une bonne conception et des développeurs expérimentés coûte cher. Et il est généralement beaucoup moins cher d'avoir des utilisateurs irrités que d'investir dans de réelles optimisations de performances. Dans certains cas, les clients auront besoin de hautes performances (par exemple, des navigateurs Web), mais ceux-ci s'appliquent rarement aux applications commerciales courantes.

Euphorique
la source
3

Gardez à l'esprit que pour les applications basées sur serveur, des centaines, des milliers, voire des millions d'utilisateurs peuvent essayer de faire les choses en même temps. Une petite économie d'efficacité dans une telle situation peut avoir un impact majeur sur la quantité de matériel nécessaire pour répondre aux demandes.

Jaydee
la source
5
En fait, la plupart des facteurs constants sont mieux résolus en jetant plus de matériel sur le problème, car plus de matériel est généralement moins cher que plus de temps à optimiser la chose. Le problème est un mauvais comportement asymptotique (mise à l'échelle), car jeter plus de matériel ne sera pas très utile pour cela.
Jan Hudec
3
Vous n'optimisez qu'une seule fois, mais vous payez la facture d'électricité tous les mois.
Jaydee
2
@JanHudec: Je ne vois pas vraiment comment vous pouvez vraiment dire cela avec un visage impassible lorsque le site Web sur lequel vous êtes actuellement (notre cher Stack Exchange) affiche 560 millions de pages vues par mois à travers le monde sur seulement 25 serveurs .
Mehrdad
2
@Mehrdad: Et ils auraient pu l'écrire en C à la place et peut-être l'exécuter sur 20 serveurs au lieu de 25. Mais ils ne l'ont pas fait car les économies ne compenseraient pas l'augmentation du temps de développement. De nombreux services Web sont implémentés en Python et PHP, certains des langages les plus lents en général, mais personne ne songe à les réécrire plus rapidement car l'augmentation du temps de développement ne serait pas payante. La plupart du temps, les facteurs constants sont résolus en y jetant simplement plus de matériel. La mise à l'échelle (asymptotique) des problèmes est une autre chose qui va de soi.
Jan Hudec
3
... Et pour être honnête, la base de données, qui fait la plupart du travail de grognement, a été écrite et optimisée pour aller vite.
Blrfl
3

Cela compte certainement beaucoup.

Le problème principal n'est même pas d'être ennuyeux pour l'utilisateur, comme de subir des retards inutiles lorsque les éléments de l'interface graphique sont surchargés deux ou trois fois (ce qui importe sur les graphiques intégrés!) Ou simplement parce que le programme prend tellement de temps à faire ... quoi que ce soit fait (surtout des choses inintéressantes). Bien sûr, c'est aussi un problème.

Il existe trois idées fausses importantes:

  1. La plupart des ordinateurs professionnels typiques ne sont pas "tellement plus puissants" . L'ordinateur professionnel typique n'est pas un i7 à 8 cœurs avec une carte graphique kick-ass et 16 Go de RAM. Il s'agit d'un ordinateur portable avec un processeur mobile de classe moyenne, des graphiques intégrés, 2 Go de mémoire principale (4 Go si vous êtes chanceux), un disque à 5400 tr / min et une version d'entreprise de Windows avec une variété d'antivirus en temps réel et de logiciels d'application de politiques exécutés dans le Contexte. Ou, pour la plupart des consultants, "l'ordinateur" est simplement l'iPhone ...
  2. La plupart des "utilisateurs professionnels typiques" ne sont pas des techniciens, ils ne comprennent pas les implications de la création d'une feuille de calcul avec 10 à 12 onglets de références croisées, 150 colonnes et 30 000 lignes (ces chiffres ne sont pas aussi irréalistes que vous pouvez le supposer!) Et ils je ne veux pas savoir non plus. Ils vont juste le faire.
  3. Une seconde perdue ne coûte pas est une hypothèse manifestement erronée.

Ma femme travaille à l'extrémité supérieure d'un tel "environnement commercial typique". L'ordinateur qu'elle utilise coûte environ 3,5 heures de son temps de travail. Le démarrage de Microsoft Outlook prend - par une bonne journée - environ 3 minutes jusqu'à ce qu'il soit prêt (6-8 minutes en fin de trimestre lorsque les serveurs sont sous forte charge). Certaines de ces feuilles de calcul de 30 000 lignes mentionnées prennent 2-3 secondes pour mettre à jour une valeur pendant laquelle l'ordinateur est "gelé" (sans parler du temps qu'il faut à Excel pour démarrer et les ouvrir en premier!). C'est encore pire lors du partage de bureau. Ne me lancez même pas sur SAP.
Il importe certainement que cent mille personnes perdent chacune 20 à 25 minutes par jour ouvrable sans rien attendre. Ce sont des millions perdusque vous pourriez, au lieu de les perdre, verser des dividendes (ou payer des salaires plus élevés).
Bien sûr, la plupart des employés se situent dans la partie inférieure de l'échelle salariale, mais même dans la limite inférieure, c'est de l'argent .

Damon
la source
3

Je peux comprendre pourquoi c'était important, il y a des décennies. Les ordinateurs étaient beaucoup plus lents et avaient beaucoup moins de mémoire, il fallait donc bien réfléchir à ces choses.

Vous semblez sous-estimer la vitesse de croissance de N ^ 2. Disons que nous avons un ordinateur et que notre algorithme N ^ 2 prend 10 secondes lorsque N = 10. Le temps passe, nous avons maintenant un nouveau processeur 6 fois plus rapide que notre original, donc notre calcul de 10 secondes est maintenant inférieur à deux secondes. Jusqu'à quel point N peut-il être plus grand et peut-il toujours tenir dans ce temps d'exécution initial de 10 secondes? Nous pouvons désormais gérer 24 articles, soit un peu plus du double. Dans quelle mesure notre système devrait-il être plus rapide pour gérer 10 fois plus d'articles? Eh bien, cela devrait être 100 fois plus rapide. Les données se développent assez rapidement et annulent la progression du matériel informatique pour les algorithmes N ^ 2.

stonemetal
la source
Un autre exemple: si le traitement d'un élément prend 30 cycles CPU ou 10 ns (ce qui est assez bon marché), l'algorithme prendra déjà une seconde complète si vous n'avez que 10000 éléments. 10000 éléments n'est pas beaucoup dans de nombreux contextes.
CodesInChaos
1

Vous ne croiriez pas la quantité de programmes d'entreprise tiers que nous utilisons au travail, et beaucoup d'entre eux sont ridiculement lents à utiliser par rapport à mes normes personnelles. Si les programmes étaient quelque chose que j'utilise à la maison, je les aurais remplacés il y a longtemps par un autre.

Dans certains cas, la différence va directement dans les coûts, car certains programmes affectent directement le nombre de tâches que je peux accomplir au cours d'une journée, et réduisent ainsi ma productivité et le montant des articles facturables. Je dirais donc qu'il est tout aussi important que les programmes d'entreprise soient au moins suffisamment performants pour ne pas être l'élément limitant du revenu.

Un exemple est la gestion des incidents où le travail est mesuré à 15 minutes d'intervalle (service desk). Si le programme est assez lent pour pousser un ticket à prendre plus de 15 minutes (y compris le travail réel), cela ralentira considérablement le processus. Une cause pourrait être un accès lent à la base de données qui "attend un certain temps" chaque fois que l'utilisateur effectue une action (remplir les détails de la résolution, mettre à jour les informations sur le travail ou similaire). Je peux imaginer qu'il y a des cas où des programmes lents peuvent même affecter des choses plus critiques, comme les détails des patients hospitalisés sur les cas d'empoisonnement urgents - peut-être des allergies aux médicaments ou autres?

Juha Untinen
la source
1

Bon nombre des autres réponses couvrent le sujet de manière assez approfondie, je m'en remets donc aux raisons et aux justifications. Au lieu de cela, je veux donner un exemple concret pour montrer comment un choix algorithmique peut avoir de réelles implications.

http://windowsitpro.com/windows-xp/svchost-and-windows-update-windows-xp-still-problem

L'article lié décrit un bogue dans l'algorithme pour calculer les mises à jour de Windows XP. Pendant la majeure partie de la vie de Windows XP, l'algorithme de mise à jour a bien fonctionné. L'algorithme calcule si un correctif a été remplacé par un correctif plus récent et n'a donc pas besoin d'être installé. Vers la fin, cependant, la liste des mises à jour remplacées s'est allongée très longtemps *.

L'algorithme de mise à jour était exponentiel, chaque nouvelle mise à jour prenant deux fois plus de temps à calculer que la précédente ( ). Lorsque les listes ont atteint la plage de 40 mises à jour (* longue ), il a fallu jusqu'à 15 minutes, fonctionnant à pleine capacité, pour vérifier les mises à jour. Cela a effectivement bloqué de nombreuses machines XP pendant la mise à jour. Pire encore, lorsque l'on irait installer les mises à jour, l'algorithme s'exécuterait à nouveau , ce qui prend encore 15 minutes. Étant donné que de nombreuses machines avaient des mises à jour automatiques définies, cela pouvait bloquer les machines pendant 15 minutes à chaque démarrage, et potentiellement à nouveau à une certaine périodicité.O(n) = 2n

Microsoft a utilisé à la fois des hacks à court terme (suppression des éléments de la liste de mise à jour) et des correctifs à long terme pour résoudre ce problème. Cela était important car les dernières versions de Windows utilisaient également le même algorithme et pourraient un jour rencontrer le même problème.

On voit ici que le choix d'un algorithme a eu de réelles implications. Le mauvais algorithme, bien que correct pendant la majeure partie de la durée de vie du produit, peut néanmoins avoir des impacts négatifs sur la route.

cbojar
la source
0

Je pense que vous interprétez le nombre de questions posées sur les performances comme une indication que les exigences de performances pour les applications professionnelles sont importantes au lieu de reconnaître que l' amélioration des performances est difficile . Le simple fait de le faire fonctionner peut être accompli par des techniques de force brute, des essais et erreurs ou en copiant et collant un exemple de code.

Tout le monde peut avoir de la chance et continuer à apporter des modifications jusqu'à ce que quelque chose tourne plus vite, mais cela fonctionne rarement. En raison d'un manque d'expérience, les développeurs verront de l'aide extérieure. Dans certains environnements, l'amélioration des performances est un problème unique, donc poser une question spécifique sur un site comme StackOverflow peut être la seule option. De plus, de nombreux consultants gagnent leur argent en étant en mesure d'intervenir et de résoudre ce type de problèmes.

JeffO
la source
-1

Cela dépend fortement de la façon dont vous définissez les «bonnes performances». Vos algorithmes doivent toujours utiliser la meilleure complexité possible. Abusez les failles pour accélérer votre cage moyenne. Mettre en mémoire tampon et précharger / précompiler autant que possible dans un programme interactif.

Il existe une autre définition de «bonnes performances»: optimiser les constantes de votre classe de complexité. C'est là que C ++ obtient son titre, où les gens commencent à appeler Java slow, où 5% de temps d'exécution en moins semblent être le Saint Graal. En utilisant cette définition, vous avez raison. Le matériel informatique se complique avec le temps, tandis que les compilateurs s'améliorent de plus en plus. À un moment donné, vous ne pouvez pas vraiment optimiser le code bas de gamme mieux que le compilateur - alors laissez-le et concentrez-vous sur vos algorithmes.

À ce stade, l'utilisation de Java / Haskell / C ++ devient juste une autre décision de conception. Le calcul des nombres peut être effectué via OpenCL sur votre GPU. Les interfaces utilisateur ont besoin d'algorithmes à temps constant et elles sont bonnes. La sortie et la modularité sont plus importantes que l'alignement de vos classes pour une utilisation du cache de 20% supérieure. Le multithreading devient important, car les gens ne veulent pas d'une application rapide, ils veulent une application réactive. Ce qui n'est pas important, c'est que votre application soit constamment 10% plus lente qu'elle ne pourrait l'être. Même 50% est bien (mais les gens commencent alors à poser des questions). Concentrez-vous sur l'exactitude, la réactivité et la modularité.

J'adore la programmation en Haskell ou au moins sous une forme fonctionnelle (même en C ++). Être capable d'écrire facilement des tests pour l'ensemble de votre programme est bien plus important que d'être un peu plus rapide dans les travaux par lots.

5 à 9
la source
-1

Assez simple: le coût

Mon ancien employeur avait un système de gestion de l'apprentissage qui était hébergé sur des serveurs physiques en tant que modèle SaaS. Le tas de la machine virtuelle Java a été configuré sur 2 Go pour les machines plus anciennes et 3 Go pour les machines plus récentes et nous avons exécuté plusieurs instances par machine. On pourrait penser que ce serait suffisant.

Avant de commencer, il y avait une équipe de performance chargée de rendre le système réactif et évolutif. Ils ont constaté qu'il y avait certaines données que nous interrogions constamment dans la base de données. Il y avait une table que nous avons même rejoint dans la plupart des requêtes pour récupérer une colonne. Ces données ont rarement changé.

Le problème est que nous avions 2 Go pour travailler. La solution évidente est donc de commencer à mettre en cache toutes les données fréquemment lues. Ensuite, nous avons eu des problèmes de mémoire, commençant juste avant de monter à bord.

Il y avait 2 écoles de pensée à ce sujet:

  1. La mémoire et le matériel en général sont bon marché de nos jours. Achetez simplement plus de RAM pour pouvoir en mettre plus en cache.
  2. Pourquoi un système de gestion de l'apprentissage a-t-il besoin de plus de 3 Go de RAM? Tout ce qu'il fait, il émet des requêtes SQL, envoie des redirections pour lancer les cours et évalue les progrès des étudiants à travers les cours.

Le deuxième argument a gagné et j'ai passé plus d'un an à ajuster notre utilisation de la mémoire.

Mon employeur actuel héberge également un système de gestion de l'apprentissage, mais l'héberge un peu différemment. L'évolutivité est si faible qu'une seule installation (répartie sur 4 serveurs virtuels à charge équilibrée) ne peut gérer que 80 clients. Certains de nos plus gros clients obtiennent même leur propre ensemble de serveurs. La plupart des problèmes menant à cela sont des problèmes de performances, comme les requêtes SQL qui monopolisent tous les cycles du processeur, les fuites de mémoire, le code redondant qui fait la même chose plusieurs fois. Nous avons même construit une application interne dont le seul but est de redémarrer les serveurs lorsqu'ils ne fonctionnent pas mal. Il y a un employé qui maintient cet outil (ainsi que d'autres responsabilités).

Ils ont souscrit à la première école de pensée que j'ai mentionnée ci-dessus: jetez plus de matériel parce que les coûts de matériel sont moins chers que les salaires des développeurs.

Cela n'a pas fonctionné aussi économiquement que prévu. Entre le matériel, les licences logicielles et le personnel de support pour gérer les serveurs, nous avons dépensé des millions chaque année pour éviter qu'un développeur ne passe du temps à profiler le code.

Quand j'ai rejoint, j'ai été chargé de résoudre nos problèmes de disponibilité. Étant donné que la plupart de nos problèmes de disponibilité étaient dus à de mauvaises performances, j'ai ajusté les performances de notre code et l'évolutivité est considérablement améliorée, avec une disponibilité bien meilleure. Nous sommes prêts à commencer à augmenter la densité. Inutile de dire que mon salaire est loin d'un million (je le souhaite!), Donc dépenser de l'argent pour me faire régler les performances du code va finir par nous faire économiser des millions par an.

TL; DR

Si vous effectuez une analyse coûts / avantages approfondie, vous constaterez qu'il est moins coûteux de simplement corriger le code. Un problème de performance connu que vous ignorez se transforme en dette technique .

Brandon
la source
1
Toutes les analyses coûts / avantages n'entraîneront pas la «correction du code». Les programmeurs sont très chers, et si vous pouvez ajouter de la RAM pour moins que le coût d'un programmeur tout en résolvant le problème ...
Robert Harvey
C'est bien qu'avec tant de choses dans des situations d'hébergement cloud, vous pouvez voir combien vous payez réellement pour l'électricité. Par exemple, nous utilisons Amazon RDS pour la base de données. La différence entre la plus grande et la deuxième plus grande instance est d'env. 3500 $ par an. C'est un nombre que vous pouvez examiner et juger si cela vaut la peine de beaucoup de temps de programmation pour l'optimiser.
Carson63000
@RobertHarvey C'est vrai, je n'aurais pas dû en faire un absolu. Ce que je voulais dire, c'est que le "matériel est moins cher que le temps de développement" n'est pas absolument vrai, mais vous avez raison, cela peut parfois être vrai.
Brandon
-2

J'ai compris votre question comme ceci: pour obtenir des performances suffisantes (c'est-à-dire que les utilisateurs sont satisfaits et que mon backend ne grince pas), dois-je comprendre la théorie de la complexité algorithmique?

Cela dépend de ce que vous entendez par application métier "typique". Dans de nombreux cas, en particulier de simples systèmes d'information de type CRUD, la réponse serait non. Pour ceux-ci, vous aurez "simplement" (parfois c'est en fait difficile) besoin de pouvoir retracer les goulots d'étranglement des performances: ai-je manqué un index dans ma base de données? Dois-je envoyer trop de données sur le réseau? Ai-je un millier de dollars dans mon front-end angular.js? Il s'agit de construire une architecture saine, de bien connaître votre pile technologique et d'éviter le non-sens. Vous pouvez y parvenir si vous êtes un bon artisan, pas nécessairement un informaticien. Une autre façon de dire que les gars qui ont construit l'optimiseur de requêtes Oracle ont traité les problèmes de complexité algorithmique, il vous suffit d'utiliser correctement ce qu'ils vous ont fourni.

Maintenant, il y a des exceptions. Si nous parlons de Big Data ou de Machine Learning, vous devez savoir ce que vous faites et pas seulement utiliser les algorithmes par défaut à votre disposition. Même sur le front-end, si vous commencez à créer des visualisations de données avancées, certaines d'entre elles peuvent impliquer un coût de complexité non linéaire (par exemple, les graphiques de mise en page forcée).

De nos jours, ces exceptions sont de plus en plus courantes et le marché est assez sec lorsque vous recherchez des personnes capables de les gérer. Donc: oui, vous pouvez réussir sans expérience en informatique, mais vous le serez encore plus avec certains.

tententai
la source
-2

Les autres intervenants ont couvert la plupart des points de base, mais pour les tâches qui peuvent être parallélisées, les logiciels inefficaces entraînent une augmentation des coûts matériels sous la forme de plus de serveurs, qui utilisent plus d'énergie et nécessitent plus d'espace et de maintenance.

Jordan Bentley
la source