Le hachage d'un mot de passe deux fois avant le stockage est-il plus ou moins sûr qu'un simple hachage une fois?
Je parle de cela:
$hashed_password = hash(hash($plaintext_password));
au lieu de cela:
$hashed_password = hash($plaintext_password);
S'il est moins sécurisé, pouvez-vous fournir une bonne explication (ou un lien vers celle-ci)?
De plus, la fonction de hachage utilisée fait-elle une différence? Cela fait-il une différence si vous mélangez md5 et sha1 (par exemple) au lieu de répéter la même fonction de hachage?
Remarque 1: Lorsque je dis "double hachage", je parle de hacher deux fois un mot de passe pour essayer de le rendre plus obscur. Je ne parle pas de la technique de résolution des collisions .
Remarque 2: Je sais que je dois ajouter un sel aléatoire pour vraiment le sécuriser. La question est de savoir si le hachage deux fois avec le même algorithme aide ou blesse le hachage.
la source
Hash(password)
etHash(Hash(password))
sont tout aussi précaires. Les deux n'ont pas la notion de sécurité sémantique . Autrement dit, la sortie peut être distinguée de aléatoire. Par exemple,MD5("password")
est5f4dcc3b5aa765d61d8327deb882cf99
. Je sais que c'est le hachage MD5password
, et il se distingue du hasard. Au lieu de cela, vous devez utiliser un HMAC. C'est sûr et c'est un PRF.Réponses:
Le hachage d'un mot de passe une fois n'est pas sécurisé
Non, les hachages multiples ne sont pas moins sûrs; ils sont une partie essentielle de l'utilisation sécurisée des mots de passe.
L'itération du hachage augmente le temps nécessaire à un attaquant pour essayer chaque mot de passe de sa liste de candidats. Vous pouvez facilement augmenter le temps nécessaire pour attaquer un mot de passe de quelques heures à plusieurs années.
Une simple itération ne suffit pas
Le simple chaînage de la sortie de hachage en entrée n'est pas suffisant pour la sécurité. L'itération doit avoir lieu dans le contexte d'un algorithme qui préserve l'entropie du mot de passe. Heureusement, il existe plusieurs algorithmes publiés qui ont été suffisamment examinés pour donner confiance à leur conception.
Un bon algorithme de dérivation de clé comme PBKDF2 injecte le mot de passe dans chaque cycle de hachage, atténuant les problèmes de collisions dans la sortie de hachage. PBKDF2 peut être utilisé tel quel pour l'authentification par mot de passe. Bcrypt suit la dérivation de clé avec une étape de cryptage; de cette façon, si un moyen rapide d'inverser la dérivation de clé est découvert, un attaquant doit toujours terminer une attaque en texte brut connu.
Comment casser un mot de passe
Les mots de passe stockés doivent être protégés contre une attaque hors ligne. Si les mots de passe ne sont pas salés, ils peuvent être rompus avec une attaque de dictionnaire pré-calculée (par exemple, en utilisant une table arc-en-ciel). Sinon, l'attaquant doit passer du temps à calculer un hachage pour chaque mot de passe et voir s'il correspond au hachage stocké.
Tous les mots de passe ne sont pas également probables. Les attaquants peuvent rechercher de manière exhaustive tous les mots de passe courts, mais ils savent que leurs chances de succès en force brute diminuent fortement avec chaque personnage supplémentaire. Au lieu de cela, ils utilisent une liste ordonnée des mots de passe les plus probables. Ils commencent par "password123" et progressent vers des mots de passe moins fréquemment utilisés.
Disons qu'une liste d'attaquants est longue, avec 10 milliards de candidats; supposons également qu'un système de bureau puisse calculer 1 million de hachages par seconde. L'attaquant peut tester l'ensemble de sa liste en moins de trois heures si une seule itération est utilisée. Mais si seulement 2000 itérations sont utilisées, ce délai s'étend sur près de 8 mois. Pour vaincre un attaquant plus sophistiqué, capable de télécharger un programme capable d'exploiter la puissance de son GPU, par exemple, vous avez besoin de plus d'itérations.
Combien en faut-il?
Le nombre d'itérations à utiliser est un compromis entre la sécurité et l'expérience utilisateur. Le matériel spécialisé qui peut être utilisé par les attaquants est bon marché, mais il peut toujours effectuer des centaines de millions d'itérations par seconde. Les performances du système de l' attaquant déterminent le temps qu'il faut pour briser un mot de passe compte tenu d'un certain nombre d'itérations. Mais votre application n'est pas susceptible d'utiliser ce matériel spécialisé. Le nombre d'itérations que vous pouvez effectuer sans aggraver le nombre d'utilisateurs dépend de votre système.
Vous pouvez probablement laisser les utilisateurs attendre une extra seconde supplémentaire pendant l'authentification. Profilez votre plate-forme cible et utilisez autant d'itérations que possible. Les plates-formes que j'ai testées (un utilisateur sur un appareil mobile ou de nombreux utilisateurs sur une plate-forme serveur) peuvent confortablement prendre en charge PBKDF2 avec entre 60000 et 120000 itérations, ou bcrypt avec un facteur de coût de 12 ou 13.
Plus de fond
Lisez PKCS # 5 pour obtenir des informations faisant autorité sur le rôle du sel et les itérations dans le hachage. Même si PBKDF2 était destiné à générer des clés de chiffrement à partir de mots de passe, il fonctionne bien comme hachage unidirectionnel pour l'authentification par mot de passe. Chaque itération de bcrypt est plus coûteuse qu'un hachage SHA-2, vous pouvez donc utiliser moins d'itérations, mais l'idée est la même. Bcrypt va également au-delà de la plupart des solutions basées sur PBKDF2 en utilisant la clé dérivée pour crypter un texte brut bien connu. Le texte chiffré résultant est stocké en tant que «hachage», avec certaines métadonnées. Cependant, rien ne vous empêche de faire la même chose avec PBKDF2.
Voici d'autres réponses que j'ai écrites sur ce sujet:
la source
Pour ceux qui disent que c'est sûr, ils ont raison en général . Le hachage "double" (ou l'expansion logique de cela, l'itération d'une fonction de hachage) est absolument sûr s'il est bien fait , pour une préoccupation spécifique.
Pour ceux qui disent que ce n'est pas sûr, ils ont raison dans ce cas . Le code affiché dans la question n'est pas sécurisé. Parlons pourquoi:
Il y a deux propriétés fondamentales d'une fonction de hachage qui nous préoccupent:
Résistance à la pré-image - Étant donné un hachage
$h
, il devrait être difficile de trouver un message$m
tel que$h === hash($m)
Deuxième résistance à la pré-image - Étant donné un message
$m1
, il devrait être difficile de trouver un message différent$m2
tel quehash($m1) === hash($m2)
Résistance aux collisions - Il devrait être difficile de trouver une paire de messages
($m1, $m2)
tels quehash($m1) === hash($m2)
(notez que cela est similaire à la résistance de la deuxième pré-image, mais différent en ce sens que l'attaquant a le contrôle sur les deux messages) ...Pour le stockage des mots de passe , tout ce qui nous importe vraiment, c'est la résistance à la pré-image . Les deux autres seraient sans objet, car
$m1
c'est le mot de passe de l'utilisateur que nous essayons de protéger. Donc si l'attaquant l'a déjà, le hash n'a rien à protéger ...AVERTISSEMENT
Tout ce qui suit est basé sur la prémisse que tout ce qui nous intéresse est la résistance à la pré-image . Les deux autres propriétés fondamentales des fonctions de hachage peuvent ne pas (et ne le sont généralement pas) tenir de la même manière. Les conclusions de cet article ne sont donc applicables que lors de l'utilisation des fonctions de hachage pour le stockage des mots de passe. Ils ne sont pas applicables en général ...
Commençons
Pour les besoins de cette discussion, inventons notre propre fonction de hachage:
Maintenant, il devrait être assez évident de savoir ce que fait cette fonction de hachage. Il additionne les valeurs ASCII de chaque caractère d'entrée, puis prend le module de ce résultat avec 256.
Alors testons-le:
Voyons maintenant ce qui se passe si nous l'exécutons plusieurs fois autour d'une fonction:
Cela génère:
Hrm, wow. Nous avons généré des collisions !!! Essayons de voir pourquoi:
Voici la sortie de hachage d'une chaîne de chaque sortie de hachage possible:
Remarquez la tendance vers des nombres plus élevés. Cela s'avère être notre mort. L'exécution du hachage 4 fois ($ hash = ourHash ($ hash) `, pour chaque élément) nous donne:
Nous avons nous PRECISEE 8 valeurs ... C'est mauvais ... Notre fonction d' origine mappée
S(∞)
surS(256)
. C'est-à-dire que nous avons créé un mappage de fonction surjective$input
vers$output
.Puisque nous avons une fonction Surjective, nous n'avons aucune garantie que le mappage pour tout sous-ensemble de l'entrée n'aura pas de collisions (en fait, ils le feront).
Voilà ce qui s'est passé ici! Notre fonction était mauvaise, mais ce n'est pas pourquoi cela a fonctionné (c'est pourquoi cela a fonctionné si rapidement et si complètement).
La même chose se produit avec
MD5
. Il correspondS(∞)
àS(2^128)
. Puisqu'il n'y a aucune garantie que l'exécutionMD5(S(output))
sera Injective , ce qui signifie qu'elle n'aura pas de collisions.Section TL / DR
Par conséquent, étant donné que la réinjection
md5
directe de la sortie peut générer des collisions, chaque itération augmentera les risques de collisions. Cependant, il s'agit d'une augmentation linéaire, ce qui signifie que même si l'ensemble de résultats de2^128
est réduit, il n'est pas significativement réduit suffisamment rapidement pour être un défaut critique.Alors,
Plus vous répétez de fois, plus la réduction va loin.
The Fix
Heureusement pour nous, il y a un banal moyen de résoudre ce problème: Rétroagissez quelque chose dans les autres itérations:
Notez que les autres itérations ne sont pas 2 ^ 128 pour chaque valeur individuelle de
$input
. Cela signifie que nous pouvons être en mesure de générer des$input
valeurs qui entrent toujours en collision le long de la ligne (et donc s'installent ou résonnent à2^128
des sorties bien inférieures aux possibilités). Mais le cas général$input
est toujours aussi solide qu'il l'était pour un seul tour.Attendez, n'est-ce pas? Testons cela avec notre
ourHash()
fonction. Passage à$hash = ourHash($input . $hash);
, pour 100 itérations:Il y a encore un modèle rugueux là, mais note qu'il n'y a pas plus d'un modèle que notre fonction sous - jacente (qui était déjà assez faible).
Notez cependant que
0
et sont3
devenus des collisions, même si elles n'étaient pas du seul coup. C'est une application de ce que j'ai dit auparavant (que la résistance aux collisions reste la même pour l'ensemble de toutes les entrées, mais des routes de collision spécifiques peuvent s'ouvrir en raison de défauts dans l'algorithme sous-jacent).Section TL / DR
En réinjectant l'entrée dans chaque itération, nous brisons efficacement toutes les collisions qui peuvent s'être produites lors de l'itération précédente.
Par conséquent,
md5($input . md5($input));
devrait être ( théoriquement au moins) aussi fort quemd5($input)
.Est-ce important?
Oui. C'est l'une des raisons pour lesquelles PBKDF2 a remplacé PBKDF1 dans RFC 2898 . Considérez les boucles internes des deux:
PBKDF1:
Où
c
est le nombre d'itérations,P
le mot de passe etS
le selPBKDF2:
Où PRF n'est vraiment qu'un HMAC. Mais pour nos besoins ici, disons simplement que
PRF(P, S) = Hash(P || S)
(c'est-à- dire que le PRF de 2 entrées est le même, grosso modo, que le hachage avec les deux concaténés ensemble). Ce n'est pas du tout le cas , mais pour nous, c'est le cas.PBKDF2 conserve donc la résistance aux collisions de la
Hash
fonction sous-jacente , contrairement à PBKDF1.Attacher tout cela ensemble:
Nous connaissons des moyens sûrs d'itérer un hachage. En réalité:
Est généralement sûr.
Maintenant, pour expliquer pourquoi nous voudrions le hacher, analysons le mouvement d'entropie.
Un hachage prend l'ensemble infini:
S(∞)
et produit un ensemble plus petit et de taille cohérenteS(n)
. L'itération suivante (en supposant que l'entrée est retransmise) correspondS(∞)
àS(n)
nouveau à:Notez que la sortie finale a exactement la même quantité d'entropie que la première . L'itération ne "la rendra pas plus obscure". L'entropie est identique. Il n'y a pas de source magique d'imprévisibilité (c'est une fonction pseudo-aléatoire, pas une fonction aléatoire).
Il y a cependant un gain à itérer. Cela ralentit artificiellement le processus de hachage. Et c'est pourquoi itérer peut être une bonne idée. En fait, c'est le principe de base de la plupart des algorithmes de hachage de mot de passe modernes (le fait de faire quelque chose encore et encore le rend plus lent).
La lenteur est bonne, car elle combat la principale menace pour la sécurité: le forçage brutal. Plus notre algorithme de hachage est lent, plus les attaquants doivent travailler pour attaquer les hachages de mot de passe qui nous ont été volés. Et c'est une bonne chose !!!
la source
$output = md5($output); // < 2^128 possibilities
--- est-ce vraiment strict<
, ou<=
?md5()
dans ce cas) pour vraiment savoir avec certitude. Mais en général , il sera<
et non<=
... Rappelez - vous, nous parlons de la taille de l'ensemble des$output
pour tous possible$inputs
. Donc , si nous avons même une collision , il sera<
donc<
est le meilleur généralisateur.Oui, le hachage réduit l'espace de recherche, mais non, cela n'a pas d'importance - la réduction effective est insignifiante.
Le ré-hachage augmente le temps nécessaire à la force brute, mais le faire seulement deux fois est également sous-optimal.
Ce que vous voulez vraiment, c'est hacher le mot de passe avec PBKDF2 - une méthode éprouvée d'utilisation d'un hachage sécurisé avec du sel et des itérations. Découvrez cette réponse SO .
EDIT : j'ai presque oublié - N'UTILISEZ PAS MD5 !!!! Utilisez un hachage cryptographique moderne tel que la famille SHA-2 (SHA-256, SHA-384 et SHA-512).
la source
Oui - cela réduit le nombre de chaînes pouvant correspondre à la chaîne.
Comme vous l'avez déjà mentionné, les hachis salés sont bien meilleurs.
Un article ici: http://websecurity.ro/blog/2007/11/02/md5md5-vs-md5/ , tente de prouver pourquoi il est équivalent, mais je ne suis pas sûr de la logique. En partie, ils supposent qu'il n'y a pas de logiciel disponible pour analyser md5 (md5 (texte)), mais évidemment, il est assez trivial de produire les tableaux arc-en-ciel.
Je reste fidèle à ma réponse selon laquelle le nombre de hachages de type md5 (md5 (texte)) est inférieur à celui des hachages md5 (texte), ce qui augmente les risques de collision (même si cela reste improbable) et réduit l'espace de recherche.
la source
La plupart des réponses proviennent de personnes sans expérience en cryptographie ou en sécurité. Et ils ont tort. Utilisez un sel, si possible unique par enregistrement. MD5 / SHA / etc sont trop rapides, contrairement à ce que vous voulez. PBKDF2 et bcrypt sont plus lents (ce qui est bien) mais peuvent être vaincus avec des ASIC / FPGA / GPU (très abordables de nos jours). Un algorithme mémoire est donc nécessaire: entrez scrypt .
Voici une explication profane sur les sels et la vitesse (mais pas sur les algorithmes durs en mémoire).
la source
Je regarde cela d'un point de vue pratique. Quel est le pirate informatique après? Pourquoi, la combinaison de caractères qui, une fois passée par la fonction de hachage, génère le hachage souhaité.
Vous ne sauvegardez que le dernier hachage, par conséquent, le pirate n'a à brutaliser qu'un seul hachage. En supposant que vous avez à peu près les mêmes chances de tomber sur le hachage souhaité à chaque étape de bruteforce, le nombre de hachages n'est pas pertinent. Vous pourriez faire un million d'itérations de hachage, et cela n'augmenterait pas ou ne réduirait pas la sécurité d'un bit, car à la fin de la ligne, il n'y a qu'un seul hachage à casser, et les chances de le casser sont les mêmes que n'importe quel hachage.
Peut-être que les affiches précédentes pensent que la contribution est pertinente; ce n'est pas. Tant que tout ce que vous mettez dans la fonction de hachage génère le hachage souhaité, il vous permettra de passer à travers, une entrée correcte ou une entrée incorrecte.
Maintenant, les tables arc-en-ciel sont une autre histoire. Puisqu'une table arc-en-ciel ne contient que des mots de passe bruts, le hachage deux fois peut être une bonne mesure de sécurité, car une table arc-en-ciel qui contient chaque hachage de chaque hachage serait trop grande.
Bien sûr, je ne considère que l'exemple donné par l'OP, où il s'agit simplement d'un mot de passe en texte brut haché. Si vous incluez le nom d'utilisateur ou un sel dans le hachage, c'est une autre histoire; le hachage deux fois est totalement inutile, car la table arc-en-ciel serait déjà trop grande pour être pratique et contenir le bon hachage.
Quoi qu'il en soit, pas un expert en sécurité ici, mais c'est exactement ce que j'ai compris de mon expérience.
la source
D'après ce que j'ai lu, il peut être recommandé de ré-hacher le mot de passe des centaines ou des milliers de fois.
L'idée est que si vous pouvez prendre plus de temps pour encoder le mot de passe, il est plus difficile pour un attaquant de passer par de nombreuses suppositions pour casser le mot de passe. Cela semble être l'avantage du ré-hachage - non pas qu'il soit plus sécurisé cryptographiquement, mais cela prend simplement plus de temps pour générer une attaque par dictionnaire.
Bien sûr, les ordinateurs deviennent plus rapides tout le temps, donc cet avantage diminue avec le temps (ou vous oblige à augmenter les itérations).
la source
Personnellement, je ne m'embêterais pas avec plusieurs hachages, mais je m'assurerais également de hacher le nom d'utilisateur (ou un autre champ ID utilisateur) ainsi que le mot de passe afin que deux utilisateurs avec le même mot de passe ne se retrouvent pas avec le même hachage. De plus, je lancerais probablement une autre chaîne constante dans la chaîne d'entrée pour faire bonne mesure.
la source
Supposons que vous utilisez l'algorithme de hachage: calculez rot13, prenez les 10 premiers caractères. Si vous faites cela deux fois (voire 2000 fois), il est possible de faire une fonction plus rapide, mais qui donne le même résultat (à savoir prendre simplement les 10 premiers caractères).
De même, il peut être possible de créer une fonction plus rapide qui donne la même sortie qu'une fonction de hachage répétée. Votre choix de fonction de hachage est donc très important: comme avec l'exemple rot13, il n'est pas donné que le hachage répété améliore la sécurité. S'il n'y a aucune recherche disant que l'algorithme est conçu pour une utilisation récursive, il est plus sûr de supposer qu'il ne vous donnera pas une protection supplémentaire.
Cela dit: pour toutes les fonctions de hachage, à l'exception des plus simples, il faudra très probablement des experts en cryptographie pour calculer les fonctions les plus rapides.Par conséquent, si vous vous protégez contre les attaquants qui n'ont pas accès à des experts en cryptographie, il est probablement plus sûr dans la pratique d'utiliser une fonction de hachage répétée. .
la source
En général, il n'offre aucune sécurité supplémentaire pour doubler ou chiffrer quelque chose. Si vous pouvez casser le hachage une fois, vous pouvez le casser à nouveau. Cependant, cela ne nuit généralement pas à la sécurité.
Dans votre exemple d'utilisation de MD5, comme vous le savez probablement, il y a des problèmes de collision. "Double hachage" n'aide pas vraiment à se protéger contre cela, car les mêmes collisions entraîneront toujours le même premier hachage, que vous pouvez ensuite MD5 à nouveau pour obtenir le deuxième hachage.
Cela protège contre les attaques par dictionnaire, comme ces "bases de données MD5 inversées", mais il en va de même pour le salage.
Sur une tangente, le chiffrement double ne fournit aucune sécurité supplémentaire car il ne fait que générer une clé différente qui est une combinaison des deux clés réellement utilisées. Ainsi, l'effort pour trouver la «clé» n'est pas doublé car deux clés n'ont pas réellement besoin d'être trouvées. Ce n'est pas vrai pour le hachage, car le résultat du hachage n'est généralement pas de la même longueur que l'entrée d'origine.
la source
Le double hachage n'a de sens pour moi que si je hache le mot de passe sur le client, puis enregistre le hachage (avec un sel différent) de ce hachage sur le serveur.
De cette façon, même si quelqu'un a piraté son chemin vers le serveur (ignorant ainsi la sécurité offerte par SSL), il ne peut toujours pas accéder aux mots de passe clairs.
Oui, il disposera des données nécessaires pour pénétrer dans le système, mais il ne pourra pas utiliser ces données pour compromettre les comptes externes de l'utilisateur. Et les gens sont connus pour utiliser le même mot de passe pour pratiquement tout.
La seule façon pour lui d'obtenir des mots de passe clairs est d'installer un keygen sur le client - et ce n'est plus votre problème.
Bref:
la source
Le souci de réduire l'espace de recherche est mathématiquement correct, bien que l'espace de recherche reste suffisamment grand pour que, à toutes fins pratiques (en supposant que vous utilisiez des sels), à 2 ^ 128. Cependant, comme nous parlons de mots de passe, le nombre de chaînes de 16 caractères possibles (alphanumériques, majuscules, quelques symboles ajoutés) est d'environ 2 ^ 98, selon mes calculs au dos de l'enveloppe. La diminution perçue de l'espace de recherche n'est donc pas vraiment pertinente.
En dehors de cela, il n'y a vraiment aucune différence, cryptographiquement parlant.
Bien qu'il existe une primitive de chiffrement appelée "chaîne de hachage" - une technique qui vous permet de faire quelques astuces intéressantes, comme divulguer une clé de signature après son utilisation, sans sacrifier l'intégrité du système - avec une synchronisation temporelle minimale, cette vous permet de contourner proprement le problème de la distribution initiale des clés. Fondamentalement, vous pré-calculez un grand ensemble de hachages de hachages - h (h (h (h .... (h (k)) ...))), utilisez la nième valeur pour signer, après un intervalle défini, vous envoyez sortez la clé et signez-la à l'aide de la clé (n-1). Les destinataires peuvent désormais vérifier que vous avez envoyé tous les messages précédents, et personne ne peut truquer votre signature depuis la fin de la période pour laquelle elle est valide.
Re-hacher des centaines de milliers de fois comme le suggère Bill n'est qu'un gaspillage de votre processeur. Utilisez une clé plus longue si vous craignez que les gens ne cassent 128 bits.
la source
Comme plusieurs réponses dans cet article le suggèrent, il y a des cas où cela peut améliorer la sécurité et d'autres où cela le blesse définitivement. Il existe une meilleure solution qui améliorera définitivement la sécurité. Au lieu de doubler le nombre de fois que vous calculez le hachage, doublez la taille de votre sel, ou doublez le nombre de bits utilisés dans le hachage, ou faites les deux! Au lieu de SHA-245, passez à SHA-512.
la source
Le double hachage est moche car il est plus que probable qu'un attaquant ait construit une table pour proposer la plupart des hachages. Mieux vaut saler vos hachis et mélanger les hachis ensemble. Il existe également de nouveaux schémas pour "signer" les hachages (essentiellement le salage), mais de manière plus sécurisée.
la source
Oui.
N'utilisez absolument pas plusieurs itérations d'une fonction de hachage conventionnelle, comme
md5(md5(md5(password)))
. Au mieux, vous obtiendrez une augmentation marginale de la sécurité (un schéma comme celui-ci n'offre pratiquement aucune protection contre une attaque GPU; il suffit de le canaliser.) Au pire, vous réduisez votre espace de hachage (et donc la sécurité) à chaque itération que vous ajoutez . En matière de sécurité, il est sage de supposer le pire.N'utiliser un mot de passe qui a été conçu par un cryptographe compétent pour être un hachage de mot de passe efficace et résistant à la fois la force brute et les attaques d'espace de temps. Il s'agit notamment de bcrypt, scrypt et dans certaines situations PBKDF2. Le hachage basé sur la glibc SHA-256 est également acceptable.
la source
Je vais sortir sur un membre et dire que c'est plus sûr dans certaines circonstances ... ne me vote pas encore cependant!
D'un point de vue mathématique / cryptographique, c'est moins sûr, pour des raisons que je suis sûr que quelqu'un d'autre vous donnera une explication plus claire que je ne pourrais.
Cependant , il existe de grandes bases de données de hachages MD5, qui sont plus susceptibles de contenir le texte "mot de passe" que le MD5 de celui-ci. Donc, en double-hachant, vous réduisez l'efficacité de ces bases de données.
Bien sûr, si vous utilisez un sel, cet avantage (inconvénient?) Disparaît.
la source