J'ai un moniteur Dell U2312HM connecté à un ordinateur portable Dell Latitude E7440. Lorsque je les connecte via laptop -> HDMI cable -> HDMI-DVI adaptor -> monitor
(le moniteur n'a pas de prise HDMI), l'image est beaucoup plus nette qu'avec laptop -> miniDisplayPort-VGA adaptor -> VGA cable -> monitor
. La différence est difficile à capturer avec un appareil photo, mais voyez ma tentative ci-dessous. J'ai essayé de jouer avec les paramètres de luminosité, de contraste et de netteté, mais je ne peux pas obtenir la même qualité d'image. La résolution est de 1920x1080, j'utilise Ubuntu 14.04.
VGA:
HDMI:
Pourquoi la qualité est-elle différente? Est-ce intrinsèque à ces normes ou dois-je suspecter un câble VGA ou un adaptateur mDP-VGA défectueux?
Réponses:
Le VGA est le seul signal analogique parmi ceux mentionnés ci-dessus, c'est donc déjà une explication de la différence. L'utilisation de l'adaptateur peut encore aggraver votre situation.
quelques lectures supplémentaires: http://www.digitaltrends.com/computing/hdmi-vs-dvi-vs-displayport-vs-vga/
la source
En supposant que la luminosité, le contrat et la netteté sont les mêmes dans les deux cas, il pourrait y avoir 2 autres raisons pour lesquelles le texte est plus net avec DVI / HDMI:
Le premier a déjà été dit, le VGA est analogique et devra donc passer par une conversion analogique-numérique à l'intérieur du moniteur, cela dégradera théoriquement la qualité de l'image.
Deuxièmement, en supposant que vous utilisez Windows, il existe une technique appelée ClearType (développée par Microsoft) qui améliore l'apparence du texte en manipulant les sous-pixels d'un moniteur LCD. VGA a été développé avec des moniteurs CRT à l'esprit et la notion de sous-pixel n'est pas la même. En raison de la nécessité pour ClearType d'utiliser un écran LCD et du fait que la norme VGA ne dit pas à l'hôte les spécifications de l'affichage, ClearType serait désactivé avec une connexion VGA.
Source: Je me souviens avoir entendu parler de ClearType par l'un de ses créateurs sur un podcast pour This (). Developers (). Life () IIRC, mais http://en.wikipedia.org/wiki/ClearType soutient également ma théorie. HDMI est également rétrocompatible avec DVI et DVI prend en charge l'identification électronique de l'affichage (EDID)
la source
Les autres soulèvent de bons points, mais la raison principale est un décalage évident d'horloge et de phase. Le VGA est analogique et est soumis à des interférences et à une non-concordance des côtés d'émission et de réception analogiques. Normalement, on utiliserait un modèle comme celui-ci:
http://www.lagom.nl/lcd-test/clock_phase.php
Et ajustez l'horloge et la phase du moniteur pour obtenir la meilleure correspondance et l'image la plus nette. Cependant, comme il est analogique, ces ajustements peuvent changer au fil du temps, et donc vous devriez idéalement utiliser simplement un signal numérique.
la source
Il y a quelques réponses indiquant un signal numérique vs analogique qui est correct. Mais cela ne répond pas au pourquoi? Quelques couches de traduction mentionnées, cela est également vrai, une conversion A / N traditionnelle peut entraîner une perte de fidélité, mais vous devrez mesurer cela car il est difficile de voir les différences à l'œil nu. Une conversion bon marché et tous les paris sont désactivés.
Alors pourquoi le numérique est-il meilleur que l'analogique?
Un signal RVB analogique (tel que VGA) utilise l'amplitude du signal (0,7 Volts crête à crête dans le cas de VGA). Comme tous les signaux, il y a du bruit qui, s'il est suffisamment grand, entraînera une conversion incorrecte des niveaux.
Les réflexions dans le câble (asymétries d'impédance) sont en fait la plus grande chute d'un signal vidéo analogique. Cela introduit du bruit supplémentaire et s'aggrave avec des câbles plus longs (ou moins chers), plus la résolution de la vidéo augmente également le rapport signal / bruit. Fait intéressant, vous ne devriez pas voir de différence dans un signal 800x600 à moins que le câble VGA ne soit trop long.
Comment un signal numérique évite-t-il ces pièges? Eh bien pour l'un, le niveau n'est plus pertinent. Le DVI-D / HDMI utilise également un signal différentiel ainsi qu'une correction d'erreur pour garantir que les uns et les zéros sont fidèlement transmis correctement. Il y a aussi un conditionnement supplémentaire ajouté à un signal numérique qui n'est pas pratique à ajouter à un signal vidéo analogique.
Désolé pour les gars de la boîte à savon, mais ce sont les faits.
la source
Un autre problème est que beaucoup de câbles VGA sont indésirables. Si le câble VGA est inférieure à 1/4" d' épaisseur, vous aurez probablement remarquerez des images fantômes sur les écrans plus grands (supérieur au rez, ghosting plus probable). J'ai même ghosting remarqué sur le câble VGA fixé sur certains 19" CRT montitors. Mes câbles VGA mesurent environ 1/3 "d'épaisseur et cela aide vraiment à la netteté (Fils plus épais, plus de blindage)
la source
HDMI et DVI sont très similaires. Les deux sont numériques; les principales différences sont que HDMI prend en charge l'audio et le HDCP. Lors de la commutation entre HDMI et DVI, il y a peu de conversion réelle, mais plutôt la connexion des broches correspondantes sur les connecteurs. Le port d'affichage est un protocole numérique, mais le VGA est analogique, et le convertisseur introduit probablement de petits défauts et la réduction de la netteté dans le signal. Le moniteur reconvertit probablement le signal en numérique, entraînant une autre conversion qui affecte négativement la qualité.
Dans l'ensemble, l'ordinateur-> HDMI-> DVI-> moniteur a moins de conversions réelles que l'ordinateur-> DisplayPort-> VGA-> moniteur et ne convertit jamais le signal en analogique, donnant une image plus nette.
la source
HDMI et DVI sont en fait une seule et même chose (du moins dans votre contexte). Les connecteurs DVI ne sont en réalité que des connecteurs HDMI avec un brochage différent (les rangées de broches), plus des connecteurs VGA avec un brochage différent (les broches disposées autour d'une forme de croix). Si vous regardez votre convertisseur HDMI-DVI, vous remarquerez probablement que la partie en forme de croix manque.
Vous comparez donc une image HDMI avec une image VGA et, comme l'a souligné @Josh, une image qui implique une conversion réelle.
Il y a en fait une différence entre HDMI et DVI, mais cela ne vous concerne pas. HDMI peut transporter des signaux supplémentaires, y compris le signal de cryptage pour la protection du contenu, le son, Ethernet, etc.
la source