@learche11
VGA ist eine analoge Signalübertragung, deine Pixel werden auf - analog - VGA gewandelt und im Gerät (Beamer/Monitor) wieder zurück in digital. So bekommt man auch auf einem LCD schlechtere Kontraste und Geisterbilder hin. Was am Kabel und an einem zu schwachen elektrischen Signal der Karte liegen kann. Kann, nicht muss.
DVI ist komplett digital-digital, da zeigt der Beamer soviel er kann. Je nach Modell ist das aber auch soo viel wieder nicht, da würde auch ein VGA-Port nicht mehr viel schaden. Beim TFT/LCD ist der Unterschied sofort zu sehen, Farbumfang, Kontrast. Bei manchen Konfigurationen kann über VGA auch die max. Auflösung des Displays/Beamers nicht erreicht werden (Full HD 1920x1080p über VGA geht nicht wirklich gut)
HDMI ist im wesentlichen ein DVI-Signal mit Microsoft-DRM-Vorbereitung. (HDCP = High-bandwidth Digital Content Protection) Wenn man z.B. von einem Vista-PC per HDMI einen teuren LCD ansteuert, erhält man – sobald ein DRM-geschützter Inhalt zu sehen ist – ein technisch degradiertes Signal. Damit die Kopie, die abgegriffen würde, nicht dem Original entspricht.
(DRM = Digital Rights Management, vulgo Kopierschutz)
Darüber hinaus ist HDMI ein Consumer-Format mit der nicht unerheblichen Einschränkung, daß das YUV-Videokomponentensignal nicht den vollen Helligkeitsumfang überträgt, sondern an beiden Enden der Skala 5% clippt. Das wiederum kann man bei einigen Geräten umstellen, aber nicht bei allen.
Also:
VGA = alt, analog, unnötige Verluste
DVI = aktuell-digital, soviel wie geht
HDMI = DRM-Consumer. Wozu auch immer.