ArtikelInfrastruktur

Von analogen und digitalen Video-Formaten

Autor/Redakteur: Dr. Rainer Bachmann, Leiter Produkt-Management bei LINDY/gg

bachmann

28 Jahre ist VGA mittlerweile alt, DVI kommt auf 16 Jahre, selbst HDMI hat schon zwölf Jahre auf dem Buckel, und DisplayPort gibt es schon seit 2006. Da mag es wundern, dass VGA heute immer noch als Quasi-Standard etabliert ist. Was spricht heutzutage noch für VGA? Eigentlich gar nichts mehr. Flachbildschirme können VGA-Signale nicht direkt verarbeiten und müssen sie erst digitalisieren, hohe Auflösungen sind aufgrund der Störanfälligkeit nur schwer oder mit Einbußen zu übertragen, zusätzliche Signale wie Audio oder USB können bei einem VGA-Signal nicht mit durchgeschleust werden, und eine aktive Stromversorgung über VGA gibt es auch nicht. Seit Anfang dieses Jahres liefern Intel und AMD kein Gerät mehr mit VGA-Buchse aus, und als DVI als digitales Nachfolger-Format 1999 vorgestellt wurde, vermutete wohl niemand, dass man sich noch im Jahr 2015 mit Adaptern für VGA beschäftigen würde. Grund genug für den Mannheimer Connectivity-Spezialisten LINDY, einmal einen Blick auf die Möglichkeiten und Schwierigkeiten verschiedener Video-Adapter zu werfen.

VGA nicht totzukriegen

VGA ist immer noch ein weit verbreiteter Standard, obwohl die meisten neueren Rechner heutzutage eine HDMI-Buchse haben. Jedoch stehen in vielen Büros beispielsweise noch Monitore, die an einem bisher üblichen On-Board-VGA-Anschluss angeschlossen waren. Und auch wenn Notebooks heutzutage eher zu DisplayPort oder Mini-HDMI neigen, der obligatorische VGA-Ausgang verschwand erst recht spät. Fast noch als Standard gilt VGA bei Beamern und das, obwohl Beamer erst populär wurden, als die Zeit von VGA beinahe schon vorbei war.

Vier Standards gleichzeitig – enormer Bedarf an Konvertern

Mit inzwischen vier Video-Standards, von denen alle inzwischen weit verbreitet sind, wächst auch der Bedarf für Adapter und Konverter. Der Bedarf in Industrie und Privathaushalten ist in der Praxis enorm. Regelmäßig bekommen wir Anfragen aus Unternehmen zur Verfügbarkeit hunderter Adapter. Diese Firmen sind im Prozess, ihr IT-Equipment zu erneuern, wobei aus Kosten- oder Anlagen-spezifischen Gründen jedoch noch funktionierende Komponenten beibehalten werden und entsprechend mit den neuen Interfaces verbunden werden sollen.

Die erste Reaktion auf die neuen Video-Anschlüsse kam in Form von DVI-Adaptern, die für ein paar Euro zu haben waren, und im Grunde nur mit Draht und Plastik die unterschiedlichen Stecker verbanden und keine aktiven elektronischen Komponenten enthielten. Möglich waren solche Adapter weil DVI (in den Spezifikationen DVI-I und DVI-A) ein klassisches analoges VGA-Signal ausgab, das nur auf die entsprechenden VGA-Pins umgelegt werden musste. Auf die gleiche Art lässt sich auch ein digitales HDMI-Signal mit Draht und Plastik zu einem DVI-D-Signal machen.

Aus digital mach analog – der Mikroprozessor muss arbeiten

Komplizierter wird es, wenn rein digitale Signale in analoge umgewandelt werden sollen. DVI-D machte als erstes weit verbreitetes rein digitales Format den Anfang, und HDMI und DisplayPort, als ebenfalls digitale Signale, bilden heute den Standard. Sollen diese Signale auf VGA konvertiert werden, benötigt man mehr als nur Draht und Plastik. Für das analoge VGA muss aus den digitalen Signalen ein komplett neues analoges Signal generiert werden. Ein Mikroprozessor erzeugt dieses analoge Signal dann in Echtzeit. Dies leistet streng genommen kein Adapter mehr, sondern nur ein vollelektronischer Video-Digital/Analog-Wandler (D/A-Wandler).