In der Welt der PC-Spiele gibt es kaum etwas, das mehr Anklang findet als eine schwer durchschaubare Fachsprache. Sätze wie „Mein Bildschirm hat G-Sync, eine Reaktionszeit von 1 ms GTG, ein 16:9-Seitenverhältnis und HDR. Damit erlebst du keine Nachzieheffekte“, sind an der Tagesordnung.
Sollten Ihnen diese Begriffe wie ein unverständliches Kauderwelsch vorkommen, wird dieser Artikel Licht ins Dunkel bringen und Ihnen die wichtigsten Aspekte für ein optimales Spielerlebnis erläutern. Es existiert eine Vielzahl von Fachausdrücken rund um PC-Komponenten wie Prozessoren, Grafikkarten und Mainboards. Viele dieser Ausdrücke können Sie getrost ignorieren und sich stattdessen auf die jeweils beste Komponente in Ihrer Preisklasse konzentrieren.
Bei Monitoren verhält es sich jedoch anders. Sie sind ein visuelles Medium, und jeder Mensch hat eine eigene Auffassung davon, was als „gut“ empfunden wird – welche Farben wirken zu blass, welche haben zu wenig „Pop“. Auch die Art der Grafikkarte beeinflusst die Wahl des passenden Monitors.
Lassen Sie uns also gemeinsam in die faszinierende Welt der Monitortechnologie eintauchen.
Bildwiederholfrequenz
Die Bildwiederholfrequenz gibt an, wie oft ein Monitor sein Bild pro Sekunde aktualisiert. Auch im digitalen Zeitalter besteht ein Video letztlich aus einer Abfolge von Einzelbildern. Die Geschwindigkeit, mit der diese Bilder wechseln, wird in Hertz (Hz) gemessen. Ein 120-Hz-Bildschirm kann sein Bild 120 Mal pro Sekunde erneuern. Ein 60-Hz-Monitor schafft dies 60 Mal pro Sekunde, während ein 144-Hz-Monitor 144 Bildwechsel pro Sekunde ermöglicht.
Die meisten heute verwendeten Monitore arbeiten mit einer Standard-Bildwiederholfrequenz von 60 Hz. Hochwertigere Gaming-Monitore bieten jedoch Bildwiederholfrequenzen von 120 Hz oder 144 Hz. Je höher die Frequenz, desto flüssiger wird das Spiel auf dem Bildschirm dargestellt – vorausgesetzt, Ihre Grafikkarte kann mit der Darstellung mithalten.
G-Sync und FreeSync
Eng verbunden mit der Bildwiederholfrequenz sind die Technologien Nvidia G-Sync und AMD FreeSync. Beide Grafikkartenhersteller unterstützen ihre eigenen Versionen der variablen Bildwiederholfrequenz (auch bekannt als adaptive Synchronisierung). Dabei synchronisieren Grafikkarte und Monitor ihre Bildwiederholfrequenzen, um ein konsistenteres, flüssigeres Bild zu erzeugen.
Wenn die Grafikkarte mehr Bilder ausgibt, als der Monitor darstellen kann, kann es zu sogenannten „Tearing“ (Bildschirmrissen) kommen. Dabei werden Teile des aktuellen und des nächsten Bildes gleichzeitig auf dem Bildschirm dargestellt.
Ein solches Tearing kann das Spielerlebnis nicht nur optisch beeinträchtigen, sondern bei empfindlichen Personen auch Kopfschmerzen oder Übelkeit verursachen.
Adaptive Synchronisierung ist also ein großer Vorteil, setzt aber eine Grafikkarte voraus, die diese Technologie unterstützt. In der Regel bedeutet dies, dass Nutzer einer Nvidia GeForce-Karte einen G-Sync-Monitor und Besitzer einer AMD Radeon-Karte FreeSync verwenden.
Allerdings gibt es Ausnahmen: Einige FreeSync-Monitore sind auch G-Sync-kompatibel. Das ist gut, da FreeSync-Monitore oft preisgünstiger sind als ihre G-Sync-Pendants. Es gibt jedoch nur eine begrenzte Anzahl von FreeSync-Monitoren, die als „G-Sync-kompatibel“ gelten. Informieren Sie sich daher vor dem Kauf in Testberichten, wie gut G-Sync auf FreeSync-Monitoren funktioniert.
Eingabeverzögerung
Die Bildwiederholfrequenz ist nur ein Teil des Gesamtbildes. Ein weiteres wichtiges Thema ist der Input-Lag, der sogar zwei Bedeutungen hat, was die Sache noch komplizierter macht. Die gute Nachricht ist, dass beide Definitionen leicht zu verstehen sind.
Wenn die meisten Leute über Eingabeverzögerung sprechen, meinen sie die Zeit, die zwischen dem Betätigen einer Taste, dem Klicken mit der Maus oder dem Bewegen eines Controllers und dem Moment vergeht, in dem diese Aktion auf dem Bildschirm sichtbar wird. Im Idealfall erfolgt die Umsetzung der Eingabe ohne wahrnehmbare Verzögerung. Bei einer Verzögerung hingegen dauert es unter Umständen eine halbe Sekunde oder länger, bis eine Aktion auf dem Bildschirm erfolgt. Das ist beim Spielen hinderlich – vor allem, wenn man versucht, einen Gegner in einem Spiel wie Fortnite zu überlisten.
Die zweite Definition bezieht sich auf die Zeit, die ein Videosignal benötigt, um auf dem Monitor zu erscheinen. Diese wenigen Millisekunden werden manchmal als Eingabeverzögerung bezeichnet, aber richtiger ist die Bezeichnung Anzeigeverzögerung.
Wie auch immer man es nennt, das Ergebnis ist das gleiche: In schnellen Spielen kann es passieren, dass Gegner angreifen, bevor man sie überhaupt wahrnimmt, oder der eigene Charakter bewegt sich an einen unerwünschten Ort.
Eingabeverzögerung oder Anzeigeverzögerung können einen Monitor schlecht aussehen lassen. Daher werden diese Werte oft nicht in den Produktbeschreibungen angegeben. Zudem hängt die Eingabeverzögerung nicht nur vom Monitor ab, sondern kann auch von anderen Faktoren wie dem System oder den Grafikeinstellungen im Spiel (z.B. V-Sync) beeinflusst werden.
Um herauszufinden, ob ein Monitor ein Problem mit der Eingabe- oder Anzeigeverzögerung hat, suchen Sie online nach Testberichten oder verwenden Sie Suchbegriffe wie „[Monitor X] Input-Lag“. Die meisten Monitore sind für die meisten Anwendungen geeignet, aber für kompetitive Spiele, wie z. B. CS:GO, ist es wichtig, die Eingabeverzögerung zu minimieren.
Reaktionszeit
Die Reaktionszeit gibt an, wie lange ein Pixel benötigt, um seine Farbe zu ändern. Gemessen wird diese Zeit in Millisekunden. Oft wird dabei die Zeit gemessen, die ein Pixel benötigt, um von Schwarz zu Weiß und wieder zurück zu wechseln. Manchmal wird die Reaktionszeit mit „GTG“ (Grey-to-Grey) angegeben. Hierbei wird gemessen, wie lange ein Pixel benötigt, um von einem Grauton über eine Reihe von Graustufen zu einem anderen Grauton zu gelangen.
Im Allgemeinen gilt: Je kürzer die Reaktionszeit, desto besser, da die Pixel schnell genug umschalten können, um mit den Bildwechseln Schritt zu halten. Die Reaktionszeit ist eng mit der Bildwiederholfrequenz verbunden. Die Bildwiederholfrequenz gibt an, wie viele Bilder pro Sekunde auf dem Monitor angezeigt werden können, während die Reaktionszeit die Zeit beschreibt, die die einzelnen Pixel benötigen, um von einem Bild zum nächsten zu wechseln.
Rasante Multiplayer-Spiele wie Street Fighter profitieren von geringen Reaktionszeiten.
Wenn sich die Pixel nicht schnell genug bewegen, können visuelle Artefakte wie Ghosting auftreten. Dabei wirken Objekte verschwommen oder doppelt, oder es entstehen Lichthöfe um sie herum. Ein YouTube-Video demonstriert ein deutliches Beispiel für Ghosting.
Die Reaktionszeit ist wichtig, doch leider sind die Messungen nicht standardisiert. Daher ist es ratsam, sich vor dem Kauf zu informieren und Testberichte zu lesen, in denen mögliche Probleme mit Ghosting erwähnt werden.
TN und IPS
Beim Kauf eines Monitors werden Sie in der Regel auf zwei Arten von Display-Technologien stoßen: Twisted Nematic (TN) und In-Plane-Switching (IPS). Ohne ins Detail zu gehen, lässt sich sagen, dass TN-Panels eine sehr gute Reaktionszeit für Gaming-Monitore bieten. Der Nachteil ist, dass die Farben auf TN-Panels oft blasser oder „ausgewaschen“ wirken.
TN-Displays haben zudem oft schlechtere Betrachtungswinkel. Wenn man nicht direkt vor dem Bildschirm sitzt, kann die Detailgenauigkeit und Sichtbarkeit von Objekten in dunklen Szenen eingeschränkt sein.
Die Meinungen darüber, welcher Paneltyp besser ist, gehen auseinander. Es ist ratsam, sich beide Paneltypen im Laden anzusehen, um den Unterschied persönlich zu erleben.
HDR
Eine Darstellung der Wirkung von HDR auf 4K-Fernsehern.
High Dynamic Range (HDR) ist ein wichtiges Merkmal moderner Monitore. Es findet sich vor allem auf 4K-UHD-Monitoren, kann aber auch bei anderen Auflösungen zum Einsatz kommen. HDR ermöglicht eine größere Farbpalette auf dem Bildschirm. Dadurch wirken die Farben lebendiger und der Effekt ist oft beeindruckend.
In mancher Hinsicht ist HDR sogar wichtiger als 4K. Wenn Sie beispielsweise einen 1080p-Monitor suchen und ein Modell mit HDR in Erwägung ziehen, sollten Sie dieses Feature in Ihre Entscheidung mit einbeziehen. Beachten Sie jedoch, dass Sie für HDR meist einen höheren Preis zahlen müssen. Daher sollten Sie sich vorher über die Umsetzung dieser Funktion informieren.
Quantenpunkt-Technologie
Quantenpunkt-Displays nutzen winzige Halbleiterkristalle (nicht breiter als einige Nanometer), die jeweils eine einzelne, sehr reine Farbe emittieren können. Monitorhersteller verwenden eine Vielzahl von rot und grün emittierenden Quantenpunkten und kleben sie auf eine Monitorschicht, die dann mit blauen LEDs hinterleuchtet wird. Das Ergebnis ist ein helleres, reineres Weiß, das gefiltert werden kann, um eine größere Farbpalette auf dem LCD-Bildschirm anzuzeigen.
Dies ist eine vereinfachte Erklärung einer komplexen Technologie. Kurz gesagt, die Quantenpunkt-Technologie verbessert die Farbbrillanz und damit das Gesamtbild des Monitors.
Farbraum
Der Farbraum oder das Farbprofil beschreibt den möglichen Farbbereich, den ein Monitor darstellen kann. Da ein Monitor nicht alle Farben, die wir sehen können, darstellen kann, wird eine vordefinierte Untermenge, der sogenannte Farbraum, verwendet.
In den Monitorspezifikationen werden oft verschiedene Farbräume wie sRGB, AdobeRGB und NTSC erwähnt. Diese Standards definieren jeweils auf ihre eigene Weise, welche Farbnuancen ein Monitor wiedergeben kann. Eine detaillierte Erläuterung der Farbprofile finden Sie in unserem Tutorial zu diesem Thema.
Monitorhersteller geben in der Regel an, zu wie viel Prozent der Monitor den sRGB-, NTSC- oder AdobeRGB-Farbraum abdeckt. Wenn sRGB beispielsweise seinen Farbbereich durch einen bestimmten Satz von Farbtönen definiert, kann der betreffende Monitor X Prozent der Farben originalgetreu darstellen.
Auch beim Farbraum scheiden sich die Geister. Oft sind es mehr Informationen, als die meisten von uns benötigen. Als allgemeine Faustregel gilt jedoch: Je höher der prozentuale Wert der Farbraumabdeckung, desto besser ist die Farbwiedergabe.
Spitzenhelligkeit
Nicht alle Monitore enthalten Angaben zur Helligkeit in ihren Spezifikationen, aber viele tun es. Diese Angaben beziehen sich auf die Spitzenhelligkeit, gemessen in Candela pro Quadratmeter (cd/m²). Wenn ein Bild auf dem Bildschirm angezeigt wird, erreichen die hellsten Teile dieses Bildes den maximalen Helligkeitswert, während die dunkleren Teile darunter liegen.
250 bis 350 cd/m² gelten im Allgemeinen als akzeptabel und werden von den meisten Monitoren erreicht. Bei HDR-Monitoren ist normalerweise ein Wert von mindestens 400 Nits (1 Nit entspricht 1 cd/m²) zu erwarten.
Auch bei der Helligkeit eines Monitors gilt: Was als „gut“ empfunden wird, liegt im Auge des Betrachters. Manche bevorzugen einen Monitor mit 1000 Nits, während andere dies als zu hell empfinden.
Seitenverhältnis
Ein Ultrawide-Monitor mit einem Seitenverhältnis von 32:109.
Das Seitenverhältnis wird in Form von 16:9, 21:9 oder 32:10 angegeben. Die erste Zahl steht für die Breite des Displays, die zweite für die Höhe. Bei einem 16:9-Display bedeutet das, dass auf 16 Breiteneinheiten neun Höheneinheiten kommen.
Wenn Sie klassische Episoden von Fernsehserien aus der Vergangenheit gesehen haben, wird Ihnen aufgefallen sein, dass diese oft in einem quadratischen Format in der Mitte des Bildschirms dargestellt wurden. Das liegt daran, dass ältere Sendungen ein Seitenverhältnis von 4:3 verwendeten. Moderne Monitore und Fernseher haben in der Regel ein 16:9-Verhältnis, wobei Ultrawide-Displays meist 21:9 erreichen. Es gibt jedoch auch andere Verhältnisse, wie z. B. 32:10 und 32:9.
Wenn Sie nach einem ungewöhnlichen Monitorformat suchen, empfiehlt es sich, einen Fachhandel aufzusuchen, um sich ein Bild von den verschiedenen Seitenverhältnissen zu machen und herauszufinden, welches Ihnen am besten gefällt.
Damit haben wir es geschafft! Sie kennen nun die wichtigsten Fachbegriffe der Monitortechnologie und haben eine bessere Vorstellung davon, was Sie wirklich benötigen. Gehen Sie hinaus und erobern Sie die verwirrende Welt der Computerbildschirme!