News IPS Black im Test: LG verspricht bei Schwarz und Kontrast nicht zu viel

Kaboooom schrieb:
Ich weiß nicht genau, was du unter "simuliert" verstehst, aber die oben aufgeführte "Pursuit Camera"-Methode ist What You See Is What You Get (WYSIWYG).
Da der Effekt im Auge/ Gehirn entsteht, KANN eine Kamera ihn eigentlich gar nicht "wahrnehmen", blurbusters schreibt selbst:
These close-up pictures were taken using a pursuit camera at 1/30sec exposure (exposing multiple refreshes into same photo).
Also eine Simulation, ist anders auch nicht möglich in einem Einzelbild darzustellen.

NOTE: Stacking multiple refreshes into one camera exposure, improves the WYSIWYG accuracy of pursuit camera photographs, since it more closely simulates the continual sampling (“integration”) the human eye does while seeing. Stacking multiple refreshes also filters out high-speed temporal effects of certain displays (e.g. plasma subfields, temporal dithering, etc.) and far more closely resembles the average perceived motion blur that the human eye sees.
 
Zuletzt bearbeitet:
In diesem Sinne Simulation, ja.

Worauf ich hinaus wollte: der Effekt entsteht auf dem Kamerasensor genauso wie auf der Netzhaut. Die Kamera bekommt wie das Auge für die Dauer der Standbildzeit ein Frame zu sehen, über die es sich in identischer Geschwindigkeit hinweg bewegt. Dadurch entsteht (eigentlich unabhängig zur Belichtungszeit, sofern diese > Refreshzyklusdauer ist) das selbe Maß an Sample-Hold-Blur.

Sample-Hold-Blur lässt sich pixelgenau voraussagen (siehe Blur Buster Law), und anhand guter Pursuit-Kamera-Aufnahmen lassen sich dann genau diese Pixelangaben ablesen.

Das ist also eine sehr akkurate Simulation mithilfe einer Kamera mit dem erwähnten WYSIWYG-Anspruch.
 
Kaboooom schrieb:
Die Kamera bekommt wie das Auge für die Dauer der Standbildzeit ein Frame zu sehen, über die es sich in identischer Geschwindigkeit hinweg bewegt. Dadurch entsteht (eigentlich unabhängig zur Belichtungszeit, sofern diese > Refreshzyklusdauer ist) das selbe Maß an Sample-Hold-Blur.
Hab ich anders verstanden:
Set the camera exposure to 4 times the length of the monitor refresh. For 120Hz, use a 1/30sec camera exposure. You can also use even longer exposures, once you become familiar with interpreting the Sync Track (or writing software that processes the photographs)

NOTE: Stacking multiple refreshes into one camera exposure, improves the WYSIWYG accuracy of pursuit camera photographs, since it more closely simulates the continual sampling (“integration”) the human eye does while seeing. Stacking multiple refreshes also filters out high-speed temporal effects of certain displays (e.g. plasma subfields, temporal dithering, etc.) and far more closely resembles the average perceived motion blur that the human eye sees


man wählt eine zur Framerate passende Belichtungszeit, um den Effekt ähnlich der menschlichen Wahrnehmung abzubilden.

Wie auch immer, das Verfahren ist erprobt und erfüllt seinen Zweck wie gewünscht.
 
Ein Problem bei wenigen oder gar nur einem Stack ist, dass der Kamerazyklus nicht mit dem Framezyklus des Bildschirms übereinstimmt ("multiple-refresh stacking [...] eliminates visible errors caused by camera shutter timing being out of phase with refresh timing").
Andere Gründe wollen mir nicht so recht einleuchten (obwohl Rejhon diese andeutet, aber nicht ausführt). Temporal Dithering und Plasma Sub-Field Drive außen vor gelassen, die haben allerdings auch nicht wirklich etwas mit der Bewegung zu tun. Das Außmaß des Sample-Hold-Blurs (in messbarer "Pixellänge") sollte sich theoretisch in einem Zyklus einfangen lassen. Es kann allerdings sein, dass der eigentliche Bildeindruck des Auges erst über mehrere Stacks entsteht (aka "continual sampling"). Rejhon argumentiert definitiv in dieser Richtung, da hast du Recht.

Wie du schreibst bzw. zitierst, ist eine längere Belichtungszeit (> 4 Stacks) möglich und sollte das Ergebnis nicht verändern. Das meinte ich, als ich von "unabhängig zur Belichtungszeit" gesprochen habe. Nur wird es dann schwer, dem Objekt ausreichend lange konstant zu folgen und das Pattern ist auf die Überprüfung, ob es funktioniert hat, nicht optimiert ("You may use a longer exposure (e.g. 1/10sec) to capture more than 4 refreshes, but this makes it harder to verify the correctness of the Pursuit Camera Sync Track since it is currently optimized to 4 refreshes.").
 
Zuletzt bearbeitet:
Bin mit meinem 2723qe ziemlich happy und der tiefere Kontrast ist im Vergleich zu meinem vorigen U2717(?) schon klar sichtbar. Auch das fehlen der 120+ Hz macht sich nicht wirklich negativ bemerkbar :)
 
Zurück
Oben