online 1
gast (50)

/ Forum / WindowsXP

WindowsXPWindowsXP

Fragevon Boboo vom 17.04.2019, 22:04 Options

Worin liegt der Untschied zwischen Bildrate und Bildwiederholfrequenz?

Hallo,

kann mir jemand erklären, worin der Untschied zwischen Bildrate und Bildwiederholfrequenz liegt?

Bo


Antwort schreiben

Antwort 21 von Ahoi vom 20.04.2019, 11:15 Options

Die Bildwiederholfrequenz ist doch völlig uninteressant bei der Betrachtung.

Würde diese sich auf die Dauer der Darstellung eines einzelnen Bildes auswirken, hätte man das Problem, dass ein 90 Minuten Hollywoodschinken auf einem z.B. 50 Hertz - Monitor exakt doppelt so lange dauern müsste wie auf einem 100 Hertz-Bildschirm.

Die Abtastung hat doch nichts mit der Dauer der Darstellung zu tun.

Antwort 22 von Doc-Jay vom 20.04.2019, 11:50 Options

Zu AW 20: TFTs stellen in der Regel fest 60 Bilder je Sekunde dar, Röhrenmonitore können flexibel je nach Modell bis zu 120 Bilder je Sekunde darstellen. Das hängt aber stark vom Monitor ab, ältere Modelle könne max. 85 Bilder / sekunde darstellen. Da ganze ist auch noch abhängig von der Bildauflösung...
Also eindeutige Empfehlung: Hochwertiger Röhrenmonitor!

Zu AW21: Dein Ansatz ist etwas falsch.
Ein Film hat nach deutscher PAL-Norm 50 Halbbilder / Sekunde. Ein 100 Hz Fernseher kann durchaus 100 Halbbilder / Sekunde darstellen, tatsächlich werden aber nur 50 Halbbilder / Sekunde dargestellt, und zwar jeweils zweimal hintereinander.
Also vom Vollbild 1: Halbbild 1, Halbbild 2, Halbbild 1, Halbbild 2. Vollbild 2: Halbbild 1, Halbbild 2, Halbbild 1, Halbbild 2. usw usw

Der Vorteil der 100Hz Fernseher ist, dass das Bildflimmern, dass durch den wandernden Elektronenstrahl und die Abdunklung der Leuchtschicht verursacht wird, deutlich vermindet wird. An der Anzahl der dargestellten (unterschiedlichen) Bilder ändert sich jedoch nichts.
Auch auf einem Computer werden bei einem Film 25(deutsche Norm) bzw. 30 (amerikanische Filme) unterschiedliche(!!) Vollbilder je Sekunde dargestellt. Die Grafikkarte sendet jedoch z.b. 100 mal je Sekunde vollständige Bildinformationen zum Monitor. So kommt es dass der Monitor z.B. 3 mal hintereinander das gleiche Bild darstellt ehe er eine andere Information erhält.

Die Bildfrequenz ist also beim Film immer gleich und ist unabhängig von der "Bildaufbaufrequenz" des darstellenden Gerätes.

Damit ein Computer einen Film flüssig darstellen kann ist eben auch eine gewisse Rechenleistung vonnöten, unter anderem auch um aus den 30 Bildern, die der Film liefert, die 100 Bilder die der Monitor darstellt zu "berechnen".

Noch Fragen? Nur her damit ;-)

Grüße

Der Doc

Antwort 23 von Ahoi vom 20.04.2019, 12:25 Options

Mir geht darum, dass z.B. eine für eine bestimmte Dauer einzublendende Grafik bei geeigneter Programmierung eben genau für den vorgesehenen Zeitpunkt eingeblendet wird, die Grafikkarte für diesen Zeitpunkt sozusagen keine weiteren Informationen an die CPU übertragt, zumindest keine,die die Berechnung eines neuen Bildinhaltes zur Folge hätten - und damit eben ein neues Bild hervorbringen würde.
Und diese Dauer ist unabhängig von der Wiederholfrequenz des Monitors, unabhängig von der Anzahl der Voll-oder Halbbilder etc..

Antwort 24 von Doc-Jay vom 20.04.2019, 14:10 Options

Zu AW 23: Das ist wieder eine etwas andere Fragestellung als in AW21.

Natürlich hat der Monitor etwas mit der Dauer der Darstellung eines Bildes zu tun. Selbst wenn die Grafikkarte 20000 Bilder in einer Sekunde berechnen kann, der Monitor kann in einer Sekunde eben nur 60 oder 100 davon darstellen, und nur diese Bilder werden im Endeffekt "wahrgenommen"

Man muß die Berechnung eines Bildes losgelöst von der Darstellung betrachten. Den Aspekt habe ich wohl vernachlässigt.

Eine Grafikkarte besteht im Wesentlichen aus drei Teilen: Dem Grafikprozessor der die ganzen Berechnungen vornimmt, dem RAM-Speicher in dem die ganzen Grafikdaten liegen, und dem RAMDAC, der die berechneten Bilder aus dem RAM ausliest und diese Daten so aufbereitet dass der Monitor etwas damit anfangen kann.
Und der RAMDAC liest eben in einer Sekunde nur so oft den Speicher aus wie er Bilder an den Monitor schicken soll.
Die Berecnung der Bilddaten und die Darstellung auf dem Monitor sind also (ziemlich) unabhängig voneinander.
Wenn man einem Röhrenmoitor mehr Bilder schickt als er in einer Sekunde verarbeiten kann dann erhält man nur ein Gewirr von irgendwelchen seltsamen zeilen, ein TFT meldet dann einfach "no Signal".

Ich denke,wenn man einen Grafikprozessor geschickt programmiert dann kann man ihn dazu bringen, ein Bild zu berechnen, warten bis das Bild vom RAMDAC ausgelesen und dargestellt wurde, und dann das nächste Bild berechnet.
ABer hier endet mein Wissen jetzt wirklich, ich habe noch keine Grafikkarte so intensiv betrachtet. ;-)

Der Doc

Antwort 25 von Ahoi vom 20.04.2019, 15:14 Options

Genau das macht der in Antwort 17 vorgestellte Code, bzw. genau das kann man mit ihm machen (die "geschickte" Programmierung von Timern resp. Interrupts).

Antwort 26 von Ahoi vom 20.04.2019, 15:15 Options

AW 18 war gemeint.

Sorry.

Antwort 27 von Doc-Jay vom 20.04.2019, 15:22 Options

Wenn das auf der Ebene der Grafikkarte läuft ist das ja genau die Lösung des Problems.
Wie schon erwähnt, ich bin nicht der Profi-Programmierer, und mit Timing-Geschichten habe ich mich das letzte Mal zu Zeiten des C64 befasst.

Ich finde es aber klasse dass solche Diskussionen hier im SN laufen, ich hoffe das läuft weiterhin so und wir können viel voneinander lernen.

Liebe Grüße

der Doc

Ähnliche Themen

Virenarten?
SilverTiger  12.04.2007 - 111 Hits - 3 Antworten

SATA PATA
Funi  14.11.2007 - 67 Hits - 2 Antworten

Frage Unterschied
Funi  25.11.2007 - 70 Hits - 3 Antworten

NVU-Composer
Wolkra  17.02.2008 - 60 Hits - 18 Antworten

Hinweis

Diese Frage ist schon etwas älter, Sie können daher nicht mehr auf sie antworten. Sollte Ihre Frage noch nicht gelöst sein, stellen Sie einfach eine neue Frage im Forum..

Neue Einträge

Version: supportware 1.9.150 / 10.06.2022, Startzeit:Mon Jan 26 09:21:55 2026