also wenn das Bild wirklich nicht interlaced ist, dann sollte es bei ffmpeg auch nicht nötig sein, ein interlacer filter drüber laufen zu lassen. Einfach ohne Filter laufen lassen. Da kommt dann auch progressiv raus, weil der Encoder darauf per Default eingestellt ist.
Da ist halt das interlaced bit beim MPEG2 encoding falsch gesetzt. War seinerzeit eher ein Problem seinerzeit im nicht-HD Zeitalter, bei DVDs "no-interlaced" per flag anzuzeigen. Was 100% bei jedem Fernseher funktioniert hat war halt interlaced.
Habe versucht bei ffmpeg einen filter zu finden, der bloss das flag zuruecksetzt oder ignoriert, hab aber nix gefunden. Deinterlace filter war halt am einfachsten. Haette zwar auch gedacht, das der interlaced encoder-modus bei nicht interlaced bildmaterial da genauso effizient codiert wie der nicht-interlaced encoder, stimmt aber leider nicht. Hat mehr bits produziert.
Bitrateänderungen können auch davon kommen, dass ein Deinterlace Filter über ein progressives Bild läuft und dort "optischen Schaden" anrichten und Details zerstört. Das spiegelt sich dann in niedrigerer Bitrate wieder. Ich würde einmal mit und einmal ohne deinterlace Filter laufen lassen und optisch vergleichen, ob ein Filter notwendig ist. Nicht das du dir durch den mcdeint das Bild zerstörst.
Hmm.. das mit dem gucken hatte ich getan, aber nix gesehen, war aber glaube ich alles bevor ich auf die neue x265 version gegangen bin Schwierig bei so einem low-quality material was mit x265 zu sehen, gibt ja nicht wirklich die einfachen guten alten MPEG artefakte mehr. und mit der aktuellen version von ffmpeg/x265 ist halt auch das banding weg. Und dann lasse ich ja auch noch den grain drin, weil das bild sonst natuerlich zermatscht wird. Am Ende konnte ich z.b. auch nicht wirklich unterschied zwichen rf22/grain und rf23/grain feststellen. Aber jede season wurde 2GB kleiner mit jeweeils einem rf hoeher. rf23 ohne grain ist ja auch x265 default glaube ich ? Und seasons 1-3 die mit den kleinen 16mm kameras gedreht wurden hatten jeweils 2GByte mehr, wegen der groeberen koernung.
mal gucken, ob ich irgendwie einen ffmpeg lauf basteln kann, wo bloss psnr von dekodierten bild verglichen wird, einemal mit, einmal ohne mcdeint.
zusatzfrage: Weisst Du, ob bei den multi-channel audio encodern die bits nach bedarf verteilt werden und differentiell codiert wird ? Hoere da naemlich nie irgendwas wesentliches/effektmaessiges von hinten. Der ton ist maximal sterio, aber meistens hoert es sich eher nach Mono an. Da also viele bits fuer 5 Kanaele zu spendieren ist irgendwie sinnlos. Ich selbst hoere da also keinen unterschied wenn ich das auf 5 kanaelen lasse aber mit e.g.: ac3 brutal auf 128 kbps runterbringe. hab da mal auf die schnelle versucht zu vergleichen ob beim codieren auf ac3 128kbps stereo vs. 128 kbps 5+1 hoehere frequenzen weggebuegelt werden, aber mit dem spektrometer von vlc konnte ich da nix sehen. Allerdings weiss ich nicht, ob ich dem trauen kann und ob das sich nicht einfach dynamisch auf das vorhandene spektrum einstellt oder so