Wie rippt Ihr eure Medien ?

  • das Re-Encoden braucht mehrere Stunden,

    Das kann man heute auch nicht mehr so stehen lassen - insbesondere, wenn die GPU die Encodierung übernimmt.

    Mal davon abgesehen, dass Remuxe einfach viel besser auf dem Bildschirm aussehen (ist dann ja Original-Quali) ...

    Ich habe schon Originale gesehen, da hat es mich gegraust, was die Qualität angeht.

    AZi (DEV): Nexus auf LibreElec | Asrock J4205 | 4 GB RAM | 128 GB Sandisk| Rii mini
    DEV: PC Ubuntu 20.04 | Matrix
    AZi: Tanix TX3 | Android/CoreElec Dualboot (EMMC), Nexus
    WoZi: Nexus auf LibreElec | Asrock J4205 | 4GB RAM | 128 GB Sandisk SSD | Atric IR | URC7960

    NAS: unRaid, 3x6TB, 2x12TB | TV-Server: Futro S550 mit Hauppauge QuadHD DVB-C
    PayPal: paypal.me/pvdbj1

  • Der einzige Grund warum man was transkodiert, ist ja der Mangel an Speicherplatz. Mittlerweile lass ich meine Filme auf 1080p mit ~10-15GB Dateigröße runterrechnen. Früher hatte ich schon mit 5GB Angst. Folglich musste irgendwann mal ein Upgrade her und seit dem hab ich Ruhe. Mit x264 ist das für meine Ansprüche ein gutes Mittelmaß. Mit x265 geht da noch mehr Qualität bzw. weniger Speicherbedarf.

    Kodi-Basis: Intel® NUC7PJYH | 4GB DDR4 | 60GB Sandisk SSD | LibreElec 10 | Horizon V | Emby
    Sound: Sony HT-CT290 2.1 Soundbar
    TV: 55" Sony KD-55XE8577
    Server: Intel Core i5-4690 @ Asrock Z97 Anniversary | 8GB DDR3 | Xubuntu 18.04.4 LTS @ 256GB Samsung 840Pro | 5x 3TB WD-Red @ ZFS RAID 5 | Emby-Server | Monitorix

  • das Re-Encoden braucht mehrere Stunden

    Mit ffmpeg unter Ubuntu in der GPU für ein FullHD Video ca 20-25 Minuten von h264 zu HEVC ;)

    Mit der CPU natürlich langsamer, dafür aber bessere Komprimierung. Bei der Nutzung der GPU geht es schneller, aber das File ist im Endeffekt größer. Das hatten wir schon an anderer Stelle besprochen. Das eine hat halt den Vorteil, dass es platzsparender ist (aber dafür mehr Zeit und somit auch mehr Strom verbraucht), das andere spart Zeit belegt aber mehr Speicherplatz auf der Platte. Bei den Festplattenpreisen zur Zeit und in anbetracht der Tatsache auf streigende Strompreise, weiß ich, für was ich mich entscheide ;)

  • Ich habe schon Originale gesehen, da hat es mich gegraust, was die Qualität angeht.

    Das stimmt natürlich auch. Ich habe zum Beispiel Lord of War als DVD. Das ist das mieseste, was ich je gesehen habe. Das Ding hat lauter Artefakte.
    Aber dennoch, durch das reencoden wird das aber auch nicht besser.

    Warum ist es eigentlich bei MakeMKV so, dass er die Videos in .m2ts belässt und nicht aus diesem Container rausholt? Da wird natürlich dann MKV seinem Namen Gerecht. Container im Container.

  • Das stimmt natürlich auch. Ich habe zum Beispiel Lord of War als DVD. Das ist das mieseste, was ich je gesehen habe. Das Ding hat lauter Artefakte.Aber dennoch, durch das reencoden wird das aber auch nicht besser.

    Warum ist es eigentlich bei MakeMKV so, dass er die Videos in .m2ts belässt und nicht aus diesem Container rausholt? Da wird natürlich dann MKV seinem Namen Gerecht. Container im Container.

    MakeMKV holt die doch raus, er schiebt die Videospur und die gewünschten Audiospuren sowie die Subs vom M2TS in einen MKV!

  • dass dir das irgendwas bringt, wenn nicht das Ausgangsmaterial bereits 10bit ist

    Doch 10bit encodieren ist besser bzw erzeugt bessere Qualität bei gleicher Größe egal was du für ein Ausgangsmaterial hast. Wenn es nicht die beschriebenen Probleme hätte würde niemand mehr mit 8bit encodieren.

    dass Remuxe einfach viel besser auf dem Bildschirm aussehen

    naja ... es ist qualitativ besser - ohne Frage
    ich hab z.B. alles in 1080p bei ~1,5-2,5gb (HEVC) und selbst das sieht noch ausreichend gut genug aus das es für mich keinen Sinn macht eine "originale" Datei abzuspeichern

  • Richtig.

    m2ts ist schließlich auch nur ein Container, der ein Video in einem entsprechenden Codec enthält. Bei FullHD Videos vorzugsweise mpeg4 (kann auch was anderes sein). MKV ist nur ein weiterer Container in dem sich, nach der Bearbeitung mit MakeMKV, das Video mit seinem Videocodec befindet.

    Welcher Videocodec vorliegt erfährt man unter Linux (Ubuntu) mit dem Befehl: mediainfo <dateiname.ext>

    Unter Ubuntu muss man das zusätzlich installieren:

    sudo apt install mediainfo

    Unter LibreELEC ist das Tool schon dabei, was auch für Logfile manchmal nicht uninteressant ist.

    Dann weiß man auch wie man den ffmpeg Befehl anpassen muss, damit alles weitere passt.

    Mann kann auch [definition=12,0]debug[/definition] [definition=12,9]logging[/definition] aktivieren und den Film in Kodi abspielen. Dann steht auch im Log welcher Codec es ist

  • Doch 10bit encodieren ist besser bzw erzeugt bessere Qualität bei gleicher Größe egal was du für ein Ausgangsmaterial hast. Wenn es nicht die beschriebenen Probleme hätte würde niemand mehr mit 8bit encodieren.

    naja ... es ist qualitativ besser - ohne Frageich hab z.B. alles in 1080p bei ~1,5-2,5gb (HEVC) und selbst das sieht noch ausreichend gut genug aus das es für mich keinen Sinn macht eine "originale" Datei abzuspeichern

    Ok, ich habe ja die Einschränkung gemacht, dass es evtl weniger Artefakte gibt. Besser als die Quelle wird es aber nicht. Und man braucht, wie du schriebst, die passende Hardware. Also nem HDR Fernseher plus entsprechenden Client und ggfs. nem AVR, der das durchschleifen kann. Sonst geht gar nichts oder der Vorteil ist hin.

    Bezüglich der Qualität gebe ich dir recht, dass man es häufig nur im direkten Vergleich sieht. Aber das neukodieren ist wie gesagt nicht total simpel. Je nach Material muss man da rumexperimentieren.

    TWD hab ich nie zufriedenstellend hin bekommen. Riesengroß trotz vielen versuchen. Da ist bei mir der Wunsch da, das try and error einfach sein zu lassen u d ganz einfach gleich die beste Qualität zu bekommen auf kosten des Speichers.

  • Besser als die Quelle wird es aber nicht. Und man braucht, wie du schriebst, die passende Hardware. Also nem HDR Fernseher plus entsprechenden Client und ggfs. nem AVR, der das durchschleifen kann. Sonst geht gar nichts oder der Vorteil ist hin.

    kein verlustbehaftetes encoding (x264/5, vp8/9 ...) wird besser oder gleich wie die quelle - niemals
    "Ziel" ist immer möglichst viel Qualität bei möglichst geringer Bitrate zu haben (Beste Qualität bei möglichst kleiner Datei).

    10bit encoding hat nichts mit HDR zu tun - wenn du eine 8bit Datei mit 10bit encodierst hast du trotzdem bessere Qualität als wenn du die Datei mit 8bit encodierst. Die Anime Szene z.B. encodiert "flächendenkend nur" mit 10bit weil es bei denen besonders viel bringt. 10bit kann jeder normale TV darstellen (weil es ja nur 8bit ist in 10bit encodiert) aber die decoder sind meist dazu nicht in der Lage weil 10bit ein Profi Feature ist das bei den allermeisten TVs und Settopboxen nicht implementiert ist.


    TWD hab ich nie zufriedenstellend hin bekommen.

    durch das extreme Grain musst du entweder extrem viel Bitrate opfern oder das Grain rausfiltern lassen :)
    Da braucht es dann aber ordentliche tools wie z.B. StaxRip die bringen auch für solche fälle die passenden Werkzeuge mit.

  • Wo die sich doch so viel Mühe geben, es besonders grainy aussehen zu lassen wollt ihr das wieder rausfiltern?

    Eben...da ist es ja gewünscht ;)

    Warum man das so wünscht steht auch nur in den Sternen

  • Das kann man heute auch nicht mehr so stehen lassen - insbesondere, wenn die GPU die Encodierung übernimmt.

    Ich habe schon Originale gesehen, da hat es mich gegraust, was die Qualität angeht.

    über welche Grafikkarten-Generation reden wir hier..

    was braucht es heutzutage für Power um sowas in unter 1std zu erstellen..

    Meine Hardware

    NAS-->: G4560, 8GB, Gigabyte DS3H- WD Red OMV 4.x (latest)| TVHeadend 4.x.x (latest) | DD CineS2 V6. (+Oscam)
    Raspi 4 --> LibreElec (latest)
    Nvidia Shield 2017


  • 10bit encoding hat nichts mit HDR zu tun - wenn du eine 8bit Datei mit 10bit encodierst hast du trotzdem bessere Qualität als wenn du die Datei mit 8bit encodierst. Die Anime Szene z.B. encodiert "flächendenkend nur" mit 10bit weil es bei denen besonders viel bringt. 10bit kann jeder normale TV darstellen (weil es ja nur 8bit ist in 10bit encodiert) aber die decoder sind meist dazu nicht in der Lage weil 10bit ein Profi Feature ist das bei den allermeisten TVs und Settopboxen nicht implementiert ist.

    Das würde ich jetzt genauer Wissen wollen. Soweit ich weiß, hat HDR genau damit etwas zu tun, weil man durch die höhere Bitzahl mehr Dynamik Raum hat ergo HighDynamicRange.
    Sowas wie das Bending kann durch einen höheren Dynamikbereich vermieden werden, weil die Bänder zwar immer noch vorhanden sind, aber wesentlich schmaler.

    Meine Vorstellung ist folgende, wenn ich 10bit für die Farbe habe, aber nur den 8bit Farbraum nutze, dann sollte mir das genau gar nichts bringen. Ist doch dann wie führende Nullen. Wenn ich aber die 10 Bit auch ausnutze, dann muss mein Display die auch erst mal darstellen können. Wie du sagst, muss der Dekoder das eh erst mal beherrschen, sonst kann es nicht abgespielt werden. Aber wenn es abgespielt werden kann, muss der Monitor die Farben auch darstellen können. Ich vermute sonst werden die 10bit-Farben halt wieder auf den 8bit-Farbraum projiziert und dann ist das Banding halt nicht in der Datei, aber wieder auf dem Monitor.

    Hier noch mal der Disclaimer, ich sage nicht, dass es so ist. Ich vermute nur, dass es so sein müsste aus Logikgründen.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!