Beiträge von psibo

    Freut mich wenn es funktioniert, hab ein kleines Update gemacht. Die Scripte von DeBaschdi können nun (konfigurierbar) automatisch hinterher eingespielt werden.

    Im Ordner work/webgrab-config gibt es eine Datei update.properties. Hier einfach die entsprechenden mapper auf true oder false setzen um sie auszuführen. Per default werden nun mal alle Mapper in der angegeben Reihenfolge ausgeführt:

    1. Genre Mapper
    2. IMDB Mapper
    3. Rating Mapper

    Noch keine automatischen Updates vom Repository, da muss ich mir erst was überlegen wie ich das geschickt mache. Ggf. versuche ich auch diese Post-Processing Geschichte nochmal etwas flexibler zu lösen in der Zukunft.

    Ich hab da mal gebastelt für den geneigten Benutzer. Als Grundlage habe ich den Container von nirvana777 genommen, aber das Dockerfile etwas aufgeräumt. Es wird das gesamte siteini.pack von DeBaschdi automatisch gezogen und die nötige web_magentatv_de.php wird auch automatisch gezogen.

    https://github.com/psistorm/webgrabplus-german

    Zuerst solltet ihr einmalig build.sh starten damit die Images ordnungsgemäß erzeugt werden und zu der User und Group Id eures Benutzers passen. Anschließend funktioniert das Ganze weitestgehend wie vorher. docker-compose up -d startet das gesamte Setup. Die Config Dateien finden sich zur Bearbeitung im Unterordner work/webgrab-config. Das Ergebnis landet in work/output

    Was ich noch nicht habe ist ein automatischer Mechanismus um immer die neueste Version von DeBaschdi's Repository zu ziehen. Hierzu müsstet ihr einmalig die Container alle anhalten, entfernen und build.sh neu ausführen (docker-compose stop && docker-compose rm -f && ./build.sh && docker-compose up -d fasst das alles in einem zusammen.)

    Zum manuellen Starten des Abzugs (abseits des Cronjobs im Container) hab ich noch eine update-manually.sh Datei dazu gepackt.

    Viel Spaß beim rumprobieren.

    Dreist ist relativ. Ist nicht böse gemeint, ist nur Selbstschutz weil schon so viele Seiten gehackt wurden (inkl bekannter Seiten wie Dropbox) und ich dadurch mehr und mehr Spam im Postfach habe. Die Mail landet im Hauptpostfach ich kann sie aber abschalten wenn ich merke da läuft was schief und es hat den Vorteil dass ich weiß wo das Leck war. Empfindest du das als dreist?

    Wegen dem Scraper: dann hab ich das Prinzip vllt noch nicht verstanden. Ich kopiere die Aufnahmen nach Fertigstellung immer auf mein NAS und alles was ich dann habe ist der Filename. Daher brauch ich doch in Kodi nen Scraper wiederum. Oder ist es so gedacht, dass die Aufnahme in TVHeadend verbleiben sollte und die Infos da zur Verfügung stehen?

    Hallo zusammen,

    Ich hab gerade angefangen mir ein TVHeadend und Kodi Setup einzurichten. Dabei bin ich auf dein ( DeBaschdi) Epg File gestoßen. Das funktioniert soweit recht gut nur dass meine Mail Adresse bei dir immer wieder gelöscht wird (keine 24h Adresse aber mit ner Art Marker) und diverse Sendungen auf DMAX werden nicht korrekt nummeriert von der Episodennummerierung (Baumhaus Profis z.B.)

    Ich hab es leider auch unter Kodi auch noch nicht hin bekommen dass diese dann richtig gescraped werden. Gibt es hierbei Empfehlungen? Der Fernsehserien.de Scraper scheint nicht zu funktionieren. Findet gar nichts, TheTVDB mehr aber oft falsche Titel zu den deutschen Folgen dann)