Beiträge von psychofaktory

    Nur eben auch Alternativlos

    Das ist das Problem. Wie geil wäre bitte ein Medienclient mit richtig ordentlicher Leistung (die dann z.B. auch eine brauchbare Plattform für Retrogaming darstellen würde) UND Widevine L1 Zerifizierung?..

    In dem ganzen Segment und der Leistungsklasse gibt es scheinbar tatsächlich nur die Shield.

    Noch besser wäre es wenn man als Endkunde selbst Systeme zusammenstellen könnte und bei Google die Widevine-Lizenzen separat erwerben könnte. Aber wir wissen dass das leider kaum passieren dürfte.

    Ich hab das ganze von der komplett anderen Seite aufgezogen.

    Würde gerne einige Automatismen einführen und nutzen. Dazu müsste ich die Heimautomatisierung aber erstmal weiter voran bringen. Bislang hab ich zwar schon einige Zigbee-Geräte und Shellys, aber bin noch nicht dazu gekommen ioBroker mit allem drum und dran einzurichten und die Geräte dort einzubinden usw. Das hängt auch ein bisschen damit zusammen dass ich mir für solche Projekte auch die nötige Zeit nehmen möchte um mich einzulesen und auch wirklich zu verstehen was wie und warum einzustellen ist.

    Aber mir war klar, dass ich auch eine Lösung für aktive Benachrichtigungen in bestimmten Fällen benötigen werde.

    Tatsächlich war dann der ausschlaggebende Impuls als die Kodinerds-Matrix-Gruppe ins Leben gerufen wurde mich mit dem Thema weiter zu befassen.

    Und da ich ein großer Fan von Unabhängigkeit, Dezentralisierung und Self-Hosting bin, mich das Thema ohnehin interessiert hat, und ich gerade Zeit und Lust hatte mich intensiv damit zu befassen, hab ich mir kurzerhand einen eigenen Matrix-Server (Synapse) aufgesetzt.

    Dazu gibt es auch eine ganze Reihe Bridge-Bots und Integrationen für die verschiedensten Systeme.

    So nutze ich z.B. einen Bot der mit meinem Minecraft-Server verknüpft ist um Benachrichtungen von dem Server zu erhalten oder auch Nachrichten an die Spieler zu schicken.

    Für Node Red gibt es da auch was habe ich gesehen.

    Push funktioniert jedenfalls hervorragend. Unabhängig bin ich auch.

    Es ist mehrgerätefähig und für alle Plattformen verfügbar.

    Natürlich bietet mir der eigene Matrix-Server noch eine ganze Reihe anderer Vorteile. Kann ich für jeden echten Nerd wirklich nur empfehlen.


    Je nach Anwendungsfall ist dabei die Variante mit Kalendern über Nextcloud und CalDAV auch sehr praktikabel.

    Ich frage mich, was genau sind eure Beweggründe? Was ist der Usecase?

    Wie so oft ist das auch hier so ein Thema bei dem man argumentieren kann "ich hab nix zu verbergen", oder "es funktioniert ja auch so".

    Allerdings schadet eine Stufe mehr an Sicherheit und Datenschutz sicherlich auch nicht. Und die Einrichtung ist bei der Thematik auch keine große Hürde. Also könnte man auch entgegengesetzt fragen: Warum nicht?

    Vorteile wurden hier ja teilweise schon genannt:

    • Schutz vor MITM-Attacken
    • besserer Schutz der Privatsphäre
    • Umgehung/Verhinderung von (potentieller) Zensur
    • Mehr Dezentraliät und weniger Abhängigkeit von den großen IT-Firmen (die ihren Sitz größtenteils im Nicht-EU-Ausland haben)

    Lieber "haben" als "hätten" denk ich mir da. Und neben den aufgeführten Vorteilen konnte ich bislang keine Nachteile ausmachen.

    "Aus Prinzip" passt also als Grund auch [ab]

    Wobei ich personlich die digitale Geschellschaft Schweiz, Digital-Courage, dns0.eu oder ffmuc hinsichtlich der Vertrauenswürdigkeit bevorzugen.

    Einfach weil die Datenübermittlung an Unternehmen/Gesellschaften/Vereine mit Sitz innerhalb der EU (bzw. der Schweiz) als vertrauenswürdiger erachte als z.B. an einen US-Dienst.

    verwendet eigentlich keiner die ffmuc dingens?

    Ja, dot.ffmuc.net verwende ich auch. Zusammen mit dns.digitale-gesellschaft.ch und dns0.eu. Jeweils 2x IPv4 und jeweils 2x IPv6.

    Da alle ihren Sitz innerhalb der EU (bzw. Schweiz) haben und die Kommunikation ausschließlich über DoT läuft würde ich schon davon ausgehen dass sie vertrauenswürdig und sicher ist.

    Zumal die Unternehmen dahinter jeweils angeben die Anfragen nicht zu loggen.

    Ein weiteres Kriterium wäre die Antwortzeit der Server.

    Auch hier hatten bei mir alle bei einem Test mit DNSBench ganz ordentlich abgeschnitten. Die Ergebnisse sind aber vom jeweiligen Standort und einiger anderer Einflüsse abhängig und daher individuell verschieden.

    Bzgl. der Zuverlässigkeit: Daduch dass ich insgesamt 12 öffentliche DNS-Server parallel für den Upstream nutze hatte ich hier bisher absolut keine Ausfälle.


    das Thema bzgl. der SIP Einwahl hab ich ad akta gelegt

    War bei mir in einigen Konstellationen tatsächlich auch kürzlich noch "heikel" bei den SIP Geschichten.

    Daher hab ich es mir als "Best-Practice" angewöhnt so etwas generell einfach zu berücksichtigen. Muss jetzt nicht zwingend eine Verbesserung mit sich bringen, aber zumindest verschlechtert es auch nichts. Im Zweifelsfall wäre dem Fehler aber vorgebeugt.

    Ich verweise mal hierauf:

    psychofaktory
    13. Oktober 2022 um 15:47

    und hierauf:

    psychofaktory
    11. Mai 2023 um 09:16

    Tatsächlich habe ich sowohl die IPv4 als auch IPv6-Adressen als Upstream DoT Server im Unbound meiner OPNsense hinterlegt.

    Diese wiederrum ist der Upstream meines Adguard-Servers auf den alle DNS-Anfragen der Clients eingehen.


    Ausnahme:

    Die Fritzbox 7590 die mir hier als TK-Anlage dient darf ihre DNS-Anfragen direkt an 1.1.1.1 schicken.

    Mit anderen DNS-Servern gab es sonst zeitweise Probleme mit der Registrierung der SIP-Rufnummern (Telekom).

    Wohlgemerkt DNS Filter funktionieren nur wenn sich das OS auch daran hält den im OS eingetragenen DNS Server zu nutzen.

    Die c't hat in Ihrer aktuellen Ausgabe Smarte TV's getestet. Scheinbar gibt es Programme die die DNS Server von Google hart eincodiert haben und sich nen Dreck um den im OS hinterlegten DNS Server scheren.

    Auch dagegen kann man sich "schützen". Der Aufwand dafür erhöht sich dadurch allerdings etwas.

    Ich habe diese Fälle so abgefangen, dass ich den Geräten im Netzwerk über eine Firewall-Regel Anfragen an externe DNS-Server verboten habe. Zudem habe ich eine NAT-Regel eingerichtet, die alle DNS-Anfragen die nicht an meinen Adblock-Docker gehen automatisch an den Adblock-Docker umgeleitet werden.

    Mit einer Fritzbox sind solche Spielereien aber nicht möglich. Ich regel das über meine OPNsense

    Schwierieger wirds wenn es sich bei den Anfragen aber nicht um "normale" DNS-Anfragen handelt, sondern um DoT oder DoH.

    Aber auch das unterstützt der Adguard. Bei PiHole wirds sicher ähnlich sein.

    Edit:

    und noch eine Ergänzung: Für Geräte die DNS-Anfragen an hart eincodierte Adressen richten wäre es mit der OPNsense auch möglich einen Alias als URL-Tabelle anzulegen und darin die Filterliste bzw. Einträge daraus zu hinterlegen. Mit einer entsprechenden Blockierungsregel kann man dann verbieten, dass betreffende Clients dann zu den dahinterliegenden IPs Verbindungen aufbauen. Auch dann wenn es dem Clients zuvor gelungen ist die Namensauflösung durchzuführen.

    Ich mag meine OPNsense [ab]

    Nach meinem letzten Kenntnisstand unterstützen die Fritzboxen keine Filterlisten.

    Aber man kann die URLs aus der Liste natürlich direkt manuell in die Blacklist der Fritzbox hinterlegen.

    Ich wüsste nicht warum dass dann nicht funktionieren sollte. Sollte sich die Liste ändern wird dann halt nicht automatisch aktualisiert sondern man müsste wieder nachpflegen.

    Ob die Blacklisteinträge angewendet werden kannst du ja ganz einfach testen indem zu z.B. web.de oder so einträgst und anschließend versuchst von einem beliebigen Client auf den die Blacklist angewendet wird web.de aufzurufen. Wird die Seite geblockt, wird das auch mit dem FireTV und den Einträgen aus der Filterliste funktionieren, sofern für den FireTV auch die Blacklist der Fritzbox angewendet wird.

    Kann das Update leider nicht empfehlen.

    Musste in Rollback zurück auf die Version 6.14.3 machen.

    Alle Docker-Container bei denen über ein custom br Netzwerk feste IPv4 und feste IPv6 Adressen hinterlegt waren konnten nicht mehr gestartet werden.

    Mit der Version 6.14.3 hatte das noch problemlos funktioniert.

    Die Umstellung der Docker-Einstellungen von MacVLAN zu IpVLAN habe ich schon bei der letzten Version vollzogen. Außerdem habe ich von der docker.img auf ein Docker-Verzeichnis umgestellt. Beides hatte nach gelegentlichen Systemabstürzen zu einer deutlich verbesserten Stabilität geführt.

    Rollback hat übrigens zum Glück reibungslos funktioniert.

    Hat jetzt nicht direkt was mit Kodinerds an sich zu tun, aber mir gefällt die gesamte Richtung so garnicht in der sich das Internet zu entwickeln scheint.

    Durch immer mehr rechtliche Rahmenbedingungen herrscht anstatt mehr Rechtssicherheit eher das Gegenteil.

    Eigene Projekte im Internet einer öffentlichen Personengruppe bereitzustellen wird somit immer weiter verkompliziert. Man muss zig Dinge beachten. Dabei ist die technische Absicherung gegen Angriffe neben den DSGVO-Hürden, Urheberrecht und Steuerrecht noch das geringste Problem.

    Dadurch wird es Betreibern von "kleineren" Projekten immer schwerer gemacht ihre eigenen Plattformen/Dienste bereitstellen zu können.

    Manche Betreiber werden das früher oder später nicht mehr auf sich nehmen wollen und die angebotenen Dienste werden in der Form aus dem Internet verschwinden, oder zu den großen, bekannten internationalen kommerziellen Anbietern migriert.

    Oder man stemmt die Kosten selbst, greift auf Dienstleister oder vorgefertigte Lösungen zurück und zahlt sich eben dumm und dämlich.

    In jedem Fall nötigt die Lage viele Internetnutzer immer weiter dazu die Dienste der großen Interntgiganten zu nutzen um denen dann noch mehr Geld und Daten in die einzubringen.

    Das ist ganz sicher nicht wofür das Internet erfunden wurde. Scheint aber von der Politik so gewünscht zu sein.


    Ich hoffe sehr dass sich eine vernünftige Lösung finden wird mir der solche Projekte wie Kodinerds auch weiterhin existieren können.

    da würde man gerne mal mehr von hören / sehen :) immer neugierig wie anderes umsetzen bzw. was zu tolle Möglichkeiten es gibt!

    Ich betreibe Nextcloud auf einem Unraid Host im Docker (latest aus knex666'x Repository).

    Extra Parameter sind:
    --user 99:100 --sysctl net.ipv4.ip_unprivileged_port_start=0

    Post-Argumente sind:

    && docker exec -u 0 Nextcloud /bin/sh -c 'echo "umask 000" >> /etc/apache2/envvars' && docker exec -u 0 Nextcloud /bin/bash -c "apt update && apt install -y libmagickcore-6.q16-6-extra && apt install -y smbclient libsmbclient-dev && pecl install smbclient && docker-php-ext-enable smbclient && apt-get install -y software-properties-common && apt-add-repository -y non-free && apt-get update && apt-get install -y intel-media-va-driver-non-free ffmpeg && rm -rf /var/lib/apt/lists/*" && docker exec -u 0 Nextcloud /bin/bash -c "/start.sh"

    Als Pfade sind die verschiedenen Freigabeverzeichnisse aus Unraid durchgereicht und mit dem "Externen Speicher"-Plugin eingebunden. Somit ist der Datenbestand in Unraid und der Nextcloud der gleiche, was extrem praktisch ist.

    Die Datenbank ist eine Maria-DB die ebenfalls im Docker läuft

    'memcache.locking' und 'memcache.distributed' sind auf einen Redis-Server (weiterer Docker-Container) ausgelagert.

    Reverse-Proxy übernimmt der nginx auf meiner OPNsense. Das eröffnet auch jede Menge Konfigurationsmöglichkeiten.

    Über die config.php habe ich dazu auch einige Anpassungen vorgenommen.

    Ansonsten kann ich einfach mal meine installierten und aktiven Apps auflisten:

    • Activity
    • AppOrder
    • Brute-force settings
    • Calendar
    • Circles
    • Client Push
    • Collabora Online - Built-in CODE Server
    • Comments
    • Contacts Interaction
    • Custom CSS
    • Custom menu
    • Deleted files
    • External sites
    • External storage support
    • Federation
    • File sharing
    • Full text search
    • Full text search - Elasticsearch Platform
    • Full text search - Files
    • Full text search - Files - Tesseract OCR
    • Group folders
    • Jitsi Integration
    • Keeweb
    • LDAP Contacts
    • LDAP Contacts Backend
    • LDAP user and group backend
    • Log Reader
    • Mail
    • Maps
    • Memories
    • Monitoring
    • News
    • Nextcloud Office
    • Notes
    • Notifications
    • Password policy
    • PDF viewer
    • Photos
    • Preview Generator
    • Recognize
    • Related Resources
    • Right click
    • Share by mail
    • Talk
    • Talk Matterbridge
    • Tasks
    • Text
    • Update notification
    • User status
    • Versions
    • Weather status
    • Write support for LDAP

    Die Authentifizierung erfolgt über einen openldap-Server an den Nextcloud angebunden ist.

    Für Client Push wird ein zusätzlicher Container "notify_push" benötigt.

    Für Talk habe ich einen coturn Container eingerichtet. Dieser wird auch für meinen Matrix-Server genutzt.

    Talk ist über Matterbridge mit dem Matrix-Server gekoppelt.

    Memories läuft mit aktivierter Hardwarebeschleunigung.

    Nutze das täglich zum Ablegen von Dateien bzw. dem Austausch / der Freigabe von Dateien, zum Betrachten von Fotos/Videos, als Backupziel für verschiedene Anwendungen (u.a. automatischer Foto-Upload am Smartphone), Speicherplatz für meine KeePass-Datenbank, RSS-Reader, mobiles Notizbuch sowie als Hub für weitere Webdienste.

    Ich habe hier gerade mal nachgelesen, was ihr so nutzt und, irgendwie auch aus beruflicher Sicht, würde mich interessieren wofür du, psychofaktory , eine Elastic einsetzt ;)

    Wird für die Volltextsuche unter Nextcloud genutzt. Habe dazu in der Nextcloud diese Addons im Einsatz:

    • Full text search - Elasticsearch Platform
    • Full text search - Files
    • Full text search - Files - Tesseract OCR

    Volltextsuche in Inhalten definierter Dateitypen sowie in Grafiken via OCR.


    Ganz generell möchte ich anmerken, dass das Nextcloud-Projekt bei mir eigentlich nur mit dem Nötigsten angefangen hat um Dateien austauschen zu können.

    Durch eine ganze Reihe von Optimierungen, Addons und weitere Container die die Software ergänzen ist meine private Cloud inzwischen ein äußerst mächtiges und zugleich performantes Werkzeug geworden.

    Macht Spaß damit zu "arbeiten" und steht den kommerziellen Anbietern von Cloud-Diensten in nichts nach [ab]

    Hast du mal das Update auf das neuest Bugfix-Release 6.12.2 versucht?

    Laut Changelos wurden hier auch Fehlerbehebungen im Bereich Netzwerk durchgeführt.

    Ansonsten kann ich dir leider keine verlässliche Info geben ob ein Downgrade ohne Probleme möglich sein wird.

    Es gibt ein weiteres Bugfix-Release 6.12.2

    Unraid 6.12.2 Now Available
    Unraid 6.12.2 is now available and has various bug fixes and a minor security update to enhance your Unraid experience.
    unraid.net

    Das Warten mit dem Upgrade zahlt sich tatsächlich aus. In den einen oder anderen Bug der in den letzten Changelogs beschrieben wurde wäre ich mal wieder voll reingetappt.

    wie könnt ihr mehrmals am Tag grabben? Ich habe das gar nicht zur Auswahl.

    Ich habe im EasyEPG-lite eingestellt, dass direkt nach dem Start ein Scan durchgeführt wird.

    Dann im Docker-Host (bei mir Unraid, bei dir dementsprechend die Synology) dann ein Skript als cron-Job angelegt das den Container zu den gewünschen Grab-Zeiten einmal neu startet:

    Bash
    #!/bin/bash
    docker stop NEW-easyepg
    docker start NEW-easyepg

    Nutzt du über easyepg den Grabber für Gracenote?

    Möglicherweise stellen die nur Daten für eine sehr kurze Zeitspanne zur Verfügung.

    Ich hole die Daten über den Grabber für MagentaTV. Dort werden die Daten für 14 Tage bereitgestellt.

    So dürften dann keien "Lücken" entstehen.

    Ich lasse dennoch 2x am Tag grabben, damit ich auch Programmänderungen (Sondersendungen, etc.) kurzfristig mitbekomme.