Beiträge von te36

    Eine sehr abstrakte Idee, die sich aber irgendwie vertraut anfühlt.
    Man ist im Grunde zwei Personen. Eine "inti" und ein "outi". Der inti wird beim Betreten der Arbeit aktiviert und kennt seinen auti nicht.
    Und beim rausgehen wird man wieder zum "auti".
    Das klingt erst mal nicht sooo spannend. Aber irgendwie ist die dennoch sehr fesselnd.

    2te Staffel noch nicht gesehen. So irre Zeitabstände zwischen den Staffeln sind auch eine Zumutung. Inside hat ja schon total einen "Apple" Look & Feel. Ok, Adam Scott hat jetzt Steve Jobs bloss in Comedy Sketches verkörpert, aber ich denke mir ja immer noch, das das ganze eine Persiflage auf die Zustände in der Firma selbst ist.

    Ansonsten natürlich sehr viel geklaut from dem hier.

    Dollhouse (2009)

    Leider wohl nicht auf streaming und nur import BD, aber sicherlich die Serie von der (IMHO) Severance am meisten geklaut hat. Komplett anderes Vibe. Natürlich (Josh Whedon) viel Sexploitation, aber (wahrscheinlich auch deshalb) schon mit Suchtcharakter. Und IMHO auch komplexer und mit mehr Ideen und interessanteren Charaktern und viel mehr Stories. Severance ist dagegen schon eher ein slow-burn Kammerspiel.

    Was sich allerdings nicht in den Kosten niederschlaegt. 2 Mio/Episode bei Dollhouse, 12 Millionen bei Severance. Wahrscheinlich ist Severance bloss Geldwäsche fuer überteuerte Apple Server die sich nicht verkaufen liessen und auf denen dann das ganze Renderung für die Serie gemacht wurde.

    Aber ja. Freu mich auch schon auf Staffel 2!

    Ich fand den Github joke underwhelming. Ich hatte auf ersten Blick dadrauf gehofft, das da interessante Strukturen drin waeren, so game of life oder so. Ist aber wohl bloss relativ unstrukturiert irgend was, was mit muehe zermatschte github user icons sein koennte. Oder auch nicht. Auf jeden Fall nix wirklich erkennbar.[bw]

    Oder ich habs nicht verstanden. Dann gerne Erklaerung. [bk]

    Ich rate mal, das die Videos so stark komprimiert sind, das es Kodi und/oder der Dateisystemtreiber schaffen, so viel vom Video zu cachen, das dann (periodisch) lange genug nicht auf die Platte zugegriffen wird, das die sich schlafen legen kann. Da dreht sie sich dann nicht mehr, und sobald Kodi dann den videocache abgespielt hat muss die Platte wieder gestartet werden, und das kann je nach Platte schon mal 20..30 Sekunden dauern.

    Gibt mehrere Tools mit denen man die Zeit kontrollieren kann, nach der sich so eine Platte schlafen legt. Ich habe bei mir im /etc/rc.local sowas stehen wie "hdparm -S <N> /dev/sda" oder so. Bei <N> = 241 legt sich die Platte erst nach 30 Minuten schlafen, das reicht meistens, das das nicht während eines Films passiert.

    Aber halt bloß geraten. Die Problembeschreibung könnte besser sein...

    FoLeY MIr gings bei der Boxy eher um eine KIste, die alles fuer "nur-Streaming" hat - DV/Atmos (kein HD benoetigt), AV1, Android 12 (AfR), Ethernet (100Mbps reicht fuer Streaming).

    Fuer Kodi mit lokalen Medien ist ja wohl CE am besten, und das Thema All-in-One ist ja anscheinend zu kompliziert mit Dune-HD/Homatics (und gibt ja keine richtige,neue Alternative).

    Klar, wenns nicht Dune HD Boxy waere wuerde ich hier nicht anklingeln, aber falls da wirklich die gleiche Firmware drauf laufen koennte, oder sonstige Erfahrungen hier sind...

    Glaube ja mein 400W Netzteil sollte auch gute Effizienz haben...

    Viel Glueck mit dem USB 2.5G. Irgendwie wuerde mich davor gruseln. Bin nicht so Freund von USB Dongles. Allerdings musste ich gestern auch gerade an Mini-PC ein Ethernet-USB anstecken, weil Linux aufs Verrrecken raus nicht dazu gebracht werden konnte, mit dem eingebauten Realtec zu laufen. Windows keine Probleme. Sollte aber eigentlich HomeMatic Server werden *sigh*.

    Runtertakten koennte was bringen, aber evtl. wirklich zuerst die TDP im BIOS runtersetzen. Aka: Taktfrequenzen. Allerdings erst mal gucken wie das teil im Normabetrieb saugt. wenns gut laeuft taktet er ja eh maximal runter, und bloss wenn was laeuft saugt er mehr Strom - ist dann aber auch schneller fertig mit der Last.

    Kannst auch noch im Hardwareluxx 30W thread stoebern. Da kam auch das Thema M.2 NVME SSD auf, was tiefere sleep states als C3 auf bestimmten Motherboards verhindert. Oder DD5 RAM was irgendwie gerne Saft schluckt. Aka: Schluckspechte lauern an jeder Ecke.

    Mini-ITX koennte evtl. helfen weil da insgesamt weniger IO drauf ist als auf mATX, aber wer weiss... aber den 16x PCIe slot koennte man mit einem 4 x NVME SSD Board belegen, solange das BIOS bifurcation kann. und dann auf den x1 slot die 2.5g Karte. SATA haben die ganzen MoBo ja onboard.

    2.5G war wohl auch lange Zeit schluckspecht, bin da nur mal drueber gestolpert das ein neuer chip besser sein soll, auch vergessen, weils da noch nicht den Unifi switch gab den Du gerade gepimpt hast ;)

    Hattest Du mal das Video von Wolfgang angeschaut, was ich glaube ich im low-power netzteil fred gepimpt hatte ? Hab mich ja so total geaergert, weil der dasselbe IPMI MoBo hat wie ich, aber 12..15W idle behauptet (UnRaid glaube ich), und ich komme nicht unter > 21 W. Wohl wegen CPU, er hat 4650G, und ich 5900X mit drei chiplets wohl ein Sauger. Aber wenn seine 12..15W Idle stimmen, dann waere das mal ein guter Beweis das AMD auch nicht schlecht sein muss. Und bei MoBo ohne IPMI vielleicht noch ein paar W weniger.

    Ich weiss auch nicht, ob das was Lehmden1 sagt, stimmt. Habs aber selbst nicht zuende researched...

    Vor 2 Jahren hab ich mir als Testsystem das Q670M MoBo neu und eine gebrachte i5-12500T gekauft. Die T kriegt man ja schwierig neu. Grund war zum einen Hoffnung auf geringen Stromverbrauch, wie bei Dir, aber auch weil das die guenstigste Kombination die ich finden konnte war, die AMT/VPro unterstuetzt. Also remote KVM im Motherboard ohne IPMI. Weil IPMI ja immer mehr Saft kostet. Dachte ich.

    Hat am Ende nicht so recht viel mehr gebracht. Meine IPMI Ryzen Systeme krieg ich runter auf 25W, und diese Kombi auf 21W. Windows tatsaechlich runter auf 16W, bei Linux hab ichs nicht hinbekommen. Kann natuerlich nicht sagen, ob das das MoBo ist, und/oder die "fette" 500'er CPU mit eingebautem VPro. Oder vielleicht sogar, das bei Verwendung des VPro faehigen chipsets auf dem MoBo das VPro aktiviert wird und Strom frisst, aber dieselbe CPU dann auf anderem MoBo mit chipset ohne VPro support auch weniger Strom frisst, weil der ganze Komplex dort nicht aktiviert wird in der CPU..

    Aber re. "T" ist sparsamer: Ich hatte vor 2 Jahren auch (dachte ich) was gelesen davon, das T im Prinzip nix weiter ist, als fest eingebrannte TDP configs, die man bei der nicht-T CPU auch einfach so im BIOS einstellen kann. Aber klar, kann auch sein, das das zwar stimmt, das dann aber trotzdem die idle-power consumption von einer echten T-CPU niedriger ist, weil die eben ab Werk vorselektiert dafuer ist. "Ah, dieser chip sieht gut bei niedriger TDP aus, wird aber zu heiss bei hoher. Da brennen wir mal die T-fuse". Oder so aehnlich.

    Viel Spass beim Finden genauerer Info. Am besten dann aber exakt das Nachbauen, was dort empffohlen wird. Wenn Du da auch nur - um darkside40 zu zitieren - nur einen Feenfurz veraenderst wird der Stromverbrauch komplett anders sein [dy]

    Hat sich eigentlich irgendjemand mal mit der Dune Boxy beschäftigt?

    https://www.dune-hd.com/products/boxy

    Könnte ggf. ein Ersatz für meine Mi Box S seinn die schon seit Jahren keine Updates mehr kriegt.

    Das Teil ist inzwischen auf 75 Euro gefallen: https://www.amazon.de/dp/B0BTMMG4LP?tag=kodinerds04-21 [Anzeige]

    Sehe im Moment bloss Vorteile gegenueber MAG555 (threadstarter), ausser das es offiziell. kein Android 12 dafuer gibt zumindestens nicht bei der Firmware info auf der Dune HD seite. Aber genau soviel RAM/flash, gleiche CPU, plus micro-SD, USB3 port, ...

    Bahnhof. Hört sich aber interessant an. Hab ja bei mir auch eine kleine Linux Kiste in der "DMZ" von aussen erreichbar, waehrend der dicke server hinter einem weiteren router haengt, und von aussen im Prinzip nicht erreichbar ist.

    In professionellen Umgebungen wird mit sowas ja ein sicherer Zugang fuer die Dienste auf dem inneren Server gebastelt, indem auf dem DMZ rechner da passende abgesicherte Proxy Funktionalitaeten existieren. Ist das etwas, was Emby versucht zu machen wenn man es auf 2 Server in etwa so aufsetzt ?

    Die 2,5GBit Schiene wird langsam ausgebaut! Neben den flex mini 2,5 der 5 Ports mit 2,5Gbit hat gibt es nun einen 8+1 Port Switch. Den Flex 2,5.

    Dieser hat 8x 2,5Gbit Rj45, 1x 10GBit Uplink (Stromversorgung des Switches über diesen Port mit PoE) und einen shared SFP+ für 175,-€
    Ich hoffe, das er in der Preisrange nochmal wenigstens 50€ nachgibt, aber ansich ein guter Schritt. Gibt es auch als PoE für 50€ mehr.

    Negativ: Keinerlei Netzteile mehr dabei, Halturungen ebenso nur optional, aber für diese Switche gibt es sogar eine Hutschienen Halterung.'

    Also bei den Switchen, gerad diesen Desktop Switchn dürfte doch bitte gern ein Netzteil dabei sein, gerad bei den Preis ... nunja.

    Mich wuerde mal der Stromverbrauch interessieren. Wenn der nicht höher ist als die jetzige 1G Version, dann könnte man sich den Spass mal leisten.

    Ich sehe im EU Store 145 Euro für den Switch ohne PoE und 180 Euro (Sold Out) für die PoE Version.

    Da steht dann auch:

    Note. EU version comes with EU power plug only.

    Das der Adapter fehlt ist sicher Compliance mit der EU Verordnung für USB Stromversorgungen.Die dürfen ja ja nicht mehr mitgeliefert werden, sondern sollen "wiederverwendet" werden. Eigentlich ja gute Aktion der EU. Wird den Leuten bei der ersten Generation von Geräten nicht so vorkommen, aber hoffentlich bei der zweiten.

    Das mit dem "EU power plug" hört sich aber wie ein Schildbürgerstreich an von jemanden bei Unifi, der es nicht kapiert hat.

    Nachdem ja selbst Unifi auf seinem Store keinen einzigen USB-C Adapter anbietet, der fest nur einen USA Stecker dran hat, wird man sich als europäischer Kunde glaube ich sehr schwer tun, diesen "EU powr plug" jemals zu verwenden. Also voll der Wegwerfartikel. Also das, was die EU vermeiden wollte.

    Ich hoffe bloss, das da nicht im Hafen von Rotterdam eine Station von Unifi ist, wo jemand alle Kisten aus China öffnet, die USB-C Steckernetzteile mit USA Stecker der "globalen" Version aus den Kisten entfernt, und dann wahrscheinlich direkt ins Hafenbecken entsorgt ... Ausschließen kann mans nicht.

    Puuh Danke, hatte befürchtet, das da was "convoluted" rauskommt.

    Gibts dafuer auch irgendwo eine Uebersetzung ins Deutsche, wo steht welche Programe man da mit welchem SW-Client genau ansehen kann ? Oder ist Dir das auch eher Raetsel als Erklärung... ?

    Aber nach Deinem Ratschlag wegen OSCam:
    Was genau sind dann fuer Dich die wichtigsten verschluesselten Programme, die man mit OSCam dann via DSM? oder TVH abonnieren/sehen kann ?

    Dann fällt aber Oscam weg macht das ganze weniger Attraktiv

    Hah! das Thema hab ich komplett ignoriert, weil ich mit den werbefinanzierten RTLgroup/PRO7group Programmen nix anfangen kann, und wegen den Streamern Sky nie so richtig angeschaut habe.

    Digital Devices Netzwerktuner SAT-IP - 8x DVB-S/S2/S2X Tuner
    Netzwerktuner 8x DVB-S2 Tuner. SAT-IP v1.2.2 zertifiziert für SATIP Clients, Windows, Linux, Mac sowie Smartphones, Tablets
    www.digital-devices.eu

    Welche verschluesselten Programme wuerde man denn mit so einen Octopus direkt dort im SATIP server entschluesselt bekommen ? Wuerde das mit RTLgroup/Pro7group oder Sky gehen ?

    Oder geht das NUR mit OSCam ?

    Wenn das mit dem DD Server geht waere das ja ein gutes Argument, sich den Stress mit CI in den clients zu vermeiden und wuerde den hoeheren Preis der Octopus Teile gegenueber EXIP rechtfertigen (IMHO).

    Vergessen:

    Im prinzip sollte auf dem Kabel draufstehen, obs sowas wie <= HDMI 1.4 oder HDMI 2.0 ist. oder neuer. Wenns HDMI 1.4 ist braucht man gar nicht anfangen, die 18Gbps aufloesungen zu probieren in meiner Erfahrung.

    Wenn ich meinem Kumpel ChatGPT trauen darf, dann sieht das bei HDMI 2.1 so aus, das Kabel die angeblich die vollen 48Gbps von 2.1 unterstuetzen sich "Ultra High Speed HDMI Cable" nennen (duerfen ?), und Kabel die irgendwie mehr als 18Gbps koennen aber weniger als 48Gbps mit der maximalen Aufloesung == Bitrate beworben werden, die sie angeblich unterstuetzen.

    Ebenso und dabei gelernt das die Kabel heute Richtungsgebunden sind. Traurig 😢 das man alt wird.

    Das ist mir schon vor 4 Jahren passiert als ich noch nicht alt war[ap] Gluecklicherweise war das Glasfaserkabel bloss unter Leerrohren auf der Wand und unter Teppich, Couch und Schrank. Liess sich also in bloss ein paar mehr Stunden umdrehen *sigh*. Aber wenigstens nicht wie bei anderen einzementiert buers hat sowas glaube ich...

    Bevor man da Kabel verlegt, die man nicht auswechseln kann wuerde ich wahrscheinlich nach profi-glasfaserkabeln suchen, die man bespleissen kann und dann adapterbox an die Enden. Und ein paar mehr Fasern als Ersatz in den Boden schmeissen. So geht ja auch Glasfaser-Internetanschluss heutzutage. Wobei die natuerlich trotzdem leerrohe haben, aber da alte kabel raus und neue kabel rein ist auch stress.

    don Was ich in einem anderen Thread gemeint hatte ist, das sich PCs, die bloss die alte HDMI 1.4 hardware bis 12Gbps auf dem Kabel haben trotzdem HDMI 2.0 schimpfen koennen, weil sie genau EIN feature von HDMI 2.0 erfuellen, naemlich eine neue, in HDMI 2.0 spezifizierte Aufloesung mit 12Gbps - 4k@60 YUV420. Das ist wirklich unter aller Sau, weil man deswegen dauernd Billigheimer N100 Kisten kauft, die eben keine vollen 18Gbps 4k@60 RGB888 mit HDR unterstuetzen.

    Ob man bei "HDMI 2.x" klassifizerten Kabeln ebenso auf die Nase fallen kann durch so ein "Spezifikationsschlupfloch" weiss ich nicht. Allerdings habe ich andauernd bei laengeren HDMI Kabeln Versager gezogen, die eben nicht die von der angegebenen Spezifikation erwartbaren Bandbreiten zuverlaessig gebracht haben. Also sagen wir mal 5..12 Meter HDMI 2.0 = 18Gbps. Allerdings waren dann die Testresultate auch, das es mit einem PC ein Bild gab, mit einem anderen nicht. Also auch die Transceiver der Sender/Empfaenger haben einen Einfluss. Teilweise hilft es deswegen, einen Splitter mit einem kurzen HDMI Stubkabel an eine Seite zu haengen um die Signalqualitaet zu verbessern. Am ehesten natuerlich beim Sender, wenn das ein verkackter Intel PC ist (mit denen hatte ich am meisten Probleme). Oder eine EDID Modifier Kiste oder so. Nicht wegen EDID fixing, sondern einfach wegen Signalauffrischung.

    Ich vermute auch stark, dass HDCP die Probleme noch mal verstaerkt. Ein HDCP Stripper koennte also auch helfen.

    Wenn man also ein HDMI Kabel wirklich auf Stress testen will sollte man die verkackteste Intel Kiste nehmen, die man zuhause finden kann (bei mir ist das mein alter hotel-minipc), und dann mit der maximalen Aufloesung UND HDCP ein video abspielen, und gucken ob das stabil geht.

    Oder aber, fuer den faulen Sack (mich): Einfach Glasfaserkabel kaufen. Kostet halt mehr. Kriegt man aber leicht durch seine Arbeitsstunden motiviert, die man in unnuetzen Testen von Kupferkabel verschwendet hat. Weiss im Moment aber nicht, ob z.b. die ewig lange Umschaltzeit wenn ich am AVR quelle aendere vom Glasfaserkabel kommt, oder z.b. durch HDCP stripper verringert werden koennte. Oder bei elektrisch besser waere... Bin halt schon froh, das ich stabiles Bild habe!

    Gibt auch ein paar wenige Kabel mit elektrischen Verstaerkern drin, aber am Ende sind eigentlich alle guten elektrischen HDMI Kabel am Ende zu dick fuer meinen Geschmack. Das bin ich schon selbst, das brauch ich nicht vom Kabel [ap]

    Ich hab ja auch noch ueber 3 Stockwerke hinweg ein 2 * Ethernetkabel HDMI Verbindung ueber Adapter durch boden/decken-loecher. Was geniale 720p geschafft hat *seufz* Da würde ich inzwischen auch Glasfaser nehmen. Gibt da welche die mini-stecker haben, mit denen man das Kabel durch kleinere Loecher kriegt, und dann steckt man die grossen HDMI Stecker danach drauf.