Dune HD / Homatics Box R 4k Plus / Nokia 8010 / RockTek G2

  • Ich bin in der homatics Telegram-Supportgruppe, und wenn man es wagt, etwas Negatives über das Gerät zu posten, wird man rausgeworfen. Ich habe gesehen, dass in den letzten Tagen einige rausgeworfen wurden.
    Der letzte war heute, als jemand gepostet hat, dass Google TV keine Probleme mit ATV12 hat. Ich habe gesehen, dass dies auch in anderen Gruppen gepostet wurde, und obwohl ich kein Google TV-Gerät besitze, hat jede mir bekannte Box Probleme mit ATV12.
    Ich frage mich tatsächlich, ob Google die Entwicklung für andere Hersteller absichtlich behindert, um sein eigenes Produkt zu fördern.

  • basjke Was sollen es denn den Besitzern von Homatics Geräten helfen, wenn jemand sagt, das die Google Kisten keine Probleme haben sollen... ?

    Meine Google Chromecast zumindestens verklemmt sich immer prima nach weniger als einem Tag, wenn man da fleissig Kodi macht. Und ich sehe nicht, wie da vom OS automatisch Diagnostic gezogen werden könnte und an Google geschickt wird. Also so wie das ja bei Windows passiert.

    Bräuchte aber mehr Hinweise, das Google da aktiv behindert. Denke eher, das das alles bloss normal verkackte Verteilung von Verantwortlichkeiten ist. Solange ich es nicht besser weis denke ich, das Homatics und DuneHD da nur bissl an Oberfläche und ihren Apps basteln, und das der OEM für den Chipsatz die Graphik/Audio/HW-Treiber anpasst, und das der es dann am Ende ist, wo es hakt, weil der ja auch gar nicht direkt mit den Endkunden zusammenkommt.

    Und wenn die da wie anscheinend bei Dune HD bloss die ersten N zufällig aber unfähigen Kunden als Tester genommen haben, und es da vom OS keine vernünftige Diagnosesammlung gibt, dann kriegen die ja auch keine guten Fehlermeldungen und nix was man reproduzieren kann.

  • Also bei denjenigen, die auch entsprechenden relevanten Input beisteuern, weiß ich das inzwischen sogar schon auswendig. ;)

    Das tut mir leid.

    Kann schon sein das zumindest mehr oder weniger erfolgreich versucht wurde, die FW mit allen kompatibel zu machen.

    Das mit der SATA-Bridge könnte ein Hardwareproblem sein. Auch mit CoreELEC wird die interne Platte (Premier) beim booten nicht erkannt.

    Der analoge A/V Ausgange geht auch nicht und Bluetooth ist extrem schwach (>90db), aber nur unter Android, mit CoreELEC geht´s. Könnte das vieleicht gewollt sein um das Koppeln fremder Hardware zumindest zu erschweren? Ich erinnere an die Leistungsbegrenzung der USB-Ports die ich nur mit externer Spannungsversorgung vernünftig am Laufen kriege.

    Ich vermute das der Support bewusst auf peinliche Hinweise nicht antwortet, da sie ja dann ihre Inkompetenz zugeben müßten. Aber vieleicht haben sie ja auch nur zu viel zu tun.

  • Was sollen es denn den Besitzern von Homatics Geräten helfen, wenn jemand sagt, das die Google Kisten keine Probleme haben sollen... ?

    Was ich damit sagen wollte, ist, dass etwas nicht stimmt, wenn man zahlende Kunden vom Support ausschließen muss, weil man die Wahrheit nicht ertragen kann.

    Meine Google Chromecast zumindestens verklemmt sich immer prima nach weniger als einem Tag, wenn man da fleissig Kodi macht. Und ich sehe nicht, wie da vom OS automatisch Diagnostic gezogen werden könnte und an Google geschickt wird. Also so wie das ja bei Windows passiert.

    Läuft Chromecast auf ATV12? Wie auch immer, es ist eine sehr niedrige spec Gerät, nicht etwas mit 4GB RAM, und läuft über eine drahtloseIch bin ein IPTV-Verkäufer und versorge meine Kunden seit 7 Jahren mit Android-Boxen, wenn sie eine benötigen.

    Ich bin ein IPTV-Verkäufer und versorge meine Kunden seit 7 Jahren mit Android-Boxen, wenn sie eine benötigen.

    Ich biete hauptsächlich Mecool, aber ein paar andere Marken auch, und jede Box, die auf ATV12 aktualisiert hat, ist Scheiße geworden, während sie auf 10 oder 11 gut waren. Sie denken, sie sind alle inkompetent?

    Ich habe Kunden in den USA, die die ONN-Boxen gekauft haben, auf denen Google TV läuft, und ich habe noch nichts von ihnen gehört.

  • Ich hab bloss zwei eigene erfahrungspunkte mit Android 12.

    Die Google Chromecast mit Google TV kam mit ATV11 und wurde OTA mal auf ATV12 gebracht. Ich kann mich leider nicht mehr erinnern, ob die mit ATV11 auch schon Stabilitaetsprobleme hatte. Und mit ATV12 hat sie gefuehlt mehr Stabilitaetsprobleme, wenn Kodi laeuft, kann aber auch nicht ausschliessen, das sie mir schon mal abgestürzt ist als ich nur streaming Apps am laufen hatte. Aber klar, hat zu wenig Speicher fuer meine Kodi Anwendung, muss immer Addon laufen lassen, was cache in Kodi saeubert.

    Die ONN Pro Box habe ich auch, laeuft bisher stabil mit Kodi. Hatte irgendeinen kleineren Bug... Habs irgendwo in dem Onn thread geschrieben, den ich gestartet hatte, glaube ich. Und bin noch nicht dazu gekommen, den Google Assistant richtig durchzutesten. Tut aber. Ganz witzig. GIbt also IMHO keinen Grund, die GCCwGTV zu kaufen wenn man an eine ONN Kiste kommt. Und der neue Google Streamer lohnt AFAIK nur, wenn man Thread Border Router will. Evtl. noch zum streamen von UHD wired, weil die ONN nur 100Mbps hat. Muss ich nochmal besser testen...

  • Ich bin auch in der Telegramm Gruppe. Sag da mal was über Dune und du bekommst ein Stein an den Kopf geschmissen.

    Ich mag die Gruppe nicht. Da sitzen nur homatics fanboys die Ella (Support Tussi) vergöttern, oder so ähnlich.

    Und als ich ein Dune Logo anstelle des homatics Logo für die ersten Versionen des LED addons benutzt habe , hat es mods mit homatics Logo dort gegeben. Tzzzz.

    Aber wenigstens werde ich noch in den Infos erwähnt.

    Aber ja , sag da deine Meinung und der shitstorm kommt.

    Aber wenigstens gibt es bei homatics so eine Anlaufstelle für Support. Bei Dune HD gibt es sowas ja nicht. Zumindest habe ich es noch nicht entdeckt.

    Das Licht, das doppelt so hell brennt, brennt eben nur halb so lang.
    greetz, FoLeY ...

  • 100Mbps reichen aus, selbst die schwerste UHD-Datei benötigt nur etwa 70Mbps, warum also die Leute einen 1Gbps-Port wollen, entzieht sich meiner Vorstellungskraft.

    Die Kisten müssen erstmal ihren Cache füllen.

    Sehe das auf meinem Plex Server, da steht das ganze direkt mal auf 400Mbps in den ersten 10 bis 20 Sekunden. Da kommst mir 100Mbps nicht weit.

    Plex Server@64TB + Kodi ( Homatics Box R 4K Plus @ CoreElec )

  • Die Kisten müssen erstmal ihren Cache füllen.

    Sehe das auf meinem Plex Server, da steht das ganze direkt mal auf 400Mbps in den ersten 10 bis 20 Sekunden. Da kommst mir 100Mbps nicht weit.


    https://www.rapidseedbox.com/blog/4k-plex-streaming

    In most cases, Plex 4k buffering is due to slow network speed. To stream a typical 4K video at 20Mbps (bitrate) without buffering from a remote server, you need at least double or more home Internet speed (starting from 40Mbps).

  • Die UHD Spec scheint ja wohl maximale Bitraten bis zu 144Mbps zu erlauben. Man findet auch, das dei 60fps "FR" UHD bis zu 128Mbps haben sollen als codierrate. Typischerweise wird "GeminiMan" erwähnt. Hier auch mal "King of New York", wobei der Poster da wohl von Plex nur die average bitrate seiner RIPs angezeigt bekommt, wenn ich das richtig verstehe. Da könnten also relativ einfach auch längere szenen mit > 100Mbps in so einem Film drin sein.

    Und wenn da Szenen mit mehr als 100 Mbps drin sind: Woher soll denn der arme Abspieler, sagen wir Kodi, wissen, wieviele Sekunden es buffern soll ? Sagen wir mal da ist eine 30 Sekunden > 100 Mbps car chase szene mit > kontinuierlich > 100Mbps drin. Und nu ? Jedes mal wenn man in so einen Film rumzappt erst mal 30 sekunden warten, bis da genug gebuffert ist, damit dann eine halbe Stunde später bei der Szene kein "Bitte Warten, Ich Lade" auftaucht ?

    Bei Einführung der 3D BD war da bei den Blu Ray Playern ja auch ein Problem, weil da wirklich mehrereJahre lang "single speed" BD Lauftwerke verkauft wurden, die 3D disks aber mindestens 2x Speed Laufwerke brauchten um ruckelfrei abzuspielen. Das ist der technische Grund, warum dann viele Jahre lang in der 3D Blu Ray Packung auch immer noch eine 2D Scheibe drin war. Die lief auch auch single speed.

  • Man kann Kodi sagen wieviel er buffern soll.

    Klar. Dennoch ist es absolut lächerlich, heutzutage noch 100 MBit LAN- Steinzeit- Technik einzubauen, egal in welchem Gerät auch immer. Das regt mich jedes Mal und überall auf. Sch...ßegal, ob man den Speed braucht, das ist einfach eine völlig überflüssige Beschneidung ohne Sinn und Verstand. Und sowas kann ich nicht ausstehen. 100 MBit kann (und wird) definitiv zu knapp sein. Ob es hingegen unbedingt 2,5 GBit sein müssen, ist aktuell nicht sicher. Könnte bei mehreren gleichzeitigen Zugriffen vielleicht Sinn machen, wenn die Speichermedien dahinter genug Speed liefert. Aber im Normalfall langt 1 GBit für alles aus, da es fast so schnell wie die HDDs ist. Schnelle SSD können sicher mehr, aber wer hat schon große Datenmengen ausschließlich auf SSD liegen? In 5-10 Jahren, da mag 1 GBit dann langsam zu knapp werden. Obwohl ich mir nicht sicher bin, ob die Datenmengen pro Datei (Stream) in den nächsten Jahren noch gewaltig anwachsen werden. Immerhin ist 8k total gefloppt beim Endkunden und die Codecs werden immer effizienter. Zur Zeit ist 1 GBit auf jeden Fall noch schnell genug, so das ein Umstieg auf 2,5 GBit nicht zwingend erforderlich ist. Doch 100 Mbit, dafür gibt es heutzutage keine Entschuldigung mehr. Das reicht ja in vielen Gegenden nicht mal mehr fürs Internet.

    -------------------------------------
    Danke fürs lesen, Claus

  • Man kann Kodi sagen wieviel er buffern soll. Advancesettings.xml

    Dafür sind jetzt die Settings unter Einstellungen >> Dienste >> Cache zuständig. Einträge in der as.xml werden ignoriert.

    AZi (DEV): Nexus auf LibreElec | Asrock J4205 | 4 GB RAM | 128 GB Sandisk| Rii mini
    DEV: PC Ubuntu 20.04 | Matrix
    AZi: Tanix TX3 | Android/CoreElec Dualboot (EMMC), Nexus
    WoZi: Nexus auf LibreElec | Asrock J4205 | 4GB RAM | 128 GB Sandisk SSD | Atric IR | URC7960

    NAS: unRaid, 3x6TB, 2x12TB | TV-Server: Futro S550 mit Hauppauge QuadHD DVB-C
    PayPal: paypal.me/pvdbj1

  • das ist einfach eine völlig überflüssige Beschneidung ohne Sinn und Verstand

    Nein, das ergibt aus energetischen Gründen durchaus Sinn. Ja nach Anwendung. Ob es bei einem Streamer Sinn ergibt kann man sicherlich hinterfragen, trotzdem ist deine Pauschalaussage nicht korrekt.

    • Beispiel eines Qualcom-Chipsatz (Ich habe auf die schnelle nur Idle-Werte gefunden)
    • GBit-Link, idle: ~350 mW, 61 mW mit EEE (Energy-Efficient Ethernet Study Group)
    • 100MBit-Link, idle: 95 mW, 54 mW mit EEE
    • 10MBit-Link, idle: 16 mW, sofern 10BASE-Te ausgehandelt wird (niedrigere Signal-Amplitude)
  • Hi.

    das ergibt aus energetischen Gründen durchaus Sinn.

    Tatsächlich??? Sehe ich ganz und gar nicht so. 61 mW zu 54 mW macht 7 mW Unterschied (oder ca. 1€ Stromkosten bei 50 Jahre langem 24/7 Dauerbetrieb des Geräts). Tolle Wurst. Dafür soll ich mich bei der Funktionalität und der Geschwindigkeit massiv beschneiden lassen? Im Leben nicht.

    trotzdem ist deine Pauschalaussage nicht korrekt.

    Und ob die Korrekt ist. Ich wusste, das es da einen kleinen Unterschied gibt, schließlich kann man bei der FritzBox einzelne LAN Ports aus "Energiespargründen" ja drosseln. Aber dass der Unterschied so verschwindend gering ist, wusste ich nicht. Das macht das Gehampel mit 100MBit nur noch schwachsinniger. Bei mir kommt ohnehin kein Gerät mehr ins Haus mit reinem 100 MBit LAN, und jetzt dann erst Recht nicht. Ich habe noch das eine oder andere Gerät (meist, weil ich es geschenkt bekommen habe), das nur 100 MBit hat, leider. Aber selbst kaufen? Garantiert nie mehr...

    -------------------------------------
    Danke fürs lesen, Claus

  • Gibt ja sogar organisationen wie https://www.greeningofstreaming.org/

    So gut wie wifi heute ist könnte man fast sagen, das man normalerweise 100Mbps ethernet nehmen sollte, und bloss wenn man UHD schaut wird WiFi aktiviert. Damit spart man wahrscheinlich am meisten energy, so energiehungrig wie wifi inzwischen ist. Braucht man gar kein 1Gbps ethernet mehr, wenn man eh schon so ein power-hungriges wifi eingebaut hat.

    Wobei das halt alles relativ zum Stromverbrauch eines guten TVs leider ja alles bloss unter ferner liefen laeuft...

  • Hi.

    Tatsächlich??? Sehe ich ganz und gar nicht so. 61 mW zu 54 mW macht 7 mW Unterschied (oder ca. 1€ Stromkosten bei 50 Jahre langem 24/7 Dauerbetrieb des Geräts). Tolle Wurst. Dafür soll ich mich bei der Funktionalität und der Geschwindigkeit massiv beschneiden lassen? Im Leben nicht.

    Und ob die Korrekt ist. Ich wusste, das es da einen kleinen Unterschied gibt, schließlich kann man bei der FritzBox einzelne LAN Ports aus "Energiespargründen" ja drosseln. Aber dass der Unterschied so verschwindend gering ist, wusste ich nicht. Das macht das Gehampel mit 100MBit nur noch schwachsinniger. Bei mir kommt ohnehin kein Gerät mehr ins Haus mit reinem 100 MBit LAN, und jetzt dann erst Recht nicht. Ich habe noch das eine oder andere Gerät (meist, weil ich es geschenkt bekommen habe), das nur 100 MBit hat, leider. Aber selbst kaufen? Garantiert nie mehr...

    Man sollte von den anderen Werten ausgehen, nicht von den optimalen.

    Dann ist es knapp Faktor 4. Ich sehe da weniger das Geld, sondern z. B. die Wärmeentwicklung oder mobile Anwendungen oder wenn ich über den USB Port des TV (bei dieser expliziten Anwendung durchaus denkbar) Stromversorgungen möchte. Wenn du dann mal zwei Ports drauf hast, die heizen für nichts, und dann die ersten Lüfter auf den Chips sitzen wird auch wieder geweint.

    Aus dem beschränkten Sichtwinkel der monetären Betrachtung kann ich deine Antwort nachvollziehen. Aus Sicht eines umsichtigen Entwicklers der überlegt arbeitet und Geräte sinnvoll dimensioniert sicherlich nicht.

    Das Marketing wird sicher sagen: Hau drauf, wir schreiben pro hinter :) und verschieben das Komma um eine Stelle nach rechts

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!