Danke,endlich einer der das Verstanden hat,und das ganze aufm Punkt gebracht hat.
Das sind Fakten,ich hasse eben Falsche Kommentare gegenüber Users falsche Informationen zu schreiben was nicht so ist;)
Danke,endlich einer der das Verstanden hat,und das ganze aufm Punkt gebracht hat.
Das sind Fakten,ich hasse eben Falsche Kommentare gegenüber Users falsche Informationen zu schreiben was nicht so ist;)
Genau.
aber dafür müssen die Geräte auch 2.1 Kompatibel sein;-)
sonst hat es doch keinen Sinn wenn der eine das 2.1 kann und der andere nicht.Das ist doch klar oder nicht Mr. profi.
So nun habe ich fertig;-)
Ok hast wirklich viel Ahnung @Luene
wusste wirklich nicht, das man für HDR , Hdmi 2.1 Kabel braucht
lächerlich.
HDR Hat man auch bei 2.0 Hdmi Kabel.Und ARC Geht ebenfalls mit HDMI 2.0
Und 2.1 ist auch nur wirklich nützlich,wenn die Geräte das Unterstützen ...AVR ,TV,Mediaplayer usw.
Und woher hast du denn das wissen?
Bleib mal Ruhig ,und chill mal
Keiner hier ist ein Profi,das wissen hat man schon wenn man viel liest und testet.
Ein HDMI Kabel überträgt ein digitales Signal... Bits und Bytes... keine Helligkeit. Es gibt genau zwei Zustände: entweder man hat Bild oder man hat kein Bild. Alles andere ist Einbildung.
Aktuell gibt es sehr wenige Geräte die 2.1 Unterstützen.
so jetzt denk was du willst,und bilde dir deine eigene Meinung was nicht stimmt.
ich hab bei mir jetzt auf hdmi 2.1 kabel gewechselt, damit gibts keine probleme mehr http://amazon.de/gp/product/B07WLJYBL…tle_o05_s00?ie=UTF8&psc=1 [Anzeige]
Naja 2.1 braucht Aktuell kein Mensch,in naher Zukunft bestimmt.
8K Variante hat sich schonmal garnicht durchgesetzt,deswegen für mich sind diese HDMI Kabel 2.1 Aktuell unnötig.
Es reichen HDMI 2.0b Kabel bis 4K 60Hz 12bit .
Hatte auch 2.1 Kabel als test hier,hatte damit keine Besserung gehabt.
Ja das wäre auch eine Option
Habe 2 HDMI Kabels Bestellt in 1.8Meter ,werde diese mal auch Testen,wenn es mich nicht Zufrieden stellt gehen die wieder zurück Dank Amazon^^
Naja das kann ich mir ja Spraen,weil du schreibst ja
die 2m version ging, aber mehr schlecht als recht.
Vom ersten Blick sehen diese garnicht Hochwertig aus
Aber Probieren schaden ja nicht^^
Habe ich gemacht,hat aber bei mir nichts gebracht.
ich denke ich werde arc abhaken und auf ton vom tv verzichten.
Ja ARC ist bei mir auch schuld, weiss der Geier wo das problem liegt
Hast du Passende Links dazu?
Hast aber trotzdem meinen Antwort nicht beantwortet:D
ich hatte keine probleme mit 4k 59.95hz 10bit 420 bt2020
ich hatte keine probleme mit 4 30hz 12bit 422 bt2020
Wenn du mit ARC Anschluss keine Probleme hast,dann würde ich mal gerne wissen welche HDMI Kabel es ist.
1 oder 1,8m amazon kabel und das 2m vom avr zum TV
Hast du Passende Links dazu?
avr videoverarbeitung komplett abschalten vorallem ip scaler und dann mal testen
Habe ich gemacht.
Am Anfang ging das gut aber nach kurzem hin und her Switchen am AVR kam das Problem wieder.
Ich habe grade vieles versucht.
Auf der Shield die Aufösung 1080p 59Hz = Problem bestand immer noch.
Auf der Shield Auflösung 4K 23,98Hz = Problem bestand immer noch.
Das Komische ist aber,sobald ich am TV von HDMI 1 (ARC) auf HDMI 1 das Kabel wechsele,ist das Problem beseitigt
Nur das Blöde halt ohne ARC Funktion.
und welches von deinen anderen geräten nutzt 422 bt2020 in 12bit?
Ich nutze kein 12 Bit,das Maximum ist bei mir 10 Bit.
Mein AVR zeigt mir unter informationen bis zu 12 Bit,heist aber nicht das die 12 Bit genutzt werden.
ich denke auch, das hängt auch einfach damit zusammen dass das hdmi signal über die platine vom avr geschickt wird und da ist nix mehr geschirmt
Glaub mir,ich habe wirklich mehrere HDMI Kabels Probiert,hier mal die Links die ich Probiert habe.
1. https://www.amazon.de/gp/product/B07TRBXJJD/ref=ppx_yo_dt_b_asin_title_o03_s00?ie=UTF8&psc=1&tag=kodinerds04-21 [Anzeige]
2. https://www.amazon.de/gp/product/B015WV0WGS/ref=ppx_yo_dt_b_search_asin_title?ie=UTF8&psc=1&tag=kodinerds04-21 [Anzeige]
2. https://www.oehlbach.com/de/detail/index/sArticle/255
4. https://www.grobi.tv/videotv/hdmi/h…-with-etherneth
5. https://www.grobi.tv/videotv/hdmi/h…hdmi-kabel?c=94
Die Nummer 2 , wird Aktuell noch auf der Shield genutzt.
ein premium zertifiertes hdmi kabel zu nehmen
Und welche HDMI Kabel nutzt du Aktuell die keine probleme macht?Das würde mich mal Interessieren
das liegt 100% nicht am HDMI Kabel.
ich habe so viele Hochwertige Kabel Probiert,bei allen hatte ich gleiches Ergebnis.
ich hatte HDMI Kabels von 1,5 bis 3M als Test,bei allen hatte ich das Problem.
Es soll ein Handshake Problem sein zwischen TV und AVR was ich nicht glaube.Meine andere Geräte Funktionieren ja ... (Sat Receiver ,Xbox One X usw.)
Ich glaube immer noch das NVIDIA Shield das Problem Verursacht.
Deswegen meine Frage wegen der Pro (2019) ,wenn diese Funktionieren sollte,dann würde ich sofort sagen das die Shield 2017 schuld war.
is zwar noch inner beta aber bei mir zumindest gehts super
Und Farbtiefe?Erkennt die neue Schield bzw. Switcht diese Automatisch?
Ich habe das bei meiner Shield 2017 und meinen AVR Marantz SR7013 deswegen die Frage.
TV Samsung Q9 Angeschlossen HDMI 1 mit ARC Anschluss.
Am AVR unter Einstellungen denn 4K Signal auf Erweitert Eingestellt,damit ich 10 Bit Farbraum von der Shield Angezeigt bekomme.
Als ich das So gemacht habe,ist das Bild Signal zwischen AVR und der Shield Verloren gegangen.
Wenn das die Shield alles Korrekt macht,dann werde ich mir die auch zulegen.
Wie siehts denn mit der neue Shield Pro 2019 aus,Funktioniert mir der neuen Shield nun Auto Framerate gut?
Weil mit der alten Shield 2017 gabs ja Probleme.
LoL
mein TV kann 10Bit Farbtiefe.
habe denn Samsung Q9FNG (2018 Modell)
in der Codec Info scheint es die Bit Anzeige für die Farbtiefe nicht zu geben.
Finde das wirklich Schade .
Ich habe beim Kodi Bildwiederholfrequenz beim Start/Stop angepasst. (davor war es auf Aus)
Jetzt zeigt mein AVR bis zu 12 Bit an
Audio 8Bit
sicher?
Wo ist dann die Info Mit dem richtigem Farbtiefe?
zeigt es bei codec Info nicht an?
3840x2160 59,940Hz
YUV 420 10 Bit Rec. 2020
Danke das mit der Anzeige hat geklappt
Was ich komisch finde ist ...
Ich habe einen 4K Film gestartet,dieser hat 10bit Farbraum.
Unter Codec Info steht das es in 8bit Abgespielt wird.(Siehe Bild 1)
Mein AVR sagt 10Bit (Siehe Bild 2)
Nun was ist davon Richtig