Servus! Seit nun vielen Tagen suche und suche und suche ich im Netz nach einer verständlichen Erklärung, worin die Unterschiede beim Upscaling bei Tools wie Kodi liegt und dem eines AVR oder UHD-TV.
Ich habe einen enorm leistungsfähigen HTPC im Wohnzimmer, der einen i7 und eine GTX980ti beherbergt. Auf diesem befinden sich einige 1080p-Filmchen, die ich in bester Qualität genießen will, egal, wie viel Hardware-Performance das verlangt.
An dem Rechner hängt ein Pioneer VSX-830-K und an diesem ein LG 60UF7709, beide verfügen über einen UHD-Upscaler.
Nun die eigentliche Frage: Ist Upscaler nicht gleich Upscaler? Stell ich Windows und Kodi auf 1080p, so will der AVR upscalen, das Bild sieht kaum verändert aus. Sag ich ihm, er soll das 1080p-Signal einfach durchschleifen, so übernimmt der TV. Das Bild kommt mir bei Nahaufnahmen zwar enorm scharf aus, aber bei vielen Panoramaaufnahmen irgendwie matschig und künstlich.
Jetzt wäre da aber noch das Upscaling durch den HTPC. Vorteil ist natürlich das deutlich schönere Kodi-Interface in 2160p, auch Windows profitiert davon. Nur auch der Film? Ich finde einfach rein gar nichts, worin die Unterschiede bei solchen Upscaling-Methoden zu einem Chip in AVR und TV liegen. Stelle ich nun alles auf 2160p, Hardware acceleration aus (soll laut diversen Forum auf Kosten der Leistung ein besseres Ergebnis liefern) und z.B. Lanczos3 optimiert als Berechnungsmethode ein, wirkt das Bild irgendwie am "saubersten", aber andererseits auch nicht wirklich upscaled... Vielleicht habe ich mich auch einfach viel zu sehr daran gewöhnt und einen Tunnelblick.
Was liefert also in der Theorie das beste Ergebnis?