IM1785: Le Brunch - 4K und HDR
2016 sprach in der Spielebranche fast alles über Virtual Reality, sodass fast niemanden auffiel, dass zwei andere Technologien ebenfalls Einzug hielten: 4K-Auflösungen und High Dynamic Range (HDR). Es kamen im letzten Jahr neue Revisionen der Konsolen, die beides unterstützen. Die neue PlayStation 4 Pro (IM1743) beherrscht beides, die Xbox One S kann ebenfalls HDR, und 4K immerhin bei Videoinhalten. Voraussetzung ist aber stets, dass man auch ein TV-Gerät oder einen Monitor besitzt, der 4K und HDR unterstützt.
Stefan, unser IT-Gott, und Daniel legten sich vor wenigen Wochen entsprechende Fernsehgeräte zu. Ihr Gast Florian „Haustest“ machte am PC das Upgrade auf 4K-Auflösung. Im Brunch diskutieren alle zusammen darüber, was 4K und HDR überhaupt ist und wie es sich in der Praxis bisher darstellt. Gibt’s überhaupt schon genug passende Inhalte? Merkt man beim Filme schauen und Games spielen überhaupt einen Unterschied?
Would you kindly…
Ihr wollt unabhängigen Spielejournalismus unterstützen und Zugriff auf alle Insert-Moin-Folgen haben? Great!
Dann werdet Unterstützer*in auf Patreon oder Steady: Für nur 5 EUR im Monat erhaltet ihr jeden Montag, Mittwoch und Freitag eine neue Folge per RSS-Feed frisch zum Frühstück geliefert. Darunter Reviews zu aktuellen Spielen, Einblicke hinter die Kulissen mit interessanten Menschen aus der Branche, Meta-Diskussionen und Themen-Specials.
Die Unterstützung ist jederzeit kündbar und ihr erhaltet sofort Zugang zu allen Premium-only-Inhalten!
Alle weiteren Informationen auf patreon.com/insertmoin oder steadyhq.com/insertmoin
ich hab auch schon einen 4K TV, aber wie ihr schon gesagt habt, wenn man nicht einen neuen TV braucht, muss man keinen kaufen. Der Unterschied ist so gering.
In der nächste Brunch Folge hätte ich gern ein paar Soundbars getestet :-) Brauch auch so ein Ding!!!
Der erste Absatz ist ziemlich wirr formuliert (übermüdet?). Die Xbox One S kann aber HDR auf jeden Fall auch in Spielen, die es unterstützen, wie z.B. Gears of War 4.
Eigentlich fehlt nur ein Komma: „…die Xbox One S kann HDR, und 4K immerhin bei Videoinhalten“
Aaaaaah. Jetzt macht das Sinn. :-) („so dass fast niemandem“ wäre noch gut, Revisionen ist ja nun korrigiert.) ;)
Auch das ist korrigiert. Meine Güte, dieser Blogpost ist ja fast so viel nachträgliches Flickwerk wie das Betriebssystem der Xbox One.
*niemandeM ;) Wie wärs mit Sponsoring durch Microsoft?
Da Stefan mich das ein oder andere mal erwähnt hat, auch noch mal von mir ein paar Worte zu 4K/HDR:
Mein alter TV (LG 42“, einer der ersten erschwinglichen FullHDs, allerdings nur mit 50Hz) hatte auch rund 8 Jahre auf dem Buckel und ich hab mich entschieden den auszutauschen.
Aber auch ich stand auch vor der kläglichen Wahl, was es nun für ein Gerät werden soll.
Fangen wir mal mir der Größe an: Klar ist größer immer besser ^^ aber wirklich entscheidend ist der Sitzabstand, als grober Anhaltspunkt sagt man empfolender Sitzabstand = 2-3 mal die Bilddiagonale (in cm). Heimkinoenthusiasten raten 55“ oder besser 65“ aber je nach verfügbaren Platz und Sitzabstand kann man durchaus auf etwas kleinere Diagonalen zurückgreifen.
Als nächste die Frage welches Panel nimmt man. Aktuell gibt es 3 Display(Panel) Technologien die bei 4K TVs zum Einsatz kommen. Plasma findet man bei 4K nicht mehr. Die Einsteigergeräte im unteren Preissegment verwenden IPS-LCD Panels. Nachteil bei LCD Panels, die müssen immer noch beleuchtet werden. Früher machte man dass mit Leutchstoffröhren, heute werden dazu (weiße) LEDs verwendet.
die entweder am Rand oder hinter dem Panel angebracht sind (EdgeLED / BackLED). Billige LCD 4K TV findet man für rund 700€ Top Modelle aber auch für 1400€.
Achtung TV-Hersteller bzw deren Marketing Abteilungen schreiben auf LCD Fernseher mit LED Hintergrundbeleuchtung gerne „LED-TV“ drauf, dass beschreibt aber nicht das Panel!!!
Die nächste und noch teuerste Paneltechnologie wären die OLED-TVs. Klarer Vorteil OLEDs erzeugen selber Licht und müssen nicht zusätzlich beleuchtet werden. Dadurch können die Geräte zum einen extrem flach gebaut werden, zum Anderen können Farben extrem gut dargestellt werden, auch der Schwarzwert ist unschlagbar, da die einzellnen LEDs einfach abgeschaltet werden können.
Dafür muss man dann aber auch tief in die Tasche greifen unter 2000 findet man da i.d.R keine brauchbaren Geräte. Die neuste Paneltechnologie die jetzt so langsam auf den Markt kommt sind Quantenpunkt-Panels (je nach Hersteller auch Q-Dot oder QUHD genannt). Diese Geräte siedeln sich im Segment zwischen LCD und OLED an und beginnen preislich bei rund 1300€.
Zum Punkt HDR, HDR bietet einen höheren Dynamikumfang, sprich feinere Abstufungen bei der Farbdarstellung und mehr Helligkeit, was in Kombination auch feinere Abstufungen bei schwarz und weiß Werten bringt.
Gerade bei Filmen gibt es aber noch ein großes Problem, der aktuelle HDR-Standard (HDR10) unterstützt keine dynamische Kontrastzuweisung pro Szene, Der HDR Wert wird bei Start des Filmes festgesetzt und kann nicht mehr geändert werden. Natürlich steht ein neuer Standard dafür schon in den Startlöchern Dolby Vision und wird natürlich noch nicht von den aktuellen Geräten unterstützt.
Man darf nicht vergessen, dass wir uns bei 4K noch in der ersten Gerätegeneration befinden und die Geräte sich jetzt erst so langsam auf dem Markt etablieren.
Raphael Vogt, ISF und THX zertifzierter Heimkino-Techniker hat vor kurzem mal gesagt, dass das Ganze 4k, HDR, UltraHD sich quasi noch im beta Status befindet.
Zum Schluss kann ich mich den Jungs im Cast nur anschließen, wer noch ein halbwegs aktuelles FullHD Gerät sollte dabei bleiben und nicht umrüsten, wer ein Gerät hat was schon etwas in die Jahre gekommen ist, sollte durchaus über ein 4K Gerät nachdenken. Wie Daniel schon sagt Bildeindruck kann sehr subjektiv sein, guckt euch die Geräte vorher an, Elektronikerhändler haben viele Geräte zum Vergleichen da.
Auch die Bedienoberflächen sind sehr unterschiedlich und können die Wahl beeinflussen.
(Samsung Geräten sagt man zu dem nach, dass die viel nach Hause telefonieren.)
Ich persönlich kann nur empfehlen, sonfern ihr in der Nähe eines Heimkino-Ausstatters wohnt, fahrt dahin, die haben wirklich Ahnung und beraten i.d.R. besser! Des Weiteren rate ich von den sehr billigen Geräten unter 700€ ab, dort sind zum Teil sehr schlechte Panels verbaut, die Bildrate kommt bei schnellen Bildern nicht nach, die Beleuchtung kann sehr schwach sein und die Bildprozessoren sind nicht gut.
Hoffe dass hilft einigen weiter.
Toller Cast, habe neulich schon mal gedacht, dass wir eigentlich mehr Hardware-Casts bei IM brauchten. Beispiel Soundbars oder Gaming Headsets. Also Danke euch Dreien :-)
Danke auch Robin für seine weiteren Ausführungen. Mich würden ja noch weitere Details zum Thema HDR (da gibt’s ja auch hersteller-spezifische Benennungen wie HDR10 etc.) & Unterschiede (8 oder 10 Bit? etc.) interessieren. Auch die Schlagworte „Motionflow“ (Sony?) und die Herzanzahl sind glaube ich für Videospieler interessant.
Naja mein alter 40 Zoll tut noch seine Dienste und ich warte erst mal, bis sich das Feld der 4K HDR Schlagworte und die Preise etwas lichten. Außerdem traue ich der Leistung der PS4 Pro nicht so richtig und warte erst mal, wie sich die Spiele dazu entwickeln. Trotzdem ein spannendes Thema.
So weit ich weiß, gibt es auf den aktuellen Geräten nicht wirklich große Unterschiede beim HDR, i.d.R. unterstützen die nur den aktuell gänigen HDR10 Standard, wenn ein Hersteller in irgendeiner Form HDR auf sein Gerät schreibt, ist dass dann HDR10. Dementsprechend muss das Gerät eine bestimmte max. Helligkeit erreichen und einen entsprechend großen Farbraum darstellen können.
Die Helligkeit bei Heimkinogeräten (sprich Fernsehern und Projektoren) wird in Nits gemessen, HDR fähige Geräte sollten in der Lage sein 1000 Nits Helligkeit erzeugen zu können (Bei älteren Geräten waren noch 100 Nits üblich). Auf Grund der 1000 Nits max Helligkeit, nennen manche Hersteller dies auch HDR1000.
8Bit und 10Bit beschreiben den Farbraum, also wie viele Farben im Farbspektrum dargestellt werden können. Bei älteren Geräten waren dies nur 8Bit (Der dahinterliegegende Standard nennt sich Rec.709 oder auch BT.709) HDR Geräte sollten 10Bit darstellen können (Standard Rec.2020 bzw. BT.2020). Auf den entsprechenden wikipedia Seiten sieht man ganz gut wie sich die Farbspektren unterscheiden:
https://en.wikipedia.org/wiki/Rec._709
https://en.wikipedia.org/wiki/Rec._2020
Die empfohlene Hertzzahl ist diskutalbel. Je größer die Hertz, um so mehr Bilder berechnet der Bildprozessor pro Sekunde. Dabei sollte man beachten, dass Kinoinhalte immer noch mit nur 24 Bildern pro Sekunde produziert werden. TV Inhalte mit 50 bis max 60 Bildern pro Sekunde. Um so höher nun die angegebene Hertzzahl umso mehr Bilder berechtet der Bildprozessor dazwischen um Bewegungen weicher darzustellen. Die Zwischenbildberechnung macht und nennt jeder Hersteller zum Teil anders (Motionflow im Falle von Sony)
Eine detailierte Auflistung der verschiedenen Bezeichnungen findet man hier, wer mehr wissen will:
https://www.entain.de/wiki/fernseher-bildwiederholfrequenz-led-tv-a30.html
Perfekt. Danke Robin
Sehr interessanter Cast. Schön zu wissen, dass ich nicht der einzige bin, der sich maximal alle x Jahre mal damit beschäftigt weil ein neuer Fernseher ansteht :D
Wenn jeder ein wenig mitmacht, erreichen wir die 30 Kommentare und dürfen ja vielleicht den Discord behalten.
Schöne Folge, besonders euer Gast Florian konnte ja richtig gut zur Diskussion beitragen. Ich habe meinen TV letztes Jahr erst geholt und werde es demnach nicht so eilig haben mit dem 4K Upgrade.
Ja guuut. Dann tue ich auch noch einmal hier meiner Diskussionspflicht genüge. :)
Wie schon auf Twitter geschrieben, hat mir die Diskussion im Cast sehr geholfen. Ging schon seit einigen Wochen mit dem Gedanken herum, mir einen neuen PC-Monitor zu kaufen und bin in Foren sowie Saturn- und Mediamärkten zunächst einmal halb verzweifelt.
Der typische Ablauf: Empfehlung der GameStar- oder PCGH-Redaktion gelesen, Shop im Netz herausgesucht, sieben ‚Super. Alles. Bombe‘ Kommentare und einen ‚So. Ein. Dreck. Nicht. Kaufen‘ Beitrag gefunden. Daraufhin in den örtlichen Elektronik-Markt geflüchtet, über schlechte Auswahl und intransparente Hersteller-Angaben aufgeregt und schließlich unverrichteter Dinge und voll verunsichert wieder nach Hause gegangen.
Geholfen hat mir der Cast dann konkret bei der eigenen Einordnung was ich wirklich brauche: 1440p zum Arbeiten, aber eigentlich nur 1080p zum Zocken, da meine GTX 1060 ohne ein paar Abstriche zukünftig wohl nicht gänzlich für 1440p ausreichen wird. Folglich machte auch 27 Zoll Monitor nur eingeschränkt Sinn, wobei ich dennoch etwas deutlich Größeres als meinen aktuellen 22 Zoll Monitor haben wollte.
Das imo beste Produkt für dieses Profil (von der GameStar und der PCGH gleichermaßen empfohlen):
Der 25 Zoll Dell UltraSharp U2515H mit 1440p. Seit Ende 2014 auf dem Markt und bis heute ein Bestseller.
Gerät kurz nach dem Cast bestellt. Nun sehr gespannt. ;)
So nun hab auch ich die Folge ganz gehört.
Ich habe einen Sony KDL 52HX905. Diesen habe ich im November 2010 gekauft und war bzw ist einer der besten LED-LCDs, dank Lokaldimming. Hab dafür auch 3500€ hingelegt.
So langsam hätte ich gerne aber aktuelleres Model.
Der auf der CES2017 gezeigte Sony A1 OLED in 55 bzw 65 Zoll haben es mir sehr angetan. Leider gibt es noch keine genauen Details und Preise.
Damals 2010 verglich ich viele TVs und kann anders als Robin jedem nur mehr oder weniger ABRATEN sich Geräte in Media Märkten und co anzusehen.
Die Bildeinstellungen der Geräte haben nichts mit dem zu tun was man später zu Hause einstellen (Sollte)
Somit bekommt man ein ganz falschen Eindruck von den Geräten. Ich gebe da mehr auf Internet Rezensionen wie zB von AreaDVD und co.
Auch bin ich der Meinung wenn man etwas tiefer in die Tasche greifen kann, sollte man es tun. Kenne genug Leute die sich gefühlt jedes Jahr ein 700€ Gerät kauften.
Als Sitzabstand sind es bei mir ca 2,2m bis zu meinem TV welcher an der Wand hängt. Daher bin ich nicht sicher ob evtl 65″ etwas zu groß sind.
Sollte man jetzt schon auf OLED setzten? Wie sehen die Reaktionszeiten der Panels aus?
Oder doch jetzt fertig ausgereifte BackLEDS (Edge LED sollte man nicht nehmen wegen miesem Schwarzwert)
Vll kann Robin was dazu sagen :)
Grüße Euer Phil
Einziger Vorteil bei Media Markt / Saturn die haben viele Geräte zum Vergleichen rumstehen, ich gebe Philipp Recht, dass die Einstellungen auf diesen Geräten hochgepusht sind, Daniel sagte ja auch im Cast, dass die so eingestellt sind um das Demo Material der TV Hersteller optimal darzustellen. Zum Teil hängen die aber auch an einem großen Bildverteiler und zeigen Fußball oder eine Filmtrailer-Schleife.
Wie schon zuvor geschrieben, würde ich immer empfehlen. sofern im Umkreis vorhanden, geht zu einem Heimkinoausstatter, dass hat zumindest bei mir einige offene Fragen gelöst!
Film und Heimkino Fachmagazine sind auch ein guter Anlaufpunkt, die testen Geräte i.d.R. instensiver als andere. Guter Tipp von Philipp.
Reaktionszeiten sind zum Teil garnicht so einfach rauszubekommen, da Hersteller die nicht immer mit angeben. Aktuelle Geräte mit Quadcore Prozessoren sind schnell genug um Bilder schnellstmöglich ans Panel weiterzugeben. Was allerdings das ganze verlangsamen kann sind die Bildoptimierungsfunktionen des Fernsehers, da dies Softwareseitig passiert, kann dies zu einem Delay führen und zum Teil sogar Bild und Ton merktbar asynchron machen! Diese Funktionen sollte man immer deaktivieren. Heimkinoenthusiasten sprechen hier übrigens von einer Bildverfälschung nicht von einer Verbesserung.
OLEDs haben faktisch definitiv das beste Bild, man sagt OLEDs allerdings nach, dass diese über die Zeit Helligkeit verlieren. Dies ist aber aktuell schwer nachzuweisen, da dies wohl erst ab 5+ Jahren einsetzt und Langzeittests noch nicht vorliegen. Die relativ neu auf den Markt kommenden QuantenpunktTVs, erreichen aber schon ähnlich gute Werte wie OLEDs kosten aber nicht ganz so viel und sollte man bei der Wahl definitiv nicht außer Acht lassen!
Tatsächlich gibt es noch Geräte die EdgeLEDs bei LCD Panels einsetzen, das erzeugte Licht wird dort über Reflextionsflächen an die Rückseite des Panels geleitet und zum Teil unterstützen diese Geräte sogar local Dimming.
Je nach dem wie wichtig einem so etwas ist, können Zusatzfunktionen bei der Wahl noch ganz interessant sein. Wie schon im Cast erwähnt verschwindet 3D so langsam wieder bei TV Geräten, bei 4K Inhalten ist 3D defakto nicht verfügbar. Des Weiteren werden wohl als nächstes die Curved Geräte verschwinden, die wurden auch nicht gut angenommen. Philips bietet vereinzelt noch Geräte mit Ambilight oder dessen Weiterentwicklung Amilux an, hab ich nie getestet kann ich leider nichts zu sagen. Evtl sind die Tuner noch interessant für Leute die dann doch noch klassisches Fernseh gucken und keinen exteren Reviever haben oder nutzen wollen. I.d.R. werden alle gängigen Standards unterstützt Sat (dvb-S2), Kabel und sogar dvb-t2HD
die höheren Modellklassen haben meist Twintuner verbaut, was Gucken und gleichzeitiges Aufzeichnen ermöglicht oder Bild-in-Bild.
Wer eher auf Netzwerkfunktionen, Netflix oder Amazon zurückgreift sollte sich definitiv mal die unterschiedlichen Betriebsysteme angucken, gänig sind zur Zeit webOS, AndroidTV, FirefoxOS und Tizen, die sich zum Teil stark unterscheiden. Appstores sind aber i.d.R. immer vorhanden um weitere Apps nachzuinstallieren.
Zum Sound, was noch zuvor angesprochen wurde, kann ich auch nur wenig sagen. Ich nutze schon lange 5.1 System und deaktiviere immer die Boxen im TV. Ich persönlich halte nicht viel von Soundbars, habe aber schon von Leuten gehört die mit ihrer sehr zu frieden sind. Nur so viel sei gesagt, nicht jeder Raum ist für eine Soundbar geeignet. Das Erzeugen von brauchbarem Ton ist, je flacher das Gerät, immer eine Herrausforderung für TV Hersteller, einige bekommen das recht gut hin, einige weniger. Ich würde immer zu einem externen Soundsystem raten, da der Ton einfach besser ist, ich möchte 5.1 gerade bei Filmen nicht mehr missen.
Bezüglich der Einstellungen in den Elektromärkten habe ich mir mal sagen lassen, dass die durch die Beleuchtung durch die Scheinwerfer in den Geschäften Helligkeit und Kontrast über Normal hochdrehen (müssen).
Guter Punkt, die äußeren Lichteinflüsse im Elektomarkt sind eher unüblich, im Vergleich zum heimischen Wohnzimmer.
Schade das ihr nicht über die Pest Namens Motion Flow/Motion Plus gesprochen habt.
Für mich gibt es derzeit nichts schlimmeres als diese künstliche Bild Beschleunigung die alles aussehen lässt wie eine Soap Opera.
Das schlimmste dabei ist wenn man einen Filmabend bei nem freund hat und als einziger diese Perversion wahrnimmt… O.o
Zum Thema Soundbars, hab mir dieses Exemplar im Sale für 170€ gekauft und bin sehr sehr zufrieden.
https://www.amazon.de/Sony-Soundbase-Lautsprecher-Bluetooth-integrierter/dp/B00HRW0ED2/ref=sr_1_2?ie=UTF8&qid=1484645165&sr=8-2&keywords=sony+soundbar
Derzeit leider nicht auf lager, normalerweise bekommt man sie bei Amazon für 225€.
Nie wieder 399393 Boxen im Zimmer stehen haben…
Zwischenbildberechnung ist eine Sache für sich, wie gesagt jeder Hersteller nennt es und macht es anders, Motionflow im Falle von Sony. I.d.R. lässt sich dass aber abschalten und in Stufen regeln.
Ich mag es auch nicht, kenne aber einige die dies bei Filmen einschalten, da 24 Bilder gerade bei schnellen Actionszenen schon merklich ruckeln.
Soundbars ersparen lässtiges Kabelziehen. Sofern der Raum es hergibt, kann man über die entsprechende Wandreflexion schon einen brauchbaren Raumklang erzeugen.
Wenn der Raum nicht rechteckig ist oder die Anordnung von Geräten und Möbeln ungünstig ist, kann das Klangerlerlebniss aber auch schlecht sein.
Da 5.1 im Wohnzimmer immer noch viel eingesetzt wird, kann eine Soundbar durchaus eine gute Alternative zu Boxen sein.
Geht es an Tonformate mit 7.1 und mehr (Dolby Atmos, Auro3D oder DTS:X) kommt man um Boxen aber meist nicht herum.
Ich habe mir auch zuletzt vor ca. 6 Jahren einen 42-Zoll-Fernseher gekauft und denke über 4K+HDR nach. Und ich habe mir auch kürzlich bei einem Bekannten einen 50-Zoll-4K+HDR von 2016 angesehen – also unter Wohnraum-Bedingungen. Und ja: Das Bild ist besser und beeindruckender. Das liegt zum Ersten auch allein schon am Größenunterschied.
Aber was vor allem eine Rolle spielt: Ich habe mich damals für einen Plasma und nicht für einen LCD entschieden. Wer damals die Geräte verglichen hat, konnte den Unterschied deutlich erkennen: Die Farben vom Plasma waren besser, das Bild wegen des höheren Kontrastes nicht so flau wie bei LCDs. Und die Nachzieheffekte bei Bewegungen (v.a. Fußball) waren im Vergleich zu LCDs dieser Zeit deutlich geringer. Aber Plasma galten (teilweise damals ungerechtfertigt) als Stromfresser. Ich denke, es hat bestimmt 3-4 Jahre gedauert, bis man sagen konnte, dass die LCDs von der Bildqualität her in diese Region gekommen sind.
Heute wirkt das Plasma-Bild im Vergleich zu einem neuen 4K-ler auch schlechter, v.a. auch durch dieses systembedingte Grisseln im Bild bei Plasma – die LCDs waren schon immer ruhiger, aber wirkten auch streckenweise künstlicher und matschiger. Aber die Farben der neuen 4K sind besser, der Kontrastumfang höher – jetzt wirkt auch der Plasma etwas „flau“.
Sollte ein auf 4K hochskaliertes SD-Bild besser aussehen als die Skalierung beim alten Fernseher, hat der Hersteller aus Kostengründen einen billigeren Scaler verbaut, denn Skalierungsalgorithmen jenseits einer Pixelverdopplung oder linearen Skalierung gibt es schon seit über 15 Jahren. Wer einen Wohnzimmer-PC, Raspberry Pi, Chromestick o.ä. verwendet, sollte das Problem auch damals nicht gehabt haben, da das wiedergebende Gerät das Scaling übernimmt, nicht der TV selbst.
Sieht das Bild tatsächlich schärfer aus, kann es an Nachschärf-Algorithmen liegen, die gerne standardmäßig aktiviert sind. Erkennbar ist das an einem dunklen Saum an kontrastreichen Kanten. Ich finde das künstlich und deaktiviere es immer sofort – auch wenn es zunächst subjektiv „unschärfer“ wirkt.
Sitzt man weit genug vom TV weg bzw. ist die Displaygröße entsprechend „klein“ (< 46 Zoll?), sollte der Unterschied zwischen Full-HD und 4K eher gering sein. Viel deutlicher sollte HDR sein – was eigentlich technisch auch bei Full-HD möglich sein sollte, aber wohl aus Marketing-Gründen nicht angeboten wird.
Die Displays werden immer heller, Ziel ist wohl wirklich, dass das Bild ggf. auch "grell" sein kann. Die OLED-Displays zeigen schon jetzt, wohin es geht, z.B. mit Weltraum-Demos, bei denen das All tiefschwarz und Sterne und Sonnen richtig hell sind.
HDR rechnet, wie schon von Vorrednern erwähnt, den eigentlich vorgesehenen Kontrastumfang auf den Kontrast des Fernsehers um. Einige Fernseher aus dem letzten Jahr haben das wohl zunächst falsch gemacht, sodass das Bild teilweise z.B. zu dunkel war. Ansonsten sollte man zumindest feststellen können, das Farbverläufe jetzt richtig glatt und nicht mehr stufig sind.
Insofern halte ich v.a. HDR für eine echte Bereicherung – und weniger 4K.
Dass manche keinen oder wenig Unterschied bei 60fps erkennen, kann vielleicht auch an den TV-Settings liegen: Bei vielen TVs sind Bildinterpolations-Algorithmen aktiviert, die Zwischenbilder berechnen, sodass auch viele Nutzer anscheinend auch keine Ruckler erkennen, wenn sie eine europäische 25/50Hz-Produktion auf einem Chromestick oder FireTV wiedergeben, die lange Zeit (oder immer noch?) nur 60Hz Ausgabefrequenz unterstützen.
Geht mir ähnlich, dass der Unterschied von 1080p zu 4K nicht besonders herausstechend ist, erst wenn HDR dazukommt, finde ich, dass das Mehr an Kontrast, Farben und Helligkeit einen deutlichen Unterschied darstellt.
Ich bin nicht zufrieden mit eurer Folge. Erstmal gut, dass ihr von eurer Patreon-Kohle Hardware kauft, um echte eigene Erfahrungen zu machen. Aber entweder informiert ihr euch über die Technik, holt euch einen Gast der sich mit dem Thema gut auskennt (dieser Robin z.b.) oder ihr beschränkt euch auf subjektive Eindrücke.
@R_Age_D:disqus du hast ein sehr schönes Beispiel aus der Fotografie gebracht, was HDR eben gerade nicht ist! Weil weder entwickelte Fotos auf Papier, noch .jpg am Monitor HDR können, „passt“ der Dynamikumfang nicht in das fertige Bild und muss – wie etwa von dir beschrieben – „gequetscht und gebogen“ werden. Man nennt das Tonemapping. Draußen in der Realität gibts das natürlich nicht (dafür hast du eine Pupille, die dir immer einen Ausschnitt aus dem Dynamikumfang liefert). Und genau das soll HDR am Fernseher leisten: Der Dynamikumfang wird voller ausgegeben und muss nicht mehr gequetscht werden. Dazu muss das Quellmaterial natürlich entsprechend vorliegen, Spiele nachzupatchen macht mMn wenig Sinn, da die Ausleuchtung vom Leveldesigner ja auf non-HDR-TVs optimiert wurde – evtl wird HDR beim Gaming also eher wie 3D oder MotionControls enden – denn ich behaupte, ein Spiel das tatsächlich auf HDR hin entwickelt wurde, funktioniert nicht gut auf non-HDR.
Ich mag euer Team sehr, aber mir stoßen immer wieder diese Halbwissenfolgen auf, wo es heißt „hab ich noch nicht selbst probiert, hab ich nicht nachgeschaut, weiß ich jetzt auch nicht so genau…“ oder wo Dinge schlicht falsch sind. Das ist ok, wenn man mit Freunden ein Bier trinken geht – so empfand ich euren Podcast bisher immer: mit netten Leuten über Speile plaudern.
Wenn die Freunde nun aber plötzlich Geld fürs Plaudern verlangen, passt da was nicht. Wenn ihr ernsten Journalismus betreiben möchtet, erwarte ich für mein Geld auch Recherche, Experten und gute Vorbereitung. André und Jochen machen das besser.
Ich bleibe Supporter, und vielleicht bin ich ja auch nur eine „Einzelmeinung“.
Danke für die Blumen, muss Dir aber dennoch wiedersprechen, ich finde den gewählten Ansatz nicht zu sehr in die Technik zu gehen, genau richtig. Ein reiner Technikcast wäre glaube ich schnell langweilig geworden. Es ging eher um die Feststellung ob 4K/HDR jetzt schon ein muss oder ein optisches Goodie ist und ob aktuelle Spiele davon schon profitieren, das entsprechende Fazit, haben die 3 aus meiner Sicht, gut dargestellt.
Da bin ich ja bei dir: Der Ansatz nicht so tief in die Technik zu gehen und die Sache aus Endkundensicht zu beschreiben, wäre besser gewesen, als Halbwissen zu verbreiten. Wie @disqus_xnd1LFsn5p:disqus unten schreibt, ist aber auch das nicht so richtig gelungen.
Ich habe meinem generellen Frust Luft gemacht, denn über Spiele reden kann Insert Moin. Bei News, Technik und manchmal auch in den Metathemen sehe ich Defizite – doch genau dafür sollen wir zahlen. Dabei sind solche Formate wichtig, zumindest mir.
Stimme Christoph bzgl. der Defizit-Anmerkung in diesen Bereichen leider zu.
Allerdings finde ich schon, dass es wichtig gewesen wäre, z.B. bei diesem Thema HDR10 und Dolby Vision klarer zu erwähnen. Sprich den Fakt, dass HDR10 anscheinend eine Einstellung für den gesamten Film wählt, während Dolby Vision wohl für jede Szene eigene HDR-Werte bereit stellen kann – vor allem vor dem Hintergrund, dass nur wenige Hersteller/Geräte aktuell beide Standards unterstützen. Auch ein Grund, warum ich jetzt noch keinen 4K-HDR kaufe. Das wären jetzt auch nicht mehr als ein paar Sätze gewesen, aber bzgl. des Themas Zukunftssicherheit vielleicht nicht ganz unwichtig, selbst wenn HDR10 weiter verbreitet zu sein scheint.
Der Artikel unter https://www.heise.de/ct/ausgabe/2016-19-Dolby-Vision-greift-nach-der-HDR-Krone-3306849.html erklärt alles technisch. Ich habe auch nicht alles verstanden, aber wenn man hier die Essenz rauszieht (HDR10 vs. Dolby Vision, Weiterentwicklung der Bildschirmhelligkeit), hätte das doch alles etwas mehr Substanz gehabt.
Daher auch mein Wunsch, bei den Hardware-Themen (vielleicht auch Video-Hardware-Themen) vielleicht doch ein kleines bisschen mehr zu recherchieren oder einen Experten einzuladen. Expertenwissen und verständliche, nicht zu-technische Erklärungen schließen sich meiner Meinung nach nicht aus.
Ich finde den Ansatz so auch gut gewählt, es sollte nicht rein um die Technik gehen.
Aber bei den wenigen Momenten als es mal um Technik hattet ich den Eindruck das ihr eher ratet als tatsächlich wisst um was es geht.
Beispiel: was ist denn jetzt HDR genau, wenn es eigentlich aus der Fotografie kommt? Das ist für mich eine Lücke die nicht aufgeklärt wurde. Ich selbst dachte immer HDR hat nur was mir der Aufnahme-Technik beim fotografieren zu tun und wunderte mich darüber wie so was jetzt in Spielen passieren soll.
So gut wie ihr über Spiele reden könnt, habe auch ich öfter den Eindruck das ihr manche Wissenslücke mit etwas Vorrecherche schließen könntet. Und dann weniger unwissend an manchen Stellen rüber kämmt.
Das hört sich nicht immer gut an :-(
Am Anfang der Folge sage ich: Wir schildern unsere subjektiven Eindrücke und sind alle keine Experten. Dein Kommentar: „Meh…ihr schildert ja nur eure subjektiven Eindrücke und seid keine Experten.“ Zumindest kannst du nicht behaupten, wir hätten dich nicht gewarnt! :-)
Aber mal im Ernst: Vielleicht hätte ein bisschen mehr Detailwissen der Folge an der einen oder anderen Stelle nicht geschadet, aber dass wir „ernsten Journalismus“, wie du es nennst, betreiben möchten, haben wir nie und nirgends behauptet. Es war bei Insert Moin immer klar und deutlich kommuninziert, dass wir einen subjektiven Plausch betreiben und keine umfassenden wissenschaftlichen Abhandlungen zu einem Thema.
Rein von der technischen Seite her fand ich die Folge interessant.
Aber mir fehlte etwas eine Einschätzung, vor allem beim Spielen, ob die Ausgaben den Mehrwert am Spielspaß rechtfertigen. So wie ich die Einschätzungen am Ende noch im Kopf habe, waren sie alle unter der Prämisse „lohnt es sich, wenn man eine hübschere Grafik will“. Was ich etwas zu kurz gegriffen fand.
Zumindest ich bin da für mich skeptisch. Für mich ist besser Grafik allein kein/kaum Steigerung am Spielspaß. Was nützt mir z.b. die schönste Open World wenn das Kampfsystem langweilig, es Grind ohne Ende oder langweilige Quests gibt (nehmt irgend ein Spiel mit langweiligen Gameplay und schöner Grafik)?
Du musst für Dich entscheiden, ob Du z.B. bei einem Weltraumspiel einen höheren Spielspaß empfindest, wenn das schwarze All wirklich schwarz und nicht grau ist und Sterne, Planeten, Explosionen etc. heller leuchten, ggf. sogar regelrecht „blenden“. Oder wenn der Himmel bei einem Sonnenuntergang (z.B. Forza Horizon) wirklich ohne Abstufungen dargestellt wird, also ein richtig sauberer Farbverlauf zu sehen ist.
Und natürlich, wenn das Bild einen Tick schärfer erscheint – auch wenn die Texturen und Geometrien der Modelle die Gleichen bleiben. Das ist ja (noch nicht) z.B. wie ein Super Mario Galaxy, das Du mit einer Emulation auf dem PC in Full-HD spielen und sogar noch ein HD-Texture-Pack dazuladen kannst.
Und klar, spielt man bisher auf einem 42-Zöller und steigt auf einen 55-Zöller um, wirkt das schon immersiver. Und die TVs werden einfach größer.
Mein Optimum wäre ein bezahlbarer Beamer mit 4K und HDR. Geibt´s aber nicht, und gerade das Kontrastproblem dürfte wohl kaum gelöst werden können…
Ich habe heraus gehört, das es auf jeden Fall einen Unterschied macht.
Mir kann die Einschätzung zu kurz ob es sein Geld wert ist bzw wem es zum aktuellen Preis das wert sein könnte.
Hmmm…irgendwie hatte ich das Gefühl, wir hätten das im Fazit relativ gut auf den Punkt gebracht. 4K und HDR ist aktuell kein Must-Have, weil’s auch noch viel zu wenig Inhalte dafür gibt. Es ist „nice to have“, aber der Sprung ist lange nicht so groß wie von SD zu Full-HD. Wer gerade ohnehin mit dem Gedanken spielt, einen neuen TV anzuschaffen, sollte zu 4K und HDR greifen, um für die Zukunft gerüstet sein. Wer einen guten und neuen Full-HD hat, kann dabei aber erstmal bleiben und verpasst nicht viel.
Und dass bessere Grafik mehr Spielspaß bedeutet, ist doch ohnehin ein blödsinninger Irrglauben. Daher lohnt es sich doch gar nicht, darüber zu sprechen!
30. Kommentar! Wir dürfen den Discord-Server also behalten.