Wortwörtlich genommen, muss ich dir recht geben, weil sich in Sachen Pixel, hier insbesondere die allgemeine Texturqualität und die Texturfilterung, die Unterschiede doch arg in Grenzen halten.Masters1984 hat geschrieben:So offensichtlich ist das nicht, sondern in der Tat nur dann wenn man beides nebeneinander laufen hat im Direktvergleich. Ich störe mich da nicht dran, bin kein Pixelzähler [...]
Allerdings wirken sich die fehlenden Schatten und das generell nicht vorhandene AO gerade in diesen Bildschnipseln, mit Wald im Hintergrund und den Büschen vorne, dermaßen stark aus, dass ich fast geneigt bin zu behaupten, dass ein- und dieselbe Szene in Witcher kaum unterschiedlicher aussehen könnte.
Da das Spiel auch so frameratetechnisch auf den Konsolen anfangs häufig in die Knie ging, aber sicher nicht unverständlich. Wenn möglich hätte ich die Performance aber anderswo eingespart.
Auch wenn ich vermute, dass du genau darauf schon eingegangen warst: Der Clou an der Sache ist ja, dass dieser optische Unterschied alles andere als teuer erkauft werden muss.CryTharsis hat geschrieben: Ob man`s mit einem oder mit zwei Fernsehern sieht ist Wurst. Mir ging es darum, dass Unterschiede zwischen low/mittel und high Einstellungen offensichtlicher sind, als die zwischen high und ultra und das ersteres die Relation bei PS4 und Pro darstellen wird, nicht letzeres.
In AC: Syndicate kostet der Wechsel von niedrigen zu hohen Schatten z.B. gerade mal rund drei FPS und die Auswirkungen sind massiv. Ähnliches kann man z.B. auch bei Witcher 3, aber auch den meisten anderen AAA-Spielen beobachten. (Gerade bei den "Gameworks"-Titeln.)
Erst Spielereien, wie PCSS (Ultra) oder HBAO(+) sind es, die letztendlich die großen Performanceeinbrüche herbeiführen.
Hilft halt nur einer PS4 oder X1 nichts, wenn die Spiele so schon mit der heißen Nadel gestrickt wurden, um bestenfalls gerade so das Framerate-Target von 30FPS zu erreichen.