Also ich hab ne 2060 Super und Raytracing spielt bei mir eine Rolle. DLSS machts möglich.MAudioBenny hat geschrieben: ↑23.09.2022 12:14 Ich würde eine RX 6700 non XT nehmen.
Die kostet aktuell 430 Euro… ganz klarer Preisleistungssieger.
Die schlägt auch die 3060 TI.
Ray Tracing spielt doch erst ab der 3070 langsam eine Rolle.
Hardware - Special
Moderatoren: Moderatoren, Redakteure
-
- Beiträge: 1379
- Registriert: 12.03.2008 20:17
- Persönliche Nachricht:
Re: Hardware - Special
- James Dean
- Beiträge: 3602
- Registriert: 04.04.2013 10:05
- Persönliche Nachricht:
Re: Hardware - Special
Würde tatsächlich eher zur AMD greifen, bin aber auch jemand, der in erster Linie auf den Stromverbrauch und dann auf die Leistung schaut. Und in Sachen Stromverbrauch und Preis ist AMD halt leider vorne liegend.
Re: Hardware - Special
Wieso leider? Nvidia ist momentan so ein Saftladen, weil AMD praktisch keinen Marktanteil mehr hat. Mehr Konkurrenz ist immer gut.
Unter einer 3070/80 ist RT imo ziemlich nutzlos.
Und wenn Nvidia bewirbt, dass eine 4090 mit RT und ohne DLSS nur 23fps in Cyberpunk schafft, scheint sich das kaum zu bessern
Den Vorteil, den du durch RT kriegst ist sicherlich aber sehr viel geringer, als was du durch DLSS verlierst. Insbesondere falls du 1080p nutzt. Da ist DLSS ein starkes Downgrade.OchsvormBerg hat geschrieben: ↑23.09.2022 14:26Also ich hab ne 2060 Super und Raytracing spielt bei mir eine Rolle. DLSS machts möglich.
Unter einer 3070/80 ist RT imo ziemlich nutzlos.
Und wenn Nvidia bewirbt, dass eine 4090 mit RT und ohne DLSS nur 23fps in Cyberpunk schafft, scheint sich das kaum zu bessern
Zuletzt geändert von Temeter am 23.09.2022 15:17, insgesamt 1-mal geändert.
Re: Hardware - Special
Ich hab zur Zeit eine 3080 mit 12GB, damit zocke ich alles in 4K und meist 60FPS, bei Cyberpunk schafft die Karte die 60FPS nicht immer, und schalte ich Raytracing dazu geht die Karte in die Knie. FPS im 10er Bereich.
Mit DLSS dagegen sieht das natürlich ganz anders aus, 4K stabile 60FPS und so schöne Raytracing Effekte, das ist echt Erotik pur, kann mich an dem Spiel gar nicht satt sehen.
Leider sieht das Ergebniss von der Karte selber berechnet (ohne DLSS) lange nicht so gut aus.
Zuvor hatte ich die 2080 Super drin, und so viel schlechter sah dort Cyberpunk mit DLSS auch nicht aus.
Daher denke ich das mich der Leistungssprung einer echten 4080 (also die mit den 16GB) auch nicht so viel glücklicher machen würde, zumindest ist mir das keine 1500 Euro wert.
Die 40er Generation werde ich also warscheinlich Überspringen und hoffe Nvidia reist sich endlich wieder am Riemen und bringt mit der 50er besser bezahlbare Karten auf den Markt.
Mit DLSS dagegen sieht das natürlich ganz anders aus, 4K stabile 60FPS und so schöne Raytracing Effekte, das ist echt Erotik pur, kann mich an dem Spiel gar nicht satt sehen.
Leider sieht das Ergebniss von der Karte selber berechnet (ohne DLSS) lange nicht so gut aus.
Zuvor hatte ich die 2080 Super drin, und so viel schlechter sah dort Cyberpunk mit DLSS auch nicht aus.
Daher denke ich das mich der Leistungssprung einer echten 4080 (also die mit den 16GB) auch nicht so viel glücklicher machen würde, zumindest ist mir das keine 1500 Euro wert.
Die 40er Generation werde ich also warscheinlich Überspringen und hoffe Nvidia reist sich endlich wieder am Riemen und bringt mit der 50er besser bezahlbare Karten auf den Markt.
-
- Beiträge: 1379
- Registriert: 12.03.2008 20:17
- Persönliche Nachricht:
Re: Hardware - Special
Ich nutze WQHD. DLSS "Quality" bringt im Schnitt 30% bessere Performance bei besserer Bildqualität und mit "geschenkter" Kantenglättung. In manchen Spielen nutze ich auch niedrigere DLSS-Stufen als Quality. Cyberpunk habe ich mit der Karte auf Raytracing Ultra mit DLSS "Performance" durchgespielt. Es ist unglaublich wie gut das Spiel selbst so noch aussieht, mit einer 2060 Super wohl gemerkt. Ja, man verliert bis zu einem gewissen Grad Bildschärfe, aber der Trade-off ist es wert. In vielen Situationen sieht es tatsächlich aus wie nativ mit dickem Anti-Aliasing.Temeter hat geschrieben: ↑23.09.2022 15:16 Wieso leider? Nvidia ist momentan so ein Saftladen, weil AMD praktisch keinen Marktanteil mehr hat. Mehr Konkurrenz ist immer gut.
Den Vorteil, den du durch RT kriegst ist sicherlich aber sehr viel geringer, als was du durch DLSS verlierst. Insbesondere falls du 1080p nutzt. Da ist DLSS ein starkes Downgrade.OchsvormBerg hat geschrieben: ↑23.09.2022 14:26Also ich hab ne 2060 Super und Raytracing spielt bei mir eine Rolle. DLSS machts möglich.
Unter einer 3070/80 ist RT imo ziemlich nutzlos.
Und wenn Nvidia bewirbt, dass eine 4090 mit RT und ohne DLSS nur 23fps in Cyberpunk schafft, scheint sich das kaum zu bessern
Man braucht keine 3070+ für Raytracing, man muss nur Regler bedienen können.
Re: Hardware - Special
Bessere Performance bei besserer Bildqualität war schon immer Unsinn. Vielleicht bei einem Standbild, aber sobald du die Kamera bewegst, bekommst du Artefakte, insbesondere bei schnellen Bewegungen. Das ist unausweichlich mit DLSS, unabhängig von der Einstellung.OchsvormBerg hat geschrieben: ↑23.09.2022 16:28Ich nutze WQHD. DLSS "Quality" bringt im Schnitt 30% bessere Performance bei besserer Bildqualität und mit "geschenkter" Kantenglättung. In manchen Spielen nutze ich auch niedrigere DLSS-Stufen als Quality. Cyberpunk habe ich mit der Karte auf Raytracing Ultra mit DLSS "Performance" durchgespielt. Es ist unglaublich wie gut das Spiel selbst so noch aussieht, mit einer 2060 Super wohl gemerkt. Ja, man verliert bis zu einem gewissen Grad Bildschärfe, aber der Trade-off ist es wert. In vielen Situationen sieht es tatsächlich aus wie nativ mit dickem Anti-Aliasing.
Man braucht keine 3070+ für Raytracing, man muss nur Regler bedienen können.
Und gerade 1440p mit niedrigen DLSS Einstellungen schaut schon ziemlich schwach aus imo. Ultra ist da gerade noch okay. Das AA mag gut sein, allerdings tauscht du eine Art Artefakt gegen ein anderes aus.
IMO ist das einfach ein mieser trade-off, die RT-Effekte sind relativ subtil, was man vom DLSS kaum sagen kann. Kriegst du überhaupt 60fps hin mit einer 2060 und RT+DLSS in Cyberpunk?
Zuletzt geändert von Temeter am 23.09.2022 18:11, insgesamt 1-mal geändert.
- Master Chief 1978
- Beiträge: 2995
- Registriert: 19.11.2007 15:21
- Persönliche Nachricht:
Re: Hardware - Special
Hatte ich auch schon überlegt, ich möchte die ja Hauptsächlich für mein Durchgemoddetes Skyrim haben wegen der 12 GB VRam, bei 1080p bin ich bei der 1070 bei 81% Auslastung und 1440P bei 93% ein bisschen mehr Luft wäre da gut.MAudioBenny hat geschrieben: ↑23.09.2022 12:14 Ich würde eine RX 6700 non XT nehmen.
Die kostet aktuell 430 Euro… ganz klarer Preisleistungssieger.
Die schlägt auch die 3060 TI.
Ray Tracing spielt doch erst ab der 3070 langsam eine Rolle.
Ansonsten bin ich auch mit der Leistung der 1070 noch sehr zufrieden, 4K und Raytracing brauche ich nicht. Von Daher würde mir eine Mittelklasse Karte in meinem PCIE3Rechner auch völlig reichen.
- Skynet1982
- Beiträge: 294
- Registriert: 24.08.2012 13:37
- Persönliche Nachricht:
Re: Hardware - Special
Für einen 50er mehr ist aktuell beispielsweise sogar eine Sapphire 6700XT Pulse drin. Empfehlenswert, solange man kein Blinki Blinki im Gehäuse braucht.MAudioBenny hat geschrieben: ↑23.09.2022 12:14 Ich würde eine RX 6700 non XT nehmen.
Die kostet aktuell 430 Euro… ganz klarer Preisleistungssieger.
Die schlägt auch die 3060 TI.
Ray Tracing spielt doch erst ab der 3070 langsam eine Rolle.
-
- Beiträge: 1379
- Registriert: 12.03.2008 20:17
- Persönliche Nachricht:
Re: Hardware - Special
Hast Du DLSS überhaupt mal ausgiebig getestet in WQHD? In verschiedenen Spielen? Bessere Performance bei besserer Bildqualität ist nur dann Unsinn, wenn einfach nur Auflösungen hochskaliert werden. Bei DLSS arbeitet ein KI-Algorythmus, der teilweise mehr Details hervorbringt als das native Bild. Es gab in der deutschen Fachpresse sehr gute Tests dazu.Temeter hat geschrieben: ↑23.09.2022 18:10Bessere Performance bei besserer Bildqualität war schon immer Unsinn. Vielleicht bei einem Standbild, aber sobald du die Kamera bewegst, bekommst du Artefakte, insbesondere bei schnellen Bewegungen. Das ist unausweichlich mit DLSS, unabhängig von der Einstellung.OchsvormBerg hat geschrieben: ↑23.09.2022 16:28Ich nutze WQHD. DLSS "Quality" bringt im Schnitt 30% bessere Performance bei besserer Bildqualität und mit "geschenkter" Kantenglättung. In manchen Spielen nutze ich auch niedrigere DLSS-Stufen als Quality. Cyberpunk habe ich mit der Karte auf Raytracing Ultra mit DLSS "Performance" durchgespielt. Es ist unglaublich wie gut das Spiel selbst so noch aussieht, mit einer 2060 Super wohl gemerkt. Ja, man verliert bis zu einem gewissen Grad Bildschärfe, aber der Trade-off ist es wert. In vielen Situationen sieht es tatsächlich aus wie nativ mit dickem Anti-Aliasing.
Man braucht keine 3070+ für Raytracing, man muss nur Regler bedienen können.
Und gerade 1440p mit niedrigen DLSS Einstellungen schaut schon ziemlich schwach aus imo. Ultra ist da gerade noch okay. Das AA mag gut sein, allerdings tauscht du eine Art Artefakt gegen ein anderes aus.
IMO ist das einfach ein mieser trade-off, die RT-Effekte sind relativ subtil, was man vom DLSS kaum sagen kann. Kriegst du überhaupt 60fps hin mit einer 2060 und RT+DLSS in Cyberpunk?
Natürlich ist das System nicht perfekt, aber gerade bei eher schwache GPUs ist es eine echte Offenbarung. Ohne DLSS hätte ich Cyberpunk runterschrauben müssen bis zum geht nicht mehr. So konnte ich es mit maximalen Details spielen. Mit DLSS Performance sieht das Spiel in seinen besten Momenten aus wie nativ mit hochwertiger Kantenglättung, in seinen schlechtesten Momenten wie nativ mit aggressivem FXAA. Und wahrnehmbare Artefakte hatte ich in Cyberpunk trotz DLSS Performance nur bei den Straßenmarkierungen auf Entfernung. Das Spiel lief so für mich anständig spielbar, die meiste Zeit mit um die 60 FPS, in Kämpfen mit vielen Gegnern auch weniger. Das ist immernoch besser als auf den Konsolen.
In Anderen Spielen wird so mehr oder weniger pauschal DLSS Quality aktiviert. Das ist ein Performance Boost von rund 30% und es sieht definitiv deutlich besser aus als nativ ohne Kantenglättung. Es sieht auch besser aus als nativ mit mittelmäßiger Kantenglättung.
Re: Hardware - Special
Jop, der legendäre KI-Algorythmus. DLSS 1 hat das KI-Zeugs benutzt, und das Ergebnis war miserabel. Und das ist übrigens keine "intelligente KI", sondern einfach nur ein vorgefertigtes neurales Netz. Die "KI" läuft bei Nvidia und rechnet die Einstellungen aus und das nutzt deine Karte.OchsvormBerg hat geschrieben: ↑24.09.2022 10:05Hast Du DLSS überhaupt mal ausgiebig getestet in WQHD? In verschiedenen Spielen? Bessere Performance bei besserer Bildqualität ist nur dann Unsinn, wenn einfach nur Auflösungen hochskaliert werden. Bei DLSS arbeitet ein KI-Algorythmus, der teilweise mehr Details hervorbringt als das native Bild. Es gab in der deutschen Fachpresse sehr gute Tests dazu.
DLSS 2.0 hat das alles über Bord geworfen und ist im Grunde enfach temporales Upscaling, sprich es vergleicht Frames und übernimmt Pixel. Deswegen mag ein Standbild mit wenig Bewegung toll aussehen, aber mach eine schnelle Drehung, oder hab Details vor hellem Hintergrund, oder helle Lichtpunkte, und du kriegst ordentliche Artefakte. Komplexere Strukturen sehen manchmal verfälscht aus.
Erinnert mich fast ein bisschen an Motion Blur.
KA wieso da irgendwer immer noch "besser als Nativ" erzählen will, oder als ob da eine magische KI Details hinzupinselt.
Zuletzt geändert von Temeter am 24.09.2022 11:27, insgesamt 2-mal geändert.
Re: Hardware - Special
Diskussion glaube ich kannst dir sparen. Er versucht immer noch Leuten einzureden dass es schlechter sein muss anstatt einfach mal zu glauben dass Personen ihren eigenen Augen schon trauen können.OchsvormBerg hat geschrieben: ↑24.09.2022 10:05
Hast Du DLSS überhaupt mal ausgiebig getestet in WQHD? In verschiedenen Spielen? Bessere Performance bei besserer Bildqualität ist nur dann Unsinn, wenn einfach nur Auflösungen hochskaliert werden. Bei DLSS arbeitet ein KI-Algorythmus, der teilweise mehr Details hervorbringt als das native Bild. Es gab in der deutschen Fachpresse sehr gute Tests dazu.
Bleibt einem doch selber überlassen was einem wichtig ist und besser gefällt. Gibt nun mal gute Upscalingmethoden. DLSS 2.3 hat schon weit weniger Artefakte als Früher.
Welbst wenn man DLSS aus lässt hast zu 95% Heute nur TAA in Spielen als Kantenglättung. Sorgt A: selber für genug Artefakte wie Ghosting und B: macht zu 60% auf nativen 4k Bild eine WQHD Auflösung (oder WQHD zu Full HD) in der Bildschärfe daraus. Weil es nun mal weichzeichnet. Desegen gibt es schon Spiele due extra Nachschärferegler haben.
Von Artefakten bei Haarstränen ganz abgesehen.
Man hat so oder so immer irgemdwo einen Nachteil.
Was ich bei DLSS, FSR 2.0 oder guten TAAU gut finde ist dass man oft nur 1x die Grafiksetting einstellen muss. Zu oft hast Spiele wo ersten Level locker in 4k/60 gehen aber sobald such Welt etwas öffnet oder mehr Effekte dazukommen schafft GPU keine 1440-1600p mehr mit hohen Setting.
Mich persönlich nervt es wenn man ständig neu Nachregeln muss. Sache die auch bei Konsolen angenehm ist weil msn Spiel dann auch zockt anstatt im Grafikmenü rumzuhängen.
Selbst unabhöngig vor RT sind neue Engine wie UE5 recht Leistungshungrig. Schaffst mit Top-Karten auch kaum mehr als 1440p/60 und musst eher 1080p mit Epic eigenem TAAU verwenden wenn man konstante Performance will.
Wird sich bei den immer schwieriger werdenen Grafiksprüngen nicht vermeiden lassen hier da gute Upscaler zu verwenden. Jede kleine Grafikverbesserung frisst immer mehr Leistung. Ohne RT schon.
DLSS und Co kann allein schon bei Problemen mit Speicherbandbreite und großen Texturen helfen ohne dass man 24GB GPU benötigt.
Soll Jeder einstellen was er will in Sachen Auflösung, Effekte und Framerate.
Mehr Optionen wie DLSS, FSR oder TAAU sind doch immer gut.
Eigenen Augen müssen entscheiden was auf dem Bildschirm gefällt.
Zuletzt geändert von Leon-x am 24.09.2022 11:35, insgesamt 1-mal geändert.
-PC
-Playstation 5
-Nintendo Switch
-Xbox Series X
-Playstation 5
-Nintendo Switch
-Xbox Series X
-
- Beiträge: 1379
- Registriert: 12.03.2008 20:17
- Persönliche Nachricht:
Re: Hardware - Special
Stimmt nicht. Auch DLSS 2.X trainiert anhand von 16K Bildern sein neuronales Netzwerk an und fügt so Details in Spielen hinzu.Temeter hat geschrieben: ↑24.09.2022 11:25 Jop, der legendäre KI-Algorythmus. DLSS 1 hat das KI-Zeugs benutzt, und das Ergebnis war miserabel. Und das ist übrigens keine "intelligente KI", sondern einfach nur ein vorgefertigtes neurales Netz. Die "KI" läuft bei Nvidia und rechnet die Einstellungen aus und das nutzt deine Karte.
DLSS 2.0 hat das alles über Bord geworfen und ist im Grunde enfach temporales Upscaling, sprich es vergleicht Frames und übernimmt Pixel. Deswegen mag ein Standbild mit wenig Bewegung toll aussehen, aber mach eine schnelle Drehung, oder hab Details vor hellem Hintergrund, oder helle Lichtpunkte, und du kriegst ordentliche Artefakte. Komplexere Strukturen sehen manchmal verfälscht aus.
Erinnert mich fast ein bisschen an Motion Blur.
KA wieso da irgendwer immer noch "besser als Nativ" erzählen will, oder als ob da eine magische KI Details hinzupinselt.
Und ich bleib dabei, Du hast DLSS 2.X nie richtig getestet, sonst würdest Du sowas nicht behaupten. Warzone und BF 2042 lassen sich mit DLSS wunderbar spielen, trotz schneller Bewegungen und ohne Motion Blur oder störende Artefakte.
Re: Hardware - Special
Intels Lösung scheint noch einige Schwierigkeiten zu haben:
Rest ist je nach Game und Version schon weiter. Zeigt auch dass es Vorteile gegenüber Nativ und TAA hat.
Rest ist je nach Game und Version schon weiter. Zeigt auch dass es Vorteile gegenüber Nativ und TAA hat.
-PC
-Playstation 5
-Nintendo Switch
-Xbox Series X
-Playstation 5
-Nintendo Switch
-Xbox Series X
Re: Hardware - Special
Ach, und wie genau fügt es Details in Spiele ein? Spoiler: Tut es eben nicht. Du weißt vermutlich nicht mal, was für eine KI die da überhaupt nutzen. Das ganze ist sehr viel banaler, als es sich anhört.OchsvormBerg hat geschrieben: ↑24.09.2022 11:50Stimmt nicht. Auch DLSS 2.X trainiert anhand von 16K Bildern sein neuronales Netzwerk an und fügt so Details in Spielen hinzu.
Sorry man, aber gerade diese Art Missverständnis ist, warum ich gerne DLSS kritisiere, auch wenn es eine interessante Technik ist.
Was Nvidia bei DLSS 2 macht, es nutzt die "KI", um die richtigen Einstellungen zu finden, bei denen so wenig wie möglich von den Details verloren geht. Dafür ist das 16K Bild da. Die KI "merkt" sich keine Details, das wäre nahezu unmöglich umzusetzen. Aber du kannst halt ein neuronales Netz rausrechnen, um zu sehen, wie die Pixel übernimmst und wie du Qualität beibehälst.
Und auf der GPU laufen diese Einstellungen, und keine "echte" KI.
Das kannst du dir ruhig einreden. Die Artefake sind objektiv da und unvermeidlich, ob du sie nun bemerkst oder nicht.Und ich bleib dabei, Du hast DLSS 2.X nie richtig getestet, sonst würdest Du sowas nicht behaupten. Warzone und BF 2042 lassen sich mit DLSS wunderbar spielen, trotz schneller Bewegungen und ohne Motion Blur oder störende Artefakte.
Zuletzt geändert von Temeter am 24.09.2022 12:52, insgesamt 1-mal geändert.
Re: Hardware - Special
Du siehst aber auch die Verzerrung bei DLSS bei dem sich bewegenden Charachteren, und jede Kamerabewegung wird das gleiche Problem noch stärker haben. Das ist halt der Kompromiss beim Upscaling.
19:10 zeigt auch gut, wie schon eine leichte, nichtlineare Kamerabewgung Probleme verursachen kann. Du siehst teils verschwommene Texturen oder flackernde Lichter. Das meine ich mit Artefakten und verminderter Bildqualität.
Das ist für mich ein ziemlich klares Downgrade.
Wobei temporales Upscaling bei 4K generell sicher eine tolle Sache ist; das konnte ich persönlich noch nicht testen, aber ist halt extrem teuer in Sachen frames sonst. Temporales scaling bei 1080p ist grausig, aber wenn du bei 4K ankommst, ist die grundlegende Render-Auflösung meist schon so hoch, dass die Probleme minimiert werden. 1440p finde ich dagegen eher ein bissl enttäuschend.
Trotzdem hoffe ich, dass temporales Zeugs noch ein bissl getunt wird (und AMD und Intel weiter nachlegen). Ich nutze eine 144hz-Bildschirm, weil mir flüssige Bewegungen und minimaler Blur/Artefakte/Lag sehr wichtig sind.
Selbst TAA finde ich oft nervig mit seinen Artefakten, auch wenn es die beste Lösung für natives AA ist (abseits von supersampling).
Zuletzt geändert von Temeter am 24.09.2022 13:17, insgesamt 4-mal geändert.