Raytracing in der Series X Hardware
Moderatoren: Moderatoren, Redakteure
Raytracing in der Series X Hardware
In der GameStar gibts aktuell einen Artikel (Heft) über die HW der Series X mit der Angabe, dass pro CU (Computing Unit, die Series X hat 52), 4 Texture Shader und 4 Raytracingkerne zur Verfügung stehen. Pro CU können also 4 pro Takt angesprochen werden (entweder 4x Raytracing Core, 4x Texture Shader, oder 2xRT, 2x TextureS etc.).
Der GPU Takt liegt bei 1825 MHz.
Zum Vergleich, bei der RTX 2080 Ti sind es pro SM (Streaming-Miltiprocessor, also analog zu den CUs bei AMD) nur 1 Raytracingkern. Die RTX 2080 Ti hat 72 SM.
Der Basistakt der GPU liegt bei 1350 MHz, der Boost Takt geht auf bis zu 1545 MHz. Wir gehen im Folgenden von einem dauerhaften Boost aus.
Insgesamt liegt also die Anzahl der möglichen angesteuerten Raytracingkerne bei der XSX bei bis zu 208 pro Takt, verglichen zu den 72 der RTX 2080 Ti...und wir wissen wie mäßig die Raytracinperformance der 2080 Ti ist.
Pro Sekunde schafft die XSX also bis zu knapp 380.000 Raytracing-Rechenoperationen.
Die RTX 2080 Ti kommt auf etwa 111.200 pro Sekunde. Selbst wenn also nur jeden zweiten Takt die RT-Kerne von der XSX genutzt werden, liegt die Anzahl der Berechnungen pro Sekunde noch 71% über der Raytracingperformance der RTX 2080 Ti.
Bei den Berichten der RTX 3080 sieht es dagegen deutlich besser aus.
Nun zu meiner Frage, hat jemand die Info zur Anzahl der SMs bei der RTX 3080 und wieviele Raytracingcores pro SM verbaut sind?
Im Gegensatz zur RTX20xx Reihe erwarte ich dass eine brauchbare Raytracingpower von der XSX gestemmt werden kann, anstatt nur homöopathisch ein paar Effektchen mit mieser Performance abzuliefern. Der Vergleich zur RTX 3080 wäre allerdings interessant.
Mir ist natürlich bewusst, dass ich zwei unterschiedliche Hardwarelösungen der Raytracingkerne miteinander vergleiche. Wie sich die Performance schlussendlich schlägt, kann nur ein fundierter Test bei dem gleichen Spiel auf den unterschiedlichen Plattformen zeigen (*hust* Cyberpunk). Finde aber an der Stelle die technische Diskussion interessant.
Der GPU Takt liegt bei 1825 MHz.
Zum Vergleich, bei der RTX 2080 Ti sind es pro SM (Streaming-Miltiprocessor, also analog zu den CUs bei AMD) nur 1 Raytracingkern. Die RTX 2080 Ti hat 72 SM.
Der Basistakt der GPU liegt bei 1350 MHz, der Boost Takt geht auf bis zu 1545 MHz. Wir gehen im Folgenden von einem dauerhaften Boost aus.
Insgesamt liegt also die Anzahl der möglichen angesteuerten Raytracingkerne bei der XSX bei bis zu 208 pro Takt, verglichen zu den 72 der RTX 2080 Ti...und wir wissen wie mäßig die Raytracinperformance der 2080 Ti ist.
Pro Sekunde schafft die XSX also bis zu knapp 380.000 Raytracing-Rechenoperationen.
Die RTX 2080 Ti kommt auf etwa 111.200 pro Sekunde. Selbst wenn also nur jeden zweiten Takt die RT-Kerne von der XSX genutzt werden, liegt die Anzahl der Berechnungen pro Sekunde noch 71% über der Raytracingperformance der RTX 2080 Ti.
Bei den Berichten der RTX 3080 sieht es dagegen deutlich besser aus.
Nun zu meiner Frage, hat jemand die Info zur Anzahl der SMs bei der RTX 3080 und wieviele Raytracingcores pro SM verbaut sind?
Im Gegensatz zur RTX20xx Reihe erwarte ich dass eine brauchbare Raytracingpower von der XSX gestemmt werden kann, anstatt nur homöopathisch ein paar Effektchen mit mieser Performance abzuliefern. Der Vergleich zur RTX 3080 wäre allerdings interessant.
Mir ist natürlich bewusst, dass ich zwei unterschiedliche Hardwarelösungen der Raytracingkerne miteinander vergleiche. Wie sich die Performance schlussendlich schlägt, kann nur ein fundierter Test bei dem gleichen Spiel auf den unterschiedlichen Plattformen zeigen (*hust* Cyberpunk). Finde aber an der Stelle die technische Diskussion interessant.
- Flux Capacitor
- Beiträge: 3082
- Registriert: 20.09.2016 12:49
- Persönliche Nachricht:
Re: Raytracing in der Series X Hardware
Du kannst es nicht 1:1 vergleichen, genau wegen deinem Beispiel! Anscheinend - gemäss aktuellen Infos - beruht AMDs Ray Tracing auf den CUs, welche entweder/oder können. Dies bedeutet dass es keine eigentlichen, dedizierten RT Kerne sind, sondern einfach Kerne die auch RT können.BigSpiD hat geschrieben: ↑19.09.2020 18:12 In der GameStar gibts aktuell einen Artikel (Heft) über die HW der Series X mit der Angabe, dass pro CU (Computing Unit, die Series X hat 52), 4 Texture Shader und 4 Raytracingkerne zur Verfügung stehen. Pro CU können also 4 pro Takt angesprochen werden (entweder 4x Raytracing Core, 4x Texture Shader, oder 2xRT, 2x TextureS etc.).
Der GPU Takt liegt bei 1825 MHz.
Zum Vergleich, bei der RTX 2080 Ti sind es pro SM (Streaming-Miltiprocessor, also analog zu den CUs bei AMD) nur 1 Raytracingkern. Die RTX 2080 Ti hat 72 SM.
Der Basistakt der GPU liegt bei 1350 MHz, der Boost Takt geht auf bis zu 1545 MHz. Wir gehen im Folgenden von einem dauerhaften Boost aus.
Was der Series X also zu gute kommt ist, dass sie mit 52 CUs grundsätzlich mehr Stauraum für RT Effekte hat, im Gegensatz zur PS5. Wenn also ein Spiel 1:1 die gleiche Performance auf PS5 und Series X hat und man - theoretisch - davon ausgeht dass bei der PS5 um die 15 Kerne für das RT beschäftigt sind, dann bleiben dort 21 CUs übrig. Bei der der Series X wären es ganze 37 CUs übrig. Also nur als Gedankenspiel. Evtl. performt die PS5 auch etwas besser wegen dem schnelleren Takt und braucht dann "nur" 10 Kerne für das RT während die Series X 12 aufwerfen muss.
Grundsätzlich ist nVidia was RT angeht also nach wie vor interessanter da man auch wirklich Hardware rein für diesen Zweck auf den GPUs hat, aber der Ansatz von AMD dafür universeller. Zumindest soweit ich den ganzen Tech-Talk der letzten Wochen verstanden habe.
i am not crazy, i just dont give a fuck! (Night of the Comet - 1984)
Re: Raytracing in der Series X Hardware
Ja stimmt allerdings, wobei die GPU Frequenz der PS5 nicht viel retten kann, da der hohe Wert nur im Boost zur Verfügung steht. Also bei rechen- und speicherintensiven Szenen wird also der Takt zwangsläufig nicht gehalten werden können, da das Energiebudget fest ist. Also wirklich intensive Szenen, in denen normalerweise „der Lüfter hoch dreht“ werden bei der PS5 durch eine niedrigere Auflösung und Qualität abgedämpft. Ist natürlich angenehmer für die Lautstärke und Hitzeentwicklung der Konsole, aber nicht zu einem Preis den ich angemessen finde (Praxistests werden es zeigen müssen).
Auch nicht in jeder Spielszene ist es nötig die geballte Raytracingpower auszuschöpfen, daher ist der variable Ansatz von AMD gar nicht verkehrt, was den Stromverbrauch betrifft. Da hat Nvidia in der aktuellen Gen leider geschlampt (ich weiß jetzt kommt wieder Leistung pro Watt blabla, aber man benötigt dennoch ein viel stärkeres Netzteil und der Stromverbrauch ist einfach deutlich höher).
Was aber allein rechnerisch deutlich wird, ist dass Die RDNA2 Architektur effizienter arbeitet in Sachen Raytracing und Texturshader, als Pascal von Nvidia. Mich würde es nur für Ampere interessieren, da ich hier noch keine Zahlen finden konnte. Denn den Leistungssprung von Pascal -> Ampere kennen wir...dann könnte sich daraus ableiten, wie die XSX performt.
Man kann aber jetzt schon sagen, dass Raytracing hier kein PR-Stunt ist, wie bei der RTX2000 Reihe.
Auch nicht in jeder Spielszene ist es nötig die geballte Raytracingpower auszuschöpfen, daher ist der variable Ansatz von AMD gar nicht verkehrt, was den Stromverbrauch betrifft. Da hat Nvidia in der aktuellen Gen leider geschlampt (ich weiß jetzt kommt wieder Leistung pro Watt blabla, aber man benötigt dennoch ein viel stärkeres Netzteil und der Stromverbrauch ist einfach deutlich höher).
Was aber allein rechnerisch deutlich wird, ist dass Die RDNA2 Architektur effizienter arbeitet in Sachen Raytracing und Texturshader, als Pascal von Nvidia. Mich würde es nur für Ampere interessieren, da ich hier noch keine Zahlen finden konnte. Denn den Leistungssprung von Pascal -> Ampere kennen wir...dann könnte sich daraus ableiten, wie die XSX performt.
Man kann aber jetzt schon sagen, dass Raytracing hier kein PR-Stunt ist, wie bei der RTX2000 Reihe.
Re: Raytracing in der Series X Hardware
Pascal und Raytracing?
Ich mein, das geht zwar mit ein paar Tricks, aber die Architektur hat doch gar keine Hardware dafür, klar ist das nicht effizient. Sicher dass du nicht eine der Architekturen zwischen Pascal und Ampere meinst, also Volta oder Turing?
Ich mein, das geht zwar mit ein paar Tricks, aber die Architektur hat doch gar keine Hardware dafür, klar ist das nicht effizient. Sicher dass du nicht eine der Architekturen zwischen Pascal und Ampere meinst, also Volta oder Turing?
Re: Raytracing in der Series X Hardware
Öh ich weiß nicht was für einen Wurm ich im Kopf hatte, aber du hast natürlich Recht Hab die falschen genannt.yopparai hat geschrieben: ↑25.09.2020 23:59 Pascal und Raytracing?
Ich mein, das geht zwar mit ein paar Tricks, aber die Architektur hat doch gar keine Hardware dafür, klar ist das nicht effizient. Sicher dass du nicht eine der Architekturen zwischen Pascal und Ampere meinst, also Volta oder Turing?
-
- Beiträge: 1379
- Registriert: 12.03.2008 20:17
- Persönliche Nachricht:
Re: Raytracing in der Series X Hardware
Vollkommen richtig, zumal man überhaupt noch nicht sagen kann wie sich die CUs der Series X zu den dedizierten Raytracing-Kernen von Nvidia verhalten. Vllt. leistet 1 RT Core auf der RTX 2080Ti so viel wie 2 Kerne in der Series X. Da Nvidia dedizierte RT Kerne verbaut, lässt sich vermuten, dass diese effizienter sind.Flux Capacitor hat geschrieben: ↑24.09.2020 08:02Du kannst es nicht 1:1 vergleichen, genau wegen deinem Beispiel! Anscheinend - gemäss aktuellen Infos - beruht AMDs Ray Tracing auf den CUs, welche entweder/oder können. Dies bedeutet dass es keine eigentlichen, dedizierten RT Kerne sind, sondern einfach Kerne die auch RT können.BigSpiD hat geschrieben: ↑19.09.2020 18:12 In der GameStar gibts aktuell einen Artikel (Heft) über die HW der Series X mit der Angabe, dass pro CU (Computing Unit, die Series X hat 52), 4 Texture Shader und 4 Raytracingkerne zur Verfügung stehen. Pro CU können also 4 pro Takt angesprochen werden (entweder 4x Raytracing Core, 4x Texture Shader, oder 2xRT, 2x TextureS etc.).
Der GPU Takt liegt bei 1825 MHz.
Zum Vergleich, bei der RTX 2080 Ti sind es pro SM (Streaming-Miltiprocessor, also analog zu den CUs bei AMD) nur 1 Raytracingkern. Die RTX 2080 Ti hat 72 SM.
Der Basistakt der GPU liegt bei 1350 MHz, der Boost Takt geht auf bis zu 1545 MHz. Wir gehen im Folgenden von einem dauerhaften Boost aus.
- KalkGehirn
- Beiträge: 1843
- Registriert: 26.10.2014 22:05
- Persönliche Nachricht:
Re: Raytracing in der Series X Hardware
Super Nintendo - PlayStation3 - PlayStation4 - Mega Drive - Sega Saturn
- Flux Capacitor
- Beiträge: 3082
- Registriert: 20.09.2016 12:49
- Persönliche Nachricht:
Re: Raytracing in der Series X Hardware
Dass die Series S Ray Tracing in diesem Umfang kann erstaunt schon.
i am not crazy, i just dont give a fuck! (Night of the Comet - 1984)
- KalkGehirn
- Beiträge: 1843
- Registriert: 26.10.2014 22:05
- Persönliche Nachricht:
Re: Raytracing in der Series X Hardware
Bei watch dogs legion mit RT und dynamischen 4k, leicht unterhalb einer rtx2060s
Ohne RT bei Gears of War, fast auf dem Level einer 2080!
Find ich alles schon sehr beeindruckend für eine 500€ Konsole.
Die "S" leider wie befürchtet mit Auflösungen unter 1080p
Super Nintendo - PlayStation3 - PlayStation4 - Mega Drive - Sega Saturn
Re: Raytracing in der Series X Hardware
Zu bedenken ist, dass Spiele für Konsolen sehr viel optimierter sind und deshalb mehr leistung bringen könnten als die RTX 20er Serien.