Notiz CB-Funk-Podcast #16: Der große Community-Benchmark zu Cyberpunk 2077

Vitche

Redakteur
Teammitglied
Registriert
Aug. 2016
Beiträge
3.131
Zurück aus dem Urlaub und damit wieder "live", widmen sich Jan und Fabian in dieser Woche drei Themen, an denen die Community maßgeblich beteiligt war: Dem Community-Benchmark zu Pathtracing in Cyberpunk 2077, der Sonntagsfrage zum Umgang der Leser mit neuen Grafiktreibern und dem ambivalenten Echo zur RTX 4070.

Zur Notiz: CB-Funk-Podcast #16: Der große Community-Benchmark zu Cyberpunk 2077
 
  • Gefällt mir
Reaktionen: Hellyeah, BeezleBug, flo.murr und 6 andere
Die Community-Benchmarks sind wirklich eine super Idee, obwohl ich doch stark bezweifel das manche der CPU/ GPU Kombinationen wirklich so im Alltag laufen.
Ich glaube nicht, dass wir in ein paar Jahren Pathtracing bei der nächsten Konsolengeneration sehen werden, es sei denn die haben einen nVidia Chip oder AMD holt massiv auf was Raytracing angeht. Ich bin schon extrem gespannt was die Nextgen Konsolen kosten werden, wenn man sieht wie sich die Grafikkartenpreise entwickelt haben.
Wieso sprecht ihr das eigentlich immer Pestracing aus? :D
 
  • Gefällt mir
Reaktionen: Jan
Hat Spaß gemacht, merci. :cool_alt:
 
  • Gefällt mir
Reaktionen: Vitche
War wieder ein hörenswerter Podcast. Qualität war für mich auch wieder Spitze. Die angesprochenen Themen gefielen mir auch sehr gut. Ich bin auch schon auf euer SSD Podcast gespannt. Discord habe ich zwar, aber nutze ich sehr selten. Müsste ich sonst mal euch und PCGH drin idlen, wenn idlen schon was bringt.
 
  • Gefällt mir
Reaktionen: Vitche und Jan
Tja, das war wohl eher ein nVidia (Ada Lovelace RTX 4080 und 4090) Marketing Podcast fuer ein einseitig auf RT-PT optimiertes Spiel im Community Test und somit fuer mich dann irgendwann vergeudete Zeit, nachdem das naechste Thema dann angeblich mangelnde AMD/RTG Treiberkritik war, als ob das bei nVidia nie ein Thema gewesen waere in den letzten Jahren (Hauptsache Klischees werden gepflegt).

Schade, dieser Podcast war m.M.n. sehr schwach und wer versucht absurde 400% Mehrleistung einer RTX 4090 ueber einer RX 7900XTX in einem Spiel zu rationalisieren, wobei eine bewusst einseitige Optimierung auf nVidia Grafikkarten offensichtlich ist (das zu kritisieren die Aufgabe von kompetenten Journalisten gewesen waere, anstatt es zu rechtfertigen, als ob man fuer den verantwortlichen Entwickler (CDPR) oder deren Spielsponsor (nVidia) arbeiten wuerde), der gibt sich nicht einmal ansatzweise Muehe zu einer professionell-objektiven/neutralen Berichterstattung und den faellt es schwer ernst zu nehmen.

Bleibt also gerne weiter in Eurem Enthusiasten-Elfenbeinturm @Vitche und @Jan und mit solch abgehobenen Podcasts verliert Ihr meiner Einschaetzung nach eher Leser/Zuhoerer, die noch normale Preis-(Leistungs-)Vorstellungen und Gaming-Grafikkarten haben und nicht solche Marketingspiel/-technik-Aktionen eines Chipentwicklers lobhudeln und sich von so einer von Euch abgesegneten Momentaufnahme blenden lassen.
 
Zuletzt bearbeitet:
Chismon schrieb:
fuer ein einseitig auf RT-PT optimiertes Spiel
Na, ist doch gut, dass es optimiert ist, sonst könnten wir derart beeindruckende Grafik derzeit noch nicht flüssig spielen. ;)

Chismon schrieb:
nachdem das naechste Thema dann angeblich mangelnde AMD/RTG Treiberkritik war, als ob das bei nVidia nie ein Thema gewesen waere in den letzten Jahren (Hauptsache Klischees werden gepflegt).
Wir sind neutral auf die Umfrageergebnisse der Sonntagsfrage eingegangen. Und da sind schwerwiegende Treiberprobleme bei rund 2.000-Radeon-Nutzern halt 60 Prozent häufiger aufgetreten als bei 3.000 GeForce-Nutzern. Ja, das ist blöd, das sollte so nicht sein, aber wir denken uns das ja nicht aus.

Chismon schrieb:
versucht absurde 400% Mehrleistung einer RTX 4090 ueber einer RX 7900XTX in einem Spiel zu rationalisieren, wobei eine bewusst einseitige Optimierung auf nVidia Grafikkarten offensichtlich ist
Wir haben doch mehrfach angesprochen, dass hier eindeutig für Ada Lovelace optimiert wurde und nicht für AMD? Aber noch einmal: Anders wäre das Spiel gar nicht lauffähig. Und mein Gedankengang, auf den du dich wahrscheinlich beziehst, war eher: "Eine 4090 kann man eigentlich nicht rechtfertigen, weil sie so teuer ist, aber mit diesem Spiel hat man da immerhin mal ein schlagkräftiges Argument und nicht nur 30 Prozent mehr FPS."

Chismon schrieb:
(das zu kritisieren die Aufgabe von kompetenten Journalisten gewesen waere, anstatt es zu rechtfertigen, als ob man fuer den verantwortlichen Entwickler (CDPR) oder deren Spielsponsor (nVidia) arbeiten wuerde), der gibt sich nicht einmal ansatzweise Muehe zu einer professionell-objektiven/neutralen Berichterstattung.
Objektiver als (nicht einmal eigene) handfeste Benchmark-Ergebnisse zu nennen/besprechen kann's ja eigentlich nicht werden. Ich kann dir auch garantieren, dass wir weder von Nvidia noch CDPR bezahlt werden. Aber was sollen wir denn da auch groß sagen? Ja, es läuft auf Radeon nicht (gut). Ja, es ist auch nicht für Radeon optimiert. Ob es (wesentlich besser) laufen würde, wenn es optimiert wäre? Wahrscheinlich immer noch wesentlich schlechter als auf RTX 4000 (weniger (Raytracing-)Leistung, kein SER, kein DLSS 3). Aber wir können es nicht wissen.

Im Ernst, was sollen wir denn da kritisieren? Klar, die Preise sind hoch, aber darum ging es in dieser Episode ja gar nicht und das war in vorherigen Folgen schon oft genug Thema. Es ging diesmal um beeindruckende Next-Gen-Grafik und wie man sie derzeit (schon) erleben kann. Natürlich ist das ein Thema für Enthusiasten, aber die machen halt einen großen Teil unserer Community aus. Ich hab aber ebenso angemerkt, dass diese Entwicklung grafisch zu einer Zwei-Klassen-Gesellschaft führ und man in Cyberpunk wiederum genauso Spaß haben kann, wenn man auf einer Xbox One spielt. Aber das ist ja nicht der Punkt bei technischem/grafischem Fortschritt, den wir hier eben besprochen haben.

Chismon schrieb:
Bleibt also gerne weiter in Eurem Enthusiasten-Elfenbeinturm @Vitche und @Jan und mit solch abgehobenen Podcasts verliert Ihr meiner Einschaetzung nach eher Leser/Zuhoerer, die noch normale Preis-(Leistungs-)Vorstellungen und Gaming-Grafikkarten haben und nicht solche Marketingspiel/-technik-Aktionen eines Chipentwicklers lobhudeln und sich von so einer von Euch abgesegneten Momentaufnahme blenden lassen.
Ich verstehe den Frust durch die hohen Preise, wirklich. Aber das kann doch auch nicht dazu führen, dass wir alle neuen Entwicklungen nur noch durch die Bank darauf reduzieren und kaputtreden sollen. Nvidia und CDPR erreichen hier in einem Pilotprojekt einen Meilenstein der Videospielgrafik .. und wir betreiben Marketing, wenn wir das loben? Seufz.

Wirklich, ich bin dankbar für jede Kritik, ich werde auch dein Feedback mit Jan besprechen. Direkt zu suggerieren, der Podcast wäre Werbung bzw. wir von Nvidia/CDPR bezahlt, muss natürlich wirklich nicht sein. Und ehrlich gesagt sehe ich in diesem Fall auch nicht die Grundlage der Kritik. Also: Was hätten wir denn als kompetente Journalisten deiner Meinung nach konkret sagen sollen, was hat dir konkret gefehlt?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: karl_laschnikow und BrollyLSSJ
Vitche schrieb:
Und da sind schwerwiegende Treiberprobleme bei rund 2.000-Radeon-Nutzern halt 60 Prozent häufiger aufgetreten als bei 3.000 GeForce-Nutzern.
Ich halte es für schwierig Anteile relativ zu vergleichen.

Ja 15,2 % sind 60% häufiger als 9,5%.
Aber 1% wären auch 60% häufiger als 0,63%, obwohl ich da von nahezu gleichen Ergebnissen sprechen würde.
Genauso sind 90% auch 60% häufiger als 56%, obwohl es einen deutlichen Unterschied macht, ob ich 90% Wahrscheinlichkeit habe oder etwas mehr als 50%.

Aus diesem Grund würde ich einen absoluten Vergleich bevorzugen: "Das Risiko von schwerwiegenden Treiberproblemen betroffen zu sein ist für Radeon-Nutzer 5,7 Prozentpunkte höher als für GeForce-Nutzer"

@Chismon liegt die Wurzel deiner Kritik nicht eher in diesem Community-Benchmark an sich, als am Podcast? Der Podcast hat ja lediglich das Thema aufgegriffen.
 
Imho (mal wieder) ein eher schwacher Podcast von CB.

Bei manchen Aussagen kann man eigentlich nur mit dem Kopf schütteln, da einfach falsche oder unbelegte Behauptungen in den Raum gestellt werden.

So behauptet etwa Herr del Monego, es gäbe keine 10 GB AMD-Karte im momentan aktuellen Portfolio. Diese Aussage ist schlicht falsch. Zudem wird die Behauptung aufgestellt, dass Nvidia Karten effizienter mit dem VRAM umgehen, Herr del Monego stellt quasi 10 GB Nvidia 12 GB AMD gleich. Kann diese Behauptung auch anhand von Testresultaten belegt werden?

Herr del Monego spricht von den Ada Lovelace Features ohne diese im Detail zu benennen. Welche sind diese? Ich finde es eher befremdlich als vermeintlich kritische Presse proprietäre Features, welche teilweise nur von der aktuellen Generation unterstützt werden dermaßen zu hypen. Wo bleibt die Herstellerkritik diese Features der Vorgängergeneration vorzuenthalten (von den beiden anderen Konkurrenten am Markt abgesehen). Was steckt da technisch dahinter, dass Features nur auf Ada Lovelace funktionieren?

Oft liest man im Internet, dass einige dieser Ada-Lovelace-Features wie etwa Pathtracing nur mit einer 4090 aufgrund des Ressourcenhungers sinnvoll nutzbar sind. Herr del Monego schliesst da auch die 4080, nicht aber eine schwächere 4070 TI, mit ein. Wenn man bedenkt, dass Herr del Monego selbst eine 4080 besitzt kann diese Aussage schon den Eindruck erwecken, dass sich jemand seinen Kauf schönredet, oder ist das nur ein subjektiver Eindruck meinerseits?
 
Zuletzt bearbeitet:
Jetzt chillt mal alle hier.
Die Podcasts sind gut. Klar ist man nach dem ersten paar mal kein Experte aber gebt Ihnen doch zumindest eine Chance. Hier gäbe es nämlich das Potential ein wirklich gutes Format zu haben. Bisher fand ich die meisten Folgen gut und gerade wenn man nicht jeden einzelnen Test ließt, bekommt man hier gut aufbereitete Informationen. Der Communitybenchmark ist beispielsweise total an mir vorübergegangen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BrollyLSSJ, Rexaris und Vitche
Rexaris schrieb:
Ich halte es für schwierig Anteile relativ zu vergleichen.
Wenn ich mich recht erinnere hat Jan nach meinem relativen Vergleich die absoluten Zahlen genannt. Aber ja, grundsätzlich hast du recht, idealerweise gibt es eben beides.

Athlonscout schrieb:
So behauptet etwa Herr del Monego, es gäbe keine 10 GB AMD-Karte im momentan aktuellen Portfolio. Diese Aussage ist schlicht falsch.
Es gibt die 6700 mitt 10 GB, ja, da hast du recht; danke für den Hinweis. Zu der listet der Preisvergleich aber gerade exakt vier Modelle. Die Karte hat für AMDs aktuelles Portfolio denke ich eine verschwindend geringe Relevanz und stand soweit ich das beurteilen kann schon immer im Schatten der 6700 XT, wohingegen die 3080 mit ihren 10 GB halt sher markant/populär war/ist.

Athlonscout schrieb:
Zudem wird die Behauptung aufgestellt, dass Nvidia Karten effizienter mit dem VRAM umgehen, Herr del Monego stellt quasi 10 GB Nvidia 12 GB AMD gleich. Kann diese Behauptung auch anhand von Testresultaten belegt werden?
10 GB bei Nvidia würde ich nicht direkt mit 12 GB bei AMD gleichsetzen, aber ebensowenig mit 10 GB bei AMD. Die in hunderten Grafikkarten-Benchmarks über die vergangenen Jahre gesammelte Erfahrung der Redaktion hat mehrfach gezeigt, dass GeForce-Karten bzw. -Treiber mit einem besseren/effizienterem Speichermanagement daherkommen. Das lässt sich aber nicht pauschal quantifizieren bzw. auf einen GB-Wert runterbrechen, sondern hängt von Grafikkarte, Treiber und Spiel ab.

Athlonscout schrieb:
Herr del Monego spricht von den Ada Lovelace Features ohne diese im Detail zu benennen. Welche sind diese?
Beispielsweise Shader Execution Reordering, Displaced Micro-Meshes für die Bounding Volume Hierarchie, den Optical Flow Accelerator für DLSS 3 (Test), und eben generell die RT-Kerne der dritten Generation zeichnen mit für die hohe Raytracing-Leistung verantwortlich. Wie du siehst haben wir zu alldem schon berichtet und einige der Features haben wir im Podcast auch im Namen genannt. Aber da an jeder Stelle ausführlich drauf einzugehen würde das Format sprengen.

Weitere Features ohne Bezug auf die RT-Leistung wären bspw. die hohe Effizienz, die starken (AV1-)NVENC-Encoder und die Decoder-Pendants, die GeForce-Treiber mit bspw. Shadowplay oder dem Latency Analyzer oder aber die im allgemeinen deutlich aufgebohrte Kühlung der FEs, aber auch (insbesondere) der Custom-Designs. Einen Überblick über weitere Features von GeForce und Radeon findest du auch in der Grafikkarten-Rangliste.

Athlonscout schrieb:
Ich finde es eher befremdlich als vermeintlich kritische Presse proprietäre Features, welche teilweise nur von der aktuellen Generation unterstützt werden dermaßen zu hypen. Wo bleibt die Herstellerkritik diese Features der Vorgängergeneration vorzuenthalten (von den beiden anderen Konkurrenten am Markt abgesehen). Was steckt da technisch dahinter, dass Features nur auf Ada Lovelace funktionieren?
Nun, Ada Lovelace verfügt über die entsprechenden ALUs, Pipelines und viele einzelne Hardware-Anpassungen, die die älteren Nvidia-Architekturen und RDNA 3 nicht (in dieser Ausbaustufe) bieten. Die neue, aktuelle GPU-Generation ist der vorherigen technisch überlegen. Sollen wir diesen technischen Fortschritt kritisieren, oder worauf willst du hinaus?

Ob DLSS 3 auch auf RTX 3000 lauffähig wäre? Theoretisch wohl schon, weil die Ampere-GPUs auch über den Optical Flow Accelerator verfügt. Für Ada Lovelace wurde dieser aber überarbeitet und ist nun um den Faktor 2 bis 2,5 schneller. Vermutlich sieht Nvidia keinen allzu großen Mehrwert (= Leistungsgewinn) bei einer Implementierung für ältere Grafikkarten. Dass da auch betriebswirtschaftliche Überlegungen mit reinspielen, will ich nicht ausschließen - aber darum geht es ja weder im Community-Benchmark zu RT Overdrive noch im Podcast.

Athlonscout schrieb:
Oft liest man im Internet, dass einige dieser Ada-Lovelace-Features wie etwa Pathtracing nur mit einer 4090 aufgrund des Ressourcenhungers sinnvoll nutzbar sind. Herr del Monego schliesst da auch die 4080, nicht aber eine schwächere 4070 TI, mit ein. Wenn man bedenkt, dass Herr del Monego selbst eine 4080 besitzt kann diese Aussage schon den Eindruck erwecken, dass sich jemand seinen Kauf schönredet, oder ist das nur ein subjektiver Eindruck meinerseits?
Mit RTX 4090 und RTX 4080 sind in UHD mit DLSS Performance + FG 60+ (70+) FPS erreichbar, mit der GeForce RTX 4070 Ti nicht. Welche Grafikkarte bei welcher Auflösung mit welcher Upsampling-Stufe ausreichend schnell ist, um ein flüssiges Spielerlebnis zu ermöglichen, darauf sind wir im Podcast durchaus differenziert eingegangen. Mehr Details liefern die Benchmarks im Community-Test.

Mein Nachname lautet btw Vecellio del Monego. ;)

Tenferenzu schrieb:
Jetzt chillt mal alle hier.
[...] Bisher fand ich die meisten Folgen gut und gerade wenn man nicht jeden einzelnen Test ließt bekommt man hier gut aufbereitete Informationen. Der Communitybenchmark ist beispielsweise total an mir vorübergegangen.
Danke. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: karl_laschnikow, BrollyLSSJ, Rexaris und 3 andere
Vitche schrieb:
Bitte :D

Natürlicherweise interessiert nicht jeden jedes Thema. Mich lassen beispielsweise Spielebenchmarks absolut kalt, da die Spiele, die ich spiele meist auch auf einer sprichwörtlichen Kartoffel laufen würden. Ich spiele lieber Schlacht um Mittelerde oder Gothic Mods. Da reicht gefühlt die iGPU für 4k60. CPUs sind heutzutage auch schnell genug dafür. Klar spiele ich hin und wieder mal was moderneres, wie Witcher 3 o.Ä. aber selbst das ist mittlerweile 8(!!!) Jahre alt. Die restliche Zeit benötige ich einen halbwegs kompakten Laptop mit zumindest 4h Akkulaufzeit zum Arbeiten. Wenn das Ding dann auch noch keine GPU hat, bin ich nicht mal sauer, da es für mich eh gefühlt immer ausreicht. 720p sehen auf 32"4k oder 14"1080p immer noch gut genug aus. Ja, ich hätte auch gerne mehr SC Leistung da laut Geekbench6 aktuelle CPUs mittlerweile bis zu 4,5x so schnell sind im SC aber mein Laptop muss noch durchhalten, bis zum Einreichen der Diplomarbeit/dem Studienabschluss. Was danach kommt kann ich noch nicht sagen, da ich nicht weiß, wie mein Anforderungsprofil sein wird. Vermutlich wird's dort aber darauf hinauslaufen, dass ich erst in ein NAS investiere und nicht in einen Gamingrechner.

Die meisten Multiplayer Spiele lassen mich mittlerweile auch absolut kalt da ich schlicht nicht mehr die Zeit habe mich da einzuarbeiten.
 
Sehr schöne Folge, die insbesondere die Community und deren Beitrag zum Thema macht. So muss das sein, ganz toll.

Auch die Qualität muss sich hinter anderen Podcasts auch außerhalb unseres „Genres“ absolut nicht verstecken.

Liebe Grüße und weiter so,
Sven
 
Ihr habt im Podcast darum gebeten und weil ihr immer so tolle Tests und Ranglisten unter realischtischen Bedingungen erstellt, bin ich jetzt wieder Pro Member. Der Podcast gefällt mir auch. :daumen:
Athlonscout schrieb:
Bei manchen Aussagen kann man eigentlich nur mit dem Kopf schütteln, da einfach falsche oder unbelegte Behauptungen in den Raum gestellt werden.

So behauptet etwa Herr del Monego, es gäbe keine 10 GB AMD-Karte im momentan aktuellen Portfolio.
Er hatte wohl die Radeon 6700 nicht im Blick gehabt oder vergessen. Ist mir auch direkt aufgefallen.
Athlonscout schrieb:
Zudem wird die Behauptung aufgestellt, dass Nvidia Karten effizienter mit dem VRAM umgehen, Herr del Monego stellt quasi 10 GB Nvidia 12 GB AMD gleich. Kann diese Behauptung auch anhand von Testresultaten belegt werden?
Dazu hat PCGH einen großen Artikel und ein Video dazu gemacht. Also ja es ist bewiesen und wurde auch schon öfter in der Vergangenheit festgestellt.
Die restliche Kritik kann ich schon etwas nachvollziehen und darüber kann man sicherlich diskutieren.
 
  • Gefällt mir
Reaktionen: Crizzo und Athlonscout
Zurück
Oben