News Intel Core i9-13900K: Bei Minimum-FPS erheblich schneller als 12900KF

Rockstar85 schrieb:
Die CPU macht ja Run to Idle, nur bringt das nichts wenn die Konkurrenz eben 140W verbraucht aber nur 10% langsamer ist.

Die Betrachtung bzw der hurry up and get idle Ansatz von Intel war schon damals fragwürdig, weil er nur dann funktioniert wenn die Energieeinsparung durch das schnellere idlen den Mehrverbrauch aufwiegen, was nur klappt wenn die Infrastruktur in vgl zur cpu viel Energie verbraucht und die cpu nicht sonstwieviel verbrät. Ergo: im notebook. Im Desktop war ich schon immer im Vorteil, wenn ich die cpu im sweetspot ihre Arbeit machen lasse, im laptop mit dem ganzen übersteuern heute auch, aber die Gefühle Leistung für den Benutzer muss eben zunehmen.


Ansonsten würde ich vermuten, dass die Mehrleistung bei den min fps wohl vor allem Verbesserungen am scheduler, der zwischen P und E cores verteilt, zu verdanken sein dürften. Von den zusätzlichen e-cores werden die games wohl kaum profitieren, also kann's ja nur an einer effizienteren ausnutzung der p-cores bzw beider kerntypen liegen
 
  • Gefällt mir
Reaktionen: Odessit und Iarn
Taxxor schrieb:
Der 7600X Leak wirkt merkwürdig, vor allem da hier auch ein Plus von ~7% unter Vulkan ermittelt wurde in 4K. Ich hab den Test selbst mal bei mir in 1440p laufen lassen mit meinem 5800X einmal mit 3GHz Allcore und einmal Stock und meine Vulkan Werte waren in beiden Fällen identisch (+/- 1%).


Aber dass der 7600X den 5950X im Gaming schlagen wird, dafür braucht es eigentlich auch keinen Leak.
Zen CPUs (zumindest die Relese Versionen ab 6C+) hängen doch seit Beginn alle im Bereich von max. 10% beieinander in der Spieleperformance.
Deswegen sagte ich ja, mal schauen was andere Leaks sagen... Das ist halt inkonsistent wie das Thema mit dem RPL wo der Benchmark Programmierer dann Intervenierte
 
random12345 schrieb:
Die Leistungsaufnahme MUSS in Zukunft in den Benchmark Wert fliessen. Bzw sollten dieser Werte am prominentesten sein. Schon klar gibt es Workloads wo es nur um Leistung geht.
Absolut Sinnbefreit diese Entwicklung.
Dazu müsste man aber erst die 🥚🥚 haben 😉
 
  • Gefällt mir
Reaktionen: Anon-525334
Majestro1337 schrieb:
Die Betrachtung bzw der hurry up and get idle Ansatz von Intel war schon damals fragwürdig
Es ist der gleiche Ansatz, den AMD seit Zen verfolgt und ich glaube nicht, dass man das bis heute durchgezogen hätte, wenn man nicht der Meinung ist, dass es effektiv ist.
 
Ich bin nicht ganz auf dem Laufenden. Gab es bedeutende Änderungen beim Speichersubsystem oder bei der Reaktion auf Lastspitzen? Beides würde den Unterschied in den min-FPS erklären.
 
Zuletzt bearbeitet: (doppelpost)
Taxxor schrieb:
Es ist der gleiche Ansatz, den AMD seit Zen verfolgt und ich glaube nicht, dass man das bis heute durchgezogen hätte, wenn man nicht der Meinung ist, dass es effektiv ist.
Der Ansatz ist für Benchmarks und die "PS auf der Straße" auch ganz toll, aber für die Energieeffizienz nicht. Ich habe mich lediglich darauf bezogen.
Und "geboostet" hat AMD auch schon ab dem phenom 2 ;)
 
mich würde eher der Preis der neuen CPU´s interessieren.
Vor allem nachdem ja angekündigt wurde, das die Preise steigen sollen
 
Also die Entwicklung der Hardware läuft meiner Meinung nach derzeit wirklich völlig am Markt vorbei. Horrende Stromverbrauche bei immer weiter (eher gering) steigender Leistung, welche eh schon jetzt für so ziemlich alles ausreichend ist.

Wenn man dann in ein paar Monaten Intel 13th Gen und Nvidia 4000 hat, dann sind ja 1000W Netzteile schon eher Pflicht als Nice-to-have.

Jetzt wäre erstmal Effizienz angesagt, bis später wieder Leistungssteigerungen kommen, wenn man sie auch wirklich braucht.
 
  • Gefällt mir
Reaktionen: Anon-525334, Odessit, LamaMitHut und 4 andere
Mich interessiert da eher Zen4 3D mehr weil mein 12700k performt...--->

Screenshot_81.jpg


cpu z sc.jpg


Ich persönlich stehe nicht wirklich sonderlich auf die E cores, 24/7 sind die deaktiviert bei mir, also RPL reizt mich jetzt nicht wirklich sonderlich, aber das mit den min fps ist schon teilweise merkwürdig, oder ist das normal, dass die min FPS bei RDR2 von 1080p auf 1440p hin extrem steigen?

Screenshot_63.jpg
 
Taxxor schrieb:
mMn braucht es für CPUs einen Perf/W Test wie ihn Wolfgang auch bei den GPUs bereits gemacht hat. Einmal mit Vollast und einmal mit FPS Limit um den Verbrauch im Alltag abschätzen zu können, bei dem man eher GPU limitiert ist und die CPU nur "mitläuft" und hin und wieder die Lows oben hält.
Wenn wir schlichtweg mal ehrlich wären, würden wir einfach aufhören zu sagen: Der I9 killt den R9 in Spiel XY um 2% und zernichtet ihn.. Es ist für 99% schlichtweg egal ^^ Leider sind wir nicht so Rational.. @HisN hat ja wunderbar gezeigt, wie das GPU / CPU Thema so ist
Eigentlich braucht es mal einen CPU braucht GPU Artikel.
 
  • Gefällt mir
Reaktionen: axi, Sun-Berg, Qyxes und 4 andere
Beg1 schrieb:
Daher freue ich mich auf Zen4 und hoffe AMD kann abliefern.
Ich bin sehr gespannt was da kommt. Abgesehen vom 3D Cache, fehlt den Ryzen massiv Spieleleistung wenn man mal auf die wichtigen Frametimes schaut. Auch der Takt dürfte endlich mal die 5Ghz im Realbetrieb knacken.
Hatte eigentlich gedacht, dass ich dauerhaft im GPU Limit bin, aber der Sprung auf den 3D, war sehr deutlich spürbar. Frametimes/Low FPS sind halt für ein flüssiges Spielen deutlich wichtiger.
 
  • Gefällt mir
Reaktionen: Gortha, Beg1 und Odessit
Taxxor schrieb:
In OpenGL gab es tatsächlich dann ~30% Unterschiede, aber in Vulkan eben gar keine, während dieser Leaker in 4K 10% in OpenGL und gleichzeitig 7% in Vulkan erreicht haben will mit einer CPU, die bestimmt nicht so viel schneller ist, wie ein 4.7GHz 5800X gegen einen 3GHz 5800X.
Ich kann da keine Unterschiede feststellen.

1658172756572.png
 
  • Gefällt mir
Reaktionen: Sun-Berg und Hax0r123
Zer0Strat schrieb:
Ich kann da keine Unterschiede feststellen.
Gut, du hast ja auch ne Nvidia GPU, mit der 6800XT ruckelt der Bench mit 40-50FPS vor sich hin^^
 
Bei den CPUs geht es leider viel langsamer voran, als bei den Grafikkarten.

Mein System (8700 nonk, 1070ti) wird Ende des Jahres ersetzt, je nachdem, wann die neuen Grafikkarten rauskommen. Bei der Grafik gibt es enorme Sprünge, aber bei der CPU hat sich quasi nicht viel getan - zumindest wenn es rein ums gaming in WQHD geht. Daher reicht dieses mal die Mittelklasse CPU, also wohl der 7600x oder der 13600 - das sinnvoller Investment ist es da wohl, das gesparte Geld in eine potentere Grafikkarte zu stecken. Sollen die ihre sinnbefreiten 800 Euro CPUs behalten.
 
Intel geht wieder den Werg der Brechstange wie einst bei der Core i Architektur..... Bisschen mehr Mhz, mal hier ein Kern mehr. Dafür +20% Verbrauch... Traurig Traurig
 
  • Gefällt mir
Reaktionen: dergraf1
Taxxor schrieb:
Gut, du hast ja auch ne Nvidia GPU, mit der 6800XT ruckelt der Bench mit 40-50FPS vor sich hin^^
Die getestete Karte in dem Leak entspricht ja einer RTX 3060 Ti. Das sind sehr merkwürdige Ergebnisse, aber am Ende ist das eh egal, weil man die CPU nicht in 4K testet. Ist sinnlos.
 
donativo schrieb:
Bisschen mehr Mhz, mal hier ein Kern mehr. Dafür +20% Verbrauch... Traurig Traurig
Was soll Intel denn machen. Man kämpft aktuell mit stumpfen Waffen. AMD geht wieder vor Intel auf einen neuen Node und lässt Intel schlecht aussehen. Das ist aber immer so, wenn ein Hersteller auf einen neuen Node geht. Dann sehen alle anderen aus wie Deppen. Als Apple den M1 in 5nm veröffentlicht hat, waren alle anderen die absoluten Deppen. Heute spricht kaum einer davon, dass AMD die Lücke mit dem 6800U praktisch geschlossen hat.
 
Ja Verbrauch MUSS mit einfließen. Intel ist diesbezüglich aber gar nicht mal soo schlecht, wenn man bedenkt das AMD kleiner baut.

Und zu der höheren TDP von AMD bei Zen 4. ICH denke das wird nur Auswirkungen im Allcore haben. Schon heute erreicht Singlecore eine AMD CPU nicht das Powerlimit, wobei diese Stock schon mit 1.5V boosten.
Mein 5950X z.b. erreicht das 142W Limit nur in Allcore Benchmarks aber nie im Gaming.
 
Hmmm, bin 2020 von einem i7 3770k ddr3 2133MHz auf einen i9 9900k mit aktuell 4x8GB @4000MHz Ram umgestiegen da ich damals das gaming wieder entdekt habe.
Da ich auf einem 75" 60Hz Spiele sehe ich gerade keinen Sinn zu wechseln.
4k mit 60Hz liefert einzig und allein die graka in meinem Fall.
Bei mehr Hz mag es bestimmt Sinn machen.
Alle hacken immer auf dem Stromverbrauch bei CPU's rum, in games, und das betrifft wohl eher die Mehrheit hier, eher vernachlässigbar wenn einem die letzten 5% egal sind.
Ist meine Meinung.
Bei CPU's seh ich das übrigens wie bei Autos, sollte ich mir eine neue holen dann immer das Facelift.
Bei mir wird es vielleicht erst wieder nötig zur 15.Gen.

Nur meine Meinung 😉
 
Zurück
Oben