News Intel Arc: Xe2 Battlemage kommt und zwar „hoffentlich“ noch 2024

Intel ist und bleibt im dGPU Bereich die große Unbekannte (und Hoffnung auf Besserung für die allgemeine, nicht nVidia-hörige Kundschaft) wenn man einmal von den iGPUs absieht, die aber generell eine relativ solide Figur machen (wohl auch bei Meteor Lake und ab Panther Lake, evt. 2025, ist ja sogar schon von der Arc Celestial Architektur die Rede ... so lange ist das auch nicht mehr hin).

Also Arc Battlemage müsste spätestens in 2024 aufschlagen, für einen gemunkelten Alchemist+ Refresh sehe ich da wenig zeitlichen Spielraum.

Wichtig wäre m.E. eine Effizienz-/Idle-Verbesserung bei Intels dGPUs, ansonsten halte ich RT-RT im Einsteiger- und Mittelklasse-Grafikkartenbereich nach wie vor für masslos überbewertet bzw. relativ unwichtig.

Oberklasse- und Enthusiastenklasse Gaming dGPUs sind für Intel sowieso relativ uninteressant, zuerst einmal sollte man dort (auch im Verbund mit OEMs) dauerhaft einen Fuß in die Tür/den Markt bei Einsteiger- und Mittelklasse-Grafikkarten bekommen.

Insgesamt hat sich Intel doch schon ziemlich positiv bei den Xe/Arc Grafikkartenchips und deren Treibersupport gemausert, was für einige (abseits peinlich ideologischer Intel Bashing Beitragschreiber hier) schon intetessant sein dürfte.

An ExtraSS Frame Manipulation für XeSS soll ja bei Intel schon gearbeitet werden (ob das einen Battlemage Start hinaus zögert?).

Interessant dürften übrigens die neuesten Gerüchte zu den RTX 5000 Blackwell GeGorce Karten für einige sein, die angeblich schon nächstes Jahr zu dieser Zeit fertig/kaufbar sein könnten.

Festlegen will man sich nach angeblicher nVidia Quelle von MLID aber nicht auf den Marktstart (wohl auch abhängig von TSMC und AMD/RTGs RDNA4, ob das RDNA4 Oberklasse-Flaggschiff eine RTX 4090 leistungstechnisch im Rasterbereich überholen kann), wobei die offizielle nVidia Ankündigung/Präsentation der "Lederjacke" (bzgl. der High End Modelle, also mindestens der RTX 5090) für die CES 2025 gesetzt sein soll.

Schade aber nicht verwunderlich finde ich die Rückhaltementalität bezogen auf eine RTX 5090 bei nVidia, nur so viel bieten zu wollen wie nötig und nicht wie möglich, aber gut, zu der Käufergruppe gehöre ich sowieso nicht, auch wenn das nach unten natürlich durchgereicht werden dürfte, wenn es denn stimmt.

As for performance, Blackwell's rasterization uplift over Ada will not be as impressive as Ampere to Ada. However, the RTX 4090 was cut down by more than 10%, so it's plausible we could make the 5090"feel"like a similar uplift if we felt threatened.
 
Zuletzt bearbeitet:
incurable schrieb:
Mutiger Zeitpunkt für den Verweis.
Was hat das eine mit dem anderen zu tun? Hast du überhaupt alles mitverfolgt? Es geht da nur um den Lüftertest von einem Mitarbeiter. Und auch nur um das Problem, dass dieser uneinsichtig ist und sich gegen Kritik gewehrt hat anstatt erst einmal selber nachzuschauen, ob er vielleicht doch eine Ungenauigkeit drin hat.
Ich habe also auch z.B. die Videos von Roman angeschaut.
Natürlich hat das einen faden Beigeschmack, wenn auch Igor sich erst vor seinen Mitarbeiter stellt, dann aber ins offene Messer laufen lässt und dann erst mal zum Eigenschutz "freistellt" und vermutlich dann einfach für andere Projekte weiterbeschäftigt.
Aber Igors vorgetragene Tests waren eigentlich bisher sehr gut hergeleitet udn vor allema uch die Grafikkartentests waren ja ebenfalls bei anderen Testern durchgefallen. Auch die PCGH hat die megekeligen Frametimes festgestellt, sind ja auch noch immer in einigen Spielen drin.
Es ist also Fakt, keine Einbildung, dass Intel absolute mega Schei-ße gebaut hat.
 
  • Gefällt mir
Reaktionen: Zoba
Philste schrieb:
Sehe ich absolut nicht so. Gerade die gemunkelte 4070(Ti)/7800XT Leistung birgt extrem viel Potential. Bisher darf man sich nämlich entweder für nur 12GB Speicher bei Nvidia oder schlechte Effizienz+Raytracingleistung bei AMD entscheiden. Als monolithischer Chip könnte Intel hier das beste aus beiden Welten liefern, nämlich die Nvidia Raytracingleistung (und hoffentlich auch Effizienz) mit den 16GB der 7800XT.
Naja aber wenn die Karte irgendwann 2025 kommt dann ist diese Leistung gerade mal Einsteiger Klasse. Die würden ja mit BattleMage gerade mal zur letzten Generation aufschließen.
 
BxBender schrieb:
Und auch nur um das Problem, dass dieser uneinsichtig ist und sich gegen Kritik gewehrt hat anstatt erst einmal selber nachzuschauen, ob er vielleicht doch eine Ungenauigkeit drin hat.
Nein. Es geht um Ergebnisse, die vor der Veröffentlichung mindestens ein zweites Augenpaar zur Verifizierung nachvollziehen hätten müssen. (doppelt und dreifach wenn sie so vom Rest der Datenreihen abweichen)

Und es geht darum, dass da ein Test von einem "Igor" veröffentlich wurden, der im Nachhinein gar kein Igor gewesen sein soll. (sowas wäre nicht mal im absoluten Bauteilinterneturschleim goutiert worden, falls sich z.B. bei Dr Pabst plötzlich andere Päpste unter fahrenden Nahverkehrsmitteln wiedergefunden hätten)

Wie gesagt, mutiger Zeitpunkt einen der mutmaßlichen Igors als Referenz heranzuziehen.
 
incurable schrieb:
darauf verwendete Sekunde ist verschwendet.
Gut moeglich, ich habe mir auch nicht die Muehe gemacht das MLID Video zu verlinken (sondern den Hinweis auf diese Geruechte per Tweaktown Link zu geben; diejenigen, die sich das naeher ansehen wollen koennen darueber ja dort hingelangen), da es sicherlich wieder das uebliche Gelaber und sich selber Abfeiern enthaelt und bis dahin (RTX 5000 Ankuendigung) noch viel Wasser den Rhein hinunter fliessen wird.
 
  • Gefällt mir
Reaktionen: incurable
BxBender schrieb:
Das das niemals spontan gelingt, hätte einer so erfahrenen und problemgeplagten Firma absolut bewusst sein müssen.
NVidia hat nicht umsonst 10 Jahre für Raytracing experimentiert und gebraucht.
Auch die ganze Software und Zusatztechniken wie DLSS und Frame Generation etc. zaubert man nicht aus dem Hut, aber Intel wollte alles auf einmal?
Das ist reine Dummheit und Unvermögen.
Ohne vernünftigen Zwischenschritt läuft da einfach nichts.
ich sage nichts anderes als dass solche entwicklungen mit dem heute geforderten featureset nicht einfach so gelingen. im gegensatz zu amd und nvidia hat intel eben nicht viel vorerfahrung mit dgpu's oder generationen auf denen man wirklich aufbauen kann.
das einzige was ich nicht teile ist der vorwurf der unfähigkeit und die besserwisserei wie es hätte gelingen müssen...

wenn man im entwicklungsbereich dieser natur unterwegs ist dann weiß man am anfang einer entwicklung nicht genau was mit welchem potential rauskommt; reicht ja schon dass eine gpu 10-20% am maximal erwarteten takt vorbeischrammt und schon sieht die performance im vergleich eine ganze ecke schlechter aus.

dazu kommt eben die wettbewerbssituation in der sich nvidia und amd schon tief eingegraben haben und allein über ihren namen schon potentielle kunden abholen. intel ist auch ein großer name - nur eben nicht im gpu bereich.

ich finde z.b. die entwicklung im igpu bereich bei intels meteor lake schonmal erfreulich - nur dass dann in die dgpu welt übertragen ist ein anderes geschäft...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: M11E
Meiner Meinung nach ist es gut das Intel als dritter GraKa Hersteller aufgetaucht ist, ich hoffe das sie weitermachen, Duopole sind normalerweise nicht sonderlich gut für die Kunden. Vorl allem wenn AMD dann doch mal eine schlechte Generation hat, schwingt es im oberen Preisbereich ja direkt in Richtung Monopol um...
Außerdem wäre es sicher amüsant zu lesen wenn die Leute mit komplett rotem oder blauem PC gegeneinander losgehen, kennt man ja von PS und Xbox
 
  • Gefällt mir
Reaktionen: M11E und grabeskuehle
Artikel-Update: Im Laufe der CES hat Intel im Rahmen eines Interviews mit PCWorld erneut bestätigt, dass weiterhin an Arc Xe² HPG Battlemage gearbeitet wird. Tatsächlich seien derzeit rund 30 Prozent der Ingenieure bei Intel mit Battlemage beschäftigt – vorrangig an der Software, denn der Chip existiere bereits im Labor.

Zudem lautet der Plan augenscheinlich, Battlemage noch im Jahr 2024 vorzustellen, denn Petersen hofft, dass der Launch noch vor der CES 2025 Anfang Januar erfolgt.

Tom Petersen schrieb:
It’s coming [...]. I’d say about 30 percent of our engineers are working on Battlemage, mostly on the software side because our hardware team is on to the next thing. So think about it as the Battlemage has already has its first silicon in the labs [...] and there’s more good news coming that I can’t talk about right now.

I hope we are going see it before [CES 2025].
 
  • Gefällt mir
Reaktionen: BrollyLSSJ, konkretor, lynxx83 und 5 andere
incurable schrieb:
Intel hat nur begrenzt Interesse daran, dauerhaft extern gefertigte Produkte in den Markt zu werfen.
Real Man have Fabs - bis AMD sich aufgespalten hatte und GloFo entstand.
Ich denke zwar nicht, das die denselben Schritt gehen, aber eine differenzierte Fertigung kann von Vorteil sein.

PS na schauen wir mal, wann Battlemage wirklich kommt
 
Der Chip scheint schon fertig, wow. Früher war der Software-Teil auch kleiner, denke ich. Heute macht es den größten Batzen aus.
 
  • Gefällt mir
Reaktionen: M11E und fox40phil
@Daniel D.
[...]first silicon in the labs[...]
kann aber auch viel heißen. Wenn es bugfrei läuft ist vielleicht nicht mehr viel zu tun. Kann aber genausogut noch eine Menge Revisionen erfordern.
 
  • Gefällt mir
Reaktionen: M11E, jusaca, BAR86 und eine weitere Person
Daniel D. schrieb:
Der Chip scheint schon fertig, wow. Früher war der Software-Teil auch kleiner, denke ich. Heute macht es den größten Batzen aus.
auch nur so groß weil sie vorher keine Grundlage hatten und die ersten Iterationen vom Treiber für den Vorgänger gelinde gesagt so sehr Müll waren das sie bis heute mit jedem neuen Treiber einen einstelligen Prozentbetrag Performance oben drauf packen können.

Intel hat halt im GPU Treiberbereich gut was aufzuholen, da ist schon klar warum der Chip schon steht und man nicht wieder übervoreilt released und dann die Zeit nutzt um möglichst das beste aus dem Treiber zu holen.
 
WoFNuLL schrieb:
und man nicht wieder übervoreilt released
Ich glaube, übervoreilt kam Arc 1.0 auch nicht. Da war die Hardware auch schon laaaaaange durch und alles hat am Treiber gearbeitet, aber vor RTX 4000 musste dann einfach noch was raus um nicht im 1. Test schon noch weiter hinten zu landen.
 
  • Gefällt mir
Reaktionen: Erenxbo, ThePlayer, Alesis und 3 andere
Piak schrieb:
Ja wichtig dass sie weitermachen, wer will bitte schon die aktuellen nvidia preise zahlen..
Och... wenn ich den Kommentaren allein bei CompuBase und PCGH nachgehe, noch immer genug.
 
  • Gefällt mir
Reaktionen: Erenxbo, eXe777, ThePlayer und 6 andere
SpartanerTom schrieb:
Kann aber genausogut noch eine Menge Revisionen erfordern.
Gerade was das angeht hat sich Intel in jüngerer Vergangenheit ja auch nicht immer mit Ruhm bekleckert. Sapphire Rapids dürfte wohl der Chip mit den meisten Revisionen überhaupt sein, bevor er veröffentlicht wurde.

Und so wie die jüngere Vergangenheit bei Intel lief, bin ich mir gar nicht sicher, was besser wäre. Wenige Revisionen und früh fertiges Design kann für verbesserte Entwicklungstools sprechen, aber auch für ein unambitioniertes Design.
 
battlemage Ist die spannendste Entwicklung derzeit. Der große battlemage soll ja doppelt so viele Kerne wie der große alchemist haben. Und bei alchemist kommt gemessen auf die chipgröße relativ wenig raus, dh falls jagged alliance 3 ein "Preview" auf die mögliche Performance gibt und battlemage da noch mal 100% Hardware draufpackt, könnte da schon was ordentliches rauskommen.

Es ist völlig klar, dass Intel in der ersten Generation noch extrem ineffizient mit der chipgröße ist, aber da ist eben auch viel Potential. Wäre Intel auf dem Niveau von nvidia, könnte die a770 mit dem Chip auch ähnlich schnell sein wie eine rtx 4080.

und der einstand von arc ist doch insgesamt sehr ordentlich. Die Karten funktionieren jetzt schon ziemlich gut, xess ist extrem gut, der Treiber mit interface an sich ist zwar noch etwas dünn, aber funktioniert und lässt sich jetzt auch vernünftig bedienen, meine Referenzkarten sind leise und haben kein spulenfiepen, keine crashes oder grafikfehler. Könnte für eine erste Generation wirklich schlechter sein. Bei den ersten Treibern hat fast noch nichts wirklich funktioniert, aber mittlerweile ist das echt solide. Und auch für produktivanwendungen und ai kann man arc gut einsetzen.

Intel wäre dumm, wenn sie arc nicht weiter machen. der schwere Teil, nämlich von 0 anzufangen, ist geschafft. Bei den CPUs läufts bei Intel ja nicht so gut und da sehe ich ehrlichgesagt bei den gpus mehr Potential. Eine ähnliche Situation wie bei AMD, als man sich mit bulldozer gegen Intel auf die Schnauze gelegt hat - hier hat ja die RTG den Laden auch am laufen gehalten.
 
  • Gefällt mir
Reaktionen: Atlan2101, M11E, Erenxbo und 5 andere
Würde ich feiern, wenn AMD, Nvidia und Intel alle ihre neuen Grafikkarten Ende 24 / Anfang 25 herausbringen würden.
 
Zurück
Oben