News Intel Arc 2.0: Battlemage kommt „hoffentlich“ 2024, doch in welcher Form?

Jan schrieb:
In Anbetracht der Tatsache, dass SRAM-Speicherzellen bei TSMC beim Schritt von 5 auf 3 nm zuletzt kaum noch in der Fläche skaliert haben, im teureren Prozess also weiterhin annähernd so viel Wafer-Fläche einnehmen wie zuvor, erscheint es zwar naheliegend, dass allein der gigantische Cache dazu geführt haben könnte, dass „G10“ inzwischen als zu teuer eingestuft wird
Verstehe die Argumentation nicht. Das wird sicher nicht als Single Die geplant worden sein. Der Cache dann einfach in N6 oder älter.
 
@Abexa Das mag sein. Allerdings habe ich von Sapphire, als absoluter „Premiumpartner“ und der Pulse mehr erwartet. Ich habe am Gehäuse (Fractal Design Define 7) und der Belüftung nichts geändert. Die 5700 XT war ein verfluchter Düsenjet mit Heizfunktion und die jetzige 3060 Ti (Asus TUF) ist quasi lautlos und die Temperatur ist kaum spürbar mit der Hand über dem Gehäuse.

Für mich waren das Welten. Mein Schwager, der mir meine 5700 XT abgekauft hat, hat sie ebenfalls nach wenigen Monaten weitergehauen, weil sie so verdammt laut und heiß war.

Auf dem Papier magst von mir aus recht haben, subjektiv war es eine mistige Karte. Die Pulse war der Grund nie wieder ein 2-Lüfterdesign zu nehmen.

EDIT: Auch meine Gainward GTX 1080 war nicht so auffällig wie die 5700 XT. Meine R9 290 hingegen neigte auch dazu so warm und laut zu werden, allerdings lag es am bescheidenen Kühlkonzelt von Asus damals (war nach einigen Wochen bekannt, dass Asus den Kühler verkackt hatte, habe ich damals nur nicht mitbekommen bzw. erst zu spät).
 
floTTes schrieb:
Ich kapiere aber noch nicht genau, wo Intel eigentlich hin will. Über Jahrzehnte waren ihre "APUs" gut genug für Office und Video-Decoding. Wieso jetzt einen Desktop-GPU-Markt erobern, bei dem es hart umkämpft ist und kaum Margen vorhanden sind?
Naja, Gaming ist mittlerweile äußerst populär in der Gesellschaft. Wenn also Intel hier gute Grafikchips anbietet, wird es für das eigene Marketing nur vom Vorteil sein. Darüber hinaus bildet der Mainstream-Gamer den größten Marktanteil. Hier könnte man mit attraktiven Produkten entsprechend ein Stück vom Kuchen abbekommen. Zu guter letzt profitieren auch Intels Desktop-CPUs von der besseren iGPU-Leistung.
 
  • Gefällt mir
Reaktionen: Trony und Michael vdMaas
Xechon schrieb:
Ich wäre auch mit Mittelklasse super zufrieden. Bin eh eher der 60-80er Käufer (je nach Angebot und Preis). Allerdings hat mich die laute und heiße 5700 XT vor ca. 3 Jahren dermaßen abgeschreckt, dass ich den Radeons im Moment noch nicht über den Weg traue.
Also ich hatte auch eine und die war "unhörbar". Was war denn dies für ein Modell?
 
@Xechon Bedenke, dass du hier die mehr als eineinhalb Jahre neuere 3060 Ti mit der 5700XT vergleichst. Ansonsten bleibt die Abwärme natürlich vergleichbar. 200W vs 220W sind jetzt keine Welten Unterschied, aber die Thermodynamik ändert sich ja nicht plötzlich nur weil eine andere Marke drauf steht. Es sei denn man vergleicht gedeckelte FPS Szenarien wo die modernere Karte natürlich ein ganzes Stück effizienter ist und dann natürlich auch weniger aus der Steckdose nuckelt.

Ich selbst war mit meiner 5700XT Pulse mehrere Jahre mehr als zufrieden. Ehrlich gesagt hört sich das sehr nach akuter Erstickungsgefahr in deinem Gehäuse an. Oder aber ein Montagsmodell erwischt.
 
  • Gefällt mir
Reaktionen: Epistolarius, LadykillerTHG, qappVI und eine weitere Person
Wenn Intel mit der nächsten Gen schon in die Nähe der RTX 4070 (Super) rückt wäre es schon sehr beeindruckend. Klingt bis jetzt aber eher nicht danach.
 
NVidia enteilt? Das ist keine Graphikkarte mehr sondern eine Heizung mit Zusatzfeatures.
 
SpartanerTom schrieb:
Ehrlich gesagt hört sich das sehr nach akuter Erstickungsgefahr in deinem Gehäuse an.
3x 140er Venturi (die für Ihre Luftmenge bekannt sind) rein und 3x Venturi raus sollte keine Erstickung erzeugen. Wie gesagt: Die 3060 Ti ist annähernd lautlos. Und natürlich spiele ich mit „offenem Visier“, was die FPS angeht. Ich nutze tatsächlich erst seit ca. 6 Monaten ein Limit wegen G-Sync. Da das Limit bei 237 liegt, erreiche ich es quasi nie in meinen Spielen. Also auch daran lag es nicht.

Nein, es waren auch nicht die 6 Gehäuselüfter. Ich kann das Aufdrehen einer GPU durchaus von meinen Gehäuselüftern unterscheiden.
Was genau triggert euch so, dass ihr mit allen Mitteln versucht meine Aussage zu korrigieren oder zu erklären? Sogar als die 5700 XT noch aktuell war, war jedem klar, dass es keine „gute“ Generation ist und vermutlich erst ab RDNA2 besser wird - und zwar in quasi allen Belangen. Ich habe die 5700 XT halt sehr günstig geschossen und bin das Risiko eingegangen. So what. Nun bin ich eben ein gebranntes Kind. Das heißt doch aber noch lange nicht, dass ich Radeons nicht mal wieder eine Chance geben werden. NOCH wirkt das Erlebnis eben nach.
 
bensen schrieb:
Verstehe die Argumentation nicht. Das wird sicher nicht als Single Die geplant worden sein. Der Cache dann einfach in N6 oder älter.
Ist die Frage... Wenn es als großer L2/L3 Cache geplant war dann vermutlich schon deshalb wurde das gestrichen...

Wenn es als 3D Cache / Adamantine L4 Cache geplant war dann wird es vermutlich gestapelt und ist kein Peoblem.
 
meiner meinung nach braucht es intel im grafikkartensegment nicht. sie werden genauso teuer oder teurer werden als die konkurrenz und tendenziell nur wieder die marktmacht einsetzen um die oems zu knechten, die momentan nur durch satte rabatte und kickbacks bei laune gehalten werden. same old same old.
Die sollen mal weiter Ihre Fabrikchen bauen und den Rest den Profis im Markt ueberlassen.
 
  • Gefällt mir
Reaktionen: Wolwend_the_Orc
die angeblich "vielleicht" eingestellte gpu wäre der Nachfolger der a770 gewesen, die vermutlich grob um die rtx 4070 herausgekommen wäre.

Die angeblich noch verbleibende gpu ist ein 250mm² core mit einem beschnittenen x8 pcie interface und 8gb ram - grob also low end im Kaliber einer 4060 oder 7600 oder gar noch drunter Richtung 6600. Kann man also komplett vergessen, die gpu braucht wirklich niemand.

Wenn das stimmt siehts um arc nicht gut aus, dann wirds ggf nur noch igpus geben.

was dagegen spricht ist das kürzliche Interview mit Tom Petersen. Wenn Intel nur so eine Krücke veröffentlicht, kann man sich ein Interview mit solchen großen Worten sparen. "exciting" ist das Ding nämlich überhaupt nicht. Zumal sich Intel mit alchemist wirklich angestrengt hat und die Karten derzeit in einem soliden Zustand sind. xess ist auch extrem gut geworden.

Die beschnittene battlemage gpu taugt ja nichtmals für AI oder content creation, zwei weitere starke Felder für Intel arc.

Für mich spricht mehr gegen das Gerücht als dafür, aber ausschließen kann mans natürlich nicht. Laut paul von Red gaming tech ist es aber selbst laut dem Gerücht nicht sicher, dass die große Karte eingestellt wird, nur eine nicht unwahrscheinliche Option.
 
TigerherzLXXXVI schrieb:
Naja, Gaming ist mittlerweile äußerst populär in der Gesellschaft. Wenn also Intel hier gute Grafikchips anbietet, wird es für das eigene Marketing nur vom Vorteil sein. Darüber hinaus bildet der Mainstream-Gamer den größten Marktanteil. Hier könnte man mit attraktiven Produkten entsprechend ein Stück vom Kuchen abbekommen. Zu guter letzt profitieren auch Intels Desktop-CPUs von der besseren iGPU-Leistung.
Ich bin da voller Hoffnung, dass wir einen dritten Player bekommen. Mir soll es recht sein.

Wo macht man aber das Geld? Ich glaube es sind OEM (inkl. Laptops), B2B, Server, Konsolen (bzw. Handhelds), na usw. ... der Consumer-Markt hat nur "Wert" wenn er die Marke dahin transportieren kann, wo tatsächlich Geld verdient wird.
Beispiel: Manager XY ist daheim von seinem Intel-System so begeistert, dass er einen Millionen-Deal mit Intel für sein Business abschließt. Ähnlich wie es Microsoft seiner Zeit mit "freien" Betriebssystem für Privat-User gemacht hat.

Wir hier, in unserer Foren-Bubble, machen doch nur ein Bruchteil der Consumer aus, die sich von Freunden/Bekannten die Rechner zusammenstellen lassen oder einfach OEM kaufen.

Bis auf Video-De-/En-Coding hat Intel doch nichts zu bieten? Keine (wirkliche) Beschleunigung für AI, Physik, Raytracing, etc.
Bitte nicht falsch verstehen, das soll kein Intel-Bashing werden. Ich bin seit jeher ein Freund davon, dass man eine Backup-iGPU in der CPU hat - für Office/NAS/MediaPlayer auch vollkommen ausreichend.

Es kann sich doch also nur um ein Prestige-Projekt handeln?

Als Aktionär von Intel würde ich einfach denken: HÄH? Wieso?
Aber vielleicht werde ich ja eines Besseren belehrt. Go, Intel, Go! :evillol:

/e
Die ganzen Office-Rechner (Business, Laptops) um mich herum sind seit Jahrzehnten mit Intel bestückt. Wir meiden wegen der Intel MKL auch Ryzen. Welchen Markt will man da erobern? Wozu brauche ich eine stärkere iGPU wenn ich nicht spielen möchte?
Bringt also nur was, wenn sie ein Mindestmaß an Performance zusammen mit Effizienz raushauen um einen neuen Markt zu erobern. Ansonsten könnten sie auch einfach alles auf Effizienz trimmen ...

Wer hat schon einmal einen Arbeitslaptop (von der Firma gestellt) in freier Wildbahn gesehen, der mit AMD bestückt war? Die Dinger sind so selten wie weiße Löwen. :freak:
 
Zuletzt bearbeitet:
stevefrogs schrieb:
Nachdem offensichtlich weder AMD, noch Intel, die Ressourcen in die Hand nehmen wollen, die notwendig wären, um zu Nvidia aufzuschließen, sollte man wohl darüber nachdenken, die Ressourcen zu bündeln.

Nvidia ist nicht Intel, man schraubt dort nicht an Innovationen zurück, nur weil man den Markt dominiert, dementsprechend schwierig und teuer ist es, zu ihnen aufzuschließen. Außerdem ist Nvidia auch nicht von einer eigenen Fertigung abhängig, hier kann also nichts in die Hose gehen wie bei Intel (hust 10nm), man kocht mit dem selben Wasser wie die Konkurrenz.

Es braucht also enorme Investitionen über Jahre hinweg, wenn man Nvidia das Feld nicht nahezu unangefochten überlassen will, ich denke AMD und Intel wären gut beraten, eine langfristige strategische Partnerschaft in der Grafiksparte einzugehen.
Der Käufer entscheidet darüber, wer über ausreichend Kapital für die Entwicklung hat.
Da rund 80% der Leute eh grundlegend blind bei Nvidia kaufen, ist der Drops also gelutscht.
Nur wenn man man in den sauren Apfel beißt und eine Karte vom Mitbewerber kauft, und man dafür vielleicht auf ein interessantes Spielzeug/Feature (vorerst) verzichtet, nicht die letzten paar Prozent an Leistung oder Effizienz erwartet, der wird auch dazu beitragen, dass das damit einhergegangene Geld vieleicht beim nächsten oder übernächsten Mal zu einem noch sorgloseren Produkt heranreift.

Ich bin auch dafür, dass Nvidia sich gerne mit 2000 Euro Karten ganz alleine im Leistungsindex sonnt.
Aber für die Brot- und Spielekarten im günstigen Segment für normalsterbliche Hobbyspieler sollten unbedingt wieder kostengünstig produzierte Karten her, die keinen ausufernden Elektronikkram und gigantische Kühlkonstruktionen auf der Platine benötigen.
Die letzten 5-10% FPS sollten jedem Herstelelr egal sein, wenn man dafür mit niedrigerem Takt udn Spannung, einem effizeint eingestellten Bios, weniger teuren Bauteilen drumherum udn einer handelsüblichen 2-Slot-Kühlung mittlerer Länge, was überall ins Gehäuse passt, ein wirklich annehmbares Produkt für die Masse schafft und dann eher wieder 300-450, statt 450-700 Euro kostet, je nach Vollausbau und abgespeckter Variante.
Es ist doch völlige Idiotie, wenn man 15cm lange Platinen absichtlich mit 30cm langen 3-Slot-Kühlern ausstattet, nur damit die noch wuchtiger und potenter ausschauen als die der Konkurrenz.
Dieser Wahnsinn muss auch immer mitbezaht werden die Custon Karten kosten stellenweise mehrere hundert Euro mehr als die Standardausgaben, bringen aber nur minimalistischen Mehrwert an FPS.
Und leise bekomtm man im Prinzip alle Karten, selbst meine vergleichsweise billige 2-Slot-Version einer 6700XT habe ich einfach von 63% auf 40% Lüfterdrehzahl heruntergesetzt, den Verbrauch auf die möglichen -6%, Spannung leicht runter, Maximalboost etwas niedriger, damit ist alles super.
Die Hersteller müssen aber alle da von Haus aus ran und mal wieder richtig sparsam und effizient werden.
Gerade Corona und Mining-Boom waren ordentliche Steilvorlagen für dieses Thema, aber anstatt bei Ressourcenknappheit das auch umzusetzen und mehr Einheiten pro Masse zu bauen, hat man den Spieß umgedreht udn alles dicker udn noch teurer gemacht, und noch mehr für Knappheit am Markt gesorgt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tso
Dittsche schrieb:
meiner meinung nach braucht es intel im grafikkartensegment nicht. sie werden genauso teuer oder teurer werden als die konkurrenz und tendenziell nur wieder die marktmacht einsetzen um die oems zu knechten, die momentan nur durch satte rabatte und kickbacks bei laune gehalten werden. same old same old.
Diese Argumentation macht eher weniger Sinn, weil: 1. Mehr Mitbewerber => mehr Auswahl => erhöhter Preiskampf
2. "Sie werden genauso teuer", schwierig weil sie sich erst eine Kundschaft aufbauen und Vetrauen gewinnen müssen, entweder duch einen niedrigeren Preis oder durch bessere Produkte, letzteres eher unwahrscheinlich.
3. Welche Marktmacht? Hab ich was verpasst oder wo sind die dGPUs von Intel die sich massenhaft verkaufen?
 
  • Gefällt mir
Reaktionen: estros
Michael vdMaas schrieb:
Ich schiele ja noch immer auf eine 7900XT für 500-600€ gebraucht. Sollte das mal zeitnah irgendwo zu realisieren sein, kann ich die kommende Generation ruhig ignorieren. Auch wenn mich die hoffentlich stattfindenen Fortschritte bei Intel und AMD brennend interessieren.
7900XT aktuell neu ab 769€ , deine 6800XT verkaufen und dann kannste dir eine neue Karte mit Garantie leisten , gebraucht für 500-600€ würde ich nicht machen
 
  • Gefällt mir
Reaktionen: Michael vdMaas und Munkman
Die arc a770 liegt mittlerweile vor der RX, 7600 UND der 4060 einfach mal googlen gibt es genug berichte zu.

Ich werde sobald verfügbar die neuen Karten kaufen nicht weil ich es brauche sondern weil ich es kann und interessiert dran bin🤷‍♂️

Und was redgamingtech angeht na ja ab und an muss man irgend was absondern um im Gespräch zu bleiben damit der Geld Fluss nicht versiegt egal was man für kram absondert aber ich halte generell nichts von "Influencern"
 
  • Gefällt mir
Reaktionen: PegasusHunter
Xechon schrieb:
Für mich waren das Welten. Mein Schwager, der mir meine 5700 XT abgekauft hat, hat sie ebenfalls nach wenigen Monaten weitergehauen, weil sie so verdammt laut und heiß war.
Kann ich als Besitzer nicht bestätigen , kaufte mir die letzten Jahre immer RedDevil Versionen von PowerColor ( ala RX480, 5700XT und aktuell 6900XT) und die sind leise ( auch kein Spulenfiepen oder der gleichen ) . Desweiteren kann man durch den AMD Treiber relativ einfach auch noch weitere Optimierungen vornehmen !
 
Die 56XE sind also die angeblich eingestampfte Version?
Puh, ich sehe hier nicht viel Licht.
Selbst wenn die zusätzlichen Einheiten perfekt skalieren, noch Takt draufkommt und die Architektur etwas drauflegt, wird man nur irgendwo im Bereich 4070 Super/ 7800XT landen (mMn sogar noch darunter, das ist eher Bestcase)
"Hoffentlich 2024", also kann man schon ziemlich fix mit 2025 planen, bis dahin haben Nvidia und AMD eine neue Gen am Markt, womit man eher mit der gehobenen Einsteiger Klasse konkurrieren würde.
Aber angeblich ja eh gecancelt, nur womit soll sich der deutlich gestutzte Chip dann konkurrieren?
Solche Produkte sind kein Argument für das Management, das Investment in die Produktlinie aufrecht zu erhalten
 
Zurück
Oben