News Intel Arc 2.0: Battlemage kommt „hoffentlich“ 2024, doch in welcher Form?

floTTes schrieb:
Bis auf Video-De-/En-Coding hat Intel doch nichts zu bieten? Keine (wirkliche) Beschleunigung für AI, Physik, Raytracing, etc

hä doch natürlich. alchemist kann diverse generative AIs beschleunigen und raytracing ist bei Intel auch ziemlich gut. Intel ist für produktivanwendungen besser im Saft als AMD. Intel hat bspw auch eine breite Integration von Hardware Features (quicksync und hyper encode) für davinci resolve.

Die opencl Unterstützung für die affinity suite hat übrigens auch sofort funktioniert, während rdna 1 und 2 gpus über 2 Jahre auf einen opencl fix warten mussten.
 
  • Gefällt mir
Reaktionen: Atlan2101
Papabär schrieb:
7900XT aktuell neu ab 769€ , deine 6800XT verkaufen und dann kannste dir eine neue Karte mit Garantie leisten , gebraucht für 500-600€ würde ich nicht machen

Wäre eine Möglichkeit, wenn ich die 6800XT nicht an meine Frau weitergeben würde, damit sie auch aktueller aufgestellt ist. Sie krebst noch mit einer RX570 herum ;)
 
BxBender schrieb:
Der Käufer entscheidet darüber, wer über ausreichend Kapital für die Entwicklung hat.
Da rund 80% der Leute eh grundlegend blind bei Nvidia kaufen, ist der Drops also gelutscht.
Nur wenn man man in den sauren Apfel beißt und eine Karte vom Mitbewerber kauft, und man dafür vielleicht auf ein interessantes Spielzeug/Feature (vorerst) verzichtet, nicht die letzten paar Prozent an Leistung oder Effizienz erwartet,
Effizienz ist mir sehr wichtig, aber an der kann man normal selber schrauben (Takt/Spannung). Bei der Effizienz brauchen wir von Intel natürlich nicht von reden, komplett abgeschlagen, wie alles von Intel.
RDNA3 skaliert kaum - imo eine Katastrophe, der Hauptgrund warum keine 7900XTX in meine Rechner steckt.
Raster habe ich, die nächste muss definitiv auch richtig mit RT umgehen können, RDNA3 hat hier keine nennenswerten Fortschritte gemacht. Sie brechen im selben Verhältnis ein, wie schon RDNA2
Hier ist Intel - relativ gesehen - deutlich attraktiver.
FSR Upscaling sieht kake aus (DLSS habe ich noch nicht live gesehen, Videos dazu gefallen mir auch nicht)

Intel entwickelt das vieeeeel zu langsam, bis die ihre (Top-)Chips rausbringen würden, müssen sie sie bereits einstampfen. In Intels Treiber habe ich auch noch kein vertrauen. Ich habe kein Problem selbst DXVK/Wrapper drüber zu stülpen, aber leider nicht immer möglich.


Wenn sich die Konkurrenten einfach nicht aufrapen können, dann muss es leider Nvidia werden.Nvidia muss nicht beweisen, Nvidia ist hier nicht unverdient die Referenz.

Ich hoffe schwer auf RDNA4, denn zum Nvidia Treiber möchte ich nicht mehr zurück.
https://videocardz.com/newz/s-t-a-l...yl-gets-a-final-release-date-september-5-2024
Stalker wird mein Stichtag für eine neue GPU (wahrscheinlich)
 
Das Problem ist nicht die reine Leistung der Grafikkarten, sondern, dass die Spielehersteller bevorzugt auf Nvidias Schummeltechnik setzen, statt die Spiele wieder richtig anzupassen. Da haben AMD und Intel leider das Nachsehen, denn rein von der Rasterleistung betrachtet, spielt die 7900xt auch oben mit
 
Diese "Schummeltechniken" bringen die Effizienz auf ein ganz anderes Niveau. Es wäre nicht sonderlich klug, auf diese zu verzichten - ob Spiele nun "mangelhaft optimiert" sind oder nicht.
Es ist übrigens ein Trugschluss, einfach vom aktuellen Performance-Niveau der Grafikkarten auf "mangelnde Optimierung" zu schließen.
Ich erwarte, dass jedes AAA-Game, das derzeit entwickelt wird, alle auf dem Markt befindlichen Grafikkarten in die Knie zwingt - andernfalls dürfte es nicht sonderlich gut altern. Das war übrigens auch schon vor Jahrzehnten mit Quake, Crysis, etc. der Fall.

Noch liegt nVidia mit DLSS (Upscaling) in Sachen Qualität vorne. Wir können alle nur hoffen, dass AMDs freie Lösung auf Dauer min. gleichziehen wird.
Dann könnten wir DLSS ebenso wie PhysiX ad acta legen.

Wir sind endlich soweit, dass wir Frame-Generation mit "vernünftiger" Qualität nutzen können - je nach Spiel mit vernachlässigbarem Latenzzuwachs. Das war vor paar Jahren noch gar nicht denkbar, obwohl die Theorie schon mindestens so alt ist wie z.B. De-Interlacing.
Bei den generierten Frames dürfte sich hinsichtlich Qualität kein großer Unterschied zwischen AMD und nVidia finden. Allerdings gibt es noch Kinderkrankheiten wie üble Frametimes, VSync-Probleme, etc.

@duskstalker,
mir ging es nicht um den OpenCL- oder Raytracing-Support (im Vergleich zu AMD). Sondern um den Vergleich zum einkaufspreisähnlichem Konkurrenten. Bei gleicher Leistung greife ich zum Günstigerem.
Cuda war halt schneller verbreitet als OpenCL ...
Vielleicht hast du Recht, ich weiß es nicht. Wieso greifen dann aber alle zu nVidia?
 
Zuerst einmal muss man sich im Einsteiger- bis Mittelklasse-Bereich mit Arc etablieren, bevor Intel Geld "verbrennt" für (Gaming-)High-End-Nischenkäufer.

Das ist bisher m.E. noch nicht in ausreichendem Maße geschehen und ich hoffe die Intekl Strategie sieht auch vor, nVidia dGPUs gleicher Leistungsklasse über deren Einfluss bei den OEMs aus den jeweiligen Laptops rauszuschmeissen.
Dazu braucht es aber effiziente mobile Arc Grafikkarten von Intel, denn damit würde man dann dort die nVidia Marktanteile und -gewinne drastisch reduzieren können (ich würde da sofort einsteigen, wenn Leistung, Speicher und Effizienz mobiler Intel dGPUs halbwegs passen würde zur Konfiguration von Einsteiger- bis Mittelklasse Gaming oder Content Creator Notebooks, und ich denke nicht wenige andere ebenso), zumal die mobilen Ada Lovelace dGPUs alles andere als preis-leistungstechnisch gelungen sind, und zum Großteil mit nicht mehr zeitgemäßen, unzureichenden 8 GB auskommen müssen.

Die kolportierte RTX 4050 und die RTX 4060(Ti) Karten muten wie teure Abfall-/Resterampeprodukte von nVidia an, die diese gerne behalten dürfen, und diese Arroganz könnten AMD/RTG als auch Intel ausnutzen.

AMD/RTG macht dahingehend schon einen Schritt mit der kommenden RX 7600XT mit kolportierten 16 GB Speicher (als möglicher Dauerbrenner-Einsteigerkarte mit viel Speicher und nicht zu hohem Preis) und auch Intel könnte mit effizienteren und vergleichsweise leistungsfähigen Arc Battlemage Karten nachlegen (was Arc A(lchemist) 770, 750 und 380 angeht in den jeweiligen Leistungsklassen).

Einen lange kolportierten Arc Alchemist+ Refresh (außerhalb des OEM Bereichs) hielte ich für mittlerweile wenig produktiv (auch was das eigene Image angeht), da zu spät auf dem Markt und vermutlich zu wenig bietend.
 
Eigentlich müsst jedes aktuelle Spiel mit einer Einsteiger bzw Mittelklasse Grafikkarte spielbar sein. Schließlich kommen die meisten ja auch für Konsole heraus. Dabei spielt RT, DSSL, 144 Hz usw keine Rolle, und trotzdem wird gespielt. PC Spieler werden doch verar.., wenn ihnen für viel Geld ein Spiel verkauft wird das angeblich nur auf high-end Grafikkarten läuft aber sonst auf jede Konsole flüssig spielbar ist. Wer da wohl Interesse daran hat? 😉
 
@bersel
Naja kommt drauf an wo man guckt. Bei steam dominieren nach wie vor die 1060 und 1660er Karten. Der normale PC Spieler kommt mit älterer oder schwächerer Hardware gut zurecht. Aber wenn man neue Hardware testet, schaut man eben, was maximal möglich ist. Deshalb ultra Settings und hohe FPS.
Hier im Enthusiasten Forum werden nur wenige mit 60er Karten (bzw. AMD Äquivalent) spielen. Nur ist das Forum hier nicht die Masse der PC Spieler sondern eben die oberen 20% oder so.
 
Finde den Ansatz von Team blau nicht schlecht. High end ist teuer und können sie noch nicht gewinnen. Solange man bei der Leistung auf 7800xt/4070 Niveau beim top Modell liegt reicht das vollkommen aus.
Generell finde ich die Graka Typen Zahl der heutigen hersteller eh eher Kontraproduktiv. Wo sind die Zeiten hin bei denen jeder nur 3 Graka Typen rausbrachte 🫤
 
stevefrogs schrieb:
ich denke AMD und Intel wären gut beraten, eine langfristige strategische Partnerschaft in der Grafiksparte einzugehen.
Wünschen Wert wäre es ja. Aber das wird nicht passieren, immerhin sind sie starke Konkurenten im CPU Markt und AMD bietet auch viele APUs an.

Ich hoffe Intel kann wenigstens halbwegs den 500 - 600 Euro Bereich angreifen, alles was dadrüber ist wird warscheinlich zwar gute Margen haben, aber der Absatz ist viel zu gering.
 
RedGamingTech ist ja meistens nicht wirklich verlässlich.
Mal davon abgesehen finde ich es schade, dass es so aussieht dass BMG doch erst Ende des Jahres kommen wird (wenn überhaupt) und nicht schon zum Sommer. Das war auch bei Alchemist schon das große Problem.

Falls der Leak stimmt halte ich es für eine sehr gute Sache. Es macht sicher am meisten Sinn, einen einzigen die zu fertigen und dafür den ordentlich zu unterstützen und so früh wie möglich an den Markt zu bringen. Bleibt nur zu hoffen, dass es mit der Effizienz wesentlich besser als bei Alchemist aussieht, sonst bleiben die Arc-Karten besonders bei DE Strompreisen unbrauchbar.
 
Bei den Kommentaren zeigt sich ja das nicht alle hier im Forum Enthusiasten sind. Ich kaufe mir doch keine Grafikkarte für 1000 € um dann festzustellen das das Spiel auf Konsole für die Hälfte genauso gut läuft. Aber das kann ja jeder für sich selbst entscheiden. Wenn die Leute aber keine Spiele mehr kaufen, weil die passende Hardware fehlt, dann lohnt sich die Entwicklung für ein paar Enthusiasten auch nicht mehr.
 
  • Gefällt mir
Reaktionen: konkretor
Zurück
Oben