News Nvidia cuLitho: GPUs berechnen künftig komplexe Belichtungsmasken

@S.Kara
Dresden hat Unis, Chipfertigung und Menschen mit denen ich Bierchen trinke. Meine Qualifikation ist also nicht sonderlich groß. Und Imho einer der besten Vorträge zum Thema:
AMDs CPU Entwicklung
https://media.ccc.de/v/32c3-7171-when_hardware_must_just_work#t=933
LibreSilicon
https://media.ccc.de/v/35c3-9410-libresilicon


Und Abschätzung zwecks Verbesserung: Die Hersteller von CPUs/GPUs sind selbst eine ihrer besten Kunden. Der Aufwand für Simulation, Verifikation und Maskenentwurf steigt stetig, die verfügbare Rechenleistung auch und aller paar Hardwaregenerationen gibt es wohl einen größeren Sprung bei der Software. Letzteres durch Wissenszuwachs und dadurch dass man mehr Speicher, mehr Rechenleistung hat und so schlicht komplexere Modelle zur Anwendung kommen können, die vorher unökonomisch waren.
Und zur Häufigkeit kann ich nicht so viel sagen, da stecke ich nicht tief genug drinnen. Wenn man sich aber anschaut, wie oft es Refreshs gibt, wie oft die 2., 3. oder 4. Revision eines Chips überhaupt erst in die Massenfertigung geht[1]. Das wird schon häufig genug der Fall sein und ausreichend viel Kosten verursachen, dass Nvidia Abnehmer finden wird.


[1]Wenn ich es richtig in Erinnerung habe, waren die RDNA3 GPUs ein bisschen ein Einhorn, weil da die erste Revision direkt in Produktion ging.
 
  • Gefällt mir
Reaktionen: S.Kara
hans_meiser schrieb:
Ich muß ganz ehrlich sagen, das hört sich für mich wie Magie an. Mal ehrlich, diese hochkomplexen Nanostrukturen die so gebändigt werden, daß die mit 100F immer noch klarkommen.. irgendwie schon super Krass.

Danke für den Artikel.
Deshalb ist das ganze auch so - Entschuldigung - schweineteuer! - jede Umstellung der Nodes ist ein finanziell unglaublich aufwendiges Unterfangen.
Das ist auch der Grund wieso sich weltweit nur 2 - 3 Firmen sich im Rennen um die Krone befinden.
Der Aufwand ist immens um an der Spitze konkurrenzfähig zu bleiben.
 
Als jemand der selbst schon Lithographiemasken designt hat ist as zwar gut zu sehen, aber so richtig weiß ich nicht was ich davon halten soll. solange die genauigkeit nicht leidet ist es gut die CPUs hier zu untersützen
Weyoun schrieb:
40.000 CPUs (Kerne?) brauchen zwei Wochen für die Berechnung einer Maske?
nunja wir haben hier hunderte layer und zwischenschritte die man in das Maskenbild generell einbauen muss. Da schadet es nicht wenn man das gesamtkunstwerk berechnet (macht man eher selten aus gründen die hier deutlich werden.

wirklich auf der maske landet hier ja nur eine schicht am ende und jeder weitere schritt bekommt seine schicht die er braucht ;)

aber generell gibts in dem thema hier viele tricks und kniffe, da gehen Produktionstechnik und masekndesign Hand in hand und so war das schon immer ^^
was ich eher kritisch sehe ich wie oben gesagt die genaugkeit. GPUs sind da für gewöhnlich nicht so pralle und auch wenn auf den instinct GPUs mittlerweile FP128 geht sehe ich Nvidias quasi nicht vorhandene unterstützung von allem größer als FP32 hier kritsch. diese genauigkeit mag erstmal groß genug erschienen aber durch numerische fehler würden sich diese über millionfach addierte strukturen (was bei solchen blöcken durchaus vorkommt) ständig aufaddieren sodass an den letzten blöcken der reihe ein sichtbarer und messbarer versatz entsteht und das gesamte design nicht mehr tragfähig macht.
 
  • Gefällt mir
Reaktionen: Piktogramm
SaschaHa schrieb:
Interessante Frage, wie werden die Masken eigentlich hergestellt? Diese müssen ja mindestens genauso präzise sein wie die Wafer, für die sie genutzt werden.
Naja, die sind ja viel größer!
 
Zurück
Oben