PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : SoCs von Intel, Nvidia, AMD


Dampf
2022-03-18, 14:34:54
Wisst ihr was ich richtig cool finden würde?

Wenn die drei für Laptops eigene SoCs produzieren würden. Vielleicht auch irgendwann für Desktop PCs wo man den ganzen SoC auch austauschen kann.

Wir sehen ja an Apples M1 was das für Vorteile bringt. Geteilter, schneller Speicher sehr nahe an CPU und GPU, kaum Latenzen und deutlich höhere Effizienz.

Dazu müssten sich die Hersteller aber mal zusammensetzen. Sagen wir es ist das Jahr 2025 und Intel+Nvidia bauen zusammen einen High End SoC für effiziente Gaming-Laptops.

Dieser SoC würde dann eine angepasste mobile RTX 5080 und den aktuellen Core i7 Nova Lake integrieren, gepaart mit sagen wir 64-512 GB LPDDR7X Speicher mit ultra schneller Bandbreite. Die GPU, iGPU, NPU, DSPs und CPU würden viel schneller und reibungsloser untereinander kommunizieren als es heute der Fall ist. Das würde höchste Effizienz ermöglichen.

Wenn Intel, AMD und Nvidia mit Apple in Sachen Performance/Watt mithalten wollen, kommen sie IMO um diesen Ansatz nicht drumherum.

Was meint ihr?

y33H@
2022-03-18, 14:47:52
Kaby Lake G ^^

basix
2022-03-18, 16:48:53
Erst kürzlich wurde UCIe vorgestellt. Damit liesse sich sowas realisieren. Schlussendlich ist es eine Frage der Produktpolitik. AMD und Intel haben eigene CPU und GPU IP. Unwahrscheinlich, dass es hier entsprechenden Austausch gibt. Nvidia könnte eine CPU von AMD oder Intel lizenzieren. Nur wofür? Da sehe ich eher Nvidias eigene ARM Anstrengungen im Fokus.

Von der Grundidee her (höhere Integration, "SoC") stimme ich dir zu. Da könnten alle drei etwas in diese Richtung machen. Hier stellt sich dann die Frage: Mit was steht man in Konkurrenz und wie gross ist der Markt, welcher nicht schon heute und/oder mit Standardlösungen abgedeckt werden kann?

Zossel
2022-03-18, 17:16:50
Wenn die drei für Laptops eigene SoCs produzieren würden. Vielleicht auch irgendwann für Desktop PCs wo man den ganzen SoC auch austauschen kann.

Schon vergessen das man früher CPUs von AMD/Cyrix/ST/VIA/IBM/Foo/Bar in Sockel von Intel stopfen konnte?

Wollte Intel aber irgendwann nicht mehr.

Module mit RAM, Stromversorgung und Glue wo im wesentlichen PCIe raus kommt wären praktisch.

Savay
2022-03-18, 17:27:53
Ich versteh nicht ganz.
Intel und AMD produzieren doch schon SoCs.
AMD sogar ziemlich GPU lastige für die Konsolen.
Dazu auch spezifische für Laptops und sogar noch SoCs die man tauschen kann.

Daredevil
2022-03-18, 19:18:05
Was ist jetzt ein SoC? CPU+GPU, oder auch Arbeitsspeicher und sonstige Komponenten, so das man keine "Northbridge" mehr benötigt?
Da gibts ja schon den ein oder anderen Unterschied, auch zwischen AMD und Intel, Apple baut das ganze ja am "kompaktesten", oder?

Savay
2022-03-18, 20:23:43
Seit wann ist DRAM ein direkter Bestandteil eines SoC?
Das ist er ja auch beim M1 nicht...der ist da ja "nur" Teil vom Package...

Ne SB/NB kann davon ab eh auch Teil eines MCM sein. (wie bei Vermeer oder vielen der Intel "SoCs" etc.)
Wobei man das dann vielleicht eher SoP/SiP nennen sollte. :D
Nen Ryzen bräuchte m.W. nichtmal nen Chipsatz.

Rembrandt, wie eigentlich alle Zen APUs (Ryzen V1000 z.b.), ist im Grunde in jeder Beziehung ein SoC und hat sogar nen DSP für ML Anwendungen.
Auch wenn das Ding kaum dokumentiert und/oder rein inselbegabt für diese Realtek Lösung ist.
Was dem am ehesten noch fehlt verglichen mit nem M1 ist ein IF$ als SLC und ggf. vollständiges UMA/HSA wie sie die Konsolen bereits haben.

Das (UMA, SLC) ist aber kein Kriterium für ein SoC sondern beschreibt nur dessen konkrete Architektur.

Daredevil
2022-03-18, 22:10:52
Also gibt es doch Unterschiede, das sagte ich ja. :)
Genau, SYSTEM on a CHIP.
Ein System ohne DRAM ist kein System, RAM neben dem Chip ist noch "on a Chip".

Mehr wollte ich doch nicht sagen, das viele Hersteller unterschiedliche Ansätze haben.
Nur weil man CPU und GPU kombiniert, ist das ja immer noch nicht "alles", was ein System so ausmacht.

Wenn man sich das Mainboard eines M1 Notebooks anschaut und das Mainboard einer PS5 z.B. sieht man ja auch noch große unterschiede, was alles so im "System" ist und was noch "ausgelagert" wird.
"Richtige" SoCs sind nur die Smartphone Prozessoren, oder?

BlacKi
2022-03-18, 22:37:05
ich hab soviel dagegengeschrieben und alles wieder gelöscht. weil ich auch gerne ein steam deck in nicht mobil und mehr power gut finden würde.

apple macht das bereits toll, nur will apple nicht, das die opensource welt davon profitiert. mal davon abgesehen das apple verdammt teuer ist, nicht nur, aber auch wegen der teuren fertigunsprozesse, die andere chiphersteller noch nicht nutzen können, bzw. weils keiner bezahlen würde.

Savay
2022-03-19, 13:16:18
RAM neben dem Chip ist noch "on a Chip".

Das ist on Package...nicht "on Chip" :tongue:
Also SoP/SiP oder PoP.

Bspw. A14
Das SoC bildet zusammen mit dem LPDDR4X-4266-RAM einen PoP (Package-on-Package), hergestellt in TSMCs InFO-Packaging-Verfahren, das Speicherinterface ist 64 Bit breit und es werden Versionen mit 4 GiB oder 6 GiB verbaut.

Wo ist der grundsätzliche Unterschied zu sonstigem aufgelöteten BGA RAM?
Nur weil es nochmal auf einem extra BGA Träger mit dem eigentlichen SoC sitzt?
Prinzipiell kann man den DRAM auch auf nem Board direkt neben den Chip setzen.
Ist die Distanz ist also das entscheidende Kriterium oder das Packaging bzw. die Arbeitsschritte in der die Zusammengelötet werden?

Davon abgesehen gibt es SoCs die rein über SRAM arbeiten und da das wohl heutzutage jeder Chip hat ist das Kriterium meistens schon erfüllt. :wink:


"Richtige" SoCs sind nur die Smartphone Prozessoren, oder?

Nach deiner Definition nichtmal das zwingend.

Wo ziehst du die Grenze zwischen "System" und SoCs?
Was ist mit Modems und/oder Non-volatile memory?
Ist ein SoC dann kein "SoC" mehr wenn nur eines davon nicht mehr im Package integriert ist und weil sie ohne nicht wirklich ein "System" ergeben?!
Dann ist meines Wissens nicht ein Axx Chip ein wirkliches "SoC".

Ich glaube das zeigt schon, dass die Diskussion generell weg muss von "SoC" oder nicht, sondern Richtung "Systemarchitektur".

Da sehe ich aber ehrlich gesagt bei allen Playern eine ähnliche Richtung in die sie sich bereits entwickeln. (MCM/SiP, UMA/ccNUMA , SLC/IF$)
Nur sind die Prioritäten und Umsetzungsstände tw. andere.

mboeller
2022-03-19, 15:11:13
Dauert vielleicht ja nur noch ein Jahr:

Mobius1aic: ... Clearly AMD is doing great, but I can't help but look at Apple's M1s and wish AMD had that kind of overall graphics performance on a single SoC.

Bondrewd: Wish granted early next year.

https://forum.beyond3d.com/threads/amd-execution-thread-2022.62685/page-2

Daredevil
2022-03-20, 02:06:22
:D
https://abload.de/img/bildschirmfoto2022-035zj8h.png

fondness
2022-03-20, 10:44:40
Dauert vielleicht ja nur noch ein Jahr:





https://forum.beyond3d.com/threads/amd-execution-thread-2022.62685/page-2

Na endlich. Mich wundert es eh, dass AMD sowas nicht schon längst baut. Sie sind die einzigen, die dazu in der Lage sind. Intel fehlt die konkurrenzfähige GPU, Nvidia die CPU.

Windi
2022-03-20, 14:06:09
Für Gelgenheitsnutzer / Gelegenheitsspieler ist das eh die Zukunft.
Die rüsten halt selten auf.

Das ersparrt einem ein teures Mainboard und ermöglicht eine simple Kühlung.

Beim Mainboard braucht man eigentlich nur noch die Spannungsversorgung und 2 M.2 Slots.
Dank des kleinen Mainboards und der kurzen Leitungslängen wird das deutlich billiger zu produzieren sein, als ein großes Board bei dem alle paar cm ein Chip zum auffrischen der Signalqualität sitzten muss.

Und bei der Kühlung braucht man nicht mehr aufwendige Kühlkonzepte, AIOs die nicht immer sehr haltbar sind oder schwere Towerkühler, die das Mainboard belasten. Einfach einen großen Kühler in das Gehäuse integrieren und dann das Mainboard an den Kühler schrauben.

Ghost1nTh3GPU
2022-03-23, 10:52:08
Ein Series S basierendes Notebook, wo man in einer VM-App Windows inkl. Gamepass PC starten kann, wäre auch ein No-Brainer. Gerade bei dem Erfolg von Steam Deck sollte Microsoft darüber eigentlich nachdenken.

DrFreaK666
2022-03-23, 12:00:46
Ich würde sofort zuschlagen. Die Series S ist zum Arbeiten dann doch zu stark eingeschränkt

Zossel
2022-03-23, 12:13:04
Ein Series S basierendes Notebook,

Was ist ein "Series S basierendes Notebook" ?

Dampf
2022-03-23, 12:31:14
Was ist ein "Series S basierendes Notebook" ?

Ein Notebook mit einem SoC der eine ähnliche Leistung wie die Series S bietet.

Ghost1nTh3GPU
2022-03-23, 14:42:22
Spätestens mit einem 5/4nm Shrink ist Lockhart wohl bei knapp über 100mm2 und <65W. Wenn man jetzt noch 16GB GDDR6 dazupackt hat man eine vernünftige Notebook-Basis bis 500€.

Dampf
2022-03-25, 11:34:29
Spätestens mit einem 5/4nm Shrink ist Lockhart wohl bei knapp über 100mm2 und <65W. Wenn man jetzt noch 16GB GDDR6 dazupackt hat man eine vernünftige Notebook-Basis bis 500€.

Nicht GDDR, LPDDR5X. GDDR braucht man nicht mehr in einem SoC, Apple hat schon bewiesen wie viel Bandbreite LPDDR5X haben kann. Dazu hat es viel geringere Latenzen was besonders der CPU zugute kommt und stromsparender ist es auch noch.

Zossel
2022-03-25, 14:57:17
Ein Notebook mit einem SoC der eine ähnliche Leistung wie die Series S bietet.

Und was ist "Series S"?

Ghost1nTh3GPU
2022-03-26, 18:13:59
https://en.m.wikipedia.org/wiki/Xbox_Series_X_and_Series_S

AMD selbst verkauft die PS5/XsX-SOCs mit kaputter GPU auf PC-Mainboards in Asien.

Mit passendem GPU-Treiber sollte ein echtes Windows wohl durchaus darauf laufen können.

Intel und AMD selbst haben wohl wenig Interesse an solch Leistungsfähigen SOCs für Endkunden da die inventory costs zu hoch sind.

ChaosTM
2022-03-26, 18:19:07
NV hat "RTX" eingeführt eben weil man Angst vor den leistungsfähigen AMD SOC`s hatte ud es ist aufgegangen, zumindest vorerst. Und AMD will sich ihr eigenes GPU Geschäft auch (noch) nicht kannibalisieren.
Sobald die nächste Generation (PS5 Pro etc) fertig ist mit deutliche mehr RT Leistung wird sich NV wieder was neues einfallen lassen müssen...

600 Watt GPUs wird bald keiner mehr kaufen..

Dovregubben
2022-03-27, 14:08:54
NV hat "RTX" eingeführt eben weil man Angst vor den leistungsfähigen AMD SOC`s hatte ud es ist aufgegangen, zumindest vorerst. Und AMD will sich ihr eigenes GPU Geschäft auch (noch) nicht kannibalisieren.
Sobald die nächste Generation (PS5 Pro etc) fertig ist mit deutliche mehr RT Leistung wird sich NV wieder was neues einfallen lassen müssen...
Das nennt sich Innovation und ist keine Reaktion auf AMD. Wer sich nicht ständig neu erfindet, kann in einem gesunden Markt kein Marktführer werden.
AMD tut das in den letzten Jahren endlich mal wieder auf Fertigungsebene und übt damit Druck aus. Wenn Nvidia auch Chiplets/Stacking verwendet, werden sie sich was neues einfallen lassen. Falls eine Firma damit aufhört, führt sie in kurzer Zeit nur noch ein Schattendasein oder stirbt. Mit Schattendasein hat AMD ja sehr viel Erfahrung.

ChaosTM
2022-03-27, 14:34:55
Das nennt sich Innovation und ist keine Reaktion auf AMD. Wer sich nicht ständig neu erfindet, kann in einem gesunden Markt kein Marktführer werden.
AMD tut das in den letzten Jahren endlich mal wieder auf Fertigungsebene und übt damit Druck aus. Wenn Nvidia auch Chiplets/Stacking verwendet, werden sie sich was neues einfallen lassen. Falls eine Firma damit aufhört, führt sie in kurzer Zeit nur noch ein Schattendasein oder stirbt. Mit Schattendasein hat AMD ja sehr viel Erfahrung.


RTX war eine klare Reaktion auf AMD (Konsolen) SOCs. Sonst hätte man so wie bisher weitergewurschtelt, daher ist Konkurrenz ja was gutes ;)

Nach dieser Generation wird man in Zugzwang sein wegen AMDs Multi Chip Design. Was bessere könnte und gar nicht passieren.

=Floi=
2022-03-27, 15:41:42
schmarrn.
RTX ist einfach die weiterentwicklung der normalen grafik hin zu RT.

y33H@
2022-03-27, 16:45:05
Der Weg hin zu Raytracing war doch schon laaaange gesetzt, von allen IHVs.

-/\-CruNcher-/\-
2022-03-27, 18:26:29
Normale Evolution, wir haben es Offline erreicht, wir wollten es Realtime erreichen und Nvidia waren ja auch nicht die ersten mit einer Realtime Solution.
Jensen hat nur sehr frühzeitig angekündigt jetzt kommt es in die Masse wir sind dabei Optix im Hybrid Approach kombiniert mit allerlei neuen Workarounds Realtime zu machen.
An den Workarounds haben sie schon lange durch ihren VideoCore gearbeitet, es war dann nur eine Frage der Zeit bevor man das in 3D Spatial/Temporal integriert um den ausreichenden Boost hinzubekommen, etwas überraschend Kamm eher die Verbindung mit ML ontop vor allem um einige der tief sitzenden Architektur Latenz Probleme zu umgehen war es aber auch absolut nötig, das man im gesamten aber dann auch noch effizienter dasteht, gegen einen effizientere Hardware Node wer hätte das gedacht.

Vor allem, wenn man den shrinking kampf zwischen Intel und AMD bei Mobile vorher verfolgt hat und wo AMD kein land sah gut die insgesammte Balance war einfach ohne ZEN zu schlecht selbst gegen Intels zusammengekauften GPU core (3Dlabs/PowerVR) irgendwas effizient zu erreichen und der Node Vorsprung Intels gab ihnen lediglich den Rest.
Die Zeit wo Intel erkannte es ist Zeit für Raja, den shrinking Vorteil halten wir momentan nicht auf dauer durch und genau so ist es gekommen ;)
Und auch AMD erkannte die CPU core balance wird auf dauer nix und ihnen den Hals brechen.

Und jetzt plötzlich stehen sie alle Apples Balance gegenüber und knabbern an den Fingernägeln :D

basix
2022-03-27, 19:13:44
RTX ist ein Mittel, um gegen Konsolen und APUs langfristig relevant zu bleiben. Mit RT kann man nach oben hin so viel Rechenleistung verblasen, dass man das nie in eine APU pressen kann (Chipfläche, TDP). Schaut euch Videos von Jensen vor 15 Jahren an, dort sagt er das klipp und klar: GPUs sind konstant in Gefahr, von "sucked into the CPU" betroffen zu sein. Wie so viele andere IP-Blöcke zuvor. Hält man das Problem gross genug, dass es nicht in eine APU passt, hat man eine Daseinsbberechtigung für dGPUs. Mit RTX und ferner auch 8K hat man den "Bedarf" danach aktiv geschaffen.

-/\-CruNcher-/\-
2022-03-27, 21:25:10
Jep gut erkannt :)
Es sicherte das überleben allerdings in der Zukunft scheint seine Strategie sich komplett von dGPUs abzuwenden.
Sollange er keine eigene effiziente Konsolen Platform präsentieren kann ist es so ziemlich Over aber er setzt ja alles auf seine Mega Cloud juckt ihn wohl überhaupt nicht mehr über Lokale Consumer Hardware noch viel nachzudenken, meiste wird nur noch für die Nvidia Cloud designed.
Und den Anschluss daran kriegt man auch mit billigerer Hardware hin.

ChaosTM
2022-03-27, 21:28:00
RTX ist ein Mittel, um gegen Konsolen und APUs langfristig relevant zu bleiben. Mit RT kann man nach oben hin so viel Rechenleistung verblasen, dass man das nie in eine APU pressen kann (Chipfläche, TDP). Schaut euch Videos von Jensen vor 15 Jahren an, dort sagt er das klipp und klar: GPUs sind konstant in Gefahr, von "sucked into the CPU" betroffen zu sein. Wie so viele andere IP-Blöcke zuvor. Hält man das Problem gross genug, dass es nicht in eine APU passt, hat man eine Daseinsbberechtigung für dGPUs. Mit RTX und ferner auch 8K hat man den "Bedarf" danach aktiv geschaffen.


Basix hats begriffen - es ist das perfekte Fass ohne Boden. ;)

Gesetz des sinkenden Grenzertrags oder Gesetz vom abnehmenden Ertragszuwachs (https://de.wikipedia.org/wiki/Ertragsgesetz)

Das kann man bis zum erbrechen spielen und keiner sieht mehr einen Unterschied. Bis auf einmal Dinge daherkommen die Jensen nicht vorhergesehen hat ;) --> Nanite

Eigentlich sollte ich Teile meiner NV Anteile abstoßen, aber ich glaube an Jensen und sein Schläue. Außerdem lebt NV schon lange nicht mehr von uns dummen Gamern.

-/\-CruNcher-/\-
2022-03-27, 21:42:07
Ich finde wir haben schon enorm viel erreicht und sollten uns lieber wieder mehr auf Physik Performance konzentrieren :)

ChaosTM
2022-03-27, 21:45:45
Man sollte sich genau auf solche Sachen stürzen, wo es noch Bottlenecks gibt - sind nicht mehr viele.
Beleuchtung gehört natürlich noch dazu.
Physik fiel mir schon länger nicht mehr negativ auf.

basix
2022-03-27, 23:03:45
Nur zum klarstellen: Ich verteufle RTX nicht und empfinde es als technologischen Fortschritt ;) Aber bei dGPUs muss man den Bedarf nach mehr Rechenleistung haben, damit das Geschäftsmodell auch in Zukunft funktioniert. Und dieser Bedarf entsteht entweder automatisch beim Kunden (z.B. Quake anno 1996) oder man kann ihn aktiv mitgestalten (mein Eindruck hinsichtlich RTX und 8K). So funktioniert dieser Markt schon seit 30 Jahren. Raytracing ist aufgrund der sehr hohen Anforderungen an Rechenleistung und dessen extreme weiter Skalierbarkeit halt einfach ein perfektes Tool, um die Nachfrage nach mehr Rechenleistung zu befeuern. Nichtsdestotrotz ist RT technologisch ein Fortschritt und ich begrüsse es.

In der Spiele-Industrie gibt es momentan allgemein aber auch deutliche Trends in Richtung mehr Effizienz: Nicht mehr Pixel aber schönere Pixel. Nicht alle Pixel rendern aber Temporal Upsampling. Ansehliches Raytracing mit möglichst wenigen Strahlen. Virtualisierte Geometrie wie z.B. Nanite. Das sind primär SW-technische Aspekte, welche das Potential für grosse Sprünge bieten. Und Nvidia ist bei vielen dieser Dinge an vorderster Front mit dabei.

Ausserdem wird mit dem abnehmenden Grenzertrag irgendwann zwangsläufig der Punkt kommen, wo eine APU schon die allermeisten Grundbedürfnisse abdecken kann. Gerade DLSS und Co. könnten dies beschleunigen. Und sagen wir mal, High End bewegt sich auf 8K/120fps zu. APUs wären dann wohl fast in der Lage 4K/60fps darzustellen (es liegen 8x mehr Pixel pro Zeit zwischen diesen zwei Settings). Und für viele Menschen würde 4K/60fps gut genug sein. Ausser man weckt die Begierlichkeiten bei den Kunden, dass das eben nicht genug ist.

ChaosTM
2022-03-27, 23:22:54
basix kennt sich da einfach so viel besser aus als ich und kann das in 2 Absätzen bearbeiten, die mir Tage kosten würden.
Kurzfassung.: RT mit Lumen like stuff in Verbindung mit DLSS und/oder ähnlichen Elementen + Nanite oder ähnliches -> 4/8/16k mit fast soviel fps wie wir brauchen.

Soll heißen.: in der Software ist noch unendliches Potential versteckt - blöderweise hab ich den Artikel/das Video dazu verschmissen

Dovregubben
2022-03-28, 02:19:31
RTX war eine klare Reaktion auf AMD (Konsolen) SOCs.
Selten so nen absurden Schwachsinn gelesen. Jeder GPU Hersteller hat das über die Jahrzehnte gepusht und nun ist der Zeitpunkt dafür gekommen. Es gibt leider keine bessere Alternative für Szenenqueries. Auch Lumen kommt ohne Raytracing Hardware nur auf eine viel schlechtere Qualität.

=Floi=
2022-03-28, 21:27:35
hauptproblem eines großen SOC wird wohl die ram anbindung sein. Dann wird sich auch die stückzahl und gesamtmarge nicht lohnen.