PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : PCIe 7.0


Badesalz
2024-09-27, 21:35:45
Es sieht so aus als wenn für 7.0 SSDs M.2 nichts mehr taugt :wink:

https://www.youtube.com/watch?v=bGwRzWNhbX8

Exxtreme
2024-09-27, 22:31:32
Und selbst dann laden Spiele in 9,7 Sekunden anstatt 10 Sekunden. X-D Aber für Datenbankserver ist das bestimmt nett.

Badesalz
2024-09-28, 07:37:23
Meinst du für HPC weniger nützlich? :wink: Aber es ging natürlich nicht um SSDs (nur ein Joke), sondern allgemein um die Vorstellung der 7.0 Technik.

basix
2024-09-28, 10:34:03
PCIe 7.0 m.2 wird es für SSDs mit PAM4 natürlich auch geben ;) Nur erweitert man PCIe 7.0 um einen optischen Link, da 1/2+m PCIe Kabel das nicht mehr in Kupfer hergeben. Für Consumer ändert sich das mal nicht. Ist nur die Frage, wie lange es geht. Die PCIe 5.0 Adoption ist recht langsam und bei PCIe 6.0 wird es vermutlich nicht anders sein. PCIe 6.0 wird zwar vermutlich mit den DDR6 Plattformen kommen, doch PCIe 7.0 vermutlich ziemlich lange nicht (zu teuer, zu hoher SSD Vebrauch ohne dedizierte Kühlung).

Badesalz
2024-09-28, 13:19:50
Naja... Eigentlich sol damit Ethernet über DAC-Strippen ersetzt werden. Steht irgendwie gegenüber UltraEthernet (?) Wenn man es über LWL macht, warum sollte das auf 4m begrenzt sein? Ok es sind vielleicht nicht hundert Meter drin, aber das hat imho auch UltraEthernet nicht vor.

Was SSD-Vebrauch angeht... Wir haben NICHT die Technologie um manches bereits vernünftig zu machen. Oder sind SSDs mit Kühlköper PLUS Lüfter irgendwas vernünftiges?
Wir bekommen aktuell bei so einigen Sachen die benötigte Energiemenge nicht eingfangen. Vergewaltigen also die Herstellungsprozesse, weil uns dieser Fortschritt nicht schnell genug geht.

basix
2024-09-28, 14:42:47
(Ultra)Ethernet und PCIe 7.0 nähern sich beim PHY in dem Sinn an. Aber PCIe bleibt eine Point-to-Point Verbindung und hat nicht die ganzen Networking Layer wie Ethernet. CXL ist da auch noch irgendwo zwischendrin.

Schlussendlich sind das verschiedene Protokolle über immer ähnlicher wenn nicht sogar gleich werdenden PHY Implementationen, wenn es in Richtung optischen Interconnects geht. Irgendwo habe ich letztens eine Präsentation gesehen, wo gesagt wurde das Chip Hersteller am liebsten nur Single-Mode PHY implementieren würden. Das ist am Schluss am günstigsten. Den Rest kann man über den Protokoll-Layer realisieren. In genau diese Richtung tendiert nun PCIe 7.0 / AMDs Infinity Fabric usw.

Und mir ist klar, dass der Energieverbrauch von PCIe 7.0 m.2 SSDs irgendwann mal tragbar wird oder man es mit der Brechstange versuchen kann, wenn man will. Ich wollte nur damit sagen, dass wir im Consumer Bereich vermutlich ziemlich lange bei PCIe 5.0 und dann PCIe 6.0 bleiben werden. Energieverbrauch ist ein Thema, aber das vermutlich grössere Hindernis sind die Kosten. Als Consumer hat man heute einen nur geringen Vorteil von PCIe 4.0. Versionen 5.0 und 6.0 machen es nochmals deutlich schneller. Wieso sollte ich also noch mehr Geld für PCIe 7.0 ausgeben, wenn ich keinen Vorteil davon habe? In 10 Jahren vielleicht schon, aber nicht in den nächsten 5 Jahren. Deswegen sehe ich PCIe 7.0 & 8.0 primär in Datacenter Installationen und Consumer wird ziemlich lange bei <= PCIe 6.0 bleiben. Da wäre es für Consumer deutlich wichtiger, dass man aus der bereits vorhandenen (sehr hohen) Leistungsfähigkeit so viel wie möglich rausholt. Via Software und Systemarchitektur sowie überarbeitetem SSD-Design (3DXPoint wäre ein Beispiel). Rohbandbreite auf einem PCIe m.2 Steckplatz ist mittlerweile genug da. Interessant wäre noch eine SATA3 Ablösung ähnlich wie SATA-Express, aber mit nur x1 Lane um die Kosten niedrig zu halten. Mit PCIe 5.0 Speeds wären das bereits sehr gute 3.5 GByte/s. Damit liessen sich auch die ganzen SATA-PHY reduzieren und auf PCIe vereinheitlichen. Das ergäbe auch eine Konsolidierung bei der SSD-Controller Technologie usw.

Aber sorry, das ist alles OT in einem PCIe 7.0 Thread :)

Badesalz
2024-09-28, 15:13:38
Ich sehe noch nichtmal den Sinn hinter 6.0 (Consumer), angesichts von 5.0.
Irgendwie bekommt man es mit der Zeit aufgezwungen, weil das die übernächste Entwicklung halt mitfinanziert.

Wer mit dem Kreislauf nicht vertraut ist:
Der Consumer wird meist mit der Resterampe der vorletzten HW-Generation des Rechenzentrums gefüttert, damit er für das Rechenzentrum die Entwicklung der übernächsten Generation signifikant mitfinanziert.

Galt immer wunderbar für Wifi. Jetzt haben wir Wifi7 auf dem Salatteller.

edit:
Der Joke den ich zum Thema Leistungsfähgikeit rausholt erzähle: Mir ist erst bewusst geworden wie schnell die USB2-Schnittstellen auf den Boards sind, als ich in diese die ersten USB3-Sticks reinsteckte :usweet:

][immy
2024-09-28, 17:30:45
Ist halt aktuell auch einfach schnell genug und kein Bremsklotz.
Selbiges gilt für m.2 SSDs, ab pcie3.0 tut sich für consumer quasi nichts mehr und es kommen nur Spezialfälle wobman mehr bräuchte.
Solange Grafikkarten <32gb haben (um einfach mal eine Größe zu nennen) und nicht aktiv auf den Hauptspeicher großartig zugreifen müssen, braucht das auch nicht wirklich schneller. Da greifen dann eher bottlenecks an anderen Stellen.

Nicht mal die rtx 4090 hat PCIe 5, war Nvidia wohl zu teuer bei so einem Prestige Produkt, entsprechende Chips zu nutzen (hätte natürlich auch nicht viel gebracht, aber wenn man schon so ein teures Produkt anbietet...).

Badesalz
2024-09-28, 17:48:00
Wobei ein Vorteil (6.0) könnte mir doch einfallen:

Vieles müsste man nicht spürbar schneller machen, aber es würde dafür jeweils EINE Lane reichen :freak: Das vereinfacht natürlich sehr stark einiges und lässt auch bei gleicher Anzahl an Lanes mehr Endpunkte zu.

Exxtreme
2024-09-28, 18:05:35
[immy;13622123']Ist halt aktuell auch einfach schnell genug und kein Bremsklotz.

Wobei das in erster Linie daran liegt, dass die Anwendungen so programmiert sind, dass sie fetten Datenverkehr über den PCIe-Bus vermeiden wie es nur geht. Wenn da deutlich mehr Bandbreite üblich wird dann könnte diese auch ausnutzen. Sowas wie VRAM ist auch nur ein Cache um nicht über den PCIe-Bus gehen zu müssen.

Badesalz
2024-09-28, 18:19:15
Allerdings wird sich da auch n icht soviel ändern, da auch die RAM-Menge mit der Zeit steigt. Ich weiß nicht, ob das viel spürbar schneller machen würde (@Exxtreme). Denn... die Anwendungsfälle fehlen.

Um Quellmaterial direkt auf dem NAS zu editieren reicht dem Influtscher schon 10Gbit Ethernet.

Der einzige Grund warum Leute was neues kaufen und damit - ihre eigentliche Rolle die nur wenige so wirklich schnallen, die HW-Entwickliung für die Rechenzentren ordentlich querfinanziert werden kann - sind eigentlich nur noch Spiele.

Das meiste andere geht quasi in Echtzeit. Das auch nicht erst seit gestern. Und was nicht in Echtzeit geht muss nicht beaufsichtigt werden. Stört also auch nicht so wirklich.

Skysnake
2024-09-28, 18:53:12
Wobei das in erster Linie daran liegt, dass die Anwendungen so programmiert sind, dass sie fetten Datenverkehr über den PCIe-Bus vermeiden wie es nur geht. Wenn da deutlich mehr Bandbreite üblich wird dann könnte diese auch ausnutzen. Sowas wie VRAM ist auch nur ein Cache um nicht über den PCIe-Bus gehen zu müssen.
Latenz ist oft wichtiger als Bandbreite.

Bezüglich PCIe7 FF kann ich nur sagen das ihr an CXL mit Memory Anbindung denken müsst und eben such an den Accelerator Link der in Stellung gebracht wird.

Beides Punkte die im Datencenter viel Potenzial haben. Gerade der shards Memory als Pool ist schon ziemlich sexy für VMs um deren Speicherausbau klein zu halten.

][immy
2024-09-28, 22:15:32
Wobei das in erster Linie daran liegt, dass die Anwendungen so programmiert sind, dass sie fetten Datenverkehr über den PCIe-Bus vermeiden wie es nur geht. Wenn da deutlich mehr Bandbreite üblich wird dann könnte diese auch ausnutzen. Sowas wie VRAM ist auch nur ein Cache um nicht über den PCIe-Bus gehen zu müssen.

Grundsätzlich, ja, aber da müsste die Bandbreite sich schon vervielfachen, während die gddr (oder welche Technik auch immer) Entwicklung nicht mehr vorran geht. Das ist aufgrund der zurück gelegten Distanz arg unwahrscheinlich.

Und die Latenz ist dann schon aufgrund der Distanz ebenfalls im Eimer.

Um meine Aussage von weiter oben zu präzisieren, im Normalfall bringt mehr an dieser Stelle Nichts, solange dieses mehr nicht schneller als die restlichen onboard Komponenten. Es schadet nicht (abgesehen von einem höheren Energieverbrauch und der entsprechenden Wärmeentwicklung und ggfs teureren Komponenten) aber letztlich ist der Gewinn am ende nur noch messbar aber nicht spürbar. Und es sieht nicht so aus als wenn sich da was für consumer in den nächsten Jahren ändern wird.

Den Traum das die Grafikkarte den Hauptspeicher ganz normal mit nutzt gibt es letztendlich nur mit integrieren GPUs und da braucht man das Interface dann nicht mal.

Badesalz
2024-09-29, 08:55:36
[immy;13622245']Es schadet nicht (abgesehen von einem höheren Energieverbrauch und der entsprechenden Wärmeentwicklung und ggfs teureren Komponenten) Das scheint schon bei 6.0 ein signifikantes Problem zu sein.