Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 17. März 2023
Leonidas
2023-03-18, 08:34:43
Link zur News:
https://www.3dcenter.org/news/news-des-17-maerz-2023
Bei Intel könnten sie echt mal aufhören mit dem nicht mehr enden wollenden "Ge-Lake-e" in den Codenamen. Klar, spielt natürlich keine Rolle und meinetwegen sollen die diese Dinger nennen, wie sie wollen. Aber irgendwie nerven tut's halt trotzdem :hammer:
Und die Serverplattformen werden im Übrigen auch nicht schneller, wenn sie die jetzt alle 'Blabla Rapids' nennen... :P
"Der einzige Hardware-Unterschied liegt außerhalb der eigentlichen CPU-Kerne" ist afaik kompletter Unsinn. Und im Weiteren führt Leo dies sogar selbst aus.
Funktions(!)-Unterschiede mag es nicht geben.
Exxtreme
2023-03-18, 13:52:29
"Der einzige Hardware-Unterschied liegt außerhalb der eigentlichen CPU-Kerne" ist afaik kompletter Unsinn. Und im Weiteren führt Leo dies sogar selbst aus.
Funktions(!)-Unterschiede mag es nicht geben.
Wen es wirklich Funktionsunterschiede gäbe, das wäre der nächste Alptraum für die Betriebssysteme-Programmierer. X-D
ElectricLeaf
2023-03-18, 17:21:59
Immer mehr Kerne und Threads aber welche Software nutzt den das wirklich aus,
selbst beim Rendering nehme ich doch lieber das Hardwareverdrahtete Quicksnyc was weniger Qualitätseinbußen hat als sonst über die GPU für Hobby.
Dabei ist eine UHD 610 (veraltet bis zu geht nimmer) eines Celeron immer noch schneller als ein I5 Alderlake CPU seitig.
Mein I3 ist für 77 FPS im Cap da die GPU nicht mehr schafft selbst kein Problem, einzig ein einziges Spiel geht im Jahre 2023 nicht normal zu spielen und das ist 2042 mit 128 Spieler,
hallo ein 10100 hat die gleiche Leistung wie ein I7 6700 vom Jahre 2015.
Wo ich ein Prblem sehe im Jahr 2023 ist das Prgamme irrsinig viel RAM brauchen, da investier ich lieber nochmal in 16GB RAM für den I3,
wenn die CPU nicht mehr reicht hat man auf Sockel 1200 super Upgrademöglichkeiten:
Spielt man mehr dann 11700F z.b. oder mehr mit Anwendungen dann ein 10900F
Leonidas
2023-03-19, 03:44:28
"Der einzige Hardware-Unterschied liegt außerhalb der eigentlichen CPU-Kerne" ist afaik kompletter Unsinn.
Die Wortwahl ist suboptimal. "Architektur-Unterschied" wäre besser. Gefixt.
Immer mehr Kerne und Threads aber welche Software nutzt den das wirklich aus,
selbst beim Rendering nehme ich doch lieber das Hardwareverdrahtete Quicksnyc was weniger Qualitätseinbußen hat als sonst über die GPU für Hobby.
Apple geht diesen Weg, hat aber sicherlich den Vorteil, dass man die Software weitgehend selber kontrolliert. Mal schauen, wann AMD & Intel sich diesem Weg der Spezial-Kerne zuwenden. Es wird Zeit - denn mehr Kerne bringen in der Tat nix.
Apple geht diesen Weg, hat aber sicherlich den Vorteil, dass man die Software weitgehend selber kontrolliert. Mal schauen, wann AMD & Intel sich diesem Weg der Spezial-Kerne zuwenden. Es wird Zeit - denn mehr Kerne bringen in der Tat nix.
Ich rendere mit der CPU, denn das bietet eine deutlich bessere Qualität bzw erheblich kleinere Files.
Wieso sollten mehr Kerne also nichts bringen? :) Ich bin froh um jeden Kern, den ich bekommen kann.
Exxtreme
2023-03-19, 12:38:00
Der Vorteil von E-Kernen, wenn sie echte E-Kerne wären, also nicht das was Intel macht, wäre ein sehr niedriger Stromverbrauch und trotzdem ordentlich Power. Dann könnte man Programme, die nicht so viel Rechenleistung brauchen auf diesen Kernen ausführen. Und man hätte einen PC- der nicht so viel Energie frisst. Auf Handys funktioniert das bereits.
Platos
2023-03-19, 15:25:48
Am PC kann man ja noch nicht mal die dGPU abschalten und die iGPU nutzen, wie an einem Laptop.
Die alleine frisst 10-15Watt. Und die Kerne sind heute sowieso sehr, sehr Sparsam. Das, was Strom frisst sind nicht die Kerne, sondern z.B Package und Mainboard.
Vergleich doch mal ein Laptop mit nem Desktop. Da sind auch keine super duper Kerne verbaut. Es sind die gleichen(Bei Intel). Und das Netzteil ist nicht der Grund, warum Laptops so effizient sind (und ich beziehe mich nicht auf Laptops, bei denen alles verlötet ist wie bei Handys).
Also erstmal da ansetzen. Denn das andere wird kaum was bringen. Die Kerne selbst sind glatt das kleinste Problem am Desktop.
Am PC kann man ja noch nicht mal die dGPU abschalten und die iGPU nutzen, wie an einem Laptop.
Die alleine frisst 10-15Watt. Und die Kerne sind heute sowieso sehr, sehr Sparsam. Das, was Strom frisst sind nicht die Kerne, sondern z.B Package und Mainboard.
Vergleich doch mal ein Laptop mit nem Desktop. Da sind auch keine super duper Kerne verbaut. Es sind die gleichen(Bei Intel). Und das Netzteil ist nicht der Grund, warum Laptops so effizient sind (und ich beziehe mich nicht auf Laptops, bei denen alles verlötet ist wie bei Handys).
Also erstmal da ansetzen. Denn das andere wird kaum was bringen. Die Kerne selbst sind glatt das kleinste Problem am Desktop.
Na ja ich denke der Grund warum alle hier wegen des Verbrauchs jammern, ist dass die Leute hoch potente (und die schnellsten) CPUs mit jedoch nur 65w oder lieber gleich 35w hätten. Was ja aktuell wie wir sehen, nicht möglich ist. Amd kann (bei wieder 2 nodes Vorsprung) eine gute Performance mit einem guten Verbrauch abliefern, Intel kann etwas bessere Performance bei etwas schlechterem Verbrauch abliefern, beide können aber auch fast die gleiche beste Performance bei absurdem Verbrauch liefern.
Eine beste Performance, die in 2 Jahren nicht mit 250w sondern mit 120w oder vielleicht sogar 65w zu leisten sein wird. Aber es wird wieder Leute geben die dann die neue, beste Performance von 250w im tdp von 35-65w haben wollen werden. Der Kreis schließt sich...
Natürlich ist es miserabel wenn man mit immer mehr tdp die Performance erkauft, aber das Problem der immer länger dauernden Sprünge zwischen den nodes und dabei immer kleineren Vorteilen dazwischen ist nun halt da. Da wird man wohl ein neues Material oder ein ganz anderes Konzept entwickeln müssen um wieder in die guten alten Zeiten von double perf in same tdp every year zu kommen...
Aber wie du sagst das ganze drum herum verbraucht auch einiges an Strom, geht aber wohl wieder nicht ganz anders bei den hohen Frequenzen, Bandbreiten une always on...
Da müsste man halt sagen, die perf von einem z. B. 4770k reicht aus für alles und nur noch auf die Performance hin mit nodes und Architektur hin zu arbeiten, dann würde auch die tdp sogar fallen und nicht steigen.
Amd kann (bei wieder 2 nodes Vorsprung) eine gute Performance mit einem guten Verbrauch abliefern, Intel kann etwas bessere Performance bei etwas schlechterem Verbrauch abliefern,
AMD hat grob einen Node Vorsprung: Intel's 10nm ist grob vergleichbar mit TSMCs 7nm. Und die 3D Modelle von AMD bieten m.M.n. hervorragende Leistung zu akzeptablem Verbrauch. Allerdings zu krassen Preisen. Irgendwas gibt's ja immer.
Aber stimmt schon, AMD und Intel könnten ihre CPUs vom Verbrauch her massiv reduzieren, ohne viel Leistung zu verlieren. Genau das ist ja auch das Problem von x86 im Vergleich zu Apple. Bei Apple gibt's keinen Turbo, der die Effizienz für ein paar Prozente Leistung opfert.
Na ja ich denke der Grund warum alle hier wegen des Verbrauchs jammern, ist dass die Leute hoch potente (und die schnellsten) CPUs mit jedoch nur 65w oder lieber gleich 35w hätten. Was ja aktuell wie wir sehen, nicht möglich ist.
Das stimmt aber so nicht. Die 7945HX 16-Kern Notebook CPU von AMD ist genauso schnell wie das Desktop-Pendant - bei 55W TDP statt 170W.
Es geht also doch.
Tigerfox
2023-03-20, 09:46:50
Der liefert aber auch nicht die Performance von 170W TDP. Dass Zen5 selbst bei 65W TDP nur ein paar Prozent Performance verliert, haben die meisten Tests auch herausgestellt.
Das Problem ist, dass die Leute jedes Prozent Mehrperformance wollen und sich sonst über mangelnden Fortschritt beschweren. Da Intel und AMD in einem harten Wettkampf stehen und jeder vom Anderen erwarten muss, dass die Hardware mit der Brechstange ausgereizt wird, müssen sie mitziehen, da sie es sich nicht leisten können, in Benchmarks nicht die beste Leistung zu zeigen.
Ich habe da nur ein mittelmäßiges Problem mit. Ja, für meinen neus AM5-System plane ich mit 750W/850W NT statt vorher 480W, weil nunmal ein Ryzen 7 7700X und eine 4070Ti auch ordentlich ziehen können, aber bei meinen Anwendungen und Spielen und begrenzt auf 144 fps zeigen mir doch die meisten Messungen, dass die Hardwre intelligent genug ist, sehr wenig zu verbrauchen.
Exxtreme
2023-03-20, 09:59:05
Das stimmt aber so nicht. Die 7945HX 16-Kern Notebook CPU von AMD ist genauso schnell wie das Desktop-Pendant - bei 55W TDP statt 170W.
Es geht also doch.
Du kannst einen normalen Zen 5 auch auf 65 W festtackern und verlierst ca. 5 - 10% Performance je nach Anwendung. Mit UV geht eventuell auch noch bissl mehr. Der Stromsaufmodus ist dazu da um längere Balken zu bekommen. Eine reine Marketing-Maßnahme weil die Hersteller wissen, dass die Kunden nach Balkenlänge kaufen.
Apple geht diesen Weg, hat aber sicherlich den Vorteil, dass man die Software weitgehend selber kontrolliert. Mal schauen, wann AMD & Intel sich diesem Weg der Spezial-Kerne zuwenden. Es wird Zeit - denn mehr Kerne bringen in der Tat nix.
Klar, bringen mehr Kerne etwas. Wobei das eine das andere nicht ausschließen muss. Die Software muss lediglich darauf optimiert werden(siehe GPUs). Unabhängig davon profitieren alle von den daraus resultierenden Preissenkungen für die bisher übliche niedrigere Kernanzahl. Sobald z.B. 16 Cores Mainstream sind, werden diese auch genutzt werden - so wie heutzutage 8 Cores. Die gleiche Diskussion gab es schon beim Übergang von Dual-Core zu Quad-Core.
Leonidas
2023-03-21, 04:38:24
Durchaus möglich, dass es so passiert. Aber die Abstände beim Wechsel werden bemerkbar größer, weil die Aufgabe für die Programmierer auch größer wird. 16C anstatt 8C ausnutzen ist schwieriger als alle Sprünge vorher - und einfacher als alle Sprünge nachher.
16C anstatt 8C ausnutzen ist schwieriger als alle Sprünge vorher - und einfacher als alle Sprünge nachher.
Jein, man Entwickelt nicht für Kernanzahl X.
Man parallelisiert was zu parallelisieren geht, und der Rest muss zwangsweise weiter seriell abgearbeitet werden. Je mehr Kerne man hat, desto mehr wird die Endperformance allerdings vom seriellen Teil bestimmt, oder anders ausgedrückt umso geringer wird der Performancegewinn durch mehr Kerne.
Es wird niemals einen Punkt geben, an dem Software plötzlich mit 16 Kernen 1:1 skaliert, nur weil sich jeder 16 Kerne leisten kann.
Es ist sogar eher umgekehrt, alles was sich quasi beliebig parallelisieren lässt ist auf echten Manycore Prozessoren aká GPUs massiv schneller als auf jeglicher CPU. Was nützt dir ein Algo der so gut parallelisierbar ist, dass er auf einem 16-Kerner tatsächlich 2x so schnell wie auf einem 8-Kerner läuft? Ein derartiger Algo läuft dann auf einer GPU mindestens 100x wenn nicht 1000x schneller.
Alles andere was sich nicht beliebig parallelsisieren lässt, und das ist sehr viel wird auf CPUs mit vielen Kernen immer vom seriellen Teil ausgebremst werden.
Durchaus möglich, dass es so passiert. Aber die Abstände beim Wechsel werden bemerkbar größer, weil die Aufgabe für die Programmierer auch größer wird.
Größer als die Unterstützung von irgendwelchen zusätzlichen Spezial-Kernen?
Wahrscheinlicher ist eher eine neue AVX-Version. Wenn Intel noch ein paar Quartale Dividenden auf Pump ausschüttet, könnte der Nachfolger aber auch "3DNow! 2.0" heißen.;)
16C anstatt 8C ausnutzen ist schwieriger als alle Sprünge vorher - und einfacher als alle Sprünge nachher.
Wenn die zusätzlichen Kerne erst einmal im Mainstream angekommen sind, wird sich auch wieder eine Aufgabe für diese finden. Bei den ZEN4-Reviews hat sich bereits gezeigt, dass es Titel gibt, die von mehr als 8 Cores profitieren und das trotz SMT und der hohen Latenz zwischen zwei CCX.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.