PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 29. Oktober 2021


Leonidas
2021-10-30, 11:00:18
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-29-oktober-2021

Denniss
2021-10-30, 14:14:46
Tiger Lake war ja auch als schneller Säufer bekannt (wenn man ihn von der Leine gelassen hat) von daher wundert mich die Leistungssteigerung bei AL von 125 auf 241 nicht wirklich.
Allerdings kommt beim fast doppelten Besäufnis nur etwa 35% mehr Leistung heraus, scheint also weit über dem Sweetspot zu sein

matty2580
2021-10-30, 15:55:12
Das schreibt CB dazu:

Der größte Minuspunkt der ersten Alder-Lake-CPUs ist die Leistungsaufnahme, die quasi einer Kapitulation gleichkommt – auf das von früher bekannte Niveau geht es so schnell offensichtlich nicht zurück. Dass die offizielle TDP zuletzt oft nur auf dem Papier existierte, wird mit den K-CPUs von Alder Lake wenigstens quasi offiziell. Immer volle Kraft voraus ist für K-Prozessoren zwar schon des Öfteren die Normalität auf Mainboards im freien Handel, aber die Option für einen Normalbetrieb ganz zu streichen, ist kein gutes Zeichen und entspricht letztendlich einer TDP-Erhöhung durch die Blume. Offiziell 250 Watt TDP sagen muss Intel so jedoch weiterhin nicht

Dabei zeigt der Ausblick auf Modelle mit geringer TDP, wie gut die Architektur sein kann: Bei nur einem Viertel der Leistungsaufnahme die gleiche Performance wie Rocket Lake-S zu bieten, ist der echte Star der Ankündigung. Notebooks dürften davon letztlich richtig profitieren können.
https://www.computerbase.de/2021-10/intel-alder-lake-core-12000-cpu-vorstellung/

Es geht also auch anders bei Alder Lake, mit wirklich guter Effizienz.

bbott
2021-10-30, 15:55:38
LOL Alder Lake nur 16 PCIe 5.0 Lanes für die GPU?! Gerade SSDs dürften PCIe 5.0 eher einen nutzen von PCIe ziehen als GPUs. Bis GPU PCI 5.0 wirklich brauchen wird Alder Lake zum alten eisen gehören.

iamthebear
2021-10-30, 15:57:22
35% mehr Performance bei Verdopplung der TDP ist deutlich mehr als erwartet. Das dürften dann nur mehr um die 3.6GHz bei den P Cores sein.

Zum Vergleich der 11900K im CB Test:
125W: 5300 Punkte, 4.1GHz
200W: 5950 Punkte, 4.8GHz (+12%)
310W: 6300 Punkte, 5.1GHz (+19% vs. 125W, +6% vs. 200W)

iamthebear
2021-10-30, 16:20:35
Bei nur einem Viertel der Leistungsaufnahme die gleiche Performance wie Rocket Lake-S zu bieten, ist der echte Star der Ankündigung

Der Vergleich hinkt ganz kräftig, da ADL das nur schafft wenn auch 24 Threads ausgelastet sind. Ein 12 Kern Rocketlake auf 3.2GHz hätte auch keine 250W gebraucht.

Gast
2021-10-30, 17:51:56
LOL Alder Lake nur 16 PCIe 5.0 Lanes für die GPU?! Gerade SSDs dürften PCIe 5.0 eher einen nutzen von PCIe ziehen als GPUs. Bis GPU PCI 5.0 wirklich brauchen wird Alder Lake zum alten eisen gehören.

Alder Lake ist extrem gut ausgestattet, besser als alles andere außerhalb des HEDT-Bereichs.

20 PCIe Lanes über die CPU, 12x PCIe über den Z690, und DMI 4.0 8x.

Man kann also 4 PCIe 4.0 4x-SSDs anschließen, wovon auch noch 3 gleichzeitig die volle Bandbreite bereitstellen können.

PCIe5 wird es noch lange nicht brauchen, weder für GPUs noch für Storage.

etp_inxession
2021-10-30, 18:41:45
10428 ist der Multi Wert von einem Ryzen 5950x
142 Watt laut Ergebnis.

Was genau übersehe ich, das Alder Lake hier so "schlecht" ist?

iamthebear
2021-10-30, 18:43:47
Also für GPUs kann ich mir das in 2-3 Jahren schon vorstellen, dass bei knappem VRAM die Bandbreite wichtig wird.

PCIe 5.0 SSDs sind zwar an sich eine coole Sache, werden aber in den nächsten 10 Jahren kaum gebraucht werden. Das Hauptproblem ist derzeit eher die Kapazität.

iamthebear
2021-10-30, 18:49:02
10428 ist der Multi Wert von einem Ryzen 5950x
142 Watt laut Ergebnis.

Was genau übersehe ich, das Alder Lake hier so "schlecht" ist?

Es geht darum, dass ADL angeblich um 26% abfällt wenn er nur 125W statt 242W bekommt, was im Umkehrschluss bedeutet, dass alle mit einem durchschnittlichen Luftkühler, die keine Flugzeugturbine unter Last haben wollen deutlich schlechter da stehen.

Allerdings habe ich daran meine Zweifel, da das dann hinten und vorne nicht zusammenstimmen würde.

Gast
2021-10-30, 19:44:46
Der Vergleich hinkt ganz kräftig, da ADL das nur schafft wenn auch 24 Threads ausgelastet sind. Ein 12 Kern Rocketlake auf 3.2GHz hätte auch keine 250W gebraucht.

Hätti ist gerade mit Wari auf Urlaub in Finnland.

Intel hätte auch in Rocketlake mit E-Kernen ausstatten können, und es würde wesentlich knapper sein.

Insbesondere AMD aber theoretisch natürlich auch Intel hätte eine hochintegrierte SoC-Plattform designen können und man würde in der Energieeffizienz nicht um Lichtjahre hinter Apple hängen.

Alle hätten sich 5N Kontingente bei TSMC sichern können und man wäre in der Energieeffizienz deutlich besser.

Das alles was man hätte tun können hat man aber nicht getan, man kann nur Produkte messen die tatsächlich umgesetzt wurden, und diese Messergebnisse liefern Zahlen und Zahlen lügen nicht.

Es ist müßig darüber zu diskutieren, wenn Hersteller X schon vor Jahren Produkt Y designt hätte würden die zahlen ganz anders aussehen.

etp_inxession
2021-10-30, 19:49:56
Es geht darum, dass ADL angeblich um 26% abfällt wenn er nur 125W statt 242W bekommt, was im Umkehrschluss bedeutet, dass alle mit einem durchschnittlichen Luftkühler, die keine Flugzeugturbine unter Last haben wollen deutlich schlechter da stehen.

Allerdings habe ich daran meine Zweifel, da das dann hinten und vorne nicht zusammenstimmen würde.

Joa das ist der Inhalt des Themas.

Aber die Randnotiz ist doch eigentlich interessanter.
Scheint als würde ADL wirklich nur an der Kotzgrenze an Zen3 ran kommen.

In Spielen vielleicht etwas besser da stehen.

Aber fürs erste siehts erstaunlich schlecht aus.

Gast
2021-10-30, 20:34:39
Was genau übersehe ich, das Alder Lake hier so "schlecht" ist?
Dass ein 5900X auf maximal 88W schneller ist als AlderLake auf 125W?
Der Core i9-12900K hat 7492 Punkte, laut Computerbase kommt der Ryzen 9 5900X @EcoMode auf 7659 Punkte. Und der EcoMode sind eben 65W avg und maximal 88W.
Wo es für Intel eigentlich ganz gut aussieht, ist beim 12600K: Der dürfte gegen den 5800X sehr gut aussehen. Aber die beiden größeren wirken eher etwas Brechstange.

Rabiata
2021-10-30, 21:47:12
Also für GPUs kann ich mir das in 2-3 Jahren schon vorstellen, dass bei knappem VRAM die Bandbreite wichtig wird.

Ist bereits der Fall. Siehe die RX 5500 XT 4 GB an PCIe 3.0, mit nur 8 Lanes genutzt von der GraKa. Da haben wir auf niedrigerem Niveau schon genau das Problem.

Gast
2021-10-30, 22:37:28
Das heißt, ein Ryzen 5900 mit 105W schlägt den den so hoch gelobten 12900K bei 125W lockerst zweistellig und selbst mit 88W ist der 5900 noch schneller.

Da muss ich echt lachen.
Auch über die Aussagen der "Vertreter der Fachpresse" in den verschiedenen dt. Foren.

Ahnungsloser Passant
2021-10-31, 01:41:26
Ist bereits der Fall. Siehe die RX 5500 XT 4 GB an PCIe 3.0, mit nur 8 Lanes genutzt von der GraKa. Da haben wir auf niedrigerem Niveau schon genau das Problem.

Stimmt, aber bei x8 wären ja 8 Lanes für SSDs frei :wink:

Also für GPUs kann ich mir das in 2-3 Jahren schon vorstellen, dass bei knappem VRAM die Bandbreite wichtig wird.

PCIe 5.0 SSDs sind zwar an sich eine coole Sache, werden aber in den nächsten 10 Jahren kaum gebraucht werden. Das Hauptproblem ist derzeit eher die Kapazität.

Ich denke das genaue Gegenteil wird der Fall sein. PCIe 4.0 x16 wird ganz sicher die nächsten 2-3 Jahre genug Bandbreite liefern. PCI 5.0 SSDs werden anfangs im Serverbereich sehnsüchtig erwartet. Siehe auch die Umfrageauswertung aus dem Juli: (Link (https://www.3dcenter.org/news/umfrage-auswertung-wie-verbreitet-sind-geraete-nach-pci-express-40)):
Zudem ruft derzeit eigentlich niemand nach mehr Systembandbreite bei Grafikkarten – auch das Thema der früher beliebten Performance-Vergleiche verschiedener PCI-Express-Normen und -Settings ist etwas erlahmt, da hierbei zuletzt kaum noch beachtbare Differenzen herausgekommen sind. Als stärker interessant hat sich PCI Express 4.0 für SSDs herausgestellt, wo deren Hersteller die höheren Bandbreiten – zumindest in Benchmarks – durchaus ausnutzen. Das Aufkommen von PCI Express 5.0 dürfte bei den PCI-Express-SSDs einen neuen Produktzyklus auslösen und dann auch durchaus Abnehmer finden..

Gast
2021-10-31, 02:27:47
Aber die Randnotiz ist doch eigentlich interessanter.
Scheint als würde ADL wirklich nur an der Kotzgrenze an Zen3 ran kommen.

In Spielen vielleicht etwas besser da stehen.

Aber fürs erste siehts erstaunlich schlecht aus.


https://i.imgur.com/ZE6Tuhx.png

Also ich sehe da nicht inwiefern Alder Lake in irgendeiner Form schlecht sein soll.

Man bietet überragende ST-Leistung, kommt in der MT-Leistung mit 8+8C/24T der Konkurrenz mit 16C/32T, die aber preislich in einer ganz anderen Liga spielt extrem nahe, und ist deutlich schneller, als die 12C/24T die man sich als Gegner ausgesucht hat.

Für micht sieht Alder Lake nicht nur gut, sondern eher sehr gut aus.

Achill
2021-10-31, 06:59:49
https://i.imgur.com/ZE6Tuhx.png

Also ich sehe da nicht inwiefern Alder Lake in irgendeiner Form schlecht sein soll.

Man bietet überragende ST-Leistung, kommt in der MT-Leistung mit 8+8C/24T der Konkurrenz mit 16C/32T, die aber preislich in einer ganz anderen Liga spielt extrem nahe, und ist deutlich schneller, als die 12C/24T die man sich als Gegner ausgesucht hat.

Für micht sieht Alder Lake nicht nur gut, sondern eher sehr gut aus.

Sicherlich ein eigener Blickwinkel lieber Gast, aber darum ging es nicht. Die Aussage war:

[..]Scheint als würde ADL wirklich nur an der Kotzgrenze an Zen3 ran kommen.[..]

Das heißt, der normale Betriebsmodus von Zen3 wird als Basis des Vergleichs gewählt und mit der ADL Performance bei 125W und 271W vergleichen.

Es geht nicht darum, Zen3 mittels Brechstange wie ein ADL zu betrieben! Man würde nur heraus finden, dass dies nicht effizient ist ...

Achill
2021-10-31, 07:31:19
Zur Untermauerung der Frage, ob ein Zen3 mit 125W PPT nun näher an einen ADL mit 125W oder 271W ist ... ;)

Ein 5950X auf 125W PTT gedrosselt:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77215


--
Ein 5950X mit Defaults:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77216

--
Ein 5950X mit den Standard PPT@142W jedoch 20% höheren TDC und EDC Limits was die Caches beschleunigt (siehe mein Post bzgl. Aida Mem+Cache Läufe (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12833674#post12833674)):

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77217

Platos
2021-10-31, 10:02:51
In Zukunft wünsche ich mir eine Effizienzkurve (Stromverbrauch und Rechenleistung in einem xy-Diagramm) bei CPU-Tests :D

Offensichtlicherweise ist ja die CPU weit über dem Sweetspot bei über 200W (ist ja auch klar).

Aber ne Verlaufskurve (basierend auf Cinebench) wäre da super. Denn solche CPU Tests verlaufen immer mehr in ein INeffizienzrennen."Wer kann mehr Strom sinnlos verballern".

Da würde mich viel eher solche Diagramme interessieren, in denen man eben in (z.b) 10W sprüngen jeweils die Effizienz misst und in ein Diagramm packt. Natürlich spielt auch das Mainboard da eine Rolle, aber denen sollten die Testseiten sowieso auch mal wieder mehr Aufmerksamkeit gönnen.

So kann man CPUs auch wirklich vergleichen. Ich für meinen Teil (und die meisten anderen auch) will kein 150W bratende CPU oder gar über 200W. Und mit einer Effizienzkurve kann jeder Leser dann ideal ablesen, wo er seine CPU betreiben will. So eine Grafik würde sowohl dem absoluten Overcloker, als auch dem absoluten Stromsparer helfen.

Dafür gibts ja btw. auch das PES-Tool. Man muss also quasi "nur" viele Male bei einer Software auf "Start" klicken, mehr nicht.

Ich mache hier gleich mal einen Vorschlag (Intel 6-8 P-Kerner):


-15W, 20W, 25W, 30W, 35W
-45W, 55W, 65W, 75W, 85W, 95W, 105W, 115W, 125W, 135W, 145W
-165W, 185W, 205W, 225W, 245W, 265W, 285W

23 Mal das PES durchlaufen lassen. Sollte bei MT und nem modernen 6-8-Kerner ~ 1Stunde dauern, in der man aber nicht viel machen muss, ausser zu warten.

BTW. Cool wäre es, gäbe es eine Software, mit der man automatisch 23 Durchläufe machen kann und die dann von selbst die jeweiligen Watt-Profile einstellt (die untersten und obersten müssten dann evtl. kurz auf stabilität manuell überprüft werden). Aber so ne Software wäre cool. Dann kann man das über Nacht laufen lassen.

MiamiNice
2021-10-31, 10:30:07
Du stellst Dich wahrscheinlich auch, natürlich unentgeltlich, als Tester zur Verfügung?
(und die meisten anderen auch)
Ich denke nicht, Tim. Die meisten anderen wollen einfach nur zocken und es juckt nicht die Bohne, was da an Strom durch die CPU fließt.

Gast
2021-10-31, 10:53:29
Am Ende drosseln die 250 W Prozessoren beim Heimanwender mit seinem "kleinem" Doppeltowerkühler noch ;)
Dann fällt die Leistung ähnlich wie bei Smartphones nach 5 Minuten ab.

Als Heimanwender interessiert mich wie leistungsfähig ein Prozessor zwischen 40 - 100/120 W Verbrauch ist. Heißt im Windows Energiesparmodus bei 40 W und üblichen kleineren Aufgaben, und Ausbalanciert bis 120 W mit maximal mittlerer Auslastung, wo Singlethread-Leistung (oder einige wenige Kerne) voll ausgefahren werden oder Vollgas auf allen Kernen gegeben wird.
Was jucken mich Leistungsangaben bei 250 W?

Platos
2021-10-31, 11:57:38
Du stellst Dich wahrscheinlich auch, natürlich unentgeltlich, als Tester zur Verfügung?

Ich denke nicht, Tim. Die meisten anderen wollen einfach nur zocken und es juckt nicht die Bohne, was da an Strom durch die CPU fließt.

Nein, ich stelle mich nicht unentgeltlich zur Verfügung, so wie alle anderen Tester da draussen auch nicht ;) Aber wenn ich ne CPU (Mit Mobo und DDR5 RAM) kriege und ich dafür entlöhnt werde (wie jeder andere Tester auch), dann mache ich das gerne (jetzt ist aber zu spät so kurzfristig).

Und sorry, Miami Nice, aber du bist selbst im Enthusiastenforum einfach ein Spezialfall. Ich sage ja nicht, dass die meisten einen super sparsamen Rechner haben wollen, aber sehr wohl wollen die meisten einen PC haben, dessen CPU nicht 240W verbrät oder anders gesagt: Wollen keinen PC haben, der soooo ineffizient betrieben wird (plus 35% bei + 100% Energieverbrauch). Im Gaming vermutlich +10% bei 100% Mehrverbrauch.

Und btw: Du würdest genau so von so einem Test profitieren. Selbst du wirst irgendwann lieber die RAM-Timings optimieren, als nochmals 100W reinzuballern für die letzten 3%.

iamthebear
2021-10-31, 12:13:08
Ich denke das genaue Gegenteil wird der Fall sein. PCIe 4.0 x16 wird ganz sicher die nächsten 2-3 Jahre genug Bandbreite liefern. PCI 5.0 SSDs werden anfangs im Serverbereich sehnsüchtig erwartet. Siehe auch die Umfrageauswertung aus dem Juli: (Link (https://www.3dcenter.org/news/umfrage-auswertung-wie-verbreitet-sind-geraete-nach-pci-express-40)):

Also ich glaube nicht, dass die Meinung von ein paar Hobbyschraubern in einem Hardwareforum hier der große Maßstab ist was sinnvoll ist und was nicht. ;D

Klar im Serverbereich gibt es immer Abnehmer für mehr Storage Bandbreite. Da gibt es immer irgendwelche Spezialanwendungen wo diese Bandbreite wirklich benötigt wird. Für den typischen Desktopkunden aber sehr sehr selten.
Umgekehrt ist jedoch den VRAM bei GPUs tendentiell knapp und das wird sich in den nächsten Jahren noch weiter verschärfen. Je mehr PCIe Bandbreite da ist desto einfacher lässt sich zu wenig VRAM kompensieren.

Das heißt, der normale Betriebsmodus von Zen3 wird als Basis des Vergleichs gewählt und mit der ADL Performance bei 125W und 271W vergleichen.

Es wird bei beiden Herstellern der Punkt der maximalen Performance verglichen, die noch in-spec ist. Zen3 ist einfach durch den Sockel limitiert und kann deshalb keine 240W ziehen.

Es geht nicht darum, Zen3 mittels Brechstange wie ein ADL zu betrieben! Man würde nur heraus finden, dass dies nicht effizient ist ...

Das wäre bei Zen3 genauso viel oder wenig effizient wie bei ADL. Ich denke, dass der 5950X sogar schon deutlich mehr Performance durch das TDP Limit verliert.

Zur Untermauerung der Frage, ob ein Zen3 mit 125W PPT nun näher an einen ADL mit 125W oder 271W ist ... ;)

Dass zwischen 125W und 142W nicht so viel Unterschied ist sollte klar sein. Was 240W angeht ist es relativ einfach: Man gibt einem 5800X 125W und schaut auf welche Taktraten er kommt. Das ist genau das, was ein 5950X bei 240W schaffen würde.


In Zukunft wünsche ich mir eine Effizienzkurve (Stromverbrauch und Rechenleistung in einem xy-Diagramm) bei CPU-Tests :D

Also ein vollständiges Diagramm zu erstellen wo man je 20 Punkte testet mit je 10 CPUs in je 20 Spielen/Anwendungen mit je 5-10 Durchläufen sprengt denke ich den Zeitrahmen den man für die Reviews zur Verfügung hat.

Was ich mir jedoch auch wünschen würde ist ein Rating der jeweils aktuell getesteten CPU mit 125W.

Aber ne Verlaufskurve (basierend auf Cinebench) wäre da super. Denn solche CPU Tests verlaufen immer mehr in ein INeffizienzrennen."Wer kann mehr Strom sinnlos verballern".

Die K CPUs sind eben OCing Modelle, die dafür designed sind das maximal Mögliche zu liefern. Man könnte ja auch die kommenden non K Modelle testen, oder auch die T Modelle mit 35W. Warum wird das nicht gemacht? Weil es e8nfach den Großteil der Leser nicht interessiert.

Für den eigenen PC kann ja jeder selbst entscheiden wie er PL1/2 und Tau konfiguriert.

Am Ende drosseln die 250 W Prozessoren beim Heimanwender mit seinem "kleinem" Doppeltowerkühler noch ;)
Dann fällt die Leistung ähnlich wie bei Smartphones nach 5 Minuten ab.

Als Heimanwender interessiert mich wie leistungsfähig ein Prozessor zwischen 40 - 100/120 W Verbrauch ist. Heißt im Windows Energiesparmodus bei 40 W und üblichen kleineren Aufgaben, und Ausbalanciert bis 120 W mit maximal mittlerer Auslastung, wo Singlethread-Leistung (oder einige wenige Kerne) voll ausgefahren werden oder Vollgas auf allen Kernen gegeben wird.
Was jucken mich Leistungsangaben bei 250 W?

Du solltest dabei bedenken, dass die 250W ja nur der Worst Case in Anwendungen wie Cinebench sind.
Wenn du wirklich den ganzen Tag Anwendungen nutzt, die alle 16 Threads voll mit AVX Operationen auslasten, ja dann ist der 12900K nicht die richtige Wahl. Da würde ich eher zu einem Threadripper greifen. Wenn du nebenbei auch noch spielen willst eventuell ein 5950X.

Wenn du aber wie vermutlich 90% der Leute hier die CPU sowieso großteils zum Spielen verwendest so sind die 250W ja gar kein Thema, da die sowieso nie erreicht werden. Unter 720p und einer 3090 wirst du gelegentlich mal an die 125W Grenze stoßen, bei eher realistischeren Auflösungen werden es vielleicht um die 70W sein. Also wozu das ganze Drama?

Platos
2021-10-31, 12:22:03
Also ein vollständiges Diagramm zu erstellen wo man je 20 Punkte testet mit je 10 CPUs in je 20 Spielen/Anwendungen mit je 5-10 Durchläufen sprengt denke ich den Zeitrahmen den man für die Reviews zur Verfügung hat.

Was ich mir jedoch auch wünschen würde ist ein Rating der jeweils aktuell getesteten CPU mit 125W.



Es muss ja nicht immer alles am Launchtag verfügbar sein. Kann man ja dann danach machen. Dann z.B, wenn man die Seiten wieder mit irgendwelchen unnötigen Clickbait Artikeln füllt ^^. Es muss mal aufhören, dass immer alles an Tag 1 Verfügbar sein muss. Blöderweise ist das aber gerade in heutigen Zeiten notwendig. Früher hat man mal noch gesagt, man soll 2-3 Monate warten, bis die Preise besser werden. Seit Pascal wurden die Preise nie drastisch besser abgesehen von wenigen Angeboten. Und seit Ampere kann man sagen, dass man am besten am ersten Tag kaufen soll, damit man noch froh ist, den Listenpreis zu kriegen.

Aber ja ich weiss, braucht viel Zeit, aber man muss dann ja nicht jedes mal wieder alle CPUs von neuem Testen. Ausser es gibt mal ne neue Cinebench Version. Von daher sind das dann auch keine 10 CPUs sondern jetzt glaube ich 3 bei Intel (die anderen werden doch später released ?).


Umgekehrt ist jedoch den VRAM bei GPUs tendentiell knapp und das wird sich in den nächsten Jahren noch weiter verschärfen. Je mehr PCIe Bandbreite da ist desto einfacher lässt sich zu wenig VRAM kompensieren.

Selbst PCI-E 6.0 hat nur 120GB/s bei 16 Lanes. "Schon" die RTX 3080 hat aber 760GB/s Bandbreite. Das wird sich in den nächsten 1-2 Generationen vermutlich auf über's 10-Fache von PCI-E 6.0 steigern. Du wirst mit PCI-E niemals fehlenden VRAM ausgleichen können (höchsten mit einer anderen Datenpriorisierung, also ein besseres Datenmanagement, so dass Daten, die eig. nicht zwingend im Speicher liegen müssten, eben Platz frei schaffen).

Also kurz gesagt: Wenn man wirklich Daten nicht im VRAM hat, die in kurzer Zeit benötigt werden, dann wird man das nicht mit RAM kompensieren können. Dafür müssten die Daten nicht Zeitkritisch sein und da kommt dann eben besseres Datenmanagement in Spiel.

MiamiNice
2021-10-31, 13:25:29
Nein, ich stelle mich nicht unentgeltlich zur Verfügung, so wie alle anderen Tester da draussen auch nicht ;) Aber wenn ich ne CPU (Mit Mobo und DDR5 RAM) kriege und ich dafür entlöhnt werde (wie jeder andere Tester auch), dann mache ich das gerne (jetzt ist aber zu spät so kurzfristig).

Und sorry, Miami Nice, aber du bist selbst im Enthusiastenforum einfach ein Spezialfall. Ich sage ja nicht, dass die meisten einen super sparsamen Rechner haben wollen, aber sehr wohl wollen die meisten einen PC haben, dessen CPU nicht 240W verbrät oder anders gesagt: Wollen keinen PC haben, der soooo ineffizient betrieben wird (plus 35% bei + 100% Energieverbrauch). Im Gaming vermutlich +10% bei 100% Mehrverbrauch.

Und btw: Du würdest genau so von so einem Test profitieren. Selbst du wirst irgendwann lieber die RAM-Timings optimieren, als nochmals 100W reinzuballern für die letzten 3%.

Ich denke da schaust du, zur Abwechslung mal, nur bis zu Deinen Tellerrand. Die Realität der PC Gamer sieht doch so aus, dass geschaut wird was die maximalen Balken macht. Alles was kürzer ist, ist mies. Man schaut auch eigentlich nur noch ob der Lieblingshersteller noch den Längsten hat, oder halt nicht. Sonst kann man ja nicht mehr trollen gehen. Strom ist nur als Argument gut, wenn der eigene Hersteller weniger verbraucht. Ansonsten minert man schön seine Coins im Hintergrund. Den Umwelt ist scheiß egal, Hauptsache man kann sich bereichern. Nach mir die Sintflut und so. Die Masse an Spielern sind Schüler und Studenten, die achten dank "sponsored my Mani und Papi" Schriftzug am Rechner kaum auf die Stromkosten. Studenten zahlen Paulschalen, kratzt die auch nicht. Die älteren Gamer, so Leute wie ich z.b., sind aktuell froh wenn die Ihren Strom überhaupt los bekommen. Das Einspeisen des Stroms der PV Anlagen lohnt schon länger nicht mehr wirklich und mit dem E Wagen, kann man gar nicht so viel verheuzen. Ergo Stromkosten eh fürn Popo. Dann leben wir in Zeiten von 480Watt GPUs ootb und die nächste Gen kommt schon mit 600 Watt Steckern, jeder hier weiß auch warum. Die GPUs werden den Herstellern aus den Händen gerissen, eine CPU darf dann nicht mal die Hälfte verballern, wenn sie getestet wird. Mal völlig davon ab, das beim Gaming eh nur ca. 150 Watt auf der CPU dabei rumkommen und die GPU sich 300 eher 400 Watt genehmigt.

Und dann kommst Du und erzählst was "ineffizient". Sorry aber das erzeugt hier nur ein Schmunzeln.

PS: Aber wahrscheinlich läufst Du des Nachts durch die Stadt und schreibst Dir haargenau auf welche Laden, welche Firma, Licht an hat und fühlst an den Scheiben ob sie von innen warm sind. Nach Öffnung am frühen morgen stellst Du dann auch den Geschäftsführer zur Rede und propagierst Deine Rede in Sachen Effizienz.

Da möchte ich unbedingt mal dabei sein, ist sicher spaßiger als irgendwelche Scheinargumente im Forum zu lesen die langweilen.

Selbst du wirst irgendwann lieber die RAM-Timings optimieren, als nochmals 100W reinzuballern für die letzten 3%.

Nein, man macht beides und das nicht erst seit gestern.

Platos
2021-10-31, 14:04:58
Wie immer lebst du in deiner "Overclocking till the end"-Blase. Wird sich nie ändern.

Das das für dich alles Schwanzvergleiche sind (genau so wie dein Auto), ist mir schon auch bewusst ^^

MiamiNice
2021-10-31, 14:28:09
Das hat gar nichts mit OC zu tun und von irgendwelchen Karren spricht hier gerade keiner. Aber da es Dich zu interessieren scheint, bin ich gerade dabei ein volles E Auto zu kaufen, aus Frankreich. Da ist nichts mit prollen. Auch nicht mit meinem lächerlichen 9900k, falls das als nächstes kommt.

Du schriebst:

Ich für meinen Teil (und die meisten anderen auch) will kein 150W bratende CPU oder gar über 200W

Du ist einfach Bullshit³. Die meisten anderen da draußen kümmern sich einen Dreck um den Verbrauch. Das wird wenn dann ggf. beim Content eingespart. Mal abgesehen davon das sich die Masse da eh keinen 12900K + Board + Ram leisten kann.

matty2580
2021-10-31, 14:28:37
Bei den CPUs und GPUs geht es (leider) nur in eine Richtung, mehr Verbrauch, und weniger Effizienz.

Wenn das so weiter geht, werden selbst 1000 Watt Netzteile bald nicht mehr ausreichen.

Das ist aber kein reines Intel Problem, sondern betrifft auch Nvidia und AMD, zumal Alder Lake im Mobile Bereich sehr effizient ist. Das Intel hier die Brechstange im Desktop Bereich ansetzt, hat damit zu tuen dass Intel unbedingt von der Leistung her über AMD liegen will.

Und wer weniger Verbrauch möchte, kann auch Alder Lake so drosseln, dass deutlich weniger verbraucht wird.
Dann hat man aber auch leider (viel) weniger Leistung.

Bis zu den Tests am Donnerstag ist ja nicht mehr viel Zeit.
Spätestens dann kann man wirklich gut vergleichen.

Platos
2021-10-31, 16:46:38
Du ist einfach Bullshit³. Die meisten anderen da draußen kümmern sich einen Dreck um den Verbrauch. Das wird wenn dann ggf. beim Content eingespart. Mal abgesehen davon das sich die Masse da eh keinen 12900K + Board + Ram leisten kann.

https://www.3dcenter.org/umfrage/umfrage-wie-ist-der-ersteindruck-zu-intels-rocket-lake

Ah ja? Hier im Forum (und das meinte ich) siehts z.B ganz anders aus...48% haben schon bei Rocketlake für zu hohen Stromverbrauch gestimmt. Alder Lake ist nochmals ne ganz andere Liga.


Und wer weniger Verbrauch möchte, kann auch Alder Lake so drosseln, dass deutlich weniger verbraucht wird.
Dann hat man aber auch leider (viel) weniger Leistung.



Das kann man mit jeder Hardware. Ich kann die CPU auch auf 35W drosseln.

Naja... Gewisse OEMs verbieten das, aber das ist ne andere Geschichte...

MiamiNice
2021-11-01, 00:36:43
https://www.3dcenter.org/umfrage/umfrage-wie-ist-der-ersteindruck-zu-intels-rocket-lake

Ah ja? Hier im Forum (und das meinte ich) siehts z.B ganz anders aus...48% haben schon bei Rocketlake für zu hohen Stromverbrauch gestimmt. Alder Lake ist nochmals ne ganz andere Liga.


Jetzt wird es noch witziger. Du sprichst von "die meisten", was gleichbedeutend mit "der Masse" ist. Führst dann einen Vote in einem Nerd Forum an, indem sich zu 80 - 95% aggressive AMD Fanbois tummeln.
Das das nicht stimmen kann, merkst Du hoffentlich selbst. Den Vote hättest mal zu Push Kart / Core 2 irgendwas Zeiten machen sollen :D Leute, in Foren wie diesem hier, sind wie Flaggen im Wind.

OpenVMSwartoll
2021-11-01, 04:52:37
Jetzt wird es noch witziger. Du sprichst von "die meisten", was gleichbedeutend mit "der Masse" ist. Führst dann einen Vote in einem Nerd Forum an, indem sich zu 80 - 95% aggressive AMD Fanbois tummeln.
[...]
Leute, in Foren wie diesem hier, sind wie Flaggen im Wind.

Defäkieren, wo man speist. Kann man wohl machen. Oder um es anders auszudrücken: "Ein Geisterfahrer?!? Es sind Tausende..."

Sardaukar.nsn
2021-11-01, 07:27:00
...
Wenn du aber wie vermutlich 90% der Leute hier die CPU sowieso großteils zum Spielen verwendest so sind die 250W ja gar kein Thema, da die sowieso nie erreicht werden. Unter 720p und einer 3090 wirst du gelegentlich mal an die 125W Grenze stoßen, bei eher realistischeren Auflösungen werden es vielleicht um die 70W sein. Also wozu das ganze Drama?

Da kann ich dir nur zustimmen. Zudem hoffe ich das Alder Lake bzw. die neue big.little Architektur im Teillastbereich, z.B. bei einfachen Office oder Websurfen deutlich effizienter ist als mein 5800x. Ich meine warum Verbraucht Windows mit simplen Google Chrome inkl. Adblock permanent 35-40 Watt CPU Leistung? Dabei tippe ich hier gerade nur diesen Beitrag.

https://i.imgur.com/WsQHZHz.jpg

Hätte ich diesen Beitrag jetzt auf meinem Andriod Tablet geschrieben. Wieviel Watt hätte das in den letzten 5 Minuten verbraucht? 5 Watt vielleicht?

Legendenkiller
2021-11-01, 08:33:00
Da kann ich dir nur zustimmen. Zudem hoffe ich das Alder Lake bzw. die neue big.little Architektur im Teillastbereich, z.B. bei einfachen Office oder Websurfen deutlich effizienter ist als mein 5800x. Ich meine warum Verbraucht Windows mit simplen Google Chrome inkl. Adblock permanent 35-40 Watt CPU Leistung? Dabei tippe ich hier gerade nur diesen Beitrag.

https://i.imgur.com/WsQHZHz.jpg

Hätte ich diesen Beitrag jetzt auf meinem Andriod Tablet geschrieben. Wieviel Watt hätte das in den letzten 5 Minuten verbraucht? 5 Watt vielleicht?


Das liegt nicht an Windows .. sondern an der Hardware .


Ein sparsames Notebook hat beim Windows Text tippen auch nur 5W wovon 50 bis 70% für den Monitor trauf gehen. Die CPU also 1W verbraucht.

Platos
2021-11-01, 10:36:43
Ja, das ist hauptsächlich die Hardware und zwar nicht nur CPU, sondern vor allem auch Mainboard etc.

Desktop ist hald die Ineffizienz pur im Teillastbetrieb.

MiamiNice
2021-11-01, 13:20:29
Defäkieren, wo man speist. Kann man wohl machen. Oder um es anders auszudrücken: "Ein Geisterfahrer?!? Es sind Tausende..."

Ach komm, jeder hier weiß, wenn er ehrlich ist, wie der Hase hier und in anderen HW Foren hoppelt.

Da wird sich im ADL Lake über den Verbrauch aufgeregt, paar Dutzend Channel tiefer unterhält man sich über das Mining RIG welches hunderte, wenn nicht tausende, Watt verbrät. So lange man 10€/Tag Gewinn mit dem Verbrauch macht, ist das doch voll OK.
Vor 6 Jahren haben hier Leute den Verbrauch vom Bulli gerechtfertigt (waren auch irgendwas um 200 Watt) und echauffieren sich nun ebenfalls im ADL Thread.

C´mom, nichts mit "defäkieren", bittere Wahrheit. Heuchelei, so lange es zur aktuellen HW + Thema passt, ist einfach an der Tagesordnung.

Gast
2021-11-01, 17:19:45
Die Frage Leistung und Effizienz in Vergleich zur Konkurrenz, in dem Fall wohl Zen3/AMD Ryzen beanwortet sich in einem einfachen Halbsatz: "...an der UVP"!

Wenn Intels Alder Lake deutlich effizienter und schneller wäre, würde Intel auch mehr verlangen! Tun sie das? Nein! 649 für einen 12900k bedeutet letzlich nichts anderes, er ist im Singlethread vermutlich scheller und braucht im Multithread deutlich mehr Energie um schneller zu sein, weil er sonst zu langsam wäre. Ergo liegt der Preis zwischen 5900x und 5950x. Mehr gibt es dazu eigentlich nicht zu sagen. AMD liefert weiterhin das rundere und vermutlich preiswertere Produkt. Ob ich persönlich jetzt 140fps oder 150fps auswerfe, geht mir ehrlich gesagt ziemlich am Popo vorbei, solange das zu meinem Bildschirm passt.

Der 12600k liegt bei 449 und ist damit teurer als ein 5800x angesetzt, wird diesen dann wohl deutlich schlagen (Marktpreis des 5800x liegt derzeit deutlich unter 400, Intel ist ja auch nicht blöd). Scheit dann wirklich keine schlechte Spieler CPU zu werden.

Der 12900k ist wegen der hohen Leistungsaufnahme und seinem Preis eher Contentcreater vorbehalten. Macht auch Sinn, weil man damit Geld verdient und dann kann Hardware nicht genug leisten. Die Leistungsaufnahme spielt dann auch keine wesentliche Rolle. Spieler nehmen sich immer viel zu wichtig.

OpenVMSwartoll
2021-11-01, 18:23:05
Ach komm, jeder hier weiß, wenn er ehrlich ist, wie der Hase hier und in anderen HW Foren hoppelt.

Da wird sich im ADL Lake über den Verbrauch aufgeregt, paar Dutzend Channel tiefer unterhält man sich über das Mining RIG welches hunderte, wenn nicht tausende, Watt verbrät.

[...]

C´mom, nichts mit "defäkieren", bittere Wahrheit. Heuchelei, so lange es zur aktuellen HW + Thema passt, ist einfach an der Tagesordnung.

Nein, ich stimme Dir nicht zu. Ich weigere mich, wenn jemand argumentiert, "jeder" agiere so, weil gäbe man das nicht zu, so sei man unehrlich.

Erstens betreibst Du das, was als "whataboutism" bezeichnet wird.

Zweitens baust Du einen Strohmann auf. Miner findest Du hier wenige. Eher einige, die Mining für die Spitze der Raffgier halten.

Desweiteren weiß ich nicht, wieso Du von Channels sprichst, wo Du Threads meinen könntest.

Verbale Abrüstung und Differenzierung täten gut.

Und kritisiert wird auch eher das Default Setting, allerdings eines Produktes, das wir noch gar nicht kennen. Derzeit reißen einige Redakteure sich den Hintern auf, um eben dieses differenzierte Bild zu ermöglichen.

Warten wir ab, was bei den Tests herauskommt. Und dabei denke ich auch daran, dass nicht nur "Gamer" existieren, sondern das Produkt auch produktiv genutzt werden wird.

MiamiNice
2021-11-02, 01:19:37
Du bist putzig :biggrin:
Nein, ich stimme Dir nicht zu. Ich weigere mich, wenn jemand argumentiert, "jeder" agiere so, weil gäbe man das nicht zu, so sei man unehrlich.
Ich habe von keinen Aktionen gesprochen, ergo kann auch niemand agieren. Ich habe simpel unterstellt, das jeder weiß wie es in einem Forum wie diesem abläuft. Geschriebenes habe nicht nur ich festgestellt, es wird von mehreren Personen, bei quasi jedem HW Generationswechsel aufs Neue festgestellt. Wift ganz gerne die eine Seite Fanbois, den anderen vor. Und vice versa. Entsprechende Zeilen findest Du, auch in diesem Forum, zuhauf. Ist doch seit Ewigkeiten der "Running Gag".
Erstens betreibst Du das, was als "whataboutism" bezeichnet wird.
"whataboutism" ist eher das, was Du gerade betreibst ;D
Zweitens baust Du einen Strohmann auf. Miner findest Du hier wenige. Eher einige, die Mining für die Spitze der Raffgier halten.
Ich baue kein Scheinargument auf, sondern ein reales Argument. Ich unterstelle Heuchelei und jeder (ja jeder), der will, kann es nachlesen. Ist ziemlich einfach, kurz durch die entsprechenden Threads lesen.
Desweiteren weiß ich nicht, wieso Du von Channels sprichst, wo Du Threads meinen könntest.
Ganz billiger Versuch. Ich bin ja schon beeindruck von "whataboutism" und Strohmann ... und dann leistet Du Dir einen einfachen Schreibfehler. Jetzt bin ich nicht mehr so beeindruckt.
Verbale Abrüstung und Differenzierung täten gut.
Ich mag es gerne offensiv. Du scheinbar nicht, bist wohl eher so der "hinten herumkommende" Typ. Auch OK, viele Wege führen nach Rom.
Und kritisiert wird auch eher das Default Setting, allerdings eines Produktes, das wir noch gar nicht kennen. Derzeit reißen einige Redakteure sich den Hintern auf, um eben dieses differenzierte Bild zu ermöglichen.
Kritisiert wurde die Effizienz des Topmodells, außerdem wurde mit zu viel Verbrauch argumentiert. Weiterhin wurde argumentiert, dass die meisten, wohlgemerkt ohne Einschränkung, das nicht wollen.
1. Auch ein Platos weiß das das Topmodell ein Vorzeige-Produkt ist, welches Benches gewinnen soll. Zwar unsinnige Benches, wenn man mich fragt, aber die Masse wurde so erzogen und möchte die sehen.
2. Was auch ein Platos weiß, ist die Tatsache das alle anderen Modelle weitaus effizienter sind. Scheinbar sogar effizienter als die Konkurrenz.
3. Weiß jeder, nicht nur Platos, das dass Topmodell einen sehr engen Kundenkreis haben wird. Es macht daher absolut mehr Sinn, den von mir beschriebenen Pfad zu wählen und sich um die Beleuchtung von Ladengeschäften des Nachts zu kümmern. Da sind weitaus mehr Einsparungen möglich, als bei den, Vorsicht unterspitzt, fünf verkauften 12900ker dieser Welt.
4. Zwingt niemand einen zum Kauf. Jeder kann sich frei für ein effizientes Produkt entscheiden, oder auch nicht. Schöne freie Welt oder nicht?
5. Ich möchte mal sehen wie jemand einen z.b. Porsche Fahrer aufhält und ihm erzählt wie effizient sein Fahrzeug ist. Nein? Komisch ^^ Doch nur ein Strohmann?
Warten wir ab, was bei den Tests herauskommt. Und dabei denke ich auch daran, dass nicht nur "Gamer" existieren, sondern das Produkt auch produktiv genutzt werden wird.
Das ist ein Desktop Prozessor der Oberklasse, der wird kaum produktiv genutzt werden. Office PCs bekommen i.d.R. einen i5 und Workstations eher dickerer CPUs. Mit der TDP ist der 12900K ganz klar ein CPU für den DIY Markt, ergo in ersten Linie Enthusiasten, Youtube Ausbeuter, Redakteure und ja Gamer.
Eine angenehme Nacht wünsche ich Dir, bzw. allerseits.

Gast
2021-11-02, 01:39:10
Das ist ein Desktop Prozessor der Oberklasse, der wird kaum produktiv genutzt werden.
Falsch, imo ist er von Intel so positioniert. Wenn man dann irgendwann nach den realen Benchmarks geht, aber völlig falsch. Warum auch immer. Gaming bringt der nicht viel, auch wenn sie das meinen. Die Parade ist Pro Content.

Gast
2021-11-02, 08:24:05
Mehr gibt es dazu eigentlich nicht zu sagen. AMD liefert weiterhin das rundere und vermutlich preiswertere Produkt.


Sollte Intel weiterhin seine <10W bei leichter Last am Desktop bieten, und ich sehe eigentlich keinen Grund warum das nicht der Fall sein sollte, mit den E-Kernen sollte es eher besser als schlechter werden, ist Alder Lake das deutlich rundere Paket, selbst wenn AMD wahrscheinlich bei Vollauslastung weiterhin effizienter bleibt.

Dazu gibt es noch einen IGP als goodie obendrauf, und auch wenn man grundsätzlich mit dedizierter Grafikkarte plant ist es doch immer praktisch einen Fallback zu haben falls diese überraschend mal ausfallen würde, gerade in heutigen Zeiten in denen man nicht mal eben preisgünstig Ersatz beschaffen kann.

Gast
2021-11-02, 11:18:50
Sollte Intel weiterhin seine <10W bei leichter Last am Desktop bieten, und ich sehe eigentlich keinen Grund warum das nicht der Fall sein sollte, mit den E-Kernen sollte es eher besser als schlechter werden, ist Alder Lake das deutlich rundere Paket, selbst wenn AMD wahrscheinlich bei Vollauslastung weiterhin effizienter bleibt.

Das ist aber komplett falsch, die E Kernen übernehmen nur Hintergrundaufgaben. Immer dann wenn die P Kerne der geforderten Threadanzahl entsprechen schleppt man einen Haufen Ballast mit sich umher. Ein BS läuft also nicht "allein" über die E Kerne, weil für Windpws 3 Threads und damit 2 Cores völlig reichen.

Siehe Intels Aussagen dazu: "Skalierung von Highthread zur Minimierung von Unterbrechungen durch die Verwaltung von Hintergrundaufgaben". Sowas liegt im Idle bzw. normalen Desktop nie an.

Daher bringt es auch in Spielen nichts, weil dort 8 Cores für alles reichen und man dann nur von dem Performancevorteil der P Kerne profitiert. Und nur die bingen einen Leistungsvorteil mit (IPC), die E Kernen kosten dann nur Energie! Genauso wie einen IGP die ich nicht brauche weil mir die letzten 20 Jahre keinen einzige dGPU angeraucht ist.

Man braucht also mehr Energie nicht weniger! Das führt auch E Cores völlig ad absurdum. Schön viel Werbung mehr nicht. Genaus deshalb hängen die P und E Cores auch am gleichen L Cache.

Wenn man noch mehr P Cores verwendet hätte, wäre die CPU wohl beim um 300W rausgekommen. Ineffizienter geht es also nicht.

Platos
2021-11-02, 12:34:05
Ja, für Gamer ist der Stromverbrauch nicht extrem schlecht und im Teillastbetrieb ist Intel immer noch besser, wie AMD.

Gast
2021-11-02, 14:54:10
Das ist aber komplett falsch, die E Kernen übernehmen nur Hintergrundaufgaben.


Was genau für den typischen Desktop-Betrieb interessant ist, da hat man eine Vordergrundanwendung die auf einem P-Kern läuft und der Kleinkram im Hintergrund läuft auf den E-Kernen. Mehr als 2 P-Kerne dürften im typischen Desktopbetrieb kaum gleichzeitig aktiv sein.



Daher bringt es auch in Spielen nichts, weil dort 8 Cores für alles reichen und man dann nur von dem Performancevorteil der P Kerne profitiert. Und nur die bingen einen Leistungsvorteil mit (IPC), die E Kernen kosten dann nur Energie! Genauso wie einen IGP die ich nicht brauche weil mir die letzten 20 Jahre keinen einzige dGPU angeraucht ist.


Wenn ein Spiel tatsächlich 8 Cores braucht bringen dir die E-Kerne sowohl Leistung als auch im Endeffekt eine Energieersparnis, weil die Threads vom Spiel dann die P-Cores für sich alleine haben und das ganze Hintergrundgedöns vom OS auf den E-Kernen läuft.
Damit gewinnst du einerseits Leistung, weil die P-Kerne weniger durch Aufgaben des OS beansprucht werden und damit mehr Zeit für das Spiel zur Verfügung stehen, und andererseits, weil das Ganze auf den E-Kernen auch noch effizienter läuft und du damit mehr Powerbudget für die P-Kerne und damit dein Spiel im Vordergrund hast.

Und ein IGP kostet genau 0 wenn er nix tut.

Die meisten Spiele lasten aber nicht mal ansatzweise 8 Kerne aus, weshalb sich da auch nicht großartig was tun wird.


Man braucht also mehr Energie nicht weniger! Das führt auch E Cores völlig ad absurdum.


Wieviel Energie man verbraucht hängt von einerseits von der laufenden Software und andererseits vom eingestellten Powerlimit ab.

Genaus deshalb hängen die P und E Cores auch am gleichen L Cache.


???
P-Cores haben jeweils privaten L1 und L2, die E-Cores Privaten L1 und L2 geshared für jeweils 4 Cores.

Zusätzlich gibt es einen LLC für das gesamte DIE.


Wenn man noch mehr P Cores verwendet hätte, wäre die CPU wohl beim um 300W rausgekommen. Ineffizienter geht es also nicht.

Wo man rauskommt hängt vom eingestellten Powerlimit ab, man kann es haben wie man möchte, 65W, 100W, 200W oder 300W, alles nach belieben einstellbar, sofern das Mainboard es mitmacht.

Gast
2021-11-02, 16:04:47
@gast
Wenn du am PL umherspielst geht dir aber Leistung verloren, bei Alder Lake wohl recht deutlich. Also wo ist das dann das bessere Produkt? Stelle einen 5900x oder 5950x auf 241w und dann vergleiche. Deine Argumente helfen niemanden und sind eigentlich nur eine Rechtfertigung, in der realen Welt hat das aber heftige Auswirkungen PL1 241w auf 125w zu senken. Die TDP ist irgendwas was Intel meint nennen zu müssen und genauso wie bei AMD, stimmt die nirgendwo.

Mir kommen die AL mit E und P Kernen so vor, als wenn das alles Fertigungsausschuss aus dem Bereich 16C HEDT ist, dem Intel einen neuen Namen gibt, halt Abfall eigentlich bei dem das Caching nicht leidet. Wo man Cores niedriger takten muss und sie dann E Cores nennt. Würde dazu passen, dass wenn man Leistung braucht auch auf alle Cores heftig einprügeln muss, damit man an der Konkurrenz vorbei kommt. Intel tritt auf der Stelle, entweder sind sie lahm oder verbrauchen viel zu viel.Also die Entwicklung reiner 16C lief bei Intel voll gegen den Baum und flickschusters irgendwas mit P und E zurecht.

AL ändert daran gar nichts, man gibt dem Kind nur wieder einen neuen Namen mit ordentliche Preisaufschlägen ala PCIe 5.0 und DDR5. Was man als Spieler auch gar nicht braucht und erst in 5-10 Jahren davon profitieren würde, dann wenn Entwickler solche Updates auszunutzen wissen. AMD geht es mit PCIe 4.0 nicht anders, Hauptsache Preisaufschläge und teuer.

Die Hardware ist für alles schnell genug, das müsste man erstmal auszunutzen wissen. CPU rücken beim Spielen seit Jahren immer mehr in den Hintergrund und wird immer mehr in den Bereich GPU verlagert. Diese Dinger haben Rechenleistung genug und werden zum Teil nicht mal richtig ausgelastet, was man auch bei Ampere sieht.

Platos
2021-11-02, 16:51:11
Sehe ich auch so. Desktopbetrieb sollte von E-Cores massiv profitieren und in Anwendungen können die kleinen auch mitarbeiten. Im Gaming können die kleinen mindestens alles im Hintergrund stemmen und 8 Kerne sollten somit vollständig vom Spiel genutzt werden.

Wie effizient das ganze am Schluss ist, hängt aber dann davon ab, wie das ganze getaktet wird. Wenn einer der beiden/beide Core-Varianten (sehr weit) ausserhalb des Sweetspots betrieben werden, bringt das ganze natürlich nichts.

Gast
2021-11-03, 08:43:08
@gast
Wenn du am PL umherspielst geht dir aber Leistung verloren, bei Alder Lake wohl recht deutlich.


Eine gute Performanceskalierung mit dem Powerlimit ist aber eine positive Eigenschaft, keine negative. Gleich wie die Möglichkeit hohe Leistungsaufnahmen auch alltagstauglich zu kühlen.


Also wo ist das dann das bessere Produkt? Stelle einen 5900x oder 5950x auf 241w und dann vergleiche.


Habe ich mit meinem 5950X gemacht, und komme mit 240W PL in Cinebench fast auf die identischen Werte die für einen 12900K mit 241W kolportiert werden.

Also fassen wir mal zusammen.

ST-Leistung: 12900K >> 5950X, noch nicht bestätigt, aber nach Erfahrungen mit bisherigen Intel-CPUs bei geringerem Verbrauch für Intel.
Max. MT Leistung: 5950X > 12900K bei etwas geringerem Verbrauch für den 5950X
Alltagsperformance: Bei beiden mehr als ausreichend bei vermutlich deutlichen Verbrauchsvorteilen für den 12900K
Preis: 5950X >> 12900K
Plattform: Z690 >> X570 bei vermutlich deutlich besserem Verbrauch, alle bisherigen Z690 Platinen sind passiv gekühlt, praktisch alle X570 Platinen aktiv

Also ganz objektiv, aus den bisher bekannten Informationen ist der 12900K insgesamt das deutlich rundere Produkt, das zwar in Teilgebieten vom 5950X überholt wird aber insgesamt deutlich mehr Siege einfahren.

Die TDP ist irgendwas was Intel meint nennen zu müssen und genauso wie bei AMD, stimmt die nirgendwo.


Den Begriff TDP gibt es bei Alder-Lake (zumindest bei den K Prozessoren) nicht mehr.


Mir kommen die AL mit E und P Kernen so vor, als wenn das alles Fertigungsausschuss aus dem Bereich 16C HEDT ist, dem Intel einen neuen Namen gibt, halt Abfall eigentlich bei dem das Caching nicht leidet.


Glaubst du wirklich wenn du so viele Fachbegriffe wie möglich völlig zusammenhanglos in einen Satz platzierst, dass es den Eindruck mach, dass du irgendeine Ahnung hast wovon du sprichst?
Ich sage dir, es ist genau das Gegenteil der Fall, man merkt dass du nur irgendwelche Phrasen von dir gibst und genau 0 Ahnung hast.

MasterElwood
2021-11-03, 09:04:49
Du stellst Dich wahrscheinlich auch, natürlich unentgeltlich, als Tester zur Verfügung?

Ich denke nicht, Tim. Die meisten anderen wollen einfach nur zocken und es juckt nicht die Bohne, was da an Strom durch die CPU fließt.

Strom is mir egal. Hitze und Lärm nicht (vom allem im Sommer).

Gast
2021-11-03, 20:08:17
@Leo

Intel hat beschissen, der 5950 lief in den Spiele Benchmarks mit einem PL1 von 105W!

Siehe Testsystemvergleich von Intel auf dieser Folien:
url=https://abload.de/image.php?img=bild_2021-11-03_2006239j6c.png]https://abload.de/img/bild_2021-11-03_2006239j6c.png[/url]

Der Intel auf PL1 von 241W.

Gast
2021-11-03, 20:14:08
Falscher Link: https://ibb.co/ZTyrTHw

5950x 105w
12900k 241w

Leonidas
2021-11-04, 02:35:48
Habe es gesehen, gehe von einem Fehler aus. Die wollten sicherlich sowas schreiben wie "Spec-gerecht", also "PL1=125W". Dass sie den 5950X manuell limitiert haben, ist arg unwahrscheinlich (weil rechtlich angreifbar).

So oder so gibt es heute Nachmittag dann die echten Daten unabhängiger Tester.

Gast
2021-11-04, 07:26:21
Ist sowieso ziemlich egal, es gibt kaum Games in denen es überhaupt über 100W raufgeht.