Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 1. November 2021
Leonidas
2021-11-02, 05:34:21
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1-november-2021
Interessant wäre jetzt noch eine Ergänzung um AMD-Ergebnisse mit PBO.
Letzteres nennt sich bei Intel "MTP" und bei AMD "PPT" – dies sind die Werte, wo real abgeregelt wird (bei Intel noch mit Ausnahmen für Zeitbereiche ≤10ms).
Nicht nur bei Intel, sondern bei jedem getakteten Mikrochip, die Schwankungen werden aktuell von keiner Regelung abgefangen.
Intel definiert lediglich als einziger, dass die PL1/PL2-Limits alles >10ms abfangen, bei keiner anderen Powerregelung gibt es dafür eine offizielle Spezifikation, und Intel ermöglicht es auch als einziger optional mit PL3/PL4 noch kürzere Spikes ebenfalls zu limitieren, wobei das allerdings auch nur bei OEMs und auch da nur hin- und wieder zum Einsatz kommt.
Leonidas
2021-11-02, 09:11:49
So gesehen hast Du Recht. Diese Spikes sind für Netzteile zu klein, um jene zum Abschalten zu zwingen und haben kaum eine Bedeutung für den durchschnittlichen Stromverbrauch. Ergo sollte es die auch bei AMD geben.
Interessant wäre jetzt noch eine Ergänzung um AMD-Ergebnisse mit PBO.
Viel Arbeit für die Tester zum 4.11 (und nachfolgend mich zum auswerten).
Wird die 3080 mit 12GB dann auch unter 3080 laufen? Mehr Shader würde die Karten dann näher Richtung 3080 TI bringen. Daher werden es nicht viel mehr Shader sein können, sonst ist die TI sinnlos/redundant.
So nehme die Kundenverarsche bei Nvidia weiter ihren Lauf, eine Mittelklassekarte braucht mehr VRAM als eine Highend oder Enthusiast? Lisa wird schmuzeln und nun zeigt sich wie weit AMD da mal wieder vorausgedacht hat, auch wenn es unter UHD mit ihrem SI ein paar Leistungseinbußen gibt (jedenfalls gegenüber Nvidia, nicht zu vergessen braucht AMD dafür nur Gddr6 und nicht Gddr6x).
Zu den 20 verschiedenen Modellen im Markt kommt dann noch eine 2060 (wen interessiert diese Karte eigentlich noch?). Alten Ausschuss für viel Geld verkaufen. Der Markt ist total kaputt und irrsinnig und die Hersteller machen da mit.
Lieferbar 2025, ich warte seit einem Jahr auf meinen Karte für UVP. Still ruht der See. Das ist sowas von lächerlich und würde sich in anderen Branchen niemand gefallen.
Leonidas
2021-11-02, 11:10:51
Lisa könnte schmunzeln, wenn sie liefern könnte. So ist das alles ziemlich wurscht, weil AMD in der reinen Praxis nicht die Möglichkeit hat, NV beim Speicher anzugreifen.
Die Lisa liefert deutlich mehr aus als in Vorjahren. Der geht es also ziemlich gut. Als wenn Nvidia irgendwas liefern könnte und das liegt teilweise NUR am GDDR6X!
Warum muss Vorgabe sein, was AMD verbraucht? Könnte man auch intel nehmen. Mir persönlich egal, aber klingt wieder tendenziös.
Wenn der Rest auf 65W ausgelegt ist, regelt man das über BIOS. Wo ist das Problem? Im Notebook- bzw. AiO-Segment ist das schon ewig usus und galt auch in Desktops für Alles, was PL1/PL2 >65W (nicht) unterstützte.
Mal wieder der Hinweis, dass es entgegen der Formulierungen von Leo sehr wohl (Desktop-)Markt für <6, ja sogar <4 P-Cores gibt: u.a. Clients. 2C+8c+GT3 wäre da Overkill, so dass selbst extreme Salvage denkbar sind.
WedgeAntilles
2021-11-02, 11:32:48
So nehme die Kundenverarsche bei Nvidia weiter ihren Lauf, eine Mittelklassekarte braucht mehr VRAM als eine Highend oder Enthusiast? Lisa wird schmuzeln und nun zeigt sich wie weit AMD da mal wieder vorausgedacht hat, auch wenn es unter UHD mit ihrem SI ein paar Leistungseinbußen gibt (jedenfalls gegenüber Nvidia, nicht zu vergessen braucht AMD dafür nur Gddr6 und nicht Gddr6x).
Glaubst du Lisa findet es witzig, dass RNDA2 im PC nach wie vor einen nicht messbaren Marktanteil hat?
Jensen wird jedenfalls sicherlich lachen wenn er sich seine Marktanteile von Ampere vs RDNA2 anschaut.
Ob Nvidia jetzt 500 mal, 100 mal oder nur 50 mal mehr Marktanteil hat kann man natürlich schwer sagen, da die Marktanteile von AMD einfach zu klein (Richtung: Nicht existent) sind um da eine vernünftige Aussage zu treffen.
Aber schön, wenn AMD das auch so witzig findet, dann sind ja alle glücklich :)
... weil AMD in der reinen Praxis nicht die Möglichkeit hat, NV beim Speicher anzugreifen.
Was? Sie haben sie schon längst angegriffen, nicht umsonst gibt es so Krüppel wie die 3060 12GB, was reine Verschwendung bei dieser Karte ist.
Nicht umsonst sollen jetzt Varianten wie eine 3080 mit 12 und 3070ti mit 16GB im Nachgang kommen. Oder glaubst du weil Nvidia den Spielern irgendwas freiwillig gibt? Bei der Speichermenge haben sie sich komplett verranzt, weil Ampere ganz klar fürs Mining entwickelt wurde, da braucht es nicht riesige Mengen Speicher, sondern schnellen. Nun dürften die Verkäufe dort wegen Beschränkungen und Sättigung abflauen, da kommt man nun und gibt dem Spieler was er braucht, vermutlich auch teurer um weiter zu melken.
AMD hat längst angegriffen und zwar schon beim Launch von der 6000 Serie! Trotzdem, da werden sie teilweise schön draufzahlen müssen, wenn man mit AMD vergleicht. Selbst Schuld, zumal Neuerscheinungen immer dazu führen das man alte Hardware für weniger abverkauft. Für die min Speichervarianten interessiert sich dann auf Schlag kein Mensch mehr. Die landen dann in OEM Kisten, für Deppen. Die Kisten sind oft so eng gestrickt, das es kaum Margen gibt die lohnen. Da geht es nur über die verkaufte Anzahl.
Du hast manchmal echt einen arg grünen Bias.
Anteile, nicht mal 10% auf Steam oder was meinst du? 100000 Karten haben die höchst offiziell an Miner verkloppt. Genau deshalb bekommst du keine. AMD haben sich da mit ihrem SI schön rausgenommen und Nvidia weiß gar nicht wie sie den Bereich beliefern sollen. Der Großteil der Miner setzt auf Gamingkarten, weil die nach dem Abflauen des Coinboom profitabel abgesetzt werden können. Die laufen dort paar Monate 24/7 und werden dann mit originalen Schutzfolien weiterverkauft. Vermutlich völlig ohne Verluste und nur so rentiert sich das auch.
Lisa wird schmuzeln und nun zeigt sich wie weit AMD da mal wieder vorausgedacht hat, auch wenn es unter UHD mit ihrem SI ein paar Leistungseinbußen gibt (jedenfalls gegenüber Nvidia, nicht zu vergessen braucht AMD dafür nur Gddr6 und nicht Gddr6x).
Lisa hat nur leider vergessen zu bedenken, dass es potentielle Käufer für einigermaßen konkurrenzfähige Produkte gibt, und man diese auch herstellen müsste.
Viel Arbeit für die Tester zum 4.11 (und nachfolgend mich zum auswerten).
Hält sich in Grenzen, außer für 5900X und 5950X ist PBO eh uninteressant, also effektiv quasi 2 CPUs mehr zu testen.
Platos
2021-11-02, 12:25:44
Ich würde auch eher sagen, dass wenn, dann Jensen lacht, dass er mehr Verkauft mit solchen miesen Speicherausstattungen.
Aber so oder so: Beide Generationen sind äusserst Zukunftsunfähig. Ampere hat bis auf wenige Karten zu wenig Speicher und RDNA2 hat ne richtig miese RT Perfomance und FSR ist auch noch weit weg, um gegen DLSS eine wirkliche Konkurrenz zu sein (qualitativ).
Aber die Marktpreise machen sowieso alles kaputt, was in der Theorie gilt. Von daher gilt in allen Aspekten: Warten bis zur nächsten Generation der beiden.
Wenn GPU Preise mit dem Preis von Bitcoins ansteigen, ist das ein Indiz dafür das GPUs gezielt für Mining entwickelt wurden. Da sich der Preis für GPU's (AMD/Nvidia) gerade von Bitcoinkurs entkoppelt (so neuste Analysen), wird es Zeit das Nvidia die Karten für Gamer attraktiv gestaltet. Denn da gibt es bei den Investoren mittlerweile Ängste, dass Nvidia's Verkäufe mit dem Verlust im Bitcoinabsatz schrumpfen. Da nimmt man mit den Varianten mit mehr Speicher, wohl etwas die Luft raus.
Denke mal zum Weihnachtsgeschäft wäre es sinnvoller, wird man aber nicht mehr schaffen und bis dahin muss man wohl Federn lassen. Man sollte auch nicht verkaufte oder abgesetzte GPU's, mit bei Spieler angekommen verwechseln. Da ist bisher sehr wenig oder gar nichts angekommen. Beherrscht wird Nvidia's Anteil von der GTX1060, 1050ti und der 1650. Von Ampere ist da kaum was zu sehen. Eher kommt Turing dort gerade erst an.
WedgeAntilles
2021-11-02, 12:41:53
Aber so oder so: Beide Generationen sind äusserst Zukunftsunfähig. Ampere hat bis auf wenige Karten zu wenig Speicher und RDNA2 hat ne richtig miese RT Perfomance und FSR ist auch noch weit weg, um gegen DLSS eine wirkliche Konkurrenz zu sein (qualitativ).
Völlig richtig.
Die einzige GraKa, bei der man nicht massive Abstriche machen muss, ist die 3090.
Und - mal normale Preise unterstellt - das ist ne 1500 Euro GraKa, die für 99,99% der User völlig unattraktiv ist und keinerlei Rolle spielt.
Ziemlich traurig eigentlich.
Und da dann noch die tatsächlichen Preise drauf, dann wird es wirklich absurd.
Legendenkiller
2021-11-02, 12:44:49
Eine 3050 / TI fände ich interessanter als noch ein abklatsch bei 3070/3080.
Naja egal, haken drann und auf die nächste GEN warten. Wo bei es sich andeutet das es da noch übler weiter geht.
PS: es lachen beide über die Käufer der total überteuerten Karten.
Platos
2021-11-02, 12:50:57
Eine 3050 / TI fände ich interessanter als noch ein abklatsch bei 3070/3080.
Naja egal, haken trrann udn auf die nächste GEN warten.
Deine 3050/Ti ist die 2060 12GB. Evtl. wirds diese Gen nix unter der 3060 geben (von Ampere).
Völlig richtig.
Die einzige GraKa, bei der man nicht massive Abstriche machen muss, ist die 3090.
Und - mal normale Preise unterstellt - das ist ne 1500 Euro GraKa, die für 99,99% der User völlig unattraktiv ist und keinerlei Rolle spielt.
Ziemlich traurig eigentlich.
Und da dann noch die tatsächlichen Preise drauf, dann wird es wirklich absurd.
Ja, die 3060 finde ich gerade noch so knapp akzeptabel, wobei sie mir eig. einen 30-50$ zu hohen Listenpreis hat. Aber die 12 GB machen das wieder etwas gut. Aber die kriegt man ja auch nicht für den Listenpreis
Leonidas
2021-11-02, 13:13:22
Warum muss Vorgabe sein, was AMD verbraucht? Könnte man auch intel nehmen.
Exakt. Aber der AMD-Wert ist besser in der Mitte der Dinge. Wenn man es noch salomonischer will: 170W.
Was? Sie haben sie schon längst angegriffen, nicht umsonst gibt es so Krüppel wie die 3060 12GB, was reine Verschwendung bei dieser Karte ist.
Ich hab es in Verbindung mit der Lieferbarkeit gebracht. So lange AMD nicht echt liefern kann, isses ziemlich egal, ob sie beim Speicher vorn liegen.
Eine 3050 / TI fände ich interessanter als noch ein abklatsch bei 3070/3080.
Ist auch noch in der Mache:
https://www.3dcenter.org/news/geruechtekueche-aktualisierte-hardware-daten-zu-nvidias-geforce-rtx-3050-3050-ti
WedgeAntilles
2021-11-02, 13:14:18
Ja, die 3060 finde ich gerade noch so knapp akzeptabel, wobei sie mir eig. einen 30-50$ zu hohen Listenpreis hat. Aber die 12 GB machen das wieder etwas gut. Aber die kriegt man ja auch nicht für den Listenpreis
Stimmt, das trifft es gut.
Ex3cut3r
2021-11-02, 13:16:39
Glaube zwar nicht daran, aber auch falls Sie kommen sollten. Dürfte man in freier Wildbahn sowieso nie wahrhaftig zu Gesicht bekommnen. Die ganze RTX 30 Reihe ist eigentlich ein Phantom. Es heißt es gibt Sie, manche berichten so gar, welche zu besitzen, so richtig glauben kann man das aber nicht. :wink:
Mir kann es egal sein, komme mit meiner 2080 OC noch sehr gut aus.
Aroas
2021-11-02, 14:30:52
Also arbeitet Intel einmal mehr mit der Brechstange um Single Core vorn zu liegen, packt es aber auch mit deutlich höherem Stromverbrauch nicht, Multithreaded die AMD Konkurrenz der gleichen Preisklasse zu schlagen.
Geht ja richtig schwungvoll voran bei Intel mit der Entwicklung.
Also arbeitet Intel einmal mehr mit der Brechstange um Single Core vorn zu liegen, packt es aber auch mit deutlich höherem Stromverbrauch nicht, Multithreaded die AMD Konkurrenz der gleichen Preisklasse zu schlagen.
Intel braucht keine Brechstange um im Singlecore vorne zu liegen, das haben sie auch so komfortabel in der Tasche. Sie brauchen höchstens die Brechstange um auch im Multicore mit 8+8/24T gegenüber 16/32T auch noch vorne zu liegen.
Aber wenn es kühlbar ist bitte, warum nicht, AMD muss erstmal eine (non-HEDT) CPU bringen mit der man 250W vernünftig kühlen kann.
Was passiert denn wenn man die CPU-Mainboard-Combo mal einen Stable-Test machen lässt?
Für mich wäre so etwas wie teildefekt, ich würde es so nicht nutzen wollen mit 241 Watt zulässigem Verbrauch.
Platos
2021-11-02, 15:49:02
Also arbeitet Intel einmal mehr mit der Brechstange um Single Core vorn zu liegen, packt es aber auch mit deutlich höherem Stromverbrauch nicht, Multithreaded die AMD Konkurrenz der gleichen Preisklasse zu schlagen.
Geht ja richtig schwungvoll voran bei Intel mit der Entwicklung.
Also in der Tabelle liefert der 12600K @125W ziemlich genau den MT-Wert des 5800X @142W. Das wäre dann sogar gleich gut, günstiger und weniger Stromverbrauch. Und beim 12700K @125W wäre das dann mehr Leistung bei gleichem Listenpreis und weniger Stromverbrauch. Einzig der 12900K liefert @125W weniger wie der 5900X, wobei dieser auch etwas mehr Strom ziehen darf (142W).
Also zumindest unter diesen Bedinungen sieht das alles andere als schlecht aus.
Aroas
2021-11-02, 15:55:28
Einzig der 12900K liefert @125W weniger wie der 5900X, wobei dieser auch etwas mehr Strom ziehen darf (142W).
Der 5900X kostet weit weniger als der 12900K. Hier ist also eher der 5950X vergleichbar. Und da siehts für Intel Multithreaded nicht gut aus.
Platos
2021-11-02, 16:11:23
Der 5900X kostet weit weniger als der 12900K. Hier ist also eher der 5950X vergleichbar. Und da siehts für Intel Multithreaded nicht gut aus.
Das liegt daran, dass der 5900X schon ein Jahr auf dem Markt ist. Der Listenpreis ist in etwa da, wo der 12900KF ist (der 12900K hat noch ne iGPU). Strassenpreise bevor überhaupt der Launch begonnen hat, kann man nicht ernst nehmen.
Aber die werden gerade beim Deppenmodell (12900K) vermutlich Anfangs hoch bleiben. Spielt aber auch keine Rolle für die Aussage von vorhin, dass nur der 12900K nicht gut ist, die anderen beiden aber in diesem Szenario aber sogar besser. Die anderen beide sind weitaus wichtigere Modelle gemessen an den Stückzahlen.
Es gibt keine 12600k mit PL 125w. Das Teil hat ein PL1/PL2 von 150w. Also ist der 5800x 8W sparsamer. der 12700 liegt bei 190 und 12900k bei 241. PL1 ist gleich PL2 und PL4 liegt viel höher, 359w beim 12900k. Also fallen die 300W bereits ziemlich offiziell!
Stell das auf 125 und du verliest deutlich an Leistung, weil die Kerne dann nicht mehr boosten.
Nur wenn Tjmax von 100°C überschritten werden sollte throtteln die Kerne.
WedgeAntilles
2021-11-02, 16:30:28
Der 5900X kostet weit weniger als der 12900K. Hier ist also eher der 5950X vergleichbar. Und da siehts für Intel Multithreaded nicht gut aus.
Ich wusste nicht, dass AlderLake nur aus dem 12900K besteht und es sonst keine CPUs dort gibt.
Danke für den Hinweis!
Jetzt hätte ich bei der Bewertung von AL doch beinahe nicht existente Phantome wie den 12600K und den 12700K betrachtet.
Oder gar die KF Varianten - noch mal günstiger.
Warum AMDler immer die K Preise verwenden statt die KF Preise - ist das Unwissen, Unfähigkeit oder Böswilligkeit? Keine Ahnung.
Platos
2021-11-02, 16:39:54
Es gibt keine 12600k mit PL 125w. Das Teil hat ein PL1/PL2 von 150w. Also ist der 5800x 8W sparsamer. der 12700 liegt bei 190 und 12900k bei 241. PL1 ist gleich PL2 und PL4 liegt viel höher, 359w beim 12900k. Also fallen die 300W bereits ziemlich offiziell!
Stell das auf 125 und du verliest deutlich an Leistung, weil die Kerne dann nicht mehr boosten.
Nur wenn Tjmax von 100°C überschritten werden sollte throtteln die Kerne.
Da wurden ja anscheinend eben alle getesteten CPUs in 125W und 241W getestet. Das ist kein Defaultzustand, das weiss ich auch. Es ging ja nie um den Defaultzustand sondern um die Werte, die du in dieser News findest von Leonidas.
Rabiata
2021-11-02, 16:58:02
Die ganze RTX 30 Reihe ist eigentlich ein Phantom. Es heißt es gibt Sie, manche berichten so gar, welche zu besitzen, so richtig glauben kann man das aber nicht. :wink:
Mir kann es egal sein, komme mit meiner 2080 OC noch sehr gut aus.
In Gaming-Komplett-PCs scheinen sie besser verfügbar zu sein. Mein Neffe hat vor ein paar Monaten einen mit RTX 3060 von seinen Eltern geschenkt bekommen. Der Preis enthielt den gängigen Straßenpreis für eine 3060, war also kein besonderes Schnäppchen. Aber verfügbar war die Kiste schon.
Ansonsten zeichnet sich bei den CPUs ab, daß Intel auch nur mit Wasser kocht. Die Ergebnisse von Alder Lake sind gut, aber nicht so drückend überlegen daß AMD keine Chance mehr hätte.
crux2005
2021-11-02, 17:43:25
Es wird immer absurder mit den Grafikkarten.
Eine 3070 Ti (225W) mit 16 GB für 600€ wäre für mich eine idealne Grafikkarte. Leider werde ich dafür noch lange warten müssen...
Die aktuellen Preise sind einfach nicht vertretbar.
Ich würde auch eher sagen, dass wenn, dann Jensen lacht, dass er mehr Verkauft mit solchen miesen Speicherausstattungen.
Aber so oder so: Beide Generationen sind äusserst Zukunftsunfähig. Ampere hat bis auf wenige Karten zu wenig Speicher und RDNA2 hat ne richtig miese RT Perfomance und FSR ist auch noch weit weg, um gegen DLSS eine wirkliche Konkurrenz zu sein (qualitativ).
Aber die Marktpreise machen sowieso alles kaputt, was in der Theorie gilt. Von daher gilt in allen Aspekten: Warten bis zur nächsten Generation der beiden.
+1
Also in der Tabelle liefert der 12600K @125W ziemlich genau den MT-Wert des 5800X @142W. Das wäre dann sogar gleich gut, günstiger und weniger Stromverbrauch. Und beim 12700K @125W wäre das dann mehr Leistung bei gleichem Listenpreis und weniger Stromverbrauch. Einzig der 12900K liefert @125W weniger wie der 5900X, wobei dieser auch etwas mehr Strom ziehen darf (142W).
Also zumindest unter diesen Bedinungen sieht das alles andere als schlecht aus.
Man kann natürlich auch den 5700G nehmen, der ist MT etwas langsamer als der 5800X, kostet merklich weniger und verbraucht 65W (maximal 88W). Und dass der 5900X auch bei maximal 88W schneller als der 12900K @125W ist, hast du auch mal ignoriert. Bei den Preisen bin ich auch gespannt, wie die in freier Wildbahn aussehen. Aber generell könnte der 12600K durchaus interessant sein, der 12700K eventuell auch. Aber ich warte erst mal Tests ab, bevor ich ADL bewerte.
Warum AMDler immer die K Preise verwenden statt die KF Preise - ist das Unwissen, Unfähigkeit oder Böswilligkeit? Keine Ahnung.
Aus dem selben Grund, warum die Intelaner immer die Kosten und den Verbrauch des X570 nehmen und nicht des B550... ;)
Platos
2021-11-02, 22:48:10
Man kann natürlich auch den 5700G nehmen, der ist MT etwas langsamer als der 5800X, kostet merklich weniger und verbraucht 65W (maximal 88W). Und dass der 5900X auch bei maximal 88W schneller als der 12900K @125W ist, hast du auch mal ignoriert. Bei den Preisen bin ich auch gespannt, wie die in freier Wildbahn aussehen. Aber generell könnte der 12600K durchaus interessant sein, der 12700K eventuell auch. Aber ich warte erst mal Tests ab, bevor ich ADL bewerte.
Das mit den 88W des 5900X habe ich nicht gesehen. Aber wie gesagt, das ist die unwichtigste CPU gemessen nach Stückzahlen. Schon bei Rocket Lake war der i9 richtig uninteressant und bei Comet Lake eigentlich auch.
Und der 5700G ist kein passender Vergleich. Hier gehts um 125W & 142W und dann der 5700G mit max. 65W. Passt nicht, kann man nicht gut vergleichen und liefert weniger Perf. wie der 12600K, weil komplett anderes Powerlimit. Somit ist das schwer zu vergleichen, weil zu weit auseinander. Das müsste man eher mit nem 12600 vergleichen, aber davon gibts ja keine Daten und Preise.
Der 5700G ist schon ne interessante CPU, aber mit der Vega-GPU für mich komplett uninteressant (wegen den Features, nicht der Leistung). Abgesehen davon hat er auch weniger PCI-E Lanes, das ist ne CPU in einer völlig anderen Sparte.
Denke da kommt von den deutschen Magazinen/Redaktionen/Testern etc. nichts bzw. nicht viel zu Stromverbrauchtests unter üblichen Alltagsbedingungen der Benutzer, um 40 - 120 W und bei leichter Last etc.
Habe alle Tester angeschrieben, keiner hat geantwortet.
Oder zumindest nicht gleich am Anfang. Ist eh ein Unding alles gleich immer am ersten Tag und sofort zu veröffentlichen.
Wenn wenigstens pcgamesh. im Heft dazu was schreiben würde ;)
OpenVMSwartoll
2021-11-03, 04:26:28
Denke da kommt von den deutschen Magazinen/Redaktionen/Testern etc. nichts bzw. nicht viel zu Stromverbrauchtests unter üblichen Alltagsbedingungen der Benutzer, um 40 - 120 W und bei leichter Last etc.
Habe alle Tester angeschrieben, keiner hat geantwortet.
Oder zumindest nicht gleich am Anfang. Ist eh ein Unding alles gleich immer am ersten Tag und sofort zu veröffentlichen.
Wenn wenigstens pcgamesh. im Heft dazu was schreiben würde ;)
Würde eher annehmen, dass das zum Standard gehört. Und die Jungs haben sich wahrscheinlich im Lab eingeschlossen.
Legendenkiller
2021-11-03, 08:12:27
Glaube zwar nicht daran, aber auch falls Sie kommen sollten. Dürfte man in freier Wildbahn sowieso nie wahrhaftig zu Gesicht bekommnen. Die ganze RTX 30 Reihe ist eigentlich ein Phantom. Es heißt es gibt Sie, manche berichten so gar, welche zu besitzen, so richtig glauben kann man das aber nicht. :wink:
Mir kann es egal sein, komme mit meiner 2080 OC noch sehr gut aus.
och geben tuts die schon und man kann sie oft auch problemlos kaufen ... man muss nur bereit sein doppelte UVP zu bezahlen.
Es gibt keine 12600k mit PL 125w. Das Teil hat ein PL1/PL2 von 150w. Also ist der 5800x 8W sparsamer.
Nein ist er nicht, zumindest können wir das noch nicht wissen.
Eine CPU hängt nicht ständig am Powerlimit, genau genommen sogar fast nie außerhalb von Allcore MT-Benchmarks.
Wie der reale Verbrauch dieser CPUs in verschiedenen Anwendungsgebieten aussieht wird sich erst zeigen müssen.
Und der 5700G ist kein passender Vergleich. Hier gehts um 125W & 142W und dann der 5700G mit max. 65W. Passt nicht, kann man nicht gut vergleichen und liefert weniger Perf. wie der 12600K, weil komplett anderes Powerlimit. Somit ist das schwer zu vergleichen, weil zu weit auseinander. Das müsste man eher mit nem 12600 vergleichen, aber davon gibts ja keine Daten und Preise.
Der 5700G ist schon ne interessante CPU, aber mit der Vega-GPU für mich komplett uninteressant (wegen den Features, nicht der Leistung). Abgesehen davon hat er auch weniger PCI-E Lanes, das ist ne CPU in einer völlig anderen Sparte.
Der 5700G ist wie gesagt kaum langsamer als der 5800X (z.B. in CB Multi). Der läuft halt ziemlich im Sweet Spot und der 5800X ist schon merklich drüber.
Und wo genau hat der weniger PCIe Lanes? Er hat nur 3.0, aber er hat genauso 24 Lanes wie der 5800X. Wie man da auf "weniger" kommt, ist mir nicht klar.
Platos
2021-11-03, 10:08:23
Der 5700G ist wie gesagt kaum langsamer als der 5800X (z.B. in CB Multi). Der läuft halt ziemlich im Sweet Spot und der 5800X ist schon merklich drüber.
Und wo genau hat der weniger PCIe Lanes? Er hat nur 3.0, aber er hat genauso 24 Lanes wie der 5800X. Wie man da auf "weniger" kommt, ist mir nicht klar.
Ja, aber zum Vergleich mit den hier getesteten CPUs nicht geeignet. Es ging hier ja vor allem auch um den Stromverbrauch und da die CPUs bon Intel mit mind. 125W getestet wurden, kann man das nicht mit einer 65WCPU vergleichen (denn die schneidet dann deutlich schlechter wie der 12600K ab).
Und ja, hast recht, hab das mit den Mobile-Modellen verwechselt. Der 5700G hat wirklich 24 PCI-E 3.0 Lanes.
bad_sign
2021-11-03, 12:27:50
Ich hab es in Verbindung mit der Lieferbarkeit gebracht. So lange AMD nicht echt liefern kann, isses ziemlich egal, ob sie beim Speicher vorn liegen.
Da möchte ich doch hart widersprechen, ohne AMD hätte ich die selbe schlechte Auswahl wie zu Turing, einzig technisch sinnvoll dimensionierte Karte ist das Topmodel, sonst das gesamte Lineup Elektroschrott.
Dank AMD gibt es wenigstens 3 gute Karten im Markt (6700XT,6800/XT)
Teuer sind alle aber wenigstens nicht von beginn an für die Müllhalde produziert.
Leonidas
2021-11-03, 12:49:55
Aber können sie NV damit wirklich unter Druck setzen? In der aktuellen Situation - eher nein. Natürlich ist das nicht Schuld von AMD oder ein Fehler von deren Produkten.
Lehdro
2021-11-03, 15:57:34
Ist doch eh egal wer da wen auslacht oder unter Druck setzt?
Es wird alles verkauft, teilweise zu absurden Preisen. Die kommen doch alle nicht aus dem Lachen heraus.
Aber können sie NV damit wirklich unter Druck setzen? In der aktuellen Situation - eher nein. Natürlich ist das nicht Schuld von AMD oder ein Fehler von deren Produkten.
Will das AMD überhaupt? Als Marktführer müsstest du jedes mal einen drauf setzen und das scheint auch NVidia sichtlich, immer schwerer zu fallen. Atis Verfolgerrolle stand denen jedenfalls ziemlich gut, solange du damit Geld verdienst ist das auch okay. Das scheint so zu sein und nicht zu wenig. AMDs Hauptgeschäft wird im Gegensatz zu NVidia immer das CPU Segment bleiben. Das wird viel oft komplett falsch dargestellt.
Zu vermuten ist also, dass AMD mit dem Gepieckse in Richtung NVidia und seiner Rolle ziemlich zufrieden ist. Aufholen müssen sie HPC.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.