PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 24./25. Oktober 2022


Leonidas
2022-10-26, 07:45:21
Link zur News:
https://www.3dcenter.org/news/news-des-2425-oktober-2022

Gast
2022-10-26, 10:38:42
Nun versteht man auch warum NVidia mit der TDP so weit runter gegangen ist, die dürften genau wissen was da los ist. Fast doppelte Leistungsaufnahme über den Stecker bei -60% Reduzierung der Querschnitte und Übertragungsflächen von 4x8 Pin auf den 12 Pin. Da dürfte jeder verstehen, dass das nur in einem Desaster enden kann und die PCI Sig im Vorfeld genau darauf hingewiesen hat, daß diese Adapter Murks sind. Da muss man nicht Engineer sein, sondern klarer Menschenverstand reicht da schon.

Die derzeitigen Netzteile sind für die Binärcodevorgaben bei der Leistungsabgabe gar nicht zertifiziert und Netzteile die diese Codebasis unterstützen werden erst im Dezember erscheinen und sind selbst dann Mangelware. NVidia hat mal wieder einen Bock geschossen. Wie so oft, werden sie es aussitzen und damit durchkommen.

Wer bitte hat früher eine Karte an Molex Adaptern betrieben, den einige Hersteller heute noch bei 300w Boliden beilegen?

Die 4090 braucht also in ihren Dimensionen die bisherige Standards toppen, dazu passende Peripherie! Das beginnt ja schon beim PC Gehäuse, wo so grosse Mauersteine erst mal reinpassen müssen, genug Luft bekommen und endet bei dazugehörigen Netzteilen mit deren zertifizierten Anschlüssen.

Man versucht hierüber massiv die Gamer zu melken. Da stellt sich die Frage ob sich dieser ganze Aufwand irgendwann fürs Gaming noch lohnt. NVidia mit ihren nicht nur technisch dedizierten Wahnvorstellungen, um ihre Marge auf 70% zu heben und zu belassen, wo man mittlerweile maximal am Material spart, ist nur ein Beispiel dafür. Man wälzt die Kosten dafür, dann in andere Bereiche ab, dessen Zusatzkosten den Anwender hart treffen und tut so als verkauft man ihm Innovation.

Die 4090 Käufer tun mir Leid, dazugehörige halbgare Produkte mit fehlender technischer Unterstützung inklusive. NVidia wird daraus nichts lernen.

greeny
2022-10-26, 11:00:13
Midterms in den USA: Der Geldbeutel wird [Telepolis]
... entscheiden ;)

Crazy_Borg
2022-10-26, 11:03:37
Die seitliche Stromstecker Geschichte ist echt zum Würgen, damit sich der Hersteller ein paar mm Leiterbahn spart sind die an der Seite und nicht vorn?
Gehäuse sind ja in der letzten Zeit eher selten in der Breite gewachsen, der 5,25" Einschub war und ist nunmal das Maß dafür.
Und dann werden nichtmal angewinkelte Stecker angeboten, obwohl technisch durchaus realisierbar.

Zu den Mindfactory CPU Verkaufszahlen:
Neben dem eher mässigen P/L Verhältnis der neuen CPU Generation spielt doch dort immer noch das Problem der fehlenden (günstigen) Mainboards dazu mit.
Und die AMD-ler, welche es können, werden jetzt in der nächsten Zeit noch günstig ihre AM4 Plattform zum Vollausbau bringen.

Lehdro
2022-10-26, 11:30:04
Wäre ja echt mal toll wenn es von der RX 6700 vernünftige Tests geben würde, dann brauchen wir solche Vergleiche über drei Ecken mit "Netzteilempfehlungen als TDP Ersatz" gar nicht erst anfassen.

Aroas
2022-10-26, 12:22:09
Da haben die Intel Verkäufe bei Mindfactory also mal eben einen ordentlichen Sprung gemacht und im Verhältnis AMD satte 7% abgenommen.
Nun erzähle nochmal einer, Mindfactory wäre ein Händler für AMD Fanboys.
Offenbar kaufen dort auch sehr viele Intel Kunden ein.

Diese Verkaufszahlen zeigen recht deutlich, dass die Preise bei AMD schlicht zu hoch sind. Sowohl für die CPUs selbst, als auch für die nötigen Mainboards.
Wenn bereits die Platinen mit dem "Einsteigerchipsatz" B650, welcher ja nicht mal PCIe 5.0 am GPU Steckplatz bietet, bei 200€+ liegen, läuft etwas vollkommen verkehrt.

Allerdings sind die Mainboardpreise mittlerweile so oder so vollkommen aus dem Ruder gelaufen.
Mein MSI MPG X570 Gaming Plus, welches ich mir seinerzeit für 80€ gebraucht geholt hatte und damals für ca. 130€ als Neuware zu haben war, kostet mittlerweile 209€ neu. Eine solche Preissteigerung kann man nicht allein auf die Inflation oder gestiegene Produktionskosten schieben.
Hier wollen sich Hersteller und Händler, ebenso wie bei den Grafikkarten, einmal mehr ordentlich die Taschen füllen.
Die richtig fetten Jahre, in denen quasi jeder Hardware gekauft hat, sind vorbei. Jetzt will man sich umso mehr Geld von den Wenigen holen, die noch kaufen.

Gast
2022-10-26, 12:40:07
Nun versteht man auch warum NVidia mit der TDP so weit runter gegangen ist, die dürften genau wissen was da los ist. Die derzeitigen Netzteile sind für die Binärcodevorgaben bei der Leistungsabgabe gar nicht zertifiziert...
Dito, dass wissen sie genau. Das hätte zumindest den Hardlaunch von ADA extrem verzögert und AMD wäre dazwischen gefunkt. So kann man die Deppen noch abmelken. Aber ja, die 4090 braucht das dazugehörige Netzteil und keinen Adapter. Die Netzteile der ATX2.0 Äera sind völlig anders konfiguriert was die Leistungwerte angeht. 4x8 Pin PEG lässt eben 600w zu und da kommen noch Peaks bzw. Dropps+Ripple&Noise dazu.

ATX3.0 sieht dies aber nur vor "wenn es elektrisch" möglich ist und pumpt nicht sinnlos nach, wenn die GPU mehr verlangt. Wenn der Stecker schon unter 450w bis zu 75°C warm wird, ist das sicher nicht der Fall. Das kann man kaum noch anfassen! Das Material der Umhüllung bzw. Isolierung hält zwar 250°C aus, aber die schwachste Stelle und sei sie im Bereich der Serienstreuung oder Passgenauigkeit, liegt sicher woanders. Die Übergangswiderstände steigen extrem mit steigender Temperatur! Metall wird wärmer, wenn mehr Ladungsträger fließen, wobei die Temperatur mit der Bewegung der Atome ansteigt, die die Elektronen am fließen behindert. Aufgrund dieser stärkeren Auslenkungsschwingung der Atome kann der Widersdtand ins Unermessliche reichen und führt gewissenmaßen auf dem Leitungswegen zu einem Stau, der die vorgesehenen Querschnittsgeschwindigkeiten übersteigt und sich irgendwo entladen muss. Da ist der Steckkontakt eine Engstelle! Das kann sogar Isolierungen durchschlagen lassen. R in Ohm steigt proportional zur Temperatur und in gleichem Faktor extrem an. Klippschule die Nvidia mal wieder aussen vor lässt. Wahrscheinlich war's wieder der Praktikant. LOL...

Vermutung meinerseits: Nvidia reagiert jetzt über den Treiber und kappt die Leistungsaufnahme softwaretechisch, was natürlich auch die Gamingleistung der Karte reduziert. Ist ja egal, die Test und Reviews sind ja gelaufen.

Die 4090 braucht also in ihren Dimensionen die bisherige Standards toppen, dazu passende Peripherie!
Das habe ich schon vor Erscheinen heruntergebetet, umsonst. Viele klicken ja genauso und wie wild auf 3090ti Angebote für um 1k, genau das gleiche Problem tut sich da auf.

Man wälzt die Kosten dafür, dann in andere Bereiche ab, dessen Zusatzkosten den Anwender hart treffen und tut so als verkauft man ihm Innovation.
Macht man seit Jahren so. Hauptsache die eigne Marge stimmt.

Die 4090 Käufer tun mir Leid, dazugehörige halbgare Produkte mit fehlender technischer Unterstützung inklusive. NVidia wird daraus nichts lernen.
Mir nicht. Dummheit und die Gier nach immer mehr, muss bestraft werden. Nun haben sie da vermeintlich abbrennende Kisten unterm Schreibtisch stehen. Selbst Schuld. Nvidia kann ja den Feuerlöscher gleich mitliefern.

Da es sich um zwei verschiedene Anbieter handelt, kann man auch nicht von einem einmaligen Problem ausgehen. Das Layout der Partnerdesigns ist also Schrott. Mal wieder. Hut ab Nvidia, ihr seid echt so toll!

Leonidas
2022-10-26, 13:19:06
... entscheiden ;)

Gefixt ;)

Ätznatron
2022-10-26, 13:36:21
Da haben die Intel Verkäufe bei Mindfactory also mal eben einen ordentlichen Sprung gemacht und im Verhältnis AMD satte 7% abgenommen.


Ist für LGA 1700-Besitzer ja auch die letzte Chance, ihre Kisten CPU-mäßig nochmal richtig aufzurüsten.

Da werden dann wohl viele zugeschlagen haben.

Der Nachfolger LGA 1851 steht quasi vor der Tür. Mal schauen, wie sich da die Zahlen entwickeln.

Gast
2022-10-26, 13:37:33
Mir nicht. Dummheit und die Gier nach immer mehr, muss bestraft werden. Nun haben sie da vermeintlich abbrennende Kisten unterm Schreibtisch stehen. Selbst Schuld. Nvidia kann ja den Feuerlöscher gleich mitliefern.

´Kannst dich an dem Gedanken ja aufgeilen, dass alle 4090 abbrennen werden.

Wird nur nicht passieren.
Ebensowenig wie jedes Elektroauto abbrennt, nur weil es eine handvoll Teslas gab bei denen das passiert ist.

Oder alle Airbus A380 vom Himmel fallen oder wegen brennenden Batterien notlanden müssen.

Auch da gab es vereinzelt Fälle mit überhitzten Batterien.

Es gibt bei so ziemlich jedem technischen Produkt Einzelfälle bei denen etwas versagt.
Das war schon immer so - nur hat man es vor 30 Jahren nicht erfahren wenn irgendwo auf der Welt irgendein elektrisches Gerät abgefackelt ist.

Heute erfährt man dank Internet eben von allem - und verfällt dann in Hysterie. Die eine Hälfte wird panisch, die andere geilt sich dran auf.

Und alle User die das elektrische Gerät betreiben ohne aber im Internet darüber zu lesen werden ihr Leben lang das Ding haben, ohne jemals etwas von dem vermeintlichen Problem zu erfahren.
Egal ob das eine GraKa, ein Elektroauto oder sonstwas ist.

MiamiNice
2022-10-26, 14:56:06
Mich lässt der konstruierte Zusammenhang von „2000€ GPU Käufer“ und „Dummheit“ schmunzeln. Ich hätte jetzt gedacht, das jemand der für Spielzeug 2000€ auf den Tisch legen kann, eher nicht dumm ist. Mit Dummheit lässt sich bekanntlich kein Geld verdienen - außer man hat Titten und sieht gut aus. Dürfte auf die wenigsten der 2000€ GPU Käufer:innen ;) zutreffen.

Aber was weiß ich schon ��

bbott
2022-10-26, 15:28:46
Mich lässt der konstruierte Zusammenhang von „2000€ GPU Käufer“ und „Dummheit“ schmunzeln. Ich hätte jetzt gedacht, das jemand der für Spielzeug 2000€ auf den Tisch legen kann, eher nicht dumm ist. Mit Dummheit lässt sich bekanntlich kein Geld verdienen - außer man hat Titten und sieht gut aus. Dürfte auf die wenigsten der 2000€ GPU Käufer:innen ;) zutreffen.

Aber was weiß ich schon ��

Dummheit liegt immer im Auge des Betrachters.

1. Wer sagt denn, dass der Käufer sich die Grafikkarte für 2000€ wirklich leisten kann? Vielleicht müssen seine Kinder drunter leiden, das Geld wurde auf kriminelle Weise beschafft etc. Es gibt auch Harz4'ler, welche das Kindergeld für z. B. einen neuen großen TV nutzen.
2. Ich habe eher Mitleid für Leute dich sich mit gekauften Gegenständen Aufwerten wollen, oder Neid generieren wollen.
3. Ich persönlich fand es schon immer dumm für die letzten 10% mehr als 20% zu zahlen und erst recht sehr dumm bei 50% oder mehr Aufpreis.
4. Selbst Nvidia zeigt immer wieder für wie dumm es die eigenen Kunden hält, jüngst die 4080 12GB :freak: Einige waren halt nicht ganz so dumm und haben lautstark protestiert, aber es gab ja schon fast genügen, welche es verteidigt haben ;D

Aber wenn man die Kundenverarsche nicht sehen möchte, ist sicher NV ein tolles Unternehmen :D

P.S.: Wo ist für dich deine persönliche die schmerz Grenze? Alle 2 Jahre? 5000€? 10.000€? 100.000€? oder noch höher?

Rabiata
2022-10-26, 15:40:06
Die seitliche Stromstecker Geschichte ist echt zum Würgen, damit sich der Hersteller ein paar mm Leiterbahn spart sind die an der Seite und nicht vorn?
Gehäuse sind ja in der letzten Zeit eher selten in der Breite gewachsen, der 5,25" Einschub war und ist nunmal das Maß dafür.
Und dann werden nichtmal angewinkelte Stecker angeboten, obwohl technisch durchaus realisierbar.
Wie andere schon gesagt haben, auch auf anderen Webseiten, sind die Kontaktflächen am Stecker und oft auch die Kabelquerschnitte etwas mickrig. Fehlende Winkelstecker sehe ich in jedem Fall als Problem. Den seitlichen Anschluß an sich finde ich aber nicht schlecht. Zwischen einer langen GraKa und dem Festplattenkäfig noch Kabel reinzufummeln ist nämlich auch nicht ideal.

Ansonsten denke ich, daß die PC-Industrie gerade dabei ist, mit ATX12VO (https://de.wikipedia.org/wiki/PC-Netzteil#12-V-Konzept) eine gute Gelegenheit zur Entschärfung des Problems zu verpassen. Mit 24 V oder mehr könnten die Ströme bei der selben Leistung halbiert werden, oder mit der selben Verkabelung die doppelte Leistung übertragen werden. Die Mainboards müssen sowieso umkonstruiert werden, da könnte man meiner Meinung auch einen Schritt weiter gehen und den ganzen PC auf 24V umstellen. Vielleicht auch auf 42V, wie es in der Autoindustrie mal angedacht war. Das bräuchte natürlich einen breiteren Konsens, da (zumindest) auch die wichtigen GPU-Hersteller mitziehen müßten.

Gast
2022-10-26, 15:50:58
Diese Verkaufszahlen zeigen recht deutlich, dass die Preise bei AMD schlicht zu hoch sind. Sowohl für die CPUs selbst, als auch für die nötigen Mainboards.
Wenn bereits die Platinen mit dem "Einsteigerchipsatz" B650, welcher ja nicht mal PCIe 5.0 am GPU Steckplatz bietet, bei 200€+ liegen, läuft etwas vollkommen verkehrt.
Naja, man muss aber auch sagen: Bei Intel ist es nicht besser: Die billigsten Z690 Boards kosten ab 165€, bieten dafür gar kein PCIe5 (nicht mal für die NVME, was bei AMD Pflicht ist). Klar, wer braucht das schon? Aber es macht die Boards teurer. Noch dazu sind die Intel Boards schon seit nem Jahr auf dem Markt, also hat sich deren Preis eingependelt.
Und Z690 bietet auch nicht mehr als der B650, insofern wird B650 wohl auch früher oder später in der Preisregion liegen (+ 20€ Aufschlag für PCIe5 NVME). Bei Z790 ist man aktuell sogar praktisch gleichauf mit B650. Scheinbar sind das also "marktübliche Preise", was hier aufgerufen wird.

Wenn ich bedenke, dass mein aktuelles Board neu 70€ gekostet hat, frage ich mich, ob mich gar kein Hersteller mehr haben will??? Gibt's auf AMD Seite schon was über X620 oder so zu hören? Irgend ein Gegenstück zu Intels H610 (kostet ab 150€, was ich auch schon zu teuer finde) wird man ja wohl planen, oder?

Platos
2022-10-26, 15:57:53
Mich lässt der konstruierte Zusammenhang von „2000€ GPU Käufer“ und „Dummheit“ schmunzeln. Ich hätte jetzt gedacht, das jemand der für Spielzeug 2000€ auf den Tisch legen kann, eher nicht dumm ist. Mit Dummheit lässt sich bekanntlich kein Geld verdienen - außer man hat Titten und sieht gut aus. Dürfte auf die wenigsten der 2000€ GPU Käufer:innen ;) zutreffen.

Aber was weiß ich schon ��

Auf jeden Fall ergibt sich die Intelligenz definitiv nicht aus der finanziellen Lage, noch kann sie davon irgendwie abgeleitet/gedeutet werden.

Wer das denkt, der ist vielleicht ...

Rabiata
2022-10-26, 16:02:22
bitte löschen, versehentlicher Doppelpost

Gast
2022-10-26, 16:06:57
Aber wenn man die Kundenverarsche nicht sehen möchte, ist sicher NV ein tolles Unternehmen :D


Deine Einstellung ist traurig - wie sehr muss man sich selber verachten, um krampfhaft zu versuchen sein Selbstbewusstsein zu steigern indem man die Käufer einer bestimmten Marke herabwürdigt?

Aber leider gibt es immer Menschen die es nötig haben andere runterzumachen um sich selber nicht etwas weniger erbärmlich zu halten.

Ätznatron
2022-10-26, 16:09:18
Es gibt auch Harz4'ler, welche das Kindergeld für z. B. einen neuen großen TV nutzen.


Das Kindergeld wird mit dem Regelsatz verrechnet. Das gibt es also nicht zusätzlich.

Nur mal so zur Info.

Gastxyz
2022-10-26, 16:37:19
Das Kindergeld wird mit dem Regelsatz verrechnet.
Nö. In der Kindergrundsicherung gibt es in Zukunft sogar höhere Beiträge für Kinder. Bis 650 Euro.

Dummheit?, da war wohl eher das Early Adopter Dasein gemeint und wie oft Nvidia bei seinen Premiumprodukten als Marktführer nun schon verrissen hat. Da muss man ihm leider Recht geben. Bei ein 2000 Euro Karte darf sowas einfach nicht passieren. Für Experimente ist in diesem Bereich imo einfach kein Spielraum. AMD verlötet bei RDNA3 zumindest nicht umsonst 3 PEG Klötze auf die Platine. Auch wenn sie immer etwas über vorsichtigt sind. Die Vega 2 hat eins der geilsten und stabilsten Layout, das war wahre Premiumklasse nicht nur das Wärmeleitpad. Nvidia spart sich in letzter Zeit kaputt, Miniaturisierung auf Kosten der Stabilität und Haltbarkeit und wegen Minimierung der Indifferenz. Alles rückt näher zusammen. Sorry aber dabei sieht nichts nach Marktführer aus. Zudem zeigt es wie sinnlos Nvidia aufs Silizium einprügelt, kann nur am Konkurrenzdruck liegen.

MiamiNice
2022-10-26, 16:38:45
Dummheit liegt immer im Auge des Betrachters.

1. Wer sagt denn, dass der Käufer sich die Grafikkarte für 2000€ wirklich leisten kann? Vielleicht müssen seine Kinder drunter leiden, das Geld wurde auf kriminelle Weise beschafft etc. Es gibt auch Harz4'ler, welche das Kindergeld für z. B. einen neuen großen TV nutzen.
2. Ich habe eher Mitleid für Leute dich sich mit gekauften Gegenständen Aufwerten wollen, oder Neid generieren wollen.
3. Ich persönlich fand es schon immer dumm für die letzten 10% mehr als 20% zu zahlen und erst recht sehr dumm bei 50% oder mehr Aufpreis.
4. Selbst Nvidia zeigt immer wieder für wie dumm es die eigenen Kunden hält, jüngst die 4080 12GB :freak: Einige waren halt nicht ganz so dumm und haben lautstark protestiert, aber es gab ja schon fast genügen, welche es verteidigt haben ;D

Aber wenn man die Kundenverarsche nicht sehen möchte, ist sicher NV ein tolles Unternehmen :D

P.S.: Wo ist für dich deine persönliche die schmerz Grenze? Alle 2 Jahre? 5000€? 10.000€? 100.000€? oder noch höher?

1. Kriminelle haben i.d.R. andere Hobbys (so weit ich weiß), Hartzer sitzen den ganzen Tag vor TV und schauen Füßball und süppeln Bier. Spielen abseits dessen an einer Konsole :biggrin:
2. Ich auch.
3. Finde ich nicht. Hat etwas mit Leidenschaft / Hobby zu tun. Hobbys sind selten "vernünftig".
4. Bin ich bei Dir, habe selber protestiert gegen die 4080 12GB und tue es noch immer bei DLSS3

Ich habe absolut wenig Kosten für HW. Pi mal Daumen zahle ich in 4 Jahren ungefähr 4000€, also einen Tausender pro Jahr. Stimmt nicht ganz, weil Peripherie zähle ich nicht mit. Sagen wir 1500€ / Jahr. Ich rechne mit das gerne auf den Monat runter, wären wir bei 125€ / Monat.

Jetzt habe ich, für mich, zwei Bemessungsgrundlagen:

Zum einen kann ich nicht mehr ausgeben als ich verdiene und anderweitig brauche - da bin ich mit 125€ / Monat noch im absolut grünen Bereich
Zum anderen gibt meine Frau ca. das doppelte pro Jahr rein für Tennisstunden aus - da ist noch keine Hardware dabei (Bälle, Schläger, Klamotten), rein die Stunden mit Ihrem Trainer.

Alles im allen sehe ich nicht wo PC Gaming ein teures Hobby ist. Gemessen an anderen Hobbys ist es gar absolut günstig. Meine Grenze ist daher aktuell nicht einmal in Sicht. Diese wäre wohl erreicht wenn ich mir meinen Alltag, Urlaube und sonstiges nicht mehr leisten könnte, aufgrund meines Hobbys.

bbott
2022-10-26, 16:49:06
Das Kindergeld wird mit dem Regelsatz verrechnet. Das gibt es also nicht zusätzlich.

Nur mal so zur Info.

Ich erinnre mich nur an eine Doku in welcher ein Hart4 Empfänger, das Geld welches für das Kind gedacht war in einen neue TV investiert hat. Das wird natürlich auch bei Familien welche vielleicht, auch Finanziell nicht so gut aufgestellt sein ebenfalls sein. Ich wollte nur ausdrücken das der Kauf einer 2000€ Karte bestimmt nicht, Ausdruck ist das des der Person finanziell gut geht. Es gibt genügend Personen, welche über ihre Verhältnisse leben.

Ätznatron
2022-10-26, 17:41:07
Nö. In der Kindergrundsicherung gibt es in Zukunft sogar höhere Beiträge für Kinder. Bis 650 Euro.


Und trotzdem gibt es kein Kindergeld zusätzlich in der Grundsicherung. Diese deckt lediglich das sozio-ökonomische Existenzminimum.

Mehr nicht.

Ich erinnre mich nur an eine Doku in welcher ein Hart4 Empfänger, das Geld welches für das Kind gedacht war in einen neue TV investiert hat.

In einer Doku auf SuperRTL vielleicht? ;)

Gast
2022-10-26, 20:04:23
In einer Doku auf SuperRTL vielleicht? ;)

In einem Beitrag auf/von Spiegel.de, in dem die Inflation anhand eines Einkaufs von vor einem Jahr veranschaulicht werden sollte, und einiges in dem Einkaufskorb war, das man ohnehin nicht kaufen sollte, wenn man auf gesunde und günstige Ernährung achtet ;)

Gast
2022-10-26, 20:51:11
Ich bin wahrlich kein Nvidia-Fan, aber in diesem Fall würde ich die Verantwortung erstmal bei User oder bei Kabel/Netzteil suchen.

Das Marketing bei AMD versteht sowieso niemand.

Die CPU-Verkäufe deuten darauf hin, dass DIY wissen, was sie tun. Sie haben abgewartet und sich dann doch für eine EoL-Plattform entschieden.

GerryB
2022-10-27, 08:18:45
bzgl.6700xt
Würde ich net so hochgepuschte Customs hernehmen, sondern eher die vernünftige Hellhound@199W.(in DE bei CB)
(Die scheint Powercolor noch ein mue besser eingestellt zu haben, als die Ref.)

Leonidas
2022-10-27, 08:33:11
@199W bei einer 6700XT bedeutet: Das ist die ASIC-Power, nicht die TBP. Vorsicht also!

Ätznatron
2022-10-27, 08:41:46
In einem Beitrag auf/von Spiegel.de, in dem die Inflation anhand eines Einkaufs von vor einem Jahr veranschaulicht werden sollte, und einiges in dem Einkaufskorb war, das man ohnehin nicht kaufen sollte, wenn man auf gesunde und günstige Ernährung achtet ;)

Aha, und da soll sich im Einkaufskorb ein riesiger Flachbildschirm befunden haben?

Stimmt, zur gesunden Ernährung taugt der nicht.



Die CPU-Verkäufe deuten darauf hin, dass DIY wissen, was sie tun. Sie haben abgewartet und sich dann doch für eine EoL-Plattform entschieden.

Die neuen Intel-CPUs verkaufen sich als letzte günstige Aufrüstoption für LGA 1700-Besitzer, aber kaum jemand wirft kurz vor Raptor Lake einer so gut wie toten Altplattform Geld hinterher.

Die Verkaufszahlen neuer LGA 1700-Komplettrechner dürften eher sehr bescheiden sein.

GerryB
2022-10-27, 08:58:52
@199W bei einer 6700XT bedeutet: Das ist die ASIC-Power, nicht die TBP. Vorsicht also!

nope

CB misst mit PCAT das ganze Board=TBP! (und bekommt in DE einen spielpraktischen Wert, may be Andere messen Full mooore?
... in nem 24/7 nichtrelevanten workload)
Am Ende zählt für mich als User nur der Vgl. 6700xt vs. 3060Ti bei CB, ... in nem echten Game.

Das man Sowas nach 2 Jahren immer noch erklären muss!?

Falls überhaupt bei CB noch ne Messtoleranz vorliegt, dann bei NV-Customs, die gerne mal noch ein paar W auf der 3V-Schiene
vom PCiE zusätzlich verbraten.(meint Igor)

OpenVMSwartoll
2022-10-27, 10:41:19
Aha, und da soll sich im Einkaufskorb ein riesiger Flachbildschirm befunden haben?

Stimmt, zur gesunden Ernährung taugt der nicht.
[...]


Dein Sarkasmus gefällt mir.

Leonidas
2022-10-27, 10:41:56
nope

Halte ich dagegen. Jede Messung einer 6700XT auf 199W oder ähnlichem Wert ist nicht die ganze Karte. Und im Internet fliegen genügend Leute rum, die schauen auf irgendein Tool, lesen die ASIC-Power aus und glauben dann, eine 6700XT wäre unter 200W zu bekommen. Ist sie nicht. (https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-6700-xt/launch-analyse-amd-radeon-rx-6700-xt-seite-2)

GerryB
2022-10-27, 11:59:20
PCAT ist net irgendein Tool, ... das ist ein Hardwareteil was NV für Reviewer zur Verfügung stellt!

https://www.nvidia.com/en-us/geforce/news/nvidia-reviewer-toolkit/

Wolfgang bei CB weiss schon Was er da macht!
https://www.computerbase.de/2021-09/grafikkarten-tests-leistungsaufnahme/

Aber Du darfst gerne explizit bei CB nachfragen und dann bitte Hier das Ergebnis mitteilen, ... bevor Du weiter Gerüchte
in die Welt setzt.

Gast
2022-10-27, 12:59:47
erstmal bei User oder bei Kabel/Netzteil suchen.Laut Igor lag ich halb richtig. Ist wohl das Kabel. Dass jetzt ausgerechnet das Modell von Nvidia so ein Schrott ist, hätte ich bei dem Preis nicht erwartet.

Crazy_Borg
2022-10-27, 13:27:06
...
Das Marketing bei AMD versteht sowieso niemand.
...
Ich glaube da sitzen alles die alten Leute die früher bei Sega zu Saturn Zeiten fürs Marketing zuständig waren. :freak:

Leonidas
2022-10-27, 14:26:20
Aber Du darfst gerne explizit bei CB nachfragen und dann bitte Hier das Ergebnis mitteilen, ... bevor Du weiter Gerüchte in die Welt setzt.

Ok ... die CB hat laut dem vorhin schon verlinkten Bericht 217W für die 6700XT gemessen. War eine XFX Merc, simuliert auf Referenz-Takt.

Die von Dir genannten 197W habe ich auch finden können:
https://www.computerbase.de/2021-03/asus-msi-powercolor-sapphire-xfx-radeon-rx-6700-xt-test/2/#abschnitt_leistungsaufnahme

Wie gut zu sehen, ist das ein klarer Ausreißer, die anderen 6700XT liegen bei 217-251W. Zudem ist Doom für derart Stromverbrauchs-Ausreißer bekannt, darauf würde ich nichts geben. Anders formuliert: Gute Chance, dass die Hellhound-Karte unter anderen Benchmarks genauso 220W zieht.

Natürlich wäre es schön, wenn ich mir irre. Eine Karte, die die Referenz-TDP derart deutlich schlägt: Immer her damit, nichts dagegen. Nur der Beweis sollte dann auch nicht ein einzelner Wert sein, sondern unwiderlegbar.

Gast
2022-10-27, 15:07:08
Halte ich dagegen. Jede Messung einer 6700XT auf 199W oder ähnlichem Wert ist nicht die ganze Karte. Und im Internet fliegen genügend Leute rum, die schauen auf irgendein Tool, lesen die ASIC-Power aus und glauben dann, eine 6700XT wäre unter 200W zu bekommen. Ist sie nicht. (https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-6700-xt/launch-analyse-amd-radeon-rx-6700-xt-seite-2)
Du bekommst sogar eine 6800 unter 199w. Ich meine die ganze Karte, nicht Asic-Power. Sonst müsste ich mich fragen was ich seit 2 Jahren mache. Und sie läuft locker 4K@60fps wenn's nicht neuste AAA Titel sind. Warum sollte das deiner Meinung nach eine 6700xt nicht schaffen? Ihr testet doch gar nichts selbst. Ich wäre daher mit solchen Aussagen vorsichtig. Ich habe eine Sapphire Nitro+. Schalte einfach Vsync ein und wundere dich!

https://www.techpowerup.com/review/amd-radeon-rx-6700-xt/35.html

Was den Adapter von Nvidia angeht, als ich dieses Ding gesehen habe, habe ich mich gefragt ob die bei Nvidia noch ganz klar im Kopf sind. Zumal die PCI Sig im Vorfeld schon darauf hingewiesen hat, dass die Dinger kompletter Murks sind. Nun sind die Anwender und Hersteller von dem Ding Schuld. So wie man Nvidia kennt, hat sich der Hersteller expliziet an deren Kontrollwahnvorgaben gehalten. Also hat es Nvidia versemmelt und niemand anderes.

Leonidas
2022-10-27, 15:43:08
Selbstverständlich geht "bekomme unter xxxW". Manuelles Tuning kann viel erreichen. Die Frage war aber nach dem default-Zustand.

Nebenbei habe ICH mich dabei geirrt: Es gibt einen Wert einer 6700XT auf unter 200W im default-Zustand (was ich vorher angezweifelt hatte). Man lernt nie aus.

Gast
2022-10-27, 16:38:41
Nun versteht man auch warum NVidia mit der TDP so weit runter gegangen ist, die dürften genau wissen was da los ist. Fast doppelte Leistungsaufnahme über den Stecker bei -60% Reduzierung der Querschnitte und Übertragungsflächen von 4x8 Pin auf den 12 Pin.

Jap, weil die alten Stecker ja wirklich so viele Kontakte benötigt haben um den Strom zu liefern.

Die waren hoffungslos unterspezifiziert, der neue Stecker ist endlich nicht dermaßen viel Verschwendung.

Wobei man ehrlicherweise auch sagen hätte können, 1x 8pin kann 600W, rein elektrisch wäre das nämlich kein Problem, und nur um die Spezifikation einzuhalten 4 davon auf ein PCB zu bauen ist ziemlicher Schwachsinn.

https://www.youtube.com/watch?v=LQZa-FsvlOo

Gast
2022-10-27, 16:53:16
Selbstverständlich geht "bekomme unter xxxW". Manuelles Tuning kann viel erreichen. Die Frage war aber nach dem default-Zustand.

Nebenbei habe ICH mich dabei geirrt: Es gibt einen Wert einer 6700XT auf unter 200W im default-Zustand (was ich vorher angezweifelt hatte). Man lernt nie aus.
Vsync ist kein default? Wäre mir neu. Es macht sogar Sinn, um die Bildquali zu steigern. Damit spart man bei allen Karten.

Nur weil die Tester drauf einprugeln, zuweilen ohne Sinn und Verstand, frei nach dem Motto weiter, schneller, höher heisst das nicht es ginge nicht.

Gast
2022-10-28, 02:03:52
Zum Thema 3.0 bzw. 5.0 wird weiterhin lustiges Zeugs geschrieben. Golem hat sich vorgestern wieder so einen Artikel geleistet, wo man nur "wtf?" denkt.

Leonidas
2022-10-28, 03:53:48
Vsync ist kein default?

Nein, nicht für diese Tests. Man testet weder fps noch Watt mit Vsyn=on. Wenn, dann sind das extra Tests - aber nicht "default".

Watt-Tests mit Vsync=on sind zudem arg sinnbefreit, weil man eine konstante Last allen Karten gibt. Bei einigen Karten wird dafür nahezu die komplette TDP gebraucht, andere langweilen sich. Daraus sind aber keinerlei Schlüsse ziehbar - schon die nächste Spiel-Szene kann ganz andere Lasten und damit Benchmarks und damit Schlüsse verursachen.

Freestaler
2022-10-28, 08:59:58
Lol, GPU Leistungstest mi VSync. Und bald wohl auch noch im CPU limit? Sinnfrei.

Gast
2022-10-28, 11:27:33
Lol, GPU Leistungstest mi VSync. Und bald wohl auch noch im CPU limit? Sinnfrei.

Es ging nicht um Leistungstest im allgemeinen, sondern der Aussage eine 6700xt ist nicht unter 199w bekommen und das ist absolut nicht richtig. Du tear'st also lieber durch Spiele um trölf fps mehr zu haben? Ja dann mach mal. Auch innerhalb einer Gsync- oder Freesyncrange zu bleiben, fordert ab und an ein Framelimit. Was Entwickler in vielen Fällen gleich einpflegen. Die Bildausgabe an die Refreshrate des Monitors anzupassen, hat ggf. neben negativen Effekten beim Lag in schnellen Shootern, auch Vorteile. Und wie man an dem Link sieht gibt es Tester die das auch berücksichtigen und solche Defaultmodi auch berücksichtigen. Die gibt es von Werk aus und sind keine natgraloche Manipulation von Testergebnissen. Ich würde bald behaupten das der Grossteil noch so unterwegs ist. Bei denen die keinen 100hz,144hz oder Monitor mit noch höherem Refresh besitzen, ist der Standard von 60hz noch weit verbreitet.

Die einzige Aussage die "sinnfrei" ist, ist genau deine..aber wenn man nicht weiss worüber man gerade schreibt, usw. Und nur seine Senf dazugeben will.

Leo's Aussage ist Unsinn. Eine 6700xt lässt sich auch default einfach unter 199w bringen. Punkt.

Gast
2022-10-28, 11:43:59
Nein, nicht für diese Tests. Man testet weder fps noch Watt mit Vsyn=on. Wenn, dann sind das extra Tests - aber nicht "default".

Watt-Tests mit Vsync=on sind zudem arg sinnbefreit, weil man eine konstante Last allen Karten gibt. Bei einigen Karten wird dafür nahezu die komplette TDP gebraucht, andere langweilen sich. Daraus sind aber keinerlei Schlüsse ziehbar - schon die nächste Spiel-Szene kann ganz andere Lasten und damit Benchmarks und damit Schlüsse verursachen.
Aber Vsync minimiert genau das was du hier beschreibst, nämlich die Bildausgabe in gleichbeleibenden Zeitintervallen auszugeben und minimiert so vdrops und vdroops und das damit verbundene ripple und noise, zudem bringt es Bildquali mit.

Übrigens lässt sich die Rate auch auf Monitoren mit geringerem Refresh über Enhanced Sync in Treiber anpassen.

Immer davon auszugehen das bei jedem Frame das PT ausgelastet wird, ist genau aus diesem Grund völliger Humbug. Ich spiele bspw ESO in 4k mit 100fps bei um 150w und damit meine ich die gesamte Karte.

Die Tester geben oft den gemittelten Durchschnittsverbrauch an. Meist aus selbsterwählten Szenen in Testreihen im GPU Bootleneck.

Deine Aussage war mal wieder der übliche Schnellschuss von Dir.

Leonidas
2022-10-29, 06:22:26
Ich hab gesagt: Niemand testet Watt oder fps mit Vsync=ON. Wenn, dann sind das extra Tests.

Was ist an dieser Beschreibung der Realität nicht korrekt? Welche Seite testet standardmäßig mit Vsync=ON?

Gast
2022-10-30, 17:21:18
Du tear'st also lieber durch Spiele um trölf fps mehr zu haben?

Bevor ich mir das Lag vom VSYNC antue auf jeden Fall.
Auf meinem 240Hz Monitor ist tearing in der Praxis sowieso nicht sichtbar.