PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 [28] 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

pixeljetstream
2020-08-23, 15:11:40
Ah danke für die Infos. Auch deine Beiträge sind immer sehr wertvoll hier im Forum, ich freu mich das sich hier noch ein paar experten rumttumeln ;(

Die Nanite Engine scheint ja diesen Workload zu verlangen. Weshalb bohrt man den die FF-Hardware nicht auf, auf die Bedürfnisse der Nanite Engine und fügt praktisch noch einen Microo-polyogonrasterizer hinzu? Das würde doch Chipfläche einsparen.

IMO ist das eher was für nen anderen thread. Such dir was passendes im Technologie Forum

[MK2]Mythos
2020-08-23, 15:12:01
Wenn AMD mit nem 12-pin Stecker gekommen wäre würden alle Grünen hier mega flamen von wegen Stromverbrauch. Wenn es aber von Nvidia kommt, ist es schon lange überfällig ;D
Wie? hast du bisher noch nie beim Anschluss deiner Grafikkarte oder beim Blick ins Gehäuse gedacht: "Ein 12 Pin Stecker wäre echt mal nötig, 8 reichen nicht!!!"? ;)

horn 12
2020-08-23, 15:12:10
Zudem rechne ich das die Boardpartner nicht die Performance der FE erreichen werden,-
und deshalb auch bei den 8+6 oder maximal 8+8 Pin bleiben.
Der Kühler ist eine Wucht und nicht mal MSI traut sich vielleicht da was "Neues" auf die Beine zu stellen,- da man nicht weiss wie lange die Generation haltet.

Geächteter
2020-08-23, 15:23:03
Wenn AMD mit nem 12-pin Stecker gekommen wäre würden alle Grünen hier mega flamen von wegen Stromverbrauch. Wenn es aber von Nvidia kommt, ist es schon lange überfällig ;D
Raytracing und poröses Silizium kosten halt. Vielleicht kommt dann bei der 4. Iteration endlich der Drehstromanschluss ans Netzteil.

r3ptil3
2020-08-23, 15:25:53
Der Kühler ist eine Wucht und nicht mal MSI traut sich vielleicht da was "Neues" auf die Beine zu stellen,- da man nicht weiss wie lange die Generation haltet.

Eigentlich ist es doch vielleicht genau gut, dass sowas passiert.

Die ganzen AIOs (Kraken G12...) kühlen den Chip ganz gut, aber VRAM? Fehlanzeige! Und jetzt ist das an einem Punkt angelangt, wo handlungsbedarf nicht eine Option, sondern ein muss ist.

Das dürfte wohl genau so auch die luftgekühlten Varianten fallen, was den VRAM betrifft.

Ich vermute, dass die grossen Premium-Hersteller (ASUS, MSI...) da bereits eine akzeptable Lösung haben.

Daredevil
2020-08-23, 15:29:27
Wenn AMD mit nem 12-pin Stecker gekommen wäre würden alle Grünen hier mega flamen von wegen Stromverbrauch. Wenn es aber von Nvidia kommt, ist es schon lange überfällig ;D
Dann sah es wohl bei dir noch nie so aus.
https://abload.de/img/img_6770g0k7n.jpeg

Kabel nerven. Gerade 3x 8-Pin sind ultra nervig, weil im schlechtesten Fall 3 Anschlüsse am Netzteil eingesteckt sind, welche in 6x 8 Pin enden.
Das fliegt nur unnötig im Gehäuse rum.
Am liebsten ist mir aber dann doch die MacPro Variante, ganz ohne Kabel und 500w übers Mainboard. :(

Digidi
2020-08-23, 15:31:28
IMO ist das eher was für nen anderen thread. Such dir was passendes im Technologie Forum

Na ja so Unpassend find ich das jetzt nicht hier. Ich frage mich z.B. warum Nvidia bei deutlich gestiegenen Shaderrn die GPCs laut Leaks (Falls es stimm) nur 1 GPC mehr hat. Nanite wäre ja ein Indiez Engine wäre ja ein Indiez dafür das man FF immer weniger braucht.

Linmoum
2020-08-23, 15:41:04
Dann sah es wohl bei dir noch nie so aus.
https://abload.de/img/img_6770g0k7n.jpegKann ja keiner was dafür, wenn du so hässliche und unflexible Kabel nutzen tust. :D

Dural
2020-08-23, 15:43:46
Ihr habt aber schon gesehen das bei den 8pin nur 6 kabel dran sind?
Entweder haben die pro pin mehr strom, oder der stecker so macht gar keinen sinn. Zudem heutige grafikkarten ja so wie so 6pin + 8pin also total 14 und nicht 12 haben.

Daredevil
2020-08-23, 15:48:13
Ihr habt aber schon gesehen das bei den 8pin nur 6 kabel dran sind?
Entweder haben die pro pin mehr strom, oder der stecker so macht gar keinen sinn. Zudem heutige grafikkarten ja so wie so 6pin + 8pin also total 14 und nicht 12 haben.
Das ist ein Kabel, welches direkt am Seasonic Netzteil angebunden wird.

Normal sieht das so aus:
Netzteil < 8Pin ---------------- 2x6+2 Pin > Grafikkarte ( Max 300w )

Hier sieht das so aus:
Netzteil < 2x 8 Pin ----------- 12 Pin > Grafikkarte ( Max ? Watt )

Letzteres hat mehr Kontakt zum Netzteil, wo vermutlich die Last einfach besser aufgeteilt wird?!

So ist ja auch der allgemeine Tipp, den man immer bei Vega z.B. gegeben hat.
Nimm nie nur ein 8Pin ---------------- 2x6+2 Pin Kabel für 2x8Pin an der GPU, sondern nutze zwei Stränge und lass den Zweiten Stecker einfach baumeln. Pro Anschluss an der GPU ein Kabel vom Netzteil, um die Last besser aufzufangen.

Dural
2020-08-23, 15:51:32
Ja wie gesagt es macht keinen sinn, die 350w gehen mit einem 12p eh nicht.
Ich befürchte fast das wir bei der 3090 2x12p sehen werden.

Emil_i_Lönneberga
2020-08-23, 15:51:46
Dann sah es wohl bei dir noch nie so aus.
https://abload.de/img/img_6770g0k7n.jpeg

Kabel nerven. Gerade 3x 8-Pin sind ultra nervig, weil im schlechtesten Fall 3 Anschlüsse am Netzteil eingesteckt sind, welche in 6x 8 Pin enden.
Das fliegt nur unnötig im Gehäuse rum.
Am liebsten ist mir aber dann doch die MacPro Variante, ganz ohne Kabel und 500w übers Mainboard. :(

Dann hast du auch deine SSD‘s im 2,5“ Format durch M.2 ersetzt? Denn hier dürften dich die zwei Kabel vom Netzteil und Mainboard pro Festplatte ja richtig ankotzen.

Preislich macht es keinen Unterschied.

https://geizhals.de/crucial-mx500-1tb-ct1000mx500ssd1-a1745357.html?hloc=de&hloc=at&v=e

https://geizhals.de/crucial-mx500-1tb-ct1000mx500ssd4-a1745481.html?hloc=de&hloc=at&v=e

Bei der Grafikkarte hast du in jedem Fall eine Verbindung und ich sehe nicht, was mir der 12 Pin gegenüber 2x 8Pin für gravierende Vorteile beim Kabelmanagement bringen soll. Hoffentlich beschränkt sich das nur auf die FE und die Boardpartner bleiben bei 1x8 bzw. 2x8 Pin.

Thunder99
2020-08-23, 15:52:17
Sehe den 12PIN Stecker auch kritisch wenn damit allgemein die Leistungsaufnahme steigt.

Anderseits Reduzierung der Kabelanzahl wäre gut und entsprechend eine Weiterentwicklung der Netzteile.

Daredevil
2020-08-23, 15:54:07
Dann hast du auch deine SSD‘s im 2,5“ Format durch M.2 ersetzt? Denn hier dürften dich die zwei Kabel vom Netzteil und Mainboard pro Festplatte ja richtig ankotzen.

Eh... ja, sieht man doch. Nie mehr ein SATA Kabel.

Ja wie gesagt es macht keinen sinn, die 350w gehen mit einem 12p eh nicht.
Ich befürchte fast das wir bei der 3090 2x12p sehen werden.
Ich hab nochmal editiert. ^^
Wieso sollten da 350w nicht möglich sein?

Ich tippe einfach auf eine gescheite Lastaufteilung, weil Kunden generell zu doof sind, ihre GPU richtig anzubinden, weil Netzteil Hersteller halt Unsinn treiben mit diesen Kabel Splits.

Emil_i_Lönneberga
2020-08-23, 15:57:29
Eh... ja, sieht man doch.


Ich hab nochmal editiert. ^^
Wieso sollten da 350w nicht möglich sein?

Ich tippe einfach auf eine gescheite Lastaufteilung, weil Kunden generell zu doof sind, ihre GPU richtig anzubinden, weil Netzteil Hersteller halt Unsinn treiben mit diesen Kabel Splits.

Bei dem Kabelsalat am Netzteil und der dicken Grafikkarte über allen Festplattenanschlüssen am Mainboard schwierig zu erkennen.

Linmoum
2020-08-23, 15:59:15
Ja wie gesagt es macht keinen sinn, die 350w gehen mit einem 12p eh nicht.Natürlich geht das. Es gehen mit dem 12-pin theoretisch sogar bis zu 600W.

As per the images shared by FCPowerUp (https://www.fcpowerup.com/nvidia-30series-new-power-connector/), the new power connector looks a lot like the Molex Micro-Fit series, but it should come with a width of 19mm and 2×6 rows of pins with 3mm spacing between each pin. These measures are actually very similar to the current 6+2-pin PCIe connector, but it comes with 12 pins (6x 12V and 6x ground) instead of 8. Another difference is the carrying capacity of the 12-pin interface, which is rumoured to be 8.5A instead of the 6A of the Mini-Fit 5556 connectors. This would translate into up to 600W if we consider 100% efficiency.
https://www.kitguru.net/components/graphic-cards/joao-silva/a-new-12-pin-power-connector-might-be-introduced-with-nvidia-ampere-graphics-cards/

Zergra
2020-08-23, 16:01:14
Ihr habt aber schon gesehen das bei den 8pin nur 6 kabel dran sind?
Entweder haben die pro pin mehr strom, oder der stecker so macht gar keinen sinn. Zudem heutige grafikkarten ja so wie so 6pin + 8pin also total 14 und nicht 12 haben.
Ja und ? Hast du dir mal dein Netzteil angeschaut ? Dort hast du auch nur 6 Kabel direkt am Netzteil pro 8Pin. Der 8Pin hat eben 2 Kabel doppelt geführt.

Daredevil
2020-08-23, 16:01:37
Bei dem Kabelsalat am Netzteil und der dicken Grafikkarte über allen Festplattenanschlüssen am Mainboard schwierig zu erkennen.
Und da schließt sich der Kreis.
Der Salat besteht aus 2 Kabeln für das Mainboard und 3 Kabeln für die GPU.
Hätte ich nen Seasonic Netzteil mit diesem Split Kabeln, wäre es noch schlimmer an der GPU hinten. ^^

Meinetwegen kann Ampere/Bignavi auch 6x 8 Pin Anschlüsse haben, mir ist das scheiß egal.
Aber wenn es ein wenig optimiert wird, das man echt nur ein Kabel benötigt, ist es ein kleines Zückerli.

RLZ
2020-08-23, 16:03:13
Weshalb bohrt man den die FF-Hardware nicht auf, auf die Bedürfnisse der Nanite Engine und fügt praktisch noch einen Microo-polyogonrasterizer hinzu? Das würde doch Chipfläche einsparen.
Algorithmen/Implementierungen werden schnell durch Constraints, die den Problemraum beschränken. Nanite hat da ganz andere Constraints als ein generischer FF Rasterizer. Wir werden sicher noch in den nächsten Jahren noch viele andere Implementierungen für Micropolygonen sehen und wenn sich ein Trend rauskristalisiert, kann man sich vielleicht mal über Hardwareanpassungen Gedanken machen. Aktuell wäre das Harakiri. Man wirft nicht mal schnell Grundannahmen für den Rasterizer über den Haufen auf denen Jahrzehnte Optimierung basieren.

rentex
2020-08-23, 16:07:19
auf der Verpackung stehen aber 2x8-Pin und die Abbildung zeigt auch 2x 8Pin auf der einen Seite und 12pin auf der anderen Seite.

https://cdn.videocardz.com/1/2020/08/NVIDIA-12-pin-adapter-GeForce-RTX-30-1200x1200.jpg

Wo gibt es denn Adapter?

Dural
2020-08-23, 16:07:51
Hmmm die 8p haben ja nur 3p plus die anderen 5p sind masse. Eventuell umgeht nv mit dem 12p die zusätzlichen masse pins bei den 8p stecker. Technisch zwar nicht zu erklären!?! Aber man hätte damit 375w pro 12p stecker.

Timbaloo
2020-08-23, 16:14:54
ich frag mich ja, ob sich sich das mit den dutzenden Adern und großen Steckern wirklich lohnt.
Einfach 4mm^2 mit XT 60 Stecker dran und man hätte Ruhe :freak:
Ja, bessere Stecker wäre tatsächlich mal was sinnvolles. Aber XT60 (oder ähnliches) bringts halt auch nur wenn du verlötest.

woodsdog
2020-08-23, 16:15:23
weniger haltlos spekulieren, 2 Seiten zurück blättern:

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12400114#post12400114

Troyan
2020-08-23, 16:20:11
Größenvergleich von Hardwareluxx: https://twitter.com/aschilling/status/1297518250708938752/photo/1

Daredevil
2020-08-23, 16:23:45
Nice! :)

Zergra
2020-08-23, 16:29:56
Wird ja immer besser, kann NV ja problemlos 3x 12Pin auf der 3090 verbauen :heart::devil:

Platos
2020-08-23, 16:46:27
Die dürfte man aber gerne auch für 2x6pin-Karten benutzen, sehen ja recht kompakt aus und ein Kabel ist immer besser wie das Gewurschtel aus zwei.

SKYNET
2020-08-23, 16:50:30
leider sinkt die max. amperleistung die durch die dünnen stifte fliessen kann von 13A auf ca. 10.5A... macht 30W pro 12V leitung weniger... bleibe da lieber bei der alten variante... form follows function

sChRaNzA
2020-08-23, 17:02:15
Dann sah es wohl bei dir noch nie so aus.
https://abload.de/img/img_6770g0k7n.jpeg

Kabel nerven. Gerade 3x 8-Pin sind ultra nervig, weil im schlechtesten Fall 3 Anschlüsse am Netzteil eingesteckt sind, welche in 6x 8 Pin enden.
Das fliegt nur unnötig im Gehäuse rum.
Am liebsten ist mir aber dann doch die MacPro Variante, ganz ohne Kabel und 500w übers Mainboard. :(

So ''aufgeräumt'' sah noch nie ein Rechner von mir im Inneren aus. Und jetzt kommt mir nicht mit Airflow. :freak:

https://www.youtube.com/watch?v=YDCMMf-_ASE&t=640s

Dsk
2020-08-23, 17:34:15
...
Ursprünglich gab es 6-Pin für Grafikkarten. Laut Specs hat ein 6-Pin PCIe Anschluss nur 2x 12Volt. Dann kam die Erweiterung zu 8-Pin. Die zusätzlichen 2 Leitungen sind eigentlich nur Masse/Sense. Stattdessen wird bei 8-Pin PCIe eine Masse-Leitung der ursprünglichen 6 Leitungen in 12Volt umgewandelt.
...

Keine Ahnung wo diese Info her kommt, aber laut Intel Design Guide für Netzteile hat der 6-Pin-PCIe 3x 12V und 3x Masse und der 8-Pin-PCIe 3x 12V und 5x Masse.

https://abload.de/thumb/intel_dpffps_designguk6jot.png (https://abload.de/image.php?img=intel_dpffps_designguk6jot.png)

mironicus
2020-08-23, 17:38:55
Beim Mac Pro erfolgt die komplette Stromversorgung von GPUs über das Mainboard, über 300 Watt und mehr sind kein Problem. Das sollte zum Standard werden.

RLZ
2020-08-23, 17:43:45
Keine Ahnung wo diese Info her kommt, aber laut Intel Design Guide für Netzteile hat der 6-Pin-PCIe 3x 12V und 3x Masse und der 8-Pin-PCIe 3x 12V und 5x Masse.
Laut Wikipedia siehts im Standard so aus
https://i.stack.imgur.com/Spsgx.png
Da lässt sich dann auch erkennen, warum ein neuer 12 Pin als 2x8 Pin Ersatz Sinn machen kann.

nordic_pegasus
2020-08-23, 17:45:42
Keine Ahnung wo diese Info her kommt, aber laut Intel Design Guide für Netzteile hat der 6-Pin-PCIe 3x 12V und 3x Masse und der 8-Pin-PCIe 3x 12V und 5x Masse.

https://abload.de/thumb/intel_dpffps_designguk6jot.png (https://abload.de/image.php?img=intel_dpffps_designguk6jot.png)

vielleicht wurden die Specs irgendwann man aktualisiert, weil sich sowieso niemand dran gehalten hat. Aber ursprünglich sah der 6-Pin so aus:
https://abload.de/thumb/23565_gr_445kqu.jpg (https://abload.de/image.php?img=23565_gr_445kqu.jpg)

Pin 2 war eigentlich nicht belegt.

Hakim
2020-08-23, 17:57:14
Wie ist das eigentlich bei den NTs? Ich habe bei mir 2 Stränge mit je 2 x 8 Pin, wäre es besser beide Stränge zu nutzen, oder einen Strang mit den zwei 8 Pins (weniger Kabel im Gehäuse)?

unl34shed
2020-08-23, 18:02:49
2 Getrennte Stränge sind besser, da kann mehr Strom drüber fließen bzw. ist der Spannungsabfall geringer. Hast dafür aber die zusätzlichen Stecker rumhängen...

Am Ende wird es aber vermutlich aber egal sein.

Dsk
2020-08-23, 18:27:05
vielleicht wurden die Specs irgendwann man aktualisiert, weil sich sowieso niemand dran gehalten hat. Aber ursprünglich sah der 6-Pin so aus:
https://abload.de/thumb/23565_gr_445kqu.jpg (https://abload.de/image.php?img=23565_gr_445kqu.jpg)

Pin 2 war eigentlich nicht belegt.

Laut der offiziellen Spec der PCI-SIG, welche auch im Wikipediaartikel als Quelle genannt wurde, "PCI Express x16 Graphics 150W-ATX Specification Revision 1.0", sinds auch 3x 12V. Und diese Spec ist vom 25. Oktober 2004.

Da wird wohl jemand beim editieren des Wikipediaartikels einen Fehler gemacht haben ;)

https://abload.de/thumb/pcie_atx_spec_rev1.0qhkg4.png (https://abload.de/image.php?img=pcie_atx_spec_rev1.0qhkg4.png)

Emil_i_Lönneberga
2020-08-23, 18:32:59
Größenvergleich von Hardwareluxx: https://twitter.com/aschilling/status/1297518250708938752/photo/1

Solange ich die Last der GPU kurz vor meinen modularen BQ Straight Power Netzteilen mit einem y-Adapter wie bisher auch auf die getrennten Rails aufteilen kann, könnte ich damit auch gut leben

nordic_pegasus
2020-08-23, 18:45:48
Laut der offiziellen Spec der PCI-SIG, welche auch im Wikipediaartikel als Quelle genannt wurde, "PCI Express x16 Graphics 150W-ATX Specification Revision 1.0", sinds auch 3x 12V. Und diese Spec ist vom 25. Oktober 2004.

Da wird wohl jemand beim editieren des Wikipediaartikels einen Fehler gemacht haben ;)

https://abload.de/thumb/pcie_atx_spec_rev1.0qhkg4.png (https://abload.de/image.php?img=pcie_atx_spec_rev1.0qhkg4.png)

welchen Sinn hat dann der 8-Pin PCIe Stecker, wenn hier nur 2 Masse/Sense Leitungen im Vergleich zum 6-Pin ergänzt wurden?

Lowkey
2020-08-23, 18:58:29
Es ging damals um die Kabeldurchmesser, weil es auch keine Norm gab (EU 80+ Norm kam viel später). Ein aktuelles 6Pin Kabel eines Markenherstellers kann 150w ohne Probleme liefern. Die Norm ist einfach uralt.

Dsk
2020-08-23, 19:47:53
welchen Sinn hat dann der 8-Pin PCIe Stecker, wenn hier nur 2 Masse/Sense Leitungen im Vergleich zum 6-Pin ergänzt wurden?

Dient laut der "PCI ExpressCard Electromechanical SpecificationRevision 3.0" der PCI-SIG dazu, der Karte mitzuteilen wieviel sie über den Stecker ziehen darf (75W oder 150W).

https://abload.de/thumb/pcie_em_spec_rev3.017k49.png (https://abload.de/image.php?img=pcie_em_spec_rev3.017k49.png)

Cubitus
2020-08-23, 20:05:42
Wie ist das eigentlich bei den NTs? Ich habe bei mir 2 Stränge mit je 2 x 8 Pin, wäre es besser beide Stränge zu nutzen, oder einen Strang mit den zwei 8 Pins (weniger Kabel im Gehäuse)?

Ich schätze das ist egal.. ausprobieren
Von der Quelle her ist es egal, da die 12 Volt bei vielen aktuellen Netzteilen eh SingelRail sind und quasi einen eigenen Bereich haben..

Dsk
2020-08-23, 20:30:54
... Ein aktuelles 6Pin Kabel eines Markenherstellers kann 150w ohne Probleme liefern. Die Norm ist einfach uralt.

Am Kabel/Stecker liegts nicht ("8.0 amperes per pin/position maximum to a 30 °C T-Rise above ambient temperature conditions at 12 VDC, all six contacts energized") die 150W hätte man auch vorher schon über den 6-Pin-Stecker mit 18 AWG-Kabel ziehen können. Man hat damals (Okt 2004) aber nur 75W spezifiziert.

Mit dem 8-Pin-Stecker wurden dann erst (März 2008) auch die 150W offiziell spezifiziert. Und damit die Karte es erkennt, dass sie mehr ziehen darf gibts dann den weiteren Sense-Pin.
Am Kabel selbst hat sich dort nichts getan, immer noch 18 AWG. Lustigerweise sind die Anforderungen an den Stecker selbst aber sogar geringer geworden ("7.0 A per pin/position maximum to a 30 °C T-Rise above ambient temperature conditions at 12 VDC with all eight contacts energized").

Wie gesagt, an den Spezifikationen lags eigentlich bisher nicht. Was natürlich die Netzteil und Kabelhersteller draus machen ist eine andere Sache.

Sunrise
2020-08-23, 20:49:38
Beim Mac Pro erfolgt die komplette Stromversorgung von GPUs über das Mainboard, über 300 Watt und mehr sind kein Problem. Das sollte zum Standard werden.
Der Mac Pro ist ein proprietäres, geschlossenes System. Unwahrscheinlich...

nordic_pegasus
2020-08-23, 21:02:36
Beim Mac Pro erfolgt die komplette Stromversorgung von GPUs über das Mainboard, über 300 Watt und mehr sind kein Problem. Das sollte zum Standard werden.

in Zeiten von Triple- und Quad-SLI hatten passende Mainboards neben 24-Pin ATX und 8-Pin EPS noch zusätzliche Stecker, damit man 3-4 Grafikkarten mit den jeweils erlaubten 75 Watt aus den PCIe Slots versorgen kann. Ohne extra Anschlüsse wäre der 24-Pin geschmolzen. Wieviele zusätzliche 12Volt Leitungen willst Du durch ein Mainboard jagen?

Wobei ich es natürlich auch sehr elegant fände, wenn man auf die Stromkabel verzichten könnte. Zumindest wandert dieser 12-Pin Anschluss ans Ende der GraKa, dieses seitliche Abstehen des Kabels fand ich immer extrem störend für die Optik. Warum wurden die Stromanschlüsse an GraKas eigentlich nach "oben" verpflanzt? Zu Beginn waren die doch immer am Ende des PCBs. Gibts da keine Norm zu, damit es in schmale Gehäuse passt?

Zergra
2020-08-23, 21:20:36
Zu Beginn waren die doch immer am Ende des PCBs. Gibts da keine Norm zu, damit es in schmale Gehäuse passt?
Die Grafikkarten wurden aber immer länger, am Ende hast du eben das Problem das die länge nicht mehr passt, da du eben nochmal 2-3cm extra brauchst. Außerdem kommt man so besser ran.

Lowkey
2020-08-23, 21:44:18
Am Kabel/Stecker liegts nicht ("8.0 amperes per pin/position maximum to a 30 °C T-Rise above ambient temperature conditions at 12 VDC, all six contacts energized") die 150W hätte man auch vorher schon über den 6-Pin-Stecker mit 18 AWG-Kabel ziehen können. Man hat damals (Okt 2004) aber nur 75W spezifiziert.

Mit dem 8-Pin-Stecker wurden dann erst (März 2008) auch die 150W offiziell spezifiziert. Und damit die Karte es erkennt, dass sie mehr ziehen darf gibts dann den weiteren Sense-Pin.
Am Kabel selbst hat sich dort nichts getan, immer noch 18 AWG. Lustigerweise sind die Anforderungen an den Stecker selbst aber sogar geringer geworden ("7.0 A per pin/position maximum to a 30 °C T-Rise above ambient temperature conditions at 12 VDC with all eight contacts energized").

Wie gesagt, an den Spezifikationen lags eigentlich bisher nicht. Was natürlich die Netzteil und Kabelhersteller draus machen ist eine andere Sache.


Genau, denn da hatte letztes Jahr jemand gefragt, ob er aus dem 6Pin einen 8Pin machen darf. Und das wurde bejaht, da das Netzteil ausreichend dimensioniert sei.

nordic_pegasus
2020-08-24, 06:50:21
https://twitter.com/aschilling/status/1297518250708938752?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1297518 250708938752%7Ctwgr%5E&ref_url=https%3A%2F%2Fwww.igorslab.de%2Fcommunity%2Fthreads%2Fneuigkeiten-und-gerC3BCchte-zu-rtx-3xxx-ampere-sammelstrang.2843%2Fpage-24

Die Pins in dem neuen Stecker sind deutlich kleiner als die bisherigen ATX/EPS/PCIe Stecker.

Den Link habe ich im Computerbase-Forum gefunden.

Edit: Hoffentlich ist der neue Stecker bzw. die Buchsen auch stabil. Erinnert mich an die Verringerung des Lochabstands beim internen USB 3.0 Anschluss in Vergleich zu USB 2.0/1.1. Bei USB 3.0 gab es häufig verbogene Pins, USB 2.0 kannte das Problem nicht.

wolik
2020-08-24, 07:14:57
in Zeiten von Triple- und Quad-SLI hatten passende Mainboards neben 24-Pin ATX und 8-Pin EPS noch zusätzliche Stecker, damit man 3-4 Grafikkarten mit den jeweils erlaubten 75 Watt aus den PCIe Slots versorgen kann.
Ich habe bei Rampage IV Formula nur diese zusätzliche Stecker (EZ-Plug) gehabt. Ob der für Quad überhaupt ein Sinn gehabt, kann ich nicht mehr sagen.

https://abload.de/img/bildschirmfoto2020-08xtj41.png

https://abload.de/img/img202023vzjo2.jpg

Lowkey
2020-08-24, 09:47:39
https://www.computerbase.de/2020-08/nvidia-ampere-geruechte-12-pin-pcie-stecker/

Diesen neuen Stecker braucht jeder mit der Absicht eine FE zu kaufen. Ich bin gespannt ob es dann nicht zum Lieferengpass kommen wird.

Die AM4 Kits gab es von den meisten Herstellern kostenlos oder gegen Versandkosten. Das Kabel wird bestimmt nicht kostenlos sein.

nordic_pegasus
2020-08-24, 09:57:03
https://www.computerbase.de/2020-08/nvidia-ampere-geruechte-12-pin-pcie-stecker/

Diesen neuen Stecker braucht jeder mit der Absicht eine FE zu kaufen. Ich bin gespannt ob es dann nicht zum Lieferengpass kommen wird.

Die AM4 Kits gab es von den meisten Herstellern kostenlos oder gegen Versandkosten. Das Kabel wird bestimmt nicht kostenlos sein.

Nvidia wird ja angeblich einen Adapter von 3x 8-Pin PCIe auf 12-Pin beilegen. Das Kabel von Seasonic ist kein Adapter sondern ein Kabelstrang für deren modulare Netzteile.

Daredevil
2020-08-24, 10:03:38
3x 8-Pin ist dann insofern sinnvoll, weil auch der letzte DAU nicht 300-450w an einem NT Strang anbinden kann, sondern zwangsweise zwei nehmen muss, selbst wenn zwei Anschlüsse davon ein Y-Split Kabel sind.
Wird dem einen oder andere Kunden nicht schmecken mit älterem Netzteil, aber so ist das halt mit neuen Dingen.
Viele aktuelle Mainstream ( 500w ) NTs haben ja am Ende 4x 8-Pin.

w0mbat
2020-08-24, 10:08:18
https://twitter.com/aschilling/status/1297518250708938752/photo/1

Nach dem ich jetzt nen Foto von dem Stecker gesehen habe muss ich sagen: gute Idee Nvidia! Hoffe, AMD macht da mit. Vor allem in SFX-Sytemen wäre das super.

dargo
2020-08-24, 10:15:11
Ist jetzt der Stromstecker an Ampere das Interessanteste? :freak: Da denkst du du erfährst was neues zu Ampere und hier wird mehrere Seiten über einen Stromstecker debattiert. :facepalm:

Denniss
2020-08-24, 10:27:15
Ohne Saft keine Kraft :biggrin:

mironicus
2020-08-24, 10:32:02
Der neue Stromstecker wird eine neue Ära an Grafikkarten einläuten. Enthusiasten-GPUs ab 350 Watt werden normal. Das wird auch notwendig wenn bald noch Intel mitspielt, die haben viel mehr Ressourcen als NVidia und AMD.

Dural
2020-08-24, 10:32:27
Der Stecker wirkt auf dem Foto wirklich deutlich kleiner, und wenn damit 375Watt gehen ist ja alles Super.

Da bin ich beruhigt :wink:

Lowkey
2020-08-24, 10:41:03
Nvidia wird ja angeblich einen Adapter von 3x 8-Pin PCIe auf 12-Pin beilegen. Das Kabel von Seasonic ist kein Adapter sondern ein Kabelstrang für deren modulare Netzteile.

Wenn man die Kabelgeschichte grob aus den ganzen News zusammenfaßt:

Nvidia sieht ein Problem mit der Stromversorgung der 3090, also entwickelt man einen neuen Stecker, der offenbar 3x 8Pin ersetzen soll, da kleiner und stabilere Spannungsversorgung. Der Stecker soll direkt an das Netzteil, wo Seasonic mind. 850w empfielt. Man soll ja keine Y-PCI-E stecker mittels dem Adapter anschließen. Mein SFX 500w hat zB. nur das Y-PCI-E Kabel, also wäre für den Betrieb mit der 3090 komplett ungeeignet. Da wäre mangels Steckplatz am modularen Netzteil auch keine Möglichkeit seitens des Herstellers nachzubessern.

Also braucht man zum Betrieb der 3090 ein modulares Netzteil mit mind. 3x PCI-E Grafikkartenanschlüssen.


PS: praktisch wird es bestimmt Bastellösungen geben.


Beispiel: https://gzhls.at/i/24/98/1712498-n0.jpg

Nach der Beschriftung hat das 650w Netzteil 5x PCI-E/CPU Ausgänge. Zwei Stecker fallen für 2xCPU 4+4 weg. Bleiben noch 3x PCI-E

Troyan
2020-08-24, 10:42:59
nVidia produziert ein viel zu kleines PCB und muss überall Platz sparen. Also "entwickeln" die einen Anschluss, der deutlich kleiner ist als 2x 8PIN Anschlüsse. Schau dir den Kühler an...

Lowkey
2020-08-24, 10:51:40
Die 3090 braucht halt sehr wahrscheinlich mehr als die 2080Ti und das sind rund 100w, die auch stabil geliefert werden müssen. Nicht jedes Netzteil hat mehr als 2x PCI-E 8pin oder kann überhaupt den Strom liefern. Auch mit Adapter wird es knapp. Es macht eben schon Sinn einen neuen Stecker zu entwickeln.

Schließlich hält sich auch das Gerücht, dass der PCI-E 75w für Grafikkarten liefern könnte...

Zergra
2020-08-24, 10:53:25
nVidia produziert ein viel zu kleines PCB und muss überall Platz sparen. Also "entwickeln" die einen Anschluss, der deutlich kleiner ist als 2x 8PIN Anschlüsse. Schau dir den Kühler an...
Das dürfte der Hauptgrund sein ja.


Das Problem an solchen Standards wie ATX ist eben, das sie auch gepflegt werden müssen. Das passiert leider bei ATX nicht.

Dural
2020-08-24, 10:54:02
Wenn die 3090 einen 12p anstelle 2x8p hat finde ich es super.

NV hat mal wieder alles richtig gemacht.

mironicus
2020-08-24, 10:57:29
Wenn die 3090 einen 12p anstelle 2x8p hat finde ich es super.

NV hat mal wieder alles richtig gemacht.

3x8 Pin werden benötigt. Mein 650 Watt-Netzteil hat das z.B. nicht.:freak:

woodsdog
2020-08-24, 10:57:31
Praise the Lord! Lederjacke!

Zergra
2020-08-24, 10:59:25
3x8 Pin werden benötigt. Mein 650 Watt-Netzteil hat das z.B. nicht.:freak:

Zwei mal 8Pin , der Rest wird aus Molex gebastelt.... :)



Für den Seasonic Adapter brauchst du eben nur 2x8PIN.
Wo kommt die Info mit den 3x her ?

BiZiNiZz
2020-08-24, 11:03:27
Zwei mal 8Pin , der Rest wird aus Molex gebastelt.... :)



Für den Seasonic Adapter brauchst du eben nur 2x8PIN.
Wo kommt die Info mit den 3x her ?

Das fragst du echt? Lesekompetenz ist mittlerweile bei vielen nicht mehr vorhanden hab ich so das Gefühl :freak:

Es war überall die Rede von 2x8PIN auf 12PIN. Daher Quellen für eure imaginären 3x8PIN :rolleyes:

Zergra
2020-08-24, 11:06:04
Das fragst du echt? Lesekompetenz ist mittlerweile bei vielen nicht mehr vorhanden hab ich so das Gefühl :freak:

Es war überall die Rede von 2x8Pin auf 12Pin. Daher Quellen für eure imaginären 3x8Pin :rolleyes:

Hä ?? Ich habe nur was von 2x8Pin auf 12Pin gelesen.

Die 3x 8Pin habe ich nicht gesehen.


Ggf. nochmal lesen was ich genau geschrieben habe ;)

BiZiNiZz
2020-08-24, 11:10:51
@Zergra
Das war auch garnicht auf dich bezogen. Du weißt ja selbst nicht, aus welchem Loch auf einmal die 3x8 gezogen werden. Das war Allgemein darauf bezogen, dass nur noch das gelesen wird, was einem irgendwie gerade so durch den Kopf düst :freak:

MiamiNice
2020-08-24, 11:28:23
Ich freue mich schon auf die zahlreichen Hassposts von Leuten mit abgerauchten Netzteilen :biggrin:

hq-hq
2020-08-24, 11:30:30
3*8pin weil es customs damit geben wird und falls der 12pin mehr als 300watt darf/muss bräuchte es einen Adapter der diese 300+ eben dann aus z.b. 3*8pin zieht. Wenn seasonic an ihren Netzteilen mehr als 300 watt zulässt ist das deren eigene Sache. Vielleicht bleibts ja bei 300watt, dann passt es auch bei dem vermeintlichen Founders Adapter mit 2*8pin

Dural
2020-08-24, 11:35:16
Ehm 2x 8p sind doch max 375Watt (1x 75W PCIE, 2x 150W 8P)

Lowkey
2020-08-24, 11:37:53
Das fragst du echt? Lesekompetenz ist mittlerweile bei vielen nicht mehr vorhanden hab ich so das Gefühl :freak:

Es war überall die Rede von 2x8PIN auf 12PIN. Daher Quellen für eure imaginären 3x8PIN :rolleyes:

Das bezieht sich auf die Aussage:


NVIDIA leaker with an extremely high hit-rate, kopite7kimi, however predicts that the 12-pin connector was designed by NVIDIA exclusively for its Founders Edition (reference design) graphics cards, and that custom-design cards may stick to industry-standard PCIe power connectors. We recently spied a custom-design RTX 3090 PCB, and it's shown featuring three 8-pin PCIe power connectors.


Die 3090 benötigt theoretisch den 12pin Stecker oder als Custom 3x 8pin. Die Schlussfolgerung wäre die, dass der 12pin Stecker diese 3x 8pin ersetzt und weiterhin heißt es, dass der 12er direkt bis 600w gehen kann, was du mit 2x 8pin in der Theorie nicht kannst (2x150w). Natürlich zieht die Karte aus dem PCi-E noch ein paar Watt, was praktisch mittlerweile nichts mehr ausmacht und immer noch zu Kompatibilitätsproblemen führt (z490 + 1070ti war so ein Fall bei mir). 2x 8pin + PCI-E wäre für eine 3090 zu schwach, da es wieder zu den berühmten Spitzen kommen würde.

Insofern ist die Frage, wieviel ein PCI-E Anschluss am Netzteil (Siehe oben das Bild vom Seasonic) an Watt liefern kann? 300w sollten es nach der neuen Spec mit dem 12pin Stecker sein.

Vermutlich kann nur das Seasonic ab 850w über 2x 8Pin am Netzteil diese 600w per neuem Kabel liefern.

Troyan
2020-08-24, 11:40:15
Ja, theoretisch. Man wird kaum die kompletten 75W vom PCIe-Slot nehmen wollen.

dargo
2020-08-24, 11:42:57
Ohne Saft keine Kraft :biggrin:
Schon klar... aber wen interessiert wie dieser Saft zur Graka kommt, vorallem wenn ein entsprechender Adapter der Karte eh beiliegt? Meine Güte... das soll jetzt das nonplusultra bei der neuen Generation sein? :freak:

Praise the Lord! Lederjacke!
Genau.. für einen Stromstecker. X-D

Adam D.
2020-08-24, 11:56:20
Schon klar... aber wen interessiert wie dieser Saft zur Graka kommt, vorallem wenn ein entsprechender Adapter der Karte eh beiliegt? Meine Güte... das soll jetzt das nonplusultra bei der neuen Generation sein? :freak:


Genau.. für einen Stromstecker. X-D
Alles eben eine Frage der Perspektive, ne? Man stelle sich nur vor, AMD hätte das gemacht. Was müssten wir uns von Troyan anhören, was das für eine Frechheit ist, dass die Ingenieure kein normales Board-Design hinkriegen und uns armen Konsumenten einen neuen Anschluss aufdrücken müssen!

Ich bin am meisten gespannt, was davon alles (Adapter, TDP etc.) für Normalo-Gamer überhaupt von Relevanz sein wird. Kann ja auch gut sein, dass die 3090 total 'krank' wird und sich der Rest des Lineups in normalen Bahnen bewegt.

N0rG
2020-08-24, 12:13:19
Hab mal irgendwo gelesen, das seasonic die netzteilausgänge auf 225w auslegt. Ist aber schon ne weile her...

SKYNET
2020-08-24, 12:31:18
mir so puppe die diskussion... mein NT hat 4x 8-pin und kann diese laut spezifikation auch liefern... also können die neuen karten gerne 500W ziehen, bin immer noch auf der sicheren seite... die restlichen 250W kann dann der rest vom rechner haben :freak:

und wo sind eigentlich all die, die meinten nen 500W NT wird auch in zukunft für highend hardware langen? :ulol: verstecken sich bestimmt grad alle im keller X-D

dildo4u
2020-08-24, 12:36:54
Natürlich reicht das die Karten sind mit Raytracing so langsam das die CPU Däumchen dreht. Die 350 Watt kommen ja nur zu Stande da der Sprung mit 250Watt zu mickrig wäre.

Lowkey
2020-08-24, 12:47:42
Mit Raytracing wird das TDP zu 110% ausgelastet.

Viele ITX Gehäuse, die für Highend (3950x+2080TI) gedacht waren, haben nun in Höhe, Breite und Länge ein Problem mit der 3090 :)

MiamiNice
2020-08-24, 12:47:43
mir so puppe die diskussion... mein NT hat 4x 8-pin und kann diese laut spezifikation auch liefern... also können die neuen karten gerne 500W ziehen, bin immer noch auf der sicheren seite... die restlichen 250W kann dann der rest vom rechner haben :freak:

und wo sind eigentlich all die, die meinten nen 500W NT wird auch in zukunft für highend hardware langen? :ulol: verstecken sich bestimmt grad alle im keller X-D

+1


Natürlich reicht das die Karten sind mit Raytracing so langsam das die CPU Däumchen dreht. Die 350 Watt kommen ja nur zu Stande da der Sprung mit 250Watt zu mickrig wäre.

Wo hast Du den diese Infos her? Bisherige Leaks sprechen eine ganz andere Sprache.

rentex
2020-08-24, 13:04:59
mir so puppe die diskussion... mein NT hat 4x 8-pin und kann diese laut spezifikation auch liefern... also können die neuen karten gerne 500W ziehen, bin immer noch auf der sicheren seite... die restlichen 250W kann dann der rest vom rechner haben :freak:

und wo sind eigentlich all die, die meinten nen 500W NT wird auch in zukunft für highend hardware langen? :ulol: verstecken sich bestimmt grad alle im keller X-D

Keller? In Grund und Boden!

Troyan
2020-08-24, 13:05:20
Mit Raytracing wird das TDP zu 110% ausgelastet.

Viele ITX Gehäuse, die für Highend (3950x+2080TI) gedacht waren, haben nun in Höhe, Breite und Länge ein Problem mit der 3090 :)

Die können doch eine 3080 kaufen?! Kein Unterschied zu den ganzen ITX Gehäuse, die mit einem Radial-Design designt wurden.

y33H@
2020-08-24, 13:09:53
Das Seasonic ist ein Kabel für direkt an's Netzteil, kein Adapter.

mironicus
2020-08-24, 13:16:41
Die können doch eine 3080 kaufen?! Kein Unterschied zu den ganzen ITX Gehäuse, die mit einem Radial-Design designt wurden.

Von einer 2080 Ti zu einer 3080 zu wechseln sollte sich imho kaum lohnen.

SKYNET
2020-08-24, 13:21:34
Von einer 2080 Ti zu einer 3080 zu wechseln sollte sich imho kaum lohnen.

rohleistung sicherlich nicht, aber denke der ganze andere krams wird eine neue liga sein, da wird wohl selbst die 3070(?) ne getaktete 2080Ti blank machen.

Troyan
2020-08-24, 13:22:46
Von einer 2080 Ti zu einer 3080 zu wechseln sollte sich imho kaum lohnen.

Naja, eine Alternative gibt es ja nicht, wenn man kein anderes Gehäuse kaufen will. Man ist eben limitierter...

Lowkey
2020-08-24, 13:35:29
Die können doch eine 3080 kaufen?! Kein Unterschied zu den ganzen ITX Gehäuse, die mit einem Radial-Design designt wurden.

Die neueren Modelle sind größer und kommen mit 3 Slot Design. Da paßt es dann wieder. Im SSF Forum findet immer wieder ein Wettbewerb statt, wer am meisten Rechenleistung auf geringestem Raum unterbringen kann. Allerdings sehe ich noch keine 3090 Mini. Die 350w sind kaum in Serie zu machen.

In mein neues ITX (kleiner als das DAN A4) paßte meine 1080Ti Custom gut rein. Die 2080Ti ist auch nicht größer und hätte gepaßt. Bei der 3090 gibt es dann ein Längenproblem, Höhen Probleme, Lüfter Problem und letztlich nun auch ein Stromproblem, denn die Hersteller haben wohl nicht ohne Grund neue SFX Modelle mit 1000w für dieses Jahr in Planung.

dargo
2020-08-24, 15:27:12
Das Seasonic ist ein Kabel für direkt an's Netzteil, kein Adapter.
Dann halt so. Ist auch besser, denn zusätzliche Widerstände durch Adapter sind eher kontraproduktiv.

rohleistung sicherlich nicht, aber denke der ganze andere krams wird eine neue liga sein, da wird wohl selbst die 3070(?) ne getaktete 2080Ti blank machen.
Und wie soll das bitte gehen ohne massiv die Shaderpower zu erhöhen?

SKYNET
2020-08-24, 15:27:13
Die neueren Modelle sind größer und kommen mit 3 Slot Design. Da paßt es dann wieder. Im SSF Forum findet immer wieder ein Wettbewerb statt, wer am meisten Rechenleistung auf geringestem Raum unterbringen kann. Allerdings sehe ich noch keine 3090 Mini. Die 350w sind kaum in Serie zu machen.

In mein neues ITX (kleiner als das DAN A4) paßte meine 1080Ti Custom gut rein. Die 2080Ti ist auch nicht größer und hätte gepaßt. Bei der 3090 gibt es dann ein Längenproblem, Höhen Probleme, Lüfter Problem und letztlich nun auch ein Stromproblem, denn die Hersteller haben wohl nicht ohne Grund neue SFX Modelle mit 1000w für dieses Jahr in Planung.


och, mal abwarten wie "klein" die AMD karten werden, AMD konnte schon immer gut leistung auf kleinsten raum packen... allerdings nur dank HBM.

komme eh nicht draus warum NV nicht auf HBM gegangen ist... dürfte die grösse der karte massiv reduzieren und das kühlkonzept vereinfachen... aber stattdessen lieber nen $150 kühler :rolleyes: wäre sicherlich gleich teuer geworden(komplette karte) wenn man das speicherinterface HBM ready gemacht hätte...

Lowkey
2020-08-24, 15:31:41
Wo war doch gleich das Bild der 3090? Das PCB sah nach 20cm aus. Mit Wakü könnte es klappen.

SKYNET
2020-08-24, 15:34:21
Wo war doch gleich das Bild der 3090? Das PCB sah nach 20cm aus. Mit Wakü könnte es klappen.

dann brauchst erstmal den platz für die wakü wieder... bist also wieder am ausgangspunkt.

zumal die karte sicherlich min. nen 360er radiator brauch, nen 240er dürfte da wohl schon am limit laufen.

MiamiNice
2020-08-24, 15:59:54
.. aber stattdessen lieber nen $150 kühler :rolleyes:

Der Witz ist das der Kühler eh im Karton bleibt und man für etwas zahlt was man gar nicht nutzt. Ich würde die 3090 am liebsten nackt kaufen.

Dural
2020-08-24, 16:15:29
Kein Mensch wird die FE für WaKü kaufen:

Strom-Stecker!
Dreieck PCB!

MiamiNice
2020-08-24, 16:23:39
Kein Mensch wird die FE für WaKü kaufen:

Strom-Stecker!
Dreieck PCB!

Der Strom Stecker ist super. Mit dem richtigen Netzteil ist das eine einfach Nachbestellung bei Corsair und der Kabelsalat hat ein Ende :)

Für die FE ist der WaKü Block angeblich schon fertig.

Also kaufen wahrscheinlich viele die FE für WaKü :tongue:

JVC
2020-08-24, 16:30:47
Laut Leaks die ich am WE gesehen habe, legt sich BN eher mit der 3070TI statt der 3080 an.
Angeblich BN 10% unter 3080 mit rtx off. 3090 auf 2080TI 60%+ mit RTX off.
Und hast auch aufgeschnappt wie viel die 3080 20Gb unter der 3090 liegen soll?
Nur ~20% abstand von der 3080 zur 3070Ti klingt irgendwie niedrig. (Edit von 10%, dann klingt es schon passender)
Und dann gleich ~+40% beim selben Chipp O_o (angenommen die 3070Ti ist auf 2080Ti Niveau)
(die unter 1K wären gangbar. die 3090 ist für mich eigentlich raus)

M.f.G. JVC

Leonidas
2020-08-24, 16:35:43
Von einer 2080 Ti zu einer 3080 zu wechseln sollte sich imho kaum lohnen.


Regulär nicht. Aber eventuell lohnt es wegen 20G und wegen besserer RT-Performance.

ChaosTM
2020-08-24, 16:43:32
Ich hoffe, dass 1080ti auf 3080 zumindest 50% Bringt. Wird aber eher weniger sein befürchte ich

add.:_ die 3090er kauf ich nur wenn sie einen Co-prozzi hat ;)

Kimi2003
2020-08-24, 16:50:15
Der Strom Stecker ist super. Mit dem richtigen Netzteil ist das eine einfach Nachbestellung bei Corsair und der Kabelsalat hat ein Ende :)

Für die FE ist der WaKü Block angeblich schon fertig.

Also kaufen wahrscheinlich viele die FE für WaKü :tongue:

Von EKWB?

sapito
2020-08-24, 17:31:21
Ehm 2x 8p sind doch max 375Watt (1x 75W PCIE, 2x 150W 8P)

bei sowas wundert mich nix mehr

2x150 > 300

oder hast du Luftdrähte die den PEG "strom" auf den Stecker umleiten?

leute wie du kann ich auf wegen wlan kabeln losschicken :freak::freak::freak:

r3ptil3
2020-08-24, 17:31:51
Von einer 2080 Ti zu einer 3080 zu wechseln sollte sich imho kaum lohnen.

Wenn man nicht deutlich über 150€ drauflegen muss, würde ich da klar wechseln.

Alleine schon die Treiberpolitik von Nvidia bremst die alten Modelle nach ein paar Monaten so ein, entschuldige, ich meine natürlich die neue Architektur spielt ihre Vorteile in neuen Games besonders gut aus.

Nach 4-5 Monaten wird eine 3080 nochmals anders dastehen gegen eine 2080 Ti, wie kurz nach Release.

Dural
2020-08-24, 17:34:43
bei sowas wundert mich nix mehr

2x150 > 300

oder hast du Luftdrähte die den PEG "strom" auf den Stecker umleiten?

leute wie du kann ich auf wegen wlan kabeln losschicken :freak::freak::freak:

Wer lesen und verstehen kann :rolleyes: die Grafikkarte hat ja keinen Steckplatz im MB und da kommt auch kein Strom ;)

Der Strom Stecker ist super. Mit dem richtigen Netzteil ist das eine einfach Nachbestellung bei Corsair und der Kabelsalat hat ein Ende :)

Für die FE ist der WaKü Block angeblich schon fertig.

Also kaufen wahrscheinlich viele die FE für WaKü :tongue:

Der 12P wird ziemlich sicher direkt per Kabel an das PCB gelötet sein, sieht richtig super aus!

sapito
2020-08-24, 17:40:20
Hab mal irgendwo gelesen, das seasonic die netzteilausgänge auf 225w auslegt. Ist aber schon ne weile her...

die ausgänge sind weniger das Problem als der Kabel querschnitt

laut ATX Norm reicht nen 0,5mm² Klingeldraht aus (AWG 20). besser ist hier halt 1 -1,5mm²

ebenso ist es voll OK laut ATX auf der eingangsseite 6-PIN zu nehmen und ausgangsseitig dann auf 6+2 zu gehen inklusive y Splitting

> DAS ist der grund für den neuen stecker weil hier auch praxistaugliche Drahtquerschnitte vorgeschrieben werden (können)


der gute Igor hatte dazu mal nen Video

4suODOUe8WM

BlacKi
2020-08-24, 17:47:14
Der 12P wird ziemlich sicher direkt per Kabel an das PCB gelötet sein, sieht richtig super aus!
man wird den stecker auf den WB schrauben und dann eine backplate montieren, da wird man also garnichts sehen.

Emil_i_Lönneberga
2020-08-24, 17:50:35
bei sowas wundert mich nix mehr

2x150 > 300

oder hast du Luftdrähte die den PEG "strom" auf den Stecker umleiten?

leute wie du kann ich auf wegen wlan kabeln losschicken :freak::freak::freak:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70508&d=1591801750

Edgecrusher86
2020-08-24, 17:55:12
Also wenn Retail bei der FE auch nur so ein Seasonic Kabel dabei wäre, könnte ich die Karte in keinem der beiden Systeme betreiben. Das alte Platimax-Design setzt auf 12 Pol. statt 8. Nun ja, 75cm wäre wohl eh auf Messers Schneide was die Länge betrifft. Das hätte im CL maximal gepasst, wenn der Stecker nicht um 90 Grad versetzt wäre, wie bisher - also Richtung Front wie bei den Quadros. Für die Soundkarte brauche ich fast die vollen 90cm (50cm Enermax Kabel.. bissl geizig gewesen...40cm Verlängerung).

2013 und 2015 jeweils gekauft. Läuft alles noch bestens - nun ja, selbst zu SLI Zeiten nur unter Teillast. Die werden noch ein paar Jahre betrieben werden. Mittlerweile hat man auch 8 Pol. Buchsen auf der +12V Ausgangsseite wie der Rest.

Eigentlich hatte ich gleich mit der FE geplant. Nun ja, eventuell liegt auch ein einfacher Y-Adapter dabei. Ansonsten wird es halt eine Custom-Karte mit 3x8 Pol.

gedi
2020-08-24, 17:58:21
@MiamiNice

Welche Leaks gabs denn am Wochenende?

Dsk
2020-08-24, 18:01:22
...
laut ATX Norm reicht nen 0,5mm² Klingeldraht aus (AWG 20). besser ist hier halt 1 -1,5mm²
...

Ja Igor spricht zwar von 20 AWG, aber die ATX-Specs nicht. Hab diese eben nochmal durchgeblättert. Alle Kabel sollen laut Specs 18 AWG (0,823mm²) sein. Mit Ausnahme fürs Floppy da gehen die 20 AWG und dann noch für PIN 13 den +3,3V des 24-Pin Steckers, da reicht 22 AWG.

Bei billig Netzteilen kanns zwar anders umgesetzt sein, aber "laut ATX Norm" sollte es eben nicht so sein :rolleyes:

Ex3cut3r
2020-08-24, 18:05:14
Finde so eine Entwicklung mit neuen PCIe Stecker sehr bedenklich, hoffe wirklich nur das die 3080Ti den benötigt. Und die nächste Gen wieder bei 2x8 Pin bleibt. Mittlerweile spüre ich Fermi Vibes.

https://abload.de/img/nvidia_grillf1jqa.jpg

Thunder99
2020-08-24, 18:16:10
High End mit 500W Netzteil (Qualität) soll gehen, das ist mein Anspruch und wird bisher auch gerecht (1080Ti Besitzer). ;)

dargo
2020-08-24, 18:23:58
https://abload.de/img/nvidia_grillf1jqa.jpg
;D ;D ;D

Da wird bestimmt noch mehr kommen. :D

SKYNET
2020-08-24, 18:25:27
High End mit 500W Netzteil (Qualität) soll gehen, das ist mein Anspruch und wird bisher auch gerecht (1080Ti Besitzer). ;)


kannste vergessen mit ner 3090... wenn die schon 350W zieht, bleiben nur 150W für den rest... und da grakas auch sowas wie tolle lastspitzen(gehe von 450-550W aus) haben, die ziemlich sicher die spezifikationen deines NTs sprengen werden... kannst also schonmal nach nem neuen NT schauen... oder gehst auf die 3080, die dürfte wohl im selben range sein wie die 1080Ti

mironicus
2020-08-24, 18:31:34
Zum Glück habe ich noch ein 1200 Watt-Netzteil (80 Plus Platinum) in meinen Keller, original verpackt und nur mal kurz angetestet. Bis jetzt gab es aber noch keinen Grund es zu benutzen... :)

Thunder99
2020-08-24, 18:46:17
kannste vergessen mit ner 3090... wenn die schon 350W zieht, bleiben nur 150W für den rest... und da grakas auch sowas wie tolle lastspitzen(gehe von 450-550W aus) haben, die ziemlich sicher die spezifikationen deines NTs sprengen werden... kannst also schonmal nach nem neuen NT schauen... oder gehst auf die 3080, die dürfte wohl im selben range sein wie die 1080Ti

Ja, so ist es. Die 3090 wird es nicht werden, eher 3070Ti oder 3080. Aber ich warte ab, aktuell besteht kein Bedarf :). Turing habe ich bewusst ausgelassen, da zu wenig Bums. Hab daher Hoffnung auf Ampere :).

Radeonfreak
2020-08-24, 19:11:29
Turing habe ich bewusst ausgelassen, da zu wenig Bums. Hab daher Hoffnung auf Ampere :).

Aber die 3070 oder 3080 wird kaum mehr Bums haben als ne 2080 TI. Also kannst du die ja auch auslassen. :tongue:

gedi
2020-08-24, 19:12:00
MiamiNice, wo sind deine Leaks vom Wochenende?

@Radeonfreak
Mit RT wohl schon. War bei NV doch immer so, dass das 70er Modell in etwa so performant war, wie das Last-Gen Topmodell. Ne 3080 25% drüber und die 90/TI 55% drüber

Lowkey
2020-08-24, 19:16:09
Jaja 1400 Euro für eine 3090 hat man, aber die 150 Euro für das neue Netzteil sind dann Wucher? :D

Aber die 3070 oder 3080 wird kaum mehr Bums haben als ne 2080 TI. Also kannst du die ja auch auslassen. :tongue:


Zum Release wandert nur alles eine Stufe nach oben + Mehr Speicher (der aktuell nutzlos sein wird). 2080 => 3070, 2080Ti => 3080. Der Wechsel von 2080Ti auf 3080 wird sich vermutlich kaum lohnen bzw. es wird eine Differenz von 20-30% sein, wo jeder sagt, dass es kaum lohnt. Andererseits bleibt ein Werterhalt der 2080Ti. Die Leaks der Leistung zeigen vermutlich nur Ausnahmen und keinen Durchschnitt.

Die eigentliche Frage nach dem PCGH Test lautet, ob man die Treiberverbesserungen der 2000er Serie mitnimmt oder ob sie sich sogar noch positiver entwickeln? Die Gaming Z mit OC zieht der normalen 2080TI deutlich davon.

Linmoum
2020-08-24, 19:17:14
Von EKWB?Ich glaube er meint damit Igors Aussage, er hat nämlich schon einen bei sich zu liegen. Er hat aber nicht gesagt, von wem.

EKWB dürfte aber am wahrscheinlichsten sein, da sie idR auch immer mit die ersten sind, die Blöcke am Markt haben.

Emil_i_Lönneberga
2020-08-24, 19:21:40
In welchem Video oder Artikel hat Igor das nochmal erwähnt?

Das sollte dann Alphacool sein, da er deren Wakü Zeugs, für ein letztes Feedback zwecks Nachbesserungen, in der Vergangenheit häufiger vorab testen konnte.

Screemer
2020-08-24, 19:25:13
In welchem Video oder Artikel hat Igor das nochmal erwähnt?

Das sollte dann Alphacool sein, da er deren Wakü Zeugs, für ein letztes Feedback zwecks Nachbesserungen, in der Vergangenheit häufiger vorab testen konnte.
kommentar unter einem yt-video. screenshot gitbts ein paar seiten zurück.

Linmoum
2020-08-24, 19:41:24
In welchem Video oder Artikel hat Igor das nochmal erwähnt?

Das sollte dann Alphacool sein, da er deren Wakü Zeugs, für ein letztes Feedback zwecks Nachbesserungen, in der Vergangenheit häufiger vorab testen konnte.War iirc das Video zum heißen Speicher, wie Screemer allerdings sagt in den Kommentaren. Kann mir aber nicht vorstellen, dass es von Alphacool derart früh schon selbst Prototypen gibt.

mironicus
2020-08-24, 19:49:16
Wird es dann am 1. September schon Tests geben?

Emil_i_Lönneberga
2020-08-24, 19:52:54
War iirc das Video zum heißen Speicher, wie Screemer allerdings sagt in den Kommentaren. Kann mir aber nicht vorstellen, dass es von Alphacool derart früh schon selbst Prototypen gibt.

Danke, habe das im Kommentarbereich unterhalb des youtube Videos auch gerade gefunden:

71245

EKWB beteiligt sich auf der Facebook Seite auch am Nvidia #ULTIMATE COUNTDOWN. Dazu im Kommentarbereich:

71246

r3ptil3
2020-08-24, 19:55:02
Wird es dann am 1. September schon Tests geben?

Wenn man Igor glauben schenken will, dann ab Mitte September.

gedi
2020-08-24, 20:12:59
@Lowkey
1400$ und 1400€ sind doch min 200€ Aufschlag

unl34shed
2020-08-24, 20:17:57
Dollar Preise sind immer ohne Steuer.

cR@b
2020-08-24, 20:40:37
Dollar Preise sind immer ohne Steuer.

Jo und ohne Deutschland Deppenaufschlag :D

Sunrise
2020-08-24, 20:47:58
Frag mich echt, warum soviele so ein mickriges NT eingebaut haben... ich hab mir schon damals immer die halb-passiven gegönnt, das ging aber nur, wenn unter 50% Last ausreichend Watt für den Rechner bereitgestellt werden können. Und gerade wenn man übertaktet braucht man Spielraum und ein stabiles NT.

Die 3090 ist doch eine vollkommen andere Zielgruppe, wer das Beste will, der spart sicher nicht am NT.

Dieser “Alleingang” von NV mag nicht optimal sein (weil evtl. nur in der Founders), aber ich kann diesen unnötigen Kabelsalat (3x 8 Pin? Gehts noch?) nicht ab. Insofern ist die Lösung nicht weniger als genial, leider aber wird das wohl etwas schwierig werden, das durchzusetzen.

Thunder99
2020-08-24, 21:10:12
Ich finde ein 500W+ Netzteil nicht mickrig, sondern angemessen.

Ich erwarte schon, dass unter RT die 3070(Ti) deutlich mehr Bums hat als 2080Ti. Ansonsten heißt es weiter warten...

Linmoum
2020-08-24, 21:11:51
Ich denke mal, dass selbst bei High-End-GPUs mehr Leute ihre Karten ohne OC betreiben, als mit. Und dann reicht ja normal auch ein 550W Netzteil, die 2080Ti FE hatte ja nur eine TDP von 260W. Da ist (bzw. war) genug Platz, selbst für noch moderates OC.

MiamiNice
2020-08-24, 21:27:59
Du meinst 550W für die CPU, Mainboard und Peripherie? Für die GPU nutzt man dann ein externes NT? ^^

MiamiNice, wo sind deine Leaks vom Wochenende?


Keine Ahnung ob neu. Auf YT gabs Videos mit Balken.

High End mit 500W Netzteil (Qualität) soll gehen, das ist mein Anspruch und wird bisher auch gerecht (1080Ti Besitzer). ;)

So ein NT lötet man eigentlich auseinander und hängt sich die Bauteile an die Wand. Also zumindest wenn man auf Bauteile an der Wand steht. In den PC einbauen tut man so ein Handyladegerät eher nicht.

Aber die 3070 oder 3080 wird kaum mehr Bums haben als ne 2080 TI. Also kannst du die ja auch auslassen. :tongue:

Ich habe Balken gesehen wo eine 3070 eine 2080S zersägt und eine 3070TI ne 2080TI knapp im Regen stehen lässt. RTX off.
Aber den Wahrheitsgehalt kann ich nicht beurteilen.

https://abload.de/img/asdiskqe.png
https://abload.de/img/asd3444j89.png
https://abload.de/img/asd3a3k2a.png

Linmoum
2020-08-24, 21:32:13
Nein, wieso? Siehe 2080Ti, die FE hat <=280W real verbraten und damit ist noch massig Platz bis 550W gewesen für alles andere. Selbst moderates OC kriegst du damit mit einem 550W PSU hin.

Man sollte nicht nur in (s)einer Blase leben. ;) Selbst da oben laufen genug Günthers rum, die keinen Schimmer von Hardware haben und sich das Teil nur einbauen (lassen) weil es schnell ist und schon damit überfordert sind, den AB zu öffnen.

cR@b
2020-08-24, 21:32:22
Ich hab zu 1080 Ti Zeiten bereits ein Corsair HX750i rein geklatscht. Da ich nie mehr Sli nutzen werde, habe ich auf 1000W+ verzichtet. Bin mir sicher, dass meine 750W locker für die 3090 reichen.

Ex3cut3r
2020-08-24, 21:38:32
Erstaunlich wie viele ja doch einen Kauf planen, trotz solcher eher negativen News von 1999€ UVP, 350W+ Heizung, 12 Pin Strom Adapter Kabeln, Lärm?! und nur angeblichen 30% Leistungsgewinn....anscheinend macht Nvidia weiterhin alles richtig. Da frage ich mich schon wo die Grenze ist (Nvidia sicherlich auch) bis die meisten endlich sagen, stop schluss....müssen es 3000€? Für die 3080Ti sein? Oder wäre man immer noch bereit dazu? Seit ihr Süchtig vlt. ? ^^

MiamiNice
2020-08-24, 21:42:32
Seit ihr Süchtig vlt. ? ^^

Ne, Gamer :tongue:

Nein, wieso? Siehe 2080Ti, die FE hat <=280W real verbraten und damit ist noch massig Platz bis 550W gewesen für alles andere. Selbst moderates OC kriegst du damit mit einem 550W PSU hin.


Wenn der CPU schon alleine 250Watt nuckelt und das MB noch mal gerne um die 50Watt, wird es aber auch mit einer 2080TI ziemlich eng bei 550W. Nicht jeder hat einen Ryzen, die meisten eher nicht, und heutige Mainboards betreiben die Intels ootb ziemlich unlimited. Und da sind die Spannungsspitzen der GPU nicht mal mit eingerechnet + Kleinkram wie Ram, SSDs, USB Geräte etc. pp.

Sunrise
2020-08-24, 21:43:10
Erstaunlich wie viele ja doch einen Kauf planen, trotz solcher eher negativen News von 1999€ UVP, 350W+ Heizung, 12 Pin Strom Adapter Kabeln, Lärm?! und nur angeblichen 30% Leistungsgewinn....anscheinend macht Nvidia weiterhin alles richtig. Da frage ich mich schon wo die Grenze ist (Nvidia sicherlich auch) bis die meisten endlich sagen, stop schluss....müssen es 3000€? Für die 3080Ti sein? Oder wäre man immer noch bereit dazu? Seit ihr Süchtig vlt. ? ^^
30% Leistungsgewinn sicher nicht, wir reden hier über min. 50-75% ohne OC.

monstar-x
2020-08-24, 21:43:55
Erstaunlich wie viele ja doch einen Kauf planen, trotz solcher eher negativen News von 1999€ UVP, 350W+ Heizung, 12 Pin Strom Adapter Kabeln, Lärm?! und nur angeblichen 30% Leistungsgewinn....anscheinend macht Nvidia weiterhin alles richtig. Da frage ich mich schon wo die Grenze ist (Nvidia sicherlich auch) bis die meisten endlich sagen, stop schluss....müssen es 3000€? Für die 3080Ti sein? Oder wäre man immer noch bereit dazu? Seit ihr Süchtig vlt. ? ^^

Planen kann man vieles, von 10 Leuten die es vorhaben kaufen dann einer oder zwei. Weil das nötige Kleingeld fehlt, die Leistung doch nicht so Gewaltig ist.


Du sprichst von 30%, MiamiNice spricht davon dass eine 3070 eine 2080Ti zersägt. Dann müsste eine 3090 gute 70% schneller sein.

Kann ich mir nur schwer vorstellen, diese Wunderzeiten sind vorbei.

soLofox
2020-08-24, 21:45:11
Was heisst süchtig, wenn man die Kohle hat? Andere tunen ihr Auto für tausende Euro. 2000€ sind für manche nicht so viel Geld. Vermutlich würden einige sogar erst bei 4000€ ins überlegen kommen.

Edgecrusher86
2020-08-24, 21:45:54
Also 2000€ würde ich zum Beispiel nicht zahlen, auch nicht, wenn die Karte um 100% zulegen würde.

1400-1650 wäre noch OK [1638 Euro habe ich für das SLI 2017 gezahlt] wenn man wie ich Turing ausgelassen hat und nun sowohl die Rasterleistung, als auch der VRAM sich verdoppeln [bzw. +118%] . RT ist für mich nur ein Schmankerl, das ich (noch) nicht haben muss.

Ich werde es in Zukunft auch wieder so handhaben - erst aufrüsten, wenn annähernd die Leistung verdoppelt wird - also Minimum +80% im Mittel. Soviel zockt man ja auch nicht mehr wie früher, dass sich weniger halbwegs lohnen würde.

unl34shed
2020-08-24, 21:47:24
Ich habe Balken gesehen wo eine 3070 eine 2080S zersägt und eine 3070TI ne 2080TI knapp im Regen stehen lässt. RTX off.
Aber den Wahrheitsgehalt kann ich nicht beurteilen.


Nach Aktueller Speku sind es 48 vs 68 SMs, also +41,6% für die 2080Ti.
Abzüglich des 8,5% höheren Takt für die 3070Ti in dem Graph müsste Ampere +30% pro SM schneller werden und dann sind da noch 20% weniger Bandbreite. :confused:

E:
Und dann hast du die 3080, bei der es nur noch +10% pro SM sein sollen und das trotz deutlich höherer Bandbreite???

Ex3cut3r
2020-08-24, 21:47:58
^^ Natürlich wurde ein aktiver Süchtiger, nie zugeben, das es süchtig ist. Könnt ihr selbst draußen auf der Straße (Hauptbahnhof) testen. ;D

Naja, wenigstens schadet HW Sucht nicht. (hoffentlich)

Lowkey
2020-08-24, 21:50:18
Bei dem Hype geht der Konsumverzicht einfach nicht ;)

MS Flusi schafft nicht einmal die 60fps in 4k.

Ex3cut3r
2020-08-24, 21:52:21
MS Flusi schafft nicht einmal die 60fps in 4k.

Daran wird Ampere auch nix ändern. Da man mit DX11 total CPU Limitiert ist, aber das weißt du doch eh?!

Also mich haben die aktuellen Meldungen, vom Preis, Stromverbrauch, Monster Kühler, Lautstärke?! eher abgeschreckt. Ich schau mir das zum rls. an...und dann wird max etwas für 500-750€ geholt. Was ich dafür kriege, schau ich dann, laut aktuellen Gerüchten eine 3070 mit 16GB.

Geächteter
2020-08-24, 21:52:42
;D ;D ;D

Da wird bestimmt noch mehr kommen. :D
Der Name Ampere ist ja Programm. Da lässt sich viel draus machen.
Wenn das Silizium halt schrottig ist, müssen halt mehr Ampere zur Kompensation durchgejagt werden.

MiamiNice
2020-08-24, 21:57:02
Nett zu lesen wie der roten Fraktion im Vorfeld schon der Hintern zittert :biggrin:
Ich glaub das wird ein Mordsteil, auch auf dem ollen 10er Prozess.
Mich würde es nicht wundern wenn sich BN gerade mal mit ner 3070TI anlegen kann, RTX off.
Mit RTX on wird BN imo kaum noch Land sehen. Quasi unter "ferner liefen".
So zumindest mein aktueller Spekulatius.

RLZ
2020-08-24, 21:57:55
und nur angeblichen 30% Leistungsgewinn....
Ach... Das werden bestimmt -30% Leistung bei doppelter Leistungsaufnahme :D

Linmoum
2020-08-24, 22:00:25
Nett zu lesen wie der roten Fraktion im Vorfeld schon der Hintern zittert :biggrin:
Ich glaub das wird ein Mordsteil, auch auf dem ollen 10er Prozess.
Mich würde es nicht wunder wenn sich BN gerade mal mit ner 3070TI anlegen kann, RTX off.
Mit RTX on wird BN imo kaum noch Land sehen.Du warst doch vor Wochen noch maßlos enttäuscht nach den ganzen Gerüchten zu Ampere, die für dich enttäuschend klangen. Seitdem hat sich an diesen doch nichts zum positiven gewendet, woher der Sinneswandel? :uponder:

MiamiNice
2020-08-24, 22:11:14
Du warst doch vor Wochen noch maßlos enttäuscht nach den ganzen Gerüchten zu Ampere, die für dich enttäuschend klangen. Seitdem hat sich an diesen doch nichts zum positiven gewendet, woher der Sinneswandel? :uponder:

Eine menge kleine Details. Die Dinge zu denen unser Pixel eben nichts geschrieben hat, obwohl sie hier diskutiert wurden. Die aktuellen Balken. Die Kompromisslosigkeit³ (genau mein Ding). Ich finde es geil wenn man Netzteile mal endlich nutzt und die nicht vor Langeweile nicht mal den Lüfter anwerfen. Der neue Stecker, der auf jeder Ampere (auch Partnerkarte) zwingend verbaut sein sollte, imo. Und ein paar andere kleine Dinge zwischen den Zeilen.
Außerdem bin ich eh ein grüner Fanboi und die Enttäuschung über den Prozess deckelt die Kompromisslosigkeit der 3090.

ianm
2020-08-24, 22:17:14
Nett zu lesen wie der roten Fraktion im Vorfeld schon der Hintern zittert :biggrin:
Ich glaub das wird ein Mordsteil, auch auf dem ollen 10er Prozess.
Mich würde es nicht wundern wenn sich BN gerade mal mit ner 3070TI anlegen kann, RTX off.
Mit RTX on wird BN imo kaum noch Land sehen. Quasi unter "ferner liefen".
So zumindest mein aktueller Spekulatius.
Keine Ahnung was du nimmst, Glückwunsch zur eigenen Realität.

Kaum einer hat einen Ryzen? Schau nochmal genauer hin, umgekehrt wird ein Schuh draus. Ampere räumt alles ab? Abwarten. Laut Gerüchteküche geht Nvidia eher der Kackstift, sonst würden sie nicht solche Geschütze auffahren. Schlechter Prozess, massiver Stromverbrauch, kurz vorher nochmal Speicher verdoppeln - mit allen Problemen die das nach sich zieht.

Wer schlau ist, wartet bis Ende des Jahres. Preise werden sich einpendeln und spätestens 2021 werden die Preise hoffentlich fallen, wenn Intel in den GPU Markt einsteigt. Nvidias Prio sind schon länger keine Gamer mehr, aber solange die so dumm sind und jeden aufgerufenen Preis zahlen wollen, nur zu.

N0rG
2020-08-24, 22:18:15
Ich habe Balken gesehen wo eine 3070 eine 2080S zersägt und eine 3070TI ne 2080TI knapp im Regen stehen lässt. RTX off.
Aber den Wahrheitsgehalt kann ich nicht beurteilen.

https://abload.de/img/asdiskqe.png
https://abload.de/img/asd3444j89.png
https://abload.de/img/asd3a3k2a.png

War irgendwie klar das das jetzt die Runde macht :D
siehe hier:

Aus dem Chiphell-Forum (https://www.chiphell.com/forum.php?mod=viewthread&tid=2252375). Basiert auf "bekannten Information", sprich es werden auf Basis der aktuellen Gerüchtelage Hochrechnungen angestellt. Typische fernöstliche Spielerei, bitte nicht ernst nehmen.

https://ftp.bmp.ovh/imgs/2020/08/eaa5ce4a2f403fb6.png

dargo
2020-08-24, 22:19:48
Der ist da echt drauf reingefallen? ;D :popcorn:

Linmoum
2020-08-24, 22:26:00
Kennst du doch. Wenn in China jemand Balken bastelt, gerät die restliche Welt in Ekstase. :freak:

Rincewind
2020-08-24, 22:27:08
also, wenn ich die Zielgruppe einer 3090 wäre, dann würde ich mir ein großes Gehäuse, ein passendes Netzteil, eine Wasserumgebung + zusätzliches Gedöns gönnen. Wenn ich schon 1400€ für ne fette Grafikkarte ausgebe, dann muss auch die Infrastruktur passen. Bei sowas sollte man aus dem Vollen schöpfen. Nicht wirklich günstig, aber why not. Manch einer gibt auch viel Geld für andere Hobbys aus.
Ich bin aber nicht die Zielgruppe. :)

MiamiNice
2020-08-24, 22:27:17
Keine Ahnung was du nimmst, Glückwunsch zur eigenen Realität.

Kaum einer hat einen Ryzen? Schau nochmal genauer hin, umgekehrt wird ein Schuh draus. Ampere räumt alles ab? Abwarten. Laut Gerüchteküche geht Nvidia eher der Kackstift, sonst würden sie nicht solche Geschütze auffahren. Schlechter Prozess, massiver Stromverbrauch, kurz vorher nochmal Speicher verdoppeln - mit allen Problemen die das nach sich zieht.

Wer schlau ist, wartet bis Ende des Jahres. Preise werden sich einpendeln und spätestens 2021 werden die Preise hoffentlich fallen, wenn Intel in den GPU Markt einsteigt. Nvidias Prio sind schon länger keine Gamer mehr, aber solange die so dumm sind und jeden aufgerufenen Preis zahlen wollen, nur zu.

DIY sind 2% vom Gesamtmarkt. Kaum jemand hat einen Ryzen (Punkt)

War irgendwie klar das das jetzt die Runde macht :D
siehe hier:

IK

Der ist da echt drauf reingefallen? ;D :popcorn:

Abwarten, Tee trinken :wink:

dargo
2020-08-24, 22:29:25
Kennst du doch. Wenn in China jemand Balken bastelt, gerät die restliche Welt in Ekstase. :freak:
Der Witz an der ganzen Sache ist aber, selbst wenn die Balken echt wären wäre die 3090 nur 41% schneller als die 2080TI. Das wäre die Enttäuschung schlechthin mit den bekannten Rahmenbedingungen. Und sowas "feiert" er? Zu geil... :D

unl34shed
2020-08-24, 22:32:30
Du hast die 12% bessere Perf/W vergessen (angenommen die 350W stimmen/reichen)

E: Zum Glück war man so Kompromisslos und hat den schlechteren Prozess genommen, um auch gleich nen größeren Kühler verbauen zu können ähm. müssen. Aber dafür kann man für das gesparte Geld wegen den günstigeren Prozess ja mehr verlangen.

[MK2]Mythos
2020-08-24, 22:32:53
Mensch Miami, brems dich doch mal ein bisschen. Das kann sich ja kein halbwegs klar denkender Mensch ansehen. Wie soll das bloß werden wenn auf deine Ekstase die bittere Realität zuschlägt?

Rampage 2
2020-08-24, 22:34:27
Mich würde es nicht wundern wenn sich BN gerade mal mit ner 3070TI anlegen kann, RTX off.

Mit RTX on wird BN imo kaum noch Land sehen. Quasi unter "ferner liefen".


Sorry, aber das ist nun wirklich BS, was du da schreibst - sofern BigNavi tatsächlich über 80 CUs verfügt und wirklich mit HBM2e oder 512Bit GDDR6 kommt, dann kann man (zusammen mit Architekturverbesserungen und/oder höherem Takt) locker von der doppelten Leistung eines 5700XT sprechen.

Man kann also mit ziemlicher Sicherheit davon ausgehen, dass BN eine 3080 übertrifft oder wenigstens gleichzieht - mit etwas Glück sogar auf Augenhöhe mit der 3090!

Und was RT angeht: sei nicht überrascht, falls sich AMD's RT-Implementation derjenigen von NV als überlegen herausstellen sollte;)

R2

ianm
2020-08-24, 22:35:26
DIY sind 2% vom Gesamtmarkt. Kaum jemand hat einen Ryzen (Punkt)


Viel Glück deine 3090 in ein Notebook zu verfrachten. Dir ist schon klar in welchem Forum/Markt wir uns bewegen? lmao

Hauwech
2020-08-24, 22:48:44
Sorry, aber das ist nun wirklich BS, was du da schreibst - sofern BigNavi tatsächlich über 80 CUs verfügt und wirklich mit HBM2e oder 512Bit GDDR6 kommt, dann kann man (zusammen mit Architekturverbesserungen und/oder höherem Takt) locker von der doppelten Leistung eines 5700XT sprechen.

Man kann also mit ziemlicher Sicherheit davon ausgehen, dass BN eine 3080 übertrifft oder wenigstens gleichzieht - mit etwas Glück sogar auf Augenhöhe mit der 3090!

Und was RT angeht: sei nicht überrascht, falls sich AMD's RT-Implementation derjenigen von NV als überlegen herausstellen sollte;)

R2

Bei AMD wird es genauso Probleme mit RT geben (Einbrüche) wie bei nV. Wurde schon von dem Typen von MS, Goossen? oder wie der heisst bei der Vorstellung der XBox gesagt.

Hauwech
2020-08-24, 22:54:12
Viel Glück deine 3090 in ein Notebook zu verfrachten. Dir ist schon klar in welchem Forum/Markt wir uns bewegen? lmao

Es gibt noch nicht mal eine 2080Ti oder Titan im Notebook. Warum sollte also die 3090 NB tauglich sein? DIY ist nicht Notebook.

ianm
2020-08-24, 23:01:19
Nochmal lesen und versuchen den Zusammenhang mit Miamis Aussage zu verstehen.

MiamiNice
2020-08-24, 23:31:32
Sorry, aber das ist nun wirklich BS, was du da schreibst - sofern BigNavi tatsächlich über 80 CUs verfügt und wirklich mit HBM2e oder 512Bit GDDR6 kommt, dann kann man (zusammen mit Architekturverbesserungen und/oder höherem Takt) locker von der doppelten Leistung eines 5700XT sprechen.

Man kann also mit ziemlicher Sicherheit davon ausgehen, dass BN eine 3080 übertrifft oder wenigstens gleichzieht - mit etwas Glück sogar auf Augenhöhe mit der 3090!

Und was RT angeht: sei nicht überrascht, falls sich AMD's RT-Implementation derjenigen von NV als überlegen herausstellen sollte;)

R2

Das sehe ich absolut nicht, also das fette. Der Rest ist eh klar. Ich denke die Power von Ampere wird noch massiv unterschätzt. Wir sprechen uns da bei Release wieder.

Viel Glück deine 3090 in ein Notebook zu verfrachten. Dir ist schon klar in welchem Forum/Markt wir uns bewegen? lmao

:rolleyes:

SKYNET
2020-08-24, 23:38:43
Das sehe ich absolut nicht, also das fette. Der Rest ist eh klar. Ich denke die Power von Ampere wird noch massiv unterschätzt. Wir sprechen uns da bei Release wieder.



:rolleyes:


wäre ich mir nicht so sicher... du warst doch einer derjenigen die auch auf 50% auf eine 1080Ti zur 2080Ti spekuliert hatten... wärend ich von anfang an sagte das sind 30%(und recht behalten sollte, wie fast immer ;) )

MiamiNice
2020-08-24, 23:41:25
Dafür ist der Thread da.
Und btw. meintest Du auch Du zersägst meinen 9900k mit Deiner CPU Attrappe :tongue:
Ich spekuliere noch auf die gewisse "secret sauce" bei Ampere.

OgrEGT
2020-08-24, 23:43:34
Stimmt... da war ja noch was...

[MK2]Mythos
2020-08-24, 23:47:03
(...)
Ich spekuliere noch auf die gewisse "secret sauce" bei Ampere. Der horn der NVIDIA Fraktion. :D Der Wundertreiber wird grandios!

davidzo
2020-08-24, 23:49:05
DIY sind 2% vom Gesamtmarkt. Kaum jemand hat einen Ryzen (Punkt)

Was jemand hat ist egal, da sind ja auch CPUs von 2015,16,17 drin. Was zählt ist was jemand gerade anschafft, was aktuell über die Ladentheke geht.
Im Retail kannst du verkaufte Intels aktuell an einer Hand abzählen. Und der Retail mag von der Stückzahl nur ein einstelliger Betrag des Gesamtmarkts sein, nicht jedoch von der Marge, da ist retail plötzlich sehr groß.
Der OEM Markt ist zwar auch riesig, hat aber viel geringere Margen durch die OEMrabatte die Intel traditionell abdrücken muss. Institutionelle Käufer zahlen keine Retail Margen. Außerdem sieht man da nur noch so gut aus weil es dort langfristige Lieferverträge gibt. Wenn eine CPU an den OEM geht heißt das noch lange nicht dass sie auch schon dem Endkunden verkauft wurde. Den Effekt sieht man also teilweise erst in 1-2 Quartalen.




Abwarten, Tee trinken :wink:

genau, ich lache nämlich richtig :biggrin: wenn du dir zum Launch eine 3080 10GB für 899€ holst und 2monate später wird die schon von dem Big Navi Salvage mit 12/16GB für 549€ versägt.

Lawmachine79
2020-08-24, 23:49:38
genau, ich lache nämlich richtig :biggrin: wenn du dir zum Launch eine 3080 10GB für 899€ holst und 2monate später wird die schon von dem Big Navi Salvage mit 12/16GB für 549€ versägt.
Ja, sowas ist ja in den letzten Jahren ständig passiert...

Was heisst süchtig, wenn man die Kohle hat? Andere tunen ihr Auto für tausende Euro. 2000€ sind für manche nicht so viel Geld. Vermutlich würden einige sogar erst bei 4000€ ins überlegen kommen.
Ich wollt's grad sagen - wenn ich mir ansehe, wieviele Hausfrauenautos auf 2000€-Felgen rumfahren...

Sorry, aber das ist nun wirklich BS, was du da schreibst - sofern BigNavi tatsächlich über 80 CUs verfügt und wirklich mit HBM2e oder 512Bit GDDR6 kommt, dann kann man (zusammen mit Architekturverbesserungen und/oder höherem Takt) locker von der doppelten Leistung eines 5700XT sprechen.

Man kann also mit ziemlicher Sicherheit davon ausgehen, dass BN eine 3080 übertrifft oder wenigstens gleichzieht - mit etwas Glück sogar auf Augenhöhe mit der 3090!

Und was RT angeht: sei nicht überrascht, falls sich AMD's RT-Implementation derjenigen von NV als überlegen herausstellen sollte;)

R2
Ja, von diesen feuchten Träumen liest man vor jeder neuen AMD-Karte; die Lebenserfahrung zeigt aber was anderes; ich habe hier die Tage mal gefragt, wann denn AMD mal die Spitzenkarte hatte, das war glaube ich irgendwann 2013 zur Zeit der 780TI/Titan die R9 290X und da war es sogar noch knapp. Seit 7 Jahren wartet man jetzt auf eine gute AMD-Karte. Da muss man sich über teure NV-Karten nicht wundern, so läuft es in einem Markt ohne Wettbewerb.

MiamiNice
2020-08-24, 23:54:00
genau, ich lache nämlich richtig wenn du dir zum Launch eine 3080 10GB für 899€ holst und 2monate später wird die schon von dem Big Navi Salvage mit 12/16GB für 549€ versägt.

Da kannst Du sogar richtig ablachen den es wird zum Release eine 3090 bei mir. Sei Dir gegönnt :wink:

Und was den Rest angeht: Ich schrieb kaum jemand hat einen Ryzen. Gemessen an allen PCs auf der Welt, ist das so. Oder möchte da jemand wiedersprechen?!? Nein? Danke ;)

Ex3cut3r
2020-08-24, 23:59:43
Was hat Ryzen mal wieder hier suchen? Dein AMD Bashing immer mal wieder, ist ziemlich lächerlich, hast du das wirklich nötig?

MiamiNice
2020-08-25, 00:02:18
Ich habe kein AMD gebasht, ich ziehe im Dez, selber los und kaufe einen Zen3. Die roten hier sind nur alle mal wieder im Alarmzustand.

monstar-x
2020-08-25, 00:28:33
Da kannst Du sogar richtig ablachen den es wird zum Release eine 3090 bei mir. Sei Dir gegönnt :wink:

Und was den Rest angeht: Ich schrieb kaum jemand hat einen Ryzen. Gemessen an allen PCs auf der Welt, ist das so. Oder möchte da jemand wiedersprechen?!? Nein? Danke ;)

Gemessen an allen PCs auf der Welt, ist Intel genauso bedeutungslos wie AMD (in reinen Stückzahlen betrachtet).

In über 75-85% der "Personal Computer" sind keine x86 verbaut sondern Cortex-Architekturen.

Aber können wir jetzt wieder zu Ampere zurück kommen.
Danke :-)

Rampage 2
2020-08-25, 01:44:11
Ja, von diesen feuchten Träumen liest man vor jeder neuen AMD-Karte; die Lebenserfahrung zeigt aber was anderes; ich habe hier die Tage mal gefragt, wann denn AMD mal die Spitzenkarte hatte, das war glaube ich irgendwann 2013 zur Zeit der 780TI/Titan die R9 290X und da war es sogar noch knapp. Seit 7 Jahren wartet man jetzt auf eine gute AMD-Karte. Da muss man sich über teure NV-Karten nicht wundern, so läuft es in einem Markt ohne Wettbewerb.


GCN is over! RDNA is the future!

Das, was du schreibst war bis 2019 (und davor) der Fall. Entweder war die GCN-Architektur schlecht (was ich eher nicht glaube;)) oder aber sie war keine schlechte Architektur, aber AMD war unfähig oder hatte nicht die nötigen Ressourcen (was ich viel eher glaube...), um die Rohleistung in echte Mehrleistung auf die Straße zu bringen.

Mitte 2019 brachte AMD mit Navi10 die RDNA-Architektur ans Licht der Welt und das war ein Game-Changer, der alles änderte - eine Navi-Recheneinheit war nun annähernd so effizient (also Performance pro Teraflop) wie eine Turing-Recheneinheit und RDNA2/Navi20 wird da vermutlich noch eine ordentliche Schippe drauf legen. Davon konnte man bei GCN nur träumen...

Das einzige, was AMD jetzt noch tun muss, ist den Chip zu verbreitern und dabei darauf achten, dass die Performance mit der Verbreiterung (halbwegs) proportional skaliert - an dieser Stelle kommen die Architekturverbesserungen von RDNA2 ggü. RDNA1 ins Spiel. Ich halte doppelte 5700 XT-Leistung bei 80 CUs durchaus für realistisch:smile:

Ich wette, Nvidia hat schon letztes Jahr kalte Füße bekommen, als klar wurde, dass RDNA mehr oder weniger gleich schlagkräftig pro Recheneinheit ist, wie Turing:biggrin: (denn sie wissen, was passiert, wenn AMD einen solchen Chip massiv verbreitert;D)

R2

Hakim
2020-08-25, 03:42:23
Echt anstrengend geworden wenn man ab und an hier rein schaut um bezüglich Ampere auf den neusten stand zu sein.

Ich frage mich wie wohl der Kühler der 3070er wird, genau so wie der 80er oder der Kosten wegen etwas spartanischer?

NC
2020-08-25, 05:03:09
Das, was du schreibst war bis 2019 (und davor) der Fall. Entweder war die GCN-Architektur schlecht (was ich eher nicht glaube;)) oder aber sie war keine schlechte Architektur, aber AMD war unfähig oder hatte nicht die nötigen Ressourcen (was ich viel eher glaube...), um die Rohleistung in echte Mehrleistung auf die Straße zu bringen.
Kannst du das ein bisschen ausführen? Wie sollte AMD diese starke Ineffizienz (Papier-Teraflop zu Spiele-FPS), ausserhalb der Architekturveränderung, mit Ressourcen verbessern?


Mitte 2019 brachte AMD mit Navi10 die RDNA-Architektur ans Licht der Welt und das war ein Game-Changer, der alles änderte - eine Navi-Recheneinheit war nun annähernd so effizient (also Performance pro Teraflop) wie eine Turing-Recheneinheit und RDNA2/Navi20 wird da vermutlich noch eine ordentliche Schippe drauf legen. Davon konnte man bei GCN nur träumen... Ich glaube mit "Gut" meinte Lawmachine79 "Leistungsstark", also etwas, was mit dem aktuellen Stand der Konkurenz mithalten kann, wenn wir Dinge wie Ray Tracing und DLSS ignorieren. (Also nicht pro Teraflop, sondern auch wirklich mit FPS was du bei NVidia kaufen kannst, z.B. RTX 2080 und Ti). Da hat AMD nun wirklich sehr lange nichts mehr geliefert.


Das einzige, was AMD jetzt noch tun muss, ist den Chip zu verbreitern und dabei darauf achten, dass die Performance mit der Verbreiterung (halbwegs) proportional skaliert - an dieser Stelle kommen die Architekturverbesserungen von RDNA2 ggü. RDNA1 ins Spiel. Ich halte doppelte 5700 XT-Leistung bei 80 CUs durchaus für realistisch:smile:Gerade das war in der Vergangenheit leider AMDs Achillesferse. Im mittleren Bereich liefern sie gute GPUs (Die dann auch entsprechend sehr beliebt bei Minern waren). Aber high-end, ich glaube da war die 7970 ein "Game-Changer".


Ich wette, Nvidia hat schon letztes Jahr kalte Füße bekommen, als klar wurde, dass RDNA mehr oder weniger gleich schlagkräftig pro Recheneinheit ist, wie Turing:biggrin: (denn sie wissen, was passiert, wenn AMD einen solchen Chip massiv verbreitert;D)
Wie sehr sie die Konkurenz fürchten wird sich signifikant in den Preisen niederschlagen, denn wie wir bei AMD sehen, geht es nicht "beste GPU von AMD gegen beste GPU von NVidia", sondern schlicht Leistung/Euro.

Wenn du Recht hast, freue ich mich auf stabile Preise und top RT-Leistung.

Cubitus
2020-08-25, 06:19:22
Da kannst Du sogar richtig ablachen den es wird zum Release eine 3090 bei mir. Sei Dir gegönnt :wink:

Und was den Rest angeht: Ich schrieb kaum jemand hat einen Ryzen. Gemessen an allen PCs auf der Welt, ist das so. Oder möchte da jemand wiedersprechen?!? Nein? Danke ;)

Also ich hab nen Ryzen, aber es wird auch die 3090.
Neues Netzteil ist schon auf dem Weg xD..

Seasonic P850 Watt Titanium.

Jetzt soll mir Seasonic noch sagen, wo und wann es Ihr tolles Kabel zu kaufen gibt und dann dürften sämtliche Hürden genommen sein..
Auf Adapter habe ich keine Lust.

Zum Ryzen allg:
Intel lässt gerade Federn, lt Steam haben bereits ein Viertel AMD Prozessoren.. Tendenz ist steigend, mal abwarten.

Leonidas
2020-08-25, 07:19:50
1400$ und 1400€ sind doch min 200€ Aufschlag

Dollar Preise sind immer ohne Steuer.


Und abzüglich Umrechnungskurs. Und der bestimmt letztlich, wo es herauskommt. Bei günstigem Kurs ist der US-Listenpreis (ohne VAT) gleich dem deutschen Straßenpreis (mit MwSt). Und wer sich zurückerinnern kann: Zu Zeiten von USD/EUR von 1,60 war die Hardware in DE logischerweise deutlich niedriger angesetzt, weil profitierend vom günstigen Umrechnungskurs.





Da frage ich mich schon wo die Grenze ist (Nvidia sicherlich auch) bis die meisten endlich sagen, stop schluss....müssen es 3000€? Für die 3080Ti sein? Oder wäre man immer noch bereit dazu? Seit ihr Süchtig vlt. ? ^^


Wahrscheinlich gilt hierzu inzwischen: So lange der Name unterhalb dem Preis liegt, sieht es günstig aus. 4090 unter $3090? Gekauft. RTX 4090 unter ...




Ich frage mich wie wohl der Kühler der 3070er wird, genau so wie der 80er oder der Kosten wegen etwas spartanischer?


Sollte klar kleiner ausfallen, der Chip ist mit GA104 ein anderer, kleineres Speicherinterface, deutlich weniger CU (48). Sicherlich Klasse 220W oder ähnlich.

prinz_valium_2
2020-08-25, 07:24:34
Gemessen an allen PCs auf der Welt, ist Intel genauso bedeutungslos wie AMD (in reinen Stückzahlen betrachtet).

In über 75-85% der "Personal Computer" sind keine x86 verbaut sondern Cortex-Architekturen.

Aber können wir jetzt wieder zu Ampere zurück kommen.
Danke :-)


Was hast du denn bitte für eine Definition von PC?

Natürlich ist die Aussage falsch.
Selbst wenn du Smartphones dazu rechnest, ist es gerade Mal über 1:2

IOT is kein Personal computer.
Die Aussage ist also völliger Quatsch.

Leonidas
2020-08-25, 07:29:01
Smartphones sind keine "Personal Computer", sondern "Compute Devices". Und darunter fällt leider dann auch noch sehr viel mehr. Eventuell trifft es eher auf "Personal Compute Devices" zu, da fallen Smarties und PC zusammen rein, aber IoT nicht.

monstar-x
2020-08-25, 08:29:29
Smartphones sind keine "Personal Computer", sondern "Compute Devices". Und darunter fällt leider dann auch noch sehr viel mehr. Eventuell trifft es eher auf "Personal Compute Devices" zu, da fallen Smarties und PC zusammen rein, aber IoT nicht.

Und wieso ist deiner Meinung nach ein Smartphone/Tablet kein Personal Computer?
Was Unterscheidet deiner Meinung nach einen "Personal Compute Devices" und "Personal Computer"?

Was hast du denn bitte für eine Definition von PC?



"Ein Personal Computer (engl., zu dt. „persönlicher Rechner“, kurz PC) ist ein Mehrzweckcomputer, dessen Größe und Fähigkeiten ihn für den individuellen persönlichen Gebrauch im Alltag nutzbar machen"

Und genau dass ist gegeben.

Was kannst du mit einem Smartphone nicht machen, was du mit einem PC kannst. So lange ich über Admin/Root rechte verfüge, kann ich alles machen, genauso wie mit den GNU/Linux Server.

Ich kann alle möglichen Devices anschließen, Monitore ansteuern, Programme nutzten oder schreiben die ich benötige.

(Wir sollten jetzt natürlich nicht zu sehr OT gehen), sondern bei Ampere bleiben

Lowkey
2020-08-25, 08:33:41
Die Preise für Germany werden nicht logisch 1:1 umgerechnet, sondern fast garantiert 1.) auf psychologische Marken wie runde Preise gesetzt und 2.) setzen die Händler bei starker Nachfrage einfach die Preise hoch.

Es würde mich ja nicht wundern, wenn die -3% Mehrwertsteuer keinen Einfluss auf den Endpreis haben.

MiamiNice
2020-08-25, 08:34:08
Ich wette, Nvidia hat schon letztes Jahr kalte Füße bekommen, als klar wurde, dass RDNA mehr oder weniger gleich schlagkräftig pro Recheneinheit ist, wie Turing:biggrin: (denn sie wissen, was passiert, wenn AMD einen solchen Chip massiv verbreitert;D)

R2

Was passiert den?
Wie wir alle wissen kaufen die Gamer sogar bei Gleichstand eher grün als rot?
Auf was willst Du genau hinaus?



In über 75-85% der "Personal Computer" sind keine x86 verbaut sondern Cortex-Architekturen.


Selbst wenn man nur Steam Nutzer nimmt wäre meine Aussage noch immer nicht verkehrt.
Aber ist schon wieder witzig was aus der Aussage geworden ist, den ist ging initial nur darum das ein 500W NT nicht reicht.
Es ging nur um Verbrauch, sogar mit einer negativen Note gegen Intel und der rote Mob ist trotzdem wieder agressiv dabei.
Im Prinzip schrieb ich das ein 500W NT nur reicht wenn man einen Ryzen hat und eher nicht wenn man einen Intel nutzt, weil die Mainboard Hersteller ootb die Intels massiv überfahren.
Mehr braucht es hier im Forum nicht für einen roten Sturm ...

Die Preise für Germany werden nicht logisch 1:1 umgerechnet, sondern fast garantiert 1.) auf psychologische Marken wie runde Preise gesetzt und 2.) setzen die Händler bei starker Nachfrage einfach die Preise hoch.

Es würde mich ja nicht wundern, wenn die -3% Mehrwertsteuer keinen Einfluss auf den Endpreis haben.

Es werden wohl imo 1499 oder 1599€.

Timbaloo
2020-08-25, 08:43:58
Und wieso ist deiner Meinung nach ein Smartphone/Tablet kein Personal Computer?
Was Unterscheidet deiner Meinung nach einen "Personal Compute Devices" und "Personal Computer"?

"Ein Personal Computer (engl., zu dt. „persönlicher Rechner“, kurz PC) ist ein Mehrzweckcomputer, dessen Größe und Fähigkeiten ihn für den individuellen persönlichen Gebrauch im Alltag nutzbar machen"
Aus der gleichen Quelle [1]:
Die Zahl der weltweit verkauften PC ist im Jahr 2013 weiter zurückgegangen, insgesamt wurden ca. 316 Millionen Stück verkauft, davon knapp 26 Millionen in Europa (genauer: EMEA – die Wirtschaftsregion, die Europa, den Mittleren Osten und Afrika umfasst). Insgesamt sank der Verkauf gegenüber 2012 um ca. 10 %.[40] Dieser Rückgang ist u. a. auf die weitere Verbreitung von Tabletcomputern und Smartphones zurückzuführen.

[1] https://de.wikipedia.org/wiki/Personal_Computer

Edgecrusher86
2020-08-25, 08:58:12
Ich frage mich wie wohl der Kühler der 3070er wird, genau so wie der 80er oder der Kosten wegen etwas spartanischer?

Ich würde davon ausgehen, dass man für die RTX 3070 (Ti) und RTX 3060 eine Karte haben dürfte, die so lang wie TU102/104 FE Modelle baut, man also auf 26,7cm kommt. Das PCB könnte dann auch grob 1 Zoll kürzer ausfallen, sodass es 21,3cm aufweisen würde. Meine Vermutung sind hier 24cm bei der 3090/3080. Überbreite dürfte als Ausgleich bestehen bleiben, sodass die Lüfter auch die grob 100-105mm haben könnten.

Es sollte wohl in der Tat hier bei 225-250W für eine 3070 8GB FE anzusetzen sein, während die RTX 3060 8GB FE nicht oder kaum mehr als 200W PT ab Werk haben dürfte.

250-260W vielleicht für die 3070 Ti 16GB.

Da kolportiert wird, die 3080 20GB sei nur bei AIBs erhältlich, könnte das wohl gut auf eine 3070 / 3070 Ti mit 16GB der Fall sein. Letztere soll ja 48 statt 46SM aufweisen - analog zu RTX 2080 Super und RTX 2080.

cR@b
2020-08-25, 09:17:50
Erstaunlich wie viele ja doch einen Kauf planen, trotz solcher eher negativen News von 1999€ UVP, 350W+ Heizung, 12 Pin Strom Adapter Kabeln, Lärm?! und nur angeblichen 30% Leistungsgewinn....anscheinend macht Nvidia weiterhin alles richtig. Da frage ich mich schon wo die Grenze ist (Nvidia sicherlich auch) bis die meisten endlich sagen, stop schluss....müssen es 3000€? Für die 3080Ti sein? Oder wäre man immer noch bereit dazu? Seit ihr Süchtig vlt. ? ^^

PC/Gaming ist mein Hobby. Ja leider in der Gesellschaft nach wie vor nicht anerkannt. Ich habe die 2080 Ti knapp zwei Jahre im Kasten, von daher wird es Zeit für was Neues. Dennoch werde ich auch nicht einfach blind kaufen. Ich schau mir sowohl den Preis als auch die Leistung genau an. Die TDP interessiert mich weniger, solange die Karte nicht schreit wie ne 480 GTX oder 20 Stufen runtertaktet da zu heiß. Nach aktuellem Stand sagen die Gerüchte 1499.- und 40-50% Mehrleistung. Den FE Kühler schau ich mir auch genauer an und die Custom Modelle ebenso. Anschließend entscheide ich mich. Die Tendenz geht momentan in Richtung Kauf aber nicht weil ich süchtig bin, sondern aus den o.g. Gründen.

Monsta
2020-08-25, 09:30:43
PC/Gaming ist mein Hobby. Ja leider in der Gesellschaft nach wie vor nicht anerkannt. Ich habe die 2080 Ti knapp zwei Jahre im Kasten, von daher wird es Zeit für was Neues. Dennoch werde ich auch nicht einfach blind kaufen. Ich schau mir sowohl den Preis als auch die Leistung genau an. Die TDP interessiert mich weniger solange die Karte nicht schreit wie ne 480 GTX oder 20 Stufen runtertaktet weil zu heiß. Nach aktuellem Stand sagen due Gerüchte 1499.- und 40-50% Mehrleistung. Den FE Kühler schau ich mir genau an und die Custom Modelle ebenso. Anschließend entscheide ich mich. Die Tendenz geht momentan in Richtung kauf aber nicht weil ich süchtig bin, sondern aus den o.g. Gründen.

Gaming sehe ich als Hobby. Ich denke das sehen auch viele Leute so.
Aber PC Hardware kaufen und einbauen sehe ich nicht als Hobby, das ist Mittel zum Zweck und befriedigt das Grundbedürfnis der Verbesserung. Viele Konsumerprodukte ziehe diese Karte.

monstar-x
2020-08-25, 09:31:33
Selbst wenn man nur Steam Nutzer nimmt wäre meine Aussage noch immer nicht verkehrt.
Aber ist schon wieder witzig was aus der Aussage geworden ist, den ist ging initial nur darum das ein 500W NT nicht reicht.


Dann musst du es auch so schreiben.
Dann stimmt deine Aussage natürlich und ich hätte dir nicht widersprechochen.

WedgeAntilles
2020-08-25, 09:37:37
genau, ich lache nämlich richtig :biggrin: wenn du dir zum Launch eine 3080 10GB für 899€ holst und 2monate später wird die schon von dem Big Navi Salvage mit 12/16GB für 549€ versägt.

Du glaubst ernsthaft, dass AMD eine deutlich SCHNELLERE Karte als die 3080 zu einem Preis rausbringt, der 40% UNTER dem Preis der 3080 liegt??

Wie kommt man auf so ne Idee?

Wieso schaust du dir nicht mal die Preisgestaltung der aktuellen AMD Karten an?

Oder ist das nur Trolling?

cR@b
2020-08-25, 09:38:20
Aber PC Hardware kaufen und einbauen sehe ich nicht als Hobby...

Klar gehört das zum Hobby, zumindest für mich, dazu. PC Tuning hat mir ebenso wie Gaming schon immer Spaß gemacht. Jeder hat auch seine Vorlieben beim Zocken. Der eine mag mehr fps, der andere ne höhere Auflösung etc. Auf so Sachen wie SSD, G-Sync und Co. möchte ich z.B. nicht mehr verzichten. Und ne Graka mit brachialer Leistung bringt in der Regel höhere fps, was ein flüssigeres Spieleerlebnis bringt. Ob das für den einen nun wichtig ist oder nicht, ist sehr individuell.

Dural
2020-08-25, 09:44:18
Ich wette, Nvidia hat schon letztes Jahr kalte Füße bekommen, als klar wurde, dass RDNA mehr oder weniger gleich schlagkräftig pro Recheneinheit ist, wie Turing:biggrin: (denn sie wissen, was passiert, wenn AMD einen solchen Chip massiv verbreitert;D)

R2

Ich Wette dagegen, 7nm vs 12nm / dabei gleicher Verbrauch ca. Kein RT, keine Tensor Kerne.

Navi ist eigentlich sogar ziemlich schlecht, Vega nur noch ein Witz.

Was passiert wenn AMD einen fetten Chip bringt weiss NV ganz genau: AMD versagt immer wieder darin: Laut, Heiss, Hoher Verbrauch, Himmel traurige Skalierung pro Einheit...

Schaut doch nur an was die 5700XT mit einem lächerlich kleinem Die schon aus der Dose zieht.

Cubitus
2020-08-25, 10:00:02
Was passiert wenn AMD einen fetten Chip bringt weiss NV ganz genau: AMD versagt immer wieder darin: Laut, Heiss, Hoher Verbrauch, Himmel traurige Skalierung pro Einheit...


Ich will eigl nicht gegen AMD bashen..
Mit dem Ryzen haben Sie Kontinuität bewiesen, da wurde stetig verbessert..
Ich vermute ganz stark mit der neuen Gen sieht es für Intel richtig schlecht aus..

Bei der letzten GPU-Gen war es bisher so, im Kern solide..
Der Preis war für die Leistungsklasse i.O

Die Qualität der Kühler, und auch deren Eigendesigns war aber teilweise wirklich mangelhaft..

Auch das Drumherum war einfach nicht so gut wie bei Nvidia..
Vor allem das Treiber-Team von Nvidia liefert einen sehr guten Job ab und in Games sind gefühlt mehr Features vorhanden von welchen Nvidia User profitieren.. Dazu kommt noch gutes Marketing seitens NV..

Ich bin gespannt wie Lisa Sue diese Sparte umgestalten wird, ich bin mir sicher das ähnlich wie bei den CPUs die Weichen in die richtige Richtung gestellt wurden und Big Navi in den Regionen der Ampere Gen wildert..

Ich würde es begrüßen, damit verliert Nvidia seine Stärke im Preisdiktat.

Lowkey
2020-08-25, 10:01:56
AMD orientiert sich immer an der Konkurrenz und bietet ein besseres P/L, wenn auch nur minimal besser.
Intel bringt bestimmt schon im Januar den Rocketlake als Konter für Ryzen 4000.

Cubitus
2020-08-25, 10:09:28
AMD orientiert sich immer an der Konkurrenz und bietet ein besseres P/L, wenn auch nur minimal besser.
Intel bringt bestimmt schon im Januar den Rocketlake als Konter für Ryzen 4000.

Ja das können Sie machen, einen See aus Kerosin, CPU wird heiß as fuck..
und mit dem Turbo wird wieder massiv getrickst..

Aktuell agiert Intel architekturbedingt nur noch einfallslos..

Aber gut ist OT..

w0mbat
2020-08-25, 11:06:14
Bei Gleichstand (Einheiten/Takt/Bandbreite) ist Navi effeizienter als Turing und das obwohl Nvidia sicher das 10x für R&D ausgibt. Dass AMD da überhaupt noch mithalten kann ist ein Armutszeugnis für Nvidia.

Wenn AMD das R&D für RDNA2 erhöht hat, was ich für sehr wahrscheinlich halt wenn man sich AMDs aktuelle Lage ansieht, wird es für Nvidia problematisch. Ich kann mir gut vorstellen, dass Big Navi ne 3090 mit 20-30% schlägt und 50-100W weniger verbraucht. Nvida ist wie Intel, die schauen nur gut aus, wenn AMD nicht liefert.

Deshalb versucht Nvidia ja auch upscaling Salonfähig zu machen, weil sie nativ alt aussehen.

Troyan
2020-08-25, 11:09:30
Turing, selbst Pascal, sind effizienter auf 16nm gegenüber 7nm. Eine 1660TI ist 30% effizienter bei 50% mehr Bandbreite und selber Transistorenanzahl zum vergleichbaren Navi-Produkt. Eine RTX2070 ist beim selben Stromverbrauch zur 5700 15% effizienter.

AMD ist meilenweit zurück.

Lowkey
2020-08-25, 11:15:02
Und praktisch schauen die Leute auf den Preis und nehmen eine 570, 580 oder 590 für 150 Euro mit.

Linmoum
2020-08-25, 11:15:21
Abgerechnet wird demnächst.

w0mbat
2020-08-25, 11:15:39
@Troyan: Du kannst nicht einfach node vs. node setzen (und es sind 12nm und nicht 16nm). Du musst das R&D betrachten. Firma A hat zB 100 R&D und Firma B hat 20 R&D. Ob das jetzt ins design oder in die process node gesteckt wird ist irrelevant, wichtig ist, was am Ende raus kommt.

Nvidia hat min. 10x R&D und ist mit Turing pro Einheit ineffizienter als Navi. Wenn Nvidia jetzt nur noch 5x R&D hat werden sie von AMD zerstört.

Timbaloo
2020-08-25, 11:18:34
Ich kann mir gut vorstellen, dass Big Navi ne 3090 mit 20-30% schlägt und 50-100W weniger verbraucht. Nvida ist wie Intel, die schauen nur gut aus, wenn AMD nicht liefert.
Quoted for the LULZ ;D

WedgeAntilles
2020-08-25, 11:19:37
Nvida ist wie Intel, die schauen nur gut aus, wenn AMD nicht liefert.


Nvidia liefert seit über 20 Jahren.
Vielleicht sollte man AMD erstmal liefern lassen, bevor man sich über Nvidia lustig macht, oder?

Du hast übrigens noch vergessen zu erwähnen, dass deine AMD Traumkarte nicht nur die 3090 zersägt, viel weniger Strom braucht, sondern wahrscheinlich auch noch für den halben Preis kommt.

Und wenn ich an der Karte reibe kann sie vielleicht sogar Krebs heilen, das ist aber noch nicht bestätigt.

Man kann nur hoffen, dass bei AMD Leute arbeiten, die ein bisschen mehr Realitätssinn haben.

Troyan
2020-08-25, 11:24:13
@Troyan: Du kannst nicht einfach node vs. node setzen (und es sind 12nm und nicht 16nm). Du musst das R&D betrachten. Firma A hat zB 100 R&D und Firma B hat 20 R&D. Ob das jetzt ins design oder in die process node gesteckt wird ist irrelevant, wichtig ist, was am Ende raus kommt.

Nvidia hat min. 10x R&D und ist mit Turing pro Einheit ineffizienter als Navi. Wenn Nvidia jetzt nur noch 5x R&D hat werden sie von AMD zerstört.

Aha. Dumm nur, dass nVidia aus dem 5x R&D das 10x an Gewinn macht.

TobiWahnKenobi
2020-08-25, 11:27:45
war eben auch mein gedanke - es ist das selbe gerede wie schon immer.. *gähn*

es gibt bald neue grafikkarten.. na und?


(..)

mfg
tobi

mironicus
2020-08-25, 11:33:22
Mehr positiven Vibe wird AMD ohne erzeugen. Während AMD's neue GPU wohl um über 100% mehr Leistung bietet als der Vorgänger, sind es bei NVidia vielleicht nur 30-40%. :D

AMD kann vielleicht die Effizienzkrone zurückgewinnen und das ist auch viel wert.

Edgecrusher86
2020-08-25, 11:44:14
Ich bin gespannt, wie man das bei den FEs handhabt. Ein komplettes Kabel für das NT kannst ja nicht beilegen, wenn nur von einem Hersteller wie Seasonic [ich gehe davon aus, dass NV für die Reviews auch passende NTs mitliefert].
So ein komplettes Kabel sieht natürlich für PR-Zwecke besser aus, wie ein kurzer Adapter (erinnert dann ein wenig an alte Zeiten -> 2x Molex 4 Pin auf 1x PCI-E 6 Pin). :)

Andere Polarität und idR passt das auch physisch nicht aus Sicherheitsgründen untereinander. Man liefert sicher auch keine Tasche mit z.B. Kabeln von 10 Herstellern mit.
Genauso wenig wird es ein Zettel tun mit dem Hinweis - fragt bei euren Hersteller nach. Denn es ist sicher, dass dann Modelle wie etwa die Platimax-Serie [10 Pin. für PCI-E an der NT-Seite] nicht mehr supported werden, wenn die Serie EOL ist.
Man möchte ja die Ware unter die zahlende Kundschaft bringen. Das wäre sonst eine PR-Desaster-Aktion, wenn nur z.B. 50% der Leute, die die FE vorbestellen, mitbekommen haben könnten, dass man einen anderen Stecker benötigt und wenn
dieser nicht verfügbar wäre, man die ganzen Karten zurück senden müsste. Genauso wenig kannst du dann das Kabel beilegen und ein Zettel wo steht -> bitte kauft Seasonic Serien. :D

Da muss also ein kurzes Y-Kabel dabei sein -> 2x8 Pin. PCI-E Buchsen auf 1x12 Pin. Micro-Fit 3.0.

Hoffentlich gibt es diebezüglich bald konkrete Infos, ansonsten kann ich nicht zur Vorstellung vorbestellen und muss wohl eine Custom nehmen, wenn ich zeitnah eine Karte einbauen will, denn ich erwarte, dass es ähnlich wie bei TU läuft.
Innerhalb zwei bis drei Stunden war es die 2080 Ti FE glaube bis November ausverkauft gewesen....der Ansturm auf die 3090 wird bei den Specs sicher nochmal deutlich höher ausfallen - die vermeintlich um +200-300 höhere Preise werden
sich nicht negativ auswirken bei Enthusiasten.

Ich habe 290€ für das NT gezahlt und werde es darum noch ein paar Tage nutzen. Ein neues wäre ähnlich teuer, denn unter 120A auf +12V kommt mir nichts in mein Hauptsystem - einfach, damit alle Karten laufen....auch wenn im Doppelpack und mit max OC. ;)

Lawmachine79
2020-08-25, 12:04:21
Nvidia liefert seit über 20 Jahren.

Naja. Lassen wir die 5000er-Serie mal weg ;). Die war katastrophal. Aber solche Volltreffer wie G80 oder Geforce 10 hat AMD einmal gelandet und das war R300. Weiß gar nicht mehr, ob ich da überhaupt schon Schambehaarung hatte.


Ich kann mir gut vorstellen, dass Big Navi ne 3090 mit 20-30% schlägt und 50-100W weniger verbraucht.

Außerdem ist Big Navi komplett passiv gekühlt werden, hat die achtfache Miningperformance und kann Holz hacken. MSRP: 200 Euro + Game Bundle (8 Blockbuster).

w0mbat
2020-08-25, 12:10:33
Außerdem ist Big Navi komplett passiv gekühlt werden, hat die achtfache Miningperformance und kann Holz hacken. MSRP: 200 Euro + Game Bundle (8 Blockbuster).
Hast du auch schon nen ES? Aber kein NDA oder was?

Dorn
2020-08-25, 12:14:52
Leute hört doch Mal mit dem Unsinn auf.
Die beteiligten sollten wieder seriös werden, danke.

Cubitus
2020-08-25, 12:15:45
So ein komplettes Kabel sieht natürlich für PR-Zwecke besser bitte kauft Seasonic Serien. :D

Da muss also ein kurzes Y-Kabel dabei sein -> 2x8 Pin. PCI-E Buchsen auf 1x12 Pin. Micro-Fit 3.0.



Ich habe Seasonic gefragt wo und wann wann es dieses Micro Fit Kabel zu kaufen gibt.

Right now, the cable we sent are only for test purpose and are not the final version. We are still waiting to know how widely used will be this cable/connector with the new GPU from NVIDIA to adjust and get ready. Please allow few weeks after the official launch for us to get ready. For sure, we will do our best to support all our customers as soon as possible

Eventuell interessant für den ein oder anderen..

Linmoum
2020-08-25, 12:19:06
Also auf absehbare Zeit funktioniert dann wohl nur der Adapter, der beiliegen dürfte. Auch geil.

Troyan
2020-08-25, 12:20:58
Ich habe Seasonic gefragt wo und wann wann es dieses Micro Fit Kabel zu kaufen gibt.



Eventuell interessant für den ein oder anderen..

Ist doch normal. nVidia will einen neuen Anschluss. Als Netzteil-Hersteller werde ich doch den Teufel tun und in Vorleistung gehen. Alleine Versandkosten übersteigen locker den Aufwand, so ein Kabel anzubieten...

Cubitus
2020-08-25, 12:21:34
Also auf absehbare Zeit funktioniert dann wohl nur der Adapter, der beiliegen dürfte. Auch geil.

Japp die Frage ist, wie lang ist der Adapter..
Meine Befürchtung ist, dass dieser extrem kurz ist und du deine üblichen Kabel + den Adapter im sichtbaren Bereich rumhängen hast..

Nicht schön..

Ist doch normal. nVidia will einen neuen Anschluss. Als Netzteil-Hersteller werde ich doch den Teufel tun und in Vorleistung gehen. Alleine Versandkosten übersteigen locker den Aufwand, so ein Kabel anzubieten...

Ist ja auch gar kein Vorwurf.. ich schätze mal die wissen es selbst nicht was Nvidia für Adapter mitliefert (Länge) um den Bedarf zu planen...

MiamiNice
2020-08-25, 12:22:58
Ich habe Seasonic gefragt wo und wann wann es dieses Micro Fit Kabel zu kaufen gibt.



Eventuell interessant für den ein oder anderen..

Ich habe eine ähnliche Anfrage an Corsair geschickt aber noch keine Antwort erhalten.

Thunder99
2020-08-25, 12:33:00
Waren ganz gute Beträge hier zu lesen ;D

Aber im Ernst. AMD hat jetzt die Chance wieder an Nvidia dran zu kommen und das hilft dem Kunden. Wer am Ende doch wieder schneller ist oder das bessere Packet hat werden wir sehen.

Wenn aber die 3060 an die 200W und 3070 250W+ verbraucht, als ganze Karte, kann es gut sein, dass sie im Vergleich zu AMD das Energieeffizienz Rennen verlieren.

Es gibt Leute, die wollen kompromisslose Leistung und haben Intel und Nvidia im Rechner. Es gibt viele, die wollen eine hohe Energieeffizienz und niedrigen Verbrauch haben und das gibt es aktuell nicht (mehr) wie wir es gewohnt sind. Es geht nur nach oben (CPU Energieaufnahme und GPU Energieaufnahme)

Edgecrusher86
2020-08-25, 12:35:38
Richtung 200W könnten dort werden, ja -> die RTX 2060 Super FE kommt mit 175W PT default.

ChaosTM
2020-08-25, 12:45:39
Die 400 Watt sind eine NV Nebelkerze. Das Ding ist quasi eine Dual GPU. CO-Prozessor uns so. Ich glaub immer mehr daran.. ;)
3080er wird sich im normalen Rahmen bewegen. 250 Watt..

dargo
2020-08-25, 12:47:47
Ich Wette dagegen, 7nm vs 12nm / dabei gleicher Verbrauch ca. Kein RT, keine Tensor Kerne.

Navi ist eigentlich sogar ziemlich schlecht, Vega nur noch ein Witz.

Was passiert wenn AMD einen fetten Chip bringt weiss NV ganz genau: AMD versagt immer wieder darin: Laut, Heiss, Hoher Verbrauch, Himmel traurige Skalierung pro Einheit...

Schaut doch nur an was die 5700XT mit einem lächerlich kleinem Die schon aus der Dose zieht.
Das tut schon beim Lesen weh. :facepalm:

Die RT-Core sowie Tensor Cores verbrauchen nichts wenn sie nicht genutzt werden, der Chip wird nur größer (ohne die beiden Sachen wäre Turing auch einiges kleiner, trotz 12nm). Eine 5700XT ist nur so klein weil sie eben in 7nm gefertigt wird. In 12nm wäre sie entsprechend größer. Und hier nochmal extra für dich... entweder hast du es übersehen oder ignorierst es mal wieder gekonnt.
-C2NAxes4cM

Navi ist nicht nur schneller sondern auch sparsamer als Turing.

Hier das gleiche mit 2070S und 5700XT
DLNGTVh2qQA

Beide Karten gleich schnell. 5700XT verbraucht aber mehr. Dafür gibt es zwei einfache Gründe. Erstens läuft eine 5700XT mit höheren Frequenzen, ergo etwas schlechterer Betriebspunkt als bei der 5700. Zweitens, und das schlägt hier richtig rein... es ist eine Gigabyte AORUS wo der Hersteller das Powerlimit erheblich gegenüber der Referenz anhebt. Was natürlich die Perf/W deutlich verschlechtert. Hohes PT --> hohe Frequenz --> Säufer.

Linmoum
2020-08-25, 12:48:24
Dual-GPU und den anderen Quatsch hat Igor doch schon mehrfach verneint.

dildo4u
2020-08-25, 12:52:40
Waren ganz gute Beträge hier zu lesen ;D

Aber im Ernst. AMD hat jetzt die Chance wieder an Nvidia dran zu kommen und das hilft dem Kunden. Wer am Ende doch wieder schneller ist oder das bessere Packet hat werden wir sehen.

Wenn aber die 3060 an die 200W und 3070 250W+ verbraucht, als ganze Karte, kann es gut sein, dass sie im Vergleich zu AMD das Energieeffizienz Rennen verlieren.

Es gibt Leute, die wollen kompromisslose Leistung und haben Intel und Nvidia im Rechner. Es gibt viele, die wollen eine hohe Energieeffizienz und niedrigen Verbrauch haben und das gibt es aktuell nicht (mehr) wie wir es gewohnt sind. Es geht nur nach oben (CPU Energieaufnahme und GPU Energieaufnahme)
Die 3080 ist bei 250 du brauchst für die letzten 20% zur 3090 immer unverhältnismäßig viel Saft, 150 für die 2060,200 für 3070 und es macht sinn.

ShinyMcShine
2020-08-25, 13:06:53
...,200 für 3070...
Yes, please...

Lowkey
2020-08-25, 13:12:45
Eine 3090 taktet man auf 150w herunter und hat die effizienteste Karte auf dem Markt. Damit hat man bei den Grünen dann Chancen auf eine Kanzlerkandidatur und die E-Auto Besitzer applaudieren.

MiamiNice
2020-08-25, 13:28:03
Mal davon ab das E Auto Besitzer die dicksten Energieverschwender und Umweltsünder der Welt sind ... was rauchst Du eigentlich so in Deiner Freizeit das Du auf den Gedanken kommst ne 1500€+ Karte derart zu kastrieren?!?

Timbaloo
2020-08-25, 13:31:23
Yes, please...
Also die 3070 (AM104 "full") wäre auch meine Kategorie, aber 200W wären schon obere Grenze dessen was ich fahren wöllte. Kommt mir aber auch schon etwas viel vor.

[MK2]Mythos
2020-08-25, 13:31:31
Mal davon ab das E Auto Besitzer die dicksten Energieverschwender und Umweltsünder der Welt sind ... was rauchst Du eigentlich so in Deiner Freizeit das Du auf den Gedanken kommst ne 1500€+ Karte derart zu kastrieren?!?
Ach du schande. Das ist nicht nur komplett offtopic sondern auch inhaltlich so falsch wie es nur sein könnte. Spar dir solchen Blödsinn doch einfach.

r3ptil3
2020-08-25, 13:32:58
Mal davon ab das E Auto Besitzer die dicksten Energieverschwender und Umweltsünder der Welt sind ... was rauchst Du eigentlich so in Deiner Freizeit das Du auf den Gedanken kommst ne 1500€+ Karte derart zu kastrieren?!?

Er hat schon auch recht.

Man bezahlte bei einer 2080 Ti nicht einfach nur für die Leistung, sondern auch für den hochwertigsten und effizientesten Chip.

Schon mal eine 2080 Ti und eine 2080 Super bei gleichem Verbrauch gesehen?
Da merkt man erst richtig wofür man auch so viel zahlt.

Thunderburne
2020-08-25, 13:43:49
https://wccftech.com/ek-readies-nvidia-geforce-rtx-30-series-graphics-cards-water-blocks/

MiamiNice
2020-08-25, 13:46:21
Mythos;12402161']Ach du schande. Das ist nicht nur komplett offtopic sondern auch inhaltlich so falsch wie es nur sein könnte. Spar dir solchen Blödsinn doch einfach.


Wenn Du das auf E Autos beziehst solltest Du Dich einfach mal informieren.
Tip: Eröffne doch einen Thread dazu ;)

Er hat schon auch recht.


Mag ja sein :)
Mein Punkt ist das man keine 1500€ Karte kauft um 10€ im Jahr an Strom zu sparen.
Da bringt es dann eher eine günstigere Karte, die kann man auch mit 150 Watt betreiben. Hat dann halt ein paar Effizienzpunkte weniger aber kommt günstiger weg.

woodsdog
2020-08-25, 13:49:27
Mal davon ab das E Auto Besitzer die dicksten Energieverschwender und Umweltsünder der Welt sind ... was rauchst Du eigentlich so in Deiner Freizeit das Du auf den Gedanken kommst ne 1500€+ Karte derart zu kastrieren?!?

Kannst du gefälligst mal von diesem Fanboy-Mütze-Glatze runter kommen und anderen die Freiheit lassen mit ihrer Karte machen zu lassen was sie wollen? UV ist genau so ein Anwendungsfall wie dein unter Wasser an die Kotzgrenze prügeln. Leben und leben lassen. :P
Nur noch lächerlich was hier im Thread abgeht, am besten zu machen bis zum Launch.

[MK2]Mythos
2020-08-25, 13:52:47
Wenn Du das auf E Autos beziehst solltest Du Dich einfach mal informieren.
Tip: Eröffne doch einen Thread dazu ;)

Ist das wirklich dein ernst? Stolperst du so blind durch das Forum? Wie wärs mal wenn du dir folgenden Thread ansiehst und erstmal ein bisschen Wissen aufnimmst? Zu dem ich btw seit Jahren sehr viel Wissen beitrage, weil ich mich noch viel länger viel intensiver mit dem Thema beschäftige, als du es je tun wirst.
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=524647

MiamiNice
2020-08-25, 13:57:55
Ne, ich bin hier für mein Hobby und nicht für meine Arbeit. Ich arbeite zufällig in der Automobilbranche und hier vor der Tür stehen 3 Teasla Geräte (ein Model X und 2x Model 3) die wir mit selbst hergestelltem Strom betanken - trotzdem sind die Fahrzeuge die Umweltsündern vorm Herrn. Da gibt es auch nichts zu diskutieren, einfach mal das Hirn einschalten. Aber wie Du schon erwähnt hast, hier Off Topic und nicht mein Privat Thema. Kannst gerne beruflich vorbei kommen dann klären wir Dich auf.

Timbaloo
2020-08-25, 14:00:44
:facepalm:

ShinyMcShine
2020-08-25, 14:02:08
Also die 3070 (AM104 "full") wäre auch meine Kategorie, aber 200W wären schon obere Grenze dessen was ich fahren wöllte. Kommt mir aber auch schon etwas viel vor.

Nachdem was man hier so liest, bin ich mit AM104full@200W ja schon zufrieden. Darum das "Yes, please..." :wink:

aufkrawall
2020-08-25, 14:06:01
Ich hoffe stark, dass Nvidia mit Ampere die abartige Lüftersteuerung von Turing wieder rückgängig macht. :(
Ich hätte wirklich nicht gedacht, dass man es noch schlechter als AMD mit Vega/Navi unter Windows machen könnte, aber mit Turing hatten sie es gleich auf Anhieb geschafft. :freak:

TheAntitheist
2020-08-25, 14:07:38
Ich hoffe stark, dass Nvidia mit Ampere die abartige Lüftersteuerung von Turing wieder rückgängig macht. :(
Ich hätte wirklich nicht gedacht, dass man es noch schlechter als AMD mit Vega/Navi unter Windows machen könnte, aber mit Turing hatten sie es gleich auf Anhieb geschafft. :freak:
was haben die denn geändert? bei mir hab ich nix negatives festgestellt.

Troyan
2020-08-25, 14:13:38
Nichts. Das Ding läuft wie jede andere Custom-Karte ohne Idle-Modus.

aufkrawall
2020-08-25, 14:16:08
was haben die denn geändert? bei mir hab ich nix negatives festgestellt.
Es gibt keine verlässliche, dauerhaft anliegende angepasste Mindestdrehzahl mehr. Wenn mit Custom Kurve durch fallende Temps der Lüfter runter dreht, fällt er ständig in einen dauerhaften Anlauf-Modus. Ist mit verschiedenen Karten verschiedener Hersteller so, während das mit Pascal noch nicht der Fall war. Ultra-nerviger Schwachsinn.

TheAntitheist
2020-08-25, 14:25:53
Es gibt keine verlässliche, dauerhaft anliegende angepasste Mindestdrehzahl mehr. Wenn mit Custom Kurve durch fallende Temps der Lüfter runter dreht, fällt er ständig in einen dauerhaften Anlauf-Modus. Ist mit verschiedenen Karten verschiedener Hersteller so, während das mit Pascal noch nicht der Fall war. Ultra-nerviger Schwachsinn.
ok das klingt ultra scheisse, hab die FE und bei der ist es auf keinen Fall. Vllt haben manche Hersteller an der FW rumgespielt?

Hakim
2020-08-25, 14:30:05
Ich hoffe der 3070 zieht sich nicht sehr lange nach den Großen Brüdern, glaub die könnte es bei mir werden. An sich würde ich ja noch gerne auf BN warten, aber ich warte schon verdammt lange mit dem Graka Upgrade :redface:

Cubitus
2020-08-25, 14:46:59
Ich habe eine ähnliche Anfrage an Corsair geschickt aber noch keine Antwort erhalten.

Da wirds vermutlich ähnlich wie Seasonic sein..
Man weiß nicht was kommt..

Naja in einer Woche wissen wir mehr.. :D

ok das klingt ultra scheisse, hab die FE und bei der ist es auf keinen Fall. Vllt haben manche Hersteller an der FW rumgespielt?

Also ich hatte die gleichen Symptome.. Hab zwei Mal die Karte deswegen bei Nvidia reklamiert..
Übrigens per Live Support, dieser war beim zweiten Mal sogar noch nachts um 3 Uhr aktiv..

Die Diagnose war bei beiden Karten Defekt der Lüftersteuerung.
Die Tausch-Karten kamen per Fed-Ex Express innerhalb 48 Stunden, die alte dürfte ich solange behalten..

Die dritte hält nun am längsten durch xD

sChRaNzA
2020-08-25, 14:47:36
Ich hoffe der 3070 zieht sich nicht sehr lange nach den Großen Brüdern, glaub die könnte es bei mir werden. An sich würde ich ja noch gerne auf BN warten, aber ich warte schon verdammt lange mit dem Graka Upgrade :redface:

Dann kommt es auf die paar Tage sicher auch nicht drauf an. Halbes Jahr bis Jahr wäre mir auch zu lange. Zum Release direkt Ampere kaufen, ohne zumindest BN gesehen zu haben, da hätte ich Bauchschmerzen mit. Außer wenn Geld so oder so da ist und weg kann, dann kann man natürlich zugreifen.

Cubitus
2020-08-25, 14:58:13
Da bringt es dann eher eine günstigere Karte, die kann man auch mit 150 Watt betreiben. Hat dann halt ein paar Effizienzpunkte weniger aber kommt günstiger weg.


Fuck it, genauso wenig sitze ich nackt im Sommer mitem Handtuch auf nem Stuhl (Monoblock-Klima den Tag über laufen lassen hilft) Oder sitz im Winter mitem dicken Pulli zu Hause..

Die 3090 wirds zukünftig schon regeln ;D

Ein elektro fahrender Arbeitskollege bezeichnet mich öfters als Umweltsau..
Ja was willst dazu sagen... :freak:

Außer, weißt du was..... I dont caare :rolleyes:
Außerdem hab ich unleängst meinen Stromanbieter gewechselt ;D

Dorn
2020-08-25, 15:06:34
Es gibt keine verlässliche, dauerhaft anliegende angepasste Mindestdrehzahl mehr. Wenn mit Custom Kurve durch fallende Temps der Lüfter runter dreht, fällt er ständig in einen dauerhaften Anlauf-Modus. Ist mit verschiedenen Karten verschiedener Hersteller so, während das mit Pascal noch nicht der Fall war. Ultra-nerviger Schwachsinn.
Stimmt nicht. ist bei Pascal genauso. Dafür gibt's Afterburner

Daredevil
2020-08-25, 15:07:56
Mal davon ab das E Auto Besitzer die dicksten Energieverschwender und Umweltsünder der Welt sind ... was rauchst Du eigentlich so in Deiner Freizeit das Du auf den Gedanken kommst ne 1500€+ Karte derart zu kastrieren?!?

Manche nutzen ihre Karte halt auch mal für mehr, als für Computer Spiele, Freundchen. :)

Adam D.
2020-08-25, 15:25:10
https://cdn.wccftech.com/wp-content/uploads/2020/08/NVIDIA-GeForce-RTX-3090-GeForce-RTX-3070_GA102-Ampere-GPU-Die_1.jpg

DrMabuse1963
2020-08-25, 15:28:17
Eine 3090 taktet man auf 150w herunter und hat die effizienteste Karte auf dem Markt. Damit hat man bei den Grünen dann Chancen auf eine Kanzlerkandidatur und die E-Auto Besitzer applaudieren.

Ne echt nicht ,100W runter takten war jetzt nen doofes Beispiel,das kann man Wirklich mit ner günstigen Karte regulieren...

Lowkey
2020-08-25, 15:43:47
Ruhe oder ich kaufe den deutschen 3090er Markt leer. Das nennt man dann moderne Folter ;)


Direkt mal ein 1500w ordern =)


https://www.techpowerup.com/271361/be-quiet-announces-1200-w-1500-w-dark-power-pro-12-psu-series

OgrEGT
2020-08-25, 15:50:26
https://cdn.wccftech.com/wp-content/uploads/2020/08/NVIDIA-GeForce-RTX-3090-GeForce-RTX-3070_GA102-Ampere-GPU-Die_1.jpg

Mal ganz auf die Schnelle mit TU102 verglichen (vorausgesetzt das PackageSubstrat ist gleich groß)...

Bei TU102 754mm2 komm ich auf ca. 563mm2 für GA102... (wenn das GA102 ist...)

Die Frage wäre jetzt, welche durchschnittliche Packdichte Samsung/NV da hinbekommen haben...

Thunderburne
2020-08-25, 15:57:23
https://wccftech.com/nvidia-geforce-rtx-3090-rtx-3080-ampere-ga102-gpu-allegedely-pictured/

Adam D.
2020-08-25, 16:01:18
Mal ganz auf die Schnelle mit TU102 verglichen (vorausgesetzt das PackageSubstrat ist gleich groß)...

Bei TU102 754mm2 komm ich auf ca. 563mm2 für GA102... (wenn das GA102 ist...)

Die Frage wäre jetzt, welche durchschnittliche Packdichte Samsung/NV da hinbekommen haben...
Das Problem ist, dass oben nicht unerheblich abgeschnitten ist. Das einzige, was das Bild wirklich aussagt (und was wir eigentlich schon wissen), ist, dass GA102 wieder ziemlich groß wird :D

Thunderburne
2020-08-25, 16:02:07
https://videocardz.com/newz/msi-submits-geforce-rtx-3090-rtx-3080-rtx-3070-graphics-cards-to-eec

OgrEGT
2020-08-25, 16:05:51
Das Problem ist, dass oben nicht unerheblich abgeschnitten ist. Das einzige, was das Bild wirklich aussagt (und was wir eigentlich schon wissen), ist, dass GA102 wieder ziemlich groß wird :D

Klaro. Die Annahme ist, wenn TU102 und GA102 das gleiche Seitenverhältnis haben...

Ohne viel auf Genauigkeit zu geben, würde ich vermuten dass der gezeigte Chip flächenmäßig kleiner ist als TU102...

Troyan
2020-08-25, 16:16:34
Klaro. Die Annahme ist, wenn TU102 und GA102 das gleiche Seitenverhältnis haben...

Ohne viel auf Genauigkeit zu geben, würde ich vermuten dass der gezeigte Chip flächenmäßig kleiner ist als TU102...

Leaks sprechen von 627mm^2.