Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon VII: 699$ ab 7. Februar 2019 mit 16GB HBM2
Seiten :
[
1]
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
Tatwaffe
2019-01-09, 19:07:58
grad von der CES
Radeon VII 699$ ab Februar 2019 1,8 ghz Boost , 16gb HBM2 (1TB/S Bandbreite), ca 30% mehr Leistung wie Vega64. (opencl 62%+)
Features: Rapid Packed Math - Shader Instrinsics - Async Compute
https://www.youtube.com/watch?v=bibZyMjY2K4
Neue Devil May Cry läuft in ultra settings in 4k mit ca 100 fps.
Divsion 2, Resident 2 Remake, Devil May Cry gibts beim Kauf der Radeon7 dabei.
Benachrichtigen lassen wenn verfügbar: https://experience.amd.com/Notify-Me/RadeonVII
update: Keine FP64 Powerkarte die bisher genannten 6,9tflop treffen laut AMD nicht zu, vorraussichtlich etwa 860 gflop FP64 Leistung. Damit ist die Karte eine reine Gaming Karte.
https://img.picload.org/image/dcidacac/vlcsnap-2019-01-09-21h46m17s61.png
https://img.picload.org/image/dcidacai/vlcsnap-2019-01-09-21h46m48s93.png
https://img.picload.org/image/dcidacap/vlcsnap-2019-01-09-21h47m55s34.png
Mehr Balken(videocardz) Grün R7 Leistung + gegenüber Vega64
https://cdn.videocardz.com/1/2019/01/AMD-Radeon-VII-Gaming-Performance.jpg
offline CES2019 AMD
https://mega.nz/#!085xjSiK!agfp2iiMntpj9YEzvmNQsD5bkS9yfa3jmYbOn26YSEo
Daredevil
2019-01-09, 19:10:44
Dann verlink doch wenigstens den Hype Trailer. :D
uilkteCmqTI
Dural
2019-01-09, 19:18:55
Edit:
Ist februar, das ding ist sogut wie gekauft.
Daredevil
2019-01-09, 19:26:43
Februar, hat Lederlisa doch auch gesagt.
Die neue Karte basiert ja auch auf PCIE 4.0, also könnten da noch ein paar Prozent Leistung rauskommen in Verbindung mit der neuen Plattform bzw. den neuen Prozessoren.
Tatwaffe
2019-01-09, 19:34:42
Dann verlink doch wenigstens den Hype Trailer. :D
Witzigerweise find ich Spiegelungen in dem Hype Video viel besser als die von Nvidia;D
Loeschzwerg
2019-01-09, 19:38:13
Wozu haben wir gleich noch dieses Thema hier?
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=576238&page=729
dildo4u
2019-01-09, 19:38:44
Wozu haben wir gleich noch dieses Thema hier?
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=576238&page=729
Spekulation vs Fakt.
w0mbat
2019-01-09, 19:39:55
Zumal es nur noch 4 Wochen bis zum Release sind.
Loeschzwerg
2019-01-09, 19:40:53
Und mit den Reviews gibt es dann ein weiteres Thema oder wie?
Lowkey
2019-01-09, 19:50:19
Jawohl!
Ich bin jetzt schon auf Dargos drei-seitigem Testbericht gespannt.
@Tatwaffe
Es entsteht der Eindruck, dass du zufällig über die News gestolpert bist (bei CB oder CB) und sie hier postetst und dabei die ganzen anderen Threads ignorierst und die reine Tatsache, dass hier ein paar AMD Fans die Liveübertragung schon mindestens 2x angeschaut haben.
sun-man
2019-01-09, 19:56:38
...und damit sich unter Last auch Powermäßig ja nichts ändert machen wir halt 16 Gig Speicher rein :D. Anders sind unserer User es nicht gewohnt, saufen muss es, saufen (hab selbst ne Vega ;) )
Tatwaffe
2019-01-09, 20:02:49
nutzloses offtopic
Jawohl!
Ich bin jetzt schon auf Dargos drei-seitigem Testbericht gespannt.
@Tatwaffe
Es entsteht der Eindruck, dass du zufällig über die News gestolpert bist (bei CB oder CB) und sie hier postetst und dabei die ganzen anderen Threads ignorierst und die reine Tatsache, dass hier ein paar AMD Fans die Liveübertragung schon mindestens 2x angeschaut haben.
Ich bin zufällig über den Stream gestolpert, auf yutub oder wie das heisst, und hier war kein Thread im Graka Forum, also was ist deine Frage?
Das ist nur ein Schnipsel meinerseits ohne auch nur 1 post über R7 gelesen zu haben, ist auch nicht meine Aufgabe.
Den Löschzwerg juckts auch schon in den Fingern den thread dicht zu machen, habt ihr sonst keine Probleme?
16gb dürften deutlich mehr als 8gb ziehen so gesehn ist es doch ein Fortschritt 30% mehr Leistung bzw 62% mehr compute Power bei gleichem Verbrauch sind doch erstmal was woran man arbeiten kann, zumal in der Realität dann doch niedrigere Werte herrschen, spätestens mit den Refresh Chips gehts nochmal nach unten, und dies ist halt nicht Navi mit neuer Architektur sondern mehr Vega mit Steroiden, für 4k scheint die Karte mit ihrem Durchsatz von 1000gb/s und 16gb jedenfalls gut aufgestellt
mironicus
2019-01-09, 20:13:18
Wo kann man denn vorbestellen?
dildo4u
2019-01-09, 20:14:10
Laut Stream haben sie gesagt das man sie diesmal direkt bei AMD bestellen kann kein Plan ob das Exklusiv ist.
Tatwaffe
2019-01-09, 20:21:22
Wo kann man denn vorbestellen?
hab noch keine Listung gefunden bei Amzon oder ähnlichen, wird denk ich bald kommen, Februar ist in knapp 3 Wochen.
Hier kannste dich benachrichtigen lassen wenn die erhältlich ist.
https://experience.amd.com/Notify-Me/RadeonVII
][immy
2019-01-09, 20:23:18
Mhhh ok mit fertigungsvorteil eventuell mit nvidia auf augenhöhe. Das dumme ist nur wenn nvidia mal auf 7nm umsteigt ...
Ha, sie machen's wirklich. Finde ich gut. Spec wie erhofft, aber günstiger als erwartet. RTX-2080-Leistung zum RTX-2080-Preis. Dafür 16 GiB (+100 %) statt Raytracing – dürfte für die meisten Leute hier ein guter Deal sein. Braucht hier jemand eine spezialumgebaute Vega I Frontier Edition (ebenfalls 16 GiByte)? :biggrin:
MfG
Raff
Grendizer
2019-01-09, 20:25:36
Ha, sie machen's wirklich. Finde ich gut. Spec wie erhofft, aber günstiger als erwartet. RTX-2080-Leistung zum RTX-2080-Preis. Dafür 16 GiB statt Raytracing – dürfte für die meisten Leute hier ein guter Deal sein. Braucht hier jemand eine spzialumgebaute Vega I Frontier Edition (ebenfalls 16 GiByte)? :biggrin:
MfG
Raff
bei was werden wir dann Euromäßig rauskommen. Die 699 dürften noch ohne Steuern usw. sein, oder ?
Aber ein guter Deal, wenn die Leistung so rauskommt.
Adam D.
2019-01-09, 20:25:56
[immy;11895869']Mhhh ok mit fertigungsvorteil eventuell mit nvidia auf augenhöhe. Das dumme ist nur wenn nvidia mal auf 7nm umsteigt ...
Dann kommt Navi und dann guckt man weiter. Bis 2020 wird von NV nix Neues kommen, es macht für AMD schon Sinn, zumindest die mittlere Karte anzugreifen. Gut für den Kunden ist es allemal, ich hoffe, die Karte liefert was sie verspricht.
Linmoum
2019-01-09, 20:28:26
[immy;11895869']Mhhh ok mit fertigungsvorteil eventuell mit nvidia auf augenhöhe. Das dumme ist nur wenn nvidia mal auf 7nm umsteigt ...
Wenn Nvidia auf 7nm umsteigt, dann gibt's auch bei AMD schon was Neueres (vielleicht sogar post-Navi). ;)
Turing ist noch nicht einmal vier Monate alt, das dauert noch.
][immy
2019-01-09, 20:34:44
Ha, sie machen's wirklich. Finde ich gut. Spec wie erhofft, aber günstiger als erwartet. RTX-2080-Leistung zum RTX-2080-Preis. Dafür 16 GiB (+100 %) statt Raytracing – dürfte für die meisten Leute hier ein guter Deal sein. Braucht hier jemand eine spezialumgebaute Vega I Frontier Edition (ebenfalls 16 GiByte)? :biggrin:
MfG
Raff
Könnte man sich eventuell noch fragen ob sich das nicht auch gut emulieren lässt
DrFreaK666
2019-01-09, 20:38:22
Die aktuellen Vegas bleiben wohl auf dem Markt um die Lücke zu schließen
Digidi
2019-01-09, 20:41:38
Hmm bis zu 45% Leistungszuwachs sind da endlich die primitive shaders an?
Troyan
2019-01-09, 20:44:24
[immy;11895897']Könnte man sich eventuell noch fragen ob sich das nicht auch gut emulieren lässt
Raytracing? Nope. Schau dir den Benchmark vom 3DMark an. Titan V ist so schnell wie eine RTX2060...
Hmm bis zu 45% Leistungszuwachs sind da endlich die primitive shaders an?
Da sind bloß viel Takt und gigantische Transferrate "an".
MfG,
Raff
Linmoum
2019-01-09, 20:46:54
Da sind bloß viel Takt und gigantische Transferrate "an".
MfG,
Raff
Schon entschieden, wer bei euch mit seinen Patschehändchen ran und testen darf? :D
Zergra
2019-01-09, 20:49:00
Hm hätte schon Lust, aber für 60 FPS @4k reicht eig. auch eine Vega 64.
Mal sehen ob ich meine Vega 64 mit Wakü Block noch gut los werden kann...
Digidi
2019-01-09, 20:50:05
Da sind bloß viel Takt und gigantische Transferrate "an".
MfG,
Raff
Ja aber 45% erreicht man nicht mit nur mehr Takt bei weniger Shader Einheiten? Bei 45% musste das Teil 2200 MHz laufen
Andron
2019-01-09, 21:05:57
Ja aber 45% erreicht man nicht mit nur mehr Takt bei weniger Shader Einheiten? Bei 45% musste das Teil 2200 MHz laufen
Ich vermute mal schlechterer Referenzkühler und evtl. sogar älterer Treiber oder ähnliches die die Vega 64 ausbremsen. Ansonsten wäre das Ergebnis nämlich unglaublich gut, denn gerade Strange Brigade läuft auf Vega 10 sehr gut.
https://www.guru3d.com/articles_pages/geforce_rtx_2060_review_(founder),16.html
In UHD ist die Vega 64 nur ca 10% langsamer als eine RTX 2080, mit 42% mehr wäre man ganz dicht an der 2080ti. Halte ich für unwahrscheinlich, aber wäre eine angenehme Überraschung.
Edit: Wobei in UHD eine Fury X sogar knapp die Vega 56 schlägt und fast gleichauf mit der GTX 1080 ist. Evtl. liegt da doch noch Leistung brach.
Tatwaffe
2019-01-09, 21:11:27
wo habt ihr denn die 45% her, ich hab da nur knapp unter 30% gesehn, abgesehn von open CL mit +62%, das wären dann 1950-2000Mhz.
Oder ist da schon 15% overclocking eingerechnet?
AMDoderNvidia
2019-01-09, 21:17:34
Ha, sie machen's wirklich. Finde ich gut. Spec wie erhofft, aber günstiger als erwartet.
Da sind bloß viel Takt und gigantische Transferrate "an".
Woher weißt Du das so sicher? Ich hätte jetzt gehofft, dass die NCU / primitive shader endlich mal "live" gehen, nachdem sie selbst im Vega Architecture White Paper lang und breit erklärt werden. Und dazu sag ich nur "Wundertreiber"... ;D
Digidi
2019-01-09, 21:17:55
wo habt ihr denn die 45% her, ich hab da nur knapp unter 30% gesehn, abgesehn von open CL mit +62%, das wären dann 1950-2000Mhz.
Oder ist da schon 15% overclocking eingerechnet?
Die Vega 64 läuft 1500 MHz davon 50% sind 750 MHz. Das wären dann 2250 MHz. Sorry waren 42% bei Strange bigard. Alles unter 2ghz halte ich nicht für realistisch.
dargo
2019-01-09, 21:21:54
Jawohl!
Ich bin jetzt schon auf Dargos drei-seitigem Testbericht gespannt.
Hö? Habe ich was verpasst? :D Also ich kaufe mir bestimmt keine Vega VII. Dafür leistet sie mir einfach zu wenig gegenüber meiner Karte. Ich gehe jetzt von den +30% mit kleinen Ausreißern nach oben sowie unten aus. Das ist jetzt nichts was mich zum Kauf bewegen würde. Bei mindestens +80% wäre es was anderes. Aber auch dann wüsste ich nicht wofür das Upgrade? :tongue:
Tatwaffe
2019-01-09, 21:22:55
Ich denke für über 2 ghz säuft die Architectur zu heftig, aber abwarten.
wären von 1500 +30% =1950Mhz
Generell waren um die +30 % +-5% für verschiedene Anwendungen angegeben, und der Speicher ballert natürlich nochmal ordentlich mit 1000gb/s was das eine oder andere %pünktchen erzeugt.
Munin
2019-01-09, 21:23:50
Also RTX2080-Gegner in 7nm bei ca. 50% mehr Leistungsaufnahme.
Hätte ich mit (viel) mehr Effizienz gerechnet, so müssen sie mit Navi die Effizenz ja mehr als verdoppeln, um bei einem Turingchip in 7nm mithalten zu können.
NVIDIA vergrößert den Perf/W Vorsprung eher, als dass AMD ihn verkleinert. Spannend.
dargo
2019-01-09, 21:27:25
Da sind bloß viel Takt und gigantische Transferrate "an".
Davon alleine können aber keine ~30% mehr rauskommen. Vega VII hat nur 8% mehr Shaderleistung. Jedenfalls nach den offiziellen Taktangaben. In der Realität können die Taktraten ja etwas abweichen.
Linmoum
2019-01-09, 21:30:40
Also RTX2080-Gegner in 7nm bei ca. 50% mehr Leistungsaufnahme.
Wie kommst du auf 50% mehr Leistungsaufnahme?
Eine 2080 (FE) zieht bereits 220W-230W, Customs durchaus noch mehr. Die Radeon VII müsste nach deiner Logik bei rund 350W(+) liegen. Das wird nicht der Fall sein. AMDs Aussagen deuten wieder auf ~300W hin.
-=Popeye=-
2019-01-09, 21:33:52
Stand da nicht auch irgendwo plus ~30% Performance bei gleichem Verbrauch (~300W)? Also ich finde das jetzt nicht tragich, wenn man bedenkt das sich manche Leute hier ein 300W BIOS auf eine 2080 flashen möchten.
dargo
2019-01-09, 21:34:24
wo habt ihr denn die 45% her, ich hab da nur knapp unter 30% gesehn, abgesehn von open CL mit +62%, das wären dann 1950-2000Mhz.
Es waren 42% in Strange Brigade angegeben. Sieht man nur im Stream.
Tatwaffe
2019-01-09, 21:38:53
nutzt das Strange Brigade viel Tesselation? oder async compute? dann wäre das ne Erklärung für den Ausreisser nach oben.
dildo4u
2019-01-09, 21:40:54
nutzt das Strange Brigade viel Tesselation? oder async compute? dann wäre das ne Erklärung für den Ausreisser nach oben.
Vulkan performt in dem Game auf Nvidia schlechter als auf AMD daher nutzt man das für den Vergleich.
https://www.techspot.com/article/1685-strange-brigade-benchmarks/
Scheint schon ein feines Kärtchen zu sein (mit entsprechender RAM-Ausstattung im Ggs zur Konkurrenz), womit AMD zumindest die Anwesenheit im oberen Segment sichern kann, auch, wenn der Energiebedarf wieder nicht 7 nm-like sein wird.
Linmoum
2019-01-09, 21:43:24
Vulkan performt in dem Game auf Nvidia schlechter als auf AMD daher nutzt man das.
http://www.pcgameshardware.de/Strange-Brigade-Spiel-61029/Specials/Benchmark-Test-Review-1263803/
Nvidia hat damit nix zu tun, die +42% sind laut AMD ggü. der Vega64.
https://i.gyazo.com/2a3f3086e1a18e792a977b9a44f6f3f5.jpg
dargo
2019-01-09, 21:43:56
Vulkan performt in dem Game auf Nvidia schlechter als auf AMD daher nutzt man das.
http://www.pcgameshardware.de/Strange-Brigade-Spiel-61029/Specials/Benchmark-Test-Review-1263803/
Die +42% beziehen sich auf Vega VII vs. V64. Also was hat hierbei die Nvidia-Performance verloren?
dildo4u
2019-01-09, 21:45:33
Es gab noch diese Folie.
https://farm8.staticflickr.com/7920/45955868844_756a5f756b_h.jpg (https://flic.kr/p/2d1XQJh)11-1080.164761188 (https://flic.kr/p/2d1XQJh) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
Fetza
2019-01-09, 21:46:31
Da sind bloß viel Takt und gigantische Transferrate "an".
MfG,
Raff
Darf ich fragen woher Du diese Gewissheit nimmst? Vega 20 hat doch Veränderungen am Chip erfahren - der Transistoren-Count ist gestiegen. Ist es da nicht wahrscheinlich, dass AMD die Zeit genutzt hat und entsprechendes Bug Fixing betrieben hat?
Scheint jedenfalls ein geiles Kärtchen zu sein. Ich bin schon auf die ersten Techreviews gespannt! :)
Nochmal: Wenn Vega 10 von seinen 484 GByte/s limitiert wird, ist Vega 20 pro Takt dank 1.024 GByte/s schneller. Nochmal zum Mitschreiben: Das sind +112 Prozent beim rohen Speicherdurchsatz! Da Vega 20 auch etwas mehr Kernleistung hat (leider kein Vollausbau :(), nimmt die Bedeutung der Speichertransferrate weiter zu. Es wird aber wohl auch Fälle geben, wo einfach und immer der Kern limitiert.
Darf ich fragen woher Du diese Gewissheit nimmst? Vega 20 hat doch Veränderungen am Chip erfahren - der Transistoren-Count ist gestiegen. Ist es da nicht wahrscheinlich, dass AMD die Zeit genutzt hat und entsprechendes Bug Fixing betrieben hat?
Möglicherweise wurde da tatsächlich leicht optimiert. Ich erwarte das aber nicht, da Vega 20 zwei andere Dinge hat, die helfen: Shrink und +100 Prozent Speicherschnittstelle. Das hilft einfach immer.
Transistoren dürfte übrigens vor allem die DP-Leistung gekostet haben. Bringt Spielern halt nix. Oder können die Dinger vielleicht 8× INT statt 1× FP64 (-> Missbrauch für KI-AA, Denoising)? :biggrin:
MfG,
Raff
dargo
2019-01-09, 21:49:31
Es gab noch diese Folie.
https://farm8.staticflickr.com/7920/45955868844_756a5f756b_h.jpg (https://flic.kr/p/2d1XQJh)11-1080.164761188 (https://flic.kr/p/2d1XQJh) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
Ach nee... und wo siehst du da +42%? Ich sehe da bloß +19% bei Vega VII vs. RTX 2080. Mal davon ab... ich sehe in deinem Link bei der PCGH nirgendwo, dass Nvidia unter Vulkan schlechter performt als AMD im Vergleich zu DX12.
Daredevil
2019-01-09, 21:50:55
Und das es nur eine Vega II "60" ist und kein Vollausbau, wäre der Sprung auf einen richtigen Vollausbau ebenfalls nochmal ein wenig größer.
Vega I 64: 12,5 Mrd. Transistoren auf 486mm²
Vega II 60: 13,2 Mrd. Transistoren auf 331mm² Chipfläche
Knapp 32% kleinerer DIE. Wenn die 7nm Kosten weiter sinken, wird der Preis bestimmt auch mal sehr nett werden. :)
Ist eine Vega I 64 nun eine Radeon 6 ? :D
dildo4u
2019-01-09, 21:51:37
Ach nee... und wo siehst du da +42%? Ich sehe da bloß +19% bei Vega VII vs. RTX 2080. Mal davon ab... ich sehe in deinem Link bei der PCGH nirgendwo, dass Nvidia unter Vulkan schlechter performt als AMD im Vergleich zu DX12.
Ja das war Techspot wo man es gesehen hat habs geändert.
https://farm5.staticflickr.com/4891/31738865937_0594d60b07_o.png (https://flic.kr/p/QmDZ5v)Vulkan (https://flic.kr/p/QmDZ5v) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
-=Popeye=-
2019-01-09, 21:51:57
@Tatwaffe
Strange Brigade unterstützt DX12 und Vulkan. Was im Grunde auch egal ist da beides sehr gut performt... und ja Async Compute wird unterstützt.
Linmoum
2019-01-09, 21:52:23
Vega II
*Radeon *VII (7)
:P
Digidi
2019-01-09, 21:52:24
@Raff hat strangenigard so einen hohen vram Verbrauch???
Es ist halt auch Vulkan und wie gesagt wenn AMD clever ist dann haben sie NGG und Primitive shaders gefixt. Wenn die das jetzt nicht gemacht haben sind sie selten dämlich.
mironicus
2019-01-09, 21:52:47
Dann sollte man noch unbedingt ein Bios-Update durchführen um alle CUs freizuschalten... dafür braucht man aber das Bios der teuren Version... :D
dargo
2019-01-09, 21:53:33
Nochmal: Wenn Vega 10 von seinen 484 GByte/s limitiert wird, ist Vega 20 pro Takt dank 1.024 GByte/s schneller. Nochmal zum Mitschreiben: Das sind +112 Prozent beim rohen Speicherdurchsatz! Da Vega 20 auch etwas mehr Kernleistung hat (leider kein Vollausbau :(), nimmt die Bedeutung der Speichertransferrate weiter zu. Es wird aber wohl auch Fälle geben, wo einfach und immer der Kern limitiert.
Das passt trotzdem hinten und vorne nicht. Ich kann hier selbt meinen V10 mit ~1,7Ghz GPU laufen lassen mit 538GB/s Bandbreite und sehe nirgendwo ein Bandbreitenlimit.
An anderer Stelle wird ständig geschrieben, wie doll Vega 10 doch von Speicher-OC profitiert und daher alle unoptimierten Stock-Werte völlig praxisfern sind. ;) Die Wahrheit liegt, wie fast immer, in der Mitte: Es kommt auf die Applikation und außerdem die Settings an. :) Meine Vega FE skaliert beispielsweise sehr schick beim Schritt von 945 auf benchmarkstabile 1.200 MHz. Längst nicht linear, aber das kann schon das Zünglein an der Waage sein.
@Raff hat strangenigard so einen hohen vram Verbrauch???
Wenig. (http://www.pcgameshardware.de/Strange-Brigade-Spiel-61029/Specials/Benchmark-Test-Review-1263803/#a5)Das läuft wie Butter. Und nutzt Async Compute produktiv (http://www.pcgameshardware.de/Strange-Brigade-Spiel-61029/Specials/Benchmark-Test-Review-1263803/#a4). Die GPU wird also gut ausgelastet. Und was braucht man, um eine GPU besonders gut auszulasten? Genau: Weniger Stau auf der Datenautobahn.
MfG,
Raff
Zergra
2019-01-09, 21:55:25
Dann sollte man noch unbedingt ein Bios-Update durchführen um alle CUs freizuschalten... dafür braucht man aber das Bios der teuren Version... :D
Wird bestimmt nicht klappen, die lernen auch dazu. Außerdem wird das wohl auch Fertigungsbedingung sein.
Fetza
2019-01-09, 21:57:02
Transistoren dürfte übrigens vor allem die DP-Leistung gekostet haben. Bringt Spielern halt nix. Oder können die Dinger vielleicht 8× INT statt 1× FP64 (-> Missbrauch für KI-AA, Denoising)? :biggrin:
MfG,
Raff
Das regt irgendwie gerade meine Phantasie an. Hoffentlich gehen schon bald erste Testberichte online. Eine neue Graka brauch ich jedenfalls und so ein 16GB Monster wäre schon toll. :D
looking glass
2019-01-09, 22:00:40
Interessant, mich interssiert natürlich, wo die wohl im idle und bei Standardtakt wohl im Verbrauch liegen wird.
Grendizer
2019-01-09, 22:00:47
Wird bestimmt nicht klappen, die lernen auch dazu. Außerdem wird das wohl auch Fertigungsbedingung sein.
Naja ... das hat bei AMD (ATI) doch schon so lange Tradition... hatte damals schon eine ATI Radeon 9500@9700 per Bios Mod und das ist so knapp 15 Jahre her....
dargo
2019-01-09, 22:01:55
An anderer Stelle wird ständig geschrieben, wie doll Vega 10 doch von Speicher-OC profitiert und daher alle unoptimierten Stock-Werte völlig praxisfern sind. ;) Die Wahrheit liegt, wie fast immer, in der Mitte: Es kommt auf die Applikation und außerdem die Settings an. :) Meine Vega FE skaliert beispielsweise sehr schick beim Schritt von 945 auf benchmarkstabile 1.200 MHz. Längst nicht linear, aber das kann schon das Zünglein an der Waage sein.
Lass mich raten... mit 5-7%? :D Ja ich weiß... für den einen oder anderen sind das hier im Forum schon Welten. ;D
Linmoum
2019-01-09, 22:05:30
Lass mich raten... mit 5-7%? :D Ja ich weiß... für den einen oder anderen sind das hier im Forum schon Welten. ;D
In UHD zählt jedes bisschen. :P
SKYNET
2019-01-09, 22:17:55
Stand da nicht auch irgendwo plus ~30% Performance bei gleichem Verbrauch (~300W)? Also ich finde das jetzt nicht tragich, wenn man bedenkt das sich manche Leute hier ein 300W BIOS auf eine 2080 flashen möchten.
sind lustigerweise die, die m lautesten über den verbrauch der vegas schreien :rolleyes:
Troyan
2019-01-09, 22:29:40
Jemand hat die Press Release Werte von Vega und Vega (ha) in Balken gepackt:
https://i.redd.it/dkjq0xizlg921.png
https://www.amd.com/en/press-releases/2019-01-09-amd-unveils-world-s-first-7nm-gaming-gpu-delivering-exceptional
Digidi
2019-01-09, 22:32:05
Nvidia macht sich in die Hose :D oder warum kommentiert das Huang!
https://twitter.com/PatrickMoorhead/status/1083077183663333376
dargo
2019-01-09, 22:33:37
In UHD zählt jedes bisschen. :P
Naja... nach einer 4k GPU sieht mir Vega VII noch nicht aus. Ich sehe sie eher als eine sorglos Karte für 1440p an. Aber gut, das definiert sowieso jeder etwas anders.
Zergra
2019-01-09, 22:36:46
Naja ... das hat bei AMD (ATI) doch schon so lange Tradition... hatte damals schon eine ATI Radeon 9500@9700 per Bios Mod und das ist so knapp 15 Jahre her....
Ja aber das ist ja auch schon länger her, bei Vega war das auch nicht mehr möglich.
aufkrawall
2019-01-09, 22:39:53
Stimmt eigentlich die Die-Size von 330mm²? Dann kann AMD das Teil ja relativ günstig in Massen fertigen lassen, angesichts der vielen Einsatzfelder.
MadManniMan
2019-01-09, 22:50:42
Nvidia macht sich in die Hose :D oder warum kommentiert das Huang!
https://twitter.com/PatrickMoorhead/status/1083077183663333376
Naja, im Moment sieht es zumindest so aus, als hätte er mit dem Gesagten nicht Unrecht, oder?
Linmoum
2019-01-09, 22:54:51
Naja, im Moment sieht es zumindest so aus, als hätte er mit dem Gesagten nicht Unrecht, oder?
Stimmt, "No Ray Tracing" trifft in der Tat fast auf die aktuelle Situation der damit verfügbaren Spiele zu. ;D
fondness
2019-01-09, 22:56:14
Naja, im Moment sieht es zumindest so aus, als hätte er mit dem Gesagten nicht Unrecht, oder?
Dass er HBM2 Speicher als negativ Punkt aufführt ist zumindest amüsant. Raytracing ist zurzeit in genau einem Spiel relevant und AI ist irrelevant für gamer. Da hat man womöglich vom doppeltem Speicher über die Lebenszeit deutlich mehr.
Mortalvision
2019-01-09, 22:56:52
jein. Für Fans von Games ohne tlss und raytracing sind das sehr gute Werte.
Megatron
2019-01-09, 22:58:51
Warum sind hier eigentlich so viele vom Verbrauch überrascht?
Das Teil ist verdammt nah an den Daten der Instinct MI50. Der Unterschied bei der Taktrate ist kaum der Rede wert.
Da die Mi50 300W TDP hat, war es ja auch so wahnsinnig realistisch anzunehmen, dass der gleiche Chip mit Vega II Label nur noch 200W braucht :freak:
Das Teil ist in mehrerlei Hinsicht eher ein Hawaii Reloaded. Massig Bandbreite und wenn es nicht extra beschränkt wird, barbarisch FP64 Leistung zu einem relativ interessanten Preis.
[Trollmode on]
Die Mi50 bietet mit ihren 6,7 TFlops FP64 mehr als die 15-fache Leistung der 2080Ti :D
[Trollmode off]
Den Chip zu diesem Preis fürs Gaming zu bringen ist ist doch einfach nur um im Gespräch zu leiben. Ein ernsthafter Angriff ist das nicht, das kann erst Navi sein. (Und wird es hoffentlich auch)
MadManniMan
2019-01-09, 22:59:26
Stimmt, "No Ray Tracing" trifft in der Tat fast auf die aktuelle Situation der damit verfügbaren Spiele zu. ;D
Recht haste :D
Bei sonst gleichen Stats (700 €, ähnliche Performance) zöge ich dann aber doch das Teil vor, was mehr Feature bietet, oder?
Dass er HBM2 Speicher als negativ Punkt aufführt ist zumindest amüsant. Raytracing ist zurzeit in genau einem Spiel relevant und AI ist irrelevant für gamer. Da hat man womöglich vom doppeltem Speicher über die Lebenszeit deutlich mehr.
Guter Punkt, an die Speichermenge hatte ich nicht gedacht.
Ist natürlichen Cherrypicking auf seiner Seite.
mironicus
2019-01-09, 22:59:41
Die Performance-Steigerung ist sehr hoch bei Fallout 76. Ca 45 FPS (Vega 64) vs. 75 FPS (Vega II) in 4K. Braucht das Spiel viel Speicher?
dildo4u
2019-01-09, 23:00:12
Naja AMD ist was Preise angeht im CPU Bereich deutlich aggressiver,das man jetzt die selbe Preis Leistung wie NV bringt ist mäh,die 2080 wurde zerrissen weil sich im Bereich um 700€ nix nach vorne bewegt hat.
Troyan
2019-01-09, 23:01:11
Die Performance-Steigerung ist sehr hoch bei Fallout 76. Ca 45 FPS (Vega 64) vs. 75 FPS (Vega II) in 4K. Braucht das Spiel viel Speicher?
Eher Bandbreite. In Wolfenstein 2 sind es nur 25% und dort sollten 8GB in 4K wirklich voll sein.
Dural
2019-01-09, 23:20:37
Richtig cool sind die 16gb und 1tb/s bandbreite. Aber sonst kann die karte eigentlich bei den von AMD (!!!) angegebenen 29% mehr zur Vega64 gar nicht überzeugen.
Am schluss werden es im schnitt 20% sein und das mit 7nm gegen 14nm, ich glaub es gab noch nie einen so schlechten fullnode shrink. Es wird zeit (eigentlich schon lange) für eine neue architektur.
DeadMeat
2019-01-09, 23:21:51
Naja AMD ist was Preise angeht im CPU Bereich deutlich aggressiver,das man jetzt die selbe Preis Leistung wie NV bringt ist mäh,die 2080 wurde zerrissen weil sich im Bereich um 700€ nix nach vorne bewegt hat.
Die wurde aber auch nur wegen dem Vergleich in Preis und Ram mit der 1080TI zerrissen, für AMD gibts ja dort keine Alternative.
Das die Preisklassen trotzdem weiter klettern ist aber auch bei AMD nicht schick, aber die ziehen ja nur nach.
Tatwaffe
2019-01-09, 23:22:51
Naja AMD ist was Preise angeht im CPU Bereich deutlich aggressiver,das man jetzt die selbe Preis Leistung wie NV bringt ist mäh,die 2080 wurde zerrissen weil sich im Bereich um 700€ nix nach vorne bewegt hat.
Die wurden eher dafür zerrissen weil sie zwischen 900 und 1000€ haben wollten und nur 8gb angeboten haben.
Dural
2019-01-09, 23:24:09
Ganz ehrlich, es würde mich überraschen wenn die aktuell bei den 699.- überhaupt gross was an der karte verdienen, sprich amd kann gar nicht viel günstiger verkaufen.
Linmoum
2019-01-09, 23:25:23
Naja AMD ist was Preise angeht im CPU Bereich deutlich aggressiver,das man jetzt die selbe Preis Leistung wie NV bringt ist mäh,die 2080 wurde zerrissen weil sich im Bereich um 700€ nix nach vorne bewegt hat.
Die 2080 hatte eine UVP von $799/849€ und direkt mal 3GB weniger als der (leistungstechnische) Vorgänger.
Logischerweise zerreißt man sowas.
dildo4u
2019-01-09, 23:29:30
Ja keiner hat geliefert das meine ich ja,AMD 7nm 8 Core wird keine 500€ kosten dort findet das Aufmischen statt.Ich stecke weiter fest mit meiner 1070 nix macht Sinn für 500€.
blaidd
2019-01-09, 23:35:34
Ha, sie machen's wirklich. Finde ich gut. Spec wie erhofft, aber günstiger als erwartet. RTX-2080-Leistung zum RTX-2080-Preis. Dafür 16 GiB (+100 %) statt Raytracing – dürfte für die meisten Leute hier ein guter Deal sein. Braucht hier jemand eine spezialumgebaute Vega I Frontier Edition (ebenfalls 16 GiByte)? :biggrin:
MfG
Raff
Ich wollte maximal 600 Euro (http://www.pcgameshardware.de/Geforce-RTX-2070-Grafikkarte-267864/News/das-sagen-die-PCGH-Redakteure-1267556/galerie/2261953/), dann hätte es Potenzial, ein echt fieser Nierenschlag zu werden. Und AMD brauchen noch einen Treffer im Bereich von 300 bis 350 Euro, der die 2070 ausnoggt. ;)
Daredevil
2019-01-09, 23:41:17
Vega Leistung mit halbem Stromverbrauch bedeutet übrigens schon heute bei deutschen Strompreisen, dass man damit ca. 12€ Ethereum gewinnbringend minen kann aktuell bei den beschissenen Kursen.
Nvidia hat mit seiner RTX Generation die Mining Industrie komplett ignoriert, mal schauen ob AMD das auch macht.
Ja oder halt doppelte Speicher Leistung bei gleichem Stromverbrauch. :D
Ob AMD deswegen vielleicht selber den Vertrieb unter anderem macht?
Nicht, dass Mining wieder groß wird und die Preise zum Mond gehen und Gamer doof aus der Wäsche gucken.
Wenn die Radeon 7 bei Ethereum mit der Speicherbandbreite linear nach oben skaliert, macht man heute bei einem Ethereum Preis von 152$ pro Jahr ca. 117€ Gewinn bei deutschen Strompreisen.
Wenn das wirklich so kommen sollte, wäre das für den Preis eine sehr starke Mining Karte.
Linmoum
2019-01-09, 23:48:33
Ich wollte maximal 600 Euro (http://www.pcgameshardware.de/Geforce-RTX-2070-Grafikkarte-267864/News/das-sagen-die-PCGH-Redakteure-1267556/galerie/2261953/), dann hätte es Potenzial, ein echt fieser Nierenschlag zu werden. Und AMD brauchen noch einen Treffer im Bereich von 300 bis 350 Euro, der die 2070 ausnoggt. ;)
Ich hätte auch 500€ genommen. :D
Aber Nvidia hat ihnen die Möglichkeit eröffnet, solche Preise zu nehmen. Die billigste 2080 bei Newegg z.B. kostet $700 und die Karte verkauft sich. Also nimmt man für grob ähnliche Leistung, dafür aber mit dem Pfund von 16GB HBM2 halt denselben Preis.
Und mal ehrlich: Mit 8GB wär das Teil stinklangweilig, aber die 16GB... sexy hoch zehn. ;D
w0mbat
2019-01-09, 23:51:39
Vega20 ist ein HPC Chip der Anfangs ja gar nicht als consumer Karte geplant war. Stellt euch mal folgendes Szenario vor:
1. Nvidia stellt Turning vor, die Leistung bleibt unter den Erwartungen, die Preise werden trotzdem stark erhöht
2. Die Vega20 7nm yields sind besser als gedacht
3. Bei TSMC werden durch Apple & Co. Kapazitäten frei, welche AMD günstig erwerben kann
Plötzlich merkt man, dass die bisher eigentlich nur für den Profi/HPC-Markt geplante Vega20 auch im consumer und gaming Markt eine Chance hat. Das Preisniveau ist allgemein gestiegen, die Turing Konkurrenz nicht so stark wie gedacht und die Fertigung dank guter yields und guten Preisen bei TSMC fällt auch günstiger aus.
Dann nimmt AMD eine salvage Vega20 mit 60CUs und plötzlich hat man wieder eine "neue" gaming Karte die Radeon etwas in den Köpfen hält und vielleicht sogar mit einer RTX 2080 mithält. Der Markt für 1000€+ Karten wie die 2080 Ti wird wohl verschwindend gering sein, wenn auch die Margen sehr hoch sind.
Das ist mMn wirklich noch nicht so lange geplant worden und war eher eine kurzfristige Entscheidung (Turing launch zB).
Und dass eine HPC Karte die auf DP und viel Speicher/Bandbreite ausgelegt ist nicht die optimale gaming GPU wird ist klar. Aber Konkurrenz belebt das Geschäft und für 4K könnte die Vega20 aka Radeon VII dank 16GB und 1TB/s doch eine ordentliche Wahl sein.
Ich bin gespannt, rechne aber nicht damit, dass man die 2080 im Schnitt schlägt. Je höher die Auflösung, desto besser wird sie wohl performen.
Armaq
2019-01-09, 23:56:11
Nur riesig groß erschien mir die Karte für HBM Speicher. Die FuryX war da echt sexy. Ist für die Temperatur im Kasten auch gut.
Ex3cut3r
2019-01-10, 00:14:14
Die 2080 hatte eine UVP von $799/849€ und direkt mal 3GB weniger als der (leistungstechnische) Vorgänger.
Logischerweise zerreißt man sowas.
Falsch und falsch, der "leistungtechnische" Vorgänger ist die 1080, wann lernen das Leute endlich mal.
Ich sehe nicht was AMD außer beim VRAM da soviel besser macht,
man braucht trotz 7nm wieder mehr Strom um vermutlich (ist noch gar nicht sicher) die gleiche Leistung zu erreichen. Bzw. hat AMD es vermutlich geschafft auf dem Level einer 1080Ti anzukommen, hat ja nur 2 Jahre und die fast hälfte des Prozess (7nm vs 16nm) gedauert, herzlichen Glückwunsch AMD. *Applaus*
Was ich mich frage, 700€ zum Rls. sind eigentlich viel zu viel, komischerweise ist das bei AMD aber irgendwie ok.
Tja. Wenn schon der Refresh 700 Steine verlangt, da wird der Navi Vollausbau aber auch nicht grade billig.
So kann man's auch sehen. Die Titan X (Pascal), veröffentlicht Mitte 2016 und ausgestattet mit 12 GiByte, wurde nun eingeholt bzw. teilweise überboten. Hmja ...
MfG,
Raff
dildo4u
2019-01-10, 00:20:29
Falsch und falsch, der "leistungtechnische" Vorgänger ist die 1080, wann lernen das Leute endlich mal.
Ich sehe nicht was AMD außer beim VRAM da soviel besser macht,
man braucht trotz 7nm wieder mehr Strom um vermutlich (ist noch gar nicht sicher) die gleiche Leistung zu erreichen. Bzw. hat AMD es vermutlich geschafft auf dem Level einer 1080Ti anzukommen, hat ja nur 2 Jahre und die fast hälfte des Prozess (7nm vs 16nm) gedauert, herzlichen Glückwunsch AMD. *Applaus*
Was ich mich frage, 700€ zum Rls. sind eigentlich viel zu viel, komischerweise ist das bei AMD aber irgendwie ok.
Tja. Wenn schon der Refresh 700 Steine verlangt, da wird der Navi Vollausbau aber auch nicht grade billig.
Du hast doch grad erst 700€ Nvidia in den Rachen geworfen ihr unterstützt diese Scheiße immer weiter und so kommen die Preise nie wieder runter.
Linmoum
2019-01-10, 00:22:48
Falsch und falsch, der "leistungtechnische" Vorgänger ist die 1080, wann lernen das Leute endlich mal.
Jo, frage ich mich in der Tat, wann die Leute das mal lernen.
Der leistungstechnische Vorgänger der 2080 ist die 1080Ti. Erkennt man eigentlich auch ziemlich gut, wenn man sich Benchmarks beider Karten vielleicht auch mal anguckt. Da liegen 1080Ti-Customs und die 2080 ziemlich eng beeinander. Jetzt nicht so schwer zu verstehen und erkennen.
Ex3cut3r
2019-01-10, 00:23:21
Du hast doch grad erst 700€ Nvidia in den Rachen geworfen ihr unterstützt diese Scheiße immer weiter und so kommen die Preise nie wieder runter.
Wieso muss AMD alles Nvidia nachmachen? 500€ wäre ein guter Preis gewesen. Was kann ich als einziger für die AMD Preise? Wahrscheinlich sind 16GB HBM nicht günstig.
Jo, frage ich mich in der Tat, wann die Leute das mal lernen.
Der leistungstechnische Vorgänger der 2080 ist die 1080Ti. Erkennt man eigentlich auch ziemlich gut, wenn man sich Benchmarks beider Karten vielleicht auch mal anguckt. Da liegen 1080Ti-Customs und die 2080 ziemlich eng beeinander. Jetzt nicht so schwer zu verstehen und erkennen.
Ja genau, glaubs weiter. Der Nachfolger der 1080Ti ist die 2080 Ti. Ganz einfach.
Nochmal für dich: Vega20 ist ein HPC Chip der Anfangs nicht einmal für consumer geplant war. Das Teil schlägt eine Titan V in DP, was für Gaming aber egal ist.
Klar, aus der Sicht der Kunden stimmt das alles was du sagst. Sicher kein Wunderwerk. Aber dafür wurde es auch nicht gebaut, es ist sozusagen eine "Missgeburt" :freak:
Die 1080 Ti hingegen war eine reinrassige gaming GPU.
Was AMD wirklich kann, wenn es ums Zocken geht, werden wir wohl erst mit Navi sehen. Wenn das nichts wird übernehme ich das Trollen selber :P
Ok Chef, aber warum genau wird das Ding so gehypt? Sry erschließt sich mir nicht.
Naja, mal sehen ob Navi endlich mal 30% auf die 2080 Ti drauflegt. Ich glaub ja nicht. :redface:
w0mbat
2019-01-10, 00:24:30
man braucht trotz 7nm wieder mehr Strom um vermutlich (ist noch gar nicht sicher) die gleiche Leistung zu erreichen. Bzw. hat AMD es vermutlich geschafft auf dem Level einer 1080Ti anzukommen, hat ja nur 2 Jahre und die fast hälfte des Prozess (7nm vs 16nm) gedauert, herzlichen Glückwunsch AMD. *Applaus*
Nochmal für dich: Vega20 ist ein HPC Chip der Anfangs nicht einmal für consumer geplant war. Das Teil schlägt eine Titan V in DP, was für Gaming aber egal ist.
Klar, aus der Sicht der Kunden stimmt das alles was du sagst. Sicher kein Wunderwerk. Aber dafür wurde es auch nicht gebaut, es ist sozusagen eine "Missgeburt" :freak:
Die 1080 Ti hingegen war eine reinrassige gaming GPU.
Was AMD wirklich kann, wenn es ums Zocken geht, werden wir wohl erst mit Navi sehen. Wenn das nichts wird übernehme ich das Trollen selber :P
Versteht mich nicht falsch: Ich mag Ram. Aber wenn es stimmt dass die 16GiB Ram im Einkauf ca. die Hälte des Verkaufspreises ausmachen, wie von einigen Seiten kolportiert, dann fänd ich eine 8GiB-Version eigentlich ganz schön.
Troyan
2019-01-10, 00:34:40
Eine 8GB Version hat doch keinen Markt. Wer würde hier die Karte mit 8GB und 500GB/s kaufen?!
Die Karte hat es jetzt doch schon schwer genug. Noch weiter beschneiden und die 2070 ist nicht mehr weit weg...
Daredevil
2019-01-10, 00:35:40
Ich weiß, es interessiert hier die wenigsten, ich poste es aber trotzdem. :D
Wenn Radeon 7 in etwa so gut skaliert wie die herkömmliche Vega mit schnellerem HBM2 Speicher, haben wir es hier mit einer Karte zutun, welche für kleine als auch große Miner wieder interessant werden könnte.
Mal ein paar Zahlen Daten Fakten:
Eine Vega64 kommt optimiert in ETHash auf etwa 44-45MH/s bei ~160w Verbrauch.
Eine 1080ti kommt optimiert in ETHash auf etwa ~52-54MH/s bei ~172w Verbrauch.
Eine TitanV kommt optimiert in ETHash auf etwa ~80MH/s bei ~237w Verbrauch.
Vega64 Stock : 484GB/s
1080ti Stock: 484GB/s
TitanV Stock: 653GB/s
Radeon 7: 1000GB/s
Wir reden hier dann bestimmt über Ergebnisse von 80-110MH/s bei 120-200w, wenn der Verbrauch wirklich identisch sein sollte zur Vega64 und die Bandbreite so gut skaliert. ( Bei der Titan V macht sie es ja anscheinend ) Das könnte sehr begehrt sein, also vielleicht besser früher ordern, als es zuspät oder zu teuer wird. :frown:
Blediator16
2019-01-10, 00:36:19
Ich würde sagen, dass die Entwicklung einer neue Arch + tensorcores doch schon mehr ins Gewicht fällt, als was AMD da mit dem Vega shrink gemacht hat. Kosten Nutzen muss passen. Wer weiss wieviel teurer das Ding in der Produktion ist, als eine TU104 inkl. GDDR6. Wahrscheinlich kaum einer.
Schnoesel
2019-01-10, 00:36:49
Die Karte 100€ günstiger hätte vermutlich mehr eingeschlagen, aber mich überrascht es dass wir überhaupt eine "Gaming" Vega 2 aka Vega VII zu Gesicht bekommen.
Tatwaffe
2019-01-10, 00:38:15
Versteht mich nicht falsch: Ich mag Ram. Aber wenn es stimmt dass die 16GiB Ram im Einkauf ca. die Hälte des Verkaufspreises ausmachen, wie von einigen Seiten kolportiert, dann fänd ich eine 8GiB-Version eigentlich ganz schön.
8gb HBM2 kosten ca. 120$, also kann das nicht die hälfte ausmachen am Verkaufspreis, um die 30% eher.
Hakim
2019-01-10, 00:46:01
Gibts hier schon welche die beabsichtigen die Karte zu kaufen?
Linmoum
2019-01-10, 00:49:07
Ja, ich. :D
Allerdings keine Ahnung ob auch direkt zum Release. Erstmal schauen, ob ich meine Vega64 vorher noch an den Mann bringen kann.
Daredevil
2019-01-10, 00:52:10
Projekt Vega Crossfire hat sich bei mir so langsam erledigt.
Die Karten werden diesen Monat hoffentlich erfolgreich verkauft und dann steht ne RTX2070 oder eben ne VII an, je nachdem was man noch so hört und ob es feine Angebote zum vorbestellen bzw. Kauf gibt.
Kleines Video:
IcL4XFwptHo
Weiß man eigentlich, ob es wieder den Pro-Treiber dafür geben wird? Müßte es doch eigenlich, schließlich vermarktet AMD es ja als Karte für content creators.
Dann wäre der Preis doch wesentlich besser zu verdauen.
DrFreaK666
2019-01-10, 03:20:56
Da ich nie wieder eine Nvidia-Karte will, wäre diese ein toller Nachfolger für meine 980ti.
Aber ich schlage bei maximal 500€ zu, und auch nur dann wenn es ohne Gefrickel taugt (Leistung und Lautstärke)
RTX 2080 Leistung zum RTX 2080 Preis. Wenn's extrem gut läuft für AMD eventuell sogar nicht nur in Ashes of The Singularity.
Glaube nicht, dass durch dieses Produkt die Preise ins rutschen geraten, insofern hält sich meine Begeisterung in Grenzen. Was bringt Konkurrenz, wenn diese einfach die Preissteigerungen vom Platzhirsch mitmacht? Aber schön, dass AMD wohl mal wieder ein brauchbares Produkt im gehobenen Leistungssegment veröffentlicht.
gravitationsfeld
2019-01-10, 07:18:13
Ich denke sie werden 16GB RAM als Haupt-Vorteil gegenueber der RTX 2080 bewerben - ob das den Verzicht auf Raytracing, Deep-Learning-Acceleration und Mesh-Shader ausgleicht sei jedem selber ueberlassen.
Godmode
2019-01-10, 07:29:37
Ich denke sie werden 16GB RAM als Haupt-Vorteil gegenueber der RTX 2080 bewerben - ob das den Verzicht auf Raytracing, Deep-Learning-Acceleration und Mesh-Shader ausgleicht sei jedem selber ueberlassen.
Raytracing ist IMHO noch nicht so wichtig, aber Tensor-Kerne fehlen sehr wohl, IMHO.
w0mbat
2019-01-10, 08:05:52
DLSS muss auf jedes Spiel und jede Auflösung von Nvidia angepasst werden. Die Frage ist, ob es überhaupt relevant wird.
Grendizer
2019-01-10, 08:06:26
Nur so als kleiner Spassbremser.... wir erinnern uns alle an die überwältigende Verfügbarkeit von Vega (vor allem Vega 56) nach Release ?
Ich gehe davon aus, das es auch hier nicht viel besser sein wird. Ich sehe das auch so als Lebenszeichen, aber mit einer großen Verfügbarkeit am Markt rechne ich nicht.
Rancor
2019-01-10, 08:11:55
Ich finde die Karte recht interessant, weil sie 16GB bietet. Man muss jetzt mal finale Tesst abwarten, ob das Teil wirklich was taugt und eine ernsthafte Konkurrenz zur RTX 2080 ist.
Godmode
2019-01-10, 08:38:34
DLSS muss auf jedes Spiel und jede Auflösung von Nvidia angepasst werden. Die Frage ist, ob es überhaupt relevant wird.
Vergiss DLSS. Ich meinte sie brauchen die Tensor-Cores für professionelle Deep-Learning-Anwendungen.
Simon
2019-01-10, 09:01:38
Gibts hier schon welche die beabsichtigen die Karte zu kaufen?
Ich kauf definitiv eine.
Oder zwei :freak:
Ich denke sie werden 16GB RAM als Haupt-Vorteil gegenueber der RTX 2080 bewerben - ob das den Verzicht auf Raytracing, Deep-Learning-Acceleration und Mesh-Shader ausgleicht sei jedem selber ueberlassen.
Vega 20 bietet doch Verbesserungen für Deep Learning. Integer-Formate (-> Inferencing, Denoising) werden schneller denn je berechnet, die genauen Raten habe ich aber nicht im Kopf.
Mesh Shading als Argument, echt? Das mag für euch als Entwickler geil sein, aber proprietär sehe ich da bis auf 1–2 Showcases keine Marktdurchdringung.
MfG,
Raff
Cyphermaster
2019-01-10, 09:07:11
Mich würde statt Mesh Shading ja/nein eher interessieren, ob es zur VII/60 vielleicht auch noch eine VII/52 geben könnte, als Entsprechung der V56. Vorausgesetzt, man hat die VII/60 wie üblich bis zum Erbrechen hochgetrieben, könnten das sehr feine Kärtchen sein.
w0mbat
2019-01-10, 09:38:43
Oder anders herum, also eine VII/64.
SKYNET
2019-01-10, 10:12:28
Gibts hier schon welche die beabsichtigen die Karte zu kaufen?
jupp *hand heb*
anddill
2019-01-10, 10:15:14
Laut dem verlinkten Video hat V2 die doppelte Anzahl von ROPs? 128Stk? Also doch für Spiele gedacht und optimiert. Da dürfte vor allem in hohen Auflösungen ein Flaschenhals beseitigt worden sein.
Dural
2019-01-10, 10:15:36
Das dürfte wohl eher an Kopieren & Einfügen liegen ;) Der Aufwand die ROPs anzurühren ist doch viel zu hoch für die Fläche die sie in 7nm benötigen.
Die Tesla Chips haben auch immer sinnlos viele ROPs.
Gibts hier schon welche die beabsichtigen die Karte zu kaufen?
Hier, wenn lieferbar und kein zusätzlicher Aufschlag.
Lowkey
2019-01-10, 10:16:23
Da beißt sich der Hund in den Schwanz: 8gb einer 2080 seien nicht genug, weil Spiele mit RT mehr Speicher belegen würden. AMD bietet mehr Speicher ohne RT Support.
Ich rechne auch mit einem Vega Start: Tiefstpreise am ersten Tag und mangelnde Verfügbarkeit über Wochen.
Dural
2019-01-10, 10:22:20
Sorry, aber nüchtern betrachtet sind die 16GB sicher kaum einen Vorteil für Gamer.
Sehen auf dem Papier sicherlich sehr cool aus, aber Praktisch wird man in dieser Leistung Klasse (zwischen 2070-2080) nicht wirklich viel davon haben.
Jaja wird sicher welche geben die entsprechende Einstellungen finden werden, Praxisrelevant wird es aber kaum sein.
Lowkey
2019-01-10, 10:23:08
Wo ist HISN, wenn jemand schreibt, dass 16gb ohne Nutzen seien? :D
Dural
2019-01-10, 10:24:36
Das habe ich NICHT gesagt, ich habe gesagt das es in dieser Leistungsklasse nicht Praxisrelevant ist! ;)
BlacKi
2019-01-10, 10:28:35
Das habe ich NICHT gesagt, ich habe gesagt das es in dieser Leistungsklasse nicht Praxisrelevant ist! ;)
zuviel speicher gibts erfahrungsgemäß nicht, wenn der preis stimmt. ich bin auch mal auf division 2 gespannt, der letzte teil 2016 konnte schon damals 8gb vram volhauen.
Lowkey
2019-01-10, 10:29:57
Zu spät ... HISN ist schon auf dem Weg hierher.
SKYNET
2019-01-10, 10:45:47
Sorry, aber nüchtern betrachtet sind die 16GB sicher kaum einen Vorteil für Gamer.
Sehen auf dem Papier sicherlich sehr cool aus, aber Praktisch wird man in dieser Leistung Klasse (zwischen 2070-2080) nicht wirklich viel davon haben.
Jaja wird sicher welche geben die entsprechende Einstellungen finden werden, Praxisrelevant wird es aber kaum sein.
sie wird leistungsmässig mindestens auf ner 2080 liegen, also max out in 1440p... das was ne 2080 schon nicht mehr kann, weil ihr der speicher schon auf halben weg ausgeht :P
Winter[Raven]
2019-01-10, 12:16:19
sie wird leistungsmässig mindestens auf ner 2080 liegen, also max out in 1440p... das was ne 2080 schon nicht mehr kann, weil ihr der speicher schon auf halben weg ausgeht :P
Erstmal... muss die Karte auf 2080 liegen in unabhängigen Tests. Danach unterhalten wir uns weiter.
Dural
2019-01-10, 13:18:08
Vorallem wenn amd selber sagt das sie ca. 5% hinter der 2080 ist :rolleyes:
Der_Korken
2019-01-10, 13:22:09
https://www.computerbase.de/2019-01/nvidia-ceo-amd-radeon-vii/
Was isn mit Huang los? Gabs auf der Familienfeier zu Weihnachten Krach? ;D
Ich mein, ich bin selber nicht sehr begeistert über die Radeon VII, weil ich mir unter 7nm mehr erhofft hatte (selbst für einen Shrink, das war Polaris quasi auch). Aber solche Sprüche können schnell nach hinten losgehen, wie "glued together" von Intel :D.
blaidd
2019-01-10, 13:29:48
It’s underwhelming. The performance is lousy...[...]
Frei übersetzt: "Die Performance einer RTX 2080 ist somit auch enttäuschend. Erst eine RTX 2080 Ti oder eine Titan RTX sind etwas besser als lausig." ;)
][immy
2019-01-10, 13:29:51
https://www.computerbase.de/2019-01/nvidia-ceo-amd-radeon-vii/
Was isn mit Huang los? Gabs auf der Familienfeier zu Weihnachten Krach? ;D
Ich mein, ich bin selber nicht sehr begeistert über die Radeon VII, weil ich mir unter 7nm mehr erhofft hatte (selbst für einen Shrink, das war Polaris quasi auch). Aber solche Sprüche können schnell nach hinten losgehen, wie "glued together" von Intel :D.
Tja, nennt man wohl Größenwahn :)
Leider ein Grund mehr keine nvidia Karte zu holen. Man sollte schließlich auch die Konkurrenz immer mit Respekt behandeln und nicht den Trump markieren.
Felis silvestris
2019-01-10, 13:33:39
Was erwartet ihr? Wenn man bei Coca Cola nachfragen würde was die über Pepsi denken würde ich nicht zwangsweise lobende Worte erwarten. :wink:
MartinRiggs
2019-01-10, 13:33:51
https://www.computerbase.de/2019-01/nvidia-ceo-amd-radeon-vii/
Was isn mit Huang los? Gabs auf der Familienfeier zu Weihnachten Krach? ;D
Ich mein, ich bin selber nicht sehr begeistert über die Radeon VII, weil ich mir unter 7nm mehr erhofft hatte (selbst für einen Shrink, das war Polaris quasi auch). Aber solche Sprüche können schnell nach hinten losgehen, wie "glued together" von Intel :D.
Ich glaube eher das bei Nvidia die Verkaufszahlen nicht passen.
2060, RTX nützt eh nix und die 6GB sind grenzwertig
2070, das einzig Runde Produkt, obwohl hier RTX auch fürn Arsch bzw. nur Wegbereiter ist
2080, zu teuer und nur 8GB
2080Ti, Preislich völlig abgehoben und unattraktiv.
Außer den berühmt berüchtigten FX wüsste ich keine Generation wo Nvidia so kacke war.
Da ist selbst die GTX480 Gold gewesen, die brauchte nur einen großen und guten Kühler.
Hakim
2019-01-10, 13:35:24
Die haben das bei irgendeinem Familientreffen vereinbart um für die Fan trolls auf beiden Seiten futter zu geben
Seine Aussage mag schäbig sein, doch ganz Unrecht hat er nicht. Denn er wird oft ohne Kontext zitiert: Er nennt die 7-nm-Fertigung und HBM2. Mit der Fertigung und der Transferrate hätte man ein echtes Gaming-Biest zimmern können. Hat man aber nicht (weil das ein HPC-Chip ist).
MfG,
Raff
Savay
2019-01-10, 13:38:50
Außer den berühmt berüchtigten FX wüsste ich keine Generation wo Nvidia so kacke war.
Der selbst gewählte Vergleich mit der nV10 passt eigentlich ganz gut.
Teuer, extrem schnell veraltet, hat zu Lebzeiten nie von T&L profitiert.
Das war technisch für kombinierte 2D/3D Karten ein Meilenstein, aber rein von dem Gegenwert den man als Kunde bekommen hat eher enttäuschend.
Das ist die nV Karte deren Kauf ich bis heute mit am meisten bereut habe...selbst noch vor meinem persönlichen nV Sargnagel GTX970! ;)
FX war dagegen einfach nur in jeder Beziehung meh...das Ding hat ja nur aus seiner kompletten desaströsen uncoolness einen Vitrinenfaktor.
Mit der Fertigung und der Transferrate hätte man ein echtes Gaming-Biest zimmern können.
Hätte, hätte...
Das ist aber auch alles jedem halbwegs Technik-interessierten, der überhaupt weiß was "7nm" bedeutet, mehr oder weniger bewusst! :)
Fakt ist, mit so einem Gebaren macht er den Laden nicht grade sympathischer.
nV hat in der Beziehung grade echt ein Lauf an Skandalen und Skandälchen und machen es zumindest mir wirklich sehr leicht kein Produkt mehr von denen zu kaufen.
Hakim
2019-01-10, 13:39:44
Ja aber was wäre die Alternative gewesen? Nichts bringen und auf Navi warten oder ein aufgemotzer polaris auf 7nm und HBM2?
dildo4u
2019-01-10, 13:40:41
PC Gamer hat angeblich Finale Clocks Base 1450 mhz und 1750hmz Boost@300TDP.
https://www.pcgamer.com/hands-on-with-the-amd-radeon-vii/
maximus_hertus
2019-01-10, 13:40:44
Seine Aussage mag schäbig sein, doch ganz Unrecht hat er nicht. Denn er wird oft ohne Kontext zitiert: Er nennt die 7-nm-Fertigung und HBM2. Mit der Fertigung und der Transferrate hätte man ein echtes Gaming-Biest zimmern können. Hat man aber nicht (weil das ein HPC-Chip ist).
MfG,
Raff
Umgekehrt wird ein Schuh draus. Mit dieser Chipfläche und GDDR6 hätte Turing ein echtes Gaming-Biest sein müssen, ist es aber nicht.
Loeschzwerg
2019-01-10, 13:42:03
Das ist die nV Karte deren Kauf ich bis heute am meisten bereut habe...
Mittlerweile ein teures Sammlerstück so eine Geforce 256, genauso wie die highend FX ;)
Umgekehrt wird ein Schuh draus. Mit dieser Chipfläche und GDDR6 hätte Turing ein echtes Gaming-Biest sein müssen, ist es aber nicht.
Das auch. Aber verrat's Jensen nicht, sonst feuert der eventuell Mitarbeiter (das beflügelt den Aktienkurs). :ugly:
Mittlerweile ein teures Sammlerstück so eine Geforce 256, genauso wie die highend FX ;)
Die Geforce wird heuer übrigens 20. How the time forgoes ... :eek:
MfG,
Raff
MiamiNice
2019-01-10, 13:44:01
Ich find den Kommentar von Lederjacke genial. Alle Firmenchefs sollten sich imo zu solchen Aussagen hinreißen lassen. Finde ich massiv erfrischend.
Godmode
2019-01-10, 13:45:31
Seine Aussage mag schäbig sein, doch ganz Unrecht hat er nicht. Denn er wird oft ohne Kontext zitiert: Er nennt die 7-nm-Fertigung und HBM2. Mit der Fertigung und der Transferrate hätte man ein echtes Gaming-Biest zimmern können. Hat man aber nicht (weil das ein HPC-Chip ist).
MfG,
Raff
Es ist doch nur ein Shrink und keine neue Architektur, somit passt es schon, IMHO.
Savay
2019-01-10, 13:49:53
Mittlerweile ein teures Sammlerstück so eine Geforce 256, genauso wie die highend FX ;)
Aber aus vollkommen anderen Gründen!
Erstere war einfach von der Technik ziemlich abgefahren...das zweite dagegen einfach total abgehängt und nur durch den "Föhn" so uncool das es wieder cool wurde. ;D
Nicht falsch verstehen...ich habe meine GF256 DDR auch noch im Schrank stehen, weil es einfach ziemlich cooles Silizium ist...neben der VooDoo2 und meiner HD5870! ;)
Nur hatten die V2 und auch der RV870 irgendwie zu "Lebzeiten" deutlichst mehr Bang for the Buck...
Alle Firmenchefs sollten sich imo zu solchen Aussagen hinreißen lassen.
Also quasi dem guten Beispiel von Musk folgen und sich dadurch in letzter Konsequenz selbst von etwaigen CEO Posten abschießen?! ;D
Gute Idee... :rolleyes:
w0mbat
2019-01-10, 13:50:59
Lol, der Jensen. Da flattert ihm jetzt die Hose :D
Und dann schreibt er, mit upscaling ist man schneller als AMD ohne upscaling. Yeah, no shit :ugly:
Wie alle sich vom "deep learnig" verarschen lassen, plötzlich ist upscaling also geil? Naja, Nvidia Käufer glauben wohl alles...
Armaq
2019-01-10, 13:51:04
So richtig passt das alles nicht, wenn man eine Minute nachdenkt.
7nm und 8 GB HBM mehr brauchen 300 Watt für 2080 Performance?
Wieviel Watt genehmigt sich eine V64 bei 1400 Mhz?
Wieviel die Radeon Instinct?
Oder ist es wirklich die umgelabelte Karte OHNE jeglichen Architektur-Tweak, die eigentlich keine Gamerkarte sondern eine Minerkarte ist?
w0mbat
2019-01-10, 13:53:35
Es sind 16GB HBM2. Die Radeon VII ist einfach eine MI50. Klar ist es keine "Gamerkarte" sondern Vega20 und damit eine HPC Karte. War ja auch nicht so geplant. Erst durch die enttäuschende Leistung von Turing in Kombination mit den hohen Preisen wurde es für AMD überhaupt möglich Vega20 als Radeon VII zu bringen.
Deshalb regt sich Jensen jetzt auch so auf, weil er merkt, dass er den Vorsprung durch die nutzlose RTX-Spielerei fast verbraten hat.
Tatwaffe
2019-01-10, 13:56:14
Nachdem der Aktienkurs so abgestürzt ist und Anleger bereits klagen wirds ihm wohl zu heiss in seiner Jacke.
Die R7 ist wohl ein richtiger Treffer vor allem in den Professionellen Compute Sektor in dem Nvidia auch Fuß fassen will, da wo die dicke Marge winkt.
Nicht verfügbar waren seine Karten doch auch nicht zur Vorstellung dazu Verschiebungen und ein Speicherausfall Desaster.
Bei no Ray-tracing können die nvidia Käufer doch auch mit einstimmen in den Klagegesang.
Naja so ist das bei den kleinen großen Jungs Hauptsache ablenken und auf die anderen zeigen.
Wenn sie jetzt noch eine 1180 ohne Raytracing bringen, dürfte das RTX Feature nahezu begraben sein wenn sie nicht jedesmal viel Geld in die Hand nehmen um die Entwickler damit zu überreden doch noch 2-3 Monate an die Entwicklung zu hängen für 5% des Marktes. (in FullHD)
Ich hab zwar keine Karte aber ich würde mich wundern wen 1,8ghz das ende bei 7nm wäre, AMD wählt da immer sehr konservative Einstellungen und gibt den Chips 20% zuviel Strom für die Standard-Taktraten.
Nen neuen Chip und ne neue Fertigung gleichzeitig machen ist meist nicht klug, sie haben ne Menge aus diesem Chip gelernt, und werden damit die neue Architektur auf die 7nm Fertigung anpassen.
Das AMD die ersten mit 7nm sind sollte man auch mal würdigen, Intel hat über 3 Jahre am 10nm Prozess gearbeitet und es komplett verkackt, daß mit dem 10x fachen an Budget in Forschung & Entwicklung.
Und Nvidia hängt auch mit einer 1400€ Karte bei 12nm fest, will man mehr als 8gb muß man deutlich über 1000€ locker machen , das nenn ich mal ne Enttäuschung.
die 8gb zusätzlichen HBM2 Speicher werden vom Verbrauch her schon auf ca 30 Watt geschätzt, es gibt schon Fortschritte im Verbrauch nur wurden die direkt in neue Leistung gesteckt. 8gb mehr und ca 30% mehr Leistung aber gleicher Vebrauch wie die Vorgänger ist für die gleiche Architectur schon gut, und wartet erstmal Tests ab ob der Verbrauch so stimmt, oft nimmt AMD da die Vebräuche der Engineer Samples die deutlich höher liegen können als die die dann beim Kunden sind.
Deshalb regt sich Jensen jetzt auch so auf, weil er merkt, dass er den Vorsprung durch die nutzlose RTX-Spielerei fast verbraten hat.
Man kann Früchte nicht direkt nach der Verpflanzung des Setzlings ernten.
MfG,
Raff
w0mbat
2019-01-10, 13:58:34
Langfristig wird DXR schon kommen, aber das braucht noch min. 2+ Jahre. Ich finde Innovation auch gut und DXR hat bestimmt viel Potential, aber bei Turing ist halt echt viel schiefgelaufen. 12nm aka 16nm+ anstatt "echten" 10nm und das ganze RTX/Tensor Zeugs haben Turing total aufgeblasen. Dazu stürzt die Nvidia Aktie um >50% ab und plötzlich muss man die Preise extrem anheben um die Marge zu retten, was AMD wiedrum ermöglich mit ihrem HPC Chip ein Konkurrenzprodukt zur 2080 zu liefern.
Das hat Jensen so ganz sicher nicht geplant.
wolik
2019-01-10, 13:59:03
Lol, der Jensen. Da flattert ihm jetzt die Hose :D
Und dann schreibt er, mit upscaling ist man schneller als AMD ohne upscaling. Yeah, no shit :ugly:
Wie alle sich vom "deep learnig" verarschen lassen, plötzlich ist upscaling also geil? Naja, Nvidia Käufer glauben wohl alles...
Nein. Tun die nicht. Es gibts keine frage bei 2080/8Gb vs VegaVII/16Gb wer Winner ist. Ich freue mich.
mahoni
2019-01-10, 14:03:16
Hmm, ist schon krass mit den 16GB RAM. Gerade wenn man auch gerne mal Mods benutzt, die freuen sich ja über viel VRAM. Ich könnte meine RTX 2080 noch zurück schicken (14Tages frist).
bnoob
2019-01-10, 14:10:38
Es wird auch eine Waffe für PCSX2 @4K, das einzige Programm das bei mir von HBCC profitiert hat :D
Endlich Kingdom Hearts 1 in 4K gefiltert und geglättet spielen!
Mangel76
2019-01-10, 14:13:19
Wenn man sich die zahlreichen Sonderangebote von RTX-Karten im Mindstar so sieht, könnte man schon auf den Gedanken kommen, dass die sich zu den angepeilten Preisen nicht so gut verkaufen. Schon gar nicht mit ner 2080-Alternative ohne derzeit nicht nutzbaren RT-Kram, dafür aber ausreichend VRAM.
][immy
2019-01-10, 14:29:36
Die Geforce wird heuer übrigens 20. How the time forgoes ... :eek:
MfG,
Raff
Die Riva128 hat man derweil vergessen, besser isses … war echt nicht schön, wie dem Ding immer der Speicher ausgegangen ist mit ihren ganzen 4 MB und dann einfach mal mitten drin Texturen fehlten. Ich kennen niemanden der Problemlos mit der Riva128 spielen konnte damals. Mit der TNT wurde es dann erträglich.
Ist eigentlich schon irgendwas zur 7nm Polaris (bzw. deren ersatz) durchgesickert? Oder bleibt es erst mal beim 600€ Preissegment und den alt-karten?
SKYNET
2019-01-10, 14:30:44
Wenn man sich die zahlreichen Sonderangebote von RTX-Karten im Mindstar so sieht, könnte man schon auf den Gedanken kommen, dass die sich zu den angepeilten Preisen nicht so gut verkaufen. Schon gar nicht mit ner 2080-Alternative ohne derzeit nicht nutzbaren RT-Kram, dafür aber ausreichend VRAM.
klar, wollen schnell den abfall loswerden, wissen genau das niemand ein speicherkrüppel ala 2070/2080 kaufen wird, sobald die VII da ist, essei die person hat ne grüne brille auf der nase :ulol:
Tatwaffe
2019-01-10, 14:31:28
[immy;11896722']
Ist eigentlich schon irgendwas zur 7nm Polaris (bzw. deren ersatz) durchgesickert? Oder bleibt es erst mal beim 600€ Preissegment und den alt-karten?
Ich glaub die (beide nvidia und AMD) sitzen noch aufm Berg alt chips die fürs mining geplant waren die erstmal abgebaut werden müssen.
die 580 gabs schon für 170€ die gtx 1070 für 270€ dazu jeweils 2 oder 3 neue Spiele.
die 590 hat schon nen kleinen shrink auf 12nm gemacht, für 7nm hab ich nix gesehn.
dildo4u
2019-01-10, 14:42:32
klar, wollen schnell den abfall loswerden, wissen genau das niemand ein speicherkrüppel ala 2070/2080 kaufen wird, sobald die VII da ist, essei die person hat ne grüne brille auf der nase :ulol:
Als wenn Vega für 700€ eine nennenswerte Rolle spielt,die 2070 wird die einzige Karte sein die Ende 2019 bei Steam auftaucht.
Daredevil
2019-01-10, 14:44:55
AMD basht ganz schön Nvidia. ^^
https://i.imgur.com/KHlKLia.jpg
https://i.imgur.com/wUUtlGL.jpg
https://i.imgur.com/B2X4WpX.jpg
Auch interessant, das AMD ebenfalls Streaming als Argument nimmt.
SKYNET
2019-01-10, 14:45:40
Als wenn Vega für 700€ eine nennenswerte Rolle spielt,die 2070 wird die einzige Karte sein die Ende 2019 bei Steam auftaucht.
wäre ich mir nicht so sicher... tippe eher auf das frankenstein monster 2060... leute sind ja zu .... 1+1 zusammen zu zählen :rolleyes: sieht man ja, wie die fantrolle hier die 2060 abfeiern :ulol:
w0mbat
2019-01-10, 14:49:44
So lange die 6GB ausreichen ist die 2060 mMn eine super Karte. Ich selber hab noch eine R9 290 mit nur 4GB und @1080p reicht das meistens noch gut aus.
Klar wird die 2060 sich besser verkaufen, das war schon immer so.
maximus_hertus
2019-01-10, 15:01:22
Bei uns in Deutschland richtet sich das Kaufinteresse halt am Europreis. Hätte es nV geschafft die 2080 Ti FE für 949 Euro, die 2080 FE für 649 Euro und die 2070 für 449 Euro zu bringen, alles wäre anders gelaufen. Es gäbe deutlich bessere Presse, das Kaufinteresse und die Kaufkraft wären deutlich höher.
Einfache Customs würden dann bei 899, 599 sowie 399 Euro landen.
Allein diese (kleine) Preisanpassung hätte eine Radeon VII wohl unmöglich gemacht bzw. es wäre extrem schwer für AMD geworden, diese zu vermarkten.
Die Radeon VII könnte eine gute Investition werden, ähnlich der ersten Titan Karte. Die hatte ja dank 6 GB eine sehr lange LEbensdauer (im Prinzip kann man noch heute gut mit ihr zocken, sie dürfte nur etwas hinter der 1060 zurück liegen).
mironicus
2019-01-10, 15:05:34
16 GB >>>>> 8 GB + RTX
AMD hat genau das gemacht was ich von NVidia erwartet hätte. 8 GB gibt es schon bei Karten für 170 Euro, das ist 2019 schon low-end.
Rancor
2019-01-10, 15:05:44
300 Watt TDP und ich bin raus... schade.
SKYNET
2019-01-10, 15:09:20
300 Watt TDP und ich bin raus... schade.
kann ich mit leben, liegt auf gleichem niveau wie meine aorus @ stock :smile: also keine änderung für mich... PT 150% und ab gehts ;D
Hakim
2019-01-10, 15:11:17
16 GB >>>>> 8 GB + RTX
AMD hat genau das gemacht was ich von NVidia erwartet hätte. 8 GB gibt es schon bei Karten für 170 Euro, das ist 2019 schon low-end.
Sind damit Praktisch alle Karten bis auf die eine von AMD und 2-3 Ti´s und Titans 2019 Low end?
w0mbat
2019-01-10, 15:14:26
Wer redet hier von low-end? Er sagt doch nur, dass er lieber 16GB VRAM anstatt von 8GB + DXR hat.
Wenn ich >500€ für ne GPU ausgeben würde hätte ich auch gerne >8GB, das gab es nämlich schon mit der R9 390 vor vielen Jahren.
Linmoum
2019-01-10, 15:15:02
300 Watt TDP und ich bin raus... schade.
Eine Vega64 kann man mittels UV spielend leicht auf 200-220W drücken, ohne bei der Performance Einbußen hinnehmen zu müssen. Je nach Chip sogar noch weniger.
Das sollte für Leute, die so einen Kauf in Erwägung ziehen, ein Kinderspiel sein. Ansonsten @dargo fragen. :D
Hakim
2019-01-10, 15:16:08
Wer redet hier von low-end?
Ähm er selber :freak: egal lassen wir es
Tatwaffe
2019-01-10, 15:16:26
300 Watt TDP und ich bin raus... schade.
setz den takt 10% runter und die Spannung 15-20% und du landest bei um die 200 Watt, die meisten können damit leben, zumal aktuell keiner weiss was die real wirklich verbrauchen wird,
eine TDP sagt heute nicht mehr viel aus, da wird das overcklocking bereits eingepreist, oder unrealistisch niedrige werte genommen (siehe intel oder GTX 1080), real wirds wohl nur bei 250-270watt liegen @stock, sagt meine Erfahrung bei AMD, wobei auch das stark vom Spiel und der Auflösung abhängt, und nicht zuletzt von deiner cpu, wenn die bremst kann die Karte auch nicht voll ausdrehen.
Ex3cut3r
2019-01-10, 15:19:31
Ihr mit eurer ASCI Power und der reale Verbrauch ist unweit höher, lächerlich.
Rancor
2019-01-10, 15:21:42
Ich kaufe mir sicher kein Karte um den Takt zu senken. Auch habe ich kein Bock in stundenlanger Feinarbeit das UV auszuloten und zu testen ob es wirklich stabil ist. Das macht die Karten einfach zu keinem runden Produkt. Es ärgert mich wirklich, das AMD in dem Bereich ständig abkackt.
JA VEGA kann man sparsam betreiben, aber dann soll AMD es doch bitte direkt so ausliefern.
So wie ich das sehe muss ich mit meiner 1070 tatsächlich noch 2019 überstehen. Ich hoffe die hält solange.
Sowas lächerliches ey... RTX kommt mir auch nicht ins Haus. Überteuerter Müll mit Features die keine Sau braucht.... Könnte gerade komplett im Strahl kotzen...
Hakim
2019-01-10, 15:26:27
Ich kaufe mir sicher kein Karte um den Takt zu senken. Auch habe ich kein Bock in stundenlanger Feinarbeit das UV auszuloten und zu testen ob es wirklich stabil ist. Das macht die Karten einfach zu keinem runden Produkt. Es ärgert mich wirklich, das AMD in dem Bereich ständig abkackt.
JA VEGA kann man sparsam betreiben, aber dann soll AMD es doch bitte direkt so einstellen.
Ist so ähnlich mit Rams, man kann etwas rumspielen und etwas mehr Leistung raus holen, aber sich teilweise Stunden und Tagelang befassen ist halt nicht jedermanns Sache, ich weiß das es Spaß machen kann die letzten Reserven raus zu Kitzeln, aber die meisten wollen das es einfach Stabil und Schnell Läuft (mit etwas Einstell-Spielerei am Anfang).
SKYNET
2019-01-10, 15:27:01
Ich kaufe mir sicher kein Karte um den Takt zu senken. Auch habe ich kein Bock in stundenlanger Feinarbeit das UV auszuloten und zu testen ob es wirklich stabil ist. Das macht die Karten einfach zu keinem runden Produkt. Es ärgert mich wirklich, das AMD in dem Bereich ständig abkackt.
JA VEGA kann man sparsam betreiben, aber dann soll AMD es doch bitte direkt so ausliefern.
So wie ich das sehe muss ich mit meiner 1070 tatsächlich noch 2019 überstehen. Ich hoffe die hält solange.
Sowas lächerliches ey... RTX kommt mir auch nicht ins Haus. Überteuerter Müll mit Features die keine Sau braucht.... Könnte gerade komplett im Strahl kotzen...
wo ist dein problem mit 300W? kannst ja einfach das PT reduzieren wenn kein bock auf UV hast, dann taktet die karte nicht so hoch, und verbraucht weniger... wird trotzdem schneller als die 1070 sein ;)
Cyphermaster
2019-01-10, 15:27:37
Man kann Früchte nicht direkt nach der Verpflanzung des Setzlings ernten.Schon klar. Nur sollte man dann noch was an Futter im Keller haben, bis die Früchte reif sind. Ich denke auch, man hat schon erwartet, daß das "R" bei den Karten eine gewisse Investition ist, und nicht gleich Rendite zeigt. Aber ich denke genauso, daß man nicht ganz so viel erwartet hat, was es -zumindest erst einmal- kostet.
So lange die 6GB ausreichen ist die 2060 mMn eine super Karte. Ich selber hab noch eine R9 290 mit nur 4GB und @1080p reicht das meistens noch gut aus.6GB@1080p funktioniert bei einer 1060, die für diese Auflösung @Max genug Leistung hat, wunderbar. Eine 2060 orientiert sich aber leistungstechnisch klar darüber, d.h. bei ihr wird die Performance in 1440p deutlich relevanter als bei der 1060. Und da könnte es je nach Setting schon passieren, daß die 6GB RAM eben doch in einigen Fällen nicht mehr problemlos ausreichen, während der leistungsmäßige Vorgänger der 2060 = die 1070 mit der 8GB-Ausstattung diese Einschränkung nicht hat.
][immy
2019-01-10, 15:28:15
Je mehr ich mir das Ding so anschaue, desto mehr bin ich der Überzeugung das es wirklich nur eine geshrinkte Vega64 -4 ist. Da sind die Taktraten dann doch irgendwie ernüchternd. Der HBM Speicher ist aber doch recht beeindruckend groß und schnell angebunden.
Hat dann aber wohl nach wie vor die gleichen Schwächen wie Vega.
Endweder war es die Ankündigung der RTX2060 oder die vorraussichtliche Ankündigung von AMDs karte, jedenfalls die die GTX 1070 schon spürbar günstiger zu haben https://www.mediamarkt.de/de/product/zotac-geforce-gtx-1070-mini-8gb-zt-p10700g-nvidia-grafikkarte-2181803.html
Auch wenn es nicht die TI und wohl nur ein Abverkauf von Lagerbeständen ist.
Rancor
2019-01-10, 15:30:19
Ja aber ist sie dann noch 800€ schneller als meine 1070? Sicherlich nicht. Dann kann ich mir auch gleich ne RTX 2070 für 500€ kaufen, das einzige halbwegs akzeptable VGA die es zur Zeit gibt.
Aber das Performance + reicht da einfach nicht aus. Es ist wirklich frustrierend.
Die Zotac wurde seit Wochen beim Mädchenmarkt für 299€ angeboten. Jetzt sogar 275€. Jensen weint...
w0mbat
2019-01-10, 15:34:15
Könnte gerade komplett im Strahl kotzen...
Nvidia hat die bessere und vorallem effizientere Architektur und lässt sich das vergolden, während AMD versucht ihre HPC Chips an den Markt zu bringen und Navi mit etwas Pech erst 2020 aufschlägt.
Tja...
Ravenhearth
2019-01-10, 15:35:42
Auf der Keynote hat Su Navi kurz erwähnt und gesagt, dass sie im Laufe des Jahres dazu was sagen. Ich schätze zur Computex, spätestens dann sollten auch handfeste Infos zu Ryzen 3000 und Epyc 2 kommen.
Cyphermaster
2019-01-10, 15:42:56
Auch habe ich kein Bock in stundenlanger Feinarbeit das UV auszuloten und zu testen ob es wirklich stabil ist. Das macht die Karten einfach zu keinem runden Produkt. Es ärgert mich wirklich, das AMD in dem Bereich ständig abkackt.
JA VEGA kann man sparsam betreiben, aber dann soll AMD es doch bitte direkt so ausliefern.Das kann ich unterschreiben. Eine Karte, die erst dann interessant ist, wenn ich an ihr herumgebastelt habe (ohne zu wissen, wo man dabei dann genau landen wird), ist nun mal nicht (ganz) auf Augenhöhe mit einer Karte, die OOB mit den gewünschten Parametern läuft!
Wobei imo nicht einmal AMD dafür ausschließlich zuständig wäre, solche Karten herauszubringen ("VII/60 Nano"?) - schließlich gibt es auch für die Boardpartner die Option, existierende Kartentypen statt mit "OC-bis-zur-Kernschmelze"-Zweit-BIOS zum Stock-BIOS auch mal mit einem UV-BIOS auszustatten ("Green Edition"). Daß das nicht passiert, sagt mir, man glaubt einfach nicht, daß sich der Aufwand dafür rechnet bzw. daß die Kundenschicht, die nicht alleine nach Balkenlänge geht, groß genug ist.
Tatwaffe
2019-01-10, 15:44:01
Wer da stundenlang braucht um seine Karte zum UV zu überreden ist einfach ein riesen DAU, der neue Treiber macht das doch sogar noch automatisch.
Und die Spannung einfach um 10% zu senken und den Takt zu lassen überfordert sie komplett, keine Ahnung wie die es überhaupt schaffen nen Post abzuliefern, da muss man auch nen Button anklicken, ahh mami, mamiii...
Manche motzen wohl einfach nur um zu motzen.
Hattet ihr die Karte schon, daß ihr wisst, das man unbedingt UV muß?
Rancor
2019-01-10, 15:46:51
Wer da stundenlang braucht um seine Karte zum UV zu überreden ist einfach ein riesen DAU, der neue Treiber macht das doch sogar noch automatisch.
Und die Spannung einfach um 10% zu senken und den Takt zu lassen überfordert sie komplett, keine Ahnung wie die es überhaupt schaffen nen Post abzuliefern, da muss man auch nen Button anklicken, ahh mami, mamiii...
Manche motzen wohl einfach nur um zu motzen.
Junge. Du hast den Punkt überhaupt nicht vestanden. Natürlich kann ich die Karten UV und dann läuft Sie in dem einen Spiel auch ganz toll und in dem anderen auch, aber in einem dritten kackt Sie ab. Dann muss ich da wieder ran und dann wieder und dann wieder und da habe ich keine Zeit und keine Muße mehr zu.
Tatwaffe
2019-01-10, 15:52:28
Junge. Du hast den Punkt überhaupt nicht vestanden. Natürlich kann ich die Karten UV und dann läuft Sie in dem einen Spiel auch ganz toll und in dem anderen auch, aber in einem dritten kackt Sie ab. Dann muss ich da wieder ran und dann wieder und dann wieder und da habe ich keine Zeit und keine Muße mehr zu.
Was ein Quark, und wer der Lappen ist merkt auch jeder.
Cyphermaster
2019-01-10, 15:53:04
[immy;11896827']Je mehr ich mir das Ding so anschaue, desto mehr bin ich der Überzeugung das es wirklich nur eine geshrinkte Vega64 -4 ist. Da sind die Taktraten dann doch irgendwie ernüchternd. Der HBM Speicher ist aber doch recht beeindruckend groß und schnell angebunden.
Hat dann aber wohl nach wie vor die gleichen Schwächen wie Vega.
Was sollte denn da auch anders sein? Alleine die Zeitschiene und die vorhandenen Ressourcen sagen, daß da abseits des Shrinks keine wirklich wesentlichen Verbesserungen einfließen konnten. Das ist wie bei Ryzen 1xxx zu Ryzen 2xxx.
Man wollte halt aus dem Bestand heraus günstig einen einigermaßen vernünftigen Lückenfüller generieren, bis Navi kommt - und das liefert die VII ("Vega on Steroids") vorausichtlich. Wo ist da das Problem?
Rancor
2019-01-10, 15:56:28
Was ein Quark, und wer der Lappen ist merkt auch jeder.
Ja, da hast du wohl durchaus Recht ;D
Das Vorgehen ist durchaus normal beim UV, eben so wie beim Übertakten oder RAM Tuning. Wenn du keine Ahnung hast, dann sei doch einfach still, mein Güte..
hmm Wo kommt dann plötzlich die doppelte Anzahl ROPs her? edit: Aso, das ist noch nicht sicher und egtl. unwahrscheinlich.
Linmoum
2019-01-10, 15:59:00
Junge. Du hast den Punkt überhaupt nicht vestanden. Natürlich kann ich die Karten UV und dann läuft Sie in dem einen Spiel auch ganz toll und in dem anderen auch, aber in einem dritten kackt Sie ab. Dann muss ich da wieder ran und dann wieder und dann wieder und da habe ich keine Zeit und keine Muße mehr zu.
Dann hebt man um 5mV die Spannung an und das war's?
Man kann die Spannung auch ingame on the fly über das Overlay anpassen, das dauert 5 Sekunden. Wahnsinnig anstrengend. :D
Menace
2019-01-10, 16:00:35
Das Vorgehen ist durchaus normal beim UV, eben so wie beim Übertakten oder RAM Tuning.
Vielleicht gab es deshalb jetzt die neue Adrenalin-Version mit der Fähigkeit zum automatischen UV.
Gibt es jetzt eigentlich wieder 2 Biosse mit je 3 Einstellungen?
Rancor
2019-01-10, 16:00:42
Dann hebt man um 5mV die Spannung an und das war's?
Man kann die Spannung auch ingame on the fly über das Overlay anpassen, das dauert 5 Sekunden. Wahnsinnig anstrengend. :D
Und wenn es dann immer noch läuft, dann nochmal 5 MV? Und wenn es in einem anderen Spiel dann trotzdem nicht läuft? Labert mich doch nicht voll, man.
Die Frage ist eher warum AMD dann eine offensichtlich viel zu hohe Spannung @ Stock auf die GPU gibt?
Vielleicht gab es deshalb jetzt die neue Adrenalin-Version mit der Fähigkeit zum automatischen UV.
Gibt es jetzt eigentlich wieder 2 Biosse mit je 3 Einstellungen?
Das mag sein. Die habe ich aber noch nicht in Aktion gesehen. Wenn die Lösung taugt, dann ist es ja ok. Ziel beim UV ist es ja die niedrigste Spannung für den gewünschten Takt zu eruieren.
Tatwaffe
2019-01-10, 16:03:18
weil die ihre Karten mit Engineering samples bauen und dann nochmal 10% draufgeben um safe zu sein das "JEDER" chip das packt.
Rancor lässt jeden wie Hackerman aussehen der seiner Karte nen UV verpasst, absolut seltsam das ich in 15min bei mir für 3 taktraten das maximal uv rausgeholt habe, und das dann auch in "jedem" Spiel oder renderer läuft, und das sogar manuell mit selber anklicken und die mv zahl hinschreiben.
Wollt ihr Watt sparen nutzt mal nen vlc für youtube da sind schnell 50 watt oder mehr eingespart.
Menace
2019-01-10, 16:03:29
Bei meiner Vega habe ich es noch nicht getestet. Habe immer noch Dragos Methode.
aufkrawall
2019-01-10, 16:04:57
Nvidia gibt auch viel zu hohe Spannungen.
Wenn das UV wirklich stabil zu laufen scheint, geht man einfach zur Sicherheit noch 20-30MHz runter.
Savay
2019-01-10, 16:04:59
hmm Wo kommt dann plötzlich die doppelte Anzahl ROPs her?
Aus den zwei zusätzlichen Mem Controller Blöcken! ;)
Und nen reiner Shrink ist es eh nicht...V20 ist halt ein stärker auf HPC optimierter bzw. "verbreiterter" Vega10.
Das was umgebaut wurde dürfte sich aber wirklich mit hinblick auf sehr spezifische Szenarien hin gemacht worden sein und das er tatsächlich in ner Consumerkarte landet wohl ausschließlich gewissen glücklichen Umständen geschuldet sein.
dargo
2019-01-10, 16:05:11
Stimmt eigentlich die Die-Size von 330mm²? Dann kann AMD das Teil ja relativ günstig in Massen fertigen lassen, angesichts der vielen Einsatzfelder.
Naja... wenn ich die letzte Grafik von der Fertigung richtig in Erinnerung habe dürften 330mm² @7nm aktuell das gleiche kosten wie 660mm² @14nm. Von daher günstig ist da bei Vega VII gar nichts. Wenn AMD für bessere Auslastung bei TSMC etwas bessere Konditionen bekommen hat geht die Rechnung eventuell nicht ganz auf.
Cyphermaster
2019-01-10, 16:10:40
Wer da stundenlang braucht um seine Karte zum UV zu überreden ist einfach ein riesen DAU, der neue Treiber macht das doch sogar noch automatisch.
Und die Spannung einfach um 10% zu senken und den Takt zu lassen überfordert sie komplett, keine Ahnung wie die es überhaupt schaffen nen Post abzuliefern, da muss man auch nen Button anklicken, ahh mami, mamiii...
Manche motzen wohl einfach nur um zu motzen.Würdest du für ein Auto, bei dem du erst einmal die Motorsteuerung selber einstellen mußt, um auf vernünftige Leistungs-/Verbrauchs-Werte zu kommen, das gleiche Geld zahlen, wie für eines, bei dem diese Einstellungen ab Werk schon gemacht sind? Wenn nein - warum? Ist doch auch nur eine Sache von ein paar Minuten, wenn man Ahnung davon hat... :rolleyes:
Es ist ganz simpel: Beim einen Produkt bekomme ich die Optimierung a) in der Höhe garantiert und b) im Kaufpreis mit, beim anderen nicht. Wie viel das effektiv ist, mag von Fall zu Fall (Fähigkeiten des Käufers, Grad an Vorsicht beim Tuning, Eignung des Produkts) variieren, aber einen Unterschied macht es doch.
Wenn man beim Tuning+Testen eine halbe Stunde (z.B.) an der Karte sitzt (damit die Settings auch stabil sind, testet man üblicherweise nicht nur Minuten und @idle, sondern läßt die Karte einmal ordentlich warm werden, oder?), dann braucht man nur den üblichen Verdienst auf die halbe Stunde verlorener Freizeit rechnen, dann weiß man sogar, wieviel das in Euro ungefähr ausmacht.
Winter[Raven]
2019-01-10, 16:13:13
Würdest du für ein Auto, bei dem du erst einmal die Motorsteuerung selber einstellen mußt, um auf vernünftige Leistungs-/Verbrauchs-Werte zu kommen, das gleiche Geld zahlen, wie für eines, bei dem diese Einstellungen ab Werk schon gemacht sind? Wenn nein - warum? Ist doch auch nur eine Sache von ein paar Minuten, wenn man Ahnung davon hat... :rolleyes:
Es ist ganz simpel: Beim einen Produkt bekomme ich die Optimierung a) in der Höhe garantiert und b) im Kaufpreis mit, beim anderen nicht. Wie viel das effektiv ist, mag von Fall zu Fall (Fähigkeiten des Käufers, Grad an Vorsicht beim Tuning, Eignung des Produkts) variieren, aber einen Unterschied macht es doch.
Wenn man beim Tuning+Testen eine halbe Stunde (z.B.) an der Karte sitzt (damit die Settings auch stabil sind, testet man üblicherweise nicht nur Minuten und @idle, sondern läßt die Karte einmal ordentlich warm werden, oder?), dann braucht man nur den üblichen Verdienst auf die halbe Stunde verlorener Freizeit rechnen, dann weiß man sogar, wieviel das in Euro ungefähr ausmacht.
Leutz, lass ihn... der wird es sowieso nicht verstehen wovon wir reden.... ;(
Savay
2019-01-10, 16:13:15
Ach komm...das optimieren kann man beim daddeln auch sukzessive nebenher machen! :rolleyes:
Vor allem wenn man sich schrittweise vom Minimum zum Maximum hangelt, ist der Aufwand eher in Sekunden oder Minuten und weniger in Stunden zu messen.
Wer allerdings gleich mit der dickst möglichen Keule kommt weil er gleich alles aufeinmal will hat dann natürlich verloren.
Schon eine ganz schön abgehobene Diskussion hier! :facepalm:
Linmoum
2019-01-10, 16:14:28
Und wenn es dann immer noch läuft, dann nochmal 5 MV? Und wenn es in einem anderen Spiel dann trotzdem nicht läuft? Labert mich doch nicht voll, man.
Dann gehst du halt direkt 10mV(+) rauf. Wo ist das Problem? Das dauert wenige Augenblicke und hat nichts mit Raketenwissenschaft zu tun, wie du es fast schon suggerierst. Der Aufwand ist lächerlich gering. Nicht für den 0815-Bernd, aber das werden hier die wenigsten sein.
SKYNET
2019-01-10, 16:14:37
Naja... wenn ich die letzte Grafik von der Fertigung richtig in Erinnerung habe dürften 330mm² @7nm aktuell das gleiche kosten wie 660mm² @14nm. Von daher günstig ist da bei Vega VII gar nichts. Wenn AMD für bessere Auslastung bei TSMC etwas bessere Konditionen bekommen hat geht die Rechnung eventuell nicht ganz auf.
VII kostet AMD wohl das gleiche wie V64 + 8GB HBM2... weil nen 8GB bundle kostet $150... macht $649 + $50 für maybe höhere fertigungskosten.
dargo
2019-01-10, 16:15:45
Naja, mal sehen ob Navi endlich mal 30% auf die 2080 Ti drauflegt. Ich glaub ja nicht. :redface:
Was werden hier wieder für Erwartungen geschnürt? :freak: Navi in 2019 wird sich unter Vega VII positionieren.
Ätznatron
2019-01-10, 16:29:59
Gibts hier schon welche die beabsichtigen die Karte zu kaufen?
Ja, ich werde die mir zulegen.
Die vermutlich € 700,- wäre ich auch bereit gewesen, in eine 12 GB RTX 2060 zu investieren (wenn es die denn geben würde), so wird's dann halt die VII.
dargo
2019-01-10, 16:30:24
Seine Aussage mag schäbig sein, doch ganz Unrecht hat er nicht. Denn er wird oft ohne Kontext zitiert: Er nennt die 7-nm-Fertigung und HBM2. Mit der Fertigung und der Transferrate hätte man ein echtes Gaming-Biest zimmern können. Hat man aber nicht (weil das ein HPC-Chip ist).
Warum bringt die Labertasche nicht selbst den Über-Gaming-Chip in 7nm? Zu geizig Turing mehr Speicher zu verpassen, aber über andere lästern. :rolleyes:
PC Gamer hat angeblich Finale Clocks Base 1450 mhz und 1750hmz Boost@300TDP.
https://www.pcgamer.com/hands-on-with-the-amd-radeon-vii/
Immerhin keine 350W. Ich wette das Ding rennt mit 1,6Ghz + UV mit 200-220W. Wer wettet mit? :D
Aus den zwei zusätzlichen Mem Controller Blöcken! ;)
Und nen reiner Shrink ist es eh nicht...V20 ist halt ein stärker auf HPC optimierter bzw. "verbreiterter" Vega10.
Das was umgebaut wurde dürfte sich aber wirklich mit hinblick auf sehr spezifische Szenarien hin gemacht worden sein und das er tatsächlich in ner Consumerkarte landet wohl ausschließlich gewissen glücklichen Umständen geschuldet sein.
Jo, da haste auch wieder recht:redface:
Armaq
2019-01-10, 16:36:24
Es ist ein bitcoin miner. Vll. noch andere opencl Themen, aber gamer brauchen es nicht. Jeder "creator" hat jetzt eine Karte mit massiv Bandbreite und Compute. Für 699 ist es ein sehr schönes Angebot.
Cyphermaster
2019-01-10, 16:36:46
Ach komm...das optimieren kann man beim daddeln auch sukzessive nebenher machen! :rolleyes:Ich kann auch beim Daddeln nebenher Stricken, Bücher rezensieren oder Anderes - die Eigenoptimierung ist und bleibt Aufwand (egal ob gestückelt oder nicht), plus eine Lotterie, was man am Ende kriegt. Das bei einem Vergleich nicht einzukalkulieren, bleibt also Äpfel vs. Birnen, genau wie der Vergleich einer Karte mit popeligem Referenzkühler mit einer Karte mit fettem Aftermarket-Kühler. Braucht man ja auch nur mal eben nebenher in 1-2 Minuten draufschrauben, macht also überhaupt keinen Unterschied... :rolleyes:
Ich finde es absolut nicht "abgehoben", sich um einen ordentlichen Vergleich zu bemühen, wenn man einen macht.
(P.S.: Nicht vergessen: die Gruppe der Leute mit genug Ahnung von der Materie, um überhaupt effektiv Tuning betreiben zu können, liegt nicht nur ganz knapp unterhalb 100%...)
Hakim
2019-01-10, 16:37:07
Ja, ich werde die mir zulegen.
Die vermutlich € 700,- wäre ich auch bereit gewesen, in eine 12 GB RTX 2060 zu investieren (wenn es die denn geben würde), so wird's dann halt die VII.
Na das wäre etwas zu Teuer für eine 2060, 2070 mit 16 GB für 699€ eher :)
Tatwaffe
2019-01-10, 16:40:16
Würd mich nichtmal wundern wenn sie noch ne 16gb RTX bringen jetzt, oder halt ohne RTX:rolleyes:
Ätznatron
2019-01-10, 16:43:15
Na das wäre etwas zu Teuer für eine 2060, 2070 mit 16 GB für 699€ eher :)
Ja, von mir aus auch eine 2070. ;)
Cyphermaster
2019-01-10, 16:44:04
VII kostet AMD wohl das gleiche wie V64 + 8GB HBM2... weil nen 8GB bundle kostet $150... macht $649 + $50 für maybe höhere fertigungskosten.So lange es nicht deutlich schlechter als +/- 0 rausgeht, ist es für AMD doch in Ordnung. Im Wesentlichen geht es bei Vega II nicht um riesige Gewinnbeträge, sondern um Imagepflege, damit die Lücke bis Navi nicht zu lang wird, und man Präsenz auch im oberen Leistungssegment zeigen kann.
Ex3cut3r
2019-01-10, 16:44:10
Was werden hier wieder für Erwartungen geschnürt? :freak: Navi in 2019 wird sich unter Vega VII positionieren.
What? Echt jetzt? Was ist denn dann der neue High End Chip? Ich blicke da nicht mehr durch.
Savay
2019-01-10, 16:45:29
Ich finde es absolut nicht "abgehoben", sich um einen ordentlichen Vergleich zu bemühen, wenn man einen macht.
Ich hab für das UV der Nitro+ bisher vielleicht in Summe 5min Zeit investiert...wenn es hoch kommt.
Es ist alleine schon deshalb abgehoben weil es ja um zwei unterschiedliche Firmen mit abweichenden Strategien und Auslegungen geht.
Die 295W TDP bei AMD sind übrigens seit vielen Jahren(!) Standard für deren dickste Single-Slot Karte.
Wieso man sich ständig darüber echauffiert ist mir langsam echt ein Rätzel!
Bevor die sparsamer geworden wäre, wäre sie schneller geworden!
Fürs sparen gibt es das DualBios und die Wattman Presets.
Ich blicke da nicht mehr durch.
Der "neue" HighEnd Chip kommt erst irgendwann nach Navi...Letzterer sollte doch von Anfang an eine Midrange Lösung werden.
Quasi ein Polaris Nachfolger.
Mangel76
2019-01-10, 16:45:47
Würdest du für ein Auto, bei dem du erst einmal die Motorsteuerung selber einstellen mußt, um auf vernünftige Leistungs-/Verbrauchs-Werte zu kommen, das gleiche Geld zahlen, wie für eines, bei dem diese Einstellungen ab Werk schon gemacht sind? Wenn nein - warum? Ist doch auch nur eine Sache von ein paar Minuten, wenn man Ahnung davon hat... :rolleyes:
Und das vom Waku-Guru im 3dcenter-Forum???
Wenn der MM-Käufer sowas erzählt, kann ich das ja noch nachvollziehen...
Ehrlich, es gibt bei Vega mehrere Biosversionen plus verschiedene Modi im Treiber. Wenn du keinen Bock auf 300W und tüfteln hast, hast du verschiedenste TDP-Ziele OotB! Einen Schalter umlegen oder einen Treibereintrag ändern, ist OotB! Wenn du dann noch den Auto-UV-Modus nutzt, gibt es sogar noch einen weiteren OotB. Wieviele verschiedene Betriebsmodi hat eine NV-Karte OotB? Und jetzt erzähl bitte nicht, dass Schalter umlegen zu kompliziert ist.
Immer dieses Rumgeheule wegen der Standardeinstellungen hier im 3dcenter, wo so gut wie keine GPU mit Standardeinstellungen läuft :mad:
Ravenhearth
2019-01-10, 16:49:01
What? Echt jetzt? Was ist denn dann der neue High End Chip? Ich blicke da nicht mehr durch.
Laut Gerüchten ist Navi in 2019 ein ca. 200mm² großer Mainstream-Chip mit 40 CUs und etwa Vega 64-Leistung, zu einem geringerem Preis. Ein schnellerer Navi soll erst frühestens zum Jahresende folgen, der dürfte dann die Radeon VII ablösen. Käme der eher, hätte es wohl keinen Sinn gemacht, die Radeon VII jetzt noch zu bringen.
Hakim
2019-01-10, 16:49:27
Ihr justiert aber eure Vegas über Software Profile oder? Diese Bios Versionen, weiß net, wäre net so meins wenn man für die Umstellung an der Karte einen Schalter bewegen muss. Hab zwar auch einen Schalter, weiß net mal wo die genau an der Karte ist, OC über Software aber türlich.
Kann man den Schalter eigentlich im laufenden Betrieb umswitchen? Oder muss man neu Booten?
Linmoum
2019-01-10, 16:49:58
GPU mit Standardeinstellungen ist ja auch leichtfertig verschenkte/s Leistung/Potential.
aufkrawall
2019-01-10, 16:51:22
What? Echt jetzt? Was ist denn dann der neue High End Chip? Ich blicke da nicht mehr durch.
Ist aber ziemlich logisch: Der Consumer Gaming-Chip wird zunächst wohl kaum größer sein als der HPC-Knecht. Also wirds im besten Fall ~1080-Performance geben. Ggf. aber auch mit 16GB.
Vielleicht kommt aber auch erst etwas noch kleineres, man weiß es nicht.
Cyphermaster
2019-01-10, 16:52:11
Und das vom Waku-Guru im 3dcenter-Forum???
Wenn der MM-Käufer sowas erzählt, kann ich das ja noch nachvollziehen...Wer glaubst du, entspricht dem durchschnittlichen Käufer eher - der WaKü-Guru um 3DCF, oder der MM-Käufer? :rolleyes:
Vergleiche unter ungleichen Voraussetzungen (u.a. eben wie hier angeführt Karten @UV gegenüber Karten @stock) bleiben nun mal ungleich, egal, was hier gebrabbelt wird.
SKYNET
2019-01-10, 16:52:24
GPU mit Standardeinstellungen ist ja auch leichtfertig verschenkte/s Leistung/Potential.
korrekt, zumal "OC" ja eh zum volkssport geworden ist, kenne keinen der nicht afterburner hat oder halt im AMD treiber die taktraten nach oben schraubt. :freak:
Savay
2019-01-10, 16:55:31
Als ob der Verbrauch den "durchschnittlichen" Käufer überhaupt besonders taxiert...nicht überall sind die Strompreise so hoch wie hierzulande.
Bei Quervergleichen zwischen Herstellern mit unterschiedlichen Architekturen, Systemen und Auslegungen und teilweise noch deutlich unterschiedlich positionierten Produkten hat man davon abgesehen schon aus Prinzip "ungleiche Vorraussetzungen".
Ex3cut3r
2019-01-10, 16:56:14
Ok, danke an alle.
Cyphermaster
2019-01-10, 16:56:34
Die 295W TDP bei AMD sind übrigens seit vielen Jahren(!) Standard für deren dickste Single-Slot Karte.
Wieso man sich ständig darüber echauffiert ist mir langsam echt ein Rätzel!Performance/Watt ist kein "Echauffieren", nur ein Vergleich. Und ein Vergleich funktioniert logischerweise nur unter gleichen Voraussetzungen. Also wenn du Vega@UV mit Turing vergleichen willst, dann eben auch Turing@UV.
Savay
2019-01-10, 16:58:07
Und du kennst schon das Perf/W verhältnis?
Ich will hier übrigens gar nichts vergleichen, schon gar nicht bei einem Produkt das noch nicht verfügbar ist!
Insbesondere habe auch nicht davon gesprochen Vega@UV mit Turing in einen Topf zu werfen! :rolleyes:
An dem Hinweis das man mit UV teilweise signifikant einsparen kann bei Vega bei gleicher oder besserer Performance ist aber nun mal nichts falsches dran...und ich finde es einfach abgehoben, dass man deshalb wieder so eine überflüssige Diskussion hier starten muss.
Linmoum
2019-01-10, 17:01:15
Vergleiche unter ungleichen Voraussetzungen (u.a. eben wie hier angeführt Karten @UV gegenüber Karten @stock) bleiben nun mal ungleich, egal, was hier gebrabbelt wird.
Der ursprüngliche Vergleich bezog sich auf den Umstand der (potentiell) 300W und dem Hinweis, dass man dies mittels UV simpel deutlich reduzieren kann. Weiß nicht, warum das verwerflich ist, gerade in einem Forum wie dem 3dcenter.
dargo
2019-01-10, 17:02:57
What? Echt jetzt? Was ist denn dann der neue High End Chip? Ich blicke da nicht mehr durch.
Vega VII.
Mangel76
2019-01-10, 17:05:47
Wer glaubst du, entspricht dem durchschnittlichen Käufer eher - der WaKü-Guru um 3DCF, oder der MM-Käufer? :rolleyes:
Vergleiche unter ungleichen Voraussetzungen (u.a. eben wie hier angeführt Karten @UV gegenüber Karten @stock) bleiben nun mal ungleich, egal, was hier gebrabbelt wird.
Die Frage ist doch nicht, was die da draußen brauchen oder wollen. Außerdem sind wir hier in D mit hohen Strompreisen und eingebildetem Umweltbewusstsein sowieso eher die Ausnahme. In anderen Ländern muss es wohl eher ordentlich rauschen, damit die Leistung auch akustisch wahrnehmbar ist. Hier heißt es "Klima schützen", aber E-Autos kauft keine Sau, sondern dicke SUVs.
Hier wird auch nichts UV gegen Stock verglichen, sondern in den besten Einstellungen. Es wird doch eher umgekehrt nen Schuh draus. NVIDIA wird für den geringen Stromverbauch und die Effizienz gelobt, dann wird aber das PT hochgeschraubt oder sogar ein neues Bios geflasht. Am Ende heißt es dann, die Ti läuft bei 2,1 GHz, hat aber nur 225W Verbrauch.
Ex3cut3r
2019-01-10, 17:07:40
Wenn man mit Undervolting betreibt dann bitte auch die anderen Karten UV, man tut ja immer so, als UV eigenart von AMD wäre, ich kann meine 2080 auch auf 150W und zwar für die Gesamte Karte drücken, läuft dann mit 1700mhz. Habe ich das bei ursprünglichen 225W nötig? Nein, natürlich nicht, anders sehe die Sache wohl aus, wenn das Ding Standardmässig 300W verbrauchen wurde, dann müsste ich da tüfteln, weil mir Lautstärke und Effizienz wichtig sind.
dargo
2019-01-10, 17:11:17
Performance/Watt ist kein "Echauffieren", nur ein Vergleich. Und ein Vergleich funktioniert logischerweise nur unter gleichen Voraussetzungen. Also wenn du Vega@UV mit Turing vergleichen willst, dann eben auch Turing@UV.
Ich weiß ja nicht was du gerade vergleichen willst. Aber soweit ich das richtig verstanden habe ging es nur darum, dass der Käufer einer Vega VII diese nicht unbedingt mit 300W laufen lassen muss wenn er denn nicht will. Die Hilfsmittel dafür gibt es kürzlich sogar ganz offiziell im Treiber. Gleiches gilt übrigens bei einer Geforce. Der Hersteller gibt ein Powerlimit vor. Der Käufer X verwendet dieses Powerlimit. Käufer Y erhöht es, Käufer Z reduziert es. Grafikkarten haben sich in den letzten Jahren deutlich verändert. Powerlimit @100% bei Spannung XY sind nichts weiter als nur Standard-Vorgaben vom Hersteller. Wie die Karte im eigenen Rechner tatsächlich läuft bestimmt der Käufer selbst. Natürlich wenn er sich mit dem Thema auch befassen möchte. Nichts weiter mache ich übrigens auch bei meinen CPUs. Mehr Takt bei weniger Spannung als Vorgabe X.
aufkrawall
2019-01-10, 17:12:05
Effizienz als Selbstzweck, die Leier ist echt alt. Es bricht dir keinen Zacken aus der Krone, wenn eine Karte unter Last vll. 70W mehr verbraucht...
Loeschzwerg
2019-01-10, 17:12:13
Der ursprüngliche Vergleich bezog sich auf den Umstand der (potentiell) 300W und dem Hinweis, dass man dies mittels UV simpel deutlich reduzieren kann.
Vielleicht ist diesmal auch gar nicht so viel UV drin wie mit V10, immerhin hat AMD nach eigener Aussage u.a. das Boost-Verhalten überarbeitet. Wird man sehen, ebenso die finale Board-Power (300W sind ja nur ein Platzhalter).
Mangel76
2019-01-10, 17:14:01
Wenn man mit Undervolting betreibt dann bitte auch die anderen Karten UV, man tut ja immer so, als UV eigenart von AMD wäre, ich kann meine 2080 auch auf 150W und zwar für die Gesamte Karte drücken, läuft dann mit 1700mhz. Habe ich das bei ursprünglichen 225W nötig? Nein, natürlich nicht, anders sehe die Sache wohl aus, wenn das Ding Standardmässig 300W verbrauchen wurde, dann müsste ich da tüfteln, weil mir Lautstärke und Effizienz wichtig sind.
Das kannst du gerne machen, dagegen ist doch auch gar nichts einzuwenden.
Es ging aber um die Diskussion, ob man nur OotB vs. OotB vergleichen soll, weil hier jemand keine Lust auf Tüfteln hat. Wie gesagt, bei MM-Käufern kann ich das sogar verstehen, aber doch nicht hier in diesem Forum! Zumal eine Treibereinstellung eines Modus für mich immer noch OotB ist. Sowas gibt es doch auch bei einigen NV-Karten (OC-Modus), oder?
MadManniMan
2019-01-10, 17:14:02
Effizienz als Selbstzweck, die Leier ist echt alt. Es bricht dir keinen Zacken aus der Krone, wenn eine Karte unter Last vll. 70W mehr verbraucht...
Eben. Scheiss drauf. Heiz ruhig bei offenem Fenster.
x-force
2019-01-10, 17:16:39
mir ist der idleverbrauch(multimonitor) deutlich wichtiger als was unter last verbraten wird.
Mangel76
2019-01-10, 17:20:00
Performance/Watt ist kein "Echauffieren", nur ein Vergleich. Und ein Vergleich funktioniert logischerweise nur unter gleichen Voraussetzungen. Also wenn du Vega@UV mit Turing vergleichen willst, dann eben auch Turing@UV.
Wenn es dir um Performance/Watt geht, dann dreh halt den Takt auf V56-Niveau, dann bist du bei 120 Watt oder so.
Natürlich sind 100FPS bei 100W deutlich besser als 100 FPS bei 200 Watt, aber wenn mich das schon interessiert, dann kann ich auch an den Einstellungen drehen. NVIDIA und AMD haben hier halt unterschiedliche Ansätze und Ziele in ihren Standardeinstellungen, was man auch gut oder schlecht finden kann. Aber es ist ja einfach zu ändern, also sollte man kein Drama draus machen. Anstrengend wird es nur, wenn man auch wirklich das letzte Quäntchen Effizienz raushohlen will. Allerdings bei beiden.
Den MM-Käufer interessiert P/W nicht, Hauptsache die Karte macht genug Bilder.
dargo
2019-01-10, 17:20:33
Effizienz als Selbstzweck, die Leier ist echt alt. Es bricht dir keinen Zacken aus der Krone, wenn eine Karte unter Last vll. 70W mehr verbraucht...
Das sicherlich nicht. Wenn ich aber sehe, dass 70W mehr nur in 3% mehr Leistung resultieren dann scheiße ich drauf. Merkt sowieso kein Mensch. Und dank Freesync bin ich da auch wesentlich flexibler.
btw.
Auf der anderen Seite können diese 70W auch den Unterschied zwischen Grakalüfter unhörbar vs. Grakalüfter leicht hörbar ausmachen. Ich entscheide mich dann für Ersteres.
Menace
2019-01-10, 17:26:30
Ich kann Cyphermasters Einwand schon verstehen, aber falls es ein Dualbios hat, müsste man ja nur einen Schalter einmal umlegen. Das könnte man einem bei einer 700 € Karte, die man selber einbaut dann schon zutrauen.
Mangel76
2019-01-10, 17:27:36
Eben. Scheiss drauf. Heiz ruhig bei offenem Fenster.
Da wird meine Heizkostenrechnung halt nicht so hoch. Das kann ich dann mit der Stromrechnung gegenrechnen ;D
Was meinst du, wie viel höher die Stromrechnung wird? Ich spiele jetzt nicht so viel, höchstens 10 h/Woche:
50 Watt Mehrverbrauch * 10 h/Woche * 52 Wochen/Jahr = 26000 Wh/Jahr=26 kWh/Jahr. Macht bei meinem Strompreis von 0,32 EUR/kWh genau 8,32 EUR pro Jahr. Das ist echt ein Faktor, den ich unbedingt berücksichtigen muss :biggrin:
aufkrawall
2019-01-10, 17:37:56
Eben. Scheiss drauf. Heiz ruhig bei offenem Fenster.
Studierst du nicht Physik? Dann sollte dir eigentlich klar sein, dass auch mit einer 200W-Karte sich ein kleiner Raum über die Zeit ziemlich aufheizt.
Das sicherlich nicht.
Das Zitat galt Ex3cut3r, war via Handy geschrieben. ;)
Ernsthaft, das Effizienz-Blabla ist doch meist nur vorgeschoben, weil man einfach AMD kacke findet. Bei einer 980 Ti mit gescheitem Custom Design hätte man mit ziemlicher Sicherheit auf einmal keine Hemmungen, >250W zu gehen, um den Taktspielraum ausnutzen...
w0mbat
2019-01-10, 17:45:55
Der Verbrauch muss halt im Vergeich zur Leistung stimmen und dass das letzte Stücken Leistung deutlich mehr Verbraucht ist auch klar.
Eine 1,5GHz 980 Ti war ne Hausnummer. Ja, auch vom Verbrauch, aber vor allem von der Leistung her. Niemand würde schreien, wenn eine 300W Radeon VII 10% vor einer 2080 Ti liegen würde. Aber ca. 2080 Leistung (ich gehe von drunter aus) bei 300W TDP ist eben wirklich nicht das Gelbe vom Ei.
Insg. kein wirkliches Problem, solang die Kühlung und das NT stimmt, die Stromkosten sind ja nicht so extrem. Aber es zeichnet eben ein Bild und bringt viele Nachteile mit sich, wie zB lärmende oder teure Kühlung, Probleme bei der Belüftung des Gehäuses, etc.
Ich hab ne R9 290 in meinem <20L SFF miniITX Gehäuse, das ist nicht gerade cool.
Ex3cut3r
2019-01-10, 17:45:58
Ach Krawall hör doch auf, mir ist die Lautstärke wichtig, weil mein PC auch neben steht, wenn ich die 300W zulasse, dann steigen die RPM schon 1800 - 1900 und die GPU nähert sich der 75 Grad Marke, wenn ich nur 225W zulasse, verliere ich wie Dargo gesagt hat, 2 FPS und die Karte bleibt mit 67 Grad und 1550RPM leise.
Um wieder zurück auf die Radeon zu kommen, für 7nm natürlich was die Effizienz angeht enttäuschend, aber die 16gb hauen es raus, das dürfte die Deutschland Karte in den nächsten Monaten werden, also gut für AMD. Bin fertig
Daredevil
2019-01-10, 17:52:33
Die Nitro+ hat 300w TDP und bleibt bei um die 1500rpm.
Radeon VII sieht ja ähnlich aus, man kann also gutes hoffen.
aufkrawall
2019-01-10, 17:53:13
Ach Krawall hör doch auf, mir ist die Lautstärke wichtig, weil mein PC auch neben steht, wenn ich die 300W zulasse, dann steigen die RPM schon 1800 - 1900 und die GPU nähert sich der 75 Grad Marke, wenn ich nur 225W zulasse, verliere ich wie Dargo gesagt hat, 2 FPS und die Karte bleibt mit 67 Grad und 1550RPM leise.
Der kleine Schwachpunkt an deiner Argumentation ist nur, dass für die ineffizienteren Radeons die Hersteller nicht einfach die gleichen Kühler verwenden. Wo sind jetzt die Sapphires in den Tests ständig wegen der Lautstärke durchgefallen, huh? :rolleyes:
Und weischt was: Mit 5min UV sind gute Radeon-Customs häufig mal eben leiser als viele Nvidia-Customs ohne UV. Wie gesagt, Scheinargument...
Ich hatte eine MSI 390 Gaming leise bekommen, ich muss mir btw. nichts erzählen lassen.
Ex3cut3r
2019-01-10, 17:56:32
Naja 5. Min UV, hast du nicht letzens geschrieben das dein UV schuld am Absturz eines Games war? Ist das selbe bei mir mit OC, irgendwann kommt immer ein Spiel und muss die Spannung doch wieder anpassen.
Schnoesel
2019-01-10, 18:00:38
Wem Lautstärke wirklich wichtig ist hat ne Wakü (am besten noch extern). Alles andere ist ein Kompromis.
aufkrawall
2019-01-10, 18:01:14
Naja 5. Min UV, hast du nicht letzend geschrieben das dein UV schuld am Absturz eines Games war? Ist das selbe bei mir mit OC, irgendwann kommt immer ein Spiel und muss die Spannung doch wieder anpassen.
Ja, wenn man dem Drang nicht widerstehen kann und zu gierig bzw. perfektionistisch ist. Das ist aber ein Fall von "selbst Schuld".
MiamiNice
2019-01-10, 18:19:42
Ach Krawall hör doch auf, mir ist die Lautstärke wichtig, weil mein PC auch neben steht, wenn ich die 300W zulasse, dann steigen die RPM schon 1800 - 1900 und die GPU nähert sich der 75 Grad Marke, wenn ich nur 225W zulasse, verliere ich wie Dargo gesagt hat, 2 FPS und die Karte bleibt mit 67 Grad und 1550RPM leise.
Um wieder zurück auf die Radeon zu kommen, für 7nm natürlich was die Effizienz angeht enttäuschend, aber die 16gb hauen es raus, das dürfte die Deutschland Karte in den nächsten Monaten werden, also gut für AMD. Bin fertig
Du wärst vielleicht ganz gut damit beraten in Deinem PC nicht nur in CPU und GPU zu investieren, sondern auch mal ein wenig ins "Drum Herum". Mein PC kann z.b. 1000 Watt verballern und da dreht kein Lüfter über 400 rpm.
--
Undervolting ist für mich gar kein Thema, 10€ Strom sparen im Jahr? Verstehe die Diskussion darum nicht? Da bringt es wesentlich mehr den Stromanbieter zu wechseln als beim HW Kauf auf Perf/Watt zu schielen. Dann doch lieber 5 unnütze FPS -.-
Was die Karte an sich betrifft, halte ich es mit Jensen. Produkte die die Welt nicht braucht, Radeon VII reiht sich da nahtlos ein. Langweilig aber immerhin 16 GB Speicher. Hätte das die 2080TI gehabt, würde sie in meinem Rechner stecken. So wird es eine 3080TI mit wohl 22GB Speicher.
Daredevil
2019-01-10, 18:22:35
Undervolting bedeutet übrigens nicht automatisch Strom sparen.
dargo
2019-01-10, 18:37:46
Was die Karte an sich betrifft, halte ich es mit Jensen. Produkte die die Welt nicht braucht, Radeon VII reiht sich da nahtlos ein.
Interessant... alles bis RTX 2080 braucht die Welt also nicht. :uup:
Ist das selbe bei mir mit OC, irgendwann kommt immer ein Spiel und muss die Spannung doch wieder anpassen.
Dann warst du zu nah am Limit. ;) Ich betreibe jetzt UV bei Vega seit über einem Jahr und musste nichts ändern. Was mache ich falsch?
Linmoum
2019-01-10, 18:41:57
Ignorante Sichtweise, die man ja nicht anders kennt von manchen.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.