Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon VII: 699$ ab 7. Februar 2019 mit 16GB HBM2
Seiten :
1
2
[
3]
4
5
6
7
8
9
10
11
12
13
14
15
16
17
anddill
2019-01-14, 09:47:34
Wäre in diesem Fall auch Blödsinn Strom zu sparen. Das Ding soll die maximale Leistung bringen, nicht effizient sein. Die wird bis zum letzten ausgequetscht sein.
aufkrawall
2019-01-14, 10:21:06
Wird wegen UVD 7.2 statt VCN offenbar wieder kein VP9 unterstützen:
https://cgit.freedesktop.org/~agd5f/linux/tree/drivers/gpu/drm/amd/amdgpu/uvd_v7_0.c?h=drm-next-4.21-wip
Bei Nvidia gibts das seit Januar 2015 mit der GTX 960. :freak:
(Ok, die 980 Ti hatte es auch nicht.)
Der_Korken
2019-01-14, 10:31:58
Wäre in diesem Fall auch Blödsinn Strom zu sparen. Das Ding soll die maximale Leistung bringen, nicht effizient sein. Die wird bis zum letzten ausgequetscht sein.
Die wahrscheinlich größte Hoffnung bei der Karte dürfte sein, dass AMD sehr konservativ mit Takt bzw. Spannung war und es ein OC/UV-Fest gibt wie bei der 7970. Bei Leistung und Verbrauch der Standard-Konfig wird es wohl eher keine positiven Überraschungen geben.
mironicus
2019-01-14, 11:11:38
Man sollte ausprobieren, ob man das Original-Bios der Radeon MI50 darauf installieren kann...
FP64... :D
Cyphermaster
2019-01-14, 11:19:41
Ich verstehe gar nicht warum Igor anhand der Stromanschlüsse einer MI50 spekuliert Vega VII könnte unter 300W liegen. Hat er diverse Videos der Vega VII nicht gesehen?
https://abload.de/img/viia7jew.jpg
2x 8-Pin ist nicht zu übersehen bei Vega VII.
Wäre in diesem Fall auch Blödsinn Strom zu sparen. Das Ding soll die maximale Leistung bringen, nicht effizient sein. Die wird bis zum letzten ausgequetscht sein.
2x8pin vorzusehen, muß sich nicht mit den 300W beißen. Grade, wenn man die Karten ohne Rücksicht auf den Verbrauch hochprügeln will, macht Spielraum nach oben Sinn:
Slot: 75W
6pin: 75W
8pin: 150W
=> mit Slot + 8pin/6pin wären normgerecht bis zu 300W möglich, aber schon absolut grenzwertig - das so auf Kante zu stricken, würde man nach dem Käse bei Polaris und den PCIe-Powerdraw-Spikes wohl nicht machen. Der nächste und einzige mögliche Step nach oben: Slot + 8pin/8pin ergibt 375W maximal, d.h. man auch noch bissl Reserve für ein Einstellen von PT+ in interessanter Größe von 10-20%. Oder auch eine LCE, so wie bei den V64... ;)
Die wahrscheinlich größte Hoffnung bei der Karte dürfte sein, dass AMD sehr konservativ mit Takt bzw. Spannung war und es ein OC/UV-Fest gibt wie bei der 7970. Bei Leistung und Verbrauch der Standard-Konfig wird es wohl eher keine positiven Überraschungen geben.
Sehe ich genauso. U.a. wegen der geringen Stückzahlen und dem Preis der Chips vermute ich, daß die Karten diesbezüglich ähnlich große Varianz haben werden, wie die Vega FE. Man will nix wegwerfen, und geht daher mit dem Saft so weit nach oben, daß auch die Karten mit ziemlich miserablen ASIC-Werten noch stabil die -verhältnismäßig- hohe Taktung bringen.
Nightspider
2019-01-14, 11:43:13
Wird wegen UVD 7.2 statt VCN offenbar wieder kein VP9 unterstützen:
https://cgit.freedesktop.org/~agd5f/linux/tree/drivers/gpu/drm/amd/amdgpu/uvd_v7_0.c?h=drm-next-4.21-wip
Bei Nvidia gibts das seit Januar 2015 mit der GTX 960. :freak:
(Ok, die 980 Ti hatte es auch nicht.)
VP9 wird doch eh bald wieder abgelöst. ^^
Leonidas
2019-01-14, 11:48:56
Stromanschlüsse haben inzwischen auch nix mehr mit der TDP zu tun. Die Stromanschlüsse müssen üblicherweise TDP + OC + Reserve aushalten. Sprich, da ist üblicherweise ein kräftiges Delta zwischen TDP und dem, was die Stromanschlüsse maximal liefern könnten.
dargo
2019-01-14, 12:02:04
2x8pin vorzusehen, muß sich nicht mit den 300W beißen. Grade, wenn man die Karten ohne Rücksicht auf den Verbrauch hochprügeln will, macht Spielraum nach oben Sinn:
Slot: 75W
6pin: 75W
8pin: 150W
=> mit Slot + 8pin/6pin wären normgerecht bis zu 300W möglich, aber schon absolut grenzwertig - das so auf Kante zu stricken, würde man nach dem Käse bei Polaris und den PCIe-Powerdraw-Spikes wohl nicht machen. Der nächste und einzige mögliche Step nach oben: Slot + 8pin/8pin ergibt 375W maximal, d.h. man auch noch bissl Reserve für ein Einstellen von PT+ in interessanter Größe von 10-20%. Oder auch eine LCE, so wie bei den V64... ;)
Ähm... du weißt aber schon, dass eine Vega über PCIe nur 27W (Gaming) zieht?
https://www.tomshw.de/2017/08/14/vega-benchmarks-performance-leistungsaufnahme-temperaturen/16/#
Zudem werden bei einer LCE zwangsläufig mehr als 150W je 8-Pin gezogen. Rechne mal nach. ;) Und da spreche ich noch nicht mal von dem Turbo-Modus der im Wattman für jeden zugänglich ist.
https://demo.idg.com.au/idgns/images/88eb87dcf0-gpu-power-limit-vega-power-profile-100731707-large.jpg
Damit bist du für die gesamte Karte bei etwa 400W. Dass die 8-Pin schon länger hier und da "überfahren" werden ist nun wirklich nichts Neues.
Cypher meint, dass die Karte über den Slot bis zu 75 Watt ziehen könnte. Spezifikationsgemäß. Wobei das die Milchmädchen-Aufrundung ist, offiziell sind 66 Watt über den Slot erlaubt.
MfG,
Raff
=Floi=
2019-01-14, 12:55:45
7nm ist zwar teuer, aber AMD wird in nächster Zeit ein Großkunde sein bei TSMC, da würden mich so niedrige Preise nicht verwundern.
Man denke da mal an die 7nm Konsolen, da will TSMC bestimmt auch bei sein.
wer soll denn sonst liefern? Die bundeswehr?
Es gibt nur TSMC bei den neuen nodes und ihre chips sind es auch wert. Zu verschenken hat heute keiner mehr was.
Dural
2019-01-14, 13:34:34
AMD hat die 300w und 1750mhz boost ja bestätigt.
Das ding wird im schnitt bei den üblichen benchmarks wohl kaum über 20% schneller als die vega64 sein.
AMD wird gute Gründe dafür haben, nur UHD-Werte anzugeben. ;)
MfG,
Raff
Linmoum
2019-01-14, 13:45:11
Mit sowas zockt ja auch niemand in FHD. :D
Grendizer
2019-01-14, 13:46:28
Mit sowas zockt ja auch niemand in FHD. :D
Aber QHD...
Dural
2019-01-14, 13:47:20
Würde mich nicht wundern wenn es spiele / einstellungen gibt wo es nur um die 10% sind.
Der hype um die karte verstehe ich schon lange nicht mehr. Am anfang fand ich die karte ja auch geil, aber umso mehr infos kommen, umso klarer wird das bild.
Linmoum
2019-01-14, 13:51:59
Sehe keinen Hype. Die Karte ist wegen ihrer 16GB mit 1TB/s sexy, mit der Hälfte würde kein Hahn danach krähen. Gibt es ja (so ähnlich) schon zu kaufen.
Grendizer
2019-01-14, 13:54:56
Fand sie anfang auch auf Grund der 16 Gb gut, aber jetzt denke ich mir, wenn man die 16 Gb richtig ausnutzen kann, dann ist die Leistung der Karte evtl. zu niedrig um was davon zu haben.
gbm31
2019-01-14, 13:56:52
@Dargo
Das Treiber Update bringt den Rest
Man wird wohl auf etwa Custom Modelle der RTX 2080 in etwa schlussendlich landen,-
und eine LC RX 64 wurde als Referenzpunkt gewählt.
Um mal das Licht in die falsche Bahn zu rücken.
Dies erhielt ich am 27.12.2018 von einem wirklichen Insider:
heute ist eine Vega II mit Vega 20 7nm angekommen und irgendwie ist da total was schiefgelaufen. Entweder ist das ein völlig neuer Chip oder jemand hat im Treiber die Turbo Ultra Mega Speed Option gefunden oder die Grafiksettings sind massiv runtergedreht.
Ich geh mal von letztem aus, bin aber gerade am Screeshots vergleichen und hab heute abend noch ein Telefonat mit einem Kollegen aus den Usa.
Sorry, aber was bringt dir dieses "Ich bin der Ober-Insider"-Getue?
Im Endeffekt baust du mit solchen unhaltbaren Aussagen genau den Hype Train auf, der dann viele enttäuscht bzw den Obertrollen aus dem grünen Lager entsprechendes Futter gibt.
Ab in die Kiste mit denen...
Ontopic:
699,- exclusive von AMD würd ich mir echt leisten...
Grendizer
2019-01-14, 13:59:29
Außerdem hört sich die Wortwahl an, als hätte es ein Kind/Jugendlicher geschrieben.
Grendizer
2019-01-14, 14:00:54
Sorry, aber was bringt dir dieses "Ich bin der Ober-Insider"-Getue?
Im Endeffekt baust du mit solchen unhaltbaren Aussagen genau den Hype Train auf, der dann viele enttäuscht bzw den Obertrollen aus dem grünen Lager entsprechendes Futter gibt.
Ab in die Kiste mit denen...
Ontopic:
699,- exclusive von AMD würd ich mir echt leisten...
Bin noch auf den Euro preis gespannt. Kommen da noch Steuern drauf, weil es ein US Preis ist ? Dann wäre wir ja eher bei 831 Euro, oder ?
Edit: oder 725 inklusive 19% und einer echten Dollar--> Euro umrechnung
Linmoum
2019-01-14, 14:03:34
Da kommen noch Steuern zu, ja. Mit denen wäre man umgerechnet bei rund 725€.
Korvaun
2019-01-14, 14:09:12
Wäre gut wenn der UVP hier 699.-€ wäre, ne "6 vornedran" sieht einfach viel besser aus ;)
Hakim
2019-01-14, 14:12:52
dann wäre sie Günstiger als in den Staaten. Könnten ja 724,95€ machen :)
Cyphermaster
2019-01-14, 14:14:46
Wäre gut wenn der UVP hier 699.-€ wäre, ne "6 vornedran" sieht einfach viel besser aus ;)Wenn die kolportierte Info zu $650 für AMD stimmt, wird das aber hier inklusive Steuern und Gedönse kaum zu machen sein. Jedenfalls nicht, wenn man bei AMD mindestens auf +/-0 rauskommen will.
gbm31
2019-01-14, 14:50:40
Ein bisschen muss AMD auch in EU auf den Preis achten - die RTXen fallen ja wegen Desinteresse.
Und auf der anderen Seite könnte ich dann ja endlich auf einen 34" 21:9 3440x1440 144Hz umsteigen, dafür muss ja auch ein bisschen Kohle übrig bleiben...
;D
Genug geträumt. Die Newsletter wird Preis und Datum nennen - dann entscheidet sich's.
anddill
2019-01-14, 15:07:52
AMD wird gute Gründe dafür haben, nur UHD-Werte anzugeben. ;)
MfG,
Raff
Logisch, die Zusatzleistung kommt fast nur aus der Speicherbandbreite, und die dürfte bei niedrigeren Auflösungen weniger Gewicht haben.
AMD wird gute Gründe dafür haben, nur UHD-Werte anzugeben. ;)
MfG,
Raff
Sehe euch schon die Karte in 720p benchen.
Habt ihr schon bemerkt, dass solche Auflösungen quasi 0 Einfluss auf die CPU Zyklen, auch nicht im Treiber, haben?
aufkrawall
2019-01-14, 16:27:05
Wen interessiert denn noch 1080p? Diese Pixelmatsche ist nicht mal TAA-kompatibel.
MikePayne
2019-01-14, 16:32:16
Wen interessiert denn noch 1080p? Diese Pixelmatsche ist nicht mal TAA-kompatibel.
Oh man, 3DC. Die Majorität spielt immer noch mit 1080p und das wird auch noch eine ganze Weile so bleiben. Von Pixelbrei kann da keine Rede sein! #abgehoben
Das die Vega 7 natürlich für 1440p+ gemacht ist, ist offensichtlich.
aufkrawall
2019-01-14, 16:35:52
Jo, 1440p ist voll abgehoben für eine 700€ Grafikkarte. :comfort2:
MikePayne
2019-01-14, 16:43:55
Jo, 1440p ist voll abgehoben für eine 700€ Grafikkarte. :comfort2:
Du bist ja leider nicht der einzige, der denkt, dass 1440p oder gar 4k in jedem Haushalt zur Verfügung stehen (oder müssen, weil ja 1080p so gammelig ist bzw ja anscheinend schon 80er Jahre Style ist). :freak:
Das diese Karte für den Dauerbetrieb mit 1080p völlig übertrieben ist, steht auf einem anderen Blatt. Wer sich Vega 7 holt, hat eh schon 1440p/4k oder wird in diese Richtung aufrüsten (nicht das ich das genau ein Post vor Dir schon geschrieben habe).
Sehe euch schon die Karte in 720p benchen.
Habt ihr schon bemerkt, dass solche Auflösungen quasi 0 Einfluss auf die CPU Zyklen, auch nicht im Treiber, haben?
720p-Benchmarks gibt's nur, wenn die CPU-Leistung (bzw. der Overhead) geprüft werden soll.
MfG,
Raff
Mortalvision
2019-01-14, 17:53:57
Also, für 1080p@144Hz mit max Texturen bestimmt nicht schlecht, könnte paar Jahre gut halten.
Ex3cut3r
2019-01-14, 18:11:08
Stimme ich zu allerdings, schon fragwürdig, wer eine 700€ Karte zum Rls. kauft, ob der jenige noch einen FHD Bildschirm rockt. Machen wir uns nichts vor, 1440p ist ein gigantischer Sprung vor allem wenn beide @ 27" laufen, der Unterschied ist größer, als die Zahl es ausdrückt imo. Und 1440p ist auch so günstig wie nie, wer da wirklich noch auf 1080p behart, kann ich nur sagen, er spielt die Spiele alle falsch. 4K ist natürlich noch schöner, aber da reichen die Midrange Karten einfach noch nicht.
Desweiteren sollte man das CPU Limit nicht unterschätzen, ich weiß selbst das ein CL @ 5,0 ghz eine RTX 2080 Ti in FHD sehr oft limitiert.
GSXR-1000
2019-01-14, 18:33:57
, wer da wirklich noch auf 1080p behart, kann ich nur sagen, er spielt die Spiele alle falsch.
Wie gut, das du kaum anmassend bist, und für alle und jeden festlegst, was erstrebenswert und sinnvoll ist, und ganz nebenbei noch anmerkst, das jeder, der dieser deiner Sichtweise nicht zustimmt zu dämlich ist, die Spiele "richtig" zu spielen.
Respekt, das ist schon eine selbst hier selten anzutreffende Selbstverliebtheit...
Ex3cut3r
2019-01-14, 18:35:03
War nur meine Meinung, kann natürlich jeder so handhaben wie er möchte.
Sven77
2019-01-14, 18:40:13
Ha, ich hab ne 2080Ti an nem 1080p Monitor.. rebel without a cause
robbitop
2019-01-14, 18:41:22
DSR? ;)
anorakker
2019-01-14, 18:45:36
1080p an einem PC Bildschirm als "scharf" zu bezeichnen tut doch einfach weh.
2019 erwarte ich eigentlich, dass man als High-End nur noch 4k akzeptiert.
Full-HD kann ich auch mit einer 200€ Karte spielen.
Linmoum
2019-01-14, 18:48:24
Dann frag mal die 0815-Bernds mit ihren 27" FHD-Monitoren, wie knackig das doch ist. :D
Sven77
2019-01-14, 19:12:07
DSR? ;)
300fps!!!!!
Dural
2019-01-14, 19:15:42
Also ich finde 1080 oder 1440 mit brutaler grafik und vielen fps auch besser als 4k mit abstrichen. Like crysis 2007.
Und ich habe seit zig jahren ein 2160 monitor, aber jedem das seine.
Hakim
2019-01-14, 19:16:25
Jedem das seine, schreibt doch net den Leuten vor wie sie zu spielen haben :)
@Dural war zu spät
Mortalvision
2019-01-14, 19:18:51
A!so, ich brauche wegen Augen und Sitzabstand mittlerweile FHD auf 27" , hatte schon 1440p@144Hz, wunderschön, aber die Detailpracht entgeht mir trotz ca. 250% Sehkraft mit eingestellter Brille einfach. Die Augenmuskeln ermüden bei mir ab 40 so sehr, dass ich deswegen unschärfer sehe nach ca. 30 min...
Sven77
2019-01-14, 19:28:26
Ich hab ja auch noch nen 1440p Monitor für Single Player, aber kompetitive Shooter spiel ich nur auf meinem 24" 1080p 144Hz Asus.. wenn man was vergleichbares schnelles rauskommt wechsel ich vielleicht
robbitop
2019-01-14, 19:33:36
300fps!!!!!
Ist auch ne Variante, die ich für sinnvoll halte.
Je mehr zeitliche Auflösung desto höher die Bewegtschärfe und desto geringer der Inputlag.
Ich spiele tausend Mal lieber 1440p mit 120 fps als 4K mit knappen 60fps.
Ist aber natürlich Geschmacksache.
Zergra
2019-01-14, 20:29:25
Bin halt eher für 32 Zoll 4k und 80cm Abstand, hat halt auch echt was. Dafür reicht die Vega 64 meistens noch, aber in ein paar Spielen ist die auch echt grenzwertig.... aber soviel Spiel ich eig. auch nicht mehr... :D
robbitop
2019-01-14, 20:50:33
Muss jeder machen wie er will. Ich hatte 32“ mit 4K un gsync. War mir zu groß (schlechter Überblick) und zu lahm (fps und hz). Sieht aber jeder anders.
w0mbat
2019-01-14, 21:22:49
Ich bin oldschool cool mit 1080p/60@24'' :ugly:
Aber nur weil ich es so will!!!!1111einself
SKYNET
2019-01-14, 21:31:43
Muss jeder machen wie er will. Ich hatte 32“ mit 4K un gsync. War mir zu groß (schlechter Überblick) und zu lahm (fps und hz). Sieht aber jeder anders.
dito, wenn ich an der glotze zocke(sitze dann am boden) schmerzen die augen nach kurzer zeit, weil selbige probieren immer das ganze bild zu erfassen.
aktuell 80cm sitzabstand, 1920*1200 bei 24" :)
Ex3cut3r
2019-01-14, 21:40:04
Glotze? 55"? mit 32" vergleichen....sehr sinnig.
BlacKi
2019-01-14, 21:56:03
Ist auch ne Variante, die ich für sinnvoll halte.
Je mehr zeitliche Auflösung desto höher die Bewegtschärfe und desto geringer der Inputlag.
Ich spiele tausend Mal lieber 1440p mit 120 fps als 4K mit knappen 60fps.
Ist aber natürlich Geschmacksache.
keine frage, competitive sollten mindestens 120fps/hz drinn sein. aber dazu muss man nicht mit einer 1080ti auf 1080p runter. ab einem gewissen punkt ziehe ich bildschärfe den fps/Hz vor. auf FHD gehe ich freiwillig nicht mehr zurück. PUBG zocke ich mit 150% screenscale auf 1440p in 40cm entfernung, ich würde am liebste 4k144hz zocken wenn die Bildschirme halbwegs bezahlbar wären, oder eben 3440x1440. selbst mit einer 1080ti. notfalls mit screenscale herabstufen. herabsetzen ist immer besser als hochsetzen.
Linmoum
2019-01-14, 23:24:00
QHulPTh3qXQ
Da wird wohl jemand Haue kriegen... :D
https://www.reddit.com/r/Amd/comments/afx8pz/vega_vii_far_cry5_benchmark_not_from_amd_video_in/
Daredevil
2019-01-14, 23:32:33
Wie war das nochmal?
Pixelanzahl ist nicht gleich Pixelanzahl, wenn man "NormalWide" und "UltraWide" vergleicht, weil die Geometrie ect. anders berechnet wird?
Da hab ich aber jetzt auch mehr von dem Video erwartet. :<(
gravitationsfeld
2019-01-15, 00:11:30
Theoretisch schon richtig, praktisch ist der Einfluss aber minimal.
SKYNET
2019-01-15, 01:57:56
Glotze? 55"? mit 32" vergleichen....sehr sinnig.
46" sitzeabstand am boden 2m :P
Digidi
2019-01-15, 02:32:07
Hmm ich hab mal die Patente durchgeschaut hmmm:
Technik für Culling:
https://patents.google.com/patent/US20180137676A1/en?inventor=Mangesh+P.+Nijasure
Flexibler Rasterizer:
https://patents.google.com/patent/WO2018182989A1/en?inventor=Laurent+Lefebvre&sort=new
Variable Wavefront:
https://patents.google.com/patent/WO2018156635A1/en?inventor=Michael+Mantor&sort=new
Lastverteilung shader:
https://patents.google.com/patent/US20180321946A1/en?inventor=Michael+Mantor&sort=new
basix
2019-01-15, 07:03:22
Die sind alle aber noch recht jung. Bin mir nicht sicher, ob das für Vega oder Navi überhaupt relevant ist.
Wie war das nochmal?
Pixelanzahl ist nicht gleich Pixelanzahl, wenn man "NormalWide" und "UltraWide" vergleicht, weil die Geometrie ect. anders berechnet wird?
Da hab ich aber jetzt auch mehr von dem Video erwartet. :<(
Theoretisch schon richtig, praktisch ist der Einfluss aber minimal.
AFAIK macht das vor allem für die CPU 'nen Unterschied, da links und rechts "wichtige" Objekte angezeigt werden, während das obere Drittel bei vielen Spielen aus Himmel besteht, der idR nicht aufwendig ist. Heißt: Größeres horizontales Sichtfeld -> mehr Objekte und NPCs -> mehr Arbeit für die CPU. Ich habe das vor vielen Monaten mal stichprobenartig getestet; zwischen 16:10 und 21:9 gab's durchaus markante Unterschiede.
MfG,
Raff
dargo
2019-01-15, 10:44:19
https://youtu.be/QHulPTh3qXQ
Da wird wohl jemand Haue kriegen... :D
https://www.reddit.com/r/Amd/comments/afx8pz/vega_vii_far_cry5_benchmark_not_from_amd_video_in/
Nichts Neues... das wissen wir schon seit der Präsentation.
https://scr3.golem.de/screenshots/1901/Radeon-Vega-VII/thumb620/%20Radeon-Vega-VII-06.png
gbm31
2019-01-15, 11:08:08
AFAIK macht das vor allem für die CPU 'nen Unterschied, da links und rechts "wichtige" Objekte angezeigt werden, während das obere Drittel bei vielen Spielen aus Himmel besteht, der idR nicht aufwendig ist. Heißt: Größeres horizontales Sichtfeld -> mehr Objekte und NPCs -> mehr Arbeit für die CPU. Ich habe das vor vielen Monaten mal stichprobenartig getestet; zwischen 16:10 und 21:9 gab's durchaus markante Unterschiede.
MfG,
Raff
Hab ich sehr deutlich bei AC: Origins gemerkt, z.B. allein im internen Bench. Da hat der 6-Kerner ordentlich Federn gelassen...
Linmoum
2019-01-15, 11:24:41
Nichts Neues... das wissen wir schon seit der Präsentation.
https://scr3.golem.de/screenshots/1901/Radeon-Vega-VII/thumb620/%20Radeon-Vega-VII-06.png
Ja, wir haben Balken vom Hersteller direkt gesehen. ;) Wie das in der Regel einzuordnen ist, sollte bekannt sein.
bnoob
2019-01-15, 11:25:05
https://youtu.be/QHulPTh3qXQ
Da wird wohl jemand Haue kriegen... :D
https://www.reddit.com/r/Amd/comments/afx8pz/vega_vii_far_cry5_benchmark_not_from_amd_video_in/
https://www.reddit.com/r/Amd/comments/ag4ef9/gamersnexus_had_nothing_to_do_with_recent_radeon/
SKYNET
2019-01-15, 11:36:18
AFAIK macht das vor allem für die CPU 'nen Unterschied, da links und rechts "wichtige" Objekte angezeigt werden, während das obere Drittel bei vielen Spielen aus Himmel besteht, der idR nicht aufwendig ist. Heißt: Größeres horizontales Sichtfeld -> mehr Objekte und NPCs -> mehr Arbeit für die CPU. Ich habe das vor vielen Monaten mal stichprobenartig getestet; zwischen 16:10 und 21:9 gab's durchaus markante Unterschiede.
MfG,
Raff
du willst damit sagen, das die CPU bei der VII gebremst hat und sie eigentlich noch viel schneller wäre? ;D
dildo4u
2019-01-15, 11:41:10
Kommt natürlich aufs Game an Odyssee läuft am besten mit einem 16 Core Threadripper,der wurde natürlich nicht genutzt.
dargo
2019-01-15, 11:53:43
Ja, wir haben Balken vom Hersteller direkt gesehen. ;) Wie das in der Regel einzuordnen ist, sollte bekannt sein.
Ich sehe das mittlerweile nicht so eng. Das Testsystem ist bekannt. Und, dass sich eine Szene X etwas anders verhalten kann als eine Szene Y im gleichen Spiel sollte mittlerweile auch bekannt sein. Sprich... die eine Szene kann etwas stärker zugunsten von IHV X ausfallen, die andere zu IHV Y. Aber ich weiß, 3DC ist dafür bekannt Glaubenskriege schon bei +/-5% zu führen. :ulol:
SKYNET
2019-01-15, 13:53:32
Ich sehe das mittlerweile nicht so eng. Das Testsystem ist bekannt. Und, dass sich eine Szene X etwas anders verhalten kann als eine Szene Y im gleichen Spiel sollte mittlerweile auch bekannt sein. Sprich... die eine Szene kann etwas stärker zugunsten von IHV X ausfallen, die andere zu IHV Y. Aber ich weiß, 3DC ist dafür bekannt Glaubenskriege schon bei +/-0.5% zu führen. :ulol:
mal korrigiert... ;)
Dural
2019-01-15, 14:40:58
Angeblich nur 5000stk.
Könnte eine rarität werden, ich denke sobald navi da ist wird die karte gleich eingestellt.
dildo4u
2019-01-15, 15:27:21
Navi wird erstmal nicht mit 16 GB kommen,daher würde ich eher auf Karten bis 500€ tippen.
Hakim
2019-01-15, 15:28:31
Wer 100% eine will sollte auf jeden Fall nicht zögern wenn es zu bestellen gibt. Die Meldung könnte aber auch fake sein
Cyphermaster
2019-01-15, 15:42:43
Natürlich wird man die Karten schnellstmöglich durch leistungsgleiche Navi ersetzen (weil kosteneffizienter). Nur eben wie schnell das geht, wird entscheidend sein. Ich glaube nicht, daß man das Angebot vor der Ablösung durch Navi zurückzieht, auch wenn es über die 5000 Stück hinaus geht, und damit die mit Mühe geschaffene Präsenz in dem Segment gleich wieder hinschmeißt - wenn, wird man höchstens die üblichen graduellen Preissenkungen nicht mitmachen (weil man sonst Minus/zu viel Minus mit VII machen würde), und sie so effektiv ein "Abwehrangebot" werden lassen.
SKYNET
2019-01-15, 15:43:18
Navi wird erstmal nicht mit 16 GB kommen,daher würde ich eher auf Karten bis 500€ tippen.
kommt drauf an wie navi gestaffelt sein wird... wird es tatsächlich ein chip von low-end bis high-end werden(wie zen, einer für alles), werden wir navi sicherlich mit 4-8-16GB sehen.
aber das ist alles noch spekulatius... :freak:
denke aber AMD wirds wohl machen wie NV es bis pascal gemacht hat, erst die mitte und unteres high-end, später dann low-end und dann den top chip.
Linmoum
2019-01-15, 16:02:56
Natürlich wird man die Karten schnellstmöglich durch leistungsgleiche Navi ersetzen (weil kosteneffizienter). Nur eben wie schnell das geht, wird entscheidend sein.
Ich bezweifle, dass Navi für diese Leistungsklasse kommen wird, sondern die Radeon VII erst mit der Gen danach im High-End abgelöst wird.
Ex3cut3r
2019-01-15, 16:10:46
Das wäre dann 2021?
SKYNET
2019-01-15, 16:18:04
Das wäre dann 2021?
2020... Arcturus
Ex3cut3r
2019-01-15, 16:21:34
Hmm ok, für was denn überhaupt noch eine Radeon VII? :freak:
SKYNET
2019-01-15, 16:47:42
Hmm ok, für was denn überhaupt noch eine Radeon VII? :freak:
jede nicht verkaufe RTX2080 ist weniger marktanteil für NV ;)
Hakim
2019-01-15, 16:55:53
Viel Marktanteil hat der Segment um 2080/VII sowieso nicht, geht eher um das Image und Paroli bieten in dem High End und Enthusiasten Bereich.
SKYNET
2019-01-15, 16:59:55
Viel Marktanteil hat der Segment um 2080/VII sowieso nicht, geht eher um das Image und Paroli bieten in dem High End und Enthusiasten Bereich.
zumal 5000x(als min.)$700 = $3.500.000 mehr umsatz sind ;)
für AMD ist das ne menge.
maximus_hertus
2019-01-15, 17:06:23
Hmm ok, für was denn überhaupt noch eine Radeon VII? :freak:
Um den Nachfolger zu verkaufen. Bist du über Jahre ncht im High End vertreten ist es umso schwieriger wieder Fuß zu fassen. Die Radeon VII ist für AMD ein absoluter Glücksfall.
Bei rund 600 - 650 Euro könnte ich mir gut vorstellen eine solche R7 zu kaufen. In den kommenden 2-3 Jahren wird Raytracing eher keine Role spielen (das ein oder andere Halo Game mal ausgenommen). Dann bleibt halt Performance, VRAM und Preis. Stromverbrauch ist ja jetzt nicht so dramatisch (RTX 2080 liegt bei 265-286W, die R7 wohl bei genau 300W). Performance ist bei der RTX, vor allem den Customs, wohl um 10-15% besser.
Ergo gute Custom 2080er liegen bei 800-900 Euro, bieten wahrscheinlich rund 10-15% mehr fps und verbrauchen minimal weniger Strom.
Die VII wird wohl bei etwas über 700 Euro starten, etwas langsamer sein und minimal mehr Strom verbrauchen. Ob RTX oder 16 GB VRAM wichtiger ist? Ich tendiere zu den 16GB. Schon jetzt ist RTX nur mit viel wohlwollen spielbar (flüssig). Der fps Hit ist einfach zu groß.
Gibt es die Radeon VII für rund 600-650 Euro, wäre sie ein sehr guter Deal.
Voraussetzung ist natürlich ein sehr guter und sehr leiser Kühler. Das wird man dann sehen müssen was dieser abliefert.
Hakim
2019-01-15, 17:16:24
zumal 5000x(als min.)$700 = 3.500.000 mio mehr umsatz sind ;)
für AMD ist das ne menge.
Es kommt halt immer drauf an wie viel man einnimmt, es wird ja gemunkelt das AMD kaum Gewinn macht bei der Karte, eine Nachricht besagt sogar das man für jede verkaufte Karte draufzahlt (ka obs stimmt), das hört sich eher nicht gut an. Könnte auch erklären wenn nicht allzu viele Verkauft (Angeboten) werden.
Grendizer
2019-01-15, 17:19:44
Ergo gute Custom 2080er liegen bei 800-900 Euro, bieten wahrscheinlich rund 10-15% mehr fps und verbrauchen minimal weniger Strom.
Die VII wird wohl bei etwas über 700 Euro starten, etwas langsamer sein und minimal mehr Strom verbrauchen. Ob RTX oder 16 GB VRAM wichtiger ist? Ich tendiere zu den 16GB. Schon jetzt ist RTX nur mit viel wohlwollen spielbar (flüssig). Der fps Hit ist einfach zu groß.
Gibt es die Radeon VII für rund 600-650 Euro, wäre sie ein sehr guter Deal.
Voraussetzung ist natürlich ein sehr guter und sehr leiser Kühler. Das wird man dann sehen müssen was dieser abliefert.
Naja... eine KFA² GeForce RTX 2080 EX OC ist jetzt für 649 € zu haben... ich habe eine KFA² 1080 EX OC. Die hat zwar nicht den Glanz von anderen 1080ern, arbeitet aber seit März 2017 zuverlässig und leise in meinem Rechner. Was bedeutet "gut" ... nochmal 100 Mhz mehr beim Boost ?
SKYNET
2019-01-15, 17:27:13
Es kommt halt immer drauf an wie viel man einnimmt, es wird ja gemunkelt das AMD kaum Gewinn macht bei der Karte, eine Nachricht besagt sogar das man für jede verkaufte Karte draufzahlt (ka obs stimmt), das hört sich eher nicht gut an. Könnte auch erklären wenn nicht allzu viele Verkauft (Angeboten) werden.
draufzahlen werden sie wohl nicht, aber riesen gewinne werden sich auch keine fahren... ;)
Screemer
2019-01-15, 17:32:47
zumal 5000x(als min.)$700 = $3.500.000 mehr umsatz sind ;)
für AMD ist das ne menge.
ernsthaft? :facepalm:
Hakim
2019-01-15, 17:35:30
draufzahlen werden sie wohl nicht, aber riesen gewinne werden sich auch keine fahren... ;)
Glaub war in der selben Nachricht wie der der meinte nur 5000 Stück. Zu hoffen wärs das sie nicht Miese machen, aber wäre wenn denn wirklich so ist, net mal ein Riesenproblem, zwar natürlich nicht gut, aber man hat etwas um in einem Hoch angesehen Segment der Konkurrenz Paroli zu bieten und entsprechend das Image zu Pflegen, und wenn man kaum Gewinn macht oder nur ein wenig draufzahlt (bei 5000 Stück), ist das mMn immer noch besser als Millionen in eine Werbung zu stecken.
Timbaloo
2019-01-15, 17:47:20
Man kann den wohlwollenden Preistreiber spielen. Mit einer auf dem Papier günstigen Karte die aber real nicht wirklich verfügbar ist. Der Verlust der dabei evtl. anfällt wäre be geringen Stückzahlen auch unwichtig.
Tatwaffe
2019-01-15, 17:51:14
Halte ich für kompletten Quatsch mit den 5000 Stück.
Was ihr macht 500.000 Stück, ja wir machen 50.000 Stück, echt 5.000 Stück, voll krass geil Rarität ey.
Da hypen wohl ein paar die Bunkern wollen den "du bist super exclusiv mit der Karte also zahl mir das doppelte"
Fehlt nur noch das Lisa Su die von Hand signiert.
Auch Leute die meinen AMD verdient nix, aber kein Plan was Platine, Chip und Ram AMD wirklich kosten.
Und mit 5000Stück gräbst du auch Nvidia keine Marktanteile ab, das wär sowas von komplett sinnlos die Karte zu bringen, dürfte eher Hate schüren wenn die Karten nicht verfügbar sind, die Miner wetzen ja bereits die Klingen, vermutlich deswegen AMD exclusiv.
Bei Navi erwarte ich auch erst nur günstige Midrange, und dann 2020 irgendwann die highend Versionen.
Und zu Arcturus wurde doch schon gesagt das das nur der Codename für die Linux Treiber ist oder hab ich was verpasst?
Thunderburne
2019-01-15, 18:23:09
Weiß jemand wie AMD das handhaben wird wen man auf Wakü umbaut wegen der Garantie?
HTB|Bladerunner
2019-01-15, 18:23:30
Vega64 (schwarzes Referenzdesign) kostete in DE zum Start mindestens 650€ bei einer UVP von 599$. Erst 1-2 Monate später purzelten die Preise deutlich unter 600€. Im Falle der spekulierten 5000 Stück der RVII wird man sicherlich vor einem imaginären AMD-Store zelten müssen um noch eine Karte zu ergattern. Da stellt stellt sich gar nicht mehr die Frage wie viel das Stück Hardware kostet. ;)
Ich könnte mir vorstellen, dass sich die Stückzahl auf die erste Charge bezieht und rechne mit Einführungspreisen um die 800€.
Linmoum
2019-01-15, 18:26:54
Warum sollte AMD im eigenen Shop mehr als die eigene UVP verlangen? Ergibt keinen Sinn. Was Mindfactory und Co. machen ist eine andere Sache.
Zergra
2019-01-15, 18:48:16
Komisch ich habe für meine v64 bei Mindfactory nur 499€ bezahlt und das am Tag des Release.
Grendizer
2019-01-15, 18:54:56
Komisch ich habe für meine v64 bei Mindfactory nur 499€ bezahlt und das am Tag des Release.
Ja ... alternate und Mindfactory waren die einzigen Shops am Releasetag die zu dem Preis geliefert hatten ... danach ging er sofort hoch und Vega 64 für 509 waren nur noch sporadisch im Mindstar zu bekommen. Dann gab es noch das AMD Bundle, mit Zeug das kaum einer brauchte, die Karten aber teurer gemacht hatte.
HTB|Bladerunner
2019-01-15, 19:22:02
Warum sollte AMD im eigenen Shop mehr als die eigene UVP verlangen? Ergibt keinen Sinn. Was Mindfactory und Co. machen ist eine andere Sache.
Mehr als Mindfactory und Co. gibt der AMD-Eigene Shop auch nicht her. Das sieht nicht aus wie Eigenvertrieb sondern eher wie ein Preisvergleich.
Komisch ich habe für meine v64 bei Mindfactory nur 499€ bezahlt und das am Tag des Release.
Ja ... alternate und Mindfactory waren die einzigen Shops am Releasetag die zu dem Preis geliefert hatten ... danach ging er sofort hoch und Vega 64 für 509 waren nur noch sporadisch im Mindstar zu bekommen. Dann gab es noch das AMD Bundle, mit Zeug das kaum einer brauchte, die Karten aber teurer gemacht hatte.
Ahh, ok das erklärt auch weshalb Geizhals.de nichts dazu dokumentiert hat...
Dann nehme ich das zurück! ;)
Tatwaffe
2019-01-15, 19:33:44
die 5.000 Stück Legende basiert auf
"information gained from unnamed sources." aka the internetz:rolleyes:
-=Popeye=-
2019-01-15, 20:30:03
https://youtu.be/QHulPTh3qXQ
Da wird wohl jemand Haue kriegen... :D
https://www.reddit.com/r/Amd/comments/afx8pz/vega_vii_far_cry5_benchmark_not_from_amd_video_in/
Cool... die neue Vega ist in Far Cry 5 definitiv auf Augenhöhe mit einer GTX1080Ti/RTX2080.
https://abload.de/thumb/farcry5_2019_01_15_19ssk65.jpg (http://abload.de/image.php?img=farcry5_2019_01_15_19ssk65.jpg)
(GTX 1080 TI lief stock @ WakÜ bei ~1911/5500)
crux2005
2019-01-15, 20:40:46
zumal 5000x(als min.)$700 = $3.500.000 mehr umsatz sind ;)
für AMD ist das ne menge.
Gelaber. :rolleyes:
Linmoum
2019-01-15, 21:00:24
In a recent interview with 4 Gamers (Source in Japanise), AMD's Adam Kozak confirmed that their upcoming Radeon VII graphics card would support DirectML, a Machine Learning (ML) extension to DirectX.
https://www.overclock3d.net/news/gpu_displays/amd_s_radeon_vii_supports_directml_-_an_alternative_to_dlss/1
Mal schauen, DirectML kommt ja demnächst mit dem Spring Update für Windows 10.
Dural
2019-01-15, 21:39:17
Und mit 5000Stück gräbst du auch Nvidia keine Marktanteile ab, das wär sowas von komplett sinnlos die Karte zu bringen, dürfte eher Hate schüren wenn die Karten nicht verfügbar sind, die Miner wetzen ja bereits die Klingen, vermutlich deswegen AMD exclusiv.
Du hast mir gerade den tag versüsst :freak::freak::freak:
SKYNET
2019-01-15, 21:53:56
Cool... die neue Vega ist in Far Cry 5 definitiv auf Augenhöhe mit einer GTX1080Ti/RTX2080.
https://abload.de/thumb/farcry5_2019_01_15_19ssk65.jpg (http://abload.de/image.php?img=farcry5_2019_01_15_19ssk65.jpg)
(GTX 1080 TI lief stock @ WakÜ bei ~1911/5500)
wahrscheinlich sogar schneller, da ein bild in der breite mehr Informationen enthält als eines in der höhe, wie der Italiener gebencht hat... wolken = gratis gerendert sozusagen. ;)
Daredevil
2019-01-15, 21:55:09
Es wird definitiv ein Mining König. :)
https://abload.de/img/20190115_173956000_ioq1joq.png
Tatwaffe
2019-01-16, 01:01:03
Keine FP64 PowerKarte
AMD hat am Wochenende klargestellt, dass die Radeon VII keine „MI50 mit einem anderen Treiber“ ist, sondern dass einige der für wissenschaftliche Arbeiten benötigten Funktionen beschnitten wurden. Damit widerspricht AMD Meldungen, dass die 700-Euro-Karte quasi einer mehreren tausend US-Dollar teuren Lösung entspricht.
Ausgelöst durch einen Tweet von Anandtech und verbreitet über reddit freute sich die Community bereits auf eine extrem starke Profi-Lösung im Gamer-Gewand. 6,7 bis 6,9 TFLOPS in FP64-Ausführungen sind mit der Profikarte Instinct MI50 drin, doch beim Gaming-Modell Radeon VII wird der Faktor vermutlich wie bisher bei 1:32 (von FP16 ausgehend, von FP32 1:16) liegen, was am Ende rund 860 GFLOPS entsprechen würde. Denn den Gerüchten über den gleichen FP64-Satz hatte AMD widersprochen: „Radeon VII does not have double precision enabled.“.
quelle computerbase
https://www.computerbase.de/2019-01/vega-20-amd-radeon-vii-fp64/
nun...
crux2005
2019-01-16, 01:10:03
AMD wäre ja auch blöd wenn nicht. Wozu MI-50 kaufen (bis auf IF Link) wenn es eine Radeon VII auch macht. ZULUL
aufkrawall
2019-01-16, 01:25:00
Wer hatte denn ernsthaft etwas anderes erwartet? Absolut lächerliche Artikel-Verwurstung.
Tatwaffe
2019-01-16, 03:37:46
AMD wäre ja auch blöd wenn nicht. Wozu MI-50 kaufen (bis auf IF Link) wenn es eine Radeon VII auch macht. ZULUL
aber wozu der ganze R&D (STEM) Kram auf der Prese, soll ich Machine Learning jetzt auf nem Ryzen machen:confused: am besten noch aufm Chromebook, kein Wunder das alle Seiten bei den technischen Datenblätter von FP64 Leistung wie die großen Brüder geträumt haben. (und es auch so durchgehend verbreitet haben)
Wer hatte denn ernsthaft etwas anderes erwartet? Absolut lächerliche Artikel-Verwurstung.
Nun, ich hatte zumindest erwartet, dass ein klein wenig "Instinct" in der Karte steckt. Wenn man PCIe 4.0 und die dicke FP64-Leistung zusammenstreicht, ist das Ding bloß eine Vega Frontier Edition I mit verdoppelter Speichertransferrate. Das ist immer noch nett, aber damit stirbt (für mich) viel Faszination, egal wie nutzbar die Funktionen sind.
MfG,
Raff
Linmoum
2019-01-16, 09:33:53
Was Seiten verbreiten ist eine andere Geschichte als das, was AMD verbreitet. Die 128 ROPs kamen auch von AT und nicht AMD und quasi jeder hat es geglaubt.
Dural
2019-01-16, 09:38:55
Ehm die 128 ROPs hat doch ein AMD Mensch höchst persönlich in einem Gespräch zu einem Journalist genannt.
Menschen sind fehlbar. Wenn das ein Zwischen-Tür-und-Angel-Dialog in einer Event-Pause war und der AMD-Mensch "That should be 128 ROP's, if I remember correctly. Let me check that and get back to you later" sagte (direkt aus der Praxis!), der Schreiberling aber mit der ersten Satzhälfte zufrieden war, passiert sowas. Sorgfalt sieht anders aus. ;)
MfG,
Raff
Zergra
2019-01-16, 10:47:43
Ist jetzt eig klar, ob es die Karte am 7.02 auch bei anderen Händler gibt ? Oder ist es sicher, das man diese nur über die AMD Seite erwerben kann?
AMDoderNvidia
2019-01-16, 11:16:18
Hatte AMD schon mal einen Direktvertrieb von Grafikkarten? Und wenn ja, kommen die bei einer Bestellung aus den USA? Bei Nvidia werden sie von einem europäischen Zentrum (Irland?) verschickt.
Linmoum
2019-01-16, 12:05:38
Ist jetzt eig klar, ob es die Karte am 7.02 auch bei anderen Händler gibt ? Oder ist es sicher, das man diese nur über die AMD Seite erwerben kann?
Sowohl AMD selbst, als auch bei Online-Händlern.
Daredevil
2019-01-16, 12:14:11
Zu der Lautstärke, die ja "Whisper Quiet" laut Linus sein soll ist mir letztens eingefallen, dass AMD bestimmt ihre eigenen Features reichlich nutzen wird > Radeon Chill.
Das bedeutet nicht, dass sie es bestimmt nicht auch sein kann, aber der Kühler ist zwar fett, aber nicht ultrafett.
Wenn man unter 1900-2000rpm kommt bei 300w, wär das bestimmt schon ganz nett.
Ne Ultrasilent Karte kann denke ich niemand erwarten.
Eine Grafikkarte mit 300 Watt und Dual-Slot-Kühler kann gar nicht "Whisper Quiet" sein. Wenn doch, wird sie nicht ausgelastet. Und das will (beim Spielen/Rendern) doch keiner.
MfG,
Raff
BK-Morpheus
2019-01-16, 12:30:42
Ist jetzt eig klar, ob es die Karte am 7.02 auch bei anderen Händler gibt ? Oder ist es sicher, das man diese nur über die AMD Seite erwerben kann?
Nur bei AMD direkt. Sie werden davon auch vorerst nur ~5.000 Stück produzieren, weil sie bei der Karte draufzahlen.
Habe ich zumindest gehört und imho würde dass zur Karte passen.
=Floi=
2019-01-16, 12:32:55
und die news war bullshit.
Das sind beschnittene chips, dafür gibt es keine verwendung und es gibt keine kleine instinct karte.
5000 stück sind für 850€ eh viele karten. So groß ist dieser markt nicht.
Die Radeon Seven entspricht einer MI50 (60 von 64 CUs aktiv). Inkl. vollen Speichersubsystems. Minus PCIe 4.0 und DP-Power (heißt es).
MfG,
Raff
Dural
2019-01-16, 13:22:55
AMD geht wohl selber davon aus das es keine hohe nachfrage der karte gibt, sie gehen davon aus das am 07.02 genug karten bei den händler liegen.
https://www.overclock3d.net/news/gpu_displays/amd_responds_to_radeon_vii_short_supply_rumours/1
SKYNET
2019-01-16, 14:08:35
Eine Grafikkarte mit 300 Watt und Dual-Slot-Kühler kann gar nicht "Whisper Quiet" sein. Wenn doch, wird sie nicht ausgelastet. Und das will (beim Spielen/Rendern) doch keiner.
MfG,
Raff
naja, wäre mir nicht so sicher, der kühler kann ja zum PCB hin schonmal ein paar millimeter fetter sein, da dort kein vram im weg ist der die höhe reduziert, je nach dem wie flach die lüfter sind(evtl. eingelassen in die fins, und nicht nur aufliegend) kämen wir damit auf die leistung eines 2.5 slot kühlers, erstrecht wenn das ding 8er pipes hat :smile:
aber ist nur speku meinerseits, aber will halt sagen, evtl. ist sie doch SEHR leise... und für alle silentfreaks gibts sonst wasser order nen morpheus ;)
Hm, vielleicht nen Instinct-BIOS drüberbügeln, wegen FP 64...?
Sind bei AMD ja keine Extra-Einheiten, die AMD cutten könnte.
Edit: Hardwarevirtualisierung ist bestimmt auch entsorgt worden, oder?
Edit2: Der Satz "AMD verhindert mit einer Beschneidung auf 1:16 oder 1:32, dass Workstation-Nutzer, welche nur die hohe FP64-Leistung, nicht aber die Profi-Treiber benötigen, zur deutlich günstigeren Grafikkarte greifen." klingt jetzt auch nicht so wirklich gut, wenn ich auf ner Goldwaage versuchen würde, das Gras wachsen hören zu wollen. Wisst ihr bei PCGH etwa da schon irgend etwas, oder überinterpretiere ich da was (so entstehen Gerüchte, ich weiß).
gravitationsfeld
2019-01-16, 20:53:07
Features werden heutzutage normalerweise in Hardware ausgeschalten. Z.B. mit Lasern die bestimmte Leitungen trennen.
HTB|Bladerunner
2019-01-16, 21:38:25
Oder man lässt den Bios-Schalter weg um das Risiko eines Flash-Versuchs zu erhöhen. :D
Daredevil
2019-01-16, 22:52:21
DirectML als mögliche Alternative zu DLSS
http://www.pcgameshardware.de/Radeon-VII-Grafikkarte-268194/News/AMD-DirectML-Nvidia-DLSS-Alternative-Machine-Learning-1273319/
Spannend ist das für AMD, weil DirectML Compute-Berechnungen durchführt, die per Asynchronous Compute parallel zu 3D-Aufgaben abgearbeitet werden können. Auch wenn AMD keine Tensor-Kerne hat, könnte eine Nutzung die Auslastung der Radeon-GPUs verbessern und damit einen Leistungssprung bringen. Das Ganze funktioniert natürlich nicht nur auf der Radeon VII. Vor allem auf der Radeon RX Vega 64 und Radeon RX Vega 56 liegt häufig Leistung brach, die sich damit ausnutzen ließe.
BlackBirdSR
2019-01-17, 00:16:34
Aber müsste AMD dazu nicht ein Framework veröffentlichen, welches dann die von AMD generierten Daten nutzt?
Dazu müsste AMD ebenfalls erst einmal das neuronale Netz für jedes Spiel erzeugen.
Ich glaube nicht, dass diese Arbeit auf absehbare Zeit von den Studios kommt.
In Zukunft sehe ich da viele Möglichkeiten (AI etc.) aber noch nicht aktuell
DirectML als mögliche Alternative zu DLSS
http://www.pcgameshardware.de/Radeon-VII-Grafikkarte-268194/News/AMD-DirectML-Nvidia-DLSS-Alternative-Machine-Learning-1273319/
gravitationsfeld
2019-01-17, 05:06:26
Waere mir eigentlich ganz recht wenn ich Kontrolle ueber das neuronale Netz haette. Irgendwelche NVIDIA-Blobs kommen mir generell nicht in den Code.
pilzsammler2002
2019-01-17, 09:23:30
Waere mir eigentlich ganz recht wenn ich Kontrolle ueber das neuronale Netz haette. Irgendwelche NVIDIA-Blobs kommen mir generell nicht in den Code.
Ich finde die ML Geschichte in Games ganz interessant. Gibt es da schon Ideen wo man es einsetzen könnte (Antwort natürlich nur ohne nen NDA zu brechen) :freak:
Tatwaffe
2019-01-17, 14:58:44
Die ersten Sachen sind wohl besseres upscaling auf 4k, Ki von Bots, aber auch Animationen und Motion Capture, sowie Lippensynchrone Animationen zu Wörtern, das Anwendungsgebiet ist potentiell riesig.
Von max payne gibts zB schon ne mod bei der die Texturen mithilfe von K.I verbessert wurden
https://www.gamestar.de/artikel/max-payne-remastered-in-dieser-mod-verbessert-ki-die-grafik-des-klassikers,3339026.html
4x Upsampling links k.i / rechts bilineares upsampling (potentiell unlimited Textursize)
https://msdnshared.blob.core.windows.net/media/2018/03/carcompare.png
k.i. machine learning (Seed von EA)
https://youtu.be/LW20UbquVBU
Microsoft Blog über gaming with DirectML
https://blogs.msdn.microsoft.com/directx/2018/03/19/gaming-with-windows-ml/
nvidia deep learning for gaming
https://www.youtube.com/watch?v=rF6Usm0tdhk
Daredevil
2019-01-17, 17:16:07
Ganz besonders hier will ich kein AI für Gaming. :|
WSW-5m8lRMs
Aber es wäre auch hier sehr schön, wie eben auch bei Nvidia, wenn man sich nicht nur auf das Thema Gaming verschränkt bei den Grafikkarten, sondern Features "für Gamer" entwickelt.
Also dass man die Karte auch abseits des Bilder rendern für den alltäglichen Gebrauch nutzen kann.
horn 12
2019-01-17, 22:37:55
AMD-CEO Lisa Su im Interview: "Radeon ist dabei, die wichtigste Gaming-Marke zu werden" (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Lisa-Su-Interview-1273322/)
Nun, dies unten stehende klingt alles andere als Gut
RTX 2080 +5 bis 10%
und dann vielleicht auch nur mal um die 2070-er Performance … falls überhaupt!
Lisa Su:
Nun, wir haben bereits einige Daten gezeigt, einige davon sind auch in unserer Pressemeldung.
Und ich denke, was Sie sehen werden, ist, dass sie in manchen Spielen durchaus mithalten kann - manchmal mehr, manchmal weniger.
Ja, die entscheidende Technik der 2080 ist Raytracing.
Dafür hat Radeon VII auch einiges zu bieten, wenn es um die Content-Erstellung (Videoschnitt, Animation, Rendering - Anm. d. Red.) geht. Sie sahen eben einige OpenCL-Daten, die wirklich, wirklich phänomenal waren - und wir denken, dass diese durchaus wettbewerbsfähig sind.
Linmoum
2019-01-17, 22:48:53
Man braucht keine Aussagen um grob zu erahnen, wo sich die Radeon VII ootb platzieren wird. Da ist im Prinzip schon alles für bekannt. Ist schließlich immer noch Vega.
Interessant ist, was mit UV und OC möglich sein wird. Und inwiefern 7nm da u.U. eine Rolle spielen.
Dural
2019-01-18, 10:35:14
Die Aussagen von AMD sind doch ziemlich deutlich. Sie geht auch gar nicht auf die Gaming-Leistung drauf ein, sondern kontert gleich mit OpenCL. Das ding wird sich mehr mit der 2070 als der 2080 Messen müssen. Ich gehe davon aus das sie in den üblichen Benchmarks im Schnitt wenige Prozentpunkte über einer 2070 liegt.
Seit wann hat AMD eigentlich ein so schlechtes Preis/Leistungs Verhältnis? Wer hätte gedacht das AMD dabei sogar Turing überbietet... also ich nicht.
Aber ich Wette schon jetzt das die üblichen verdächtigen irgend ein Game mit einer Einstellung finden wo die V7 die 2080Ti VERNICHTET und das als Beweis für alles sehen :freak: :wink:
fondness
2019-01-18, 10:50:47
Seit wann hat AMD eigentlich ein so schlechtes Preis/Leistungs Verhältnis? Wer hätte gedacht das AMD dabei sogar Turing überbietet... also ich nicht.
AMD hat eben die besseren Treiber, da braucht man die Karte nicht mehr zu verramschen, dazu natürlich auch doppelten VRAM. AMD verkauft Karten schon längst nicht mehr billiger als NV bei der selben Leistung, seltsam, dass dir das erst jetzt auffällt.
Dural
2019-01-18, 10:53:56
Technisch (7nm, 16GB HBM) ist die Karte sicherlich interessant, der Markt dürfte aber recht überschaubar sein.
Seit der RX590 nicht, ja. Bei beiden Karten hat das aber natürlich einen Hintergrund, die V7 können sie wohl kaum billiger verkaufen, und bei der 590 liegt es am Überbestand der 580.
SKYNET
2019-01-18, 10:57:22
AMD hat eben die besseren Treiber, da braucht man die Karte nicht mehr zu verramschen, dazu natürlich auch doppelten VRAM. AMD verkauft Karten schon längst nicht mehr billiger als NV bei der selben Leistung, seltsam, dass dir das erst jetzt auffällt.
und im gegensatz zu anderen herstellern(oh, ist ja nur einer :ulol: ) bei den grakas, wird die vorgänger serie dann rausgehauen zu nem sehr guten preis... weil bis 200€ geht derzeit nix an AMD vorbei --> RX580, mehr leistung gabs nie für weniger geld...
Dural
2019-01-18, 11:04:21
Da gebe ich dir sogar recht, die 580er werden verramscht, die Gründe dazu sollte jeder kennen.
SKYNET
2019-01-18, 11:29:53
Da gebe ich dir sogar recht, die 580er werden verramscht, die Gründe dazu sollte jeder kennen.
weil sie bei 1400MHz core und UV nur 152W im worstcase verbrauchen? :tongue: :wink:
ne, scherz... lager sind wohl noch voll mit P20 vom mining geschwabbel...
Battlefield 5: Ausführliche Performance-Analyse und Benchmarks mit 24 Grafikkarten (http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/Specials/Benchmark-Performance-Analysis-1272805/)
Ganz frische Benchmarks. Die Vega 64 Liquid teilt ganz ordentlich aus, die Engine läuft (unter DX11) mittlerweile wie besonnte Butter auf beiden IHVs. Die Radeon Seven wird es in Battlefield 5 wohl mit der RTX 2080 Ti aufnehmen können.
MfG,
Raff
SKYNET
2019-01-18, 11:40:40
Battlefield 5: Ausführliche Performance-Analyse und Benchmarks mit 24 Grafikkarten (http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/Specials/Benchmark-Performance-Analysis-1272805/)
Ganz frische Benchmarks. Die Vega 64 Liquid teilt ganz ordentlich aus, die Engine läuft (unter DX11) mittlerweile wie Butte auf beiden IHVs. Die Radeon Seven wird es wohl mit der RTX 2080 Ti aufnehmen können.
MfG,
Raff
das wäre nen fetter schlag in die fresse von NV... deren aushänge game wegen RTX, wird von ner AMD von hinten aufgerollt ;D
freue mich sehr was wir in knapp 3 wochen zusehen bekommen :biggrin:
Sven77
2019-01-18, 11:46:44
"teilt ganz ordentlich aus" = ist auf 2070 Niveau :confused:
Sind die Ansprüche inzwischen so niedrig?
gbm31
2019-01-18, 11:51:18
"teilt ganz ordentlich aus" = ist auf 2070 Niveau :confused:
Sind die Ansprüche inzwischen so niedrig?
Du willst wohl unbedingt mit in die Kiste zu Dural, Troyan und Horn?
2 Jahre alte Karten (1080 und 1080Ti mit berücksichtigt) gegen die aktuellste Riege der RTniX im passenden Preisbereich?
Und Nvidia-Typisch nur gut aussehend wegen der max. Werte, die keine Sau interessieren?
Sven77
2019-01-18, 11:56:34
BF5 ist das best case szenario, aber ihr könnt euch weiter einen drauf abwedeln.. btw. Liquid :ugly:
ahso die min Werte sind bei der 2070 auch besser.. und tschüss
Dafür, dass das kein Low-Level-Intrinsics-RPM-Radeonspiel ist, läuft's dennoch super. Der nächste Vega-Showcase wird erst The Division 2 (Technik-Interview) (http://www.pcgameshardware.de/Tom-Clancys-The-Division-2-Spiel-61585/Specials/Interview-1273443/).
Das Gute ist doch, dass BF5 auf "allen" GPUs super läuft. Radeons performen einfach nur überdurchschnittlich.
MfG,
Raff
X-Bow
2019-01-18, 12:03:30
@Raff: Seh es nicht ganz so optimistisch wie Du, weil wie schon geschrieben ist es ja die Liquid. Denk nicht das die VII so ein großen Sprung auf die Liquid macht dass sie sich mit der 2080Ti anlegen kann.
@Sven77: Ja die liegt "nur" auf 2070 Niveau, aber wie sagen die nV Jünger noch mal so gern: Die Leistung konnte man sich schon ein Jahr früher kaufen... xD
Allgemein performen die AMD-Karten hier sehr gut, nicht nur die Vegas.
Savay
2019-01-18, 12:13:01
Die 56er liegt ja nun im Mittel dort auch über der 1080. :wink:
Insofern ist die Analyse von Raff jetzt nicht ganz abwegig! :tongue:
Zumindest in 1080p oder UHD könnte die VII dort der 2080Ti relativ nahe kommen!
In 1440p sehen die Min Werte verglichen mit der niedrigsten und höchsten Auflösung allerdings etwas komisch aus.
Bedenkt, dass das jetzt auch nicht die schrottigste RTX 2080 Ti ist, sondern eine potente. Mit Pech (für AMD) reicht's halt nur für eine RTX 2080 Ti mit B-GPU und ohne OC. Wäre trotzdem ein respektables Ergebnis.
MfG,
Raff
Linmoum
2019-01-18, 12:28:35
@Raff
Gedenkt ihr denn, bei der VII auch mal einen (kleinen) Exkurs zum UV zu machen? Dürfte eigentlich das spannendste sein, nachdem sich Vega bisher in der Richtung ja enorm bei deutlich geringerer Leistungsaufnahme und zugleich höherem Takt, anpassen lässt. Nur stumpf den Takt hochziehen ist ja langweilig. :D
X-Bow
2019-01-18, 13:30:43
@Raff
AMD selbst sieht die VII in B5 ja "nur" 11% vor der 2080 in 1440p, deswegen denk ich das die VII ca. 15% hinter der Ti raus kommen wird. Wie sehr sich die Ti's untereinander unterscheiden weiß ich leider nicht, gibt es denn da so große Differenzen?
http://www.pcgameshardware.de/Vega-Codename-265481/Specials/AMD-Radeon-VII-Vega-20-7-nm-Spezifikationen-Daten-Preis-1272918/galerie/2963681/
Nun, es gibt 250-Watt-Varianten ohne OC und 300-Watt-Biester mit Takt-Offset. Da liegen schon einige Prozentchen dazwischen (mehr als zehn). Deswegen muss ich auch immer weinen, wenn Tester "RTX 2080 Ti" an den Balken schreiben, dabei Modell und Frequenzen verschweigen und die Werte dann von niemandem hinterfragt werden. :ugly:
MfG,
Raff
BK-Morpheus
2019-01-18, 13:44:15
Nun, es gibt 250-Watt-Varianten ohne OC und 300-Watt-Biester mit Takt-Offset. Da liegen schon einige Prozentchen dazwischen (mehr als zehn). Deswegen muss ich auch immer weinen, wenn Tester "RTX 2080 Ti" an den Balken schreiben, dabei Modell und Frequenzen verschweigen und die Werte dann von niemandem hinterfragt werden. :ugly:
MfG,
Raff
So true...die Bench-Diagramme, wo einfach nur generische Karten-Namen ohne Modellbezeichnung stehen, sind wirklich ärgerlich.
Da rätselt man dann natürlich, ob ohne Modellbezeichnung evtl. immer eine "Founders Edition" gemeint ist, oder eine ab Werk höher getaktete und kühlere Board-Partner Karte.
wolik
2019-01-18, 13:52:58
Dafür, dass das kein Low-Level-Intrinsics-RPM-Radeonspiel ist, läuft's dennoch super. Der nächste Vega-Showcase wird erst The Division 2 (Technik-Interview) (http://www.pcgameshardware.de/Tom-Clancys-The-Division-2-Spiel-61585/Specials/Interview-1273443/).
Das Gute ist doch, dass BF5 auf "allen" GPUs super läuft. Radeons performen einfach nur überdurchschnittlich.
MfG,
Raff
Schade das man über "mGPU" nicht nachgefragt... In Division 1 (nach patch 1.8) beste SLI. Und 4K/Ultra braucht SLI.
Meine Frage in off. Forum.
Wird es Unterstützung für SLI in Division 2 geben?
Hallo wolik66,
es gibt dazu leider noch keine genaueren Informationen.
Daher ist es schwierig etwas zu sagen. Aber ich leite die Frage gerne weiter, um zu einem nächstmöglichen Zeitpunkt Antwort darauf zu bekommen.
Regards,
Hecki
Global Moderator
Was soll ich sagen. :redface:
SKYNET
2019-01-18, 14:02:11
BF5 ist das best case szenario, aber ihr könnt euch weiter einen drauf abwedeln.. btw. Liquid :ugly:
ahso die min Werte sind bei der 2070 auch besser.. und tschüss
du hast schon gesehen das es durchweg customs sind in der liste?
einer mehr der in die grüne banned fanboykiste wandert
Dural
2019-01-18, 14:51:41
Ich glaube BF5 reagiert ziemlich gut auf Speicher und Bandbreite.
Zwischen 2070 und der Titan RTX liegen gerade mal 50% bei 100% mehr Alus und 50% mehr Bandbreite.
Die 590 ist nur 4% schneller als eine 580 trotz 12% mehr Takt.
Würde auch erklären wie so die Vega so gut gehen.
pilzsammler2002
2019-01-18, 14:59:59
Ich glaube BF5 reagiert ziemlich gut auf Speicher und Bandbreite.
Würde auch erklären wie so die Vega so gut gehen.
Dann sollte die VII aber mehr als überproportional "abgehen" :)
Dural
2019-01-18, 15:02:16
Laut AMD ist sie ja 15% schneller als eine 2080, hat aber nur 6,4% mehr Rohleistung als eine Vega64.
Passt also ganz gut.
SKYNET
2019-01-18, 15:02:44
Ich glaube BF5 reagiert ziemlich gut auf Speicher und Bandbreite.
Zwischen 2070 und der Titan RTX liegen gerade mal 50% bei 100% mehr Alus und 50% mehr Bandbreite.
Die 590 ist nur 4% schneller als eine 580 mit 12% mehr Takt.
Würde auch erklären wie so die Vega so gut gehen.
naja, vega hat nichtmal 500GB bandbreite...
X-Bow
2019-01-18, 15:21:01
Laut AMD ist sie ja 15% schneller als eine 2080, hat aber nur 6,4% mehr Rohleistung als eine Vega64.
Passt also ganz gut.
15%? Wo, die Quelle kenn ich noch nicht wo AMD sagt 15%...:rolleyes:
gbm31
2019-01-18, 15:25:24
Ich glaubs nicht - anstatt sich zu freuen dass die AMDs endlich mal richtig gut laufen bei dem Spiel(!), und die Nvidias sowieso, muss man wieder Grabenkämpfe führen?
Und zum Fanboytum: Ich wiederhole es gern: einfach mal in den GPU Historie THread schauen was die letzten 5-7 Jahre und bis vor 3 Monaten in meinen Rechnern war.
Aber Schubladen sind ja so einfach...
Thunderburne
2019-01-18, 16:16:31
Och ich hab ne FTW3 Hydro C. 1080Ti zu der Zeit wo die RTX rauskam für 650 geschossen die ist schon so gut wie verkauft und wird dann durch die VEGA 7 ersetzt wen es wie erwartet mit OC mal gleich auf und mal schneller zu geht.
Passend dazu steht ResE.2 so wie Division 2 auf der Kaufliste gezockt wird aktuell BF5 das alles halt in 4K da scheint sich mir die VEGA 7 einfach anzubieten da ich nix drauf zahle... den Wasserkühler Aufpreis machen dann die kostenlosen Spiele wieder wet.
HTB|Bladerunner
2019-01-18, 17:55:57
Gibt es zur Radeon VII eigentlich schon die genauen Abmessungen?
Für ein Referenz-Design sieht die Kühlkonstruktion ziemlich wuchtig aus vor allem in der Breite. Oder hat jemand ein gutes Auge und kann eine spekulative Angabe machen? :D
Linmoum
2019-01-18, 18:09:17
Nein, gibt's noch nicht. Von der Länge her würde ich sie aber auf den ersten Blick ähnlich einordnen, wie die Frontier Edition. Also +-27cm.
SKYNET
2019-01-18, 18:29:28
Gibt es zur Radeon VII eigentlich schon die genauen Abmessungen?
Für ein Referenz-Design sieht die Kühlkonstruktion ziemlich wuchtig aus vor allem in der Breite. Oder hat jemand ein gutes Auge und kann eine spekulative Angabe machen? :D
der kühler ist: 286x114mm +/- 1mm
y33H@
2019-01-18, 18:55:50
Wie üblich - und wenn machbar - hier die Frage nach bestimmten Benches, sprich Anwendungen/Spiele?
SKYNET
2019-01-18, 19:36:42
Wie üblich - und wenn machbar - hier die Frage nach bestimmten Benches, sprich Anwendungen/Spiele?
naja, gut 16mm höher der kühler, als ne vega64 FE
horn 12
2019-01-18, 20:33:00
https://geizhals.eu/gigabyte-radeon-rx-vega-64-silver-8g-gv-rxvega64sil-8gd-b-a1664201.html
Nun, die Abmessungen meiner RX Vega Gigabyte Silver 64
sind 283 x 130 x 40
https://www.gigabyte.com/de/Graphics-Card/GV-RXVEGA64SIL-8GD-B#sp
maximus_hertus
2019-01-18, 20:35:38
Wie üblich - und wenn machbar - hier die Frage nach bestimmten Benches, sprich Anwendungen/Spiele?
Auch wenn es unwahrscheinlich ist ;) Wie wäre es mit 1-2 Eyefinity Benchmarks (3 x 1920x1080, ergo 5760x1080)? Z.B. Shadow of the Tomb Raider, Assassins Creed Odyssey, Battlefield 5. Eyefinity ist zwar eher eine Nische, dennoch gibt es nicht soooo wenige, die mit 3 Bildschirmen zocken. Da gibt es aber fast nirgends Benchmarks.
Ich kann aber verstehen, wenn der Aufwand zu groß ist bzw. der Nutzen zu klein. Fragen kann man ja :)
crux2005
2019-01-18, 20:36:39
Wie üblich - und wenn machbar - hier die Frage nach bestimmten Benches, sprich Anwendungen/Spiele?
WW2 auf Bo4 und Origins auf Odyssey updaten? :redface:
horn 12
2019-01-18, 20:52:29
Also sind die Radeon VII Karten bereits angekommen
Leaks sollten sich kaum vermeiden lassen, vor Allem bei Chiphell.com
mczak
2019-01-18, 21:27:18
Laut AMD ist sie ja 15% schneller als eine 2080, hat aber nur 6,4% mehr Rohleistung als eine Vega64.
Kann man so nicht sagen. Es zählt der effektiv erreichte Takt, nicht was da immer der Base oder theoretisch maximal mögliche Takt ist. Da könnte der Unterschied statt 6.4% dann auch ein paar Prozent mehr oder weniger sein.
Mal was anderes, wurde die FP64 Rate schon erwähnt? Ryan Smith hat bestätigt dass das Teil 1:8 FP64:FP32 Rate hat (sowas habe ich ja schon vermutet, nett dass ich da mal richtig liege): https://twitter.com/RyanSmithAT/status/1085680805802733568
soLofox
2019-01-18, 21:35:59
Horn, kannst du dich eigentlich irgendwie auch nur ansatzweise selbst reflektieren?
Also du scheinst ein enormes Aufmerksamkeitsdefizit zu haben. Und das geht inzwischen schon seit Monaten mit dir so. Du führst inzwischen größtenteils "Selbstgespräche" in den Threads. Merkst du das nicht?
HTB|Bladerunner
2019-01-18, 21:54:12
Nein, gibt's noch nicht. Von der Länge her würde ich sie aber auf den ersten Blick ähnlich einordnen, wie die Frontier Edition. Also +-27cm.
der kühler ist: 286x114mm +/- 1mm
naja, gut 16mm höher der kühler, als ne vega64 FE
https://geizhals.eu/gigabyte-radeon-rx-vega-64-silver-8g-gv-rxvega64sil-8gd-b-a1664201.html
Nun, die Abmessungen meiner RX Vega Gigabyte Silver 64
sind 283 x 130 x 40
https://www.gigabyte.com/de/Graphics-Card/GV-RXVEGA64SIL-8GD-B#sp
Danke für die Infos!
Ich schätze auch, verglichen mit dem V56/64 Referenzkühler kommen nicht mehr wie 2cm in der Breite dazu.
Gefährlich sind halt die "nicht-versenkten" PCIe-Anschlüsse...
Wie üblich - und wenn machbar - hier die Frage nach bestimmten Benches, sprich Anwendungen/Spiele?
Neben 4k-Benches würde mich interessieren wie die Karte in 1080p abschneidet, vor allem im Vergleich zu einer Vega64.
Zum einen wegen der Skalierung und zum anderen würde ich gerne wissen ob es eine reine "High-Resolution-Karte" ist.
SKYNET
2019-01-18, 22:02:07
Danke für die Infos!
Ich schätze auch, verglichen mit dem V56/64 Referenzkühler kommen nicht mehr wie 2cm in der Breite dazu.
Gefährlich sind halt die "nicht-versenkten" PCIe-Anschlüsse...
Neben 4k-Benches würde mich interessieren wie die Karte in 1080p abschneidet, vor allem im Vergleich zu einer Vega64.
Zum einen wegen der Skalierung und zum anderen würde ich gerne wissen ob es eine reine "High-Resolution-Karte" ist.
da gibt es abhilfe, bei meiner MSI armor 1080, musste ich abgewinkelte stecker/verlängerungen bestellen, damit ich das seitenteil zubrachte :rolleyes::biggrin:
y33H@
2019-01-18, 23:56:28
WW2 auf Bo4 und Origins auf Odyssey updaten? :redface:Muss ich erst zocken ^^
Black-Ops-4-Benchmarks sind leider pain in the arse. Viel Abschusspotenzial. Und erratische Performance auf Grafikkarten mit weniger als 12 GiByte Speicher.
MfG,
Raff
SKYNET
2019-01-19, 00:11:03
Black-Ops-4-Benchmarks sind leider pain in the arse. Viel Abschusspotenzial. Und erratische Performance auf Grafikkarten mit weniger als 12 GiByte Speicher.
MfG,
Raff
perfekt für den pacours... :biggrin:
"die Vega VII überflügelt die RTX 2080Ti spielend, da dieser 1200€ karte der speicher ausgeht, wärend die 700€ VII noch luft nach oben hat" ;D
crux2005
2019-01-19, 00:37:31
Black-Ops-4-Benchmarks sind leider pain in the arse. Viel Abschusspotenzial. Und erratische Performance auf Grafikkarten mit weniger als 12 GiByte Speicher.
MfG,
Raff
Mit Replay benchen.
bnoob
2019-01-19, 00:48:15
Wie üblich - und wenn machbar - hier die Frage nach bestimmten Benches, sprich Anwendungen/Spiele?
Das aktuelle Unreal Tournament, gerade weil das bisher übermachig für nVidia ist :/
maximus_hertus
2019-01-19, 00:50:03
Wie üblich - und wenn machbar - hier die Frage nach bestimmten Benches, sprich Anwendungen/Spiele?
Alternativ zu Eyefinity bzw. fast schon interessanter wären der ein oder andere Benchmark (muss kein kompletter Parcours sein) wären 32:9 Benchmarks - 3840 x 1080 oder (am besten) 5120 x 1440.
Der Samsung C49HG90 (siehe https://geizhals.de/samsung-c49hg90-lc49hg90dmuxen-a1640134.html?hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk) ist da ja ein interesanter Monitor. 3840 x 1080 ist fast wie 3 x FHD Eyefinity (keine Bezels und die äußersten Bereiche der Randbildschirme sind bei 3 x FHD verzerrt). Theoretisch sollte 3840x1080 nur 12,5% mehr Rechenlast wie 2560x1440 erzeugen, ergo ähnliche fps abliefern. Duech das komplett andere Bildformat (32:9 vs 16:9) würde mich mal interessieren, ob das auch zutrifft. Leider finde ich quasi keine Benchmarks @ 3840 x 1080. Lediglich ob Spiele kompatibel sind.
Wobei das jetzt nicht Radeon VII spezifisch ist, auch wenn ich mir durchaus vorstellen kann, mir diese (für Eyefinity / 32:9) zu kaufen :)
SKYNET
2019-01-19, 00:58:35
Alternativ zu Eyefinity bzw. fast schon interessanter wären der ein oder andere Benchmark (muss kein kompletter Parcours sein) wären 32:9 Benchmarks - 3840 x 1080 oder (am besten) 5120 x 1440.
Der Samsung C49HG90 (siehe https://geizhals.de/samsung-c49hg90-lc49hg90dmuxen-a1640134.html?hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk) ist da ja ein interesanter Monitor. 3840 x 1080 ist fast wie 3 x FHD Eyefinity (keine Bezels und die äußersten Bereiche der Randbildschirme sind bei 3 x FHD verzerrt). Theoretisch sollte 3840x1080 nur 12,5% mehr Rechenlast wie 2560x1440 erzeugen, ergo ähnliche fps abliefern. Duech das komplett andere Bildformat (32:9 vs 16:9) würde mich mal interessieren, ob das auch zutrifft. Leider finde ich quasi keine Benchmarks @ 3840 x 1080. Lediglich ob Spiele kompatibel sind.
Wobei das jetzt nicht Radeon VII spezifisch ist, auch wenn ich mir durchaus vorstellen kann, mir diese (für Eyefinity / 32:9) zu kaufen :)
da in der höhe(himmel) weniger berechnet werden muss, als in der breite(umgebung) wirds wohl eher 20-25% sein was 3840*1080 ggü. 1440p langsamer ist.
Ex3cut3r
2019-01-19, 03:06:00
Kommt schon langsam der Nachfolger @ 5120x1440 = 110 PPi wie 27" @ 2560x1440
Wenn 5120x1440 @120 hz kommt, wäre das imo noch genialer.
Ich werde aber eher den 38" da etwas weiter unten holen, mit 3840x1600 @ 21:10/24:10 175HZ, Nano-IPS, G-Sync, bietet er mir eine Menge ausgehend, von meinen jetzigen 34" VA @ 3440x1440 60HZ, kein Sync. Ich fange schon an Geld auf Paypal einzuzahlen. ;)
Ich rechne mit mindestens 1500€
SKYNET
2019-01-19, 03:25:24
warum nix mit freesync? dann hast für die zukunft alle optionen offen(amd, intel, nv)?
maximus_hertus
2019-01-19, 03:57:33
Kommt schon langsam der Nachfolger @ 5120x1440 = 110 PPi wie 27" @ 2560x1440
Wenn 5120x1440 @120 hz kommt, wäre das imo noch genialer.
Ich werde aber eher den 38" da etwas weiter unten holen, mit 3840x1600 @ 21:10/24:10 175HZ, Nano-IPS, G-Sync, bietet er mir eine Menge ausgehend, von meinen jetzigen 34" VA @ 3440x1440 60HZ, kein Sync. Ich fange schon an Geld auf Paypal einzuzahlen. ;)
Ich rechne mit mindestens 1500€
Klar, 5120x1440 ist natürlich schon sehr sexy. Jedoch hat man dann wieder das Problem der sehr vielen Pixel ;) Ergo Grafikkarten-Upgrades in schnellerer Folge nötig und auch "nur" die Flaggschiffe (idR). Ergo braucht man für 5120x1440 eine 2080 Ti, eingeschränkt ginge wohl eine 2080 / 1080 Ti / Redeon VII.
3840x1080 ist ja "nur" halbes-UHD. Damit sollte man schon ab Vega 56 / RTX 2060 / GTX 1070 recht gut klar kommen.
Allerdings bleibt noch der Punkt der fps in 32:9 statt 16:9 - siehe Skynet
da in der höhe(himmel) weniger berechnet werden muss, als in der breite(umgebung) wirds wohl eher 20-25% sein was 3840*1080 ggü. 1440p langsamer ist.
Genau das wäre ja interessant. Ich finde leider gar keine Benchmarks die 3840x1080 mit anderen Auflösungen vergleichen. Tests der 32:9 Bildschirme gibt es ja zuhauf, aber Benchmarks in der Auflösung? Nope :/
Ex3cut3r
2019-01-19, 04:44:44
warum nix mit freesync? dann hast für die zukunft alle optionen offen(amd, intel, nv)?
Ist mir zu viel fummelei mit Ranges usw. G-Sync an, 175 hz auswählen und ein FPS Limit mit RTSS/Afterburner Global auf 173/172 FPS , V-Sync On im CP und ruhe.
back to topic please.
Linmoum
2019-01-19, 08:05:57
Ist mir zu viel fummelei mit Ranges usw.
CRU installieren
CRU öffnen
Monitor auswählen
Wunschwert für die Range eintragen
PC neu starten
done
Wo ist das viel fummelei? :confused: Einmal eingetragen bleibt das so, bis du den Treiber neu installierst.
Ex3cut3r
2019-01-19, 14:40:48
Die Range ist mir einfach zu gering, mit 60-175hz z.B Und wer garantiert mir auch das es kein Flickern in der von mir selbst gemachten Range gibt? Ich will einfach von 30-175hz ruhe. Und nicht immer hin und her wechseln, und dann installiere ich einen neunen Treiber komplett neu, und CRU muss wieder neu eingerichtet werden, lese ich doch ständig hier im Foren, ist für mich nix. Wenn es einen 38" mit den gleich Specs gibt, schaue ich mir den an. Tendiere aber Stand jetzt zum G-Sync Modell.
https://www.lg.com/us/monitors/lg-38GL950G-B-gaming-monitor
Aber wie gesagt:
Back to Topic please.
aufkrawall
2019-01-19, 14:54:55
und ruhe.
Oder lauter Probleme mit borderless, Vollbildoptimierungen, DX9 usw.
Ex3cut3r
2019-01-19, 15:47:49
DX9 Games spiele ich nicht (mehr), mit den Vollbildoptmierungen weiß ich nicht, die habe ich hier ohne Sync aus ohne Probleme.
Und nochmal
Back to Topic please. :freak:
=Floi=
2019-01-20, 02:52:17
Wie üblich - und wenn machbar - hier die Frage nach bestimmten Benches, sprich Anwendungen/Spiele?
Crysis 1 4k 8xMSAA :cool:
Skaliert 3dmark perlin noise noch?
Benchmark in einer hotbox bei simulierten 30°C zimmertemp.
horn 12
2019-01-20, 10:16:55
https://www.youtube.com/watch?v=6m9MtXEjN3Q&feature=youtu.be
KEIN Dual Bios bei Radeon VII
AMDoderNvidia
2019-01-20, 17:12:59
Ich bin am Überlegen, wieviel mich im Endeffekt eine Radeon 7 kosten würde. Erste Frage dazu: Was wird denn der US-Preis von 699$ in € bedeuten? Wie ist das mit der Steuer?
Derzeit habe ich eine Vega 56 (die Red Dragon (nicht Devil!) von Powercolor) im System. Diese würde ich verkaufen. Was ist denn ein Preis, den man erzielt?
Gibts eigentlich irgendwelche Spiele bei der Radeon VII mit dazu? The Division 2 und noch 2 weitere, richtig?
Danke :)
Ex3cut3r
2019-01-20, 17:19:03
200-250€ IMO für die alte Vega 56. Ich schätze die neue Vega 7 wird anfangs für 700€ üben die Theke gehen. Macht 500-450€ für dich abzüglich Verkauf der Vega 56. ;)
Kann man machen, allerdings gewinnst du auch "nur" 30 - Maximum 50% von deiner Vega 56 ausgehend.
AMDoderNvidia
2019-01-20, 17:28:42
Mist, so eine Rechnung hatte ich auch schon im Kopf, nur wollte ich es bis jetzt nicht glauben :D
Dass das alles irrational ist, aber trotzdem geil, war mir bewusst. Aber wenn man die Zahlen jetzt so liest und es letztlich ca. 450€ Aufpreis, dann ... warte ich doch lieber auf die Nachfolgearchitektur von Vega/Navi bzw. Nvidias Ampere.
DrFreaK666
2019-01-20, 18:38:40
450-500€ wäre für mich noch ok. Aber für meine 980ti bekomme ich keine 250€ mehr ^^
Achill
2019-01-20, 20:25:03
200-250€ IMO für die alte Vega 56. Ich schätze die neue Vega 7 wird anfangs für 700€ üben die Theke gehen. Macht 500-450€ für dich abzüglich Verkauf der Vega 56. ;)
Kann man machen, allerdings gewinnst du auch "nur" 30 - Maximum 50% von deiner Vega 56 ausgehend.
Laut Ebay sind es aktuell 250-300€ für gebrauchte Vega56 GPUs, die VegaVII hat wenigstens deutlich mehr VRAM.
Btw, es wäre die gleiche Argumentation wenn man eine Upgrade von einer 1070 zur 2080 macht ... gab und gibt ja auch genug Leute die das auch (ge)machen (haben) ... ;)
Matrix316
2019-01-20, 21:00:37
Laut Ebay sind es aktuell 250-300€ für gebrauchte Vega56 GPUs, die VegaVII hat wenigstens deutlich mehr VRAM.
Btw, es wäre die gleiche Argumentation wenn man eine Upgrade von einer 1070 zur 2080 macht ... gab und gibt ja auch genug Leute die das auch (ge)machen (haben) ... ;)
1070 zu 2080 ist ähnlich wie 980TI zur 1080TI und DAS lohnt sich IMO schon. :)
Ex3cut3r
2019-01-20, 21:44:00
Wo habe ich davon abgeraten auf die Vega 7 zu gehen? :confused:
Jo, 1070 zu 2080, waren hier 50 - 70% in meinen Games in einem Titel wie Wolfenstein 2, sogar über 100%.
Achill
2019-01-20, 22:04:24
1070 zu 2080 ist ähnlich wie 980TI zur 1080TI und DAS lohnt sich IMO schon. :)
Wo habe ich davon abgeraten auf die Vega 7 zu gehen? :confused:
Jo, 1070 zu 2080, waren hier 50 - 80% in meinen Games in einem Titel wie Wolfenstein 2, sogar über 100%.
Hmm... Leos Analyse von den Daten mehrer Webseiten hat gezeigt, dass es ~50% waren von einer 1070 FE auf eine 2080 FE: https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-2070/launch-analyse-nvidia-geforce-rtx-2070-seite-2
Bedenkt man jetzt, dass hier viele keine einfache 1070 FE hatten sondern Custom Modelle sind 50% schon optimistisch ... es wird sicher Spiele geben wo es auch mal deutlicher mehr oder auch weniger ist.
Zum Release der 2080 hat die 1070 ~450 € gekostet laut Geizhals, auf Ebay würde ich also auf 300 - 350 € (damals) für eine gebrauchte Tippen. Der "Aufpreis" war also bei 500 - 550 €
Bei den angenommen 700€ für die Vega VII sind wir bei aktuell 300-350 € auf Ebay bei 350-400€ "Aufpreis" und ggf. 450€ zum Start von Vega VII wenn die Vega56 weniger auf Ebay wert ist.
Interessant wird doch, wo die Vega VII raus kommt, ist es "nur" 1080 TI (FE) oder doch 2080 (FE) ... wir werden sehen.
Btw. Waren die ~30% nicht von einer Vega64 auf Vega VII - da würde also bei einer Vega56 noch was drauf kommen ... :uponder:
Ex3cut3r
2019-01-21, 00:06:59
Was?! Nein, sry von einer 1070 auf eine 1080 sind es schon 25% und von einer 1080 auf eine Ti sind es schon wieder 30%, 40% ausgehend auf die 2080, macht 25+40 = 65% Durschnitt, und einige Titel machen noch mehr und manchne weniger mit. Eine RX 56 ist ja 10-15% schneller als eine 1070, die 1070Ti ist ja gleich mit der RX 56, die neue Vega habe ich aber auf RTX 2070 Niveau eingerechnet, macht IMO mehr Sinn, als hinterher enttäuscht zu sein, wenn Sie 2080 Niveau schafft, umso besser. Macht wie gesagt, "nur" 30-50% gut, sollte Sie 2080 Lestung liefern, dann eben 40-60% mehr ausgehend von der RX 56 ;)
Naja im Grunde auch egal. ^^
SKYNET
2019-01-21, 01:31:54
Was?! Nein, sry von einer 1070 auf eine 1080 sind es schon 25% und von einer 1080 auf eine Ti sind es schon wieder 30%, 40% ausgehend auf die 2080, macht 25+40 = 65% Durschnitt, und einige Titel machen noch mehr und manchne weniger mit. Eine RX 56 ist ja 10-15% schneller als eine 1070, die 1070Ti ist ja gleich mit der RX 56, die neue Vega habe ich aber auf RTX 2070 Niveau eingerechnet, macht IMO mehr Sinn, als hinterher enttäuscht zu sein, wenn Sie 2080 Niveau schafft, umso besser. Macht wie gesagt, "nur" 30-50% gut, sollte Sie 2080 Lestung liefern, dann eben 40-60% mehr ausgehend von der RX 56 ;)
Naja im Grunde auch egal. ^^
1080 auf 1080Ti waren/sind <25%
die VII ist deutlich dichter an der 2080 als an der 2070.... :wink:
=Floi=
2019-01-21, 02:05:45
Laut Ebay sind es aktuell 250-300€ für gebrauchte Vega56 GPUs,
Sicher keine 250€ für gute modelle und eher 350€. Die meisten haben den stock kühler.
Es macht keinen sinn von V56 auf V60 umzusteigen!
Navi wird der nächste große schritt und bis dahin kommt er leicht durch. Wer eine ältere karte hat kann eher umsteigen.
N0Thing
2019-01-21, 02:10:15
Wie üblich - und wenn machbar - hier die Frage nach bestimmten Benches, sprich Anwendungen/Spiele?
Bei Destiny 2 würde mich der aktuelle Stand sehr interessieren, der Startpunkt der EDZ ist bei mir immer ein "Framedropper" und ein Aufheizpunkt. Ein Lauf von dort bis in den Turm zu Devrim Kay würde ich begrüßen.
Ich weiß, ist nicht gut reproduzierbar zu benchen, falls du eine bessere Stelle kennst, würde ich mich auch darüber sehr freuen. :)
crux2005
2019-01-21, 02:49:39
Bei Destiny 2 würde mich der aktuelle Stand sehr interessieren, der Startpunkt der EDZ ist bei mir immer ein "Framedropper" und ein Aufheizpunkt. Ein Lauf von dort bis in den Turm zu Devrim Kay würde ich begrüßen.
Ich weiß, ist nicht gut reproduzierbar zu benchen, falls du eine bessere Stelle kennst, würde ich mich auch darüber sehr freuen. :)
Das wird an der CPU liegen und das Bungie DX11 benutzt.
bnoob
2019-01-23, 18:47:40
Scheint wohl doch Boardpartner-Designs zu geben, gerade auf reddit gesehen
https://videocardz.com/newz/asrock-unveils-radeon-vii-phantom-gaming
https://i.imgur.com/zqaE64d.jpg
Screemer
2019-01-23, 18:51:26
Das ist "ref-design" in ner eigenen Packung und Aufklebern auf den Lüftern. Custom ist da gar nix.
Mortalvision
2019-01-23, 18:57:57
Das Refdesign hat doch auch drei 90er Lüfter?
dargo
2019-01-23, 18:58:39
Jo... aber immerhin steigt Asrock endlich bei Vega ein.
SKYNET
2019-01-23, 19:03:41
Das ist "ref-design" in ner eigenen Packung und Aufklebern auf den Lüftern. Custom ist da gar nix.
evtl. custom bios mit mehr takt ;)
Zergra
2019-01-23, 19:04:05
Kaufen oder nicht kaufen 😅.
Die Vernunft sagt nein, aber wäre trotzdem ganz cool.
Screemer
2019-01-23, 19:21:59
Ich glaub ich werde kaufen. Bei sind 700€ allerdings nur. Alles andere ist mir zuviel. Mal schauen.
Linmoum
2019-01-23, 19:24:00
Jop, bei über 700€ bin ich für den Anfang auch raus. Ansonsten hoffe ich auf Reviews vor dem 7. zwecks Tuning-Potential. Wäre nett, da schon vorher Ergebnisse zu haben.
Grendizer
2019-01-23, 19:26:46
Jop, bei über 700€ bin ich für den Anfang auch raus. Ansonsten hoffe ich auf Reviews vor dem 7. zwecks Tuning-Potential. Wäre nett, da schon vorher Ergebnisse zu haben.
Mit Steuer und Dollarumrechnung kommt man doch bei 729 Euro raus. Ich glaube nicht an 699 Euro.
Linmoum
2019-01-23, 19:30:34
Schon klar, dass man dann drüber liegen würde. Bei AMD wäre es aber nicht ungewöhnlich, wenn sie den Dollar-Preis einfach übernehmen und schlicht Euro dahinter klatschen.
Daredevil
2019-01-23, 19:31:53
Ich bin ja auch heiß auf ne VII, hab mir aber jetzt mal vorsorglich ne 2080ti für knapp 870€ geschossen und schau mir dann erstmal Benchmarks an. Testet ihr mal zuerst, wenn das ganze überzeugt, trete ich von Nvidia wieder ab. ^^
Im Februar ist ja wieder die Dreamhack in Leipzig, wo es letztes Jahr extrem gute Preise gab. Vielleicht sieht man die VII dort ja auch für einen netten Preis, das könnte mir dann gefallen, ich bin eh dort.
AMD sponsored dort nämlich ein CS Turnier, also vertreten wären sie. Ist halt die Frage, welche IHVs da noch bei sind. Weil Asrock wird es beim Media Markt Dreamstore vermutlich nicht geben.
Grendizer
2019-01-23, 19:32:26
Schon klar, dass man dann drüber liegen würde. Bei AMD wäre es aber nicht ungewöhnlich, wenn sie den Dollar-Preis einfach übernehmen und schlicht Euro dahinter klatschen.
Nicht immer ...
https://www.heise.de/newsticker/meldung/AMD-Grafikkarte-Radeon-RX-Vega-64-teurer-als-erwartet-3808416.html
Linmoum
2019-01-23, 19:36:58
Nicht immer ...
https://www.heise.de/newsticker/meldung/AMD-Grafikkarte-Radeon-RX-Vega-64-teurer-als-erwartet-3808416.html
Schlechtes Beispiel. Wo lag die UVP für eine nackte Vega? Richtig, 1:1 beim Dollar-Preis. ;)
Da AMD die Karte jetzt selbst verkauft sollte die UVP bei der VII auch eingehalten werden.
Edit: Sapphire jetzt mit Produktseite, u.a.
1400MHz/1750MHz
268(L) x 120(W) x 42(H)
650 Watt Netzteil (Empfehlung)
Bei 'ner Vega 64 waren es noch 100W mehr. :D
http://www.sapphiretech.com/productdetial.asp?pid=97FA4A9F-D64C-45E6-A0C4-B8911A7EE2B3&lang=deu
SKYNET
2019-01-23, 20:01:17
Schlechtes Beispiel. Wo lag die UVP für eine nackte Vega? Richtig, 1:1 beim Dollar-Preis. ;)
Da AMD die Karte jetzt selbst verkauft sollte die UVP bei der VII auch eingehalten werden.
Edit: Sapphire jetzt mit Produktseite, u.a.
1400MHz/1750MHz
268(L) x 120(W) x 42(H)
650 Watt Netzteil (Empfehlung)
Bei 'ner Vega 64 waren es noch 100W mehr. :D
http://www.sapphiretech.com/productdetial.asp?pid=97FA4A9F-D64C-45E6-A0C4-B8911A7EE2B3&lang=deu
dank besserem kühler als die alten FE schmodder kühler, dürfte das auch etwas druck auf die boardparnter machen, die -evtl. kommenden custom- karten nicht all zu teuer raus zu hauen... wobei, turing gibts ja auch Ti die weit jenseits der 1500€ liegen :ulol:
crux2005
2019-01-23, 20:31:27
Kaufen oder nicht kaufen 😅.
Die Vernunft sagt nein, aber wäre trotzdem ganz cool.
Immer schön kaufen damit NVidia druck bekommt. ;)
SKYNET
2019-01-23, 21:23:13
Immer schön kaufen damit NVidia druck bekommt. ;)
ach, die lederjacke hat schon genug druck auf den schlagadern, die sind bei der VII vorstellung ordentlich hochgequollen ;D
Dural
2019-01-23, 23:54:53
Wie sollte NV druck brauchen? Min. eine Generation Vorsprung sollte reichen, aktuell sind es sogar zwei.
V7 wird lächerliche stückzahlen generieren, da sehe ich navi als die deutlich grössere gefahr. Aber bei AMD weis man ja nie was die basteln.
SKYNET
2019-01-24, 00:41:45
Wie sollte NV druck brauchen? Min. eine Generation Vorsprung sollte reichen, aktuell sind es sogar zwei.
V7 wird lächerliche stückzahlen generieren, da sehe ich navi als die deutlich grössere gefahr. Aber bei AMD weis man ja nie was die basteln.
eben das ist ja das schöne, AMD ist immer für ne überraschung gut, und das macht der lederjacke wohl grad richtig kopfschmerzen :upara:
=Floi=
2019-01-24, 01:26:22
eben das ist ja das schöne, AMD ist immer für ne überraschung gut, und das macht der lederjacke wohl grad richtig kopfschmerzen :upara:
Die kopfschmerzen macht sich NV doch selbst, bei dem vram und preisgefüge.
Der RTX hype zum start tat der karte auch nicht so gut. Ich habe noch immer keine leistung der 2080ti im kopf.
Der preis macht die karte total uninteressant.
Anfangs dachte ich mir auch, die 7er kaufe ich mir, aber jetzt bin ich eher wieder etwas entspannter. Ja, navi wird endlich eine neue architektur bringen und amd wird daran leider wieder jahre festhalten. die 7er müsste man dann am besten wieder verkaufen.
Ich bin ja auch heiß auf ne VII, hab mir aber jetzt mal vorsorglich ne 2080ti für knapp 870€ geschossen.
wie geht das? ohne garantie?
V7 wird lächerliche stückzahlen generieren,
und bei nv und ihren 1300€ karten? Denen werden die stückzahlen wegbrechen, weil keiner mehr die teuren karten kauft.
Die 7er ist auch nicht als neue massenkarte gedacht. Vom P/L finde ich sie ganz gut. Kein preiskracher, aber solide.
deekey777
2019-01-24, 09:51:24
Gibt es irgendwo Ankündigungen/Andeutungen, dass die Radeon VII in Gaming-"Laptops" verbaut wird?
Screemer
2019-01-24, 10:01:01
wie geht das? ohne garantie?
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11908032#post11908032
dargo
2019-01-24, 10:12:46
Wie sollte NV druck brauchen? Min. eine Generation Vorsprung sollte reichen, aktuell sind es sogar zwei.
Was bitte? ;D
Eine 2080TI ist nur 27% schneller als eine 2080. Letztere wird von Vega VII angegriffen. Wenn das der Vorsprung einer Generation ist dann kann man demnächst 2-3 Generationen auslassen. Cool... ein Grakaupgrade macht dann nur noch alle 5-7 Jahre Sinn. :uup:
SKYNET
2019-01-24, 11:22:14
Die kopfschmerzen macht sich NV doch selbst, bei dem vram und preisgefüge.
Der RTX hype zum start tat der karte auch nicht so gut. Ich habe noch immer keine leistung der 2080ti im kopf.
Der preis macht die karte total uninteressant.
Anfangs dachte ich mir auch, die 7er kaufe ich mir, aber jetzt bin ich eher wieder etwas entspannter. Ja, navi wird endlich eine neue architektur bringen und amd wird daran leider wieder jahre festhalten. die 7er müsste man dann am besten wieder verkaufen.
ich warte sehnlichst auf die e-mail von AMD... habe mich ja sofort eingetragen, das ich bitte benachrichtet werden will wenn verfügbar ;D
ob ich dann auch sofort zuschlage, ist allerdings offen... weil hier in der schweiz werde ich meine 1080Ti nur für max. 600 franke los... also 530€... dafür geb ich sie nicht her, auch wenns knapp 100 mehr sind als ich gezahlt hatte :ulol:
Dural
2019-01-24, 11:24:38
7nm, 4096Bit HBM2 vs 12/16nm, 256Bit GDDR6 :rolleyes:
Und dabei erreicht man nicht mal das P/W Verhältnis und von RT/Tensor in Hardware fange ich gar nicht an.
Und überhaupt, die V7 wird sich abseits irrelevanten Einstellung wohl eher mit 2070 OC Karten messen müssen als mit der 2080.
dargo
2019-01-24, 11:33:37
7nm, 4096Bit HBM2 vs 12/16nm, 256Bit GDDR6 :rolleyes:
Welchen Kunden interessieren solche Details wenn der Preis stimmt? Dann könnte ich ja auch mit 331mm² vs. 545mm² kommen. :rolleyes:
btw.
Was glaubst du wohl wie schnell Vega in 7nm @500+mm² wäre? Da GCN auf 64CUs beschränkt ist und AMD wohl auch keinen großen Markt beim Gaming bei Grafikkarten >1000$ sieht gibts eben eine solche Karte nicht. AMD kann auch nichts dafür, dass NV noch keine 7nm GPUs ausliefern möchte. :P
BlacKi
2019-01-24, 11:43:00
Welchen Kunden interessieren solche Details wenn der Preis stimmt? Dann könnte ich ja auch mit 331mm² vs. 545mm² kommen. :rolleyes:
:biggrin: 7nm 300w vs 12nm 215w nice try!;D;D;D
Dural
2019-01-24, 11:44:52
Ich habe überhaupt nichts vom Preis gesagt, sondern das AMD derzeit (Noch keine V7 da) zwei Generationen hinter NV ist. Und das ist Fakt.
Die V7 hat gerade mal 6,5% mehr Rohleistung als eine V64, 2070 OC Karten liegen im Schnitt 10-15% vor einer V64.
Ich gehe im moment von einem leichten Vorsprung für V7 gegen 2070 OC aus.
RTX 2080 ist nur in Reichweite wenn die 16GB HBM2 zu tragen kommen, in relevanten Einstellung also praktisch nie.
Die V7 kann mit OC interessant werden, aber ich vermute stark das da nicht viel gehen wird.
rentex
2019-01-24, 11:50:51
Was bitte? ;D
Eine 2080TI ist nur 27% schneller als eine 2080. Letztere wird von Vega VII angegriffen. Wenn das der Vorsprung einer Generation ist dann kann man demnächst 2-3 Generationen auslassen. Cool... ein Grakaupgrade macht dann nur noch alle 5-7 Jahre Sinn. :uup:
Wenn das so weiter geht (NV Preise), werden 4-5 Jahre schon drin sein.
btw.
Was glaubst du wohl wie schnell Vega in 7nm @500+mm² wäre? Da GCN auf 64CUs beschränkt ist und AMD wohl auch keinen großen Markt beim Gaming bei Grafikkarten >1000$ sieht gibts eben eine solche Karte nicht. AMD kann auch nichts dafür, dass NV noch keine 7nm GPUs ausliefern möchte. :P
Die Größe von Vega 20 passt schon. AMD bräuchte "nur" Nvidias Taktpotenzial. Mit 64 Compute Units, also 4.096 ALUs, kann man richtig Schaden anrichten. Halt nicht mit 1,6–1,7 GHz. Nvidias Chips schaffen schon mit 16/12 nm Frequenzen jenseits von 2 GHz. Man stelle sich eine Radeon Seven mit 2,1 GHz vor – das wäre eine echte Gefahr für die Titan RTX und eigentlich hätte man von 7 nm erwarten können, dass das klappt. Gibt's aber nicht.
Ich gehe im moment von einem leichten Vorsprung für V7 gegen 2070 OC aus.
RTX 2080 ist nur in Reichweite wenn die 16GB HBM2 zu tragen kommen, in relevanten Einstellung also praktisch nie.
Ich gehe davon aus, dass die 16 GiB eher ein Bonus für vereinzelte Extrem-Settings sind. Die Karte wird auch abseits dieser Fälle gut gegen TU104 abschneiden. Aber eher nicht in Full- und WQHD, sondern erst in Ultra HD. Dort müssen viele Daten von A nach B geschoben werden und das klappt dank 1 TByte/s unfassbar schnell. Hier "oben" greift aber auch das Powerlimit rigoros ein. Die Karte wird also voraussichtlich erst händisch optimiert ein Hi-Res-Biest.
MfG,
Raff
Digidi
2019-01-24, 12:36:09
Die Größe von Vega 20 passt schon. AMD bräuchte "nur" Nvidias Taktpotenzial. Mit 64 Compute Units, also 4.096 ALUs, kann man richtig Schaden anrichten. Halt nicht mit 1,6–1,7 GHz. Nvidias Chips schaffen schon mit 16/12 nm Frequenzen jenseits von 2 GHz. Man stelle sich eine Radeon Seven mit 2,1 GHz vor – das wäre eine echte Gefahr für die Titan RTX und eigentlich hätte man von 7 nm erwarten können, dass das klappt. Gibt's aber nicht.
Und was Lernen wir daraus. Takt wird in erster Linie vom Design bestimmt. GCN hat eine höher Packdichte und bekommt deshalb mehr Funktionen und Shader und eigentlich mehr Rohleistung auf den Chip. Das ist gut für Anwendungen aber schlecht für Spieleentwickler weil sie viel Aufwand betreiben müssen den Chip überall befüllt zu halten.
Exxtreme
2019-01-24, 12:54:54
Und was Lernen wir daraus. Takt wird in erster Linie vom Design bestimmt. GCN hat eine höher Packdichte und bekommt deshalb mehr Funktionen und Shader und eigentlich mehr Rohleistung auf den Chip. Das ist gut für Anwendungen aber schlecht für Spieleentwickler weil sie viel Aufwand betreiben müssen den Chip überall befüllt zu halten.
Wobei das Befüllen auch der Treiber übernehmen kann bis zu einem bestimmten Punkt.
dargo
2019-01-24, 13:01:45
Die Größe von Vega 20 passt schon. AMD bräuchte "nur" Nvidias Taktpotenzial. Mit 64 Compute Units, also 4.096 ALUs, kann man richtig Schaden anrichten. Halt nicht mit 1,6–1,7 GHz. Nvidias Chips schaffen schon mit 16/12 nm Frequenzen jenseits von 2 GHz. Man stelle sich eine Radeon Seven mit 2,1 GHz vor – das wäre eine echte Gefahr für die Titan RTX und eigentlich hätte man von 7 nm erwarten können, dass das klappt. Gibt's aber nicht.
Vergiss bitte nicht, dass eine 2080TI bereits 13% mehr Shader hat als die Vega VII. Das GCN Design ist langsam einfach am Ende. Es braucht ein neues Design welches mehr als 64 CUs erlaubt, welches erst nach Navi kommen wird.
Screemer
2019-01-24, 13:06:12
64cus sind sicherlich nicht die grenze von gcn. wie kommst du darauf? weil das wccf-tech mal behauptet hat?
Vergiss bitte nicht, dass eine 2080TI bereits 13% mehr Shader hat als die Vega VII. Das GCN Design ist langsam einfach am Ende. Es braucht ein neues Design welches mehr als 64 CUs erlaubt, welches erst nach Navi kommen wird.
Takt gehört zum Design dazu. Schau dir Nvidia an: Eine GTX 1060 hat gefühlt "keine" Recheneinheiten, sondern einen winzigen Chip, taktet aber dafür mit fast 2 GHz und ist daher so schnell wie eine Radeon mit beinahe doppelt so vielen Einheiten @ 1,5 GHz. Leistung ist das Produkt aus Einheiten und Takt.
Das hätte man bei Vega 20 theoretisch auch haben können: Die Breite der GPU bleibt unverändert (Speicherschnittstelle ausgenommen), aber die Höhe wird drastisch vergrößert. Anscheinend ist es aber mit großen Verrenkungen verbunden, ein bestehendes Design nachträglich auf hohe Frequenzen zu trimmen. Wenn Vega 20 bei 300 Watt tatsächlich nur im 1,7-GHz-Bereich herumdümpelt, wäre das schon schwach. Bei Polaris hat man ähnliche Taktsprünge mit einem wesentlich rückständigeren Fertigungsverfahren geschafft. Vielleicht wird 7 nm auch erst mit DUV potent.
MfG,
Raff
Zergra
2019-01-24, 13:39:42
Die ganzen Ref Designs der Partner zeigen auch das die Karte auch im normalen Handel verfügbar sein wird. Sonst machen die einfach keinen Sinn...
Dural
2019-01-24, 14:10:36
Was anderes hat AMD auch nie behauptet, klar wird es die im Handel geben.
Wenn das so weiter geht (NV Preise), werden 4-5 Jahre schon drin sein.
Ihr müsst euch damit abfinden, man ist an einem Punkt angelangt wo einfach nicht mehr viel gehen wird. Dafür werden wir bald mit 7nm eine schöne Steigerung sehen, vielleicht mit Navi oder mit NV @ 7nm.
@Raff
Mit 16GB HBM meine ich natürlich auch die 1TB/s.
SKYNET
2019-01-24, 14:44:21
Die Größe von Vega 20 passt schon. AMD bräuchte "nur" Nvidias Taktpotenzial. Mit 64 Compute Units, also 4.096 ALUs, kann man richtig Schaden anrichten. Halt nicht mit 1,6–1,7 GHz. Nvidias Chips schaffen schon mit 16/12 nm Frequenzen jenseits von 2 GHz. Man stelle sich eine Radeon Seven mit 2,1 GHz vor – das wäre eine echte Gefahr für die Titan RTX und eigentlich hätte man von 7 nm erwarten können, dass das klappt. Gibt's aber nicht.
Ich gehe davon aus, dass die 16 GiB eher ein Bonus für vereinzelte Extrem-Settings sind. Die Karte wird auch abseits dieser Fälle gut gegen TU104 abschneiden. Aber eher nicht in Full- und WQHD, sondern erst in Ultra HD. Dort müssen viele Daten von A nach B geschoben werden und das klappt dank 1 TByte/s unfassbar schnell. Hier "oben" greift aber auch das Powerlimit rigoros ein. Die Karte wird also voraussichtlich erst händisch optimiert ein Hi-Res-Biest.
MfG,
Raff
warte doch mal ab, was das OC potential von VII sagt, hast die karte ja in ein wenig mehr als ner woche bei dir ;)
evtl. lässt die sich ja auf 2.4GHz prügeln und klatscht die RTX titan komplett an die wand.
und ich frage mich grad: ist der HBM2 eigentlich auch schon in 7nm? wenn ja, evtl. kann man den auf 1.4GHz ziehen dann... muahahaha.... das wäre ein monster. ;D
aber sind gerade wunschvorstellungen von mir... ich gehe mal realistischerweise von 2.2GHz bei anständiger kühlung(wasser) und 2.1-2.2GHz für den HBM2 aus.... sowie von 220W mit defaulttakt und undervolting.
dargo
2019-01-24, 14:51:16
Ihr müsst euch damit abfinden, man ist an einem Punkt angelangt wo einfach nicht mehr viel gehen wird. Dafür werden wir bald mit 7nm eine schöne Steigerung sehen, vielleicht mit Navi oder mit NV @ 7nm.
Finde den Widerspruch. :freak:
Linmoum
2019-01-24, 14:53:14
Also 2.2GHz sind ja nun viel zu wenig, da sind definitiv 3.167GHz möglich. Mindestens.
Dural
2019-01-24, 15:01:50
Das ist überhaupt kein Widerspruch :rolleyes: sondern der lauf der Natur...
dargo
2019-01-24, 15:39:10
Lauf der Natur? Wo hast du die letzten ~10-15 Jahre verbracht? Noch nicht alt genug? Früher gab es eine Verdoppelung der Leistung alle ~9-12 Monate. Später wurden die Abstände immer länger. Und nein... mit 7nm wird die alte Zeit garantiert nicht wieder kommen, auch nicht bei NV. Glaubst du wirklich Nvidia wird beim Nachfolger @7nm weiter bis 754mm² gehen? Dann bist du ganz schön naiv. In erster Linie wird man die Die-Size reduzieren müssen. Ansonsten steigen die Kosten weiter und ne RTX 3080TI siehst du bei 1.800-2.000€. Was bleibt ist eine "gesunde" Mehrleistung durch Architekurverbesserung und möglicherweise weitere kleine Steigerung beim Takt. Letzteres ist natürlich auch nicht unendlich, siehe CPUs.
Dieses "gesund" ist mir persönlich nur nicht genug. Mit 40-50% Mehrleistung bringt man mich nicht zum Upgraden. Bei 80+% sieht es schon etwas anders aus. Natürlich muss der Preis auch passen. Ansonsten wird auch das uninteressant, erst recht wo es keine Spiele gibt die unter meiner Auflösung nach mehr Leistung schreien.
gbm31
2019-01-24, 15:47:51
...
evtl. lässt die sich ja auf 2.4GHz prügeln und klatscht die RTX titan komplett an die wand.
und ich frage mich grad: ist der HBM2 eigentlich auch schon in 7nm? wenn ja, evtl. kann man den auf 1.4GHz ziehen dann... muahahaha.... das wäre ein monster. ;D
...
Machst du jetzt den horn? :-D
Der Hype-Train gibt Gas...
Bitte keine solchen Übertreibungen. Wenn die von den default 1.7GHz evtl wieder viel zu konservativ bevoltet auf gefühlvoll uvoc 1.9GHz geht ist es doch schon mehr als gut.
Und der Speicher braucht bei der Bestückung und Bandbreite doch gar nicht mehr übertaktet werden?
Ich finde die einfach als Statement interessant. Genau wenn der eine mehr als üblich mit Speicher knausert klotzt man. Reicht doch.
Wenn die Karte AMD-Typisch reift sind die 700 nicht mal so falsch angelegt, auch wenn Navi das günstiger einholen wird.
dargo
2019-01-24, 15:55:25
64cus sind sicherlich nicht die grenze von gcn. wie kommst du darauf?
Seit Fiji gibt es nicht mehr als 64 CUs. Du kannst mir gerne eine bessere Begründung liefern warum Vega 1 nicht über 64 CUs ging. Genug Platz war noch vorhanden mit <500mm². Gleiches gilt für V20.
Screemer
2019-01-24, 15:59:30
aha weil es jetzt so ist, ist das halt so? auch ne art sachen zu begründen.
Dural
2019-01-24, 16:01:46
Lauf der Natur? Wo hast du die letzten ~10-15 Jahre verbracht? Noch nicht alt genug? Früher gab es eine Verdoppelung der Leistung alle ~9-12 Monate. Später wurden die Abstände immer länger. Und nein... mit 7nm wird die alte Zeit garantiert nicht wieder kommen, auch nicht bei NV. Glaubst du wirklich Nvidia wird beim Nachfolger @7nm weiter bis 754mm² gehen? Dann bist du ganz schön naiv. In erster Linie wird man die Die-Size reduzieren müssen. Ansonsten steigen die Kosten weiter und ne RTX 3080TI siehst du bei 1.800-2.000€. Was bleibt ist eine "gesunde" Mehrleistung durch Architekurverbesserung und möglicherweise weitere kleine Steigerung beim Takt. Letzteres ist natürlich auch nicht unendlich, siehe CPUs.
Lesen und verstehen, ist nicht immer einfach ich weiss. :rolleyes::rolleyes::rolleyes:
Übrigens Widersprichst DU dich selber, innerhalb von wenigen Stunden. So von wegen nur 30% schneller, AMD bringt das ja nicht mal mehr mit einem ganzen Fullnode hin... Jaja ich weiss die 7nm enttäuschen, offensichtlich aber nur bei AMD...
Übrigens gab es diese Verdopplung der Leistung innerhalb eines Jahres schon vor 10 Jahren nicht mehr... Nur so als Info. Und diese Verdopplung der Leistung kam oft auch nur durch mehr Verbrauch zustande. Das hat REIN gar nichts mit Architektur oder Herstellungsprozess zu tun. Und ich glaube genau das hat AMD bis heute nicht verstanden.
Turing (TU106-104-102) kann man von der Fläche her übrigens nicht mit Vega1 vergleichen, der Flächen Vergleich von TU116 ohne RT dürfte da viel interessanter sein.
dargo
2019-01-24, 16:40:33
Übrigens Widersprichst DU dich selber, innerhalb von wenigen Stunden. So von wegen nur 30% schneller, AMD bringt das ja nicht mal mehr mit einem ganzen Fullnode hin... Jaja ich weiss die 7nm enttäuschen, offensichtlich aber nur bei AMD...
Aha... du wirst mir auch sicherlich zeigen wo ich mir widerspreche? Wo habe ich behauptet AMD liefert wesentlich mehr Leistung zwischen den Generationen? Sowohl NV als auch AMD kochen mit selben Wasser. Eine Vega VII wäre auch mit neuer Architektur nicht wesentlich besser. Dann wären es im Schnitt halt keine 30% sondern eben 40-50%. Immer noch *gähn*.
Turing (TU106-104-102) kann man von der Fläche her übrigens nicht mit Vega1 vergleichen, der Flächen Vergleich von TU116 ohne RT dürfte da viel interessanter sein.
Schon pixeljetstream hatte mehrfach betont, dass Turing nicht alleine durch RT so fett geworden ist sondern, dass für die Mehrleistung alles in die Breite gehen musste.
SKYNET
2019-01-24, 16:50:27
Aha... du wirst mir auch sicherlich zeigen wo ich mir widerspreche? Wo habe ich behauptet AMD liefert wesentlich mehr Leistung zwischen den Generationen? Sowohl NV als auch AMD kochen mit selben Wasser. Eine Vega VII wäre auch mit neuer Architektur nicht wesentlich besser. Dann wären es im Schnitt halt keine 30% sondern eben 40-50%. Immer noch *gähn*.
Schon pixeljetstream hatte mehrfach betont, dass Turing nicht alleine durch RT so fett geworden ist sondern, dass für die Mehrleistung alles in die Breite gehen musste.
bei 50% würde ne 64CU VII sich aber schon ner 2080Ti(non FE) duelieren...
als LCE dürfte sie dann die FE als gegenspieler haben...
also total gähn, ich weiss...
Ex3cut3r
2019-01-24, 16:50:42
Sry, ne...für 7nm einfach enttäuschend was AMD mal wieder fabriziert, von 7nm hätte ich mindestens darauf gehofft, dass die 2080 Ti erreicht wird. Nvidia wird aus 7nm viel mehr rausquetschen, so wie schon aus 28nm mit Kepler und später Maxwell. Sieht stand jetzt echt bitter aus, da Navi nur das Performance Segment bedienen wird, und die neue High End Karte kommt 2021. :(
][immy
2019-01-24, 16:58:35
Sry, ne...für 7nm einfach enttäuschend was AMD mal wieder fabriziert, von 7nm hätte ich mindestens darauf gehofft, dass die 2080 Ti erreicht wird. Nvidia wird aus 7nm viel mehr rausquetschen, so wie schon aus 28nm mit Kepler und später Maxwell. Sieht stand jetzt echt bitter aus, da Navi nur das Performance Segment bedienen wird, und die neue High End Karte kommt 2021. :(
du weißt aber schon wie viel größer die 2080 TI ist, oder?
Nvidia hat hier massiv "Performance" über die Chipgröße erkauft, was sich ebenfalls in den Preisen wiederspielgelt.
größerer Chip -> mehr was kaputt gehen kann -> weniger Chips die verkauft werden können -> höherer Preis
Ja ich bin auch nicht grad erfreut über die ersten 7nm Gehversuche von AMD, allerdings sind es halt die ersten 7nm Gehversuche und mehr oder minder nur ein Shrink von Vega, viel mehr ist es halt nicht. Da kann also am ende nicht wirklich viel mehr Leistung bei rausspringen.
Ein 7nm Polaris würde auch nichts wirklich neues bringen außer vielleicht mehr Takt (könnte Vega 56 gefährlich werden).
Linmoum
2019-01-24, 17:04:34
Vor alle scheint ihm nicht klar, wie es bei Nvidia aussehen würde, wenn sie jetzt einfach nur Turing oder Pascal auf 7nm shrinken würden. Auch das würde kein Wunder geben.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.