Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 570/580: (P)Review-Thread
dargo
2017-05-27, 09:04:07
Wäre AMD bei optimal laufender Produktion trotzdem ausverkauft, würde man dies ja am ehesten am Umsatz der Radeon-Sparte sehen. Der müsste dann ja mit der RX 580 urplötzlich astronomisch nach oben geschossen sein. Aber ist er das wirklich? Dann müsste Q2 2017 ja Q1 2017 deutlich übertreffen, das auch nicht besser als Q4 2016 war. Ryzen hat AMD zu deutlichen Steigerungen verholfen, Gott sei Dank. Aber einen Polaris-Knaller sehe ich da aktuell nicht ganz.
Die Frage ist ob sich das überhaupt nennenswert bemerkbar macht wenn eine Sparte sich etwas besser verkauft wenn man auf mehreren Hochzeiten gleichzeitig tanzt inkl. zb. Konsolen? Ich glaube eher nicht.
Complicated
2017-05-27, 09:04:14
Wir reden hier doch über Polaris. Yield Probleme nach fast einem Jahr Produktion? Ich glaube eher du vermischst da die Dinge. Und deine Insider-Quellen haben sich bisher nicht als sonderlich glaubwürdig erwiesen.
Ein Q1 das nicht viel besser als Q4 ist, gleicht eine Sensation da Q1 normalerweise deutlich schwächer ist. Nicht umsonst sind 18% weniger Umsatz prognostiziert worden.
Sumpfmolch
2017-05-27, 09:26:06
Was stellt AMD denn aktuell dann überhaupt für Chips her?
RX 480 sind nicht mehr verfügbar auf dem Markt. Und die RX 580 Taktraten schafft kaum ein Chip?
dildo4u
2017-05-27, 10:33:54
Es könnte schon stimmen das die Yield's kacke sind Sony hat ihren Polaris Chip unter 1Ghz laufen und Microsoft muss noch bis Herbst warten bis sie endlich Projeckt Scorpio bringen können.Ich dachte erst die kommt so spät da sie Vega nutzt was aber nicht der Fall ist das Problem ist dort das sie mehr Takt wollen als Sony.
Complicated
2017-05-27, 10:42:26
Sony hat einen Polaris Chip? Das wäre ja völlig neu, dass die Konsolen SoCs ohne CPU-Kerne daher kommen. Und Scorpio war immer schon für das Weihnachtsgeschäft geplant - wann sollte eine Konsole auch sonst sinnvoll starten? Was ist das denn wieder für FUD?
http://www.pcgameshardware.de/Xbox-One-Project-Scorpio-Konsolen-264559/
Die neue Xbox soll zum Weihnachtsgeschäft 2017 in den Handel kommen.
Sony und M$ nutzen ja Polaris/Vega-Hybriden. Außerdem laufen die bei TSMC vom Band, ich glaube nicht, dass man da irgendwas vergleichen kann. Sieht für mich eher so aus, als wäre im ursprünglichen Polaris-Design irgendwas grundsätzlich schiefgelaufen. Dann werden die Chips doch nicht so alt wie gedacht.
dargo
2017-05-27, 11:23:38
Sony hat einen Polaris Chip? Das wäre ja völlig neu, dass die Konsolen SoCs ohne CPU-Kerne daher kommen. Und Scorpio war immer schon für das Weihnachtsgeschäft geplant - wann sollte eine Konsole auch sonst sinnvoll starten? Was ist das denn wieder für FUD?
http://www.pcgameshardware.de/Xbox-One-Project-Scorpio-Konsolen-264559/
Das ist die typische dildo Logik. ;D Manchmal habe ich das Gefühl der Zweitaccount von horn. :freak:
btw.
Natürlich taktet ein Konsolen-SoC näher am Sweetspot als die Desktopvarianten. Das liegt doch auf der Hand wegen dem Gehäusevolumen. Eine Konsole hat ganz andere TDP-Grenzen.
(del)
2017-05-27, 12:08:24
Und deine Insider-Quellen haben sich bisher nicht als sonderlich glaubwürdig erwiesen.So? Komischerweise lag ich eigentlich immer richtig. Aber glaubt ruhig an die Mining-Story, wenn es Euch so besser schlafen lässt. :D
Complicated
2017-05-27, 12:27:46
Du lagst nicht immer richtig - ich mag deiner Quelle noch zugute halten, dass du sie eventuell auch nur falsch interpretierst, etwas das häufig bei dir zu sehen ist. Auf jeden Fall ist es hirnrissig von Yieldproblemen bei Polaris zu reden nach der langen Zeit wo der Chip schon in Fertigung ist und auch schon einen Refresh hat.
Dino-Fossil
2017-05-27, 12:32:39
Vielleicht gibt es auch nicht die eine alleinige Ursache. 100% Überzeugend finde ich die Miner-Geschichte nicht, aber das es nur am schlechten Yield liegen soll, kann ich mir auch nicht so recht vorstellen.
AMD stellt Polaris inzwischen seit über einem Jahr her, völlig Kacke haben sich die Karten nicht verkauft und waren trotzdem längere Zeit gut verfügbar.
Jetzt bringen sie einen Refresh und sollen nicht in der Lage sein, ansatzweise abschätzen zu können wie viele Chips sie liefern können, die die Spezifikationen packen?
Ich weiß ja, dass Format_C dazu tendiert, alle anderen für inkompetent zu halten, aber so ganz glaub ich das dann doch nicht.
Und das seine Kontakte bei den Partnern über AMD jammern, wen wundert's - jammern tun alle gern und schuld sind immer die anderen.
Ich will damit nicht sagen, dass AMD an der Situation völlig unschuldig ist (ziemlich sicher haben sie ihren Teil dazu beigetragen), aber ganz überzeugend finde ich beide Erklärungen nicht.
Screemer
2017-05-27, 12:48:46
ich gehe eher davon aus, dass es schlicht daran liegt, dass die produktion von vega auf anschlag läuft und dafür polaris zurückgefahren wurde. die exklusivpartner bekommen prio, die anderen schauen in die röhre. das was den markt erreicht wird teilweise schon bei den distries abgegriffen oder kommt nicht mal bis dorthin. das wird vielleicht noch 2 monate so gehen. länger kann ich mir schlecht vorstellen. alles genau so wie damals bei evergreen.
Complicated
2017-05-27, 13:01:47
Es ist halt wirklich verwunderlich weil noch vor 2 Wochen die FUD-Welle von hohen Lagerbeständen gesprochen hat. Jetzt 2 Wochen später sind die Lager alle leer und die Yields taugen nichts? Ich sehe hier einfach keine Konsistenz und es wird ein Blödsinn nach dem anderen aus dem Hut gezaubert, nur die Nachfrage der Polaris-Karten - die kann es nicht sein, obwohl es auf der Hand liegt und AMD wohl einfach noch mehr produzieren muss. Was für eine böse inkompetente Firma das sein muss, die mit der Produktion nicht nach kommt weil ihr Produkt zu beliebt ist. Aber da es ja nicht die Gamer sind, daher "verschwinden" diese Karten. Sie tauchen bei Steam nicht auf, daher existieren sie nicht. Weil es AMDs Bücher ja auch so interessiert ob die Karten bei Steam gelistet sind solange sie verkauft wurden.
(del)
2017-05-27, 13:23:51
Du solltest weniger Krimis lesen. :D
Ich für meinen Teil habe nie von hohen Lagerbeständen gesprochen, schon gar nicht bei der 580, sondern von Beginn an genau diesen Engpass befürchtet. Die erste Batch kam zum Launch noch teilweise mit dem Flieger, der Rest per Container. Aktuell kommt fast nix nach. Die Miner scheinen die Chips gleich von der Rolle zu klauen. Die haben bestimmt schon illegale Fabriken gebaut. :D
vinacis_vivids
2017-05-27, 13:55:16
Die Miner haben mittlerweile Überhand genommen gegenüber den Gamer.
Deren Rechenleistung dürfte AMD's Steamanteil deutlich übertreffen. Wenn nun ein Investor kommt, kann er die Bestände schnell leer kaufen. Für was der Partner sie verwendet ist doch vollkommen Rille.
Auf jeden Fall zeigt der gestiegene Preis die extrem gute Nachfrage.
Wer nur spielen will, hat ja mit GTX1060 eine Alternative.
Ich denke es liegt an beiden, einmal Vega Produktion und eben die Miner.
Vielleicht gibt es auch nicht die eine alleinige Ursache. 100% Überzeugend finde ich die Miner-Geschichte nicht, aber das es nur am schlechten Yield liegen soll, kann ich mir auch nicht so recht vorstellen.
AMD stellt Polaris inzwischen seit über einem Jahr her, völlig Kacke haben sich die Karten nicht verkauft und waren trotzdem längere Zeit gut verfügbar.
Jetzt bringen sie einen Refresh und sollen nicht in der Lage sein, ansatzweise abschätzen zu können wie viele Chips sie liefern können, die die Spezifikationen packen?
Ich weiß ja, dass Format_C dazu tendiert, alle anderen für inkompetent zu halten, aber so ganz glaub ich das dann doch nicht.
Und das seine Kontakte bei den Partnern über AMD jammern, wen wundert's - jammern tun alle gern und schuld sind immer die anderen.
Ich will damit nicht sagen, dass AMD an der Situation völlig unschuldig ist (ziemlich sicher haben sie ihren Teil dazu beigetragen), aber ganz überzeugend finde ich beide Erklärungen nicht.
Da ist wohl einfach das Design einfach kacke zu produzieren. Solange das Ding Probleme macht, wird AMD da auch nur minimalen Output haben, das ist ja sonst einfach nur teuer. Das erklärt die Knappheit viel besser. Wenn die schlau waren, haben die als das klar wurde direkt ein Vega-Design aufgelegt um das ganze Problem abzufedern. Vielleicht ist an den Gerüchten für ein komplettes Vega-Lineup ja tatsächlich was dran. Dann lassen die Polaris solange auf Sparflamme weiterlaufen, bis was neues da ist und dann wird der sofort aussortiert. Wie gesagt hört sich das für mich nach "grundsätzlich Kaputt" an. Mit Minern hat das mMn wenig zu tun, das verschärft die Problematik eher.
Du solltest weniger Krimis lesen. :D
Ich für meinen Teil habe nie von hohen Lagerbeständen gesprochen, schon gar nicht bei der 580, sondern von Beginn an genau diesen Engpass befürchtet. Die erste Batch kam zum Launch noch teilweise mit dem Flieger, der Rest per Container. Aktuell kommt fast nix nach. Die Miner scheinen die Chips gleich von der Rolle zu klauen. Die haben bestimmt schon illegale Fabriken gebaut. :D
Bisschen komisch finde ich dabei aber, warum man das Ding dann neu auflegt. Nur wegen der Kartenhersteller?
Dino-Fossil
2017-05-27, 14:27:37
Da ist wohl einfach das Design einfach kacke zu produzieren. Solange das Ding Probleme macht, wird AMD da auch nur minimalen Output haben, das ist ja sonst einfach nur teuer.[...]Dann lassen die Polaris solange auf Sparflamme weiterlaufen, bis was neues da ist und dann wird der sofort aussortiert. Wie gesagt hört sich das für mich nach "grundsätzlich Kaputt" an.
Ne, Polaris ist ja nicht grundlegend kaputt. Die Chips liefern im Rahmen des erwartbaren (erwartbar, nachdem man das Marketing-Geblubbere abzieht) eine solide Leistung ab und waren nach ersten Anlaufschwierigkeiten zu 480er-Zeiten auch gut zu bekommen..
Es gibt auch durchaus einige Verbesserungen gegenüber den Vorgängern.
Nur darf man den Chip nicht zu weit prügeln, wie es AMD offenbar für nötig hielt - wohl auch weil Pascal relativ hohe Taktraten hat.
Ich vermute einfach, dass Polaris sowas wie ein gefixter/überholter/detailverbesserter und vergrößerter Tonga ist, den man relativ schnell einschieben konnte, um die längere Zeit bis Vega zu überbrücken. Vielleicht ursprünglich wirklich mal für 20nm geplant, wer weiß.
Wenn nicht noch ein kleiner Vega kommt, wird Polaris auch sicherlich noch eine Weile erhalten bleiben.
Complicated
2017-05-27, 14:45:54
Wie gesagt hört sich das für mich nach "grundsätzlich Kaputt" an. Mit Minern hat das mMn wenig zu tun, das verschärft die Problematik eher.
Unsinn - wäre der Chip grundsätzlich kaputt wäre er ja bei Minern nicht so beliebt - die nehmen nur die beste Effizienz. Das widerspricht sich ja. Genauso wie es einem schlechten Yield widerspricht, da Polaris wohl derzeit die beste Effizienz fürs Mining bietet, dann wären etwas weniger effiziente Chips immer noch zu gebrauchen - sprich die Selektion würde entsprechend laufen bei AMD um die Yield zu erhöhen.
Es kann halt einfach nicht sein, dass ein AMD Produkt sich einfach nur gut verkauft. Gewöhnt euch mal daran, denn mit Ryzen und Vega zeichnet sich ähnliches ab.
Ich zitiere mal anonym einen Boardpartner:
Verstehe das Zitat ehrlich gesagt nicht. Da steht, dass PCBs fehlen.
Leute, der Chip kann hervorragend funktionieren, aber trotzdem beschissen zu produzieren sein und auch deshalb "kaputt" sein. Wenn man das Produkt nicht über 70% Yield bekommt selbst nach einem Jahr nicht aufgrund irgendeines Fehlers in der Maske oder weiss der Geier, heißt das doch nicht, dass der Chip nicht funktionieren muss. Aber es kommt offenbar einfach zuviel Ausschuss dabei rum. Ich hab mich damals schon gefragt, warum AMD nur so wenige zur Verfügung stellt, die Lage besserte sich bis heute nicht.
Und hört endlich mit diesen dämlichen Minern auf, die kaufen zwar viele auf einmal, aber das ist definitiv nicht die große Masse. Bekommt mal die Verhältnismässigkeit klar, das passt einfach nicht. Der erschweren natürlich die Verfügbarkeit bei sowieso knapper Produktion, das ist nicht die Ursache sondern die Wirkung. Wenn es wenig Produkte gibt, erschweren die Miner natürlich die Verfügbarkeit. Aber wenn AMD millionen Polaris raushauen würde, würde man die Miner definitiv nicht im Mindesten merken - und wir wären schon längst bei 200€ für eine 8GB 580. Das Teil ist ja bald immer noch so teuer wie am ersten Tag.
Um das mal zu verdeutlichen: Wenn der Yield immer noch bescheiden ist, kostet ein Chip (und eine Karte) soviel wie GP104 oder mehr. Natürlich produziert man die dann nur soviel, dass die Partner überleben, aber macht damit keine großen Sprünge.
Verstehe das Zitat ehrlich gesagt nicht. Da steht, dass PCBs fehlen.
Die kalkulieren so knapp, dass die keine PCBs zuviel produzieren dürfen. Das dürfte einfach ein Sekundäreffekt sein.
AffenJack
2017-05-27, 16:40:38
Wo wird denn produziert? Es hieß mal der neue Prozess sei Samsung, dann kann es schon eher zu Yieldproblemen kommen, da doch etwas anders. Bei Gf glaube ich da einfach an Kapazitätsprobleme, Ryzen, Raven ridge und Vega rampen gerade. Da hat man vielleicht einfach für Polaris weniger geordert oder GF ist eh an der Kapazitätsgrenze. Wenn dann bei bescheidenen Waferzahlen für Polaris die Nachfrage durch Mining unerwarteterweise wächst, ist man bei der aktuellen Situation.
Man dürfte mit den Dinger zu Samsung geswitcht sein (Polaris10 jedenfalls). Ansonsten ist die Fab8 sehr groß und hat sehr viel Ausstoß eigentlich. Natürlich produzieren da auch noch andere wie Qualcomm beispielsweise.
Könnte natürlich auch sein, dass man die P10-Produktion bei Samsung einfach nicht klarkriegt.
Raspo
2017-05-27, 16:58:04
Wo wird denn produziert? Es hieß mal der neue Prozess sei Samsung, dann kann es schon eher zu Yieldproblemen kommen, da doch etwas anders. Bei Gf glaube ich da einfach an Kapazitätsprobleme, Ryzen, Raven ridge und Vega rampen gerade. Da hat man vielleicht einfach für Polaris weniger geordert oder GF ist eh an der Kapazitätsgrenze. Wenn dann bei bescheidenen Waferzahlen für Polaris die Nachfrage durch Mining unerwarteterweise wächst, ist man bei der aktuellen Situation.
Ich hatte die Tage irgendwo gelesen, dass AMD die Ryzen 5 und 7 Produktion erhöhen will wegen der guten Nachfrage. Vielleicht hängt das auch damit zusammen.
Complicated
2017-05-27, 17:01:01
Leute, der Chip kann hervorragend funktionieren, aber trotzdem beschissen zu produzieren sein und auch deshalb "kaputt" sein. Wenn man das Produkt nicht über 70% Yield bekommt selbst nach einem Jahr nicht aufgrund irgendeines Fehlers in der Maske oder weiss der Geier, heißt das doch nicht, dass der Chip nicht funktionieren muss. Aber es kommt offenbar einfach zuviel Ausschuss dabei rum.
Das steht doch im totalen Widerspruch zur Realität. Als AMD 28nm Chips produziert hat, der zu dem am besten eingefahrenen Prozess gehörte war der Marktanteil auf 20% runter. Jetzt produziert AMD 30% mehr (+10% Marktanteil auf ca. 30%) an GPUs und hat eine üble Yield? Sie liefern mehr Stückzahlen aus als die letzten 3 Jahre. Wo nimmst du denn deine Zahlen her mit 70% Yield? Oder einen Maskenfehler der nach einem Refresh noch schlimmer wird? Macht doch überhaupt keinen Sinn.
Wenn irgendetwas davon stimmt, dann wird AMDs Marktanteil in Q2 deutlich sinken. Wir werden ja bald sehen was die Zahlen sagen werden.
=Floi=
2017-05-27, 19:44:43
die chips haben keinen hardwaredefekt, sondern nach format c schaffen sie die taktraten nicht!
fondness
2017-05-27, 20:13:48
die chips haben keinen hardwaredefekt, sondern nach format c schaffen sie die taktraten nicht!
Und warum gibt es dann auch keine RX 570? Das ergibt null Sinn. Zumal AMD jetzt lange genug Zeit hatte, um Taktraten zu wählen bei denen man ausreichend Yields erreicht. Als ob man da plötzlich drauf kommt, dass man die Taktraten nicht erreicht, was für ein Unsinn.
Polaris laeuft jetzt seit einem Jahr und dann ploetzlich bricht alles zusammen oder was? 570er takten standardmaessig immer noch niedriger als 480er. Ich wuerde eher annehmen, dass es ein Kapazitaetsproblem gibt, jetzt wo Vega und vor allem auch Ryzen noch dabei sind. Jetzt ist auch noch ueberall Samsung dabei, das war zum Start afaik nicht so. Das weiss man doch vorher, auch die Boardpartner werden ihre Tests machen und keine voellig abwegigen Taktraten festlegen. Dafuer haette ja richtig viel falsch laufen muessen
Linmoum
2017-05-27, 20:23:48
MF hat über ein halbes Dutzend 570-Customs gelistet, die einen Boost von max. 1242MHz bis 1290MHz haben - genau in diesem Bereich lagen schon viele 470-Customs.
Wären es irgendwelche Taktprobleme, würde es bei der 570 nicht ebenfalls so schlecht um die Verfügbarkeit stehen. Halte ebenfalls Kapazitätsprobleme für nicht so unwahrscheinlich, da kommt ja aktuell etliches zusammen.
fondness
2017-05-27, 20:50:57
Bei MF sind aktuell null RX570 und drei RX580 lieferbar. Das mit den Taktraten macht also null Sinn.
StefanV
2017-05-28, 00:44:06
Bei MF sind aktuell null RX570 und drei RX580 lieferbar. Das mit den Taktraten macht also null Sinn.
Dem würd ich uneingeschränkt zustimmen. Das klingt einfach nach FUD bzw Anti AMD Propaganda.
Da wieder die Miner verstärkt AMD kaufen, kann man davon ausgehen, dass die einen nicht unerheblichen Anteil an der nicht vorhandenen Verfügbarkeit der Karten haben. Und wenn ein Händler einen solchen als Kunden hat, werden die bevorzugt behandelt! Denn wenn man gleich mehrere Dutzend Karten (der mehr) an eine Person ausliefern kann - und selten bis nie kommt was zurückt, wird man das machen. Das kann man auch 'hintenrum', außerhalb des regulären Shop Systems machen...
Grundkurs
2017-05-28, 15:36:12
Mir kam das mit dem Mining zunächst auch seltsam vor, aber der Faktor ist wohl tatsächlich nicht zu unterschätzen. Hier wird die Problematik auch erwähnt http://wccftech.com/ethereum-mining-gpu-performance-roundup/
Wenn man in der Szene nicht drin steckt bzw. Sich nicht damit beschäftigt kann es einem seltsam vorkommen, dass die Knappheit der Karten darauf zurückzuführen ist. Aber es lässt sich nicht völlig von der Hand weisen und würde vieles bezüglich der Knappheit hinreichend erkären
StefanV
2017-05-28, 16:41:34
Ja, eben. Wenn aus irgendeinem Busch dutzende/hunderte Leute ankommen, die Dutzende/Hunderte von Karten zu fast jedem Preis abnehmen, kann man davon ausgehen, dass der Endkunde davon was mitbekommt, eben durch nicht Verfügbarkeit der Karten...
Und diese Leute werden dann auch bevorzugt von den Händlern behandelt werden, eben weil man hier relativ viel in relativ kurzer Zeit umsetzen kann.
Da jetzt mit irgendwelchen Verschwörungstheorien a la Alex Jones anzukommen, ist nun wirklich nicht sinnvoll und hilft niemandem...
Das Problem mit dem Mining ist, dass es ~3 Monate braucht, um die Produktion hochfahren zu können. Chips müssen gefertigt werden, das ganze muss auf PCBs geplflanzt werden, was von anderen Unternehmungen durchgeführt wird, die das ggF auch an andere abgegeben haben. Dann muss das ganze nach Euroland verschippert werden, was auch 'nen paar Wochen dauert...
grauenvoll
2017-05-28, 20:50:47
Bei MF sind aktuell null RX570 und drei RX580 lieferbar. Das mit den Taktraten macht also null Sinn.
Und die RX570 ist das Lieblingsgerät der Miner. Mein Sohn hat gestern 3St. davon bestellt. Mining wird erst interessant ab 5 St. aufwärts.
Bedeutet, auf einen Miner kommen 5 Gamer.
grauenvoll
2017-05-28, 21:14:54
Und hört endlich mit diesen dämlichen Minern auf, die kaufen zwar viele auf einmal, aber das ist definitiv nicht die große Masse. Bekommt mal die Verhältnismässigkeit klar, das passt einfach nicht. Der erschweren natürlich die Verfügbarkeit bei sowieso knapper Produktion, das ist nicht die Ursache sondern die Wirkung.
Was heißt hier knappe Produktion... Mindfactory hat von der RX570 allein knapp 3.000!! Stück verkauft, obwohl erst seit April erhältlich. Zum Vergleich, von der RX560 gerade mal 55 Stück... Die Nachfrage ist einfach gigantisch
von Richthofen
2017-05-28, 21:37:10
Mindfactory hat von der RX570 allein knapp 5.000!! Stück verkauft, owohl erst seit April erhältlich. Zum Vergleich, von der RX560 gerade mal 55 Stück... Die Nachfrage ist einfach gigantisch
Nur kannst du nicht zählen (es sind keine 3000) und die 560 ist erst seit ca. einer Woche erhältlich.
Hast es editiert :tongue:, ok.
grauenvoll
2017-05-28, 21:49:30
Zählen kann ich schon. Schreiben ist schon schwieriger... :tongue:
Jake Dunn
2017-05-29, 02:07:21
Hängt dieses Mining extrem am GPU-Takt? Wer dabei Strom "sparen" will könnte die Karte einfach näher am SweetSpot betreiben. Zb. 1150-1200Mhz mit entsprechendem Undervolting.
Am GPU-Takt hängt es nicht, daher werden die 470/570er oft genommen.
Kleiner Test von mir und man sieht das runtertakten und untervolten nich so stört
https://abload.de/img/efijqb.jpg (http://abload.de/image.php?img=efijqb.jpg)
Jasch
2017-05-29, 13:58:21
Das Problem fast aller AMD Karten ist, das sie über dem Sweetspot betrieben werden, ab Werk.
Hab am WE mal aus Spass mit ZEC bissl undervoltet.(Claymore 12.4)
mv werte laut gpu-z.
Fury
1150/500 avg 500MH ca. 211 Watt (1220mv)
1000/500 avg 440MH ca. 124 Watt (1018mv)
(memshift 400>500)
Tahiti
1150/1600 avg 340MH ca. 220 Watt (1222mv)
1000/1500 avg 304MH ca. 171 Watt (1034mv)
(memshift 1125 custom>1500+)
gemessen mit UNI-T UT210E True RMS Zange(auf usb Riser, Werte sind oben +PCie Slot Messung)
Sind natürlich nur bsp. andere karten können besser oder schlechter gehen,
meiner erfahrung nach laufen aber eigentlich alle Tahitis mit 1000/1500 bei 1000-1050mv.
fondness
2017-05-29, 16:19:53
Asrock bringt sogar schon ein eigenes Board für die Bitcoin Miner mit 13 PCIe Slots :D
https://s30.postimg.org/j5ezcv5u9/ASROCK-_Computex-_X299-2.jpg (https://postimg.org/image/rax1b0u31/)
Asrock bringt sogar schon ein eigenes Board für die Bitcoin Miner mit 13 PCIe Slots :D
http://i.imgur.com/s5BDEWI.png
Wowt a time to be alive.
StefanV
2017-05-29, 18:52:14
Gibts da auch 'nen PCIe Switch mit bei oder wie schaffen die die 13 Slots??
Screemer
2017-05-29, 19:21:40
Das sind bis auf einen lauter x1 slots. Reicht fürs mining ja.
Iruwen
2017-05-29, 22:51:38
Auf jeden Fall zeigt der gestiegene Preis die extrem gute Nachfrage.
Oder das extrem geringe Angebot.
Complicated
2017-05-29, 22:55:04
"extrem" geringes Angebot? Bei 30% mehr Stückzahlen wohl kaum haltbar diese These. Die hohe Nachfrage sorgt für die Verknappung des Angebotes.
StefanV
2017-05-30, 06:05:56
Oder das extrem geringe Angebot.
Belege für diese Behauptung??
Oder nur weil du ganz doll und fest dran glaubst?!
Ultron
2017-05-30, 16:05:43
Bald gibt's die RX 580 auch im Notebook, inkl 8 Kern Ryzen: :D
https://www.heise.de/newsticker/meldung/Asus-ROG-Strix-GL702ZC-Gaming-Notebook-mit-Ryzen-Achtkerner-und-Radeon-RX-580-3728992.html
Daredevil
2017-05-30, 16:11:33
Spart man sich den Stress bei der Auswahl des Mobo + Rams ^^
Schon krass, was heute in den Dingern so drin stecken kann.
Aber ob das wirklich not tut mit dem Ryzen, naja. :D
Cool isses auf jeden Fall, nur hat Nvidia aufgrund der Effizienz einfach die Nase vorn, ne volle 1080 ist ja kein Problem mittlerweile.
Blediator16
2017-05-30, 16:17:25
Spart man sich den Stress bei der Auswahl des Mobo + Rams ^^
Schon krass, was heute in den Dingern so drin stecken kann.
Aber ob das wirklich not tut mit dem Ryzen, naja. :D
Cool isses auf jeden Fall, nur hat Nvidia aufgrund der Effizienz einfach die Nase vorn, ne volle 1080 ist ja kein Problem mittlerweile.
Träum weiter ;D
Daredevil
2017-05-30, 16:21:30
Hm? Gibt doch gut 33 Geräte bei Geizhals.
Scheint wohl zu gehen. :<
dildo4u
2017-05-30, 16:25:22
Träum weiter ;D
https://www.notebookcheck.net/NVIDIA-GeForce-GTX-1080-Laptop.171212.0.html
Hängt natürlich von der Kühlung ab wie die Karte bostet ist aber bei Desktop Karten das Selbe.
aufkrawall
2017-05-30, 16:39:34
Hängt natürlich von der Kühlung ab, wie die Karte boostet. Ist aber bei Desktop-Karten dasselbe das Gleiche.
Pfuh, das war anstrengend.
Blediator16
2017-05-30, 18:43:19
Ohne Problem bedeutet für mich, dass das Ding nicht 20KG wiegt ;D (überspitzt ausgedrückt).
von Richthofen
2017-05-31, 23:10:36
Die Liefersituation der 570 (https://geizhals.de/?cat=gra16_512&xf=9809_13+4784+-+RX+570&sort=p)und 580 (https://geizhals.de/?cat=gra16_512&sort=p&xf=9809_13+5792+-+RX+580%7E9809_13+5792+-+RX+580+(XTR)%7E9809_13+5792+-+RX+580+(XTX))verschlechtert sich weiter. Bei den Preisen braucht man sich keine Gedanken um eine AMD Grafikkarte aus dem Bereich zu machen.
MadManniMan
2017-05-31, 23:46:06
Was zur Hölle!?
Ich gönne AMD ja die Kohlen, aber a) nützt es dem Standing in der Gamer-Szene nichts und b) wird nur weiter diese absurde Energieverschwendung gefördert, die die Miner da veranstalten ...
von Richthofen
2017-06-01, 00:03:21
Bleibt zu hoffen, dass die Angebotsknappheit auf überdurchschnittliche Verkaufszahlen und nicht auf auf irgendeinen Fail von AMD oder in der Produktions-/Lieferkette zurückzuführen ist.
Complicated
2017-06-01, 00:28:04
Was soll da AMD denn daran verdienen? Manche kriegen den Unterschied zwischen Händlerpreis und 1000er Stückpreis den AMD von den OEM-Herstellern verlangt nicht so richtig auf die Reihe. Und AMD soll jetzt kontrollieren wer ihre GPUs kauft im Einzelhandel? Warum nicht Sapphire oder Powercolor? Oder Mindfactory?
dargo
2017-06-01, 07:25:28
Bleibt zu hoffen, dass die Angebotsknappheit auf überdurchschnittliche Verkaufszahlen und nicht auf auf irgendeinen Fail von AMD oder in der Produktions-/Lieferkette zurückzuführen ist.
Was für Fail? Du glaubst doch nicht wirklich, dass plötzlich die Gamer in den letzten Tagen alle Lager leer gekauft haben oder? :freak: Natürlich liegt das am Mining, was denn sonst? Für den Kunden der gerade Polaris sucht ist die Situation selbstverständlich schlecht da aktuell nichts zu bekommen ist. Für AMD gut da alles ausverkauft und die Produktion offenbar hochgefahren werden kann/muss.
vinacis_vivids
2017-06-01, 08:03:51
Oder das extrem geringe Angebot.
Das geringe Angebot ist die Folge der hohen Nachfrage. Künstliche Verknappung erhöht nicht automatisch den Preis.
Die Zahlungsbereitschaft für Polaris ist jetzt deutlich höher als bei jedem Nvidia Chip. RX580 ist Marktwerttechnisch gesehen höher als GTX1070. Ergo passt sich der Preis gerade nach oben an bzw. Nvidia ist einfach zu teuer.
Jasch
2017-06-01, 08:35:25
Mal als info, ein Bekannter mit einer Miningfarm hat bei einigen Herstellen wegen 1000 Karten angefragt.
Ausser bei einem nix machbar und der will 240+ (Dollar)pro Karte (580)
(kommt ja noch Transport zoll usw. drauf)
dildo4u
2017-06-01, 09:24:42
Das geringe Angebot ist die Folge der hohen Nachfrage. Künstliche Verknappung erhöht nicht automatisch den Preis.
Die Zahlungsbereitschaft für Polaris ist jetzt deutlich höher als bei jedem Nvidia Chip. RX580 ist Marktwerttechnisch gesehen höher als GTX1070. Ergo passt sich der Preis gerade nach oben an bzw. Nvidia ist einfach zu teuer.
Kommt vermutlich drauf an was man für den Strom bezahlt,auf Lange Sicht sollte Pascal sich natürlich deutlich mehr auszahlen.Bei Nvidia wird man auch nicht so schnell merken ob die Lager leergekauft werden,da sie natürlich um den Faktor 2-3 mehr Karten produzieren.
Our last run put the 1070 slightly ahead of the stock 480 with a lower power draw from the wall. After several avenues had been pursued to squeeze every last bit of Ethereum hashpower out of our EVGA test GPU, we came out with an optimized configuration that hashes at 32.4 MH/s, pulling 146 watts under load, and getting up to a maximum of 63 degrees in out test bed case.
http://bitcoinist.com/gtx-1070-optimized-ethereum/
AS Rock Mining Board's für 13GPU's.
https://youtu.be/EpksFaxkbPk
Mit sowas wird das natürlich noch ordentlich angeheizt,Gamer baden es aus.
Grundkurs
2017-06-01, 10:07:34
Computerbase: RX570/580-Knappheit auf Mining zurückzuführen. (https://www.computerbase.de/2017-06/radeon-rx-580-570-mining/)
M4xw0lf
2017-06-01, 10:11:30
Mal als info, ein Bekannter mit einer Miningfarm hat bei einigen Herstellen wegen 1000 Karten angefragt.
Ausser bei einem nix machbar und der will 240+ (Dollar)pro Karte (580)
(kommt ja noch Transport zoll usw. drauf)
:eek: Alter.
Für den Gamer mag diese Verknappung eine unerfreuliche Situation sein, aber AMDs Kartenverkäufe müssen doch quasi explodieren? Bzw. müssten, wenn das Produktionsvolumen nicht zu niedrig wäre.
fondness
2017-06-01, 10:42:18
Computerbase: RX570/580-Knappheit auf Mining zurückzuführen. (https://www.computerbase.de/2017-06/radeon-rx-580-570-mining/)
Format_C hatte ja schon wieder recht, es sind eindeutig die Taktraten. *scnr* :weg:
(del)
2017-06-01, 11:26:17
Format_C hatte ja schon wieder recht, es sind eindeutig die Taktraten. *scnr* :weg:
Auch wenn es dich vielleicht amüsiert, Mining ist ein Symptom was das Problem auch für den Enduser jetzt so richtig schön sichtbar macht, aber die Ursachen liegen tiefer :D
Link oben: Die Boardpartner waren sich einig, noch problemlos (viel) mehr Grafikkarten verkaufen zu können, wenn es denn genügend GPUs geben würde... Allerdings kann AMD nicht genügend Polaris-20-GPUs liefern, um die hohe Nachfrage befriedigen zu können.
Hatte heute ein Gespräch mit Powercolor. Die könnten auch mehr mehr, wenn sie hätten, völlig richtig, Gigabyte ist leergelaufen. Bei einigen AMD-nichtexklusiven Partnern kommen nämlich erst gar keine Chips an (oder nur drop-wise). Aber: der Gesamtausstoß pro Monat liegt derzeit auch nicht höher als vorher, eher im Gegenteil. Zu wenige GPUs die komplett in den Specs liegen (die Yield-Rate kann man nun mal nicht einfach mal signifikant steigern) und mittlerweile auch der falsche Forecast beim Packaging bremsen die Produktion von fertigen Karten. Diese Info gabs heute von ASE und als Vermutung gratis dazu auch noch einmal von Powercolor. Man muss nämlich Kapazitäten deutlich im Voraus buchen. In der gesamten Kette. Lies einfach bitte alle Posts von mir (und vielen anderen). Selbst wenn die Yield-Rate utopisch hoch wäre (was sie nicht ist), würde es wohl klemmen.
Mehrere von ComputerBase befragte Hersteller haben das allerdings verneint.Was sollen die PR- und Sales-Leute auch anderes sagen? Und warum stehen da keine Herstellernamen? Im Übrigen ist das komplette Standpersonal sauber durchgebrieft. Nur warum lese ich im Link nichts vom Forecast-Issue? Das hätte man von einigen Herstellern so als Info mitnehmen können- Nur muss man halt mal danach fragen. Man hätte AMD wohl einfach selbst fragen sollen, es waren genügend Kompentente da. ;)
Edit:
Manchmal frage ich mich schon, wie kleine Butzen wie Afox Chips an Chips kommen. Auf dem grauen Markt gibt es sicher welche, zu Mondpreisen. Aber die ganze Wahrheit wird man wohl nie erfahren.
Solange man es wirklich nicht in der gesamten Komplexität erfassen und belegen kann, sind Konjunktiv-Artikel wie der oben verlinkte leider nur einfaches Click-Baiting. Lieber schreibe ich öffentlich gar nichts, als das, was Fanboys vielleicht gern hören mögen, was aber das Problem nicht plausibel wiedergeben kann. Es ist eine Summe aus sehr vielen aufeinandertreffenden Umständen.
Screemer
2017-06-01, 11:36:50
Hatte heute ein Gespräch mit Powercolor. Die könnten auch mehr mehr, wenn sie hätten, völlig richtig, Gigabyte ist leergelaufen. Bei einigen AMD-nichtexklusiven Partnern kommen nämlich erst gar keine Chips an (oder nur drop-wise). Aber: der Gesamtausstoß pro Monat liegt derzeit auch nicht höher als vorher. Zu wenige GPUs die komplett in den Specs liegen (die Yield-Rate kann man nun mal nicht einfach mal signifikant steigern) und mittlerweile auch der falsche Forecast beim Packaging bremsen die Produktion von Karten. Diese Info gabs heute von ASE und als Vermutung gratis dazu von Powercolor. Man muss nämlich Kapazitäten deutlich im Voraus buchen. In der gesamten Kette. Lies einfach bitte alle Posts von mir (und vielen anderen).
warum sollte AMD das Volumen auch erhöhen? Nur damit wieder ohne ende Chips auf Halde liegen, wenn der Miningrun vorbei ist und die ersten ASICs kommen? Das hatten sie schon mal bei Evergreen und Tahiti und den Fehler werden sie ganz sicher nicht noch mal machen. Um das abzufangen hätten sie schon im Jan. oder Feb. die Kapazitäten für 14nm erhöhen müssen. Es war überhaupt nicht abzusehen, dass wieder so ein Miningboom kommt. Das die OEMs jetzt weinen ist klar. Niemand verschenkt gerne die Möglichkeit mehr abzusetzen. AMD trifft seine Zahlen und das ist für die das wichtigste. Zusätzlich gab es mit Sicherheit auch einen Shift der Kapazitäten zu anderen Produkten. Alles in allem ist die Situation für den Kunden unerfreulich. Für AMD und OEMs hat sie eben zwei Seiten. Knappe Verfügbarkeit sorgt für Unmut bei Käufern und zu allen möglichen Gerüchten. Das kann man hier im Thread ja sehen. Schlechte Yield für P20 nach gut einem Jahr ist so ein Blödsinn. Zum anderen können AMD und die OEMs froh sein, dass ihnen die Karten nur so aus den Händen gerissen werden.
fondness
2017-06-01, 11:54:54
Auch wenn es dich vielleicht amüsiert, Mining ist ein Symptom was das Problem auch für den Enduser jetzt so richtig schön sichtbar macht, aber die Ursachen liegen tiefer :D
Man kann auch einfach mal zugeben, wenn man Mist erzählt hat. Deine Grundaussage war schlicht falsch. Deine angeblichen Insiderquellen entpuppen sich wieder mal als Luftblasen.
Kann GloFo denn, wenn Mehrbedarf bestünde, überhaupt mehr auf 14nm produzieren mit Polaris, Ryzen und sicher auch schon Vega? Oder muss da Samsung einspringen?
@Format C: Wie muss ich mir das Vorstellen, bestellt ein Kartenhersteller vor Launch bei AMD/RadeonGroup eine bestimmte Menge an Chips(GPU+Speicher) und erhält dann diese auch? Wenn zu wenig da ist, wird auch weniger geliefert, sagt dann die Logik. Sind es nun aber zu wenig Chips die fehlen oder PCBs, wie woanders erwähnt wurde, oder alles? Und sind diese Fehlmengen innerhalb der Bestellten oder aufgrund der erhöhtn Nachfrage entstanden.
(del)
2017-06-01, 17:13:28
KWie muss ich mir das Vorstellen, bestellt ein Kartenhersteller vor Launch bei AMD/RadeonGroup eine bestimmte Menge an Chips(GPU+Speicher) und erhält dann diese auch? Wenn zu wenig da ist, wird auch weniger geliefert, sagt dann die Logik. Sind es nun aber zu wenig Chips die fehlen oder PCBs, wie woanders erwähnt wurde, oder alles? Und sind diese Fehlmengen innerhalb der Bestellten oder aufgrund der erhöhtn Nachfrage entstanden.Das Ganze ist leider eine elende kausale Kette.
Vereinfacht ausgedrückt, geht das ungefähr so:
Die Wissenschaft hinter diesem ganzen Just-in-Time-Business heißt Forecast, also rechtzeitig den möglichen Bedarf möglichst stimmig auch kurz-, mittel und sogar langfristig einschätzen zu können. Man muss zudem im Vorfeld genügend passende Wafer geordert haben bzw. dessen Vorhandensein permanent sicherstellen können, denn die wachsen ja auch nicht auf Bäumen. Danach braucht man dann auch die notwendigen Produktionskapazitäten, denn Hersteller wie GloFo oder TSMC produzieren nicht auf Zuruf.
Doch das mit den Prognosen geht ja endlos weiter. Die Chips werden, wenn sie denn vorhanden sind, zu den großen Packaging-OEMs geschafft. ASE aus Singapore ist da der größte Player. Die Chips gehen zu deren Werken (meist in Indien, China oder Taiwan). Auch diese Kapazitäten muss man planen und ordern. Dort werden die Dies erst einmal gesockelt, denn vorher kann man damit absolut nichts anfangen. Dann kommt das ganze Package auf eine Rolle mit Transferband, die zu den Boardpartnern geliefert wird.
Mit den Boardpartnern ist es so ungefähr wie mit Vertrags- und freien Händlern. Sie müssen eine bestimmte Menge umsetzen/abnehmen, um ihren Status zu behalten. Gleichzeitig schätzen sie ihren weiteren Bedarf quartalsweise ab und bekommen später GPU und Speicher im Bundle geliefert. Soweit vorhanden. Die vertraglichen Rahmenbedingungen bei Unter- oder Nichterfüllung sind leider nicht öffentlich, also kennt sie kaum jemand, ich auch nicht. Da kann man nur spekulieren. Die Selektion, also welche GPU (nicht )besonders OC-freudig ist, ist wie bei NV auch, allein Aufgabe des Boardpartners und letztendlich dessen Risiko. Das Lotto ist also identisch, denn garantiert werden nur die Referenz-Specs. Ist die Qualität der Chips niedrig, hat man kaum Kapazitäten für OC-Modelle (z.B. die Golden Sample von Powercolor) und bleibt "bei Butter-und Brot"-Karten wie der Red Devil oder sogar noch unterhalb.
Die Belieferung mit Chips erfolgt nach Prio-Liste. AMD-Exklusive erhalten eher verfügbare Kontingente, als Mixed-Partner wie Gigabyte, MSI & Co. Asus ist da aber so etwas wie eine Ausnahme, denn die sind groß genug. Bei den anderen geht es nach Status und Vorbestellung. Also wieder die Forecast-Geschichte. Mal eben so alles wegkaufen geht also nicht. Hier geht es schön nach Plan. Prio und Bestellhistorie. Meistens.
Warum schrieb ich, dass PCBs knapp sind? Die Platinen werden bis zum Reflow-Löten zunächst automatisiert mit Komponenten von der Rolle bestückt, bevor sie in die normale Insertion Line kommen. Das heißt, wenn die GPU, fehlt, kann keine Platine vorgearbeitet werden, da man das nachträglich nicht mehr erledigen kann. Deshalb auch das "Lack of PCB" vor ein paar Seiten. Damit beschreibt man einen Zustand, indem die Platinen ausgehen, die in der Insertion Line mit allen restlichen Dingen wie großen Bauelementen, Buchsen, der Slotblende und letztendlich bei der Hochzeit nach dem Wellenlötbad auch mit Kühler (und ggf. Backplate) versehen werden. Auch hier müssen wieder Kapazitätsprognosen erstellt werden, denn man kann eine solche Line nicht mal eben für ein paar Stunden runterfahren oder einfach so wieder einschalten. Die Lötqualität möchte ich nicht sehen.
Ein "Yield rate too low" von Hersteller heißt nichts anderes, dass man den Flaschenhals zunächst bei GloFo sieht. Was wiederum nicht heißt, dass man gar nichts liefern kann, weil plötzlich gar keine GPUs mehr kommen - aber der Forecast hat grandios versagt. Nur hat man auch keine Chance die Yield Rate plötzlich weiter zu steigern, um eine bessere Ausbeute pro Wafer zu bekommen, denn die vorab gebuchten Kapazitäten kann nicht mal eben so ausbauen. Man bleibt einfach auf einem Status Quo hängen oder sackt sogar ab. Auch mehr Packaging-Kapazität bekommt man nicht mal eben so on-the-fly. Man hat sich also bei allen Beteiligten, nicht nur AMD, schlichtweg verschätzt. Wenn dann Miner zuschlagen wie bekloppt, gibt es einen Engpass. Nur haben auch die Boardpartner-Lieferverträge mit ihren Distris und können nicht mal eben so die Karten meistbietend versteigern.
Fragt man aber einige Distris, dann wird bereits von eklatanten Mindermengen bei den Lieferungen zu den Importlagern berichtet. Ginge alles den normalen Gang, dann hätten die Miner hier ja noch gar nicht zuschlagen können. Womit die Spekulation im Raum steht, wer denn die ganzen Chips verschwinden lassen könnte und wo sie dann verbaut werden. Da ich aber "illegale" Grafikkartenfabriken in China für eher absurd halte, müssen die Gründe ja nun irgendwo liegen. Der Rest ist der übliche Spekulatius.
vinacis_vivids
2017-06-01, 17:27:55
Da ich aber "illegale" Grafikkartenfabriken in China für eher absurd halte, müssen die Gründe ja irgendwo liegen.
China ist groß und der Kryptomarkt ist dort gigantisch. Chinesen wären ja richtig dumm, wenn sie nicht Minen würden. Sie sind aber nicht dumm... oder glaubst du an Prostitutionsverbot?
(del)
2017-06-01, 17:37:00
Du meinst damit, AMD würde also die vertraglich gebundenen Boardpartner hintergehen und lieber Hinterhofbutzen beliefern? Das halte ich für ausgeschlossen, weil so dumm ist AMD definitiv nicht.
vinacis_vivids
2017-06-01, 17:43:07
Du meinst damit, AMD würde also die vertraglich gebundenen Boardpartner hintergehen und lieber Hinterhofbutzen beliefern? Das halte ich für ausgeschlossen, weil so dumm ist AMD definitiv nicht.
Die Boardpartner sind alle in China und Chinesen sind die besten Freunde unter sich. Wenn ein Deutscher kurz nach 1000 Karten fragt, kauft der Chinese 10.000 Karten ohne ein Wimpernzucken.
Kryptowährung ist in China teurer als in Europa....
(del)
2017-06-01, 17:58:13
Die Boardpartner sind alle in China und Chinesen sind die besten Freunde unter sich. Wenn ein Deutscher kurz nach 1000 Karten fragt, kauft der Chinese 10.000 Karten ohne ein Wimpernzucken.
Kryptowährung ist in China teurer als in Europa....Die Boardpartner sind NICHT alle in China, auch wenn sie dort produzieren. Taiwanesen und Chinesen sind zudem nicht gerade die besten Freunde. Aber ich würde weder AMD, noch den großen Boardpartnern so etwas unterstellen. Das ist mal wieder echte Forenromantik. Der Deutsche würde übrigens an den betreffenden Distri oder Importeur verwiesen. Oder wie stellst Du Dir den globalen Handel vor? 1000 Stück sind eh albern... Niemand würde langjährige Geschäftsbeziehungen wegen ein paar lächerlicher Karten riskieren oder gar Konventionalstrafen. Es gibt nämlich auch noch ein Leben nach der Crypto-Blase ;)
So, und nun ab ins Bett - in 6 Stunden muss ich wieder raus. Ok, ein Bier geht noch. Bear Beer. :D
eratte
2017-06-01, 18:20:01
https://www.computerbase.de/2017-06/radeon-rx-580-570-mining/
Update 11:12 Uhr
Auch eine Quelle aus dem deutschen Handel bestätigt die in Taiwan gewonnenen Erkenntnisse. In Anbetracht der Liefersituation der Polaris-Grafikkarten stiegen erste „Miner“ bereits auf Grafikkarten von Nvidia um, bei GeForce GTX 1060 und GeForce GTX 1070 sei die Nachfrage aus diesem Bereich zuletzt ebenfalls deutlich angestiegen. Und noch ein Produktsegment kann die Nachfrage derzeit kaum noch befriedigen: Das der Netzteile mit mehr als einem Kilowatt Leistung.
Complicated
2017-06-01, 18:32:42
Format_C du widersprichst dir doch in deinen Ausführungen selbst. Der Forecast beginnt bei den OEM-Herstellern und die Forecasts gehen mit den Bestellungen bei AMD ein (Sie bestimmen die Bestellhöhe). AMD kann kaum Sapphire vorschreiben 20% mehr GPUs zu verkaufen wenn das nicht in deren Forecast passt und Sapphire wird sich einen Dreck um AMDs eigenen Forecast scheren. Also haben sich dann die OEM verschätzt wenn plötzlich mehr gebraucht wird als vorhergesehen und nicht AMD. Und ganz sicher ist darüber keiner sauer in der Wertschöpfungskette, dass Produkte 1-2 Monate schneller verkauft wurden als geplant. Am wenigsten die Händler, die durch eine Verknappung als einzige höhere Preise verlangen können und pro Stück mehr verdienen solange Knappheit herrscht.
Dass der Yield überhaupt keine Rolle spielt in der jetzigen Situation ist doch jetzt von mehreren Seiten deutlich bestätigt worden. Deine "Insider" haben dich mal wieder falsch informiert oder du hast das ganze falsch interpretiert, zumindest versäumt zu hinterfragen trotz offensichtlichen Unstimmigkeiten in den Aussagen zu GF Ein "Yield rate too low" von Hersteller heißt nichts anderes, dass man den Flaschenhals zunächst bei GloFo sieht. Das heisst nicht, dass man den Flaschenhals dort sieht, das heisst eindeutig dass jemand behauptet die Fertigung würde nicht genug abwerfen pro Wafer (Yield) - dies kann man nur hinterfragen in diesem Stadium der Produktion und definitiv war das eine falsche Aussage wie sich ja heraus stellte.
Ein Flaschenhals bei GF kann bei hoher Nachfrage ebenso entstehen wenn die Yield völlig in Ordnung ist, jedoch zu wenige Wafer vorbestellt wurden auf Grund eines zu niedrigen Forecasts seitens der OEMs - wie wir das hier eben erleben wegen den Minern. Da passt einfach kein "Yield rate too low".
][immy
2017-06-01, 22:49:01
So, hab seit heute eine der anscheinend recht seltenen rx 570 Grafikkarten bei mir drin (lokaler Händler hatte genau eine :) ). Da ich eh nur einen 1080p Monitor habe, stören die "nur" 4GB Speicher eher nicht.
Ist auf jeden Fall leise und scheint ein guter Ersatz für die 7850 zu sein.
Ich muss aber sagen, das die Karte es schwierig macht das passende Setting in Spielen zu finden. Z.B. kann ich jetzt Gears 4 zwar 60fps ohne Probleme einstellen, die Details aber alle auch nur auf High zu stellen bringt ein total unscharfes Bild (die automatische Auflösungsskalierung schreitet dann ein). Hier muss ich vermutlich noch ein wenig mit den Einstellungen rumspielen um das optimum aus 60fps und Grafik zu bekommen.
Eventuell holt eine Erhöhung des Power-Targets ja noch was raus. Immerhin hat die jetzt nen 8-pin stecker, sollte also kein Problem geben die >125W zu betreiben.
dildo4u
2017-06-01, 22:51:16
Ist die CPU Stark genug?Das Game frisst CPU Leistung.
][immy
2017-06-01, 23:27:29
Ist die CPU Stark genug?Das Game frisst CPU Leistung.
Ich hatte bis vorhin meine CPU (intel 3570k) nur noch auf 3,4 GHz (ohne Boost) laufen lassen. Hab den boost jetzt mal wieder eingestellt, da sollte die CPU eigentlich dauerhafte 3,8 GHz schaffen. Der 3dMark ist auf jeden fall direkt darauf angesprungen.
Zudem hab ich grad doch mal in meinem Bios entdeckt das ich die Command Rate einstellen kann und hab die auf 1T gestellt. Ich habe mich echt lange nicht mehr mit diesen Einstellungen beschäftigt ^^
Vsync scheint in Gears aber pflicht zu sein. Das war grausam bis ich es eingestellt hatte.
edit:
ich bin blind. Es lag am Framelimiter ^^, kaum ist der aus geht auch Ultra ohne Probleme, ohne das das Bild unscharf wird.
huch... jetzt hab ich auch nen Föhn im Rechner :)
edit 2:
So dank dem Bios Schalter ist es jetzt im silent Mode wesentlich angenehmer. Fehlen ein paar FPS aber da ich eh mit vsync spiele machts auch nicht wirklich was aus.
Sumpfmolch
2017-06-04, 11:34:54
Wie lang dauert das jetzt, bis eine brauchbare Anzahl an Karten per Schiff rübergeschippert wurde?
Das Drama bei der Verfügbarkeit nervt so langsam. Aktuell günstigste verfügbare 8GB RX470/RX480/RX570/RX580: 295€
Eigentlich seriöse Händler wie ARLT und computeruniverse versuchen ihre Karten derzeit für 399€ bzw. 451€ zu verkaufen.... :rolleyes:
Linmoum
2017-06-04, 11:40:33
MF hat bei so ziemlich jeder 570/580 den 23.6 gelistet.
dildo4u
2017-06-04, 11:48:34
Da muss mehr passieren als nur verschiffen sie müssen die Produktion erhöhen,alles was am 23.6 ankommt wird vermutlich schon ausverkauft sein.
Sumpfmolch
2017-06-05, 13:31:09
Da wird vermutlich so gut wie nichts da sein. AKtuell gibt selbst wenn man die für Gaming völlig uninteressanten 4GB Varianten dazu nimmt bei den RX470/480/570/580 Online auf geizhals keine 20 Karten europaweit verfügbar.
Fehlt nur noch, dass auf ebay die Preis für die älteren R290/390(x) explodieren...
][immy
2017-06-05, 20:42:36
Wie lang dauert das jetzt, bis eine brauchbare Anzahl an Karten per Schiff rübergeschippert wurde?
Das Drama bei der Verfügbarkeit nervt so langsam. Aktuell günstigste verfügbare 8GB RX470/RX480/RX570/RX580: 295€
Eigentlich seriöse Händler wie ARLT und computeruniverse versuchen ihre Karten derzeit für 399€ bzw. 451€ zu verkaufen.... :rolleyes:
Es hat ja nix mit der Produktion zu tun, sondern damit das derzeit z.B. der Bitcoin kurs so extrem hoch ist. Scheinbar dürfte sich AMD daran aktuell gesundstoßen, ohne das sie etwas dafür können.
Ich habe meine auch erst nach langer Suche zufällig in meiner Stadt gefunden, aber zuvor angerufen ob sie wirklich vorhanden ist.
Eventuell ist nächste Tage wenn Vega da ist, ein wenig mehr verfügbar sein bei den RX570/580 karten und dafür dann Vega total ausverkauft sein.
Da wird vermutlich so gut wie nichts da sein. AKtuell gibt selbst wenn man die für Gaming völlig uninteressanten 4GB Varianten dazu nimmt bei den RX470/480/570/580 Online auf geizhals keine 20 Karten europaweit verfügbar.
Fehlt nur noch, dass auf ebay die Preis für die älteren R290/390(x) explodieren...
Solange du bei 1080p bleibst reicht die 4GB Variante noch völlig aus. Vor allem wenn auch noch der Sprung von "fast"-ultra auf ultra keinen nennenswerten Gewinn mehr bei der Auflösung bietet.
Daredevil
2017-06-05, 21:29:50
Apple hat 580er angekündigt für ihre Externe Grafiklösung und ihren iMac Pro.
Heiß begehrtes Kärtchen. :D
Jake Dunn
2017-06-05, 21:35:29
Eigentlich seriöse Händler wie ARLT und computeruniverse versuchen ihre Karten derzeit für 399€ bzw. 451€ zu verkaufen.... :rolleyes:
Die Sapphire Nitro+ Limited Edition Radeon RX580 ging weg für 399€ bei Ebay (ARTL Shop) ^^
Screemer
2017-06-05, 21:40:17
Apple hat 580er angekündigt für ihre Externe Grafiklösung und ihren iMac Pro.
Heiß begehrtes Kärtchen. :D
Imac pro kommt mit vega und nicht mit polaris, denn die kommen für die normalen imacs.
Sumpfmolch
2017-06-06, 17:14:01
Die Sapphire Nitro+ Limited Edition Radeon RX580 ging weg für 399€ bei Ebay (ARTL Shop) ^^
Muss ich mir einen Merker setzen...wenn das nächste mal Bitcoin explodiert, dann gleich noch Hardware horten, um mit Gewin zu verscherbeln :rolleyes:
Karümel
2017-06-06, 18:15:39
https://www.computerbase.de/2017-06/radeon-rx-580-570-mining/
Update 06.06.2017 17:57 Uhr
Die Situation hat sich über die letzten Tage weiter zugespitzt. Radeon RX 580 und Radeon RX 570 sind in Deutschland kaum noch zu bekommen, die Radeon RX 560 wird laut Aussagen aus dem Handel ebenfalls knapp. Auch GeForce GTX 1080, 1070 und 1060 können Systemintegratoren zurzeit bei vielen Herstellern nicht mehr beziehen, bei der GeForce GTX 1080 Ti zeichnet sich derselbe Trend ab. Bei den Netzteilen sind Modelle bis hinab zu 650 Watt stark nachgefragt. Ein erster Aussteller ließ gegenüber ComputerBase verlauten, dass er seinen Messeauftritt zur Gamescom im August mit mehreren Hundert PCs vor dem aktuellen Hintergrund gefährdet sieht.
Den Teil hast du vergessen:
Laut Videocardz planen sowohl AMD als auch Nvidia kurzfristig mit speziell für die Berechnung von Crypto-Währung gefertigten Grafikkarten die Nachfrage nach den Modellen für Spieler zu senken. Die Sondermodelle dürften auf Display-Anschlüsse verzichten und – wenn überhaupt – über eine nur sehr kurze Garantie verfügen.
Jake Dunn
2017-06-06, 23:44:29
:freak: und ab 500€ losgehen ^^
AMD rallies as cryptocurrency miners snap up graphics chips (http://www.reuters.com/article/us-amd-stocks-idUSKBN18X2NJ)
Reuters
aufkrawall
2017-06-07, 02:23:15
Da muss man dann wirklich anerkennen, dass die Marktanalysen/Steam-Surveys wahrscheinlich völlig an der Realität vorbei gehen, was die tatsächlichen Verkäufe anbelangt.
Die GPUs verschwinden in irgendwelchen Hallen und gehen danach wohl entweder auf den Schrott, oder werden teilweise vielleicht auch bis zur nächsten Blase eingelagert. Ich würd davon ausgehen, dass sich das alle 2-3 Jahre wiederholt.
Man kann die Gebrauchtware ja auch verkaufen... oder man laesst es einfach laufen. Wenn das Zeug abbezahlt ist und der Platz nicht gebraucht wird, sodass es immer noch profitabler ist als irgendwas anderes auf der Flaeche am Standort zu machen, macht es ja keinen Sinn abzuschalten.
Ich bin mal auf die kommenden Geschaeftsergebnisse gespannt. Dass die yields nicht passen sollen ergibt fuer mich einfach keinen Sinn. Die Nachfrage ist offenbar einfach zu hoch, die Frage ist ob dadurch denn die Produktion auch deutlich gestiegen ist oder ueberhaupt keine Kapazitaeten mehr frei waren.
grauenvoll
2017-06-07, 08:23:31
Ich bin mal auf die kommenden Geschaeftsergebnisse gespannt.
Ich mir nicht vorstellen, dass dies einen nennenswerten Einfluss hat. Die Grafikkartenhersteller haben lange vor dem Boom die Preise ausgehandelt zu denen sie ihre GPUs beziehen. AMD profitiert davon wenig. Einzig vielleicht dass man von den RX470/480 keine Restlagerbestände hat, die man abschreiben muss.
Mancko
2017-06-07, 09:00:04
Ich mir nicht vorstellen, dass dies einen nennenswerten Einfluss hat. Die Grafikkartenhersteller haben lange vor dem Boom die Preise ausgehandelt zu denen sie ihre GPUs beziehen. AMD profitiert davon wenig. Einzig vielleicht dass man von den RX470/480 keine Restlagerbestände hat, die man abschreiben muss.
Schon beim letzten Run der Miner auf Grafikkarten hat sich das nicht so wirklich in den Geschäftsergebnissen bei AMD wiedergespiegelt. Im Grunde profitiert man nur dann richtig extra davon, wenn man diese Nachfrage vorher kennt bzw. erwartet und richtig einschätzt und dann sozusagen zum einen mehr Wafer bestellt und zum anderen die Preise der GPUs anhebt. Natürlich ist es dann auch wichtig beim Abebben des Booms nicht auf GPUs sitzen zu bleiben. Insofern wird sich das m.E. kurzfristig nicht wiederspiegeln. Die Preise und Abnahmemengen sind schon lange vereinbart. Man kann hier also nur außerhalb der bestehenden Verträge jetzt darauf reagieren und anpassen und muss mehr produzieren.
Generell ist das Mining Thema für die IHVs sehr schwer zu handeln, da die Nachfrage extrem schwankend ist. Von daher finde ich den Ansatz beider richtig hierfür lieber separate Modelle vorzusehen die ggf. auch ein paar Kosten wegen fehlender Anschlüsse etc. einsparen. Zudem würde ich wenn ich AMD oder Nvidia wäre diese separaten Mining Graka's gar nicht über die AIBs verkaufen sondern ausschließlich über einen eigenen Online Shop. Ist einfach besser zu handeln und zu tracken.
Da muss man dann wirklich anerkennen, dass die Marktanalysen/Steam-Surveys wahrscheinlich völlig an der Realität vorbei gehen, was die tatsächlichen Verkäufe anbelangt.
Was gut für den Umsatz, aber leider irrelevant ist, wenn es danach geht für welchen IHV Spieleprogrammierer mehr optimieren.
Die GPUs verschwinden in irgendwelchen Hallen und gehen danach wohl entweder auf den Schrott, oder werden teilweise vielleicht auch bis zur nächsten Blase eingelagert. Ich würd davon ausgehen, dass sich das alle 2-3 Jahre wiederholt.
Schrott oder Gebrauchtmarkt würde ich tippen. Beim Einlagern und hoffen ist eher zweifelhaft, ob die Karten in der nächsten Runde noch konkurrenzfähig sind.
fondness
2017-06-07, 10:52:39
Es ist für AMD natürlich extrem schade, dass man diesen nicht Boom voraussehen konnte, da mittlerweile sogar schon NV-Karten gekauft werden, die eigentlich deutlich schlechter geeignet sind. Und das nur, weil AMD-Karten schlicht ausverkauft sind.
Mancko
2017-06-07, 11:14:07
Es ist für AMD natürlich extrem schade, dass man diesen nicht Boom voraussehen konnte, da mittlerweile sogar schon NV-Karten gekauft werden, die eigentlich deutlich schlechter geeignet sind. Und das nur, weil AMD-Karten schlicht ausverkauft sind.
Schlechter geeignet bezog sich m.E. bisher in der Regel auf den höheren Anschaffungspreis. Dem gegenüber steht dann der geringere Energiebedarf. Letzteres ist natürlich extrem abhängig von den Stromkosten im jeweiligen Land. Und den Boom kann man einfach nicht voraussehen. Hat Nvidia ja auch nicht. Sonst hätten die ja schon längst reagiert. Die sind immer involviert wenn es Geld zu verdienen gibt. Das Problem ist doch generell, dass der Boom in ein paar Wochen auch schon wieder vorbei sein kann. Das ist eigentlich kaum handlebar. Von daher am Besten separate Produktlinie , am Besten als Abfall aus Gaming / HPC GPUs, aufmachen mit dem dafür notwendigsten und dann selber ohne AIBs verkaufen.
Troyan
2017-06-07, 11:24:21
Er hat keine Ahnung. nVidia-Hardware ist nicht schlechter geeignet. Sie sind für Spezialfälle wie Ethereum nicht gut genug. Es gibt andere Altcoins, wo nVidia-Hardware viel besser abschneidet - z.B. Zcash.
Und da Zcash genauso stark im Preis gestiegen ist, macht es null sinn sich überteuerte AMD-Hardware zu kaufen, wenn deutlich günstigere nVidia-Hardware ebenfalls für Mining und Profit geeignet ist.
dildo4u
2017-06-07, 11:37:58
Es ist für AMD natürlich extrem schade, dass man diesen nicht Boom voraussehen konnte, da mittlerweile sogar schon NV-Karten gekauft werden, die eigentlich deutlich schlechter geeignet sind. Und das nur, weil AMD-Karten schlicht ausverkauft sind.
Laut dem kommt eine 1070 auf 28.5 mh/s bei 105 Watt und eine 480 auf 29 bei 135 Watt,die 1070 kommt dort günstiger was Performance per Watt angeht. (Ethereum/Ethash)
https://whattomine.com/coins
Troyan
2017-06-07, 11:46:44
Ethereum benutzt einen speziellen Algo, der auf Bandbreite und Speichercontroller geht. Hat nichts mit der Rechenleistung zu tun: http://www.phoronix.com/scan.php?page=article&item=ethminer-linux-gpus&num=2
dildo4u
2017-06-07, 11:50:39
Oh dann ist die 1070 mit Abstand die beste Option,die 1080 Ti bringt nur minimal mehr für 700€.
Ether benötigt immer mehr Vram, sprich ist speicherintensiv... und der Algo sorgt dafür, dass dieser auch ansteigt.... genau deswegen auch ASIC resistent. Durch die dabei verwendete Verschlüsselung auch Rechenintensiv. Ich hoffe das wegen des HBCC vega nicht irgendwie noch von den minern gekauft wird wie blöde, weil der da große Vorteile bietet.. -.-
Und genau wegen der Intensivität des Speichers, wird die AMD gekauft weil 8GB und günstiger als 1070.
Strompreis ist bei denen sowas von scheiß egal. Der benötigte Platz ist teurer als der Strom.
grauenvoll
2017-06-07, 11:56:59
Laut dem kommt eine 1070 auf 28.5 mh/s bei 105 Watt und eine 480 auf 29 bei 135 Watt,die 1070 kommt dort günstiger was Performance per Watt angeht. (Ethereum/Ethash)
https://whattomine.com/coins
Das stimmt. Gegen die 1070 sprechen der normalerweise viel höhere Anschaffungspreis. Die geringere Leistungsaufnahme wird man vermutlich nie wieder einspielen. Aber was ist im Moment schon normal...
Mancko
2017-06-07, 13:18:52
Er hat keine Ahnung. nVidia-Hardware ist nicht schlechter geeignet. Sie sind für Spezialfälle wie Ethereum nicht gut genug. Es gibt andere Altcoins, wo nVidia-Hardware viel besser abschneidet - z.B. Zcash.
Und da Zcash genauso stark im Preis gestiegen ist, macht es null sinn sich überteuerte AMD-Hardware zu kaufen, wenn deutlich günstigere nVidia-Hardware ebenfalls für Mining und Profit geeignet ist.
K.A. Ich weiß nur dass es sinnvoll ist hierfür eigene Produktlinien zur Verfügung zu stellen. In Summe ist das ganze Thema mir auf jeden Fall suspekt. Langfristig wird sich vermutlich der Gesetzgeber um das Thema kümmern wenn es die aktuelle Währung bedrohen sollte. Davon sind wir aber noch ganz weit weg.
aufkrawall
2017-06-07, 13:40:17
Man kann die Gebrauchtware ja auch verkaufen...
Vielleicht gibts in China dafür einen Markt, kann ich nicht einschätzen. Ich würd davon ausgehen, dass man im Westen Leuten eigentlich nicht mehr gut diese 24/7 gestressten Geräte andrehen kann mit ratternden Lüftern, schlechten Händlerbewertungen o.ä.
Emperator
2017-06-07, 13:50:23
Als wenn die Leute dazu schreiben, das die Karten zum Mining benutzt wurden. Bei K-CPUs stehen bei 90% der Angebote bei Ebay und Co. auch immer dabei, das die CPU nie übertaktet wurde und nur im Viert-PC lief und daher nur ein paar Stunden im Betrieb war ^^
Er hat keine Ahnung. nVidia-Hardware ist nicht schlechter geeignet. Sie sind für Spezialfälle wie Ethereum nicht gut genug. Es gibt andere Altcoins, wo nVidia-Hardware viel besser abschneidet - z.B. Zcash.
Und da Zcash genauso stark im Preis gestiegen ist, macht es null sinn sich überteuerte AMD-Hardware zu kaufen, wenn deutlich günstigere nVidia-Hardware ebenfalls für Mining und Profit geeignet ist.
"Schlechter geeignet" = weniger Effizienz. Da spielen halt andere Faktoren mit als beim Gaming und alle Spielereien bringen nichts. Was zaehlt ist moeglichst viel rohe Leistung auf moeglichst wenig Platz und zum moeglichst niedrigen Preis. Da war AMD jahrelang meilenweit vorne, hat aber wie jeder weiss aktuell nur Mittelklasse GPUs auf dem Markt, so einfach ist das.
Was noch dazu kommt aber eher eine Nebenrolle spielt ist der Wettbewerb zwischen den devs. Es kann sein dass ein bestimmter CUDA Miner mal schneller ist, das liegt dann aber nicht prinzipiell an der Waehrung. Man darf dann nur nicht vergessen einzuberechnen, dass die devs einen Teil fuer sich selbst abzwacken. Und selbst wenn das ueber einen laengeren Zeitraum der Fall waere, sodass das Netzwerk insgesamt so deutlich an kumulierter Rechenleistung zulegt dass es ineffizient wird, wechselt man halt die Waehrung.
Ethereum benutzt einen speziellen Algo, der auf Bandbreite und Speichercontroller geht. Hat nichts mit der Rechenleistung zu tun: http://www.phoronix.com/scan.php?page=article&item=ethminer-linux-gpus&num=2
Natuerlich geht es um Rechenleistung und ausserdem auch um Latenzen. Die 1080 verliert durch den Umstieg auf GDDR5X, da sollte gp102 eigentlich dieselben Probleme haben, liegt aber deutlich vorne. Oder ist etwas dazu bekannt, ob man da was an den MCs gemacht hat oder z.B. Micron bei den neueren 11 Gbps Chips die Timings besser hinbekommen hat?
Lard hat z.B. mal seine Tahiti gezeigt, die mit scharfen Timings quasi auf stock Hawaii Niveau gekommen ist.
Vielleicht gibts in China dafür einen Markt, kann ich nicht einschätzen. Ich würd davon ausgehen, dass man im Westen Leuten eigentlich nicht mehr gut diese 24/7 gestressten Geräte andrehen kann mit ratternden Lüftern, schlechten Händlerbewertungen o.ä.
Das weiss man ja nicht zwangslaeufig. "Nur einmal eingeschaltet", dass das Ding nie wieder aus war steht halt nicht dabei ;p
Es stimmt aber natuerlich dass es schwierig wird, das in dieser Masse abzusetzen, aber dafuer gibt es ja eben auch noch andere Maerkte.
fondness
2017-06-07, 16:22:28
Laut dem kommt eine 1070 auf 28.5 mh/s bei 105 Watt und eine 480 auf 29 bei 135 Watt,die 1070 kommt dort günstiger was Performance per Watt angeht. (Ethereum/Ethash)
https://whattomine.com/coins
Wenn eine 1070 nicht mal die Leistung einer 480 bringt, brauchen wir hier wirklich nicht weiter zu diskutieren. Die 480 bekam man zweitweise um den halben Preis. Deine 30 Watt mehr reißen das selbst in 5 Jahren Dauerbetrieb nicht raus.
vinacis_vivids
2017-06-07, 17:38:49
Ne optimierte rx470 4GB leistet soviel wie ne GTX 1070.
Hmm, da hat sich die PCGH ja ein interessantes Timing für den großen Grafikkartenvergleich bis 350 Euro (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-07-2017-Magazin-DVD-Download-PDF-1229193/) ausgesucht – nichts ist lieferbar. Aber immerhin weiß man, welche von neun RX-500-Karten die effizienteste ist, sollte man eine ergattern. :uup:
MfG,
Raff
anddill
2017-06-09, 22:56:45
Die Diskussion über Mining mit Polaris ist hier o.T und wurde nach hier ausgelagert:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581534
Das hier ist der Review-Thread, bitte beim Thema bleiben.
dildo4u
2017-06-17, 10:45:40
Apologies for the RX 480, Aorus RX 580 XTR: THE DO-OVER!
https://youtu.be/KmRqzQsy8g4
Michalito
2017-06-17, 13:42:18
Apologies for the RX 480, Aorus RX 580 XTR: THE DO-OVER!
https://youtu.be/KmRqzQsy8g4
Und unter 28 Cm Länge.. Sehr intressante Karte :biggrin: Wenn es sie mal gibt, und die Preise wieder normal sind.
dargo
2017-06-17, 14:08:39
Endlich lernt es Gigabyte auch mal vernünftige Kühler zu bauen. :up: Ich hoffe wir sehen diesen Kühler auch mal bei Vega Custom. Eine HP dazu und es sollte passen. V10 hat eine wesentlich größere Die Size.
von Richthofen
2017-06-17, 14:14:17
Ja aber dann bitte mit noch einem Puster mehr wie bei den großen Pascals.
Der Kühler sieht wirklich wertig aus. Überraschend wie er den tollen Sapphire-Kühler abziehen kann.
Mortalvision
2017-06-17, 15:38:05
Hab zum Vergleich die "einfache Gigabyte 1080", selber Kühler wie die G1. Wenn auch nur annähernd dasselbe unter der Haube steckt, ist das gut gekühlt!
h2096524
2017-08-10, 21:23:43
Hat die 580er keinen ECC RAM mehr wie die 480er?
Bei HWInfo (https://www.hwinfo.com/) konnte man mit der 480er "GPU Memory Errors" auslesen was praktisch mit zählt wann ECC eingreift.
Mit der 580er wird da auch beim größen RAM OC nichts angezeigt! "Neu" ist die 580 ja nicht und auch HWInfo hat seit erscheinen der Karte schon tausend Updates bekommen, trotzen leider immer noch nichts ;(
gravitationsfeld
2017-08-10, 22:35:50
Keine Consumer-Karte hat ECC. RX 580 und RX 480 sind bis auf Taktraten identische Karten.
h2096524
2017-08-11, 00:08:24
Keine Consumer-Karte hat ECC. RX 580 und RX 480 sind bis auf Taktraten identische Karten.
Und trotzdem kann ich bei der 480 die Daten auslesen und mit der 580 nicht.
Absolut saubere und genaue Sache beim Speicher OC!
Edit: "The register hwinfo reads is a count of how many errors the memory controller found and corrected. The errors themselves are happening in the controller, not on the vram."
... Wie auch immer, ändert sich trotzdem nichts an der Frage und an der Funktion wie ich es bis her eingesetzt habe :P
Darkseth
2017-08-11, 11:07:32
Keine Consumer-Karte hat ECC. RX 580 und RX 480 sind bis auf Taktraten identische Karten.
Nein, stimmt so nicht.
Das Fertigungsverfahren ist ein minimal anderes / besseres, wodurch die höheren Taktraten überhaupt erst möglich geworden sind.
Tarkin
2017-11-14, 07:45:29
https://www.youtube.com/watch?v=rcr8yHNdnSo&feature=youtu.be
Wolfenstein liegt Polaris wirklich extrem gut. Praktisch selbe fps wie 1070ti bei deutlich besseres Frame times! WOW!
aufkrawall
2017-11-14, 10:01:12
Die Frametimes sind wahrscheinlich ungültig, wenn mit der GeForce auch der Power-Wert überwacht wurde. Mit dem letzten Treiber gibts damit ein Problem mit Stuttering:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11538510&postcount=24
dargo
2017-11-14, 10:51:37
https://www.youtube.com/watch?v=rcr8yHNdnSo&feature=youtu.be
Wolfenstein liegt Polaris wirklich extrem gut. Praktisch selbe fps wie 1070ti bei deutlich besseres Frame times! WOW!
Das sprengt ja sogar meine Erwartungen. :freak:
dildo4u
2018-01-24, 14:21:55
Computerbase mit neuen Bench Parcours 580 vs 1060 in 1440p.
https://www.computerbase.de/2017-12/grafikkarten-round-up-2018/2/#diagramm-rating-99th-percentile-frametimes-in-fps-2560-1440
vinacis_vivids
2018-02-28, 00:50:51
CrossFire RX580 mit >100% Skalierung!
Deus Ex DX12
QHD min: 30fps ->60fps +100% avg: 36fps ->75fps +108%!
UHD min: 14fps ->28fps +100% avg: 18fps ->38fps +111%!
http://hexus.net/tech/reviews/graphics/107647-sapphire-radeon-rx-580-nitro-crossfire/?page=6
Geas of War DX12
QHD min: 48fps ->95fps +98% avg: 58fps ->115fps +98%!
UHD min: 24fps ->46fps +92% avg: 28fps ->57fps +103%!
http://hexus.net/tech/reviews/graphics/107647-sapphire-radeon-rx-580-nitro-crossfire/?page=8
SKYNET
2018-02-28, 09:55:15
CrossFire RX580 mit >100% Skalierung!
Deus Ex DX12
QHD min: 30fps ->60fps +100% avg: 36fps ->75fps +108%!
UHD min: 14fps ->28fps +100% avg: 18fps ->38fps +111%!
http://hexus.net/tech/reviews/graphics/107647-sapphire-radeon-rx-580-nitro-crossfire/?page=6
Geas of War DX12
QHD min: 48fps ->95fps +98% avg: 58fps ->115fps +98%!
UHD min: 24fps ->46fps +92% avg: 28fps ->57fps +103%!
http://hexus.net/tech/reviews/graphics/107647-sapphire-radeon-rx-580-nitro-crossfire/?page=8
frag mich ob 2x 570 nicht die bessere wahl wären, leistungstechnisch ca. 20% unter dem gezeigten, dafür aber um die 140W weniger verbrauch im crossfire verbund.
Dino-Fossil
2018-02-28, 11:19:33
Mal abgesehen davon, dass ich bei einer angeblichen Skalierung >100% vorsichtig wäre - am sinnvollsten für die 5xx Serie wäre mMn undervolting in Kombination mit leicht abgesenkten Taktraten.
Also rein wenn es um die Optimierung von Perf/Watt geht.
Das bringt schon bei meiner RX480 einiges ohne zu viel Performance zu verlieren, bei der weiter hochgepeitschten 5xx Serie vermutlich noch mehr.
Ist aber zugegeben nur bedingt für "offizielle" Reviews geeignet.
vinacis_vivids
2018-04-06, 06:00:52
RX570 4GB vs GTX1060 3GB
+75% AMD
lgrrh7RDlhE
MadManniMan
2018-04-06, 07:36:14
RX570 4GB vs GTX1060 3GB
+75% AMD
http://youtu.be/lgrrh7RDlhE
Wie wäre es mit + 75 % für die Karte mit mehr Speicher?
dildo4u
2018-04-06, 07:56:57
Jup bei PCGH ist die 1060 6gb schneller als Fury x.Hängt komplett am Vram.
dargo
2018-04-06, 08:08:15
Wie wäre es mit + 75 % für die Karte mit mehr Speicher?
Deine Rechnung wird nicht aufgehen, auch wenn hier eine RX580 zum Einsatz kommt.
1pY1OX-92Bo
MadManniMan
2018-04-06, 08:30:57
Deine Rechnung wird nicht aufgehen, auch wenn hier eine RX580 zum Einsatz kommt.
http://youtu.be/1pY1OX-92Bo
Ich wollte damit nicht sagen, dass es rein daran hängen würde. Mir ging es nur darum zu fragen, warum man so ein Erstaunen ausdrücken muss, wenn ein offensichtlicher Speicherkrüppel gegen eine 4-GB-Karte antritt.
Oder verkenne ich, dass man das sehr wohl kommunizieren muss?
dargo
2018-04-06, 08:57:23
Ich habe dich falsch verstanden. Ich ging davon aus du meinst wenn man eine 6GB GTX1060 nimmt wäre diese 75% schneller als die RX570 4GB.
Daredevil
2018-04-06, 10:16:06
Du gehst aber auch von Dingen aus, die sich niemand zurecht reimen würde. :D
vinacis_vivids
2018-04-06, 18:55:43
WII idtech LL-API:
Wolfenstein 2 1060 3GB 1060 6GB RX570 4GB RX580 8GB
min 30 70(233%) 75(250%) 100(333%)
avg 63 100(159%) 110(175%) 140(222%)
max 97 129 139 174
So eine vernichtende Niederlage gabs noch niemals in der GPU-History zwischen konkurrierenden Produkten. Pascal altert mieserabel.
Lehdro
2018-04-06, 19:36:32
So eine vernichtende Niederlage gabs noch niemals in der GPU-History zwischen konkurrierenden Produkten.
R600 und NV 30 schon vergessen, oder einfach nur zu jung?
Pascal altert mieserabel.
In einem Game. Die Spiele in denen Pascal Polaris in der Luft zerfetzt werden einfach ausgeblendet um die eigene Filterblase nicht zu belasten.
vinacis_vivids
2018-04-06, 19:59:18
Selbst in heavy Gameworked Games (AC:O) liegt AMD niemals soweit hinten ;)
=Floi=
2018-04-06, 21:04:54
WII idtech LL-API:
Wolfenstein 2 1060 3GB 1060 6GB RX570 4GB RX580 8GB
min 30 70(100%) 75 100
avg 63 100(100%) 110 140
max 97 129 139 174
bis hierhin hast mal ein absolut normales und brauchbares post gemacht.
hier zeigst ja selbst, dass der 3gb karte mit den einstellungen (!) der speicher ausgeht.
langsam sollte man aber auch zu schnelleren karten gehen.
weder die 1060er noch die 580er zieht bald noch die wurst vom teller. Es geht und man kann damit zocken, aber es geht eben auch schneller.
Lehdro
2018-04-06, 21:05:39
Selbst in heavy Gameworked Games (AC:O) liegt AMD niemals soweit hinten ;)
Ich cherrypicke dann mal um dein Argument zu egalisieren:
https://abload.de/img/fortnite2tri8.jpg
Quelle (https://www.computerbase.de/2018-03/fortnite-pubg-overwatch-benchmarks-mittelklasse/2/#diagramm-fortnite-1920-1080)
vinacis_vivids
2018-04-06, 21:19:17
Ihr macht euch nur lächerlich. Die 1060 3GB krebst bei WII mit 30fps rum während die RX570 90fps bei Fortnite zeigt.
aufkrawall
2018-04-06, 21:22:07
In anspruchsvollen Szenen sind die fps viel niedriger und dann darf man mit einer 470 in 1080p schon schön Details runterstellen.
Lehdro
2018-04-07, 00:51:05
Ihr macht euch nur lächerlich. Die 1060 3GB krebst bei WII mit 30fps rum während die RX570 90fps bei Fortnite zeigt.
1. Ist das kein Worst Case, da droppts nochmal gewaltig. Viel Spaß bei mittleren Details.
2. Welches Spiel hat wohl mehr Relevanz für potentielle Käufer? Eins welches du 1-2 mal durchspielst, oder den Kracher des Jahres mit Millionen von aktiven Spielern jeden Tag?!
AMD muss endlich aufwachen und die richtigen Kirmeskracher ordentlich zum laufen bekommen: PUBG, Fortnite etc
Das spielen die Leute wie verrückt, wenn deine Hardware da underperformed (im Vergleich zu, das muss man durchaus mal zugeben, ordentlich optimierten Spielen wie WII und Doom), sieht das einfach nur scheiße aus für deine potentiellen Kunden. Die Hardware könnte es ja, es liegt wie immer an der Optimierung. Und das kostet Geld - Geld was AMD lange Zeit nicht hatte um es dort zu investieren wo es richtig Rendite bringt - in der Öffentlichkeitswahrnehmung der 08/15 Kunden die eben keine Hardwaregurus sind.
vinacis_vivids
2018-04-07, 01:02:46
Es ist das PP, das bei Fortnite neben Schatten ~70% Performance abzieht. PP kann unter HL-API kein AC verwenden und bricht daher bei AMD ein. Also ein API-Limit. Ein API-Update löse die Schleuse ohne dass Nvidia schlecht aussieht.
aufkrawall
2018-04-07, 03:24:12
Auf dem PC gibts dummerweise meist nur Async Kaputt.
Es ist das PP, das bei Fortnite neben Schatten ~70% Performance abzieht.
Sollte das der Fall sein (KP) hat es eh keine Relevanz. Man muss in dem Spiel PP auf die niedrigste Stufe stellen, weil man sonst wegen dem DOF nichts mehr erkennt. Kein Witz
vinacis_vivids
2018-04-07, 16:34:43
UHD hab ich 25-27fps alles epic. PP off und shadow off sind es 65-85fps
dildo4u
2018-04-07, 16:46:42
Selbst in heavy Gameworked Games (AC:O) liegt AMD niemals soweit hinten ;)
AC: O nutzt kein Gameworks,das Game kackt ab auf dem AMD Treiber ab weil es das CPU Lastigste auf dem Markt ist.
Es hat kein HBAO+,kein HTFS,kein PCSS,kein VXAO,kein Hairworks,kein Turf,kein PhysX.
vinacis_vivids
2018-04-07, 17:28:06
Hä? Natürlich ist AC:O heavy (l)gameworked. Gameworkfrei sind u.a. Forza, AotS, Doom und WII
aufkrawall
2018-04-07, 17:41:19
UHD hab ich 25-27fps alles epic. PP off und shadow off sind es 65-85fps
Weil dann Shadow Maps komplett aus sind...
Grendizer
2018-04-07, 18:59:11
Hä? Natürlich ist AC:O heavy (l)gameworked. Gameworkfrei sind u.a. Forza, AotS, Doom und WII
Ubisoft says it hasn't used any Nvidia GameWorks libraries this time, and told us, "We have been working very closely with both AMD and NVIDIA for quite a while (and continue to do so) to allow us maximize performance on both GPUs. We are committed to taking advantage of any performance gains available with the new drivers to help players have the best experience they can in ACO with the hardware they have. You can expect we will take the opportunity to make any tweaks which lead to performance gains in the upcoming updates."
https://www.pcgamer.com/assassins-creed-origins-performance-guide/
dildo4u
2018-04-07, 19:18:00
Games die im Nvidia Programm sind bekommen eigentlich immer solche Performance Einschätzungen wie Destiny 2 hier,AC: O wird hier nur nebenbei erwähnt ohne extra Infos.
https://www.geforce.com/whats-new/articles/destiny-2-game-ready-driver
Grendizer
2018-04-08, 14:42:48
Hmm... Polaris bekommt einen weiteren Refresh ?
https://www.3dcenter.org/news/geruechtekueche-polaris-re-refresh-kommt-mit-den-modellen-radeon-rx-540x-550x-560x-570x-580x
dargo
2018-04-25, 18:25:50
Kennt hier jemand einen guten Test zur Sapphire Pulse Radeon RX 580 8GD5 wo es speziell um den Kühler geht? Also Temps. und Lüfterdrehzahlen? Mich interessiert besonders der Vergleich zur Sapphire Nitro+ Radeon RX 580 8GD5. Ich kenne nur das hier, was etwas ungenau ist. Sind halt nur dB Angaben.
https://www.kitguru.net/components/graphic-cards/dominic-moass/sapphire-rx-580-pulse-8gb-review/12/
Edit:
Hier habe ich schon was halbwegs brauchbares gefunden. Vier HPs sind schon mal sehr gut.
https://abload.de/img/grakauho6i.jpg
Was zu den Lüfterdrehzahlen sieht man im Video (https://www.youtube.com/watch?v=ar26JGpiyqw) auch.
https://abload.de/img/graka_16spyc.jpg
Irgendwie kommen mir die Lüfterdrehzahlen aber zu hoch vor und die GPU zu kühl. Normalerweise peilt Sapphire bei P20 74-75°C an. Hat der Typ also an der Lüftersteuerung selbst gedreht? Und hat die Pulse auch zwei Biose mit unterschiedlichem PT-Limit wie die Nitro+?
Manno... ich finde einfach kein vernünftiges Review für die Pulse. :usad: Hier spielt der Typ einfach zu kurz, die GPU wird ja kaum warm.
https://www.youtube.com/watch?v=B9LT3LoOrsM#t=3m19s
Und selbst mit 63°C steht der Lüfter weiter auf 16%. Kann es sein, dass diese 16% noch der Zero-Fan-Modus ist und die Lüfter per Default erst ab 65°C anspringen?
Igor TH
2018-05-02, 07:10:31
Ich dachte, ich teste das Teil mal. Ist ja ASRock's Erste :D
Erstversuch im Test: ASRock RX 580 Phantom Gaming X (http://www.tomshardware.de/asrock-grafikkarte-benchmark-leistungsaufnahme-lautstarke,testberichte-242473.html)
https://i.imgur.com/WgR3YDF.jpg
Leistungsaufnahme, Temperaturen + Infrarot, Platinenanalyse und Lüfterkurven + Lautstärke natürlich wie immer mit drin ;)
=Floi=
2018-05-02, 07:13:19
1 jahr später und wenn die nächste karte der konkurrenz vor der tür steht.
Loeschzwerg
2018-05-02, 07:20:05
Dennoch ein grundsolider Einstieg ins Geschäft. Jetzt gilt nur abzuwarten wie sich die Karte preislich einordnet.
Mir gefällt die Karte ganz gut. Nüchtern und auf das Wesentliche beschränkt.
dargo
2018-05-02, 08:54:13
Naja... der Kühler überzeugt schon mal nicht. Trotz "nur" 184W ganze 80°C an der GPU im geschlossenen Gehäuse bei recht hohen 2.000+ RPM. Da gibts wesentlich besseres bei P20.
Loeschzwerg
2018-05-02, 08:55:36
Ich sag's mal so, der Masse reicht das völlig aus ;) Das muss halt jetzt noch im Verhältnis zum Preis passen.
dargo
2018-05-02, 09:12:36
Aus Asien bestimmt. Wobei... dafür ist sie noch zu leise. :D
Igor TH
2018-05-02, 10:04:45
Naja, Pegatron hat das doch am Ende noch ganz gut und günstig hinbekommen. ASRock ist doch auch nur ein Platzhalter der Konzernmutter. Man sieht ja schon am PCB-Maker, wo das Zeug eigentlich herkommt.
Nun kann man am Mining-Boom endlich auch mitpartizipieren, denn die Karte eignet sich vor allem wegen der simplen Strickweise recht gut. Bissl spät dran, aber was soll's...
Aus Asien bestimmt. Wobei... dafür ist sie noch zu leise. :D
Für Asien bestimmt... :D
Laut Asrock sollen die Karten übrigens nicht nach Europa kommen.
BlackArchon
2018-05-02, 19:19:23
Hm, also für 250 Euro würde ich so eine Vernunfts-RX 580 schon kaufen.
aufkrawall
2018-05-02, 19:25:58
Was ist denn eine Vernunft-Karte? Auf 190W geprügelten Polaris 10 würd ich jedenfalls schon mal nicht so einordnen.
Mit manuellem Tweaking ist dann wieder jede Karte ohne Schrott-Kühler mit Hotspots vernünftig.
Als Vergleich muss man etwa mal sehen, dass die 1060 Gaming X von MSI @ 1,9GHz eine TDP von 130W hat, die in Spielen quasi nie erreicht wird.
Daredevil
2018-05-02, 19:28:59
Es gibt vernünftige Polaris 580er? :D
Ich dachte, die Vernünftigkeit ist eh vom Wechsel der 480er aufgegeben worden.
https://www.computerbase.de/2017-04/radeon-rx-580-570-test/3/#diagramm-performance-pro-watt-1920-1080
http://abload.de/img/unbenanntulot9.png
SKYNET
2018-05-02, 19:47:02
Was ist denn eine Vernunft-Karte? Auf 190W geprügelten Polaris 10 würd ich jedenfalls schon mal nicht so einordnen.
Mit manuellem Tweaking ist dann wieder jede Karte ohne Schrott-Kühler mit Hotspots vernünftig.
Als Vergleich muss man etwa mal sehen, dass die 1060 Gaming X von MSI @ 1,9GHz eine TDP von 130W hat, die in Spielen quasi nie erreicht wird.
und wo die 6GB speicher, schnell mal nicht mehr ausreichen :P
haters gonna hate :rolleyes:
aufkrawall
2018-05-02, 20:00:37
Da sich die Preise wieder angeglichen haben, würde ich mittlerweile auch die 580 vorziehen (nicht für mich, aber für Empfehlungen).
Würde ich für mich kaufen, würde ich allerdings nur auf Kühler/PCB schauen und sonst nichts. Manuelles Tweaken hatte schon mit der als ineffizient verschrienen MSI 390 Gaming hier einwandfrei geklappt.
Igor TH
2018-05-03, 15:59:26
Ärgerlich. Warum auch immer.
AMD untersagt ASRock den Verkauf seiner Grafikkarten in Europa (http://www.tomshardware.de/amd-asrock-grafikkarten-europa-nicht_verfugbar,news-259293.html)
SKYNET
2018-05-03, 16:02:44
Ärgerlich. Warum auch immer.
AMD untersagt ASRock den Verkauf seiner Grafikkarten in Europa (http://www.tomshardware.de/amd-asrock-grafikkarten-europa-nicht_verfugbar,news-259293.html)
bestimmt haben asus, gigabyte und MSI ihre finger im spiel... "wenn asrock da verkaufen darf, nehmen wir weniger/keine GPUs mehr ab"... wobei das AMD eigentlich puppe sein kann, weil diese würden dann asrock, powercolor usw. mehr abnehmen, also nur eine umverteilung stattfinden, weil dann dort die nachfrage grösser wäre wenns woanders keine mehr gibt.
frag du doch mal dezent bei AMD nach wieso, weshalb und warum ;)
pilzsammler2002
2018-05-03, 16:04:04
Ärgerlich. Warum auch immer.
AMD untersagt ASRock den Verkauf seiner Grafikkarten in Europa (http://www.tomshardware.de/amd-asrock-grafikkarten-europa-nicht_verfugbar,news-259293.html)
Strange :/
Igor TH
2018-05-03, 16:08:17
Strategische (https://de.wikipedia.org/wiki/Strategie_(Milit%C3%A4r)) Entscheidung - was auch immer man darunter verstehen mag.
Daredevil
2018-05-03, 16:14:49
Vielleicht will AMD ja ihr Portfolio diversifizieren.
Sie schicken Asrock viele Karten, damit sie mit ihrer "Spar Version" die Mining Community abdeckt in Fernost, während die restlichen Hersteller ihr Gaming gedöns in Europa auf den Markt schmeißt und das durch Mining nicht blockiert wird.... oder auch nicht. Wasn quatsch. :c
Igor TH
2018-05-03, 18:05:58
Ich verstehe es auch nicht. Erst machen sie auf dicke Hose mit Video und Gedöns und jetzt wird's einfach galant ausgeblendet.
SKYNET
2018-05-03, 20:16:29
Ich verstehe es auch nicht. Erst machen sie auf dicke Hose mit Video und Gedöns und jetzt wird's einfach galant ausgeblendet.
frag doch mal nach... ;)
Kriton
2018-05-03, 20:52:27
Es werden einige langjährige Partner ein Problem damit haben. Und man verärgert sicher niemanden, der einem auch bei Durststrecken die Treue gehalten hat (Sapphire z.B.), nur weil jemand um die Ecke kommt und am Mining Boom partizipieren will.
Igor TH
2018-05-03, 21:20:36
frag doch mal nach... ;)Siehe vorige Seite. Strategische Entscheidung. Langsam sind dann alle bei AMD weg, die es noch hätten ausplaudern können. Nun ja, zwei habe ich noch...
Es ist ja eine Frage des Gesamtbusiness. Pegatron als ASRock-Mutter beliefert ja auch einige direkte Mitbewerber, auch als White-label. Ich denke mal, da wird wohl was kollidieren.
=Floi=
2018-05-03, 22:05:49
hätte AMD da nicht NV anrufen können? weil eigentlich sind die ja die bad boys. ;D
schon kranker shit. Wenn es jamenden nicht passt, dann sollte man das aber vorher regeln und nicht hinterher und dann noch geld verbrennen. AMD braucht jede verkaufte GPU.
USA und ROW sind dagegen egal?
TheGood
2018-05-03, 22:11:45
Verstehe die Aufregung nicht....
So wie es aussieht war ASRock sehr bewusst, dass Sie diese Grafikkarten nicht in Europa verkaufen werden, sonst hätte der Sales Manager ja nicht so doof gefragt -Y Also alles soweit abgesprochen - alle waren im Bilde nur die Kunden nicht.
Die Frage ist eher warum man das überhaupts macht... Da stimme ich zu das ist schon etwas dämlich....
Igor TH
2018-05-04, 06:46:41
Man hätte, wie am Anfang Gigabyte mit der RX Vega auch, einfach mal so 60 Karten an z.B. Caseking liefern können. Visibility da, Zweck erfüllt, Kunden eingelullt, Reviewer beruhigt. Passt scho.
dargo
2018-05-04, 06:51:51
Es gibt bei P20 genug Alternativen mit besseren Kühlern. Von daher sehe ich das nicht so eng.
Igor TH
2018-05-04, 07:11:39
Mir ist es prinzipiell ja auch Wurst - nur muss man, wenn man so eine PR-Maschine in Gang setzt (und mehr als PR ist es ja erst einmal nicht), auch wenigstens im Ansatz konsequent bleiben und das auch durchziehen. Sonst macht man sich lächerlich.
Asrock schrieb mir: "Asrock will first sell the graphic cards in Asia Pacific and Latin America based on the agreement with AMD."
... wollte da aber nicht näher drauf eingehen.
fondness
2018-05-05, 20:17:57
Laut Hardware.info sind die Karten von ASRock für den asiatischen Markt gedacht und sollen helfen, AMDs dort sehr geringen Marktanteil bei Grafikkarten auszubauen. Einige der AMD-only-Grafikkartenhersteller seien dort kaum vertreten – diese Lücke soll ASRock füllen. In Europa aber auch den USA ist die Situation eine andere, weil die großen Boardpartner von AMD hier bereits für deutliche höhere Marktanteile gesorgt haben. Auch spielen hier die Beziehungen von AMD zu den Partnern eine Rolle, heißt es abschließend.
https://www.computerbase.de/2018-05/asrock-phantom-gaming-verkauf-europa/
Igor TH
2018-05-06, 08:56:55
Alles Scheinargumente. In Asien gibt es noch Giada, Afox und zig andere Butzen, die AMD-Karten stempeln und deutlich mehr könnten, wenn denn mehr Packages kämen. XFX (Pine) hatte seinerzeit mit dem Kauf des HIS-Labels ja auch vor, verstärkt wieder in Asien präsent zu sein - eingestellt mangels, naja, Ihr wisst schon. Ich bin mit Nelson, dem ehemaligen Sales-Chef von HIS befreundet, der sitzt quasi auf Rente und wird fürstlich fürs Nichtstun belohnt, weil es bei HIS nichts mehr zu produzieren gibt. Macht ja auch keinen Sinn, das Vorhandene noch zwischen XFX und HIS aufzuteilen, zumal ja alles mittlerweile ja eh die gleichen Platinen sind. Die Dinger gehen ab Fabrik mittlerweile direkt zu den Großabnehmern der Blockchain-Nazis. Es wären genügend Chips für den Consumer-Markt da, nur existiert dieser eben nicht mehr allein.
Hier geht es m.E. einzig und allein um Verteilungskämpfe auf dem verbliebenen Consumer-Markt, denn keiner von uns kennt ja die genauen Veträge, die AMD mit den global Playern hat. Und ASRock ist doch nur als Platzhalter vors Loch geschoben. Den Deal zwischen AMD und der Konzernmutter Pegatron würde ich gern kennen. Allein schon der PCB-Maker der ASRock-Karte passt da so gar nicht ins Bild der ASRock-Alleinunterhalterrolle. Aber wir werden wohl erst dann schlauer sein, wenn irgendeiner der Beteiligten plaudert.
Flattermann
2018-05-06, 18:44:45
@ Igor TH
Naja...so aus reiner Sicht des potenziellen Käufers ist es ja um die Phantom-Serie von ASRock überhaupt nicht schade.
Man hat sich bei ihr wirklich nur auf das Nötigste beschränkt. Die Karten halten die Specs ein, mehr nicht. Sie sind weder besonders kühl, leise, hochwertig oder sonst auf irgendeine Weise herausragend. Und das alles meine ich nichtmal böse. :)
Als wirklich ärgerlich empfinde ich hingegen die Grafikkartenpreise beider Chiphersteller und das AMDs aktuelle Architekturen im Gamingbereich so stark unterlegen sind. Selbst mit Vega, HBM und Taktraten weit über dem Sweetspot kann man dem GP102 nicht gefährlich werden. Und von der lächerlich hohen Leistungsaufnahme (Vega & Polaris) will man gar nicht erst anfangen.
Man sollte echt anfangen wie Nvidia voll und ganz aufs Gaming zugeschnittene Architekturen anzubieten, anstatt aus Kostengründen Kompromisse zwischen Gaming und Compute einzugehen und dann später auch noch mit diesem "Fine Wine" Marketing-Gesülze die zu die langsamen Treiberoptimierungen schönzureden.
Immerhin kümmert man sich anständig um den Linux-Support und nette Extras wie z.B das Radeon Overlay.
Igor TH
2018-05-07, 09:21:16
So, ich habe die News noch einmal geupdatet. Und siehe da, noch eine Überraschung...
Ich weiß ja nicht, wen Hardware.info gefragt haben möchte, wohl aber kaum die Sales-Abteilung im ASRock Headquarter :D
http://www.tomshardware.de/amd-asrock-grafikkarten-europa-nicht_verfugbar,news-259293.html
Mangel76
2018-05-07, 09:21:45
@ Igor TH
Naja...so aus reiner Sicht des potenziellen Käufers ist es ja um die Phantom-Serie von ASRock überhaupt nicht schade.
Man hat sich bei ihr wirklich nur auf das Nötigste beschränkt. Die Karten halten die Specs ein, mehr nicht. Sie sind weder besonders kühl, leise, hochwertig oder sonst auf irgendeine Weise herausragend. Und das alles meine ich nichtmal böse. :)
Als wirklich ärgerlich empfinde ich hingegen die Grafikkartenpreise beider Chiphersteller und das AMDs aktuelle Architekturen im Gamingbereich so stark unterlegen sind. Selbst mit Vega, HBM und Taktraten weit über dem Sweetspot kann man dem GP102 nicht gefährlich werden. Und von der lächerlich hohen Leistungsaufnahme (Vega & Polaris) will man gar nicht erst anfangen.
Man sollte echt anfangen wie Nvidia voll und ganz aufs Gaming zugeschnittene Architekturen anzubieten, anstatt aus Kostengründen Kompromisse zwischen Gaming und Compute einzugehen und dann später auch noch mit diesem "Fine Wine" Marketing-Gesülze die zu die langsamen Treiberoptimierungen schönzureden.
Immerhin kümmert man sich anständig um den Linux-Support und nette Extras wie z.B das Radeon Overlay.
Man sollte echt anfangen wie Nvidia...? Alles, nur das nicht!!!
Mal abgesehen vom sehr fragwürdigen Geschäftsgebaren Nvidias (neuestes Beispiel GPP) kann AMD einfach nicht so agieren wie Nvidia oder Intel. Viele begreifen das anscheinend nicht. AMD ist zu klein um a) verschiedene spezialisierte GPUs für Gaming und professionelle Anwendungen aufzulegen oder b) viele verschiedene CPU-Dies von 2C bis 28C auflegen. Das wäre ökonomischer Selbstmord!
Im CPU-Bereich geht der Plan, mit nur einem Die möglichst viele Anwendungsbereiche abzudecken, mit Zen wunderbar auf. Es ist für Intel echt beschämend, dass AMD mit einem Bruchteil des Budgets für R&D mit nur einem Die vom einfachen Mobilprozessor bis zum HC-Serverprozessor so gut mithalten kann.
Im GPU-Bereich ist es etwas anders, da funktioniert so eine Strategie wohl nicht (siehe Diskussion um Skalierbarkeit bei NAVI). Für AMD ist es wichtig, dass ihre GPUs für beides eingesetzt werden können. Wie sollen sie denn die horrenden Ausgaben, die NVIDIA z.B. für V100 getätigt hat, jemals wieder reinkriegen? Dazu sind die Verkaufszahlen einfach zu gering. Die einzige Chance ist eben, mit wenigen GPUs ein möglichst breites Anwendungsfeld abzudecken. Auch wenn man dann nicht überall ganz vorne liegt, so kann man dann mit geringerer Marge trotzdem noch etwas Geld verdienen.
Aber es stimmt natürlich, VEGA ist schon etwas enttäuschend. Allerdings kriegt man den auch relativ genügsam bei ansprechender Leistung, wenn man eben nicht das letzte FPS rausquetscht. Aber das Urproblem von GCN, die schlechte Größenskalierung, muss mit NAVI endlich gelöst werden!
Kriton
2018-05-07, 22:48:44
ASRock got into the GPU game with cryptocurrency mining in mind. Indeed, it was initially reported that they were launching mining-based SKUs. What I've been told -- and I confirmed this twice over the phone and again via email -- is that in Europe, ASRock has decided not to sell Phantom Gaming graphics cards commercially. They won't appear in online or brick-and-mortal PC retail shops. They are only intended for miners and industrial use. Furthermore, the minimum order quantity for these customers is 500 pieces.
Clearly this contradicts comments from the ASRock representative who spoke to Tom's Hardware Germany.
Hervorhebung durch mich.
https://www.forbes.com/sites/jasonevangelho/2018/05/07/no-amd-is-not-banning-newest-radeon-gpu-partner-from-selling-in-europe/#36080e683802
Daredevil
2018-05-07, 23:05:57
Ja aber... es gibt doch "professionelle" Mining Karten. An der Asrock Karte ist doch absolut nichts anders, als an den anderen Gaming RX580 Karten auch. Eine richtige Mining Karte brauch weder so viele Ausgänge, noch so eine "hübsche" Dual Slot Kühllösung.
Das kauf ich denen irgendwie nicht ab, dass so eine hübsche Retail Verpackung nur in die Industrie soll.
Aber gut, dass Asrock Avancen für Mining hat, ist ja auch nichts neues.
http://www.legitreviews.com/wp-content/uploads/2013/11/H61-Pro-BTCm2.jpg
Loeschzwerg
2018-05-08, 06:26:57
Über die offiziellen Kanäle wird man seinen Partner auch nicht an den Nagel hängen. Logisch, oder? ;)
Igor TH
2018-05-08, 08:25:55
Wir haben jetzt genau drei sehr unterschiedliche Aussagen, alle von ASRock selbst.
Die erste, die vom EU Sales Chef in den Niederlanden stammt und der mit dem Finger auf AMD zeigt (meine Ur-News), das offizielle Statement aus dem ASRock HQ (Sales) mit den ausgewählten Verkaufsregionen (Update in meiner News) und dem Forbes-Zitat, was mir auch persönliche Kontakte im HQ nicht bestätigen konnten, wollten oder durften.
Digidi
2018-05-08, 08:52:40
Wie immer wenn es um solche Geschichten geht: Es geht um Makrtanteile und dadurch am Ende dann immer um das liebe Geld.
Da Europa ein relative kleiner Markt ist und der Markt auch noch viele unterschiedliche Bestimmungen und Sprachen hat wundert es mich nicht das AMD hier nur einige Partner zulässt. Am Ende fällt der Markt ganz ab weil es für keine Partner mehr Lohnenswert ist in die EU zu liefern, weil die Stückzahlen zu klein und damit zu unwirtschaftlich sind.
Kriton
2018-05-08, 10:04:50
Kann man denn verifizieren ob das mit den mindestens 500 Stück Abnahmemenge korrekt ist?
Igor TH
2018-05-08, 10:47:25
Ich habe den ASRock-Manager noch einmal privat gefragt. Damit das Original nicht googlefähig ist, habe ich es mal übersetzt. Den Schluss-Teil möchte ich niemandem vorenthalten, der Rest ist wirklich privat:
Ha ha, ich hoffe, sie werden mich nicht wegen dieser kleinen Unterhaltung töten. Wie auch immer, es wird woanders geleakt, wenn nicht von mir...
Da ASRock offensichtlich PR-Nebelkerzen verschießt, das wahre Business anscheindend im Dunkeln bleiben soll und AMD nur noch schmallippig auf ASRock verweist, war's das dann wohl. Da wird sich keiner mehr äußern. Damit können wir das eigentlich abschließen, denn die Spekulation gehört in den Spekulatius-Fred.
dargo
2018-05-10, 18:29:38
Ist es normal, dass bei P20 der Speichertakt in Idle auf volle Pulle @2000Mhz läuft wenn der Bildschirm auf 144Hz steht? Ist nämlich hier der Fall in Idle. Stelle ich den Bildschirm auf 120Hz oder weniger habe ich meine 300Mhz Speichertakt. Oder gibt es einen Workaround dafür? Adrenalin 18.3.4 ist drauf. Display per DP angeschlossen.
von Richthofen
2018-05-10, 21:41:00
Mir ist jedenfalls keiner bekannt. Die vormalige RX 480 hat das auf meinem alten 144Hz Monitor genauso zelebriert.
Screemer
2018-05-10, 22:54:42
Man kann mit Cru versuchen die pixelclock soweit zu senken, bis sie derer von 120hz entspricht. Reduced Timings sind da schon Mal ein Stichwort. Vielleicht reichen auch schon Werte der pixelckock über 120hz. Das kannst du ganz einfach testen in dem du dir Auflösungen mit 121, 122, 123, etc. erstellst und schaust ob dann noch runter getaktet wird.
dildo4u
2018-05-14, 09:35:52
vYQiVsvmvwc
Flattermann
2018-05-14, 18:52:16
Man sollte echt anfangen wie Nvidia...? Alles, nur das nicht!!!
Mal abgesehen vom sehr fragwürdigen Geschäftsgebaren Nvidias (neuestes Beispiel GPP)[...]
Mir Worte in den Mund zu legen, nur um zusätzliche Argumente zu haben - glaubst du wirklich, dass dir das irgendetwas nützt?
Ich rede nur von den GPUs selbst.
Viele begreifen das anscheinend nicht. AMD ist zu klein um a) verschiedene spezialisierte GPUs für Gaming und professionelle Anwendungen aufzulegen oder b) viele verschiedene CPU-Dies von 2C bis 28C auflegen. Das wäre ökonomischer Selbstmord!
Das weiß hier jeder, nur interessiert das in letzter Konsequenz keinen Menschen. Am Ende des Tages wird das gekauft, was den eigenen Anforderungen am Besten entspricht. Und im Gegensatz zu den wirklich hervorragenden Zen+ Prozessoren mangelt es den aktuellen Grafikkarten massiv an irgendwelchen Vorzügen, solange es ums reine Gaming geht. Und genau letzteres ist für die meisten (hier) doch das A und O.
Im CPU-Bereich geht der Plan, mit nur einem Die möglichst viele Anwendungsbereiche abzudecken, mit Zen wunderbar auf. Es ist für Intel echt beschämend, dass AMD mit einem Bruchteil des Budgets für R&D mit nur einem Die vom einfachen Mobilprozessor bis zum HC-Serverprozessor so gut mithalten kann.
Das soll ja wohl hoffentlich kein kaufentscheidendes Argument sein.
Ist durchaus verständlich, dass du (und vermutlich viele Andere) so denken, nichtsdestotrotz wäre es völlig bekloppt irgendetwas aus Sympathie zu kaufen. Nichts für Ungut, aber aus dem Alter bin ich raus...
Im GPU-Bereich ist es etwas anders, da funktioniert so eine Strategie wohl nicht (siehe Diskussion um Skalierbarkeit bei NAVI)
Richtig und genau das geht mir bei den AMD-Karten auf Nüsse. Ich hoffe wirklich, dass AMD in Zukunft das nötige Kleingeld zusammenkratzen kann um endlich dedizierte, sparsame Chips für Gamer zu entwickelt und das auch beibehält. Ryzen verkauft sich ja anscheinend sehr gut, was schonmal eine positive Änderung im Vergleich zu den Jahren davor ist.
DrFreaK666
2018-05-14, 20:38:32
...Ist durchaus verständlich, dass du (und vermutlich viele Andere) so denken, nichtsdestotrotz wäre es völlig bekloppt irgendetwas aus Sympathie zu kaufen. Nichts für Ungut, aber aus dem Alter bin ich raus...
Es ist also kindisch wenn man nicht den Marktführer unterstützt sondern den Underdog?
Die meisten Menschen verstehen nicht, dass sie eine sehr große Macht haben – zumindest als Schwarm. Wählen mit dem Geldbeutel hat große Auswirkungen. Man muss das dennoch egoistisch betrachten, denn ein Monopol führt mit Sicherheit zu höheren Preisen. Und das will man ja nicht, also muss man bei sich bietenden Gelegenheiten dagegensteuern. Derzeit gibt es kaum einen Grund, nicht zu einer AMD-CPU zu greifen. Nach guten Gründen für eine AMD-GPU muss man in einigen Segmenten etwas suchen, doch es gibt sie. Das war schon mal anders, da waren Radeons teils deutlich überlegen, aber was kümmert das schon die "Nach uns die Sintflut"-Fraktion ... ;)
MfG,
Raff
Botcruscher
2018-05-14, 23:43:01
Die Leute nutzen für einen wertlosen Keks aktiv Spyware mit Fernwartungsfunktion und du kommst hier mit dem Argument Verantwortungsvoller Konsum. :freak: Die billigste günstigste 8GB 580 ist derweil noch immer mit 100€ Preisaufschlag für 298,- zu haben. Die Alternative zur 56er-plus vom Konkurrenten gab es derweil auch in dem Preisbereich von 400€ - als Herstellerkarte und nicht als Fön.
Als Sahnehäupchen geht dann das (bekannte) Totalversagen des AMD Managements durch. Der Konkurrent freut sich über Steigerungen im Wert jenseits des AMD GPU Geschäfts.
Ja das Verhalten von Kunden mag dämlich sein aber Mitleid macht auch nichts besser. PS: Polaris wird bald zwo. Da ist es schon hart für 300+€ einen Grund zu finden.
dargo
2018-05-15, 06:36:35
PS: Polaris wird bald zwo. Da ist es schon hart für 300+€ einen Grund zu finden.
Ich fand den Grund eigentlich ganz simpel.
Für Einsteiger möglichst billig.
https://geizhals.de/aoc-g2590vxq-a1744411.html?hloc=de
Für 144Hz Liebhaber.
https://geizhals.de/aoc-g2590px-a1744367.html?hloc=de
Bei Nvidia muss ich für den G-Sync Einstieg mindestens 350€ für den Bildschirm berappen. Und eine GTX1060 6GB mit nem brauchbaren Kühler kriegst du auch nicht für unter 325€.
pilzsammler2002
2018-05-15, 08:45:35
Derzeit gibt es kaum einen Grund, nicht zu einer AMD-CPU zu greifen. Nach guten Gründen für eine AMD-GPU muss man in einigen Segmenten etwas suchen, doch es gibt sie.
Alleine wegen Freesync sollten die karten doch wirklich weggehen wie warme Semmeln. Das bissel mehr Stromverbrauch ist eh immer nur nen Grund um die Karten zu "haten". Wer merkt 100w (das ist schon sehr hoch angesetzt) mehr :freak:
Das man sie (egal ob 560 oder rx 64) trotzdem leise bekommt (das Argument Lautstärke finde ich etwas sinnvoller) zeigt ja z.B. Sapphire. Man darf halt nicht ne runtergesparte ROG oder so kaufen... ;D;D;D
dargo
2018-05-15, 09:08:53
Da ich jetzt die Sapphire Nitro+ RX580 8GB einige Tage in Verwendung hatte kann ich diese absolut für jeden 1080p Gamer empfehlen. Das Silent-Bios mit max. 1340Mhz ist ideal und man bekommt praktisch eine lautlose RX580. Wenn man noch manuell Hand anlegen möchte kriegt man mit etwas Undervolting noch eine sehr sparsame RX580. Das einzige was mir nicht 100% gefallen hat ist, dass die Karte im Performance-Bios 75°C und im Silent-Bios 76°C anpeilt. Finde ich persönlich etwas hoch. Aber vielleicht bin ich auch aktuell von der Vega LCE zu sehr verwöhnt. :tongue: Wäre die RX580 meine eigene würde ich eher 70-72°C anpeilen und etwas UV (50-75mV) verwenden. Schon hat man die perfekte 1080p Karte.
Mangel76
2018-05-15, 09:21:03
Die meisten Menschen verstehen nicht, dass sie eine sehr große Macht haben – zumindest als Schwarm. Wählen mit dem Geldbeutel hat große Auswirkungen. Man muss das dennoch egoistisch betrachten, denn ein Monopol führt mit Sicherheit zu höheren Preisen. Und das will man ja nicht, also muss man bei sich bietenden Gelegenheiten dagegensteuern. Derzeit gibt es kaum einen Grund, nicht zu einer AMD-CPU zu greifen. Nach guten Gründen für eine AMD-GPU muss man in einigen Segmenten etwas suchen, doch es gibt sie. Das war schon mal anders, da waren Radeons teils deutlich überlegen, aber was kümmert das schon die "Nach uns die Sintflut"-Fraktion ... ;)
MfG,
Raff
Ich könnte ja jetzt anfangen, unseren jungen Flattermännern die Hintergründe zu erläutern (Wettbewerb vs. Monopol und die Auswirkungen auf die Konsumentenrente, Spieltheorie und individuell vs. gesellschaftlich rationales Verhalten, ...), aber das wäre wohl wie Perlen vor die Säue werfen. Es gibt heute leider immer mehr Leute, die denken, nur weil sie bei Google den niedrigsten Preis gefunden haben, etwas ganz tolles geleistet zu haben. Dabei reicht es dann nicht mehr soweit, auch mal über den Tellerrand hinaus zu sehen (Wieso Tellerrand? Ich sehe ringsum nur Porzellan!)
Das weiß hier jeder, nur interessiert das in letzter Konsequenz keinen Menschen. Am Ende des Tages wird das gekauft, was den eigenen Anforderungen am Besten entspricht.
...
Ist durchaus verständlich, dass du (und vermutlich viele Andere) so denken, nichtsdestotrotz wäre es völlig bekloppt irgendetwas aus Sympathie zu kaufen. Nichts für Ungut, aber aus dem Alter bin ich raus...
...
Richtig und genau das geht mir bei den AMD-Karten auf Nüsse. Ich hoffe wirklich, dass AMD in Zukunft das nötige Kleingeld zusammenkratzen kann um endlich dedizierte, sparsame Chips für Gamer zu entwickelt und das auch beibehält. Ryzen verkauft sich ja anscheinend sehr gut, was schonmal eine positive Änderung im Vergleich zu den Jahren davor ist.
Genau so ein unreflektiertes Verhalten führt uns direkt ins Monopol. Nvidia wird jeder Mist verziehen, weil sie ja die eigenen "Bedürfnisse" besser befriedigen. AMD wird vorgeworfen, dass sie mit den begrenzten Mitteln nicht mindestens so gut sind, wenn nicht noch besser! Nur ich, jetzt und sofort! Und wer nicht nur auf das reine Produkt, sondern auch auf andere Aspekte seines Kaufes achtet, wird dann als bekloppt oder Fanboy hingestellt. Bei Bio-Produkten sind auch viele Leute bereit, mehr zu zahlen für das gleiche Produkt, wenn damit die Anbau- oder Haltungsbedingungen verbessert werden. Eine rationale Entscheidung sollte mehr berücksichtigen als die reinen Produkteigenschaften. Oder würde jemand bewusst, z.B. Klamotten aus Kinderarbeit kaufen, weil die günstiger sind als welche, die von Erwachsenen hergestellt wurden? Ich für meinen Teil finde durchaus rationale Gründe für AMD-Produkte sogar ohne das FreeSync-Argument. Aber ich fürchte, viele werden dieses (geistige) Alter nie erreichen, in dem man über das reine Produkt hinaus sehen kann.
SKYNET
2018-05-15, 09:32:02
Alleine wegen Freesync sollten die karten doch wirklich weggehen wie warme Semmeln. Das bissel mehr Stromverbrauch ist eh immer nur nen Grund um die Karten zu "haten". Wer merkt 100w (das ist schon sehr hoch angesetzt) mehr :freak:
Das man sie (egal ob 560 oder rx 64) trotzdem leise bekommt (das Argument Lautstärke finde ich etwas sinnvoller) zeigt ja z.B. Sapphire. Man darf halt nicht ne runtergesparte ROG oder so kaufen... ;D;D;D
75W sinds im schnitt bei den custom modellen, dafür bekommt man 5% mehrleistung und viel wichtiger: 8GB speicher im vergleich zur 1060. :smile:
SKYNET
2018-05-15, 09:46:17
Ich könnte ja jetzt anfangen, unseren jungen Flattermännern die Hintergründe zu erläutern (Wettbewerb vs. Monopol und die Auswirkungen auf die Konsumentenrente, Spieltheorie und individuell vs. gesellschaftlich rationales Verhalten, ...), aber das wäre wohl wie Perlen vor die Säue werfen. Es gibt heute leider immer mehr Leute, die denken, nur weil sie bei Google den niedrigsten Preis gefunden haben, etwas ganz tolles geleistet zu haben. Dabei reicht es dann nicht mehr soweit, auch mal über den Tellerrand hinaus zu sehen (Wieso Tellerrand? Ich sehe ringsum nur Porzellan!)
Genau so ein unreflektiertes Verhalten führt uns direkt ins Monopol. Nvidia wird jeder Mist verziehen, weil sie ja die eigenen "Bedürfnisse" besser befriedigen. AMD wird vorgeworfen, dass sie mit den begrenzten Mitteln nicht mindestens so gut sind, wenn nicht noch besser! Nur ich, jetzt und sofort! Und wer nicht nur auf das reine Produkt, sondern auch auf andere Aspekte seines Kaufes achtet, wird dann als bekloppt oder Fanboy hingestellt. Bei Bio-Produkten sind auch viele Leute bereit, mehr zu zahlen für das gleiche Produkt, wenn damit die Anbau- oder Haltungsbedingungen verbessert werden. Eine rationale Entscheidung sollte mehr berücksichtigen als die reinen Produkteigenschaften. Oder würde jemand bewusst, z.B. Klamotten aus Kinderarbeit kaufen, weil die günstiger sind als welche, die von Erwachsenen hergestellt wurden? Ich für meinen Teil finde durchaus rationale Gründe für AMD-Produkte sogar ohne das FreeSync-Argument. Aber ich fürchte, viele werden dieses (geistige) Alter nie erreichen, in dem man über das reine Produkt hinaus sehen kann.
bin da 100% bei dir, aber: leistungsklasse oberhalb 1080 gibt es nix mehr von AMD als gegenspieler, und bei sehr kleinen cases(ITX) kann man schnell mal in thermische probleme kommen mit einer vega64, heisst da ist man dann ggf. mit ner 1080 besser bedient... sehe es ja bei mir, bevor ich mein case am unterboden unterhalb der graka nicht gelocht hatte wie nen schweizer käse, war mit der RX580 schon nach 30-40 minuten fertig, treiber absturz weil die GPU bzw. die ganze karte gekocht wurde. die 1060 machte das immerhin weit über ne stunde mit bevor das gleiche spiel passierte. erst nach der mod aktion lief auch die RX580 komplett absturzfrei und niemals über 75°c. mit der 1080Ti wäre das sicherlich ohne mod nach 20-25 minuten schon passiert, und mit ner vega64 wohl noch schneller :freak:
wenn AMD wieder was hat, am oberen ende der leistungsklasse der mitbewerber, kommt mir auch wieder was von denen rein(solange es keine dual-GPU ist :ulol: )
Mangel76
2018-05-15, 10:11:44
bin da 100% bei dir, aber: leistungsklasse oberhalb 1080 gibt es nix mehr von AMD als gegenspieler, und bei sehr kleinen cases(ITX) kann man schnell mal in thermische probleme kommen mit einer vega64, heisst da ist man dann ggf. mit ner 1080 besser bedient...
So etwas meinte ich ja auch nicht. Je nach Use-Case gibt es natürlich bestimmte Mindestanforderungen, die erfüllt sein müssen. Und wenn es da nichts von Hersteller A gibt, greift man natürlich zu Hersteller B.
Ich denke aber, dass viele "Bedürfnisse" eher eingebildet bzw. von Werbung und Umwelt "eingeimpft" werden. Ich habe auch einen 144Hz-Monitor, weil das zunächst toll klang. Meine Graka wird aber gedrosselt, weil ich auch mit 60FPS ein flüssiges Spielerlebnis habe und so die Lautstärke, Wärmeentwicklung und Stromverbrauch verringern kann. Ich selbst brauche keine 144 Hz (bin auch kein FPS-Spieler)! Mittlerweile überlege ich schon, ob ich nicht auf einen anderen Monitor mit weniger Hz, dafür aber mit besserem Panel (mit HDR?) umsteigen sollte, denn Bildqualität erscheint mir mittlerweile wichtiger als die letzten FPS. Niemand ist frei von dieser Beeinflussung, aber manche merken es halt irgendwann, andere leider nie :D
x-force
2018-05-15, 10:22:59
Genau so ein unreflektiertes Verhalten führt uns direkt ins Monopol. Nvidia wird jeder Mist verziehen, weil sie ja die eigenen "Bedürfnisse" besser befriedigen. AMD wird vorgeworfen, dass sie mit den begrenzten Mitteln nicht mindestens so gut sind, wenn nicht noch besser!
ich hab schon 1dm pro mhz bei amd gelassen. wenn intel aber ~20% mehr leistung für mein geld bietet, muss amd mind ~25% günstiger sein, damit ich kaufe und da sollten dann keine extremen ausreißer nach unten vorhanden sein. hätten sie sich nach phenom die luftpumpe gespart, hätten sie auch nicht dermaßen den anschluß verpasst und ich würde wahrscheinlich heute noch amds kaufen und besitzen.
Oder würde jemand bewusst, z.B. Klamotten aus Kinderarbeit kaufen, weil die günstiger sind als welche, die von Erwachsenen hergestellt wurden? Ich für meinen Teil finde durchaus rationale Gründe für AMD-Produkte sogar ohne das FreeSync-Argument.
ja würde ich, ich bin schließlich nicht für die politischen bedingungen hier und anderswo verantwortlich. im gegenteil sogar, aber die mehrheit will den kapitalismus ohne folgen für die obersten. dann sollen sie ihn haben, wenn sie nicht in der lage sind zu realisieren, was sie alle 4 jahre wählen.
warum sollten sich die beine anstrengen, wenn der kopf gar nicht die position verändern will?
das ist genauso naiv wie sich einzureden, man würde ja etwas für eine bessere welt tun, weil man den doppelten preis im bio laden zahlt, aber alle 4 jahre das kreuz sowieso wieder bei einer partei macht, die das system unterstützt(und das sind alle aktuell im bundestag sitzenden!)
Flattermann
2018-05-15, 10:30:30
Wow, jetzt muss man sich schon als üblen Egoist der Leichen geht bezeichnen lassen, weil man wegen dem miesen Leistung-pro-Watt-Verhältnis bei Vega und Polaris 10 eine Karte von der Konkurrenz bevorzugt. :D
An der Stelle mal folgendes Zitat zu einer beliebten Customkarte:
Warum wir dieses Übersichten an dieser Stelle überhaupt hinzuziehen? Die Sapphire RX 580 Nitro+ LE liegt immerhin bei der Leistungsaufnahme im Gaming auf dem gleichen Niveau, wie Nvidias am höchsten übertaktete Boardpartnerkarte der GeForce GTX 1080! Wir wollen damit in erster Linie zeigen, dass es an der Zeit für einen Generationswechsel ist, denn so sympathisch eine RX 580 auch sein mag, im direkten Vergleich kann sie aktuell nur verlieren.
http://www.tomshardware.de/rx580-benchmark-leistungsaufnahme-sapphire-nitro,testberichte-242347-6.html
Irgendwo ist halt auch mal Schluss mit den Kompromissen, nur darum geht es.
AMD ist und bleibt wie alle anderen auch ein gewinnorientierter Konzern, der im Grunde genauso verlogen und gierig ist wie alle anderen ("Fine Wine" z.B) - naja wenn auch nicht so widerlich übertrieben wie Nvidia und Mr. Lederjacke. Hm, dieses good cop - bad cop dogma wird den Leuten wohl nie aus dem Kopf gehen, was ständig zu solchen Auswüchsen führt.
Und Mangel76: Mal von dem sinnlosen ad hominem "Attäckchen" abgesehen, sind deine Vergleiche mit Bioprodukten absolut deplatziert. Bei der Halbleiterbranche im allgemeinen fällt unglaublich viel Dreck an, das macht auch eine kundenfreundlichere, offenere Produktpolitik (im Vergleich zu Nvidia) nicht wieder wett. Es sei denn die können Zaubern...
dargo
2018-05-15, 10:52:32
An der Stelle mal folgendes Zitat zu einer beliebten Customkarte:
http://www.tomshardware.de/rx580-benchmark-leistungsaufnahme-sapphire-nitro,testberichte-242347-6.html
Irgendwo ist halt auch mal Schluss mit den Kompromissen, nur darum geht es.
Ist da tomshardware etwa unfähig das Silent-Bios zu aktivieren? Kann ich mir bei igor eigentlich nicht vorstellen. Denn mit dem Silent-Bios sieht es schon etwas anders aus. Dann erreichst du einige Customs der GTX1070 was den Stromverbrauch angeht.
Menace
2018-05-15, 11:08:02
Ist durchaus verständlich, dass du (und vermutlich viele Andere) so denken, nichtsdestotrotz wäre es völlig bekloppt irgendetwas aus Sympathie zu kaufen. Nichts für Ungut, aber aus dem Alter bin ich raus...
Und Mangel76: Mal von dem sinnlosen ad hominem "Attäckchen" abgesehen, sind deine Vergleiche mit Bioprodukten absolut deplatziert.
Ad hominem geht in beide Richtungen. Wenn Du meinst, dass man für Käufe, in dem man mehr Gründe als nur Balkenlängen hat, ein gewisses Alter (ich übersetze das mal jetzt als Reife und nicht als Demenz) nicht überschreiten darf, dann ist das auch beleidigend. Und völlig bekloppt, lasse ich auch mal stehen. :biggrin:
Trotzdem gebe ich Dir in einen Punkt Recht, AMDs Marketing schoss weit über ihr Ziel bei der GPU Sache hinaus. Auch das machten sie bei Zen besser.
Ich würde momentan schon allein wegen Wattman und OpenCl-Anwendungen wieder zu Radeon greifen. Und da ich mit 3+ Monitore arbeiten, auch wegen der Sparsamkeit jenseits vom kurzen Zocken. Die Frage der Effizienz ist eben auch gepaart, was die Hauptanwendungen auf die meiste Zeit ist.
SKYNET
2018-05-15, 11:12:18
So etwas meinte ich ja auch nicht. Je nach Use-Case gibt es natürlich bestimmte Mindestanforderungen, die erfüllt sein müssen. Und wenn es da nichts von Hersteller A gibt, greift man natürlich zu Hersteller B.
Ich denke aber, dass viele "Bedürfnisse" eher eingebildet bzw. von Werbung und Umwelt "eingeimpft" werden. Ich habe auch einen 144Hz-Monitor, weil das zunächst toll klang. Meine Graka wird aber gedrosselt, weil ich auch mit 60FPS ein flüssiges Spielerlebnis habe und so die Lautstärke, Wärmeentwicklung und Stromverbrauch verringern kann. Ich selbst brauche keine 144 Hz (bin auch kein FPS-Spieler)! Mittlerweile überlege ich schon, ob ich nicht auf einen anderen Monitor mit weniger Hz, dafür aber mit besserem Panel (mit HDR?) umsteigen sollte, denn Bildqualität erscheint mir mittlerweile wichtiger als die letzten FPS. Niemand ist frei von dieser Beeinflussung, aber manche merken es halt irgendwann, andere leider nie :D
sehe ich ja ähnlich mit den fps.... im singleplayer langen mir ehrlichgesagt mittlere 20er bereiche(gut, mit der 1080ti wird das unter FHD noch eine weile dauern bis mir das bei games wieder passiert mit allen reglern auf rechts), und multiplayer zocke ich nicht, von daher :redface:
und bevor wer rumblökt: ja ich sehe den unterschied von 24fps zu 60fps... aber 24fps langen durchaus für ein flüssiges spielvergnügen :P
Flattermann
2018-05-15, 11:26:35
@ dargo
Und wie viel leistet so eine Custom GTX 1070 mehr als eine Custom RX 580 mit Silent Bios? Ich wiederhole mich...
@ Menace
Ja, das hätte ich freundlicher formulieren können Menace, aber wozu? Auch in abgeschwächter Form wäre doch klar, was ich von reinen Sympathiekäufen (nur um des Ausgleichs willen) halte. Da kann ich doch gleich aus der Blume heraus sagen, was ich denke. Die Frage ist doch, warum kratzt das überhaupt jemanden so sehr, was ein Random-Dude aus dem Internet denkt, besonders wenn er doch "so falsch liegt". ;)
Abgesehen davon habe ich das überhaupt nicht böse ihm gegenüber gemeint, siehe den letzten Satz. Das ist übrigens für mich doch das schöne am Nicht-Redakteur-sein: Man kann sagen was man denkt, ohne auf jeden Buchstaben achten zu müssen.
dargo
2018-05-15, 11:51:44
@ dargo
Und wie viel leistet so eine Custom GTX 1070 mehr als eine Custom RX 580 mit Silent Bios?
Bei weitem nicht genug um den Nachteil von keinem Freesync-Support aufzuwiegen. Ohne FS ruckelts nämlich immer! Und nein, Vsync On @60fps ohne VRR ist für mich keine zufriedenstellende Option. Menace hat es ganz gut auf den Punkt gebracht... Balkenlänge ist eben im Gamingbereich nicht alles.
btw.
Bei entsprechender Software leistet die nichts mehr. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11550449&postcount=370
N0Thing
2018-05-15, 12:32:04
Bei weitem nicht genug um den Nachteil von keinem Freesync-Support aufzuwiegen. Ohne FS ruckelts nämlich immer! Und nein, Vsync On @60fps ohne VRR ist für mich keine zufriedenstellende Option. Menace hat es ganz gut auf den Punkt gebracht... Balkenlänge ist eben im Gamingbereich nicht alles.
Du kannst doch nicht nach deinem Einwand, ein anderes BIOS würde die Balkenlänge beim Stromverbrauch reduzieren, nun den berechtigten Einwand zur Performance ignorieren und auf FreeSync verweisen. :freak:
Wenn es nur darum geht, spielt es auch keine Rolle, welches BIOS THG in ihrem Review verwendet hat und VRR bekommt man auch bei Nvidia, wenn man denn will.
Menace
2018-05-15, 12:38:41
Balkenlänge ist eben im Gamingbereich nicht alles.
Und Gaming-Bereich ist erst Recht nicht alles, um sich für eine GPU/Modell/Marke zu entscheiden. [btw, meine Nano kämpft gerade beim 9. Penthalon für Planet3DNow mit].
@Flattermann: Zu viele Worte, um sich rauszuwinden. Auch nicht böse gemeint und doch, eigentlich sollte man durchaus auf seine Worte achten, wenn man mit anderen kommunizieren möchte. Zumindest, wenn man ein gewisses Alter erreicht hat. :freak: :wink:
Mangel76
2018-05-15, 12:43:46
Auch in abgeschwächter Form wäre doch klar, was ich von reinen Sympathiekäufen (nur um des Ausgleichs willen) halte.
Das ist dann natürlich wieder das Totschlagargument - jeder, der mehr als die reinen Produkteigenschaften in seine Kaufentscheidungen einfließen lässt, ist natürlich Sympathiekäufer bzw. Fanboy.
q.e.d.
ja würde ich, ich bin schließlich nicht für die politischen bedingungen hier und anderswo verantwortlich.
...
das ist genauso naiv wie sich einzureden, man würde ja etwas für eine bessere welt tun, weil man den doppelten preis im bio laden zahlt, aber alle 4 jahre das kreuz sowieso wieder bei einer partei macht, die das system unterstützt(und das sind alle aktuell im bundestag sitzenden!)
ohne Worte
dildo4u
2018-05-15, 14:05:54
btw.
Bei entsprechender Software leistet die nichts mehr. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11550449&postcount=370
Wurde längst per Treiber gefixt.
http://abload.de/img/index32sji.png
http://www.guru3d.com/articles_pages/galax_geforce_gtx_1070_ti_hof_review,20.html
Die RX 580 ist mit steigender Auflösung und maximalen Details (weder Ultra noch Mein Leben! sind maxed) immer noch sehr nah an einer GTX 1070: http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/2/#a21
Ultra HD:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=63376&stc=1&d=1526387068
Und natürlich ist das Spiel eine Ausnahmeerscheinung.
MfG,
Raff
pilzsammler2002
2018-05-15, 14:30:20
Leider die Ausnahme :(
Das Spiel zeigt am besten was eigentlich möglich ist/wäre :(
SKYNET
2018-05-15, 14:33:15
Wurde längst per Treiber gefixt.
http://www.guru3d.com/articles_pages/galax_geforce_gtx_1070_ti_hof_review,20.html
trotzdem ist die polaris 20 extrem stark in diesem spiel, sie ist dort weit vor der 1060er, mehr als in den meisten anderen titeln... %ual auch dichter an der 1070 als an der 1060.
SKYNET
2018-05-15, 14:34:09
Leider die Ausnahme :(
Das Spiel zeigt am besten was eigentlich möglich ist/wäre :(
tja, rein von der rohpower würden die AMD karten ja die NV karten massivst vernichten... aber, leider hapert es an der umsetzung :ulol:
kannst ja auch kein 12 liter V8 triebwerk in nen polo bauen, ohne das getriebe und den rest anzupassen, dann verpufft die leistung halt im nirgendwo.
pilzsammler2002
2018-05-15, 14:41:51
kannst ja auch kein 12 liter V8 triebwerk in nen polo bauen, ohne das getriebe und den rest anzupassen, dann verpufft die leistung halt im nirgendwo.
Hält aber länger als der 1.0 3-zylinder TFSI :freak:
vinacis_vivids
2018-05-15, 15:47:22
MSI - RX Mech 2 series statt "Gaming" bzw. "Armor"
https://www.tweaktown.com/news/61894/msi-announces-radeon-rx-mech-2-series-led-580-570/index.html
dargo
2018-05-15, 16:04:02
Wurde längst per Treiber gefixt.
Da wurde gar nichts gefixt. :rolleyes: Im Video geht es um 1080p und wie so oft szenenabhängig.
SKYNET
2018-05-15, 16:47:16
MSI - RX Mech 2 series statt "Gaming" bzw. "Armor"
https://www.tweaktown.com/news/61894/msi-announces-radeon-rx-mech-2-series-led-580-570/index.html
haben zumindest schonmal einen besseren kühler(eine heatpipe mehr) als die "alten" 580er von MSI.
Blediator16
2018-05-15, 17:19:08
MSI - RX Mech 2 series statt "Gaming" bzw. "Armor"
https://www.tweaktown.com/news/61894/msi-announces-radeon-rx-mech-2-series-led-580-570/index.html
Das Jahr 1999 ruft an, will seine Verpackung wieder haben :rolleyes:
SKYNET
2018-05-15, 17:45:59
Das Jahr 1999 ruft an, will seine Verpackung wieder haben :rolleyes:
eh?
Flattermann
2018-05-15, 19:15:17
Zu viele Worte, um sich rauszuwinden.
Haha! Grandioser Witz.
Auch nicht böse gemeint und doch, eigentlich sollte man durchaus auf seine Worte achten, wenn man mit anderen kommunizieren möchte.Zumindest, wenn man ein gewisses Alter erreicht hat
Spießer.:biggrin:
Ich würde momentan schon allein wegen Wattman und OpenCl-Anwendungen wieder zu Radeon greifen. Und da ich mit 3+ Monitore arbeiten, auch wegen der Sparsamkeit jenseits vom kurzen Zocken. Die Frage der Effizienz ist eben auch gepaart, was die Hauptanwendungen auf die meiste Zeit ist.
Wie oft denn noch?
Davon redet hier niemand, ich kritisiere wie jeder lesen kann nur das Leistung-pro-Watt-Verhältnis beim Gaming. Da muss man jetzt nichts dazu dichten, damit man sich Gegenargumente aus den Fingern saugen kann. :wink:
MSI - RX Mech 2 series
Hmm, die MSI Karten sind auch immer individuell zu betrachten. Bis GTX 1070 leise und gut gekühlt, aber bei der GTX 1080 versagt die Kühlung, weil der Grafikspeicher zu heiß wird und bei der Ti befinden sich die Temperaturen an der Kotzgrenze. Wie es bei der RX 580 aussehen wird, sollte man schon durch einen richtigen Test klären. Soweit ich das sehe, hat Igor keine Radeons von MSI in letzter Zeit getestet. Dann lieber die RX 580 Nitro, da hat man eine bewährte Karte.
@ dargo
Beinahe vergessen:
https://img.purch.com/r/700x450/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9MLzAvNjYxNzE2L29yaWdpbmFsLzAxLUdhbWluZy5w bmc=
https://img.purch.com/w/711/aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS8wL0kvNjY4NzU0L29yaWdpbmFsLzAwLVdhdHRhZ2Ut T3ZlcnZpZXcucG5n
Wie kommst du da bitte auf die Idee, dass eine Custom GTX 1070 so viel wie die RX 580 Nitro im Silent Mode verbraucht? Du hast den Link mit dem Artikel + Textausschnitt davon selbst ins Zitat gepackt...
aufkrawall
2018-05-15, 20:36:54
MSI flasht auf Testkarten gerne mal andere Biose als bei den Retail-Karten real vorkommen. Meine 1070 Gaming X hatte eine TDP/100% PT von 220W und hat die je nach Spiel auch durchgängig erreicht (ohne irgendwelche Änderungen in ihrem DAU-OC Tool).
dargo
2018-05-15, 21:00:43
Wie kommst du da bitte auf die Idee, dass eine Custom GTX 1070 so viel wie die RX 580 Nitro im Silent Mode verbraucht?
Meine Quelle hat sich über mir selbst geäußert.
Edit:
Ansonsten hast du hier auch einen netten Vergleich.
https://www.computerbase.de/2016-10/geforce-gtx-1070-partnerkarten-vergleich-test/2/#abschnitt_so_viel_watt_kosten_die_hoeheren_taktraten
Ist zwar leider nur das Gesamtsystem. Dennoch verbraucht bsw. die MSI Gaming 74W mehr als die FE.
Bei der GTX1080 sieht es dann noch einen Tick schlechter aus.
https://www.computerbase.de/2016-08/msi-geforce-gtx-1080-gaming-x-test/4/#abschnitt_leistungsaufnahme
Die hungrigste Custom im Testfeld nuckelt mal eben beim Gesamtsystem 102W mehr als die FE.
Mangel76
2018-05-16, 10:11:03
Bei der GTX1080 sieht es dann noch einen Tick schlechter aus.
https://www.computerbase.de/2016-08/msi-geforce-gtx-1080-gaming-x-test/4/#abschnitt_leistungsaufnahme
Die hungrigste Custom im Testfeld nuckelt mal eben beim Gesamtsystem 102W mehr als die FE.
Da sieht man mal wieder, wie gut das Marketing von Nvidia funktioniert: bei den Konsumenten bleiben der Verbrauch der FE bei der Leistung einer Custom-Lösung hängen. Die FE-Versionen gehen zuerst in den Markt und begründen das Sparsamkeitsimage. Dann kommen die Customs und legen noch ne Schippe Leistung oben drauf. Das damit auch der Verbrauch deutlich steigt wird nur sehr vereinzelt wahrgenommen.
Marketing at its best, woran sich AMD ne Scheibe abschneiden könnte. Hier geht man ja den umgekehrten Weg und jagt schon die Referenzversionen auf Teufel komm raus hoch, um die Leistung (vermeintlich) zu maximieren. Kann sein, dass Lautheit und Verbrauch in einigen Teilen der Welt als Synonym für Leistung gilt. Bei uns in Europa gewinnt man so aber keinen Blumentopf. Dabei können auch AMDs Grafikkarten recht sparsam betrieben werden wenn man sie richtig einstellt.
SKYNET
2018-05-16, 11:14:16
Da sieht man mal wieder, wie gut das Marketing von Nvidia funktioniert: bei den Konsumenten bleiben der Verbrauch der FE bei der Leistung einer Custom-Lösung hängen. Die FE-Versionen gehen zuerst in den Markt und begründen das Sparsamkeitsimage. Dann kommen die Customs und legen noch ne Schippe Leistung oben drauf. Das damit auch der Verbrauch deutlich steigt wird nur sehr vereinzelt wahrgenommen.
Marketing at its best, woran sich AMD ne Scheibe abschneiden könnte. Hier geht man ja den umgekehrten Weg und jagt schon die Referenzversionen auf Teufel komm raus hoch, um die Leistung (vermeintlich) zu maximieren. Kann sein, dass Lautheit und Verbrauch in einigen Teilen der Welt als Synonym für Leistung gilt. Bei uns in Europa gewinnt man so aber keinen Blumentopf. Dabei können auch AMDs Grafikkarten recht sparsam betrieben werden wenn man sie richtig einstellt.
korrekt, sie könnten die dinger für die presse ja auch selektieren, einfach ein wenig weniger vcore, so das die kiste mit standardtakt noch sauber läuft, und beim relaise grad im treiber einstellungen freischaltenb für die tester "vcore +0.1V, powertarget off" etc. dann ist beim test ergebniss nicht nur "unglaublich sparsame karte bei der leistung, und extremes OC potential"... nur so als bleistift...
Botcruscher
2018-05-16, 11:19:22
Den Herstellern ist da vollkommen egal welcher Chip drunter steckt, für 10% Leistung ist alles egal. Der entscheidende Punkt sind eher die noch vorhanden Reserven bei NV während bei AMD schon alles auf dem Zahnfleisch geht. Der letzte Chip mit OC Potential war dort Tahiti. Hawaii, Fiji und besonders Vega leiden dann am Powervirus. Polaris wurde als 580 ja noch extra dahin geprügelt.
Da sieht man eher wie schlecht das AMD Marketing funktioniert. Nicht mal das Silentbios ist irgendwie optimiert.
SKYNET
2018-05-16, 11:29:33
Den Herstellern ist da vollkommen egal welcher Chip drunter steckt, für 10% Leistung ist alles egal. Der entscheidende Punkt sind eher die noch vorhanden Reserven bei NV während bei AMD schon alles auf dem Zahnfleisch geht. Der letzte Chip mit OC Potential war dort Tahiti. Hawaii, Fiji und besonders Vega leiden dann am Powervirus. Polaris wurde als 580 ja noch extra dahin geprügelt.
Da sieht man eher wie schlecht das AMD Marketing funktioniert. Nicht mal das Silentbios ist irgendwie optimiert.
nicht zu vergessen der thames, das ding habe ich im NB und ist um 59% übertaktet(400 --> 635 :freak: und wäre der speicher nicht nur mit 64bit angebunden, würde damit sogar noch RotTR in FHD flüssig laufen, ohne alles auf absolutes minimum runter zu schrauben :mad: ), aber ich denke die zeiten sind vorbei :frown:
trotzdem ist die polaris 20 extrem stark in diesem spiel, sie ist dort weit vor der 1060er, mehr als in den meisten anderen titeln... %ual auch dichter an der 1070 als an der 1060.
So kann es auch aussehen (andere Richtung): Conan Exiles (http://www.pcgameshardware.de/Conan-Exiles-Spiel-56548/Specials/Benchmark-Test-Review-1256440/)
Weit verbreitete Unreal Engine 4. Hier ist Nvidia stark und AMD schwach – Hellblade (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/2/#a8) ist wohl aufgrund der Kombination von Schlauchlevels mit reichlich Post-Processing eine Ausnahme von dieser Regel.
MfG,
Raff
dildo4u
2018-05-16, 12:06:04
Ich finde die Hellblade Werte auch extrem schwach Vega 56 nicht mal 10% schneller als Fury X.Das skaliert hinten und vorne nicht scheint also nicht nur die CPU Last Schuld zu sein.
Dino-Fossil
2018-05-16, 12:08:42
Joa, gibt Ausschläge in beide Richtungen. Wobei bei Conan auch noch kein angepasster AMD-Treiber raus ist, das kann noch mal ein paar Platzierungen ändern.
Joa, gibt Ausschläge in beide Richtungen. Wobei bei Conan auch noch kein angepasster AMD-Treiber raus ist, das kann noch mal ein paar Platzierungen ändern.
Naja, irgendwie schon. Ist halt 'ne Weile her (Early Access). :ulol: Radeon Software Crimson ReLive Edition 17.1.2 für Conan Exiles und Ghost Recon Wildlands (http://www.pcgameshardware.de/AMD-Catalyst-Crimson-Grafikkarte-255517/News/1712-Conan-Exiles-Ghost-Recon-Wildlands-1219580/)
MfG,
Raff
Dino-Fossil
2018-05-16, 12:29:33
Achso, dachte der kommt erst mit dem Release. ;)
aufkrawall
2018-05-16, 12:33:21
Kann trotzdem noch was kommen, aber von ue4 dx11 sollte man einfach keine wunder für amd erwarten.
Ich finde die Hellblade Werte auch extrem schwach Vega 56 nicht mal 10% schneller als Fury X.Das skaliert hinten und vorne nicht scheint also nicht nur die CPU Last Schuld zu sein.
Jo, optimal ist das nicht, aber teilweise erklärbar. Die Vega-56-Referenzkarte wird stark von der Kühlung und den fließenden Strömen limitiert und befeuert ihre 3.584 ALUs daher nur mit ~1.300 MHz. Dieses Problem hat die versoffene, fluidgekühlte Fury X nicht, sie fährt konstant 1.050 MHz. Zusammen mit 4.096 Shadern ergibt das eine durchaus konkurrenzfähige Rechenleistung. Die Vega 64 LCE zeigt, was bei ähnlichem Verbrauch drin ist, nämlich bis zu +30 Prozent ... bei mehr als 50 Prozent mehr Takt. Nun ja.
MfG,
Raff
Screemer
2018-05-16, 12:36:16
Ue4 liegt AMD einfach nicht wirklich gut. Es gibt zwar immer wieder teils massive Performancesprünge in einzelnen games. Overall und unoptimiert läuft's einfach nicht. Imho sollte Epic sich da aber eher Mal auf den Arsch setzen als AMD. Am besten Mal zusammen, was sicherlich schon passiert ist. Warum man es dann aber nicht gebacken bekommt verstehe wer will.
SKYNET
2018-05-16, 14:05:16
So kann es auch aussehen (andere Richtung): Conan Exiles (http://www.pcgameshardware.de/Conan-Exiles-Spiel-56548/Specials/Benchmark-Test-Review-1256440/)
Weit verbreitete Unreal Engine 4. Hier ist Nvidia stark und AMD schwach – Hellblade (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/2/#a8) ist wohl aufgrund der Kombination von Schlauchlevels mit reichlich Post-Processing eine Ausnahme von dieser Regel.
MfG,
Raff
geht, die vega56 ist genau da wo sie sein sollte, auf augenhöhe mit der 1070, die 64 fällt dafür gegenüber der 1080 wieder gut zurück... :freak: weil die liquid sollte die 1080 ja -theoretisch- locker vernaschen... aber polaris ist da echt bitter :frown:
dargo
2018-05-16, 15:00:13
geht, die vega56 ist genau da wo sie sein sollte, auf augenhöhe mit der 1070, die 64 fällt dafür gegenüber der 1080 wieder gut zurück... :freak:
Wenn eine V56 gleichauf mit GTX1070 liegt wird eine V64 immer unter der GTX1080 landen. Das ergibt sich schon alleine daraus, dass der Performanceunterschied 1080 vs. 1070 größer ist als V64 vs. V56.
SKYNET
2018-05-16, 15:16:41
Wenn eine V56 gleichauf mit GTX1070 liegt wird eine V64 immer unter der GTX1080 landen. Das ergibt sich schon alleine daraus, dass der Performanceunterschied 1080 vs. 1070 größer ist als V64 vs. V56.
im normalfall liegt die 64er auf augenhöhe mit der 1080... im normalfall...
edit: mein fehler, die 56er sollte eigentlich auf höhe der 1070Ti sein :rolleyes:
*habnixgesagt*
Digidi
2018-05-16, 15:58:21
Mir geht die Zusammenarbeit der Enginehersteller wie unity auf den Keks. Die sollen zusehen das es auf allen Karten gut läuft. Wahrscheinlich wird hier wieder dank Verträgen von Nvidia nur auf NVIDIA optimiert.
aufkrawall
2018-05-16, 16:06:35
unity und cryengine laufen gut mit beiden herstellern, ist also schon sehr epic-spezifisch.
Und hört doch mal mit dem cpu-geblubber auf, es geht meist komplett um die performance im gpu-limit. immer wieder die gleiche leier, besonders von dildo...
dildo4u
2018-05-16, 16:09:15
Immer dein Cryengine Gehype,die läuft genau so grottig in CPU lastigen Open World Games.
https://www.computerbase.de/2018-02/kingdom-come-deliverance-benchmark-test/2/#abschnitt_grafikkartenbenchmarks_von_full_hd_bis_ultra_hd
aufkrawall
2018-05-16, 16:14:09
Was interessieren mich deine gammeligen fullhd-ergebnisse? in wqhd ist die 580 dort schneller als die 1060.
kannst du bei ue4 dx11 vergessen. langsam solltest du mal die grundlagen bez. des cpu-limits verstanden haben, hab aber keine hoffnung mehr...
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.