Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal GP106 (GeForce GTX 1060)
Screemer
2016-07-13, 18:23:23
Dank Vulkan haben wir unter Full HD jetzt 200FPS und in Ultra HD quasi keine mehr Leistung, wie ich schon geschrieben habe genau dort wo man die Leistung haben müsste.
da sind die gamer mit fx oder i3 und gpu aus der mittelklasse aber sicher anderer meinung.
Troyan
2016-07-13, 18:45:46
Die haben nVidia gekauft und haben ebenso keinen Vorteil. :lol:
Cyphermaster
2016-07-13, 18:45:49
Dank Vulkan haben wir unter Full HD jetzt 200FPS und in Ultra HD quasi keine mehr Leistung, wie ich schon geschrieben habe genau dort wo man die Leistung haben müsste.Wer sich über Mehrleistung for free auch noch beschwert, sollte sich imo mal fragen, ob ihm nicht irgendein Brett vor dem Kopf die Sicht versperrt.
dargo
2016-07-13, 18:49:18
Die haben nVidia gekauft und haben ebenso keinen Vorteil. :lol:
Ganz bestimmt. :comfort:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11099066&postcount=3197
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11099289&postcount=3205
Wer sich über Mehrleistung for free auch noch beschwert, sollte sich imo mal fragen, ob ihm nicht irgendein Brett vor dem Kopf die Sicht versperrt.
Besser kann man es nicht auf den Punkt bringen. (y)
Ja ist echt super wie Vulkan mit CF und SLI Skaliert. :wink:
Ja... CF und SLI sind besonders wichtig. :crazy: Wer sich das heute außerhalb von VR noch antut dem ist nicht mehr zu helfen.
Troyan
2016-07-13, 18:53:20
Ganz bestimmt. :comfort:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11099066&postcount=3197
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11099289&postcount=3205
i5? 170€ (http://geizhals.de/?fs=i5+4460&in=)? Low-End? Lesen?
Wir reden hier von sowas (http://geizhals.de/?cat=cpu1150&xf=25_2~5_Hyper-Threading#xf_top) oder solches (http://geizhals.de/?cat=cpuamdam3p).
dargo
2016-07-13, 18:54:37
Damit wird der User X mit einer NV Karte mindestens genauso viel Vorsprung durch Vulkan erleben.
Troyan
2016-07-13, 18:56:37
Da hat jemand eine >320€ Karte mit einem >170€ Prozessor kombiniert. Das hat niemand angesprochen.
Die meisten nVidia-User benötigen eine GTX970+, um überhaupt in Doom etwas von Vulkan zu bemerken. Bis auf Gebiete wie "The Forge" ist OpenGL im GPU-Limit (viel) schneller.
Screemer
2016-07-13, 18:59:33
nur, dass du mit einem fx und i3 eben auch häufig im cpu limit bist. meine güte, wie verblendet kann man denn sein.
ich bin mir recht sicher, dass da ein nachtest zb. bei pcgamer kommen wird. hier der test aus dem Mai, welcher unterschiedliche cpu/gpu konstellationen beleuchtet: http://www.pcgamer.com/heres-how-your-graphics-card-performs-in-doom/
dargo
2016-07-13, 19:04:52
@Troyan
Du kannst mir gerne erklären was sich an den Limitverhältnissen großartig ändert wenn man bsw. eine 200€ Grafikkarte mit einem 100€ Prozessor kombiniert. Ansonsten verweise ich auf den Post von Screemer.
Hakim
2016-07-13, 19:09:30
Könnte eigentlich der angebliche gute Wert beim Ashes unter DirectX12 bedeuten das auch unter Vulkan bei Pascal einiges rausholbar ist? Ist den AC standardmäßig eingeschaltet bei Ashes?
Cyphermaster
2016-07-13, 19:49:37
http://www.3dcenter.org/news/geforce-gtx-1060-3gb-kommt-angeblich-mit-abgespeckter-gp106-hardware-im-august
Hm. Könnte das eine geschickte Resteverwertung werden/sein, um einen Einstiegs-Preis schmerzfreier auf so niedrigem Level zu halten?
Mein Gedankengang dazu: Alles, was einen leichten Schaden hat oder wo sich eine Einheit als Taktbremse für den Chip rausstellt, wird teildeaktiviert zu einer günstigen 3GB-Version. Varianten, bei denen man entweder über den höheren Takt den Leistungsverlust kompensiert (Variante 1) oder sie unkompensiert (Variante 2) und wahrscheinlich mehr mit Ziel OEMs im Auge vertickt, wo diese Kastraten dann bei Komplettsystemen für DAUs mit dem guten Namen der großen Variante "GTX 1060" -ohne weitere Details, vielleicht auch als "SE" oder dergleichen übliche Titulation- immer noch gut genug verkaufbar sein dürften. Ohne erwartbar nennenswert negativen Einfluß auf die 6GB-Version, weil eben außerhalb dem (Review-irrelevanten) OEM-Segment praktisch nicht existent. :uponder:
Hakim
2016-07-13, 19:55:44
Das Ding hätte man einfach 1050 Benennen sollen.
dildo4u
2016-07-13, 19:59:31
Könnte eigentlich der angebliche gute Wert beim Ashes unter DirectX12 bedeuten das auch unter Vulkan bei Pascal einiges rausholbar ist? Ist den AC standardmäßig eingeschaltet bei Ashes?
Ja ist immer noch aktiv selbst auf Nvidia wenn man es nicht selber abschaltet.
Auf meiner 970 frisch installiert:
http://abload.de/img/ashedayncondez28.png
Per Hand abgeschaltet.
http://abload.de/img/ashescomputeoffmpjmp.png
Screemer
2016-07-13, 20:38:24
Das Ding hätte man einfach 1050 Benennen sollen.
Wenn man igors Aussage im 480 Faden für voll nimmt, was ich durchaus tue, dann werden die 1060 und die 1050 absolute effizienzmonster. Bin schon sehr gespannt.
Das Ding hätte man einfach 1050 Benennen sollen.
Eine solche wird sicher auch noch kommen. Da kann man dann aber von weniger als gp106-300 ausgehen. Was für ein winzchip wird das denn? Andere Möglichkeit ist natürlich gp106 noch weiter zusammen zu stutzen und die Resteverwertung zu maximieren.
Troyan
2016-07-13, 20:47:52
Purepc.pl schreibt einiges über GP106 in Notebooks:
https://translate.google.de/translate?sl=auto&tl=en&js=y&prev=_t&hl=de&ie=UTF-8&u=http%3A%2F%2Fwww.purepc.pl%2Fnotebooki%2Fgeforce_gtx_1060_mobile_pelny_uklad_g p106_trafi_do_laptopow&edit-text=
Voller Chip, Name ist GTX1060, 100Mhz weniger als die Desktopvariante, angeblich 65W TDP.
Cyphermaster
2016-07-13, 20:50:55
Wenn man igors Aussage im 480 Faden für voll nimmt, was ich durchaus tue, dann werden die 1060 und die 1050 absolute effizienzmonster. Bin schon sehr gespannt.Ich bin auch gespannt, würde die Aussage aber wenn, dann eher umdrehen: Wenn das so rauskäme, sprächen die Indizien dafür, daß P10 noch relativ kurz vor dem Launch unerwartete Probleme gemacht hat, und deshalb in der Effizienz zurückgesteckt werden mußte, um noch die Ziel-Performance zu erreichen.
(Indizien: frühere offizielle Aussagen von <150W vs. aktuellem Stand, bisher eher maue Taktbarkeit bei den Referenzkarten, offensichtlich eine 50/50 ausgelegte, daher nur bis 150W innerhalb der PEG-Specs liegende, Platinenprogrammierung...)
dargo
2016-07-13, 21:02:49
Dank Vulkan haben wir unter Full HD jetzt 200FPS und in Ultra HD quasi keine mehr Leistung, wie ich schon geschrieben habe genau dort wo man die Leistung haben müsste.
Schon mal daran gedacht, dass wenn man immer hardwarenäher programmiert irgendwann nicht mehr die API sondern die Hardware limitiert?
y33H@
2016-07-13, 21:29:05
Purepc.pl schreibt einiges über GP106 in Notebooks: Voller Chip, Name ist GTX1060, 100Mhz weniger als die Desktopvariante, angeblich 65W TDP.Hatten wir schon: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11095865&postcount=857
Btw ist Doom mit Vulkan wie erwartet nicht der Bringer auf der GTX 1060 ...
Troyan
2016-07-13, 21:40:11
Hatten wir schon: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11095865&postcount=857
Btw ist Doom mit Vulkan wie erwartet nicht der Bringer auf der GTX 1060 ...
Wundert mich nicht. Pascal skaliert nicht in Doom. Die GTX1070 ist <=50% schneller als eine GTX970. Die GTX1060 sollte hier also maximal GTX970 Niveau erreichen.
Konsolenengine zur Rettung von AMD. :freak:
Gorkon
2016-07-13, 22:00:54
Sobald DX12 / Vulkan mit Volta genau die gleichen Sprünge machen wird, werden sich auch bei euch die Fahnen wie im Wind drehen und LL der Heilige Gral sein...mark my words :deal:
Ansonsten:
Wer sich über Mehrleistung for free auch noch beschwert, sollte sich imo mal fragen, ob ihm nicht irgendein Brett vor dem Kopf die Sicht versperrt.
Schaffe89
2016-07-14, 01:52:41
Wer sich über Mehrleistung for free auch noch beschwert, sollte sich imo mal fragen, ob ihm nicht irgendein Brett vor dem Kopf die Sicht versperrt.
Also ich finde die mangelnde Leistungssteigerung unter 4K schon iregendwie abstrus. Scheint so als gibt es vorher irgend ein Limit unter OpenGL, das erst gelöst werden musste.
Schaffe89
2016-07-14, 01:55:54
Purepc.pl schreibt einiges über GP106 in Notebooks:
https://translate.google.de/translate?sl=auto&tl=en&js=y&prev=_t&hl=de&ie=UTF-8&u=http%3A%2F%2Fwww.purepc.pl%2Fnotebooki%2Fgeforce_gtx_1060_mobile_pelny_uklad_g p106_trafi_do_laptopow&edit-text=
Voller Chip, Name ist GTX1060, 100Mhz weniger als die Desktopvariante, angeblich 65W TDP.
Da muss aber beim GDDR5 Takt auch noch etwas eingespart worden sein, also der mit etwas weniger Takt laufen.
Insgesamt ist das echt ne heftige Effizienzsteigerung, ich sehe AMD´s Marktanteile bald bei <10%.
Undertaker
2016-07-14, 09:40:15
Das wäre nicht so wild, bei abgesenktem Takt und durch das 192-Bit-SI generell wäre die Karte ohnehin nicht sonderlich bandbreitenlimitiert. Aber ja, die Effizienz ist schon sehr geil... Ich bin mal auf die GM107/108-Nachfolger gespannt. :)
Cyphermaster
2016-07-14, 09:49:14
Also ich finde die mangelnde Leistungssteigerung unter 4K schon iregendwie abstrus. Scheint so als gibt es vorher irgend ein Limit unter OpenGL, das erst gelöst werden musste.Was ist daran abstrus? Es ist nun mal keine Steigerung der Leistung im Wortsinn, sondern umgekehrt eine Nutzbarmachung von bisher brachliegendem Leistungspotential. Je höher die Auflösung und je geringer der Rechenleistungs-Überschuß der Karte, desto weniger davon ist da, das man heben könnte.
Dural
2016-07-14, 09:50:08
Also wenn das stimmt ist das schon der Hammer :wink:
Wer sich über Mehrleistung for free auch noch beschwert, sollte sich imo mal fragen, ob ihm nicht irgendein Brett vor dem Kopf die Sicht versperrt.
Das ist es ja, ich habe keine Mehrleistung... :wink:
Cyphermaster
2016-07-14, 09:56:54
Das ist es ja, ich habe keine Mehrleistung... :wink:Und? Ist immer noch kein Grund, sich drüber zu beschweren, daß die Ingenieure in vielen Fällen noch Leistungsreserven freilegen konnten.
dargo
2016-07-14, 10:00:31
Das ist es ja, ich habe keine Mehrleistung... :wink:
Dann hast du ein schlecht ausbalanciertes System @low level. ;) Oder einfacher ausgedrückt. Deine CPU ist zu stark bzw. deine GPU zu schwach. Kannst es dir aussuchen.
Dural
2016-07-14, 10:04:14
6700K @ 4,5GHz
1080 @ 2GHz
32GB @ 3GHz
M2 SSD...
Mehr geht nicht ;) und ich habe auch Zweifel das meine FuryX in dem System mit Vulkan unter Ultra HD überhaupt etwas zulegen kann.
Meine Aussage ist nach wie vor, dort wo man die Leistung benödigt bringt Vulkan nichts. Und die erfahrung hat bis jetzt gezeigt das es so bleben wird.
dargo
2016-07-14, 10:11:44
Mehr geht nicht ;)
Das ändert nichts an meiner Aussage. Bei low-level hätte auch bsw. ein FX6300/8300 für einen Bruchteil des Preises vom 6700K gereicht. Oder eben was Vergleichbares von Intel. Was ist denn jetzt daran so schwer zu verstehen? Oder anders gefragt... was ist daran so schwer zu verstehen, dass eine 1080 für UHD noch viel zu lahm ist?
Screemer
2016-07-14, 10:13:13
das ist völliger bullshit. bei 1080p auf nem i5/i3/fx und ner 970/280/380/270/960 braucht man die leistung auch und da gibts massive gewinne. du solltest nicht immer von deinem anwendungsfall auf andere schließen, denn du bist eh schon am oberen ende der leistungsscala. da sind andere aber meilenweit entfernt.
dildo4u
2016-07-14, 10:17:00
Doom ist eh nicht der optimal Fall für Vulkan,das es schon auf Konsole mit 60fps läuft,es ist komplett harmlos was CPU Last angeht.Interresant wird es wenn Open Worldgame's wie Fallout,GTA 6,das näste Elder Scrolls es integieren.Die Frage ist wie viele Jahre wir davon weg sind.
dargo
2016-07-14, 10:42:02
Doom ist eh nicht der optimal Fall für Vulkan,das es schon auf Konsole mit 60fps läuft,es ist komplett harmlos was CPU Last angeht.Interresant wird es wenn Open Worldgame's wie Fallout,GTA 6,das näste Elder Scrolls es integieren.Die Frage ist wie viele Jahre wir davon weg sind.
Das kommt natürlich auch hinzu. Ein Openworld wie bsw. GTA oder Watch Dogs hat eine ganz andere CPU-Last als ein Schlauchshooter @Doom. Watch Dogs 2 ist gar nicht mal so weit weg. ;) Es sei denn es wird verschoben.
@Dural
Du hast doch eh zwei verschiedene Systeme. Steck die 1080 in das FX-System rein, lasse die CPU mit 3Ghz undervoltet was geht laufen und staune. ;) Eventuell musst du dabei auf 1440p runter.
Undertaker
2016-07-14, 11:10:17
Dann hast du ein schlecht ausbalanciertes System @low level. ;) Oder einfacher ausgedrückt. Deine CPU ist zu stark bzw. deine GPU zu schwach. Kannst es dir aussuchen.
Im Normalfall ist ein guter Gaming-Rechner fast immer GPU-limitiert, ganz einfach weil man CPU-seitig ganz einfach ein gewisses Maß für ausreichend hohe fps-Raten benötigt (und das kann für einige Worst-Case-Szenarien nun einmal ziemlich hoch liegen), wohingegen man GPU-seitig jegliche Performancereserven in eine bessere Bildqualität ummünzen kann und damit letztlich fast immer im GPU-Limit landet. Daraus folgernd kannst du aber nicht ernsthaft argumentieren, dass er seine GTX 1080 ja auch mit einem lahmen FX kombinieren könnte, nur weil das jetzt im Falle von Doom gerade einmal für brauchbare fps ausreichen würde. Das gilt eben nicht allgemein und ist damit praktisch keine sinnvolle Option.
Cyphermaster
2016-07-14, 11:36:16
Meine Aussage ist nach wie vor, dort wo man die Leistung benödigt bringt Vulkan nichts. Und die erfahrung hat bis jetzt gezeigt das es so bleben wird.Ach, ich wußte bisher gar nicht, daß es Settings gibt, in denen ein Kunde KEINE Leistung haben will... ;D
Daraus folgernd kannst du aber nicht ernsthaft argumentieren, dass er seine GTX 1080 ja auch mit einem lahmen FX kombinieren könnte, nur weil das jetzt im Falle von Doom gerade einmal für brauchbare fps ausreichen würde. Das gilt eben nicht allgemein und ist damit praktisch keine sinnvolle Option.Als Kunde erwartet man aber auch, daß es "by design" möglichst viele Kombinationsmöglichkeiten mit einer Karte gibt, die spielbare fps erlauben; bzw. anders herum betrachtet, daß möglichst wenig Flaschenhälse vorkommen, die vorhandene Leistung der Grafikkarte brach liegen lassen. Und nichts Anderes ist das - Handbremse raus, wenn eine da ist. Du würdest ja auch nicht gegen mehr RAM auf der Grafikkarte argumentieren, nur weil das auch nicht unter absolut allen Umständen Performance-Vorteile bringt, oder?
dargo
2016-07-14, 11:37:59
@Undertaker
Ich empfehle genauer zu lesen.
Dann hast du ein schlecht ausbalanciertes System @low level.
Als Kunde erwartet man aber auch, daß es "by design" möglichst viele Kombinationsmöglichkeiten mit einer Karte gibt, die spielbare fps erlauben; bzw. anders herum betrachtet, daß möglichst wenig Flaschenhälse vorkommen, die vorhandene Leistung der Grafikkarte brach liegen lassen.
Du würdest ja auch nicht gegen mehr RAM auf der Grafikkarte argumentieren, nur weil das auch nicht unter absolut allen Umständen Performance-Vorteile bringt, oder?
Sehr guter Vergleich. :)
Undertaker
2016-07-14, 11:44:59
Als Kunde erwartet man aber auch, daß es "by design" möglichst viele Kombinationsmöglichkeiten mit einer Karte gibt, die spielbare fps erlauben; bzw. anders herum betrachtet, daß möglichst wenig Flaschenhälse vorkommen, die vorhandene Leistung der Grafikkarte brach liegen lassen. Und nichts Anderes ist das - Handbremse raus, wenn eine da ist. Du würdest ja auch nicht gegen mehr RAM auf der Grafikkarte argumentieren, nur weil das auch nicht unter absolut allen Umständen Performance-Vorteile bringt, oder?
Ich argumentiere nie gegen Performance-Vorteile sondern stelle nur fest, dass man in Doom bei vermutlich >>95% aller typischen Gaming-Systeme in sinnvollen Settings hart GPU-limitiert ist. Performance-Steigerungen im CPU-Limit stören nicht, bringen einem praktisch in diesem spezifischen Fall aber wenig.
Die nächste Frage ist, wie es dann in einem schon angesprochenen GTA 6 oder ähnlichen CPU-lastigeren Spielen aussehen wird. Mal schauen, wer da dann die Nase vorn hat. Generell bleibt leider festzustellen, das nutzloses cherry-picking immer mehr um sich greift und das Abschneiden in einem breiten Spielemix zählt. Da zählt ein Doom dann genauso rein wie ein Project Cars.
In Summe dürfte es dabei wohl auf die projezierten ~10% Performancevorsprung der GTX 1060 ggü. der RX 480 bei etwa 2/3 des Verbrauches hinauslaufen.
@Undertaker
Ich empfehle genauer zu lesen.
Das habe ich sehr wohl gelesen, mehr Sinn macht es deswegen aber nicht.
Edit: Ich vermute euer Denkfehler liegt darin zu glauben, dass sich die Resultate von Doom jetzt allgemeingültig auf Vulkan oder sonstige LL-APIs übertragen lassen. Nö.
Cyphermaster
2016-07-14, 12:00:16
Ich argumentiere nie gegen Performance-Vorteile sondern stelle nur fest, dass man in Doom bei vermutlich >>95% aller typischen Gaming-Systeme in sinnvollen Settings hart GPU-limitiert ist.Und was sollte diese Binsenweisheit einem dann aussagen? Interessant ist doch, daß der Hardware- und Spiele-Bereich, in dem man noch sinnvoll Zocken kann, mit dieser Option etwas breiter wird.
Zu Cherrypicking wird das erst, wenn man es als verbale Keule in irgendwelchen Fanboy-Keilereien zweckentfremden will.
dargo
2016-07-14, 12:02:04
Edit: Ich vermute euer Denkfehler liegt darin zu glauben, dass sich die Resultate von Doom jetzt allgemeingültig auf Vulkan oder sonstige LL-APIs übertragen lassen. Nö.
Doch... besonders auf Radeons. Im übrigen profitiert auch Nvidia nicht zu wenig dank LL. Das hatten schon Hitman und RotTR gut zeigen können.
Ich argumentiere nie gegen Performance-Vorteile sondern stelle nur fest, dass man in Doom bei vermutlich >>95% aller typischen Gaming-Systeme in sinnvollen Settings hart GPU-limitiert ist. Performance-Steigerungen im CPU-Limit stören nicht, bringen einem praktisch in diesem spezifischen Fall aber wenig.
Du übersiehst dabei einen sehr wichtigen Punkt.
Der Spieler kann die GPU-Last über die Grafikoptionen deutlich stärker absenken als die CPU-Last. Sprich... hat er eine zu schwache GPU für max. Details kann er das Game dank Low level mit seiner schwächeren CPU dennoch gut spielen. Bei High Level geht das mit abgesenkten Details u.U. nicht mehr.
dildo4u
2016-07-14, 12:53:43
Angeblich kommt die 1060 3GB ab 150$.
http://www.pcgameshardware.de/Nvidia-Geforce-GTX-10606G-Grafikkarte-264678/News/Version-3-GByte-beschnittene-GPU-1201444/
Screemer
2016-07-14, 12:57:50
mehr ist die 60W-Karte ja wohl auch nicht wert ;)
Grendizer
2016-07-14, 13:06:48
Jetzt wird es langsam lächerlich ...
http://www.4players.de/4players.php/spielinfonews/PC-CDROM/37771/2160131/Civilization_6-Mit_DirectX-12-Renderer_fuer_Radeon-GPUs_von_AMD.html
Bei einem aufwendigem Shooter würde ich solche Mitteilungen ja verstehen aber bei Rundenstrategie :rolleyes:
Der ganze DX12 /Vulcan Hype erinnert mich an frühere Zeiten, als die Geforce Karten T&L konnten ....
prinz_valium
2016-07-14, 13:11:19
Angeblich kommt die 1060 3GB ab 150$.
http://www.pcgameshardware.de/Nvidia-Geforce-GTX-10606G-Grafikkarte-264678/News/Version-3-GByte-beschnittene-GPU-1201444/
ich frage mich nur, warum man keine 1050 raus macht.
ergibt für mich nicht sooo viel sinn
Cyphermaster
2016-07-14, 13:15:21
Es wird halt immer eine Sau durch's Dorf getrieben, damit der Pöbel was zum Echauffieren hat. Mal von der einen, mal von der anderen Seite. Kann man mitmachen, muß man aber nicht. Am Schluß ändert es weder an den fps, noch am Spielspaß irgendetwas, ob AMD oder nVidia auf der Grafikkarte steht. ;)
dildo4u
2016-07-14, 13:17:04
Vieleicht liegt sie im Bereich der 480,da will man nicht mit dem 1050 Namen suggerieren,das die Karte eine Klasse drunter liegt.
EVGA 1060 für Mini ITX.
http://videocardz.com/62242/evga-geforce-gtx-1060-pictured
StefanV
2016-07-14, 13:36:14
Jetzt wird es langsam lächerlich ...
http://www.4players.de/4players.php/spielinfonews/PC-CDROM/37771/2160131/Civilization_6-Mit_DirectX-12-Renderer_fuer_Radeon-GPUs_von_AMD.html
Bei einem aufwendigem Shooter würde ich solche Mitteilungen ja verstehen aber bei Rundenstrategie :rolleyes:
Der ganze DX12 /Vulcan Hype erinnert mich an frühere Zeiten, als die Geforce Karten T&L konnten ....
...bei der man mal locker mehrere Tausend Einheiten gleichzeitig über den Bildschirm jagen kann und die CPU für diverse andere Berechnungen als zum aufbereiten der Daten für die GraKa dringendst braucht...
Sorry, aber Shooter sind nun wirklich nicht die Hardwarefresser schlechthin...
Die brauchen nur hohe Frameraten, was bei Strategie nicht so der Fall ist, dafür brauchst du hier aber auch massivste Rechenleistung und kannst, wenn du es möchtest, jedes System so dermaßen in die Knie treiben, dass dir die Tränen in die Augen schießen.
Natürlich nicht am Anfang sondern eher im weiteren Spielverlauf. Und wenn du dann zwischen den Runden erst mal für Nachwuchs sorgen kannst, ist es nicht mehr so spaßig...
Ich glaube du unterschätzt einfach die Anforderungen, die solche Spiele an die Hardware stellen kann, wenn man wirklich 'die sau raus lassen' möchte...
Grendizer
2016-07-14, 13:41:18
...bei der man mal locker mehrere Tausend Einheiten gleichzeitig über den Bildschirm jagen kann und die CPU für diverse andere Berechnungen als zum aufbereiten der Daten für die GraKa dringendst braucht...
Sorry, aber Shooter sind nun wirklich nicht die Hardwarefresser schlechthin...
Die brauchen nur hohe Frameraten, was bei Strategie nicht so der Fall ist, dafür brauchst du hier aber auch massivste Rechenleistung und kannst, wenn du es möchtest, jedes System so dermaßen in die Knie treiben, dass dir die Tränen in die Augen schießen.
Natürlich nicht am Anfang sondern eher im weiteren Spielverlauf. Und wenn du dann zwischen den Runden erst mal für Nachwuchs sorgen kannst, ist es nicht mehr so spaßig...
Ich glaube du unterschätzt einfach die Anforderungen, die solche Spiele an die Hardware stellen kann, wenn man wirklich 'die sau raus lassen' möchte...
Tue ich nicht, ich spiele aktuell TW Warhammer aber ehrlich, bei CIV sehe ich keine "gleichzeitige" Anforderung an Grafik und CPU.
Screemer
2016-07-14, 14:29:43
Jetzt wird es langsam lächerlich ...
http://www.4players.de/4players.php/spielinfonews/PC-CDROM/37771/2160131/Civilization_6-Mit_DirectX-12-Renderer_fuer_Radeon-GPUs_von_AMD.html
Bei einem aufwendigem Shooter würde ich solche Mitteilungen ja verstehen aber bei Rundenstrategie :rolleyes:
Der ganze DX12 /Vulcan Hype erinnert mich an frühere Zeiten, als die Geforce Karten T&L konnten ....
Tue ich nicht, ich spiele aktuell TW Warhammer aber ehrlich, bei CIV sehe ich keine "gleichzeitige" Anforderung an Grafik und CPU.
was du siehst und wie es wirklich ist, sind scheinbar zwei völlig unterschiedliche paar schuhe. ach was das eine sind handschhuhe und das andere sind skischuhe. grad civ ist so oft cpu bound, dass es fast nicht mehr feierlich ist. der mantle renderer (http://www.pcgameshardware.de/Civilization-Beyond-Earth-Spiel-54202/News/Mantle-AMD-Benchmarks-1140241/) von be brachte teils schon massive steigerungen. einfach mal unbegründet daherreden ist super. grad shooter sind häufig nicht im cpu-limit, da bringt das ganze dann auch recht wenig.
Undertaker
2016-07-14, 14:42:10
Zu Cherrypicking wird das erst, wenn man es als verbale Keule in irgendwelchen Fanboy-Keilereien zweckentfremden will.
Doch... besonders auf Radeons.
:rolleyes:
Leider passiert genau das – es wird versucht, aus einem einzelnen Ergebnis aus Doom mit sicherlich noch nicht sonderlich ausgereiften Vulkan-Treibern irgendwelche Tendenzen abzuleiten. Das ist in etwa so sinnvoll, wie Project Cars als Gegenbeispiel auf NV-Seite dafür heranzuziehen.
Mit GP106 hat das hier auch schon lange nichts mehr zu tun. Darum bitte nun
zurück zum Thema. :)
Es gibt dedizierte Threads zu für Doom, Vulkan und alle Radeon-Themen. :) [edit: Auf besonderen Wunsch hin angepasst. :D]
Troyan
2016-07-14, 18:22:33
Mit "Raw Data", "Obduction" und "Everest VR" werden drei VR-Spiele veröffentlicht, die nVidia's Multi-Resolution Technik verwenden.
Tja, PC-Entwickler ignorieren nVidia nicht. Wird richtig schwer werden für AMD noch ihr "Premium VR" durchzudrücken, wenn eine GTX1060 50% schneller mit 33% weniger Stromverbrauch schafft.
Hübie
2016-07-14, 18:36:58
Welches Prozentual wohl kleiner ist? Das der SLi-User oder das der VR-User? :rolleyes:
masked__rider
2016-07-14, 18:37:43
Mit "Raw Data", "Obduction" und "Everest VR" werden drei VR-Spiele veröffentlicht, die nVidia's Multi-Resolution Technik verwenden.
Tja, PC-Entwickler ignorieren nVidia nicht. Wird richtig schwer werden für AMD noch ihr "Premium VR" durchzudrücken, wenn eine GTX1060 50% schneller mit 33% weniger Stromverbrauch schafft.
50%? Quelle? Oder woher hast du diese Zahlen?
dargo
2016-07-14, 19:00:08
Welches Prozentual wohl kleiner ist? Das der SLi-User oder das der VR-User? :rolleyes:
Der war gut. X-D
Undertaker
2016-07-14, 19:34:14
Vielleicht auch für die GTX 1060 nicht uninteressant:
https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/3/
+7 % für Pascal (in Form der GTX 1080) durch AC im 3DMurks, 3 % weniger als bei der aktuellsten GCN-Inkarnation. Prozentual ist der Abstand zwischen RX 480 und GTX 1080 in diesem DirectX-12-Bench übrigens identisch bis etwas größer (wenn man die jüngsten Treiber-Zuwächse der RX 480 einberechnet) als im DX11-dominierten Spielerating von CB.
Dural
2016-07-14, 19:57:39
Die 1080 skaliert einfach nur schlecht, ist komplett untypisch für nv.
Könnte auch ein problem für die 1060 werden, da die gpu auch voll läuft.
dildo4u
2016-07-14, 20:07:36
Die 1080 skaliert einfach nur schlecht, ist komplett untypisch für nv.
Könnte auch ein problem für die 1060 werden, da die gpu auch voll läuft.
Die 1080 liegt doch weit vor Fury X obwohl sie kaum mehr Rechenleistung hat.
Dural
2016-07-14, 20:48:34
Natürlich gegen die 1070 ;)
Schaffe89
2016-07-14, 21:23:56
Was ist daran abstrus? Es ist nun mal keine Steigerung der Leistung im Wortsinn, sondern umgekehrt eine Nutzbarmachung von bisher brachliegendem Leistungspotential. Je höher die Auflösung und je geringer der Rechenleistungs-Überschuß der Karte, desto weniger davon ist da, das man heben könnte.
Mir ist unklar, warum du die Problematik unter 4K nicht siehst, hier wird doch die ganze Zeit gesagt, dass die AMD Karten endlich ihre FLOPs ausfahren können. Eine Fury X hat mehr FLOPs als ne GTX 980 Ti, deutlich mehr.
Warum da auf einmal nur in Full HD und WHQD davon etwas zu sehen sein soll, unter 4K allerdings nicht, das frag dich mal.:confused:
Daher nehme ich mittlerweile die alten Directx11 Spiele und deren Performance genausowichtig wie derer der neuen Directx12 Spiele, es ist einfach noch viel zu viel im Dunklen dazu.
Und daher ist das Abschneiden in Doom ein Sturm im Wasserglas, genau wie umgekehrt und wird sicherlich die Käufer genauso zur GTX 1060 treiben.
+7 % für Pascal (in Form der GTX 1080) durch AC im 3DMurks, 3 % weniger als bei der aktuellsten GCN-Inkarnation. Prozentual ist der Abstand zwischen RX 480 und GTX 1080 in diesem DirectX-12-Bench übrigens identisch bis etwas größer (wenn man die jüngsten Treiber-Zuwächse der RX 480 einberechnet) als im DX11-dominierten Spielerating von CB.
Danke, sehr interessant, fast soviel Skalierung wie die rx480, die Frage ist nur wie die bei Nvidia zustande kommt, wenn sie lediglich Preemption verbessert haben?
Arcanoxer
2016-07-15, 07:26:51
Selbstzensur
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11102285#post11102285
Ailuros
2016-07-15, 09:11:41
Ich erlaube mir noch ein OT bis es einen GP107/108 thread gibt: Sammy als Hersteller bestaetigt.
Sunrise
2016-07-15, 09:16:18
Ich erlaube mir noch ein OT bis es einen GP107/108 thread gibt: Sammy als Hersteller bestaetigt.
Die bauen jetzt echt noch GP107/GP108 auf 14nm? Meine Güte, NV hat einfach zuviel Geld...
Ailuros
2016-07-15, 09:27:04
Die bauen jetzt echt noch GP107/GP108 auf 14nm? Meine Güte, NV hat einfach zuviel Geld...
Es hat eher TSMC zu wenig Kapazitaeten um fruitco den Hintern zu lecken :P
Wie gesagt es wird fuer die beiden eine kleine Verspaetung geben (ich bezweifle dass es irgend jemand ueberhaupt bemerken wird...), wobei ich verdaechtige dass 14LPP womoeglich zu zickig sein koennte, mit zu hohen Frequenzen.
Sunrise
2016-07-15, 09:34:12
Es hat eher TSMC zu wenig Kapazitaeten um fruitco den Hintern zu lecken :P
Wie gesagt es wird fuer die beiden eine kleine Verspaetung geben (ich bezweifle dass es irgend jemand ueberhaupt bemerken wird...), wobei ich verdaechtige dass 14LPP womoeglich zu zickig sein koennte, mit zu hohen Frequenzen.
Wobei für die kleinen etwas weniger Takt wohl auch kein Stolperstein ist, sofern sie P11 dennoch deutlich bei der TDP unterbieten können. Pascal sollte eigentlich noch effizienter werden, wenn man die SPs nicht so hoch taktet und bei deutlich unter <55W TDP (die 1060 Mobile soll ja bereits mit 65W TDP kommen, bei leicht reduzierten Taktraten), bzw. eher <45W TDP wäre P11 dann leider auch kein sonderlich langlebiges AMD-Zugpferd mehr.
Bei diesen Argumenten bin ich mir nicht mehr so sicher, ob AMD da lange bei Apple noch im Spiel bleibt, das sah vor ein paar Monaten noch etwas anders aus.
Ailuros
2016-07-15, 09:42:38
Es geht mir eher darum dass es verdammt schwer ist momentan die eigentliche Anzahl der Einheiten einzuschaetzen fuer GP107 u.a. Mit relativ kleinen Frequenz-Schwankungen zwischen 106 ganz nach oben bis zu 102 ist es ziemlich leicht zu spekulieren mit GP104 als realem Ausgangspunkt.
AffenJack
2016-07-15, 09:48:28
Es wird auf jeden Fall sehr interessant einmal die Frequenzen und den Stromverbrauch und die Packdichte auf der anderen Seite im Vergleich zu sehen. Das lässt dann auf jeden Fall auch Rückschlüsse zu, ob AMDs move zu GF statt TSMC ein Fehler war, der die 480 auch beeinträchtigt, oder ob das alles eine Designsache ist. Für Nv verbessert das auf jeden Fall auch die Verhandlungssituation gegenüber TSMC, denn mit ner Alternative im Rücken kann man immer mehr Rabatt raushandeln.
Hakim
2016-07-15, 10:31:17
Wenn man sich die Werte bei 3dmark mit AC bei Pascal anschaut sind man das schon die 1070 weniger davon Profitiert wie 1080. Es sind zwar nur so etwa ~2% unterschied, aber könnte das beim 1060 noch weiter sinken? Hat es primär mit der Anzahl der Shader zu tun?
StefanV
2016-07-15, 10:36:49
Was hätte es AMD genutzt, wenn sie P10 bei TSMC gebracht hätten, die aber nicht liefern können, weil sie die Kapazitäten für andere benötigen/nutzen?
Undertaker
2016-07-15, 10:41:09
Es hat eher TSMC zu wenig Kapazitaeten um fruitco den Hintern zu lecken :P
Und das, wo iPhone/iPad derzeit schwächeln wie selten... :freak: Ich gehe übrigens (aus Gründen... ;)) stark davon aus, das GF/Samsung pro 14nm Wafer weniger nehmen als TSMC...
Es geht mir eher darum dass es verdammt schwer ist momentan die eigentliche Anzahl der Einheiten einzuschaetzen fuer GP107 u.a. Mit relativ kleinen Frequenz-Schwankungen zwischen 106 ganz nach oben bis zu 102 ist es ziemlich leicht zu spekulieren mit GP104 als realem Ausgangspunkt.
Eigentlich wäre ein GPC mit 512/768 ALUs ein ziemlich logisches Maß für GP108/GP107. Dazu ein 64/128 Bit SI (GP108/GP107) mit DDR3- und GDDR5-Support, Taktraten um 1,5 - 1,6 GHz. Sagt die Glaskugel...
scully1234
2016-07-15, 11:30:15
Ich gehe übrigens (aus Gründen... ;)) stark davon aus, das GF/Samsung pro 14nm Wafer weniger nehmen als TSMC...
...
Na als langjaehriger Partner ,wird Nvidia bei TSMC schon ordentliche Prozente haben, ob da Samsung wirklich ueberholt mit ihrem Angebot...
AffenJack
2016-07-15, 11:34:59
Na als langjaehriger Partner ,wird Nvidia bei TSMC schon ordentliche Prozente haben, ob da Samsung wirklich ueberholt mit ihrem Angebot...
Samsung sucht nach dem Abgang von Apple händeringend nach Kunden, ich gehe da auch von niedrigeren Preisen aus. Schon bei Apple gabs Gerüchte, dass Samsung unter anderem mit niedrigeren Preisen gelockt hat.
Aber im Endeffekt werden die Unterschiede so gering sein, dass es keinen Unterschied macht. Wen interessierts ob Samsung 5-10% weniger für den Wafer will, wenn Yield zb schlechter ist. Da ist viel zu viel ungewiss um das ordentlich betrachten zu können.
Ailuros
2016-07-15, 11:42:41
Es wird auf jeden Fall sehr interessant einmal die Frequenzen und den Stromverbrauch und die Packdichte auf der anderen Seite im Vergleich zu sehen. Das lässt dann auf jeden Fall auch Rückschlüsse zu, ob AMDs move zu GF statt TSMC ein Fehler war, der die 480 auch beeinträchtigt, oder ob das alles eine Designsache ist. Für Nv verbessert das auf jeden Fall auch die Verhandlungssituation gegenüber TSMC, denn mit ner Alternative im Rücken kann man immer mehr Rabatt raushandeln.
Ich bin immer noch nicht sicher dass AMD alles bei GloFo herstellt. Ausser es gibt eine diesbezuegliche Aussage von AMD die ich verpasst habe. Wenn ich etwas in letzten Jahren gelernt habe, ist erstmal auf einer originalen Info so lange zu beharren bis sie von zuverlaessiger Quelle bestritten wird. Nach dieser hiess es Vega@16FF+.
NV's Druck zu TSMC war und ist hauptsaechlich ihnen zumindest anstaendigere Kapazitaeten bereitzustellen fuer alles 106 bis 102. NV ging zu Samsung aus Not.
Samsung sucht nach dem Abgang von Apple händeringend nach Kunden, ich gehe da auch von niedrigeren Preisen aus. Schon bei Apple gabs Gerüchte, dass Samsung unter anderem mit niedrigeren Preisen gelockt hat.
Aber im Endeffekt werden die Unterschiede so gering sein, dass es keinen Unterschied macht. Wen interessierts ob Samsung 5-10% weniger für den Wafer will, wenn Yield zb schlechter ist. Da ist viel zu viel ungewiss um das ordentlich betrachten zu können.
Spricht aber dann ueberhaupt nicht fuer die Lizenzierung von 14FF Prozessen an GloFo. Apple hat ebenso nur aus Not unter 14LPE bei Sammy hergestellt weil es irgend ein Wehwechen bei diesem mit variablen voltages geben soll. Ob's stimmt oder nicht kann ich natuerlich nicht wissen. Wie dem auch sei, fuer den A9 war das Sammy/TSMC prozentuelle Verhaeltnis afaik bei 20:80.
Na als langjaehriger Partner ,wird Nvidia bei TSMC schon ordentliche Prozente haben, ob da Samsung wirklich ueberholt mit ihrem Angebot...
Einen Vorteil von 5% gegenueber AMD dank Volumen und dieses schon seit 40G.
Und das, wo iPhone/iPad derzeit schwächeln wie selten... :freak: Ich gehe übrigens (aus Gründen... ;)) stark davon aus, das GF/Samsung pro 14nm Wafer weniger nehmen als TSMC...
Ist zwar verdammt OT aber der gesamte ULP mobile SoC Humbug wird in naechster Zeit so manche Aenderungen sehen und davon wird auch Sammy nicht gewinnen sondern eher die Chinesen. Sonst fuer die wafer Preise wie auch oben bezweifle ich dass Sammy so daemlich waere und NV's dringende Not nach Kapazitaeten NICHT ausgenuetzt haette.
Eigentlich wäre ein GPC mit 512/768 ALUs ein ziemlich logisches Maß für GP108/GP107. Dazu ein 64/128 Bit SI (GP108/GP107) mit DDR3- und GDDR5-Support, Taktraten um 1,5 - 1,6 GHz. Sagt die Glaskugel...
Bei einer boost Frequenz bei irgendwo 1600-1650MHz fuer diese gibt es auch nichts gegen die Anzahl der Einheiten oben einzuwenden. Wenn aber 14LPP jetzt aus Gott weiss welchem Grund keine so extravagante Frequenzen erlauben sollte dann braucht man entweder ein paar mehr clusters oder der Abstand zu GP106 wird zu gross am Ende und man wird vielleicht auch Kopfschmerzen von den kommenden kleinen Polaris SKUs haben. Wie gesagt ich hab noch keine Ahnung woher die Verspaetung fuer 107/108 kommt aber es ist entweder der library/foundry Wechsel oder sie brauchten einfach noch ein paar Wochen noch etwas an den chips herumzufummeln um ihre Ziel-frequenzen zu erreichen. Haben wir dann in der Zukunft von review Bildern "A1" auf den chips war es dann wohl nicht der zweite Fall.
AffenJack
2016-07-15, 12:03:26
Spricht aber dann ueberhaupt nicht fuer die Lizenzierung von 14FF Prozessen an GloFo. Apple hat ebenso nur aus Not unter 14LPE bei Sammy hergestellt weil es irgend ein Wehwechen bei diesem mit variablen voltages geben soll. Ob's stimmt oder nicht kann ich natuerlich nicht wissen. Wie dem auch so fuer den A9 war das Sammy/TSMC prozentuelle Verhaeltnis afaik bei 20:80.
Dein Verhältnis dürfte falsch sein, ich weiß nicht woher du 20:80 hast, aber es sieht eher nach 60:40 für Samsung aus. Bei 20:80 hätte TSMC auch keinerlei Probleme die Wafer zu bedienen nachdem Apple wieder ganz zu TSMC wechselt. Bis März diesen Jahres hat Samsung definitiv deutlich mehr als nur 20% der Chips produziert. Im April hat TSMC seinen 16nm Output wegen Apple verdoppelt und das war nicht wegen poppeligen 20% mehr die man produzieren wollte.
scully1234
2016-07-15, 12:06:07
Wenn aber 14LPP jetzt aus Gott weiss welchem Grund keine so extravagante Frequenzen erlauben sollte dann braucht man entweder ein paar mehr clusters oder der Abstand zu GP106 wird zu gross am Ende.
Oder man hat ein restriktiveres Binning, und verhoekert den taktunfreudigen Kram in mobile Devices, bis wieder Platz bei TSMC ist
Ailuros
2016-07-15, 13:22:01
Dein Verhältnis dürfte falsch sein, ich weiß nicht woher du 20:80 hast, aber es sieht eher nach 60:40 für Samsung aus. Bei 20:80 hätte TSMC auch keinerlei Probleme die Wafer zu bedienen nachdem Apple wieder ganz zu TSMC wechselt. Bis März diesen Jahres hat Samsung definitiv deutlich mehr als nur 20% der Chips produziert. Im April hat TSMC seinen 16nm Output wegen Apple verdoppelt und das war nicht wegen poppeligen 20% mehr die man produzieren wollte.
Da es sich fuer beide Meinungen um "hoerensagen" handelt ist es wohl schwer zu definieren was stimmen koennte und was nicht wenn man sich mit dem Zeug nicht direkt beschaeftigt. Bei "nur" 60% bei TSMC duerfte es unter normalen Umstaenden auch kein so grosses Kapazitaets-Problem fuer die anderen TSMC Stammkunden wie u.a. NVIDIA geben. Im Prinzip ist es auch ehrlich genommen scheissegal ob es 60/40 oder 80/20 ist, so lange es Tatsache zu sein scheint dass NVIDIA ihr groesstes Pascal chip Volumen rein zufaellig bei Sammy herstellen laesst und alles TSMC (=/>GP106) nicht gerade nur so aus dem Rohr schiessen bis jetzt.
Oder man hat ein restriktiveres Binning, und verhoekert den taktunfreudigen Kram in mobile Devices, bis wieder Platz bei TSMC ist
Auch moeglich; obwohl um ehrlich zu sein mir ein 108 zu klein waere damit sich irgendwelches dual sourcing fuer die Herstellung wirklich lohnen wuerde.
deLuxX`
2016-07-15, 14:31:24
The Economics of NVIDIA Corporation's GeForce GTX 1060
http://www.fool.com/investing/2016/07/14/the-economics-of-nvidia-corporations-geforce-gtx-1.aspx
Was haltet ihr von dieser Betrachtung?
AffenJack
2016-07-15, 14:43:52
Da es sich fuer beide Meinungen um "hoerensagen" handelt ist es wohl schwer zu definieren was stimmen koennte und was nicht wenn man sich mit dem Zeug nicht direkt beschaeftigt. Bei "nur" 60% bei TSMC duerfte es unter normalen Umstaenden auch kein so grosses Kapazitaets-Problem fuer die anderen TSMC Stammkunden wie u.a. NVIDIA geben. Im Prinzip ist es auch ehrlich genommen scheissegal ob es 60/40 oder 80/20 ist, so lange es Tatsache zu sein scheint dass NVIDIA ihr groesstes Pascal chip Volumen rein zufaellig bei Sammy herstellen laesst und alles TSMC (=/>GP106) nicht gerade nur so aus dem Rohr schiessen bis jetzt.
Ähhm, ich sage 60 Samsung, 40 TSMC bei A9 und basiere es nicht auf Hörensagen, sondern auf dem CPU Identifier vom iphone:
http://demo.hiraku.tw/CPUIdentifier/
Und das Kapazitätsproblem gibt es erst, seitdem TSMC angeblich 100% bekommen hat vom A10, da Apple mehr als das doppelte an Wafern haben wollte, als mit A9.
Aber zurück zu Pascal, das größte Wafervolumen bleibt auch da bei TSMC. GP106 wird wohl die meisten Wafer benötigen. Beim Volumen wird er unter Umständen von den kleineren geschlagen und selbst da zweifle ich dran, aber da er mehr Fläche braucht, wird er da wohl die meisten Wafer brauchen. Die kleinen Chips haben schon lange nicht mehr so ein großes Volumen und wurden durch IGPs einfach kannibalisiert. Wird deswegen interessant wieviele GP106 Nv überhaupt liefern kann. Ich befürchte da eher das gleiche Spiel wie bei GP104 und enorme Lieferengpässe.
mczak
2016-07-15, 15:33:31
Eigentlich wäre ein GPC mit 512/768 ALUs ein ziemlich logisches Maß für GP108/GP107. Dazu ein 64/128 Bit SI (GP108/GP107) mit DDR3- und GDDR5-Support, Taktraten um 1,5 - 1,6 GHz. Sagt die Glaskugel...
Vielleicht kommt da mal ddr4-Support? 64bit ddr3 für einen solchen GP108 wäre schon enorm wenig (denn in der Praxis wird's den sicher mit gddr5 so gut wie gar nicht geben). Ist zwar erstaunlich was nvidia mit dem gm108 aus den 64bit ddr3 herausholt, trotzdem bei nochmal ~80% mehr Rechenleistung (bei zwar verbesserter, aber bei weitem nicht so stark verbesserter Bandbreiteneffizienz) scheint mir die Bandbreite ansonsten im nicht mehr sinnvollen Bereich (da könnte man sich den zusätzlichen SM auch gleich sparen). Ist ja auch das Hauptproblem dass sich der gm108 kaum von den HD 520 IGPs absetzen kann (die haben mehr als das doppelte an Bandbreite zur Verfügung mit dual-channel ddr4 Speicher, auch wenn sie die weniger effizient nutzen), und das wird mit nächster Generation sicher nicht besser.
Ailuros
2016-07-15, 18:44:55
The Economics of NVIDIA Corporation's GeForce GTX 1060
http://www.fool.com/investing/2016/07/14/the-economics-of-nvidia-corporations-geforce-gtx-1.aspx
Was haltet ihr von dieser Betrachtung?
Naiv; es sind die Kosten fuer die tools die brutal angestiegen sind. Wenn's es nur um Herstellungspreise per wafer und/oder wafer yields ginge bei gleichen Kosten fuer alles andere waere die Debatte ziemlich ueberfluessig. Kosten sind brutal gestiegen und ja seine Werte stimmen grob eingeschaetzt nur fehlt eben das wesentlichste.
Ähhm, ich sage 60 Samsung, 40 TSMC bei A9 und basiere es nicht auf Hörensagen, sondern auf dem CPU Identifier vom iphone:
http://demo.hiraku.tw/CPUIdentifier/
Siehe PM.
Und das Kapazitätsproblem gibt es erst, seitdem TSMC angeblich 100% bekommen hat vom A10, da Apple mehr als das doppelte an Wafern haben wollte, als mit A9.
Ich dachte die Nachfrage fuer i-Zeug hat nachgelassen; wie optimistisch genau soll denn Apple ueberhaupt sein? Komischerweise war es noch vor ein paar Posts so dass Sammy mit Super-Rabbatt herstellt, ergo bleibt dann wohl andersrum wieder die Frage warum Apple so einen Zugzwang haben sollte mir nichts dir nichts bei TSMC herzustellen.
Aber zurück zu Pascal, das größte Wafervolumen bleibt auch da bei TSMC. GP106 wird wohl die meisten Wafer benötigen. Beim Volumen wird er unter Umständen von den kleineren geschlagen und selbst da zweifle ich dran, aber da er mehr Fläche braucht, wird er da wohl die meisten Wafer brauchen. Die kleinen Chips haben schon lange nicht mehr so ein großes Volumen und wurden durch IGPs einfach kannibalisiert. Wird deswegen interessant wieviele GP106 Nv überhaupt liefern kann. Ich befürchte da eher das gleiche Spiel wie bei GP104 und enorme Lieferengpässe.
Regeln sie wohl wieder durch hohe Preise u.a. auch mit dem FE Quark noch mehr. So lange wird es sowieso keine Engpaesse geben, denn im Ende Sommer soll noch ein fettes Prozentual an Kapazitaeten dazu kommen.
Sunrise
2016-07-15, 20:17:19
...Ich dachte die Nachfrage fuer i-Zeug hat nachgelassen; wie optimistisch genau soll denn Apple ueberhaupt sein? Komischerweise war es noch vor ein paar Posts so dass Sammy mit Super-Rabbatt herstellt, ergo bleibt dann wohl andersrum wieder die Frage warum Apple so einen Zugzwang haben sollte mir nichts dir nichts bei TSMC herzustellen.
Apple integriert immer mehr Komponenten, weil ihr Platz begrenzt ist, und braucht dafür die fortschrittlichste Technik und das möglichst billig.
Der Hauptgrund ist wohl der, dass der A10 mit InFO (Integrated Fan-Out) kommen soll (http://www.appliedmaterials.com/nanochip/nanochip-fab-solutions/december-2015/fan-out-is-a-game-changer), das wird derzeit als Game Changer bei Semis gehandelt, da gibt es mehr als genug Gründe, sich für TSMC zu entscheiden. Dass TSMC immer die besten Prozesse hat, kommt da nur noch dazu.
Samsung hat nicht ohne Grund keine A10-Aufträge bekommen.
deLuxX`
2016-07-15, 23:01:18
Inno3D sieht die 1060 auf 980 level.
http://www2.pic-upload.de/thumb/31214952/TB2OLHfsVXXXXaNXXXXXXXXXXXX_332206432.jpg (http://www.pic-upload.de/view-31214952/TB2OLHfsVXXXXaNXXXXXXXXXXXX_332206432.jpg.html)
Linmoum
2016-07-15, 23:34:49
Inno3D? Die zweite Folie kommt mir ziemlich bekannt vor. :freak:
http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2016/inno3d-ichill-presentation-1-rs.jpg
Elite_Warrior
2016-07-16, 09:19:53
Ich will ja nicht der Pixelzähler sein, öhhh, doch eigentlich schon. In der Inno Auflistung ist die 1060 sogar ganz leicht unterhalb der 980. Scheint auf RX480 Niveau zu kommen.
deLuxX`
2016-07-16, 09:31:48
Ich will ja nicht der Pixelzähler sein, öhhh, doch eigentlich schon. In der Inno Auflistung ist die 1060 sogar ganz leicht unterhalb der 980. Scheint auf RX480 Niveau zu kommen.
http://fs5.directupload.net/images/160716/74bda52f.png (http://www.directupload.net)
Minimal. Aber ob das was aussagen soll? Puh...
Elite_Warrior
2016-07-16, 10:22:25
und nun die Balken ohne Schattierung bitte :D, aber hast ja recht, die 2-3% machens nicht aus.
Undertaker
2016-07-16, 10:33:49
Ähm, die GTX 1080 steht auch auf einer Höhe mit der deutlich langsameren TitanX. ;) Das sind keine direkten Performance-Relationen in der Grafik.
Elite_Warrior
2016-07-16, 10:38:28
Misst, heute schlecht geschlafen :uhammer2: Danke für die Aufklärung
dildo4u
2016-07-16, 12:44:04
Inno3D sieht die 1060 auf 980 level.
http://www2.pic-upload.de/thumb/31214952/TB2OLHfsVXXXXaNXXXXXXXXXXXX_332206432.jpg (http://www.pic-upload.de/view-31214952/TB2OLHfsVXXXXaNXXXXXXXXXXXX_332206432.jpg.html)
Schätze mal DX11 leicht unter 980 und DX12 gleichauf oder schneller.
http://abload.de/img/timespy-3a5sxs.png
1060's bei einem Händler in Holland.
https://www.facebook.com/142204069186481/photos/a.406919999381552.98034.142204069186481/1122166624523549/?type=3&theater
Achtung GPU nicht Gesamtscore!
http://abload.de/img/geforce-gtx-1060-vs-rbjsrk.png
http://videocardz.com/62278/nvidia-geforce-gtx-1060-rumors-part-7-new-cards-more-benchmarks
AnarchX
2016-07-16, 17:51:55
Durch die hohe Bandbreite gewinnt die 1060 wohl möglich hier weniger durch Async als die 1080.
Hakim
2016-07-16, 18:34:48
Pailt (Gainward) scheinen tatsächlich so einen ähnlichen 3 Slot Kühler wie bei den 1070/1080 zu bringen :). Zwar Overkill für 120W TPD, aber da ich den Platz habe, sind die beiden im engeren Kreis wenn es eine 1060 wird.
scully1234
2016-07-17, 17:08:38
Was ich mich gerade bezueglich SLI frage
Man hat ja nun bei den kleinen Karten schon angefangen, den SLI Finger komplett wegzurationalisieren.
Koennte diese stiefmuetterliche Behandlung, eventuell auch in Voraussicht auf eine mit Volta folgende breitere Anbindung geschehen sein?
Vielleicht will man NVlink ja auch im Geforce Sektor als ''must have'' Featureset etablieren, und bereitet dieses Grundgeruest, schon mal mit Pascal vor.
DarknessFalls
2016-07-17, 17:19:33
Macht komplett keinen Sinn. Wieso sollte ich die SLI-Verbindung bei GP106 weglassen, weil ich ggfs in der nächsten Generation was ändern möchte?
Das Wegrationalisieren von SLI bei GP106 ist schlicht darauf begründet, dass man sich mit einem GTX1060 SLI keine hauseigene Konkurrenz zu GTX1070 zu einem ggfs geringeren Preis machen möchte. That's all, es ist einfach ein wirtschaftlich motivierter Schachzug.
Ailuros
2016-07-17, 17:24:25
Entschuldigt das weitere OT: sollten wir ein weiteres Thema fuer GP107/8 oeffnen oder reicht es den Thread-titel hier zu aendern?
Affenjack,
Deine PM kiste ist voll :mad:
scully1234
2016-07-17, 17:26:22
Macht komplett keinen Sinn. Wieso sollte ich die SLI-Verbindung bei GP106 weglassen, weil ich ggfs in der nächsten Generation was ändern möchte?
Um einem neuen Featureset eben mehr Praesenz zu verschaffen macht es eben schon Sinn
Die Argumentation darunter haette auch bei frueheren Generationen schon gegriffen, also von daher sehe ich das mit Konkurenz im eigenen Laden eher weniger als Ausloeser
Fuer die 1070/1080 hat man ja schon breitere Anbindungen gewaehlt mit den neuen SLI Bruecken, ein deutliches Zeichen das hier was im argen liegt, und der eleganteste Fix waere eben mit einer hauseigenen Technologie
DarknessFalls
2016-07-17, 17:36:39
Aber wie verschaffe ich einem neuen Featureset mehr Präsenz, wenn ich bei einem Midrange-Chip den SLI-Connector wegrationalisiere, ohne das neue Featureset einzubauen? Diese Argumentation macht schlichtweg keinen Sinn.
Der wirtschaftliche Aspekt macht es hingegen schon: nV wird halt immer mutiger darin, seinen Kunden Kohle abzuzuwacken - und was spült Dir mehr Kohle in die Kasse? Ein teuer angebotener Performance-Chip (104=Performance, 102=High End / Enthusiast) oder zwei günstige Mid-Range-Karten?
Grendizer
2016-07-17, 20:23:46
Aber wie verschaffe ich einem neuen Featureset mehr Präsenz, wenn ich bei einem Midrange-Chip den SLI-Connector wegrationalisiere, ohne das neue Featureset einzubauen? Diese Argumentation macht schlichtweg keinen Sinn.
Der wirtschaftliche Aspekt macht es hingegen schon: nV wird halt immer mutiger darin, seinen Kunden Kohle abzuzuwacken - und was spült Dir mehr Kohle in die Kasse? Ein teuer angebotener Performance-Chip (104=Performance, 102=High End / Enthusiast) oder zwei günstige Mid-Range-Karten?
Oder man denkt sich halt, soll es eben MS mit den Multi GPU Feature in DX 12 richten.
SLI war schon immer eher ein Randthema mit ziemlichen Problemen. Warum da noch Energie reinstecken, wenn es so wenig User wirklich nutzen und selbst die Entwickler spürbar die Lust an Unterstützung des Features verlieren, dann lieber auf VR konzentrieren, das bringt eher langfristig was. Und ja, für VR würde SLI vermutlich sehr viel bringen... aber das Thema ist in den lezten Jahren eher mit Probleme aufgefallen als mit Erfolgen.
-/\-CruNcher-/\-
2016-07-18, 16:47:54
Pailt (Gainward) scheinen tatsächlich so einen ähnlichen 3 Slot Kühler wie bei den 1070/1080 zu bringen :). Zwar Overkill für 120W TPD, aber da ich den Platz habe, sind die beiden im engeren Kreis wenn es eine 1060 wird.
Nicht nur Palit macht Crazy sachen so gut wie alle kommen mit einem 3 Lüfter Design im Portofolio irrsinn wie hier wieder gebruteforced wird :D
Du glaubst doch nicht das die 120W mit diesen Designs gehalten werden können, umsonst bauen sie das sicher nicht drauf :D
Alles vorhanden 1,2 und 3 Lüfter Designs :D
Godmode
2016-07-18, 16:58:47
Entschuldigt das weitere OT: sollten wir ein weiteres Thema fuer GP107/8 oeffnen oder reicht es den Thread-titel hier zu aendern?
Affenjack,
Deine PM kiste ist voll :mad:
Habe einen extra Thread dafür erstellt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=574726
Dural
2016-07-18, 16:59:47
Gab es alles ja schon mit der 960, die G1 von Gigabyte hatte auch 3 Lüfter und 1x 6Pin 1x 8Pin PCI-E Anschluss hat aber keine 120Watt+ aus der Dose gezogen ;)
Hakim
2016-07-18, 17:45:35
Jo die oc Versionen werden sicherlich mehr wie die 120W nuckeln, aber die zotac amp hat z.b nur einen 6 Pin Anschluss, ausreichend Spielraum bis 150W?
Downhill
2016-07-18, 17:53:08
Soll mir alles recht sein, solange es genug Auswahl an leisen Karten (< 1 Sone unter Vollast) mit <= 26,67 cm Kartenlänge gibt, wird gekauft. Vertikal ist genug Platz da :tongue:
Denke mal, bei der GTX1060 sollte es da für die Kritierien genug Auswahl geben?
deLuxX`
2016-07-18, 18:00:07
Soll mir alles recht sein, solange es genug Auswahl an leisen Karten (< 1 Sone unter Vollast) mit <= 26,67 cm Kartenlänge gibt, wird gekauft. Vertikal ist genug Platz da :tongue:
Denke mal, bei der GTX1060 sollte es da für die Kritierien genug Auswahl geben?
In 21 Stunden weißt du es.=)
Hakim
2016-07-18, 18:18:06
Zumindest soll ja schon zotac eine Mini Karte im Sortiment haben
scully1234
2016-07-18, 18:44:46
Ja die mit 1 Propeller waere was schoenes fuer nen HTPC
http://cdn.videocardz.com/1/2016/07/ZOTAC-GeForce-GTX-1060-Mini-6GB-3.jpghttp://cdn.videocardz.com/1/2016/07/EVGA-GeForce-GTX-1060-SC-2-900x443.jpg
Hakim
2016-07-18, 19:00:37
Edit: zu langsam
nismod
2016-07-18, 19:46:29
Finde nur ich es seltsam das außer dem Referenzboard auch die Customboards Platz für 8 Speicherchips haben?
AnarchX
2016-07-18, 19:47:51
Es wird spekuliert, dass es die gleiche Designbasis wie bei der GTX 1070 Custom ist.
-/\-CruNcher-/\-
2016-07-18, 19:48:49
Mit "Raw Data", "Obduction" und "Everest VR" werden drei VR-Spiele veröffentlicht, die nVidia's Multi-Resolution Technik verwenden.
Tja, PC-Entwickler ignorieren nVidia nicht. Wird richtig schwer werden für AMD noch ihr "Premium VR" durchzudrücken, wenn eine GTX1060 50% schneller mit 33% weniger Stromverbrauch schafft.
Und ? AMD hat selbst eine solution dafür mit VRS und weitere Manpower durch die Hi Algo übernahme.
So wie dutzend andere schon interne solutions haben.
Das sind alles indies die Hauptsächlich darauf angewiesen sind, mit irgend jemandem ins Bett zu hüpfen (Middleware) da wirst du noch genug von mit AMDs Liquid VR support sehen.
Und wenn du es noch nicht wusstest aber die Pros sehen VR Works skeptisch so skeptisch (mit seinen nachteilen) das Hollywood AMD gleich mal den Lumiere Award vergab intern als Mitglied ;)
http://www.roadtovr.com/wp-content/uploads/2015/10/AMD-Lumiere-Award-2-1021x580.jpg
vHpu4zFoR2c
Downhill
2016-07-18, 20:56:18
https://forums.overclockers.co.uk/showpost.php?p=29794831&postcount=859
...lots of them in stock right now...
Na, schau mer mal.
TheCounter
2016-07-19, 04:30:54
Also anders als bei AMD die nur das Referenzdesign liefern konnten und die Customs noch bis August auf sich warten lassen. Bin schon sehr gespannt auf heute Nachmittag :)
scully1234
2016-07-19, 08:18:02
Er darf mal wieder ohne Lederjacke ''Unfug'' treiben=)
http://hothardware.com/news/two-and-a-half-geeks-tom-peterson-nvidia
TheCounter
2016-07-19, 08:30:30
Doch SLI mit der 1060?
http://ashesofthesingularity.com/metaverse#/personas/ad290f79-f329-4552-9cab-d4440b844043/match-details/928d1f79-8376-464c-806f-88fc834328a0
Foobar2001
2016-07-19, 08:32:43
DX12 funktioniert immer mit zwei Karten, SLI-Bruecke hin oder her.
X.Perry_Mental
2016-07-19, 08:51:33
2 Einträge - noch ohne Preis - im Preisvergleich
ASUS ROG Strix GeForce GTX 1060 (http://www.heise.de/preisvergleich/eu/asus-rog-strix-geforce-gtx-1060-90yv09q1-m0na00-a1471241.html)
NVIDIA GeForce GTX1060 Founders Edition (http://www.heise.de/preisvergleich/eu/nvidia-geforce-gtx-1060-founders-edition-a1470227.html)
Für beide gilt:
Chip: GP106-400-A1 "Pascal"
Chiptakt: 1506MHz
Boost: 1709MHz
Speicher: 6GB GDDR5, 2000MHz, 192bit, 192GB/s
Shader-Einheiten/TMUs/ROPs: 1280/80/48
Rechenleistung: 3855GFLOPS (Single), 120GFLOPS (Double)
Fertigung: 16nm
Leistungsaufnahme: 120W (TDP)
Screemer
2016-07-19, 09:04:04
Wenn multiadapter genutzt wird.
Waren die 1280 Shader jetzt eigentlich schon länger fix? Das sind <4,5tflop bei der strix mit max Boost.
Undertaker
2016-07-19, 09:10:52
Die 1709 MHz sind btw nicht der maximale Boost. Da können auch mal 1,9 GHz anliegen... ;)
Screemer
2016-07-19, 09:13:16
Sind dann immer noch unter 5tf. Da hätte ich wesentlich mehr erwartet.
dildo4u
2016-07-19, 09:26:46
NV hatte immer weniger Rechenleistung als AMD,über 5Tflop macht kein Sinn wenn die 1070 nur 6.5 hat.Diese ist trotzdem 45% schneller als die 480,kann man halt nicht 1 zu 1 vergleichen.
Undertaker
2016-07-19, 09:27:26
Sind dann immer noch unter 5tf. Da hätte ich wesentlich mehr erwartet.
Mehr als 2 GHz Takt @default? Das ist eher etwas für die OC-Modelle, da das dann auch die Effizienz schmälern wird.
Ziel für die Ausrichtung der GTX 1060 war ein Level knapp über der RX 480 und im Bereich der GTX 980, dafür musste es (zum Glück!) nicht die absolute Brechstange werden. Ich bin eh eher für Effizienz denn +-5% Leistung. :)
Screemer
2016-07-19, 09:31:30
Ich finde 1280 Shader einfach zu wenig. Da wäre effizienztechnisch sicher mit mehr shadern und weniger Takt noch mehr drin gewesen. Naja mal schaun. Bin jetzt nicht grad overhyped was die 1060 angeht. Hätte gerne ein Upgrade von meiner 290 aber das wird wohl erst mal nix. >400€ geb ich keines Falls aus.
dargo
2016-07-19, 09:31:49
NV hatte immer weniger Rechenleistung als AMD...
Oh ja... bei Kepler ganze ~5%. Wo Kepler heute gegenüber Tahiti/Hawaii @low level steht wissen wir alle.
Undertaker
2016-07-19, 09:40:39
Ich finde 1280 Shader einfach zu wenig. Da wäre effizienztechnisch sicher mit mehr shadern und weniger Takt noch mehr drin gewesen. Naja mal schaun. Bin jetzt nicht grad overhyped was die 1060 angeht. Hätte gerne ein Upgrade von meiner 290 aber das wird wohl erst mal nix. >400€ geb ich keines Falls aus.
Das wäre doch bei jeder GPU so, dass breiter + weniger Takt die Effizienz steigern wird. ;) Immerhin: Das absolute Niveau ist bei der GTX 1060 schon beeindruckend. Mal schauen was die Reviews heute so sagen, aber bei 110 W Spieleverbrauch um 5-10% Mehrleistung ggü. der RX 480 (160 W) sind das gut 50% mehr fps/Watt, das ist schon eine gewaltige Hausnummer für ein Duell in der gleichen Generation.
Als 290-Eigener kannst du den neuen Mittelklassemodellen (egal ob NV oder AMD) natürlich kein merkliches Leistungsupgrade erwarten.
dildo4u
2016-07-19, 09:42:42
Ich finde 1280 Shader einfach zu wenig. Da wäre effizienztechnisch sicher mit mehr shadern und weniger Takt noch mehr drin gewesen. Naja mal schaun. Bin jetzt nicht grad overhyped was die 1060 angeht. Hätte gerne ein Upgrade von meiner 290 aber das wird wohl erst mal nix. >400€ geb ich keines Falls aus.
Effizienz scheint ziehmlich gut zu sein.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11100505&postcount=2556
Dural
2016-07-19, 09:47:47
Ihr immer mit euren Kepler vergleiche, Pascal ist schon die 3. Generation. Der Treiber Support dürfte mittlerweile sehr bescheiden sein. Und kommt mir jetzt ja nicht das dies bei AMD besser sei, AMD hat ihre alte Architektur (6970 und älter) innert wenigen Monaten nach der 7970 fallen gelassen.
Ach ja, die meisten GK110 machen schon mal 1,2GHz mit, das ergibt 30% mehr Leistung. Vergleicht das mal mit einer 290X :wink: Das grösste Problem von Kepler dürfte der geringe Speicher sein, eine Titan Black @ 1,2GHz dürfte nach wie vor ganz gut da stehen.
Zudem die 1280SP für die 1060 / GP106 seit Monaten bekannt sind, also tut hier nicht so überrascht. AMD benötigt mal wieder die doppelte Anzahl Einheiten um auf dieselbe Leistung zu kommen. Und wenn wir schon dabei sind, AMD benötigt somit gegen GP102/100 satte 7680SP :freak: klar Milchmädchenrechnung, aber AMD ist nicht gerade dafür bekannt bei grossen Chips eine super Skalierung hinzubekommen...
Screemer
2016-07-19, 09:53:20
Effizienz scheint ziehmlich gut zu sein.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11100505&postcount=2556
Ich meinte ehr mehr Speed mit mehr shadern bei gleichem/ähnlichem verbrauch. Was interessieren mich 30-50 Watt. Das sind für mich im Jahr vll 8€. Das ist doch völlig belanglos. Bang 4 the bug ist das was für mich zählt. Na wir werden sehen.
dargo
2016-07-19, 09:56:52
Ach ja, die meisten GK110 machen schon mal 1,2GHz mit, das ergibt 30% mehr Leistung. Vergleicht das mal mit einer 290X :wink:
Tahiti Pro blendest du wohl bewußt aus, wa?
Zudem die 1280SP für die 1060 / GP106 seit Monaten bekannt sind, also tut hier nicht so überrascht. AMD benötigt mal wieder die doppelte Anzahl Einheiten um auf dieselbe Leistung zu kommen.
Nvidia braucht bald den doppelten Takt wie AMD um mitzuhalten. :uclap:
Undertaker
2016-07-19, 09:59:00
Ich meinte ehr mehr Speed mit mehr shadern bei gleichem/änlichdm vervrauch. Was interessieren mich 30-50 Watt. Das sind für mich im Jahr vll 8€. Das ist doch völlig belanglos. Bang 4 the bug ist das was für mich zählt. Na wir werden sehen.
Effizienz ist für mich kein Thema der Stromkosten. Auch wenn da 20 € über die Nutzungszeit der Karte in deiner Bang 4 the Buck Rechnung nicht fehlen sollten. 50 Watt weniger bedeuten für mich in erster Linie, dass bei gleichem Kühler die Lüfterdrehzahl um 30 - 50% sinken kann und ich einen Gehäuselüfter weniger brauche (bzw. auch entsprechend weniger Drehzahl). Im Sommer kommt noch das Thema Zimmererwärmung hinzu. Mit 250 Wh (= Differenz nach 5h Zocken) kannst du etwa 250 m³ Luft um 3K aufzeizen.
kuj0n
2016-07-19, 10:00:24
Gibt es mittlerweile AC Support für Vulkan und Doom?
dildo4u
2016-07-19, 10:04:13
Nein kann sein das ein Patch von Gameseite kommen muss und NV das nicht per Treiber fixen kann.Solche Patches müssen ja auch erstmal getestet werden,ich glaube bei Doom hat man keine Möglichkeit Beta Patches zu testen.
Flusher
2016-07-19, 10:17:15
Ich meinte ehr mehr Speed mit mehr shadern bei gleichem/änlichdm vervrauch. Was interessieren mich 30-50 Watt. Das sind für mich im Jahr vll 8€. Das ist doch völlig belanglos. Bang 4 the bug ist das was für mich zählt. Na wir werden sehen.
Zu was verwandeln Halbleiter Strom nochmal?
Ahja...Abwärme war das....
Flusher
2016-07-19, 10:19:27
Effizienz scheint ziehmlich gut zu sein.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11100505&postcount=2556
Und wie ist das zu interpretieren?
Und eine 1050 ohne 6-pin wäre sicher auch kein Thema mehr :D
scully1234
2016-07-19, 11:09:02
Nvidia braucht bald den doppelten Takt wie AMD um mitzuhalten. :uclap:
Und ist trotz allem effizienter unterwegs;D
Ist doch voellig irrelevant was fuer Takt ich anlegen muss, wenn im Endeffekt das Ergebnis paßt
''Mithalten'' muss hier doch eher jemand anderes
Sei lieber froh das sie nicht mehr in die Breite gehen und noch niedriger takten mit dieser Architektur
Ailuros
2016-07-19, 11:24:47
Ihr immer mit euren Kepler vergleiche, Pascal ist schon die 3. Generation. Der Treiber Support dürfte mittlerweile sehr bescheiden sein.
Das Treiber team ist in letzten Jahren nicht kleiner sondern groesser geworden und das sicher nicht damit sie mehr Personal haben die sich nur den Hintern kratzen.
Ich meinte ehr mehr Speed mit mehr shadern bei gleichem/änlichdm vervrauch. Was interessieren mich 30-50 Watt. Das sind für mich im Jahr vll 8€. Das ist doch völlig belanglos. Bang 4 the bug ist das was für mich zählt. Na wir werden sehen.
Es ist nichts Neues dass mainstream chips in etwa die Haelfte der Einheiten eines performance chips haben und das schon seit etlichen Jahren. Wie schon erwaehnt der Schluessel hier nennt sich Effizienz und diese wird sich NV leider so oder so auch teurer bezahlen lassen.
Dural
2016-07-19, 11:38:22
Und ist trotz allem effizienter unterwegs;D
Ist doch voellig irrelevant was fuer Takt ich anlegen muss, wenn im Endeffekt das Ergebnis paßt
''Mithalten'' muss hier doch eher jemand anderes
Sei lieber froh das sie nicht mehr in die Breite gehen und noch niedriger takten mit dieser Architektur
Vorallem der doppelte Takt was zwischen 2200-2500MHz je nach Boost der RX480 bedeuten würde, GTX1060 hat aber nur 1700MHz (je nach Boost) das sind gerade mal rund 50% mehr :rolleyes:
dildo4u
2016-07-19, 11:50:21
Erste China Review:
http://www.hkepc.com/14257/%E5%85%A8%E6%96%B0GP106%E7%B9%AA%E5%9C%96%E6%A0%B8%E5%BF%83_NVIDIA_GeForce_GTX_1 060%E7%99%BB%E5%A0%B4/page/7#view
Habe zuletzt nicht viel mitbekommen.
Wann läuft das nda aus?
Danke schon vorab ;)
dargo
2016-07-19, 11:56:09
Und kommt mir jetzt ja nicht das dies bei AMD besser sei, AMD hat ihre alte Architektur (6970 und älter) innert wenigen Monaten nach der 7970 fallen gelassen.
Es war von Anfang an (Mantle) für jeden klar, dass nur GCN bei low level eine Rolle spielt. Aber danke für den Trollversuch. Du kannst mir bei der Gelegenheit gerne die Überlegenheit von Fermi unter low level zeigen. Oh wait... da war doch was. :rolleyes: Hat NV wie ne heiße Kartoffel fallen lassen obwohl man noch als DX12 vorgestellt wurde groß geprahlt hat wie breitflächig Geforces DX12 unterstützen würden.
dildo4u
2016-07-19, 11:56:18
Habe zuletzt nicht viel mitbekommen.
Wann läuft das nda aus?
Danke schon vorab ;)
15 Uhr.
tm0975
2016-07-19, 12:13:46
Effizienz ist für mich kein Thema der Stromkosten. Auch wenn da 20 € über die Nutzungszeit der Karte in deiner Bang 4 the Buck Rechnung nicht fehlen sollten. 50 Watt weniger bedeuten für mich in erster Linie, dass bei gleichem Kühler die Lüfterdrehzahl um 30 - 50% sinken kann und ich einen Gehäuselüfter weniger brauche (bzw. auch entsprechend weniger Drehzahl). Im Sommer kommt noch das Thema Zimmererwärmung hinzu. Mit 250 Wh (= Differenz nach 5h Zocken) kannst du etwa 250 m³ Luft um 3K aufzeizen.
also so viel unsinn habe ihc selten gelesen. die 20 € sind eher 5 € im jahr. und diese sind bei den höheren anschaffungskosten für nvidia doch eher irrelevant. aber die 30 bis 50 % geringere lüfterdrehzahl sind doch total albern es mögen viellen 8 bis 10 sein und die hört man gerade im bereich der 1060/480 definitiv nicht störend heraus. die zimmererwährmung bzw deine rechnung dazu ist nahezu lächerlich...
kurz: vollig übertriebene ausgedachte zahlen!!!
Hidemind
2016-07-19, 12:26:04
Hallo Forengemeinde,
ich bin neu hier, aber ich lese schon lange mit.
Ich bin sehr gespannt auf die GTX1060 aka GP106. P10 wird harte Konkurrenz bekommen, aber womöglich wird man dank etwas höherer Bandbreite und mehr VRAM hier und da Vorteile bekommen. Eine 3GB GP106 ist wirklich eine ziemlich lächerliche Konstellation und kann ignoriert werden.
Ansonsten wird DX12 und Vulkan noch interessant. Beide Karten halte ich für "gleichwertig".
Fliwatut
2016-07-19, 12:37:29
Erstes Review aus China: http://www.hkepc.com/14257/%E5%85%A8%E6%96%B0GP106%E7%B9%AA%E5%9C%96%E6%A0%B8%E5%BF%83_NVIDIA_GeForce_GTX_1 060%E7%99%BB%E5%A0%B4/page/1#view
Minimal schneller als eine RX 480.
dildo4u
2016-07-19, 12:46:49
Custom MSI für 250$.
http://cdn.videocardz.com/1/2016/07/MSI-GeForce-GTX-1060-6GTOC-4.jpg
http://videocardz.com/62372/msi-geforce-gtx-1060-6gtoc-pictured
Screemer
2016-07-19, 12:53:00
Zu was verwandeln Halbleiter Strom nochmal?
Ahja...Abwärme war das....
Ist für mich, ich rede wie gesagt nicht für andere, belanglos. Ob der Chip jetzt 65 oder 85 grad hat tangiert mich kaum.
Undertaker
2016-07-19, 13:00:24
also so viel unsinn habe ihc selten gelesen. die 20 € sind eher 5 € im jahr. und diese sind bei den höheren anschaffungskosten für nvidia doch eher irrelevant. aber die 30 bis 50 % geringere lüfterdrehzahl sind doch total albern es mögen viellen 8 bis 10 sein und die hört man gerade im bereich der 1060/480 definitiv nicht störend heraus. die zimmererwährmung bzw deine rechnung dazu ist nahezu lächerlich...
kurz: vollig übertriebene ausgedachte zahlen!!!
Vielleicht solltest du dich erst einmal mit der Physik vertraut machen, bevor du so urteilst. :)
Luftdurchsatz verhält sich proportional zum transportierten Wärmestrom
Lüfterdrehzahl wächst überproportional mit dem Luftdurchsatz
-> Lüfterdrehzahl wächst überproportional mit dem abzuführenden Wärmestrom
Thema Stromkosten: Ich habe schon mehrfach gesagt, das das für mich nicht der Hauptfaktor ist. 5-10 Euro pro Jahr summieren sich über 3 Jahre allerdings auch auf 15-30 Euro, die du in den Kaufpreis einbeziehen darfst. Wie hoch ist dann die Differenz zwischen entsprechenden Customs noch?
Bösewicht
2016-07-19, 13:05:15
ca. 250 haben meine früheren x60er Karten mit doppelten Speicher auch schon fast immer gekostet.
wirklich viel teurer ist sie nicht geworden im vergleich zur 1070/1080
dargo
2016-07-19, 13:07:27
Erstes Review aus China: http://www.hkepc.com/14257/%E5%85%A8%E6%96%B0GP106%E7%B9%AA%E5%9C%96%E6%A0%B8%E5%BF%83_NVIDIA_GeForce_GTX_1 060%E7%99%BB%E5%A0%B4/page/1#view
Minimal schneller als eine RX 480.
Ein spitzen Benchmarkparkour haben die da aufgestellt. Besonders mit dem 3DMark Firestrike und Unigine Heaven. :uup:
Nightspider
2016-07-19, 13:22:41
Gab es schon Leaks wie groß der Chip ist? Der müsste ja absolut winzig sein mit 170-200mm².
Deswegen wird NV selbst bei 250 USD immer noch eine dicke Marge haben.
y33H@
2016-07-19, 13:23:30
Fight! :biggrin:
56753
Undertaker
2016-07-19, 13:30:30
Gab es schon Leaks wie groß der Chip ist? Der müsste ja absolut winzig sein mit 170-200mm².
Deswegen wird NV selbst bei 250 USD immer noch eine dicke Marge haben.
200mm².
Unicous
2016-07-19, 13:46:08
ca. 250 haben meine früheren x60er Karten mit doppelten Speicher auch schon fast immer gekostet.
wirklich viel teurer ist sie nicht geworden im vergleich zur 1070/1080
Das ist schön, dass "deine" x60er Karten auch nur 250 Euro gekostet haben.
Wir reden hier aber erstens von Dollar (es könnten also durchaus noch ca. 10% Aufschlag geben) und zweitens von einer Preissteigerung im gleichen Marktsegment um ca 25%. Klar bekommt man mehr Leistung und mehr VRAM... aber man darf dafür auch mehr bezahlen.
Dural
2016-07-19, 14:14:30
Ist doch eh ein märchen das immer alles teuer wird :rolleyes: habe gerade gestern auf youtube ein altes video angeschaut, da ging es auch um die ATi 9500Pro. Natürlich wurde der Preis von 280.- EURO kritisiert. :D
Der R300 hatte 218mm2 und auf der 9500Pro nur 128Bit
Bösewicht
2016-07-19, 14:22:28
Das ist schön, dass "deine" x60er Karten auch nur 250 Euro gekostet haben.
Wir reden hier aber erstens von Dollar (es könnten also durchaus noch ca. 10% Aufschlag geben) und zweitens von einer Preissteigerung im gleichen Marktsegment um ca 25%. Klar bekommt man mehr Leistung und mehr VRAM... aber man darf dafür auch mehr bezahlen.Ja und wo ist das Problem?
Seitdem ist der Euro um 0,24€ gefallen, Inflation 230€ 2% auf 5 Jahre laut Rechner = 253,94 + Neue Fertigung nach langer Zeit+ sehr großer Leistung Zuwachs / vorher Sprung in etwa x60 = lastgen x70 vs aktuell x60 mit x80 lastgen powerund diesmal wohl wenn überhaupt die kleine speichervariante später und nicht wie sonst zuerst.
edit:
oh preise sogar ab 240...
http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-560-ti/test/nvidia_geforce_gtx_560_ti,70,2320460.html
Unicous
2016-07-19, 14:34:39
Erklärst du mir dann auch noch warum du die 960 mit der 560 Ti vergleichst?:confused:
Wie wäre es stattdessen mit der GTX 560... die oh Wunder, oh Wunder damals 165 Euro kostete.
http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-560/test/nvidia_geforce_gtx_560,293,2322925.html
Dir dürfte doch bekannt sein, dass die x60 Ti ein abgespeckter Performance-Chip also xx4 ist. Wir reden hier aber von xx6. Der Vergleich hinkt also.
fondness
2016-07-19, 14:35:24
Ist doch eh ein märchen das immer alles teuer wird :rolleyes: habe gerade gestern auf youtube ein altes video angeschaut, da ging es auch um die ATi 9500Pro. Natürlich wurde der Preis von 280.- EURO kritisiert. :D
Der R300 hatte 218mm2 und auf der 9500Pro nur 128Bit
Die 9500pro verwendete damals den High-End-Chip R300, der nebenbei bemerkt zur damaligen Zeit mit >200mm² sämtliche Design-constraints von TSMC sprengte. Heute Undenkbar, dass man einen teildeaktivierten High-End-Chip um den Preis bekommt. Aber das ist ohnehin aus mehreren Gründen nicht vergleichbar.
Bösewicht
2016-07-19, 14:46:30
Erklärst du mir dann auch noch warum du die 960 mit der 560 Ti vergleichst?:confused:
Wie wäre es stattdessen mit der GTX 560... die oh Wunder, oh Wunder damals 165 Euro kostete.
http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-560/test/nvidia_geforce_gtx_560,293,2322925.html
Dir dürfte doch bekannt sein, dass die x60 Ti ein abgespeckter Performance-Chip also xx4 ist. Wir reden hier aber von xx6. Der Vergleich hinkt also.
Ich vergleiche nicht die 560 mit 960 sondern 2010/2011 mit 2016 und zeige dir das die Karten schon immer in diesen Bereich gekostet haben mal mehr mal weniger.
Die 4GB 960 kostete auch mehr als 220€ und die gab es erst lange nach der 960 2gb und sie hatte eine Fertigung die völlig ausgelutscht gewesen ist.
die 560 hat vielleicht am ende 160 gekostet so wie jetzt die 960 aber dann auch nur die 1gb variante, du vergleichst die startpreis 1060 6gb mit der ausverkauf 560 1gb.
Aus welchen Chip die Ti gemacht wurde ist doch egal, ATI labelt ja zum vergleich auch um, ja schon klar nvidia auch aber das ist der punkt es machen beide so also ist der punkt völlig wurst.
so im neuen thread bitte weiter!
StefanV
2016-07-19, 14:50:01
Ich vergleiche nicht die 560 mit 960 sondern 2010/2011 mit 2016 und zeige dir das die Karten schon immer in diesen Bereich gekostet haben mal mehr mal weniger.
Nein, das ist Unsinn.
Für meine HIS Radeon HD5750 habe ich damals AFAIR etwa 105€ gezahlt.
Die Radeon HD4850 war ähnlich preiswert.
Und hier auch ein Beweis:
http://www.heise.de/preisvergleich/?phist=494143 <- HIS 5750
https://geizhals.de/?phist=345500 <- Sapphire 4850
Erst in den letzten Jahren ist der Preis so derbe explodiert.
Nightspider
2016-07-19, 14:51:50
@Bösewicht.
Der Chip von der GTX560 war damals mit 332mm² aber auch satte 66% größer als GP106 wenn sich die 200mm² für GP106 bestätigen.
Sorry aber dein Vergleich ist fürn Arsch. ;)
Unicous
2016-07-19, 14:59:06
Ich vergleiche nicht die 560 mit 960 sondern 2010/2011 mit 2016 und zeige dir das die Karten schon immer in diesen Bereich gekostet haben mal mehr mal weniger.
Die 4GB 960 kostete auch mehr als 220€ und die gab es erst lange nach der 960 2gb und sie hatte eine Fertigung die völlig ausgelutscht gewesen ist.
die 560 hat vielleicht am ende 160 gekostet so wie jetzt die 960 aber dann auch nur die 1gb variante, du vergleichst die startpreis 1060 6gb mit der ausverkauf 560 1gb.
Aus welchen Chip die Ti gemacht wurde ist doch egal, ATI labelt ja zum vergleich auch um, ja schon klar nvidia auch aber das ist der punkt es machen beide so also ist der punkt völlig wurst.
so im neuen thread bitte weiter!
Ausverkauf der 560? Die wurde da gelauncht, das war der UVP. :facepalm:
Du drehst dir hier die Dinge wie sie dir passen. Dir dürfte doch über die Jahre aufgefallen sein, dass die Nummern x60, x70, x80,... für Preis(- und Performance)segmente stehen. Warum also kostet der Nachfolger der traditionell ungefähr so schnell ist wie das nächsthöhere Segment der vorangegangenen Generation auf einmal wieder 25% mehr? Ist das nicht irgendwie bedenklich?:confused:
Hakim
2016-07-19, 14:59:45
http://www.mindfactory.de/product_info.php/6144MB-Gainward-GeForce-GTX-1060-6GB_1113110.html 279€ und lieferbar :)
Nightspider
2016-07-19, 15:01:59
Aber vergesst bitte auch nicht das die GTX560 bzw. der GF114 einen leicht überarbeiteten GF104 Chip der gleichen Größe hatte/war.
Realistischer ist es mit der GTX460 zu vergleichen. Die ging damals glaube für ~~~250€ über the Theke aber sank recht schnell auf ~220€. (ziemlich lange her)
Bösewicht
2016-07-19, 15:03:25
wenn vw in einen neuen golf die gleiche PS Leistung und Ausstattung in ein nur halb so großes Auto baut dann darf das Auto wohl auch nur noch halb so viel kosten wie der Vorgänger oder? :D
Unicous
2016-07-19, 15:07:24
Nichtssagende und völlig am Thema vorbeigehende Auto-Analogien haben eine Diskussion schon immer zum Durchbruch geholfen. Bald wird wohl auch Godwin's Law Einzug halten um die Debatte erfolgreich abzuschließen.:rolleyes:
Bösewicht
2016-07-19, 15:10:57
Ausverkauf der 560? Die wurde da gelauncht, das war der UVP. :facepalm:
Du drehst dir hier die Dinge wie sie dir passen. Dir dürfte doch über die Jahre aufgefallen sein, dass die Nummern x60, x70, x80,... für Preis(- und Performance)segmente stehen. Warum also kostet der Nachfolger der traditionell ungefähr so schnell ist wie das nächsthöhere Segment der vorangegangenen Generation auf einmal wieder 25% mehr? Ist das nicht irgendwie bedenklich?:confused:
http://geizhals.de/?phist=610915
komisch, wieso zeigt die kurve bei der ersten x beliebigen 560er ein startpreis von über 250 an?
wir reden wir von der großen 2gb nicht von der kleinen 1gb
msi
http://geizhals.de/?phist=678614
evga
http://geizhals.de/?phist=642850
sparkle
http://geizhals.de/?phist=612237
na wer dreht sich hier nun was zurecht... ;D
MSI GeForce GTX 960 Gaming 4G
http://geizhals.de/?phist=1241385
Gigabyte GeForce GTX 960 Xtreme Gaming
http://geizhals.de/?phist=1416915
es ist immer das gleiche bild ;)
Hübie
2016-07-19, 15:14:26
560 MSRP: 199$+fat
560 Ti MSRP: 239$+fat
Nun kloppt euch :D
Exekutor
2016-07-19, 15:19:18
http://www.mindfactory.de/product_info.php/6144MB-Gainward-GeForce-GTX-1060-6GB_1113110.html 279€ und lieferbar :)
280 Euro, passt, wird gekauft. Jetzt ist nur noch die Frage welche Marke... ;D
Unicous
2016-07-19, 15:23:02
@Bösewicht
Dir ist schon klar, dass du ausschließlich 560Ti verlinkt hast oder?:confused: ;D
Die erste x-beliebige 560 ist auch die einzige noch gelistete 560 und deren Verlauf ist mehr als eindeutig:
http://geizhals.de/?phist=642379&age=9999
Und dass geizhals (und alle anderen Preissuchmaschinen) bei den Preisgraphen leider nicht zuverlässig ist sollte man eigentlich schon längst wissen, denn sie nehmen auch vermeintliche Niedrigpreise von dubiosen Händler mit auf, nur mal so als Infor für dich. Zweitens sollte man nicht auf die ersten Tage schauen, denn das sind die Tage an denen das Produkt zum ersten Mal mit Preis gelistet wurde... und die sind manchmal inflationär hoch (oder auch tief), weil... sie der Fantasie entspringen oder Vorabpreise darstellen die zum Marktstart korrigiert werden.
Neosix
2016-07-19, 15:25:38
280 Euro, passt, wird gekauft. Jetzt ist nur noch die Frage welche Marke... ;D
Ich stehe genau vor der gleichen Wahl.
Meine GTX660 pfeift aus dem letzten Loch, die 1060 wird bei für mich die nächste GPU werden. Die Frage ist wieder welches Modell. Da ich die Graka bestimmt wieder x Jahre behalte, bräuchte ich eine die vielleicht ab Werk schon ordentlich übertaktet ist.
Bösewicht
2016-07-19, 15:38:59
@Bösewicht
Dir ist schon klar, dass du ausschließlich 560Ti verlinkt hast oder?:confused: ;D
Die erste x-beliebige 560 ist auch die einzige noch gelistete 560 und deren Verlauf ist mehr als eindeutig:
http://geizhals.de/?phist=642379&age=9999
Und dass geizhals (und alle anderen Preissuchmaschinen) bei den Preisgraphen leider nicht zuverlässig ist sollte man eigentlich schon längst wissen, denn sie nehmen auch vermeintliche Niedrigpreise von dubiosen Händler mit auf, nur mal so als Infor für dich. Zweitens sollte man nicht auf die ersten Tage schauen, denn das sind die Tage an denen das Produkt zum ersten Mal mit Preis gelistet wurde... und die sind manchmal inflationär hoch (oder auch tief), weil... sie der Fantasie entspringen oder Vorabpreise darstellen die zum Marktstart korrigiert werden.
wir haben aneinander vorbei geredet, ich gehe von der größtmöglichen x60 aus egal ob 560, 960 oder jetzt 1060, also immer die dickste variante und ich kann sagen damit bin ich immer gut gefahren weil die doppelt spicher x60r karten selbst heute noch bei eBay gut Geld gegeben haben, der Preisverfall ist nicht so schlimm wie bei der anfangs x60er mit halben ram.
für meine 560 hab ich noch 40-50€ viele jahre später bekommen weil es immer welche gibt oder gab die sich am ende noch mal ein sli System basteln wollten.
warum sollte ich die kleinste 560 mit der großen 1060 vergleichen.
Hermelinmaster
2016-07-19, 15:43:20
Gibt es denn schon einen Review-Thread zur 1060? Hier ist ja Speku.
dildo4u
2016-07-19, 15:44:44
Gibt es denn schon einen Review-Thread zur 1060? Hier ist ja Speku.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=574755
BK-Morpheus
2016-07-19, 15:45:34
Gibt es denn schon einen Review-Thread zur 1060? Hier ist ja Speku.
Jede Menge, ja...seit 15 Uhr, wie erwartet.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=574755
Unicous
2016-07-19, 15:54:25
@Bösewicht
Ich glaube du redest an dir selbst vorbei?:eek:
Die "kleinste" 560 gegen die "große" 1060? WTF?
Du brauchst dich hier nicht herauszuwieseln, du hast explizit x60 gesagt. Die 1060 ist schon die "kleine" x60 denn sie basiert auf GP106 wie man auch dem Thread-Titel entnehmen kann. Wenn man es nämlich genau nimmt ist die 560 die große Karte denn sie basiert auf dem (abgespeckten) Fermi Performance-Chip GF114, die 1060 auf dem Mainstream-Chip GP106. Wie auch die 660 auf GK106 basiert.
Die 760 hingegen nutzt wie die 560 den ehemaligen Performance-Chip GK104. (edit: nicht zu vergessen die GTX 960, die wiederum GM206 nutzt)
Warum du überhaupt eine 5 Jahre alte Karte mit einer heute gelaunchten Karte vergleichst stellt mich vor ein großes Rätsel.
Warum du dann wie es dir passt Ti und normale x60 miteinandervermengst und dann noch nicht einmal zugibst, dass du einen Fehler beim Raussuchen von Preisen machst... keine Worte findet man für so einen Diskussionsstil.
Dann auch noch persönliche Anektdoten einzuflechten setzt dem dann noch die Krone auf.
Bösewicht
2016-07-19, 16:16:40
du raffst es nicht und gut ist, ich reiche dir auch noch zuckerbrott und bekomme weiter deine engstirnige bashing attacke ab. fail
Unicous
2016-07-19, 16:34:28
Nein, du raffst es nicht.
Du laberst hier die ganze Zeit von unterschiedlichen Preissegmenten und wunderst dich dann wenn man dich auf diesen Blödsinn hinweist. Und dann gibst du es noch nicht einmal zu.
Für dich noch einmal zum Mitschreiben.
Wir reden hier von GP106 der gerade im Vollausbau gelauncht wurde. Wir reden nicht von einer hypothetischen GTX 1060 Ti, die wenn es sie denn gibt, höchstwahrscheinlich auf einem GP104 Salvage-Part basieren wird.
Aber auch das ist unwichtig. Es geht um das Preisgefüge. Die normale xx60 und die Ti bedienen verschiedene Preissegmente wie du hoffentlich langsam mitbekommen hast.
Und die GTX 960 (direkter Vorgänger), die auf dem Mainstream-Chip GM206 basiert hat zur Markeinfrührung 200 Dollar gekostet. Die 1060 kostet 250 Dollar. Ein Aufpreis von 25% für das ehemals gleiche Marktsegment.
Eine 960 Ti gibt es gar nicht, warum sollte man also Ti mit "normaler" Version vergleichen? Warum? Wieso? Weshalb?
Nightspider
2016-07-19, 17:08:35
Vor allem da die GTX960 schon ein schlechtes Preis/Leistungs-Verhältnis hatte und genauso langsam war wie die GTX760.
wenn vw in einen neuen golf die gleiche PS Leistung und Ausstattung in ein nur halb so großes Auto baut dann darf das Auto wohl auch nur noch halb so viel kosten wie der Vorgänger oder? :D
:facepalm:
Ein noch dümmerer Vergleich ist dir wohl nicht eingefallen? :ugly:
Hübie
2016-07-19, 19:01:51
Also der Verbrauch ist ja gar nicht so toll wenn man jetzt mal an die 750 Ti mit 640 ALUs und ähnlichem Takt denkt. Aber relativ zur Performance wiederum beeindruckend was sich seit Maxwell 1.0 in beiden Bereichen getan hat.
Tendenziell sieht man nun aber schon welches Produkt langlebiger ist. In Doom zieht die RX 480 Kreise um GP106. Leider ist es A) noch die Ausnahme und B) zu vage. Aktuell ist die 1060 das rundere Produkt; nicht zuletzt weil es direkt customs gibt.
BiZiNiZz
2016-07-19, 19:17:38
Also der Verbrauch ist ja gar nicht so toll wenn man jetzt mal an die 750 Ti mit 640 ALUs und ähnlichem Takt denkt. Aber relativ zur Performance wiederum beeindruckend was sich seit Maxwell 1.0 in beiden Bereichen getan hat.
Tendenziell sieht man nun aber schon welches Produkt langlebiger ist. In Doom zieht die RX 480 Kreise um GP106. Leider ist es A) noch die Ausnahme und B) zu vage. Aktuell ist die 1060 das rundere Produkt; nicht zuletzt weil es direkt customs gibt.
Also wenn ich mir von Igor den Effizienztest anschaue, dann ist die 1060 echt brutal sparsam:
http://media.bestofmicro.com/E/P/595393/original/Performance-vs.-Power-Consumption.png
http://www.tomshardware.de/nvidia-geforce-gtx-1060-pascal-grafikkarte,testberichte-242156-8.html
Und zu Doom, verweise ich gern mal auf das Bethesda Forum:
https://community.bethesda.net/thread/54585?tstart=0
Does DOOM support asynchronous compute when running on the Vulkan API?
Asynchronous compute is a feature that provides additional performance gains on top of the baseline id Tech 6 Vulkan feature set.
Currently asynchronous compute is only supported on AMD GPUs and requires DOOM Vulkan supported drivers to run. We are working with NVIDIA to enable asynchronous compute in Vulkan on NVIDIA GPUs. We hope to have an update soon.
AC wird aktuell noch gar nicht von DOOM auf nVidia Hardware unterstützt, daher einfach mal abwarten und Tee trinken. Aber du sagtest ja selbst Ausnahme und zu Vage ;)
Ailuros
2016-07-19, 19:20:15
Also der Verbrauch ist ja gar nicht so toll wenn man jetzt mal an die 750 Ti mit 640 ALUs und ähnlichem Takt denkt. Aber relativ zur Performance wiederum beeindruckend was sich seit Maxwell 1.0 in beiden Bereichen getan hat.
Tendenziell sieht man nun aber schon welches Produkt langlebiger ist. In Doom zieht die RX 480 Kreise um GP106. Leider ist es A) noch die Ausnahme und B) zu vage. Aktuell ist die 1060 das rundere Produkt; nicht zuletzt weil es direkt customs gibt.
Damien hat sich endlich gemeldet: http://www.hardware.fr/articles/952-1/geforce-gtx-1070-gtx-1060-cartes-asus-gainward-test-face-aux-founders-edition-nvidia.html
Wenn ich mir die Geometrie bzw. Tessellations-tests so ansehe haette ich um einiges mehr erwartet wenn ich an die diversen leaks von 'Entwicklern' denke die "schwoerten" dass Polaris10 ganze Baeume ausreisst wenn es zu Geometrie kommt.
Sonst insgesamt ja zur hoeheren Effizienz fuer die 1060, aber wenn ich mir den Durschnitt bei 1080p bei computerbase im Vergleich zur 480 ansehe sind es +6% fuer die erste. Da die 480 ein Stueck billiger ist meistens, bin ich mir nicht so sicher ob ich schon jetzt Schlussvolgerungen ziehen will.
Also der Verbrauch ist ja gar nicht so toll wenn man jetzt mal an die 750 Ti mit 640 ALUs und ähnlichem Takt denkt. Aber relativ zur Performance wiederum beeindruckend was sich seit Maxwell 1.0 in beiden Bereichen getan hat.
Tendenziell sieht man nun aber schon welches Produkt langlebiger ist. In Doom zieht die RX 480 Kreise um GP106. Leider ist es A) noch die Ausnahme und B) zu vage. Aktuell ist die 1060 das rundere Produkt; nicht zuletzt weil es direkt customs gibt.
Der Chip wurde offenbar wegen der 480 noch etwas nach oben gedrueckt. Etwas weniger Takt und das Ding arbeitet schon beeindruckend effizient. Es waeren sogar schnelle Karten ohne 6-Pin denkbar.
AC wird aktuell noch gar nicht von DOOM auf nVidia Hardware unterstützt, daher einfach mal abwarten und Tee trinken. Aber du sagtest ja selbst Ausnahme und zu Vage ;)
AC wird afaik generell in DOOM, also auch auf AMD Hardware nur mit bestimmten AA Modi genutzt. Auch ohne steht Nvidia aktuell genauso schlecht da.
Bösewicht
2016-07-19, 20:52:21
Ein noch dümmerer Vergleich ist dir wohl nicht eingefallen? :ugly:
klar geht auch besser aber da von euch ja null Komma nichts kommt reicht selbst der blödeste vergleich schon aus.
Worüber reden wir hier, ich hab für mich festgestellt das ein Update auf 1060 kaum mehr kostet als damals mein Update zur 560 2g ti und ihr stört euch an so einer harmlosen feststellung ;D
Es wird keine 1060ti geben und es gab auch keine 960ti allllsooo, welche 560 ist die größte gewesen, richtig... welche 960 ist die größte gewesen... genau, und welche 1060 ist die größte? genau, und die großen Versionen verglichen = meine aussage ist korrekt.
Und für die 10-20-30€ Differenz hab ich euch Inflation + die anderen punkte schon vorgerechnet, na egal ist ja alles kein Argument ja ja habs gecheckt zählt alles nicht nm, 104, 106 ti ja ja schon klar kauft euch ein ATI oder klappe :freak:
Unicous
2016-07-19, 21:30:17
Nein, das ist alles Quark was du erzählst und jetzt merkst du es und versucht Schadensbegrenzung zu betreiben, ruderst zurück und hast es alles ganz anders gemeint und behälst am Ende doch "recht".:rolleyes:
Wir sind hier im GP106 Thread... du hast anfangs von x60 gesprochen um dann wild mit den Armen zu fuchteln als man deine Aussagen als Quatsch entlarvt hat... und wenn wir schon beim Klugscheißen angelangt sind dann werfe ich gerne noch die "GeForce GTX 560 Ti 448 Core" ein die die "größte" """560""" ist und auf GF110 basiert.
:rolleyes::rolleyes:
:facepalm:
nismod
2016-07-19, 22:24:15
Ich wäre mir da nicht so sicher das es keine 1060 TI geben wird. Die Boards von FE und einige Custom Boards haben Platz für 8 Speicherchips und sollen wohl auch mit GP104 funktionieren.
Bösewicht
2016-07-19, 23:11:46
Nein, das ist alles Quark was du erzählst und jetzt merkst du es und versucht Schadensbegrenzung zu betreiben, ruderst zurück und hast es alles ganz anders gemeint und behälst am Ende doch "recht".:rolleyes:
Wir sind hier im GP106 Thread... du hast anfangs von x60 gesprochen um dann wild mit den Armen zu fuchteln als man deine Aussagen als Quatsch entlarvt hat...
nein
ca. 250 haben meine früheren x60er Karten mit doppelten Speicher auch schon fast immer gekostet.
wirklich viel teurer ist sie nicht geworden im vergleich zur 1070/1080
Ich hatte die 560 2gb Gainward Phantom
http://geizhals.de/?phist=610597
Und die kostete ca. 240€ oder mehr was also wie ich vorgerechnet habe in der heutigen zeit auch nicht so viel weniger ist als das aktuelle 1060 update vor allem da der Sprung von 960 zur 1060 sehr groß ist was auch die Testberichte und das Preisleistung/Performance Rating bestätigt!!!
Du interpretierst hier irgendwas aus mein Post was nicht stimmt.
Das Ti gab es zu 460 Zeiten glaube ich nicht und wurde kurz für 560 wieder eingeführt und später wieder abgeschafft und in der Generation geht es von oben nach unten also erst 1080, dann 1070, jetzt 1060 und eventuell vielleicht in Zukunft auch eine kleine 1060 aber nach aktuellen stand ist das die größte 1060 und solange es keine anderen Infos gibt und die gibt es nicht, solange ist es die fette 1060 vergleichbar mit der 960 4gb oder der ollen 560 ti 2gb die ich zum Schluss hatte..
Es juckt mich auch nicht im geringsten ob der chip 200, 300 oder 400²nm hat und ob es jetzt ein 104, 106 ist.
Für mich klingt das mal wider nur nach mimimi böses nvidia will Geld mit sein Produkt verdienen.
herp_derp
2016-07-19, 23:31:40
Wollt ihr das nicht lieber per PN austragen?
Digidi
2016-07-19, 23:38:35
AC wird aktuell noch gar nicht von DOOM auf nVidia Hardware unterstützt, daher einfach mal abwarten und Tee trinken. Aber du sagtest ja selbst Ausnahme und zu Vage ;)
Wie Lange soll man denn noch auf Asyn Compute warten? Seit 1 Jahr warten alle Nvidia Besitzer au Async Compute? Da wird nichts kommen, denn die Hardware kann es nicht oder nur ungenügend!
Unicous
2016-07-19, 23:53:47
@Bösewicht
Sag mal checkst du eigentlich irgendwann mal was du da verlinkst?:eek:
Gainward GeForce GTX 560 Ti Phantom
Wenn du von einer 560 Ti sprichst dann nenne sie auch so.
Niemand bestreitet, dass die 560 Ti teurer ist/war als die 560... hier geht es nur nicht um die Ti, die bislang von Nvidia nicht als Mainstream Chip aufgelegt wurde.
Du vergleichst die Preise einer Ti von vor 5 Jahren mit der einer "normalen" 1060 und behauptest preislich hätte sich da ja nicht viel getan. Und das ist einfach eine lächerliche Aussage, da du zwei verschiedene Produkte in verschiedenen Marktsegmenten vergleichst und dann so tust als wäre das legitim, dabei nutzt Nvidia hier einen Mainstream Chip (GP106) und bei der 560er Reihe den Performance Chip (GF 114).
Wie gesagt, wenn du von irgendwelchen "fetten" Karten sprichst dann vergleiche doch mit der "560 Ti 448" denn das ist die fetteste 560.:rolleyes:
Dass du dich im Übrigen in einem Technologie-Forum im Spekulations-Unterforum nicht dafür interessiert wie groß der Chip ist... ist bezeichnet.:rolleyes:
Das hat nichts mit Mimimi zu tun, du verstehst offensichtlich nicht die Implikationen die mit der "Größe" des Chips einhergehen und wie sich das auf das von dir so gelobte Preis-Leistungsverhältnis im Endeffekt auswirkt. Nicht ich habe den Vergleich zu einem 5 Jahre alten Chip gezogen, daher kannst du dich auch nicht herausaalen als wärest du falsch verstanden worden.
Du tust so als müsste man froh sein, dass Nvidia ihren Mainstream-Chip zu Preisen eines ehemaligen Performance-Chips verkauft. Das ist eine krude und beschränkte Denkweise die ich einfach nicht nachvollziehen kann.
Nvidia muss wie (so gut wie) jeder andere Zulieferer/Hersteller in der Semiconductor-Branche die Leistung ihrer Chips stetig an das Marktgefüge anpassen. Und das tun sie auch. Wenn sie dafür höhere Preise verlangen im Vergleich zur direkten Vorgängergeneration ist das ihr gutes Recht aber tu doch bitte nicht so, als würden sie uns alle mit den höheren Preisen einen großen Gefallen tun.:rolleyes:
Die Speichervergrößerung ist im Übrigen nötig und keine Heldentat seitens Nvidia. Sie sind da seit Jahren sehr knauserig und gerade bei aktuelleren Spielen bemerkt man was diese Knauserigkeit für Auswirkungen hat.
Für mich klingt das... nach unqualifizierten Kommentaren deinerseits.
Nightspider
2016-07-20, 00:06:33
klar geht auch besser aber da von euch ja null Komma nichts kommt reicht selbst der blödeste vergleich schon aus.
Worüber reden wir hier, ich hab für mich festgestellt das ein Update auf 1060 kaum mehr kostet als damals mein Update zur 560 2g ti und ihr stört euch an so einer harmlosen feststellung
So ein Unsinn. Von uns kommt nichts?
Du hast geschrieben das "diese Karten" (damit meinst du wahrscheinlich die XX60-er Reihe) so viel gekostet haben, achtest dabei aber scheinbar ausschließlich auf den Namen um den preis zu rechtfertigen und ignorierst dann das Karten mit diesem 190-200mm² winzigen Chip 280-350 Euro kostet.
Darauf habe ich dich hingewiesen woraufhin dein total dämlicher Autovergleich kam.
Bösewicht
2016-07-21, 16:40:34
So ein Unsinn. Von uns kommt nichts?
Du hast geschrieben das "diese Karten" (damit meinst du wahrscheinlich die XX60-er Reihe) so viel gekostet haben, achtest dabei aber scheinbar ausschließlich auf den Namen um den preis zu rechtfertigen und ignorierst dann das Karten mit diesem 190-200mm² winzigen Chip 280-350 Euro kostet.
Darauf habe ich dich hingewiesen woraufhin dein total dämlicher Autovergleich kam.
Die ganzen nvidia Chips sind in der Generation relativ klein, mir ist schon klar das weniger mm² auch mehr Gewinn bedeutet aber mir als Kunde ist deren Gewinn nicht so wichtig
.
Mein Chef Produziert auch immer günstiger und verhandelt immer mehr gute Konditionen und verdient immer mehr für die gleiche Leistung und auch damit muss ich leben.
Der Witz ist, unsere Produkte werden immer schlechter...
Jedenfalls hört und liest man das neue Fertigungsverfahren und Forschung und die ganze Technik halt auch bezahlt werden muss und ich weiß ganz einfach nicht ob das so ist aber ganz so einfach wie der ein oder andere sich das vorstellt ist es nicht das sehen wir ja an AMD die sich da irgendwie so.. wenn ich jetzt sage durchmogeln gibt es bestimmt wieder Aufschrei :wink:
Ja ich habe die Ti und nicht Ti´s in einen Topf geworfen aber das ist auch in Ordnung da ich ja auch von der größten x60 (also auch der 560 ti) sprach und ja gut dann gibt es halt eine die noch großer wahr Entschuldigung... aber die gab es nicht in 2gb und die wahren für GTA damals wegen max. Details nötig...
Jedenfalls sind die großen x60 meistens zu erst gekommen und später die kleineren, mag ja sein das die manchmal mid. und dann wieder peformance sind aber aktuell gibt es nur eine und ich persönlich hoffe das das auch so bleibt weil 5 verschiedene typen sind einfach undurchsichtig und führen genau zu solchen Diskussionen.
Die 1060 ist mehr Performance als Midrange das würde ich vom Performance + schon so sehen und für mich passt sie damit auch gut in diesen Preis Bereich.
edit:
Leo seine News zu mm² und dem mehrspeicher passt ja gnz gut :)
Kriton
2016-07-22, 19:59:17
Ich hatte die 560 2gb Gainward Phantom
http://geizhals.de/?phist=610597
Und die kostete ca. 240€ oder mehr was also wie ich vorgerechnet habe in der heutigen zeit auch nicht so viel weniger ist als das aktuelle 1060 update vor allem da der Sprung von 960 zur 1060 sehr groß ist was auch die Testberichte und das Preisleistung/Performance Rating bestätigt!!!
Ok, wir reden weiter, wenn wir eine 1060 (Ti) mit 12 GB (doppelt!) haben. Und wenn die dann so teuer ist, wie Du es (für die normale 1060) ausgerechnet hast, dann gebe ich Dir recht - deal? :biggrin:
Ailuros
2016-07-22, 20:01:09
Ok, wir reden weiter, wenn wir eine 1060 (Ti) mit 12 GB (doppelt!) haben. Und wenn die dann so teuer ist, wie Du es (für die normale 1060) ausgerechnet hast, dann gebe ich Dir recht - deal? :biggrin:
Ich will mich ja in Euren Kaffeekranz nicht einmischen, aber ein klein bisschen unfair ist es schon da es afaik ueberhaupt keine 1060Ti geben wird :freak:
Bösewicht
2016-07-22, 20:28:17
Ok, wir reden weiter, wenn wir eine 1060 (Ti) mit 12 GB (doppelt!) haben. Und wenn die dann so teuer ist, wie Du es (für die normale 1060) ausgerechnet hast, dann gebe ich Dir recht - deal? :biggrin:
1060 ti mit 12 gb ram wird es nie geben und wenn dann ganz sicher nicht mit der speichermenge einer Titan zu einer zeit wo 12gb null nix im Performance oder midrange Bereich zu suchen hat ähhhhhm und die würde dann ja wohl ehr das kosten was aktuell eine 1070 kostet und das ist dann bald schon wieder doppelt so viel wie ich mir ausrechne :redface:
Kriton
2016-07-22, 20:31:04
Ich muss beim nächsten Mal offensichtlich Ironie-Tags nutzen.
Bösewicht
2016-07-22, 20:38:33
Ich muss beim nächsten Mal offensichtlich Ironie-Tags nutzen.
ok deal:biggrin:
nismod
2016-07-22, 21:39:21
Ich geh mal davon aus das die 1060 TI kommt, mit GP104-150 und 8 Speicherchips. Vermutlich kommt sie sogar mit GDDR5X und irgendeiner krummen Speichermenge.
Hakim
2016-07-22, 22:22:39
Man hört ja ab und an das die Ausbeute derzeit bei den Chips nicht so gut wäre, gut möglich das NV bei den 104er schon selektiert um später GP104@50% bei 256 Bit und 8 GB als 1060Ti verkauft. Aber derzeit unwahrscheinlich, man macht sich selber Konkurrenz. Einige kaufen halt derzeit die 1070 wenn man mehr Leistung als die 1060 will.
dildo4u
2016-07-22, 22:26:21
Eine 1060 ti wird nicht kommen zwischen 960 und 970 lagen über 50% und da kam nix hier sind es gerade mal was um 35%.1060 zu 1070.
nismod
2016-07-22, 22:43:39
Der Unterschied zwischen 1060 und 1070 spricht wirklich dagegen. Vielleicht sind die Boards ja auch für die 1050 mit einem kastrierten GP106 @ 128 Bit. Wir werden sehen was Nvidia noch so raus haut nach dem Titan X da ist.
Hakim
2016-07-22, 23:10:56
Solange keine Notwendigkeit besteht wird nix kommen denke ich, sicherlich gibts ein Plan falls irgendwann wenn sich die 1060 Preise etwas weiter runter eingependelt sind und AMD was um den Bereich 340-360€ bringen sollte, ka RX490, dann wäre Platz für eine Ti, sonst nicht notwendig. Wobei man hier nah am 1070 Preis dann wäre, also spricht viel dagegen.
N0Thing
2016-07-22, 23:54:16
Ich geh mal davon aus das die 1060 TI kommt, mit GP104-150 und 8 Speicherchips. Vermutlich kommt sie sogar mit GDDR5X und irgendeiner krummen Speichermenge.
So einen Chip würde ich vielleicht im Notebooksegment erwarten. Bei den Desktopmodellen ist einfach zu wenig Abstand dazwischen, um noch einen weiteren Chip unterbringen zu können.
Leonidas
2016-07-23, 06:31:59
Is Nvidia’s GP104 based GT1060 real? (http://semiaccurate.com/2016/07/06/nvidias-gp104-based-gt1060-real/)
Laut Charlie hat nVidia die Presse mit GP104 basierten "GT1060" Grafikkarten beliefert ohne Treiber, Dokumentation und weiteren Informationen wie Preis.
Das macht nvidia weil sie mit einer GP104 GT1060 problemlos die RX480 schlagen können.
Laut Charlie dadruch ist auch die Verfügbarkeit von GTX1070/1080 so schlecht, Weil nvidia so viele GP104 Chips für die Presse "GT1060" benötigt.
Die richtigen GP106 Karten die dann später rauskommen sind dann viel langsamer als die Presse GT1060 mit GP104. Das heißt nvidia hat diese ganze Aktion nur durchgezogen um AMDs RX480 schelcht da stehen zu lassen und betrügt auch damit, da die kaufbaren Produkte viel langsamer sind.
Einmal abgesehen davon, das NV für eine solche Vorgehensweise so massiv auf den Deckel bekommen würden, das es wirklich raucht im Laden (und sich das vorher ausrechnen kann und deswegen die Finger davon läßt) ... interessant ein solch falsches Gerücht nun 2 Wochen später nochmal neu zu betrachten.
AnarchX
2016-07-23, 09:39:30
Bzgl. NV kann man Charlie wohl kaum noch für voll nehmen. Da behauptet er noch Anfang des Jahres, dass NV keine Chips hat und nun hat man bald 5 Pascal GPUs in einem dutzend SKUs. :freak:
DavChrFen
2016-08-02, 20:41:52
Gibt es eigentlich was neues bezüglich einer abgespeckten 1060? So 1060 LE oder 1050 TI oder so? Oder muß für die Preisregion 150-200 Euro der nächstkleinere Chip herhalten?
Hermelinmaster
2016-09-06, 02:20:52
Japp letztens was gelesen. Weiß aber nimmer wo genau. GTX 1050 mit 768 Cuda-Cores und bis zu 4GB. 128 Bit. Denke sollte etwas hinter der 470 aber deutlich vor der 460 raus kommen. Angeblich der kleinste Pascal mit GP107. GP108 gestrichen??
Ailuros
2016-09-06, 09:03:01
Japp letztens was gelesen. Weiß aber nimmer wo genau. GTX 1050 mit 768 Cuda-Cores und bis zu 4GB. 128 Bit. Denke sollte etwas hinter der 470 aber deutlich vor der 460 raus kommen. Angeblich der kleinste Pascal mit GP107. GP108 gestrichen??
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=574726
Leonidas
2017-08-29, 13:02:08
GP106 mit Pre-Tensor-Cores? (https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2627-august-2017)
Wir hatten vor einiger Zeit an dieser Stelle mal eine Bemerkung über die Chipgröße des GP106-Chips von (offiziell) 200mm² fallengelassen: Im Zuge der Arbeit am Artikel zu den möglichen Ausgestaltungen der Volta-Chips GV102, GV104 & GV106 fiel auf, das der GP106-Chip ungewöhnlich groß ist, gemäß der verbauten Hardware eigentlich nur 180-185mm² groß sein sollte. Nun bietet sich eine mögliche Erklärung dieses Phänomens an: Der GP106-Chip wird wie bekannt (in zweifacher Ausführung) auch bei nVidias Self-Driving-Car-Lösung "Drive PX2" verbaut. Bei dieser gibt nVidia zwei Größen zur Rechenleistung an: Die gewöhnlichen 8 TFlops FP32-Leistung – sowie 24 TOPS, wobei unter "TOPS" schlicht "Billionen Operationen pro Sekunde" zu verstehen sind (die amerikanische Trillion entspricht der deutschen Billion). Die Art der Operationen selber ist damit natürlich unbestimmt – nVidia nennt es offiziell "Deep-Learning-Operationen".
An dieser Stelle wird es dann interessant: Denn nVidia verwendet für den GV100-Chip und dessen Tensor-Cores nahezu dieselben Bezeichnungen – und auch dort gibt man eine astronomische Rechenleistung von "120 TFLOPS" innerhalb dieser Tensor-Cores an (wobei diese "TFLOPS" wieder nur für gewisse Rechenoperationen gelten dürften). Dies passt zwar noch nicht gänzlich zu den 24 TOPS von Drive PX2 (mit der Hälfte der Shader-Einheiten von GV100), aber im GP106-Chip dürften sicherlich auch noch keine vollwertigen Tensor-Cores schlummern. Aber eine Vorversion dieser dürften es sicherlich sein – dies ergibt sich wie gesagt durch indirekt durch die nominell zu große Chipfläche sowie natürlich durch die prinzipielle Ähnlichkeit der Angaben zum GV100-Chip. nVidia scheint den GP106-Chip als eine Art Testlauf für den GV100-Chip und dessen deutliche Hinwendung zu Deep-Learning-Aufgaben verwendet zu haben – und damit beim GP106-Chip so etwas wie "Pre-Tensor-Cores" verbaut zu haben.
AffenJack
2017-08-29, 13:14:31
Das haste aber mal ganz schön weit hergeholt und die Gegebenheiten ignoriert bei denen die TOPS angegeben werden. Nvidia gibt bei Pascal TOPs bei der Int8 Rate an. So wie bei der Titan mit 44 TOPs. Dein Artikel ist ganz schöner Unsinn für den es Null Beläge gibt.
https://www.computerbase.de/2016-07/nvidia-titan-x-details/
Entropy
2017-08-29, 18:37:55
Das haste aber mal ganz schön weit hergeholt und die Gegebenheiten ignoriert bei denen die TOPS angegeben werden. Nvidia gibt bei Pascal TOPs bei der Int8 Rate an. So wie bei der Titan mit 44 TOPs. Dein Artikel ist ganz schöner Unsinn für den es Null Beläge gibt.
https://www.computerbase.de/2016-07/nvidia-titan-x-details/Das sind Spekulationen, die auch mal falsch sein dürfen. Wenn es Beläge gebe, dann würde jeder davon berichten und niemand muss spekulieren. Leo korrigiert oft auch, da reicht auch ein freundlicher Hinweis.
Leonidas
2017-08-30, 04:26:24
Aus der von AffenJack genannten Warte heraus wäre es sicherlich falsch. Aber dann bleibt trotzdem die Frage: Wieso ergeben alle Rechnungen für den GP106-Chip nur 180-185mm² anhand der bekannten HW-Einheiten? Wenn ich mit denselben Rechnungen auf GP107, GP104 und GP102 kalkuliere, komme ich teilweise auf 1mm² exakt auf die richtige Größe. Nur beim GP104 nicht.
Triskaine
2017-08-30, 07:38:28
Wirf mal einen Blick auf diese (https://www.flickr.com/photos/130561288@N04/36230799276/) Die Shots (erstellt von OC_Burner hier im Forum) von GP104 und GP106. Sieht für mich proportional aus, auch das Layout der SM's ist absolut identisch.
AffenJack
2017-08-30, 08:57:00
Aus der von AffenJack genannten Warte heraus wäre es sicherlich falsch. Aber dann bleibt trotzdem die Frage: Wieso ergeben alle Rechnungen für den GP106-Chip nur 180-185mm² anhand der bekannten HW-Einheiten? Wenn ich mit denselben Rechnungen auf GP107, GP104 und GP102 kalkuliere, komme ich teilweise auf 1mm² exakt auf die richtige Größe. Nur beim GP104 nicht.
Die Frage kann man sich durchaus stellen und das war auch nicht persöhnlich gemeint, da ich sonst deine artikel schätze. Aber das war mir einfach zu sehr WTFtech-verschwörungslike.
@Triskaine
Jop SM sehen für mich auch sehr gleich aus. Das einzige was größer ist, ist der Bereich links in der Mitte wie Fritzchens Fritz da schon geschrieben hat, was auch immer das sein soll.
Daredevil
2018-06-04, 13:48:55
Ich möchte den Thread mal eben ausgraben, um meine Begeisterung zu teilen. :)
Ich habe seit kurzem aus Bastellaune eine Asus GTX1060 Strixx und ich muss sagen, das ist echt die ausgewogenste Karte, die ich die letzen Jahre im Rechner habe.
OC+Undervolting klappt so gut, dass ich mit knapp 80w Verbrauch Ingame zocke und trotzdem in Esport Games locker über 100fps schaffe. Dabei ist der Kühler so dick, dass er stellenweise nicht mal anläuft, weil der ZeroFan Mode greift.
Die Karte ist leicht schneller als Stock, verbraucht aber 34% weniger Energie.
Sowas schafft man zwar auch bei anderen Karten in den Verhältnissen, aber weit unter 100w und trotzdem noch genug Power für einen 144hz Monitor? Ich finde das ziemlich heiß. :)
Tatsächlich nach meiner Historie der letzten 2-3 Jahre ( R9 390, GTX980TI, GTX1080Wakü, Vega56+64, GTX1080ti eine Karte, die mich vollends überzeugt.
Hätte nie gedacht, dass die "kleine" Pascal Karte ebenfalls so effizient betrieben werden kann, wie ihre großen Brüder. Es ist zwar abzuleiten von den MaxQ Modellen, aber hier im Forum habe ich davon noch nie großartig was gelesen.
Nosferatu1
2018-08-27, 19:26:27
welcher laptop ist empfehlenswert mit dieser karte?
deLuxX`
2018-08-27, 19:57:17
welcher laptop ist empfehlenswert mit dieser karte?
Sollen wir darüber jetzt spekulieren?:confused:
Leonidas
2018-10-20, 14:49:55
nVidia hat augenscheinlich eine GeForce GTX 1060 mit GDDR5X-Speicher in Vorbereitung
https://www.3dcenter.org/news/nvidia-hat-augenscheinlich-eine-geforce-gtx-1060-mit-gddr5x-speicher-vorbereitung
https://www.3dcenter.org/dateien/abbildungen/GeForce-GTX-1060-official-Specifications.png
Thunder99
2018-10-20, 15:55:50
Um der 590 konkurrieren? Quasi als Antwort schon möglich
Hakim
2018-10-20, 16:45:49
Das wäre doch nur zu überbrückung bis der 2060 Anfang nächstes Jahr erscheint. Damit man zu Weihnachtszeit etwas gegen die 590 hat. Lieber auf 2060 warten bevor man sich später ärgert
Thunder99
2018-10-20, 23:24:01
Wer sagt denn dass eine 2060 kommt?
robbitop
2018-10-21, 09:39:35
Wird der 1060 nur wenig bringen. GP106 hat mit relativ hohen Abstand zu allen anderen Pascals (insbesondere der 1070ti - und die wird offenbar kaum von der Bandbreite gebremst) die höchste Bandbreite pro GFLOP.
Die 9gbps Version war auch kaum schneller als die 8gbps.
Wenn man wirklich was davon haben will, müsste man auch die GPU deutlich höher takten.
Aber es geht ja offenbar nur um Polaris 30. Der wird (wenn gleiche Maske) kaum schneller als P20. 5-10% mehr Takt. Ggf noch 9gbps gddr5. Ohne neue Maske wird grrd5x oder 6 für P30 nicht möglich sein. Und gerade der Vollausbau von Polaris10/20 scheint ja schon auch an der Bandbreite zu hängen. (der Vollausbau ist nicht so viel schneller wie der salvage Part, wie er rohleistungsnormiert sein sollte)
Da hat man bei gp106 genug Reserven um das zu kompensieren.
Wär eher interessant um den GP106 als 128Bit-Variante mit 4GB zu bringen.
Nuvirus
2018-10-21, 11:14:16
Je nachdem wie lang es bei AMD noch mit Polaris Nachfolger dauert würde es ja eigl Sinn machen 12nm mit GDDR6 zu bringen oder ist der zu teuer?
robbitop
2018-10-22, 10:28:00
Wär eher interessant um den GP106 als 128Bit-Variante mit 4GB zu bringen.
Ja da stehen aber 6 gb
Sind auch 6. Ist eben Resteverwertung von stark gesalvagten GP104 und GDDR5X-Module, die den Takt nicht gepackt haben wie es aussieht.
Hakim
2018-10-29, 19:06:17
Gerade auch den Beitrag auf Computerbase gelesen. Nur 2200 Mhz? Ich hatte drei 1060er verbaut und bei allen ließ sich der GDDR5 über 2200 Mhz takten. Streut der GDDRX so Stark? Oder hatte ich Glück mit den Karten?
reaperrr
2018-10-29, 19:23:08
Gerade auch den Beitrag auf Computerbase gelesen. Nur 2200 Mhz? Ich hatte drei 1060er verbaut und bei allen ließ sich der GDDR5 über 2200 Mhz takten. Streut der GDDRX so Stark? Oder hatte ich Glück mit den Karten?
Ich gehe stark davon aus, dass NV nur nicht möchte, dass sich die Karte mit Standardtakt leistungsmäßig nennenswert von der regulären 1060 abhebt, damit nicht alle nur noch die 1060 mit G5X kaufen.
Meine Vermutung: Durch die plötzlicher als gedacht abgestürzte Nachfrage nach dem Mining-Hype hat NV jetzt noch deutlich mehr G5X und GP104 auf Lager als ursprünglich geplant, aber einfach nur die 1080 noch billiger zu machen würde bloß die 1070, 1070Ti und 2070 kannibalisieren, also lieber einen Teil als 1060 mit G5X verscherbeln, wo der Turing-Nachfolger noch nicht draußen ist (und evtl. auch noch auf sich warten lässt).
dildo4u
2018-11-14, 05:24:36
Hier die Bestätigung dass neue 1060 GP104 nutzt.
https://videocardz.com/newz/geforce-gtx-1060-with-gddr5x-memory-confirmed-to-use-gp104-gpu
Hakim
2018-11-14, 05:55:49
Irgendwie verstehe ich den Sinn nicht so richtig, die nehmen teure GP104er Chips und G5X, und drosseln dann alles auf gtx1060 runter? Wenn sie wenigstens es nur so drosseln würden um etwas zwischen 60 und 70 zu haben (1060ti) um gegen die RX590 besser zu stehen, würde ich es eher verstehen.
Dural
2018-11-14, 09:25:56
Dürften wohl genug Defekte GP104 an Lager sein nach so einer langen Produktionszeit.
Die GPU könnte auch mehr als die 1280SP der GP106/1060 haben?
LadyWhirlwind
2018-11-14, 09:32:19
Irgendwie verstehe ich den Sinn nicht so richtig, die nehmen teure GP104er Chips und G5X, und drosseln dann alles auf gtx1060 runter? Wenn sie wenigstens es nur so drosseln würden um etwas zwischen 60 und 70 zu haben (1060ti) um gegen die RX590 besser zu stehen, würde ich es eher verstehen.
Der Chip allein ist teurer ja, aber wenn man dafür Chips nimmt, die man sonst nicht verwerten könnte, sieht die Rechnung ganz anders aus.
Leonidas
2018-11-14, 09:35:46
Eigentlich müssten sie die defekten auch als GTX1070 gut verwerten können. Ausnahme: Defekt direkt im Speicherinterface. Ob das aber so viele sind?
Ich denke eher, sie bekommen den Rest an GDDR5X Fertigung hinterhergeworfen und subventionieren damit das ganze. GDDR5X wird mit Auslaufen von GTX1080 und 1080Ti obsolet, hat keine Abnehmer mehr.
dildo4u
2018-11-14, 09:41:02
Das ganze garantiert fette PCBs mit hohem Takt nur der neue Ram bringt nix gegen die RX 590.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.