PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Richland - (P)Review-Thread


fondness
2013-06-04, 15:45:41
http://img10.imageshack.us/img10/7497/aseries.jpg (http://imageshack.us/photo/my-images/10/aseries.jpg/)

Reviews:
http://www.computerbase.de/artikel/prozessoren/2013/amds-richland-im-cpu-test/
http://www.computerbase.de/artikel/grafikkarten/2013/amds-richland-im-gpu-test/
http://www.planet3dnow.de/vbulletin/showthread.php?t=413046
http://www.pcgameshardware.de/CPU-Hardware-154106/Tests/AMD-A10-6800K-A10-6700-Richland-Test-1071478/
http://www.hardware.fr/articles/898-1/amd-a10-6800k-a10-6700-richland-debarque-fm2.html
http://hothardware.com/News/AMD-A106800K-and-A106700-Richland-APUs-Tested/
http://www.techspot.com/review/681-amd-a10-6800k-a4-4000/
http://www.pcper.com/reviews/Processors/AMD-A10-6800K-and-A10-6700-Review-Richland-Finally-Lands
http://uk.hardware.info/reviews/4461/amd-a10-6800k--a10-6700-cpu-review-richland-tested
http://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/26482-test-amd-a10-6800k-und-a10-6700.html
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=1169&Itemid=63
http://www.guru3d.com/articles_pages/amd_a10_6800k_review_apu,1.html
http://www.bjorn3d.com/2013/06/amd-richland-june-5-2013-1201am-edt-nda/#more-18728
http://semiaccurate.com/2013/06/04/amd-brings-richland-to-the-desktop-the-a10-6800k/
http://www.brightsideofnews.com/news/2013/6/5/amd-one-ups-their-apus-with-richland---a10-6800k-review.aspx
http://www.anandtech.com/show/7032/amds-richland-vs-intels-haswell-gpu-on-the-desktop-radeon-hd-8670d-hd-4600

MQcjEA3it90

Die Chips sind auch schon lieferbar: http://geizhals.eu/?cat=cpuamdfm2&sort=n&v=e&xf=596_Richland#xf_top

Sieht nicht schlecht aus, mehr Leistung, weniger Verbrauch bei selben Fertigungsprozess. Das zeigt wie unoptimiert Trinity war.

Skysnake
2013-06-04, 16:07:00
SEHR erstaunlich für AMD, was die Verfügbarkeit anbelangt. Da ist man komplett! anderes gewöhnt.

Die neuen Besen scheinen echt verdammt gut zu kehren, wenn man sich die Entwicklung der letzten 1-2 Jahre mal anschaut :up:

Spasstiger
2013-06-04, 16:09:07
Soweit ich weiß, ist Richland doch auch nicht viel mehr als Trinity im neuen Kleid mit höheren Taktraten. Oder gibts neues Silizium?

SavageX
2013-06-04, 16:11:56
Ist ein neues Stepping, also ja, ist neues Silizium.

Ronny145
2013-06-04, 16:38:03
SEHR erstaunlich für AMD, was die Verfügbarkeit anbelangt. Da ist man komplett! anderes gewöhnt.

Die neuen Besen scheinen echt verdammt gut zu kehren, wenn man sich die Entwicklung der letzten 1-2 Jahre mal anschaut :up:


Sah mit Trinity nicht anders aus. Problem sind die Notebooks, da kommt nichts in Gang.

anddill
2013-06-04, 17:50:58
Ich lach grad Tränen:

MQcjEA3it90

Die sollten das Ding als Clip im TV bringen.

R.I.P.
2013-06-04, 18:25:51
http://translate.google.com/translate?hl=en&sl=auto&tl=en&u=http%3A%2F%2Fdiybbs.zol.com.cn%2F11%2F11_106618.html

Keine Ahnung wie seriös

Gipsel
2013-06-04, 19:18:53
http://translate.google.com/translate?hl=en&sl=auto&tl=en&u=http%3A%2F%2Fdiybbs.zol.com.cn%2F11%2F11_106618.html

Keine Ahnung wie seriös
Kann da irgendwer was Sinnvolles draus entziffern? Ich glaube zu lesen, daß der Stromverbrauch gegenüber dem 5800K deutlich zurückgegangen sein soll (weiß aber nie so recht, ob der den 5800K übertaktet hat, um diese Feststellung zu treffen und bei welchen Spannungen, sehr konfus irgendwie). Und wenn ich das richtig entziffere, hat er die integrierte GPU von 844 auf 1200MHz übertaktet?!? Was soll denn das für ein Test sein? Warten wir mal auf was Seriöseres.

Skysnake
2013-06-04, 21:01:32
Es soll wohl vorallem die Wärmeentwicklung sehr genügsam sein, also wohl recht viel OC Potenzial bei keiner/leichter Spannungserhöhung, aber so recht Schlau werde ich daraus auch nicht.

Fehlen halt auch die ganzen Diagramme usw -.-

Shink
2013-06-04, 21:11:25
Sah mit Trinity nicht anders aus. Problem sind die Notebooks, da kommt nichts in Gang.
Die ersten Temash-Notebooks waren dafür fast schon am Markt, bevor die CPU offiziell vorgestellt wurde.;D

Ich lach grad Tränen:

http://youtu.be/MQcjEA3it90
WTF³

Ronny145
2013-06-04, 21:12:59
Die ersten Temash-Notebooks waren dafür fast schon am Markt, bevor die CPU offiziell vorgestellt wurde.;D



Der Thread nennt sich Richland.

R.I.P.
2013-06-04, 21:16:01
http://translate.google.ro/translate?hl=ro&sl=auto&tl=en&u=http%3A%2F%2Fwww.vmodtech.com%2Fen%2Farticle%2Famd-a10-6800k-processor-review%2Fpage%2F23

5Ghz Luftgekühlt :D edit: unter Wasser, nichts mit Luftkühlung, sorry

NB OC auf 2,5GHz, coole Sache (bringt das überhaupt was bei APUs?)

Skysnake
2013-06-04, 21:50:34
@Stock,also 4,1/4,4GHz bei 1,4V: 133W
@5GHz 1,464V: ???W Ich vermute mal, dass das noch <200W sein werden bei der noch recht humanen Spannungserhöhung

~5,4GHz @1,524V als Maximum.

Liest sich doch echt nicht schlecht. Wenn man bedenkt, dass das nur ein 2 Moduler ist, mit ner recht potenten iGPU dabei.

samm
2013-06-04, 22:01:47
Ich lach grad Tränen:

http://youtu.be/MQcjEA3it90

Die sollten das Ding als Clip im TV bringen.oh mann... Folge der neuen Marketingabteilung?

ndrs
2013-06-04, 22:32:42
(bringt das überhaupt was bei APUs?)
Ich denke nur unwesentlich, da kein L3.

fdk
2013-06-04, 22:34:15
oh mann... Folge der neuen Marketingabteilung?
Das was zum relaunch der FXen (bd) damals kam war noch schlimmer ... viel schlimmer.

Ich hoffe sie haben es inzwischen von yt gelöscht, finde es nicht mehr.

Fremdschämaction:
uRYvfhk7xcs

anddill
2013-06-04, 23:10:17
Ok, DAS ist wirklich sch... grottig.
Aber außer einem lustigen Verschitt aus Tron und Mass Effekt gibts anscheinend immer noch nichts zum Thema. Schade.
Wird wohl obwohl alle Redaktionen zZt nach Asien-Zeit leben doch erst freigegeben wenn der AMD CEO in Kalifornien sein Mittagsschläfchen beendet hat.

samm
2013-06-04, 23:27:06
Aso peinlich finde ich das neue Filmchen jetzt nicht (schlimmstenfalls könnte ich das inhaltlich finden), habe eher gelacht als im Erdboden verschwinden mögen - gemacht find ich es nicht schlecht, und die Musik find ich auch i.O.

Aber was ich eigentlich sehen möchte, ist das Produkt - und zwar nicht nur in Reviews, sondern auch in diversen Geräten auf dem Markt und im Einsatz.

Schaffe89
2013-06-04, 23:29:29
Ordentlich hoher Takt, genauso will ich das sehen...^^

Knuddelbearli
2013-06-05, 06:34:33
Richland tests sind da 1 Tag später aber naja.

Aber seit wann lassen sich auch AMD CPUS nicht mehr über den referenztakt OCen? oO ist mir ja ganz neu, so ein scheiß ...

Danke Intel! ... :mad:

Schlammsau
2013-06-05, 06:34:48
AMDs „Richland“ im CPU-Test (http://www.computerbase.de/artikel/prozessoren/2013/amds-richland-im-cpu-test/)
AMDs „Richland“ im GPU-Test (http://www.computerbase.de/artikel/grafikkarten/2013/amds-richland-im-gpu-test/)

20% mehr Grafikleistung bei sogar leicht gesunkenen Verbrauch.

:top:

Shink
2013-06-05, 07:22:35
Der Thread nennt sich Richland.
Und ich hab über die Verfügbarkeit von AMD-CPUs in letzter Zeit geschrieben.

fondness
2013-06-05, 08:49:05
AMDs „Richland“ im CPU-Test (http://www.computerbase.de/artikel/prozessoren/2013/amds-richland-im-cpu-test/)
AMDs „Richland“ im GPU-Test (http://www.computerbase.de/artikel/grafikkarten/2013/amds-richland-im-gpu-test/)

20% mehr Grafikleistung bei sogar leicht gesunkenen Verbrauch.

:top:

Wow deutlich mehr GPU-Leistung. Das sollte reichen um selbst mit der Intel HD5K mit eDRAM gleichzuziehen, sind immerhin 54% auf die HD4600. Und das obwohl man mit Sicherheit erheblich Bandbreitenlimitiert ist.

http://www.computerbase.de/artikel/grafikkarten/2013/amds-richland-im-gpu-test/2/

Lowkey
2013-06-05, 09:20:55
CB benutzt für die Tests DDR3-2400.

Beim Trinity wurde aufgrund der Serienstreuung bei sehr vielen CPUs per default mehr Spannung gegeben als notwendig war. Eventuell wurde das nun geändert.

AMD A10-6800K Black Edition, 4x 4.10GHz, boxed ab 135 Euro
Asrock FM2A85X-ITX ab 82 Euro
8 Gbyte DDR3 (irgendwas was mind 2133 oder besser oder mit Übertaktung schafft) ab 60 Euro
Großer, flacher Kühler
SSD rein
300 Watt 80+ Netzteil dazu (SFX, TFX)

=> Fertig wäre ein Mini-Gelegenheitsspiele PC.

(Eventuell gibt es zu der AMD CPU noch Simcity dazu).

Probleme:

- die CPU ist deutlich höher im Preis angesetzt als der minimal langsamere Vorgänger
- ziemlich wahrscheinlich wäre eine Kombination aus Intel CPU und diskreter Nvidia/AMD Grafik preislich günstiger. Daher lohnt sich für Richland nur eine ITX Kombination auf engstem Raum.

Schlammsau
2013-06-05, 09:33:16
Denk ich nicht, falls Neuanschaffung - µATX AM2 Board für 50€ plus A10 6800K für ~130€ plus 8GB RAM für 40€ und fertig ist die "Gelegenheits"spieleplattform für 220€. Grafikleistung wäre ungefähr bei HD7650 Niveau mit schnellem Speicher.

Da kommt man mit nem Intel plus dedizierter Graka plus RAM preislich definitv nicht hin. Auch der Idleverbrauch, in diesem Zustand verharrt ein Rechner nunmal die meiste Zeit, würde sich bei dieser Kombi auch nochmal deutlich erhöhen.

MadManniMan
2013-06-05, 09:48:50
Ich habe leider die Orientierung verloren: auf welches vergleichbare Desktop-Niveau kommt die IGP des 6800K?

AnarchX
2013-06-05, 09:50:08
GT 640/HD 6570.

Schlammsau
2013-06-05, 09:55:53
Ich habe leider die Orientierung verloren: auf welches vergleichbare Desktop-Niveau kommt die IGP des 6800K?
GT 640/HD 6570.
Mit mindestens 2133Mhz RAM nicht eher auf HD6670 Niveau?

Undertaker
2013-06-05, 10:01:26
Da fehlt noch einiges. Bei CB ist die 8670D nur 25% vor der GT 630.

Edit: Korrektur, so viel schneller ist die 6670 dann doch nicht.

Ronny145
2013-06-05, 10:05:08
AMDs „Richland“ im CPU-Test (http://www.computerbase.de/artikel/prozessoren/2013/amds-richland-im-cpu-test/)
AMDs „Richland“ im GPU-Test (http://www.computerbase.de/artikel/grafikkarten/2013/amds-richland-im-gpu-test/)

20% mehr Grafikleistung bei sogar leicht gesunkenen Verbrauch.

:top:


Das zeigt sich in anderen Tests nicht.

http://www.pcper.com/reviews/Processors/AMD-A10-6800K-and-A10-6700-Review-Richland-Finally-Lands/Results-Skyrim-DiRT-3-an
http://uk.hardware.info/reviews/4461/12/amd-a10-6800k--a10-6700-cpu-review-richland-tested-benchmarks-igpu-tomb-raider-1920x1080-low
http://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/26482-test-amd-a10-6800k-und-a10-6700.html?start=4
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=1169&Itemid=63&limit=1&limitstart=10
http://www.guru3d.com/articles_pages/amd_a10_6800k_review_apu,10.html
http://www.planet3dnow.de/vbulletin/showthread.php?t=413046&garpg=12#content_start
http://www.bjorn3d.com/2013/06/amd-richland-june-5-2013-1201am-edt-nda/#more-18728
http://semiaccurate.com/2013/06/04/amd-brings-richland-to-the-desktop-the-a10-6800k/
http://www.techspot.com/review/681-amd-a10-6800k-a4-4000/page6.html
http://www.xbitlabs.com/articles/cpu/display/amd-a10-6800k_6.html#sect0
http://www.legitreviews.com/article/2209/11/
http://www.tomshardware.com/reviews/a10-6700-a10-6800k-richland-review,3528-6.html

Sieht erwartungsgemäß nach 5-10% aus. Verbrauch in den meisten Tests leicht gestiegen.

Lowkey
2013-06-05, 10:05:46
Denk ich nicht, falls Neuanschaffung - µATX AM2 Board für 50€ plus A10 6800K für ~130€ plus 8GB RAM für 40€ und fertig ist die "Gelegenheits"spieleplattform für 220€. Grafikleistung wäre ungefähr bei HD7650 Niveau mit schnellem Speicher.

Da kommt man mit nem Intel plus dedizierter Graka plus RAM preislich definitv nicht hin. Auch der Idleverbrauch, in diesem Zustand verharrt ein Rechner nunmal die meiste Zeit, würde sich bei dieser Kombi auch nochmal deutlich erhöhen.

Der Speicherpreis ist gestiegen. Intel + extra Grafik dürfte sich im IDLE nichts nehmen. Wäre nur die Frage welchen Intel Prozessor man mit dem 6800k gleichsetzen kann?

Man muss bei den Benchmarks immer aufpassen, denn wenn da eine AMD Grafikkarte genannt wird, dann kann das eben auch Crossfire bedeuten:

http://www.bjorn3d.com/wp-content/uploads/2013/06/game04.jpg

robbitop
2013-06-05, 10:17:22
Was mich beim Vergleich mit den neuen Intel IGPs wundert. Im 3DMark sind diese absolut konkurrenzfähig und in Spielen werden sie zerfetzt... (zumindest im PCGH Review). Das war zwar nur die HD4600 - aber offenbar reicht dann selbst Iris Pro nicht für den schnellsten Richland.

Hat man bei Intel 3DMark "Optimierung" betrieben, so wie wir es aus alten Tagen kennen, um zu behaupten, man sei grafisch sehr konkurrenzfähig? (oder hat man einfach keinerlei Spieleoptimierung im Treiber getan?)

Ronny145
2013-06-05, 10:31:46
Was mich beim Vergleich mit den neuen Intel IGPs wundert. Im 3DMark sind diese absolut konkurrenzfähig und in Spielen werden sie zerfetzt... (zumindest im PCGH Review). Das war zwar nur die HD4600 - aber offenbar reicht dann selbst Iris Pro nicht für den schnellsten Richland.

Hat man bei Intel 3DMark "Optimierung" betrieben, so wie wir es aus alten Tagen kennen, um zu behaupten, man sei grafisch sehr konkurrenzfähig? (oder hat man einfach keinerlei Spieleoptimierung im Treiber getan?)


Iris Pro ist schneller als Richland. Den PCGH Test kannst du vergessen mit den witzlosen 2 Tests. Richland liegt 20% im 3dmark vorne und im Spiel 30-40%. Das ist kein so gewaltiger Unterschied, wie du suggerieren möchtest.

fondness
2013-06-05, 10:43:04
Iris Pro ist schneller als Richland. Den PCGH Test kannst du vergessen mit den witzlosen 2 Tests. Richland liegt 20% im 3dmark vorne und im Spiel 30-40%. Das ist kein so gewaltiger Unterschied, wie du suggerieren möchtest.

Bei CB gibt es acht Tests:
http://www.computerbase.de/artikel/grafikkarten/2013/amds-richland-im-gpu-test/8/

Ich gehe auch davon aus das Intel im 3dMark cheatet. Man verliert jeden Test sehr deutlich, nur im 3dmark schlägt man Richland um 20%. Ansonsten mit ordentlichen RAM wie im CB-Test dürfte Richland durchaus mit Iris Pro mithalten können.

Loeschzwerg
2013-06-05, 10:50:53
http://www.anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/5

Anandtech hatte beim Iris Pro Vorabtest Trinity mit 2133 Speicher am Start, da dürfte sich zu Richland nicht wirklich viel tun bei 44MHz mehr GPU Takt.

fondness
2013-06-05, 10:52:05
http://www.anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/5

Anandtech hatte beim Iris Pro Vorabtest Trinity mit 2133 Speicher am Start, da dürfte sich zu Richland nicht wirklich viel tun bei 44MHz mehr GPU Takt.

Es ist nicht nur der GPU-Takt, der Turbo liegt bei Richland deutlich öfter an als bei Trintiy dank verbesserten Power-Management.

Ronny145
2013-06-05, 11:06:21
Bei CB gibt es acht Tests:
http://www.computerbase.de/artikel/grafikkarten/2013/amds-richland-im-gpu-test/8/

Ich gehe auch davon aus das Intel im 3dMark cheatet. Man verliert jeden Test sehr deutlich, nur im 3dmark schlägt man Richland um 20%. Ansonsten mit ordentlich RAM wie im CB-Test dürfte Richland durchaus mit Iris Pro mithalten können.


Nirgends gibt es so große Steigerungen wie auf CB. Ich habe ganze 9 Tests verlinkt.


Bezüglich 3dmark ist der Unterschied nicht so groß. Richland liegt dort 20% vorne. Dass du Intel Betrug vorwirfst wundert mich nicht. Es gibt mehrere Möglichkeiten:

- AMD hat nicht optimal für 3dmark optimiert
- Intel hat optimal für 3dmark optimiert
- Intel hat Treibernachholbedarf in games (auf einige wenige Benchmarks hin zu optimieren ist sicherlich einfacher)
- Intels Grafikarchitektur kommt dem 3dmark entgegen

Es gibt auch Spiele, wo es deutlich besser als im Durchschnitt aussieht. Das kann von Engine zu Engine stark variieren.

http://s7.directupload.net/images/130605/sjlsvnfi.png


http://www.anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/5

Anandtech hatte beim Iris Pro Vorabtest Trinity mit 2133 Speicher am Start, da dürfte sich zu Richland nicht wirklich viel tun bei 44MHz mehr GPU Takt.


Genau so sieht es aus. Die größte Steigerung kommt durch den DDR3-2133 Speicher zustande. Da Trinity dort aber schon damit getestet wurde, kommen vielleicht 5% dazu. Iris Pro 55W liegt 30% vorne. Davon mal abgesehen reden wir hier von einer 55W Iris Pro. Ob ein 65W Iris Pro zulegen kann, weiß keiner ohne die anliegenden Taktfrequenzen vom 55W Modell zu kennen. (47W Modell mit 55W TDP besser gesagt)

Undertaker
2013-06-05, 11:09:24
Es ist nicht nur der GPU-Takt, der Turbo liegt bei Richland deutlich öfter an als bei Trintiy dank verbesserten Power-Management.

Das gilt für die mobilen Modelle. Die Iris Pro schlägt (selbst in Form des mobilen i7-4950HQ), das kann man ausgehend vom Anandtech-Test bereits recht sicher sagen, aber sogar die Desktop-Ableger Richlands.

Loeschzwerg
2013-06-05, 11:17:31
Es ist nicht nur der GPU-Takt, der Turbo liegt bei Richland deutlich öfter an als bei Trintiy dank verbesserten Power-Management.

Dürfte bei GPU Limitierung fast egal sein. Ich denke AMD hat hier gerade im mobile Bereich ordentlich Konkurrenz von Intel zu erwarten durch die GT3.

Für Low Budget Gamer ist der Richland im Desktop Segment sicherlich interessant, aber ob die Margen dort sonderlich groß sind?!

Im HTPC würde ich mir eher einen kleinen 4 Kerner (2 Moduler) um die 45Watt TDP Grenze wünschen. Ich (persönlich) sehe für die Leistungsstarken 65/100 Watt Modelle keinen direkten Nutzen.

Ich warte da lieber auf Kaveri, dafür haut mich der Richland einfach zu wenig vom Hocker.

robbitop
2013-06-05, 11:45:46
Iris Pro ist schneller als Richland. Den PCGH Test kannst du vergessen mit den witzlosen 2 Tests. Richland liegt 20% im 3dmark vorne und im Spiel 30-40%. Das ist kein so gewaltiger Unterschied, wie du suggerieren möchtest.
1. Ich möchte gar nichts sugerieren. Das ist eine einfache Frage
2. Der PCGH Test hat leider nur die HD4600.
3. Die HD4600 ist im Firestrike recht nah an Richland dran, und in TES Skyrim wird sie > Faktor 2 abgeschnatzt. Das fiel mir auf. Ich wollte nach eine Ursache fragen.

edit: Hm beim CB Test sieht es auch sehr danach aus. In 3DMark ist die HD4600 recht gut, in Spielen aber verliert sie an Boden. Es wirkt nunmal auf den ersten Blick verdächtig. (was nützt dem Endanwender denn 3DMark?)

edit: Iris Pro ist auch in Spielen schneller als Richland. Aber auch hier ist er erstaunlicherweise zufällig im 3DMark deutlichst schneller.
3DMark ist ja ein statischer Test ohne Eingriffsmöglichkeiten durch den User. Darauf kann man hervorragend optimieren. Ich wüßte nicht, wie man eine Architektur bauen sollte, die im 3DMark besonders gut dasteht.

Dazu ist in der Vergangenheit schon zu viel "Mist" passiert seitens IHVs, dass man nicht skeptisch sein dürfte...

Loeschzwerg
2013-06-05, 12:05:39
Ich tippe auf unausgereifte Treiber, Intel hat zwar viel aufgeholt beim Know How, aber für NV/AMD Qualität reicht es noch nicht.

Daher ist es auch nicht verwundlich wenn Intel beim 3dmark besser liegt, mit dem weltbekannten Benchmark kann man schnell gute/standardisierte Ergebnisse vorweisen.

Undertaker
2013-06-05, 12:08:36
Das gleiche gab es schon mit Ivy Bridge im 3DMark Vantage: Auch dort immense Zugewinne von Faktor zwei, die aber nicht der (Spiele-)Realität entsprachen.

Über die Ursache kann man nur rätseln. Die 3DMarks werden auch bei Nvidia und AMD praktisch totoptimiert sein, unwahrscheinlich das Intel da noch "besondere" Tricks gefunden hat. Nur warum legt Haswell dann hier so zu? Irgendeine spezielle Verbesserung, die sich hier besonders auszahlt?

fondness
2013-06-05, 12:14:53
Das gleiche gab es schon mit Ivy Bridge im 3DMark Vantage: Auch dort immense Zugewinne von Faktor zwei, die aber nicht der (Spiele-)Realität entsprachen.

Über die Ursache kann man nur rätseln. Die 3DMarks werden auch bei Nvidia und AMD praktisch totoptimiert sein, unwahrscheinlich das Intel da noch "besondere" Tricks gefunden hat. Nur warum legt Haswell dann hier so zu? Irgendeine spezielle Verbesserung, die sich hier besonders auszahlt?

Es ist ein leichtes bei eine Szene die immer nach dem gleichen Muster abläuft Rechenleistung zu sparen und sich damit einen unfairen Vorteil zu verschaffen ("cheaten"). Solange diese tolle Leistung immer nur im 3dmark zu sehen ist gehen ich schwer davon aus das Intel das auch macht.

anddill
2013-06-05, 12:15:27
Mal geraten:
3D Mark verballert massig rohe Rechenleistung, ist aber weniger Bandbreitenanfällig als ein reales Spiel, das hauptsächlich Texturlagen schichtet.

fondness
2013-06-05, 12:18:02
Mal geraten:
3D Mark verballert massig rohe Rechenleistung, ist aber weniger Bandbreitenanfällig als ein reales Spiel, das hauptsächlich Texturlagen schichtet.

Selbst wenn, warum sollte das Intel entgegen kommen?

YfOrU
2013-06-05, 12:25:38
Selbst wenn, warum sollte das Intel entgegen kommen?

Er will darauf hinaus:
http://www.anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/15

und:
http://www.anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/17

Ronny145
2013-06-05, 12:30:56
Das gleiche gab es schon mit Ivy Bridge im 3DMark Vantage: Auch dort immense Zugewinne von Faktor zwei, die aber nicht der (Spiele-)Realität entsprachen.

Über die Ursache kann man nur rätseln. Die 3DMarks werden auch bei Nvidia und AMD praktisch totoptimiert sein, unwahrscheinlich das Intel da noch "besondere" Tricks gefunden hat. Nur warum legt Haswell dann hier so zu? Irgendeine spezielle Verbesserung, die sich hier besonders auszahlt?


Vantage legt etwa 40% zu, was nichts besonders ist. Das zeigt sich auch in vielen Spielen. Der Gesamtscore von Vantage wird noch stark von der CPU beeinflusst, wenn sollte man den GPU Score nehmen. Meinst du den 3dmark11? Die non-slice Einheiten wurden mit Haswell verdoppelt, was in Einzelfällen viel bringen kann. Dazu zählt der Tessellator. Könnte eine Rolle im 3dmark11 spielen.

http://s1.directupload.net/images/130605/xrju4fww.png

robbitop
2013-06-05, 12:32:55
Das gleiche gab es schon mit Ivy Bridge im 3DMark Vantage: Auch dort immense Zugewinne von Faktor zwei, die aber nicht der (Spiele-)Realität entsprachen.

Über die Ursache kann man nur rätseln. Die 3DMarks werden auch bei Nvidia und AMD praktisch totoptimiert sein, unwahrscheinlich das Intel da noch "besondere" Tricks gefunden hat. Nur warum legt Haswell dann hier so zu? Irgendeine spezielle Verbesserung, die sich hier besonders auszahlt?
Eine Möglichkeit gibt es noch: AMD und NV sind gebrannte Kinder, was Optimierungen angeht (und damit meine ich keine Optimierung, sondern Shaderreplacement etc). Möglicherweise nutzen sie das nicht mehr. Intel könnte eventuell diese Möglichkeit nutzen. Nur ein potenzielles Szenario.

Im Firestrike (GPU lastig) ist der sieht es für HD4600 und Iris Pro auch besser aus als in Spielen.

Undertaker
2013-06-05, 12:34:05
Es ist ein leichtes bei eine Szene die immer nach dem gleichen Muster abläuft Rechenleistung zu sparen und sich damit einen unfairen Vorteil zu verschaffen ("cheaten"). Solange diese tolle Leistung immer nur im 3dmark zu sehen ist gehen ich schwer davon aus das Intel das auch macht.

Wie gesagt, ich denke nicht, dass sich die Optimierungen von Intel und AMD/Nvidia hier unterscheiden. Zumal ja nur Haswell so zulegt, nicht die Ivy Bridge IGPs.

Wie schon erwähnt wurde, ist der 3DMark 11 generell kaum bandbreitenlastig - das sieht man auch schön an Kabini, der HD 4000 mit Singlechannel/Dualchannel oder dem Vergleich identischer GPUs mit DDR3/GDDR5. Das kommt Haswell jetzt allerdings nicht speziell entgegen und erklärt nicht den übermäßig großen Unterschied z.B. zur HD 4000.

Eine Möglichkeit gibt es noch: AMD und NV sind gebrannte Kinder, was Optimierungen angeht (und damit meine ich keine Optimierung, sondern Shaderreplacement etc). Möglicherweise nutzen sie das nicht mehr. Intel könnte eventuell diese Möglichkeit nutzen. Nur ein potenzielles Szenario.
Dafür spricht, dass sie bei HD4000 diese Mehrleistung in Spielen nie geholt haben.

Nur warum legt die HD 4000 mit identischem Treiber dann nicht zu? Warum optimiert man gerade auf den 3DMark 11, nicht den aktuellen 2013er?

Vantage legt etwa 40% zu, was nichts besonders ist. Das zeigt sich auch in vielen Spielen.

Ich sprach von Vantage auf Ivy Bridge, afair legte die HD 4000 hier ~Faktor zwei zur HD 3000 zu. Ich erinnere mich noch gut an die entsprechenden Intel-Folien.

Shink
2013-06-05, 12:36:01
Die 3DMarks werden auch bei Nvidia und AMD praktisch totoptimiert sein, unwahrscheinlich das Intel da noch "besondere" Tricks gefunden hat. Nur warum legt Haswell dann hier so zu? Irgendeine spezielle Verbesserung, die sich hier besonders auszahlt?
Vielleicht liegen die 3DMarks ja vorgerendert im eDRAM des Haswell.:wink:

anddill
2013-06-05, 12:36:58
Er will darauf hinaus:
http://www.anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/15

und:
http://www.anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/17

Nein. Kannte ich nicht und zeigt auch eher das Gegenteil.
Ich denke nur, daß Intel in den neuen GPUs einfach mehr Recheneinheiten hat als für die (Speicher)Bandbreite sinnvoll ist bei normaler Spielelast. Wird jetzt wirklich heftig gerechnet, ohne viel Daten zu transferieren, geht das Konzept auf.
Reale Spiele nutzen aber nicht so massiv Shader wie 3DMark. Jedenfalls im Schnitt, schon aus Rücksicht auf die Konsolen. Da wird eher mit klassischen Mitteln wie Multitexturing, diverse Bump, Shadow und sonstigen Maps gearbeitet, wo AMD (und nVidia) einfach mehr Erfahrung haben das schnell und reibungsarm duch die Chips zu schleusen.

AnarchX
2013-06-05, 12:37:39
Richland hat wohl noch ein Front-End/Tessellator, das sich nicht deutlich von dem von Juniper aus 2009 unterscheidet.

Knuddelbearli
2013-06-05, 15:17:20
Was mich beim Vergleich mit den neuen Intel IGPs wundert. Im 3DMark sind diese absolut konkurrenzfähig und in Spielen werden sie zerfetzt... (zumindest im PCGH Review). Das war zwar nur die HD4600 - aber offenbar reicht dann selbst Iris Pro nicht für den schnellsten Richland.

Hat man bei Intel 3DMark "Optimierung" betrieben, so wie wir es aus alten Tagen kennen, um zu behaupten, man sei grafisch sehr konkurrenzfähig? (oder hat man einfach keinerlei Spieleoptimierung im Treiber getan?)

Intel hat mal selber in den Raum gestellt das sie den CPU Vorteil nutzen wollen damit die CPU der GPU unter die arme greift ( Thema war damals glaube ich Crysis ), sowas geht aber natürlich nur wenn man den Treiber auf jedes Spiel anpasst ^^

Also wirds wohl nur bei 3Dmark und einigen wenigen Games so sein

Twodee
2013-06-05, 15:22:03
Intel hat mal selber in den Raum gestellt das sie den CPU Vorteil nutzen wollen damit die CPU der GPU unter die arme greift ( Thema war damals glaube ich Crysis ), sowas geht aber natürlich nur wenn man den Treiber auf jedes Spiel anpasst ^^

Also wirds wohl nur bei 3Dmark und einigen wenigen Games so sein
Begründung?

Ronny145
2013-06-05, 15:28:07
Intel hat mal selber in den Raum gestellt das sie den CPU Vorteil nutzen wollen?



Quelle? Du behauptest viel wenn der Tag lag ist, ohne Quelle klingt das nach Wunschvorstellung. Wäre ziemlich entgegen Intels Bestreben, den Verbrauch mit neuen Treibern zu senken. Und ich behaupte einfach mal das ich das längst in meinen Tests bemerkt hätte.

Knuddelbearli
2013-06-05, 15:36:45
Begründung?

Im Zweifelsfall der das Intel nur bei 3DMark schneller ist, klingt immerhin glaubwürdiger als das Intel cheatet. ( Cheaten ist es ja nur wenn die Grafikqualität dabei sinkt ).
Wobei es damals eben nur ein Gedanke von Intel war ob es jemals eingeführt wurde kP

Quelle suche ich schon die ganze Zeit aber das ist über 1 Jahr her wird also schwer. Weiss aber noch genau das ich das gelesen habe.

Blackhand
2013-06-05, 15:40:15
Soweit ich mich erinnern kann, hatte damals der GMA900/950 keine fixed T&L Unit und hatte dafür die CPU zur Berechnung herangezogen, was aber eher Schnee von gestern ist.

Dass man auch heute bestimmte Grafikfunktionen quasi in Software erledigen lassen kann wäre vermutlich möglich, aber verbrauchstechnisch wohl eher schlecht.

Knuddelbearli
2013-06-05, 15:42:33
ne so alt war die news dann auch wieder nicht 1 bis maximal 2 jahre. ( wobei man ja nicht weiss ob es von der Newsseite erst nach X jahren verarbeitet wurde ^^ )

Mir liegts auf der Zunge sehe sogar das Seitenlayout vor meinem geistigen Auge aber komm nicht drauf XD

Ein Sheldon Cooper müsste man sein.

So mir ist ein weiteres Erinnerungstück eingefallen, kann sein das es da um AA ging das über AVX laufen solte.

Twodee
2013-06-05, 16:03:48
Im Zweifelsfall der das Intel nur bei 3DMark schneller ist, klingt immerhin glaubwürdiger als das Intel cheatet. ( Cheaten ist es ja nur wenn die Grafikqualität dabei sinkt ).
Wobei es damals eben nur ein Gedanke von Intel war ob es jemals eingeführt wurde kP

Quelle suche ich schon die ganze Zeit aber das ist über 1 Jahr her wird also schwer. Weiss aber noch genau das ich das gelesen habe.
Ähm das ist keine Antwort auf meine Frage [siehe Fett markiertes in deinem Ausgangspost].

robbitop
2013-06-05, 16:10:01
Im Zweifelsfall der das Intel nur bei 3DMark schneller ist, klingt immerhin glaubwürdiger als das Intel cheatet. ( Cheaten ist es ja nur wenn die Grafikqualität dabei sinkt ).
Wobei es damals eben nur ein Gedanke von Intel war ob es jemals eingeführt wurde kP

Quelle suche ich schon die ganze Zeit aber das ist über 1 Jahr her wird also schwer. Weiss aber noch genau das ich das gelesen habe.
Cheaten ist, wenn Arbeit gespart wird. Sprich Shaderreplacement etc. Das muss nicht zwangsweise sichtbar sein.

Ich meine mich übrigens auch daran zu erinnern, dass Intel bei den IGPs die CPU genutzt hat (Vergangenheit!) um der GPU unter die Arme zu greifen. War es Vertexshading, Backfaceculling...irgendsowas.
Ich glaube heute wird das eher kontraproduktiv sein.

Knuddelbearli
2013-06-05, 16:12:03
so gefunden,

2 Jahre alt mein Gedächtnis ist einfach genial ^^
Auch wenn es den Inhalt nicht zu 100% Richtig wiedergab
http://www.golem.de/1107/85198.html

Aber schon interessant wie man immer von allen Seiten angemacht wird egal was kommt. Schreibt man was für AMD schreien einen alle ein AMD Fanboy nach, schreibe ich jetzt mal was für Intel das ich eben nicht glaube das sie cheaten passt es auf einmal auch nicht.
Lieber wird denen geglaubt die Cheater schreien und dafür gar keine Beweise oder Begründungen haben ...

Immer das selbe hier...


hat sich jetzt eh erledigt, es gab zwar sicher noch eine News dazu wo es nicht um MLAA ging aber da wurde sicher nur schlecht abgeschrieben und verallgemeinert.
Und die suche ich jetzt nicht auch noch.

@ Twodee da man eben immer anschauen muss was man besonders gut auslagern kann, darf ja nicht allzu zeitkritisch sein ( mit HD 3000 gab es ja noch keine direkte CPU GPU Verbindung, und wusste ja das die News etwas älter ist ).

Knuddelbearli
2013-06-05, 16:13:43
Cheaten ist, wenn Arbeit gespart wird. Sprich Shaderreplacement etc. Das muss nicht zwangsweise sichtbar sein.



Naja ist dann aber ja kein Cheating sondern Optimierung. Nur im Kontext eines Benchmarkvergleiches wird es dann zum Cheating wenn man es nur für bestimmte Spiele / Programme optimiert.
Aber die Implementierung an sich ist aber eben kein Cheating.

Ronny145
2013-06-05, 16:19:30
so gefunden,

2 Jahre alt mein Gedächtnis ist einfach genial ^^
Auch wenn es den Inhalt nicht zu 100% Richtig wiedergab
http://www.golem.de/1107/85198.html


Was soll das MLAA in der Diskussion hier bringen? Das MLAA muss ins Spiel implementiert werden.

Knuddelbearli
2013-06-05, 16:21:40
wie wäre es mit ganzen Text lesen?

hat sich jetzt eh erledigt, es gab zwar sicher noch eine News dazu wo es nicht um MLAA ging aber da wurde sicher nur schlecht abgeschrieben und verallgemeinert.
Und die suche ich jetzt nicht auch noch.

Triskaine
2013-06-05, 17:32:57
Intel'sche 3DMurk Optimierung:
Link (http://techreport.com/review/17732/intel-graphics-drivers-employ-questionable-3dmark-vantage-optimizations)

Ronny145
2013-06-05, 17:36:53
Intel'sche 3DMurk Optimierung:
Link (http://techreport.com/review/17732/intel-graphics-drivers-employ-questionable-3dmark-vantage-optimizations)


Asbach Uralt.

Pirx
2013-06-05, 19:27:24
Heute ist die Erkennung 3DMarks wahrscheinlich besser:lol:

Knuddelbearli
2013-06-05, 19:44:43
naja hat auch nicht umbedingt was mit cheaten zu tun, Spieleoptimierungen sind ja ganz normal, versuch mal ein Bioshock ohne Spieleoptimierungen zu spielen ^^
So Sachen können sich aber halt nur AA(A) Titel erlauben

Ronny145
2013-06-05, 19:54:46
Heute ist die Erkennung 3DMarks wahrscheinlich besser:lol:


Mit exe Umbenennungen kennt sich AMD gut aus. Die machen so schnell keinem was vor.

Knuddelbearli
2013-06-05, 20:11:30
als ob da NV einen deut besser wäre ...

robbitop
2013-06-06, 11:21:25
Naja ist dann aber ja kein Cheating sondern Optimierung. Nur im Kontext eines Benchmarkvergleiches wird es dann zum Cheating wenn man es nur für bestimmte Spiele / Programme optimiert.
Aber die Implementierung an sich ist aber eben kein Cheating.
IMO schon. Leistung = Arbeit pro Zeiteinheit. Wenn du Arbeit sparst und dabei linear Zeit sparst, erhöt sich die Leistung nicht. Das ist per definition so. ;)

Die FPS-differenz im Firestrike ist auf jeden Fall auffällig - sie wird so nicht in Spielen wiedergegeben. Das müsste man mal genauer untersuchen.

sloth9
2013-06-06, 13:01:20
oh mann... Folge der neuen Marketingabteilung?

Was fürn Schwachsinn?

Die neue APU "bekämpft" also die auf ihr laufenden Apps?
So kann man das natürlich auch sehen, langsam ist die Bulldozer-Arch. ja schon...

Spasstiger
2013-06-06, 15:56:35
Warum kostet der A10-6700 (http://geizhals.de/amd-a10-6700-ad6700okhlbox-a950984.html) eigentlich mehr als der A10-6800K (http://geizhals.de/amd-a10-6800k-black-edition-ad680kwohlbox-a950987.html)? Läuft der 6700 als Stromsparmodell (65 Watt TDP) mit entsprechendem Preisaufschlag?
An und für sich ja eine sehr interessante APU, da deutlich höhere Spieleperformance als bei einem Core i7-4770K und gleichzeitig nur geringfügig höherer Spieleverbrauch:
http://www.computerbase.de/artikel/grafikkarten/2013/amds-richland-im-gpu-test/2/
http://www.computerbase.de/artikel/grafikkarten/2013/amds-richland-im-gpu-test/6/

M4xw0lf
2013-06-06, 16:00:14
Der Listenpreis ist eigentlich gleich, nicht höher.

Spasstiger
2013-06-06, 16:03:54
Jo stimmt, wenn man genau hinschaut, sieht man dass der A6700 je nach Händler mal teurer und mal günstiger als der 6800K, aber der Unterschied liegt immer nur bei ein paar Cent bis wenigen Euros. Wäre aber schöner, wenn der A6700 günstiger wäre. ;)

ndrs
2013-06-06, 16:07:52
Ist doch bei Intel mit den S und T-Modellen nicht anders.

anddill
2013-06-06, 16:18:20
Auch der A10-5700 ist genauso teuer wie der 5800K. Und der 6700 ist nun mal der interessanteste Chip aus der ganzen Baureihe.

Knuddelbearli
2013-06-06, 17:54:32
IMO schon. Leistung = Arbeit pro Zeiteinheit. Wenn du Arbeit sparst und dabei linear Zeit sparst, erhöt sich die Leistung nicht. Das ist per definition so. ;)

Die FPS-differenz im Firestrike ist auf jeden Fall auffällig - sie wird so nicht in Spielen wiedergegeben. Das müsste man mal genauer untersuchen.

Njein, solange das Ergebnis ( = Bildqualität ) gleich bleibt ist es zumindest für mich kein Cheaten, unschön ist es natürlich trotzdem wenn nur typische benchmarks so optimiert werden

Flusher
2013-06-07, 10:18:33
Njein, solange das Ergebnis ( = Bildqualität ) gleich bleibt ist es zumindest für mich kein Cheaten, unschön ist es natürlich trotzdem wenn nur typische benchmarks so optimiert werden

Trotzdem ist es cheaten, denn es wird dem Benchmark-Nutzer Leistung vorgegaukelt die eigentlich gar nicht da ist bzw. sich auf reale Spielbedingungen gar nicht übertragen lässt.

Das ist so als würdest du einem Opel Corsa statt einem normalen Auspuff ein Ofenrohr von hinten nach vorne verbauen, und einen unglaublichen Lärm machen um zu beeindrucken, beim Drag-Race dann aber trotzdem abkacken, weil immer noch der 1L Luftpumpenmotor verbaut ist.

Jaja ich weiss Autovergleiche sind blöd. :freak:

Ronny145
2013-06-07, 10:32:08
Problem ist nur, dass ihr keine Beweise vorlegen könnt. Jemand, der anderen Betrug vorwift, sollte gute Beweise vorlegen. Wer sich nur auf 3dmark verlässt, ist ohnehin selber Schuld. Das gilt oder galt auch andersrum. Der A10-4600M sah im 3dmark11 besser aus als in Spielen. Nur hat es da keinen gestört.

Knuddelbearli
2013-06-07, 18:31:45
naja dort ist es halt fast das selbe wie mit dem turbo bei NV

bei 3dMark kann die iGPU ordentlich aufdrehen da sie Leistungsaufnahme von der CPU abzwacken kann

Knuddelbearli
2013-06-09, 10:58:59
Stimmt es nun oder stimmt es nicht was CB schreibt?
Hab das hier ja schonmal gefragt.

Mit den normalen Modellen ergibt sich beim Übertakten jedoch ein Umstand, den man bereits vom Vorgänger Trinity als auch Intels Sandy Bridge, Ivy Bridge und Haswell kennt: Sie sind quasi nicht übertaktbar. Denn auch dort kann man nur über den Baseclock (BCLK) übertakten, an dem quasi das gesamte System hängt. AMD definiert diesen Umstand wie folgt: „BCLK is used as a reference frequency to generate clocks for all of the different clock domains in the APU.“ Am Ende bedeutet dies exakt wie bei Intels Mainstream-Prozessoren, dass das Übertakten stark eingeschränkt, ja quasi unmöglich ist. Maximal 6 MHz zusätzlichen Takt über den BCLK konnten wir erreichen.

Wäre mir ja neu.
Im Originale Trinity Test erwähnt das CB auch mit keinem Wort auch auf anderen Seiten finde ich nichts dazu

AnarchX
2013-06-09, 11:05:45
Es werden sich wohl nur wenige User Non-K-CPUs zum Übertakten kaufen, da es diese ja auch niedrigen Preisklassen gibt.
Ansonsten gibt es Boards mit externen Taktgebern, sodass z.B. 135MHz möglich sind: http://www.computerbase.de/artikel/prozessoren/2012/alle-desktop-trinity-im-cpu-vergleichstest/11/

Knuddelbearli
2013-06-09, 11:10:45
klar, deshalb habe ich mich biser nicht damit beschäftigt, wenn eine APU dann mit voller shader anzahl und bei Trinity kostete der 5800K gleichviel wie der 5700.
Jetzt sind es aber halt doch 20$ unterschied, ich würde mit trotzdem den K nerven aber zum empfehlen wäre das gut zu wissen

hatte nur dort geschaut er test ist ja älter
http://www.computerbase.de/artikel/prozessoren/2012/test-trinity-vs.-ivy-bridge-im-cpu-test/

Schaffe89
2013-06-10, 11:05:56
Für die 5 Prozent Mehrleistung in Spielen und Anwendungen kann man genausogut einen 5800k kaufen und von der Ersparnis schnelleren Ram ( DDR3 2400) , sich holen.
Dann dürfte der 5800k in Spielen genausoflott unterwegs sein wie ein 6800k mit DDR 2133.

Immortal
2013-06-17, 09:31:37
Irgendwie geht die Rechnung für mich noch nicht auf. Wenn ich in der Anandtech Bench einen A10-5800K mit einem Pentium G850 mit 2.9 GHz vergleiche -- das waren die ähnlichsten CPUs, die ich für diesen Zweck gefunden habe --, dann zeigt Bench über alles einen Vorteil für den Pentium an... der A10 ist in der Anwendungsperformance besser, der Pentium aber dafür in der (CPU-)Spieleperformance. Ein A10-6800K (sollte ja nicht grundlegend viel schneller sein als der A10-5800K) ist momentan für ca. 127 EUR gelistet. Für's ungefähr gleiche Geld kriege ich aber einen Ivy Bridge Pentium G2020 (2.9 GHz, ca. 49 EUR) plus eine AMD HD7750 (1 GB GDDR5, ca. 77 EUR). Und diese Kombi sollte doch bei Spielen um Welten schneller sein als der A10. Übersehe ich da irgendwas oder ist auch Richland immer noch nicht so richtig sinnvoll? Selbst im Stromverbrauch wäre die Pentium-7750-Kombi ja mindestens vergleichbar gut.

Shink
2013-06-17, 10:16:54
Übersehe ich da irgendwas oder ist auch Richland immer noch nicht so richtig sinnvoll? Selbst im Stromverbrauch wäre die Pentium-7750-Kombi ja mindestens vergleichbar gut.
Verteh die Rechnung nicht.
Pentium G2020 hat eine TDP von 55 Watt, eine Karte mit 7750 auch so ungefähr (58 Watt?). Und der A10-6700 hat eine TDP von 65 Watt.

Na, egal. Wenn im Tower richtig wenig Platz ist (Mini-ITX), ist man mit Richland jedenfalls im Vorteil. Anders gesagt ist es quasi die einzige Lösung.

Immortal
2013-06-17, 10:36:12
Verteh die Rechnung nicht.
Pentium G2020 hat eine TDP von 55 Watt, eine Karte mit 7750 auch so ungefähr (58 Watt?). Und der A10-6700 hat eine TDP von 65 Watt.
Im Computerbase-Test hat ein A10-6800K bei Volllast auf allen vier Kernen 60 W Mehrverbrauch gegenüber einem Core i3-3220 mit 3.3 GHz, der A10-6700 immer noch 38 W. Und eine HD7750 mit GDDR5 hat laut ht4u.net einen Spieleverbrauch von ca. 40-45 W, eine mit GDDR3 nur 33 W. Man kriegt ja leider keine Tests, wo genau sowas mal vermessen würde... die CB hat nur einen A10 mit einer HD6670 mitlaufen, keine intel-CPU. Deswegen bin ich nicht so ganz sicher, ob ich mit meiner Vermutung richtig liege. Aber einfach nur die TDP angucken reicht m.E. nicht.

y33H@
2013-06-17, 10:39:02
Man ist das bei den Watt durchaus im Mittel gleichauf, aber das schwankt von Spiel zu Spiel.

Twodee
2013-06-17, 10:42:13
P3D hat das mal getestet:

http://www.planet3dnow.de/photoplog/images/49616/1_i3-3225-Leistungsaufnahme_erweitert.png

http://www.planet3dnow.de/vbulletin/showthread.php?p=4724334#post4724334

Der Test dazu: http://www.planet3dnow.de/vbulletin/showthread.php?t=410546

Shink
2013-06-17, 10:43:17
Aber einfach nur die TDP angucken reicht m.E. nicht.
Gut, man kann sich z.B. auch den Idle-Verbrauch ansehen, dann gewinnt der Richland um Längen gegen eine Kombi mit dedizierter Grafik.:freak: Beim Surfen vermutlich auch: Bei geringer Last sind die AMDs relativ sparsam und GraKa hat man auch keine zu befüttern.

Man müsste also diverse Szenarien für PC-Nutzung erstellen und das dann durchmessen.

V2.0
2013-06-17, 10:44:31
Man ist da der A10 ungeil.

YfOrU
2013-06-17, 10:45:14
Verteh die Rechnung nicht.
Pentium G2020 hat eine TDP von 55 Watt, eine Karte mit 7750 auch so ungefähr (58 Watt?). Und der A10-6700 hat eine TDP von 65 Watt.


Siehe Richland Review auf P3D:
http://www.planet3dnow.de/vbulletin/showthread.php?t=413046&garpg=20#content_start

Der i3-3220 ist ebenfalls ein 55W IvyBridge DC. Allerdings mit HD4000 und selbst darüber wird die TDP nicht ausgeschöpft. -> Dirt Showdown 29 Watt Differenz zu einem A10-6700.

Immortal
2013-06-17, 10:48:47
P3D hat das mal getestet:
Wow, danke für den Hinweis. Das ist ja noch schlimmer als gedacht. :eek:

Shink
2013-06-17, 10:49:11
Jaa... das ist doch noch der alte 5800K...

Nö, mal im Ernst: Wen interessiert denn so etwas? So groß sind die Unterschiede im Gesamtstromverbrauch ohnehin nicht, wenn A bei Idle, Videos und Browser weniger braucht und B bei Encoding, PDFs, Browsen "mit schnellem Tabwechsel" und Spielen - und sich die Unterschiede auf maximal 30 Prozent belaufen.

Immortal
2013-06-17, 10:56:13
Nö, mal im Ernst: Wen interessiert denn so etwas?
Die Kombi mit der 7750 ist deutlich schneller in Spielen bei geringerem Stromverbrauch. Sowas finde ich interessant.

YfOrU
2013-06-17, 10:56:45
Jaa... das ist doch noch der alte 5800K...

Nö, mal im Ernst: Wen interessiert denn so etwas? So groß sind die Unterschiede im Gesamtstromverbrauch ohnehin nicht, wenn A bei Idle, Videos und Browser weniger braucht und B bei Encoding, PDFs, Browsen "mit schnellem Tabwechsel" und Spielen - und sich die Unterschiede auf maximal 30 Prozent belaufen.

In meinem Link weiter oben ist es Richland.

Es interessiert durchaus denn die Kombination aus IB Pentium und entsprechender dGPU (IGP deaktiviert) hat am Ende in der Praxis kaum mehr als 10 Watt zusätzlich (3D Last).
Dreht dafür aber bei der 3D Performance Kreise um den A10-6700 und das zu vergleichbaren Kosten.

//edit:
Eine 7750 kommt auf ~45W:
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_650_gt_640_evga_test/index13.php
Auf die oben genannten 29W Differenz kommt noch die TDP der deaktiverten IGP -> ~10W zusätzlich für IB Pentium inklusive 7750.

MadManniMan
2013-06-17, 11:11:22
Somit bleibt der Vorteil der geringen Größe - und dann sind wir wieder bei Notebooks ;(

YfOrU
2013-06-17, 11:29:04
Somit bleibt der Vorteil der geringen Größe - und dann sind wir wieder bei Notebooks ;(

Hier wirkt sich die (vergleichsweise) geringe Effizienz weit schwerer als am Desktop aus (IGP Taktfrequenz). Gleichzeitig steht grundsätzlich weniger Speicherbandbreite (im Regelfall nur DDR3 1600 -> Skalierung) zur Verfügung womit bereits die HD4600 eine ernsthafte Konkurrenz darstellt.

MadManniMan
2013-06-17, 11:39:00
Genau das meinte ich.

Ja, die leistungsfähigere APU (in Hinblick auf kombinierte CPU-/GPU-Leistung) kommt von AMD, aber wo sollte man diese einsetzen?

YfOrU
2013-06-17, 11:42:22
Genau das meinte ich.

Ja, die leistungsfähigere APU (in Hinblick auf kombinierte CPU-/GPU-Leistung) kommt von AMD, aber wo sollte man diese einsetzen?

Eine Nische wären AIO Systeme aber genau für solche Produkte gibt es eben Iris Pro (HD5200) als BGA für den Desktop. Die leistungsfähigste APU (inkl. IGP Performance) kommt von Intel.

Grundsätzlich war Llano (Desktop) ein ordentliches und recht konkurrenzfähiges Produkt. Über Trinity hin zu Richland wurde es isoliert betrachtet auch besser aber Intel hat in der gleichen Zeit die Siebenmeilenstiefel aus dem Schrank geholt ;)

V2.0
2013-06-17, 11:53:34
Und im mobilen Bereich steht man dann z.B. gegen I3 + GT640 Optimus. Und es ist bemerkenswert wie gut diese Combi heute läuft.

YfOrU
2013-06-17, 11:58:27
Und im mobilen Bereich steht man dann z.B. gegen I3 + GT640 Optimus. Und es ist bemerkenswert wie gut diese Combi heute läuft.

Das funktioniert gut aber hat eine erheblich höhere TDP als ein A10-5750M oder auch i5-4200M. Da liegen ungefähr 20 Watt dazwischen und das ist bei einem Notebook ziemlich viel.

Hauptproblem ist eher das die neuen Haswell Designs mit HD4600 sehr nahe an der GPU Performance der mobilen Richland liegen. Wenn die GPU als Verkaufsargument herhalten soll muss der Abstand sehr viel größer ausfallen.

V2.0
2013-06-17, 12:04:36
TDP ja, aber in der Realität - siehe 7750 + i3. Wobei i3 + 32W ist schon knapp, gerade wenn das System beim 2D Betrieb nur die Intel IGP nutzt.

YfOrU
2013-06-17, 12:10:04
Die Kühlung muss das bei konstanter Last schaffen (beim Desktop unproblematisch) und deshalb kommen entsprechende Geräte (13,3 - 14 Zoll) nur in seltenen Fällen mit einer regulären GT 640M bzw. vergleichbaren GPU.
Wenn etwas in der Richtung verbaut wird dann meistens mit 17W ULV IB + dGPU.

Die TDP der HQ Modelle mit Iris Pro von 47 Watt ist nicht zufällig gewählt. Oberhalb von 50 Watt wird es bei kompakteren Geräten kritisch -> sehr hoher Aufwand nötig. Genau das ist der Ansatzpunkt von Intel. Vier Kerne mit ordentlichen Turbo (da TDP dynamisch verteilbar) statt nur zwei als ULV Variante und eine IGP etwas über der GT640M DDR3 bei ähnlicher TDP. So hat eine APU zu funktionieren und da zeigt sich wieder das AMD richtig gute Ansätze hat aber wenn es um die Ausführung geht Intel in einer anderen Kategorie agiert.

Hübie
2013-06-17, 12:48:33
Na ja für mich war das veraltete VLIW-Design enttäuschend. GCN wäre jetzt ein (Effizienz-) Guru geworden, schätz ich. Es ist natürlich nicht leicht den sweet spot aus Kosten, Verbrauch und Leistung zu definieren, aber nicht unmöglich. 4950HQ sehe ich aktuell jedoch noch als reinen Papiertiger, da es weder Notebook.

Lowkey
2013-06-17, 13:12:02
Ich suche ein passendes Board. In den Reviews passiert bei den FM2 Boards genau das, was ich bei den Intel Boards erleben: alle Reviews sehen beim Stromverbrauch anders aus. Asrock ist mal das Schlimmste und mal das Beste.

Eventuell bleibt nur das Asrock ITX Board.

Es muss kein A85 Board sein, aber nach den Bildern zu urteilen haben die A85er die bessere Stromversorgung.

YfOrU
2013-06-17, 13:15:50
Na ja für mich war das veraltete VLIW-Design enttäuschend. GCN wäre jetzt ein (Effizienz-) Guru geworden, schätz ich. Es ist natürlich nicht leicht den sweet spot aus Kosten, Verbrauch und Leistung zu definieren, aber nicht unmöglich. 4950HQ sehe ich aktuell jedoch noch als reinen Papiertiger, da es weder Notebook.

Die (mobile) GPU Performance wäre mit GCN zumindest ein gutes Stück vor der HD4600.
Iris Pro (HD5200) war nur als Beispiel gedacht wie eine "APU" funktionieren sollte und welche Vorteile sich gegenüber dedizierten Lösungen ergeben. Liegt sowohl bei Preis als auch Performance außerhalb von AMDs APU Portfolio.

Hübie
2013-06-17, 13:35:05
Huch. Mein Beitrag war gar nicht fertig. ;D Scheiß touch-screens.

4950HQ sehe ich aktuell als reinen Papiertiger, weil es noch keine konkreten Produkte gibt. So sollte es heißen.

fondness
2013-07-08, 11:05:14
Im mobilen Bereich bringt Richland doch erstaunlich deutliche Verbesserungen:
http://www.anandtech.com/show/7106/amds-a105750m-review-part-1-the-apu-and-radeon-hd-8650g-performance

Skysnake
2013-07-08, 19:30:02
Ja, die Zuwächse sind teilweise schon beachtlich.

Ronny145
2013-08-06, 01:20:16
A10-5750M+HD 8970M: http://www.notebookcheck.com/Test-MSI-GX70H-A108972811B-Notebook.98405.0.html


CPU heavy games werden immer noch stark limitiert. Diese Kombo mit der schnellen GPU ist total unausgewogen. Alarmierend sind auch die CPU Einbrüche trotz deaktivierter Prozessorgrafik. Aber ok, die A10 werden eh immer mit dedizierter Grafik ausgestattet.


In Fifa 13 und Assassin's Creed III arbeitet das GX70 besonders langsam. Ein Intel Prozessor bewältigt die Spiele knapp 150 % schneller.


Bei manchen Titeln hat das Notebook mit subjektiv wahrnehmbaren »Performance-Drops« zu kämpfen. Dürfte daran liegen, dass der Kerntakt – wie bereits erwähnt – teils auf 2,5 GHz einbricht.

Mitunter bringt es so gut wie nichts, die Grafikoptionen zu reduzieren, da der Prozessor bereits am Limit ist. Ein Intel Quad-Core packt schon mit einer GeForce GTX 765M fast alle Games auf High (siehe Tabelle am Testende).

Aufgrund des sprunghaften CPU-Turbos kommt es von Durchgang zu Durchgang zu abweichenden Ergebnissen.

OpenGL-Programme werden oft nicht korrekt dargestellt (schwarze Anzeige).


Eine Radeon HD 8970M mit einem derart schwachen Prozessor zu kombinieren, ist in unseren Augen sinnfrei. Beim Blick auf manche PC-Titel (Assassin's Creed III, Hitman: Absolution, Guild Wars 2) entstehen große Zweifel an der Zukunftstauglichkeit. Hier werden zufolge der CPU selbst unter reduzierten Grafiksettings (high) keine spielbaren Frameraten erreicht. Nvidias GTX 765M schafft dies an der Seite eines Intel Vierkerners ohne Probleme. Vorteile bei einzelnen Games werden also auf Kosten anderer aktueller Spieletitel erkauft.

Loeschzwerg
2013-08-06, 08:19:58
Ja, Hauptproblem von AMD bleibt schlichtweg der schwache CPU Teil. Die haben nichts um die eigenen GPUs zu füttern.

Und in dieser Kombination stört zudem der große Grafikteil der APU. Ein kleinerer DIE wäre hier sicher hilfreicher und man könnte mehr Takt bei der CPU anlegen.

Twodee
2013-08-06, 09:33:29
A10-5750M+HD 8970M: http://www.notebookcheck.com/Test-MSI-GX70H-A108972811B-Notebook.98405.0.html


CPU heavy games werden immer noch stark limitiert. Diese Kombo mit der schnellen GPU ist total unausgewogen. Alarmierend sind auch die CPU Einbrüche trotz deaktivierter Prozessorgrafik. Aber ok, die A10 werden eh immer mit dedizierter Grafik ausgestattet.
Die Sache ist doch glasklar! => Software-Limit :freak: :biggrin: :rolleyes:

Loeschzwerg
2013-08-06, 11:12:26
http://vr-zone.com/articles/amds-upcoming-8-ball-program-will-highlight-the-a10-6800ks-cost-advantage/49156.html

Tolle Werbekampagne...

Duplex
2013-08-06, 13:19:26
Falls jemand 2 Schnäppchen machen will.

http://abload.de/thumb/6800k6500slpjz.png (http://abload.de/image.php?img=6800k6500slpjz.png)

A10-6800k + A8-6500 für 132 €

mironicus
2013-08-06, 13:22:12
Den A10-5700 gab es dort schon für 50 Euro, den A10-5800 für 54 Euro. :)

Duplex
2013-08-06, 13:22:52
Das sind aber Trinity und keine Richlands.

mironicus
2013-08-06, 13:24:22
Ich hatte jetzt nur an den Preis gedacht, und nicht an den Thread wo es um Richland geht. :)

Wenn nur die Versandkosten nicht so abnorm hoch wären... (Vorkasse ist bei Mindstar-Artikeln nicht möglich)