Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - A-Serie - Llano - Review Thread
Was ihr immer auf der GPU-Leistung von Sandy Bridge rumhackt. ...
Die ist ja nun auch wirklich bescheiden und das AF spottet jeder Beschreibung.:biggrin:
Knuddelbearli
2011-06-25, 01:58:27
Die CPU hat mit AA und Full-HD nichts am Hut. SC 2 oder GTA IV mit maximalen Details auf einem Athlon II? 4get it.
es geht hier immer noch um Llano ;-) der CPU teil ist aber eben mit dem Athlon zu vergleichen
mironicus
2011-06-25, 10:18:48
Schade, das AMD mit dem Llano nichts bietet, was für mich reizvoll wäre. Ich habe in meinen HTPC einen Athlon II X4-640 und eine Radeon 5570 (passiv). Der HTPC enkodiert nebenbei auch noch H264-Videos, und in dem Bereich sind die AMD-Prozessoren nachwievor sehr gut. Wenn AMD einen 95 Watt-Prozessor mit 8 Kernen in 32nm mit Athlon II-Architektur bauen würde, der auf AM2+ und AM3-Boards läuft, würde ich sofort zuschlagen. Ich befürchte ja, dass der Bulldozer trotz neuer Architektur bei H264-Enkodierung nicht schneller sein wird, als ein imaginärer Athlon II X8.
Knuddelbearli
2011-06-25, 18:44:44
? der Llano würde beides ersetzten was du hast du würdest keien extra GPU brauchen also noch kelineres Gehäuse würdest dir auch locker 50€ sparen
und du verlangst einen x8 athlon meckerst aber zugleich das der Bulldozer nur gleichschnell wie ein x8 Athlon sein wird? ( bzw du das vermutest )
mironicus
2011-06-25, 19:02:26
Was gibt es da misszuverstehen? Ich hätte am liebsten einen Athlon X8 in 32 nm, der zu dem alten Sockel AM2+ kompatibel ist. Athlon und Phenom sind bei H264-Enkodierung gleich schnell, der L3-Cache nützt da nichts. Meine Vermutung ist halt, dass wenn der Bulldozer nicht der große Wurf wird, er dann theoretisch auch nicht schneller als ein fiktiver Athlon X8 wäre (speziell H264-Enkodierung) und AMD hätte sich die neue Architektur mitsamt den notwendigen Motherboard-Wechsel sparen können.
Die Frage ist halt, inwieweit es lohnenswert gewesen wäre, einfach den Verkleinerungsprozess zu nutzen, und weitere Prozessoren für AM2+ und AM3 anzubieten, ohne die Architektur der Prozessoren großartig zu verändern.
Das wird man wohl später bei Tests sehen. Wie schnell wird ein Bulldozer bei gleicher Taktrate gegenüber einen Phenom II/Athlon X4 sein, wenn man die gleiche Kernzahl nutzt. Wie gut wurde die IPC eines Kerns verbessert?
Und im Falle von Llano: Wie teuer ist ein Athlon X4-640 + Motherboard + Radeon 6450 gegenüber einem FM1-Mainboard + Llano-Prozessor? Llano (mit max. 130 Euro so teuer wie ein Phenom X6-1090T) wird gerade mal so schnell wie eine 70 Euro-CPU sein, und weitere Aufrüstmöglichkeiten gibt es vorerst nicht. Zusätzlich muss man beim Llano auch noch teureren Speicher verwenden, um der GPU Beine zu machen. Aber das lohnt sich imho überhaupt nicht.
Wenn ich mir jetzt ein neues System kaufen würde, dass möglichst billig sein soll und auch noch aufrüstbar für die Zukunft, würde mich die Beschränkung von LLano eher abschrecken. AMD bietet mit dem Athlon X4 und der AM3-Plattform eine bessere Einstiegsmöglichkeit an. Ich sehe den Sinn in den E350, da er vor allem stromsparend ist. Aber der LLano ist ein ganz normaler Desktop-Prozessor der in Konkurrenz mit dem Core I3, Pentium und auch mit den eigenen Einstiegsprozessoren von AMD steht.
Weselchak-U
2011-06-25, 23:25:26
Aus eigener Erfahrung weiss ich, dass Athlon II im Vergleich zu sogar Phenom II (echter Phenom II mit 6 MB L3-Puffer gemeint) als Spielprozessor ein Versager ist.
Als ich von einem Athlon II X4 630 mit 2,8 GHz auf ein AMD Phenom II X4 965 mit 3,4 GHz umgestiegen bin, sind bei prozessorlastigen Stellen trotz der geringen GHz-Steigerung in Spielen, die ich spielte die Mindest-B/p.s. um das 2-fache gestiegen !!!
Wenn mir das jemand erzählt hätte, würde ich das nicht glauben.
Die ganzen Tests im Netz sahen den Vorteil vom L3-Puffer eher bei 5-15%. Das mag ja rechnerisch irgendwie hinhauen, in der Praxis fühlt es sich aber anders an.
Beispiele für Spiele : Stalker, Fear 1+Fortsetzungen, Condemned.
Wenn man bedenkt, dass der günstigste Athlon II x4 heute 68,77 mit Versand kostet, dagegen der günstigste echte Phenom II x4 nur 75,76 Euro, würde ich auf jeden Fall den Griff zum Phenom II empfehlen.
Der Athlon II darf als CPU für Spielerechner nur als ultimative Billiglösung mit 2 Kernen wegen des Preises eingesetzt werden, damit die Spiele überhaupt irgendwie laufen.
Der x4 für Spielerechner ist einfach nichts.
Es sei denn, ein sehr unwahrscheinlicher Fall tritt ein, dass die Zielperson ausschliesslich Spiele spielt, die von 4 Kernen sehr profitieren und gleichzeitig L3-Puffer sie kalt lässt.
So ein Fall wird nicht jeden Tag eintreffen.
Ob Liano gut in Spielen wird, muss in persönlichen Tests geprüft werden.
y33H@
2011-06-25, 23:45:21
Spiele, die keinen L3 mögen, kenne ich nicht.
EDIT
=)
http://www.pcgameshardware.de/aid,831074/Abgabestress-leere-Stuehle-neue-Mainboards-sowie-CPUs-Die-PCGH-Woche-in-Bildern/PCGH-Webseite/News/bildergalerie/?iid=1534863
http://www.pcgameshardware.de/aid,831074/Abgabestress-leere-Stuehle-neue-Mainboards-sowie-CPUs-Die-PCGH-Woche-in-Bildern/PCGH-Webseite/News/bildergalerie/?iid=1534865
Schnitzl
2011-06-27, 16:29:27
AMD-Llano-uebertaktet-A8-3850-in-der-Video-Vorschau-Crysis-2-bei-ueber-30-Fps (http://www.pcgameshardware.de/aid,831355/AMD-Llano-uebertaktet-A8-3850-in-der-Video-Vorschau-Crysis-2-bei-ueber-30-Fps/CPU/News/)
Freaks... :freak:
Screemer
2011-06-27, 16:33:24
43°C bei doch ganz ordentlicher übertaktung. wie nennt sich denn der kühler und ist das realistisch oder ein auslesefehler?
Matrix316
2011-06-27, 16:51:55
Also für Notebooks finde ich den Llano ziemlich gut, aber wer kauft sich sowas ernsthaft fürn Desktop???
43°C bei doch ganz ordentlicher übertaktung. wie nennt sich denn der kühler und ist das realistisch oder ein auslesefehler?
Der Kühler ist ein Zalman CNPS11X Extreme (http://gh.de/a622721.html).
M4xw0lf
2011-06-27, 18:10:32
Der Kühler ist ein Zalman CNPS11X Extreme (http://gh.de/a622721.html).
Ja und der ist noch nicht mal besonders gut.
Screemer
2011-06-27, 18:49:49
Also für Notebooks finde ich den Llano ziemlich gut, aber wer kauft sich sowas ernsthaft fürn Desktop???das teil ist für oems doch mehr als interessant. Office PCs und die ganzen 0815 billig Kisten sind doch prädestiniert für so Nr CPU. Was bisher Johann fehlt sind billige fm1 boards. Ich steh kurz vor der Anschaffung zweier neuer bürorechner und das werden wohl llanos werden.
mironicus
2011-06-27, 18:50:20
Idle Strom-Verbrauch und reiner CPU-Lastverbrauch ohne GPU-Aktivität wäre auch interessant.
LovesuckZ
2011-06-27, 19:01:19
Idle Strom-Verbrauch und reiner CPU-Lastverbrauch ohne GPU-Aktivität wäre auch interessant.
Der CPU-lastverbrauch ist schlecht. Verdammt schlecht für 32nm. Nicht umsonst müssen die mobilen Varianten so niedrig getaktet werden. Die werden selbst von einem mobilen i3 mit 2,1Ghz (nur 2 Kerne kein HT) in einer Multi-Threading Anwendung wie Cinebench geschlagen(!): http://www.pcgameshardware.de/aid,831368/AMD-Llano-im-Kurztest-Mobile-A-Serie-fuer-die-Sabine-Plattform/CPU/Test/
mironicus
2011-06-27, 19:25:22
Motherboards sind schon lieferbar:
http://preisvergleich.hardwareluxx.de/?cat=mbfm1
Das Asrock für 57 Euro sieht gut aus. 4 USB 3.0, HDMI,
Schnitzl
2011-06-27, 20:58:59
Der CPU-lastverbrauch ist schlecht. Verdammt schlecht für 32nm. Nicht umsonst müssen die mobilen Varianten so niedrig getaktet werden. Die werden selbst von einem mobilen i3 mit 2,1Ghz (nur 2 Kerne kein HT) in einer Multi-Threading Anwendung wie Cinebench geschlagen(!): http://www.pcgameshardware.de/aid,831368/AMD-Llano-im-Kurztest-Mobile-A-Serie-fuer-die-Sabine-Plattform/CPU/Test/
lol da wird ja alles durcheinandergeworfen... 11" gegen 17" ...
Wo sieht man denn hier nen schlechten CPU-Lastverbrauch?
abgesehen davon:
Da unser Asus-Gerät nicht final ist, fällt es schwer, die Akkulaufzeit zu beurteilen - auch wegen des großen Displays und der beiden HDDs; hier warten wir auf Verkaufsversionen, die im Juli bis August erhältlich sein dürften. Nvidias Optimus-Technik ist zwar ein starker Gegner, wird aber preislich eine Liga höher spielen. AMDs A-Serie wird unserer Einschätzung nach ein Erfolg, so wie schon die C- und E-Serie. ACE schmeckt eben allen. ;-)
Zergra
2011-06-27, 21:07:17
hier zb.
Der vierkernige A6-3400M ist trotz Turbocore 2.0 nicht in der Lage, es mit einem Core i3-2130M (zwei Kerne mit 2,1 GHz) aufzunehmen - von einem Core i5-2410M (zwei Kerne mit 2,3 bis 2,9 GHz) ganz zu schweigen. Für den alten CULV-Prozessor Core i5-520UM (zwei Kerne mit 1,0 bis 1,86 GHz) reicht es zumindest beim Multithreading, wobei Intels Zweikerner SMT für sich verbuchen können. Die schwache CPU-Leistung gleicht der A6-3400M durch seine GPU wieder aus: Diese bietet wie oben bereits erwähnt nicht nur weitaus mehr Features als Intels HD Graphics 3000 (nur DX10.1 und OGL 2.1, kein Open CL), sondern auch die viel bessere anisotrope Filterung und ist deutlich potenter. So läuft Call of Duty: Black Ops in 1.280 x 720 Pixeln im Mittel mit rund 30 Fps, die HD Graphics des Core i3-2130M erreicht mit Müh' und Not die Hälfte. Eine Geforce GT 335M ist zumindest im Treyarch-Shooter ähnlich flott wie die Radeon HD 6520G. Ärgerlich: "Dual Graphics" - sprich Crossfire - funktioniert nur unter DX10/11 ordnungsgemäß, daher bringt das Aktivieren der Radeon HD 6650M fast nichts - dabei sind doch die meisten Spiele DX9-Titel. Wie sich allerdings in Dirt 3 zeigt, steigt die Leistung hier bei gleichen Settings um fast 30 Prozent und in Bad Company 2 um knapp 70 Prozent - allerdings treten spürbare Mikroruckler, was nicht jedem Anwender gefallen wird.
YfOrU
2011-06-27, 21:08:47
Was hat Optimus in dem Kontext eigentlich verloren ? Switchable Graphics ist eine Technik die es sowohl von AMD als auch von Nvidia für Intel Systeme gibt.
Ronny145
2011-06-27, 21:14:05
Diese bietet wie oben bereits erwähnt nicht nur weitaus mehr Features als Intels HD Graphics 3000 (nur DX10.1 und OGL 2.1, kein Open CL)
Aus dem oben verlinkten PCGH Test. Wie kommt die PCGH auf OpenGL 2.1? Wir sind bei 3.0/3.1.
Matrix316
2011-06-27, 22:02:46
das teil ist für oems doch mehr als interessant. Office PCs und die ganzen 0815 billig Kisten sind doch prädestiniert für so Nr CPU. Was bisher Johann fehlt sind billige fm1 boards. Ich steh kurz vor der Anschaffung zweier neuer bürorechner und das werden wohl llanos werden.
Aber es ist ja nicht so, dass es sonst keine billigen CPUs gibt, die wenig verbrauchen und die man mit billigen Grafikkarten kombinieren kann. ;)
y33H@
2011-06-27, 23:12:54
Was hat Optimus in dem Kontext eigentlich verloren ? Switchable Graphics ist eine Technik die es sowohl von AMD als auch von Nvidia für Intel Systeme gibt.Hast du mal einen Link zu einem kaufbaren Notebook, welches das mit ner AMD-GPU bietet?
Aus dem oben verlinkten PCGH Test. Wie kommt die PCGH auf OpenGL 2.1? Wir sind bei 3.0/3.1.Du hast Recht, Zeile verrutscht.
LovesuckZ
2011-06-27, 23:15:40
lol da wird ja alles durcheinandergeworfen... 11" gegen 17" ...
Wo sieht man denn hier nen schlechten CPU-Lastverbrauch?
abgesehen davon:
Ist dir vielleicht auchmal in den Sinn gekommen, dass ich mich nur auf die CPU-Werte bezogen habe? Und die wiederrum ein Beleg sind, warum die Stromaufnahme der CPU doch sehr hoch sein wird, um konkurrenzfähig sein zu können?
Schnitzl
2011-06-27, 23:24:18
hier zb. Der vierkernige A6-3400M ist trotz Turbocore 2.0 nicht in der Lage, es mit einem Core i3-2130M (zwei Kerne mit 2,1 GHz) aufzunehmen - von einem Core i5-2410M (zwei Kerne mit 2,3 bis 2,9 GHz) ganz zu schweigen. Für den alten CULV-Prozessor Core i5-520UM (zwei Kerne mit 1,0 bis 1,86 GHz) reicht es zumindest beim Multithreading, wobei Intels Zweikerner SMT für sich verbuchen können. Die schwache CPU-Leistung gleicht der A6-3400M durch seine GPU wieder aus: Diese bietet wie oben bereits erwähnt nicht nur weitaus mehr Features als Intels HD Graphics 3000 (nur DX10.1 und OGL 2.1, kein Open CL), sondern auch die viel bessere anisotrope Filterung und ist deutlich potenter. So läuft Call of Duty: Black Ops in 1.280 x 720 Pixeln im Mittel mit rund 30 Fps, die HD Graphics des Core i3-2130M erreicht mit Müh' und Not die Hälfte. Eine Geforce GT 335M ist zumindest im Treyarch-Shooter ähnlich flott wie die Radeon HD 6520G. Ärgerlich: "Dual Graphics" - sprich Crossfire - funktioniert nur unter DX10/11 ordnungsgemäß, daher bringt das Aktivieren der Radeon HD 6650M fast nichts - dabei sind doch die meisten Spiele DX9-Titel. Wie sich allerdings in Dirt 3 zeigt, steigt die Leistung hier bei gleichen Settings um fast 30 Prozent und in Bad Company 2 um knapp 70 Prozent - allerdings treten spürbare Mikroruckler, was nicht jedem Anwender gefallen wird.
ich les da nur dass die Intel-CPUs fast alle schneller sind.
Aber wo der Last-Verbrauch der A-CPUs besonders hoch sein soll, nicht.
Warum da allerdings Crossfire rein muss ist mir ein Rätsel, imho totaler Schwachsinn
Da ist dann der TDP-Vorteil wieder dahin ...
/EDIT:
Ist dir vielleicht auchmal in den Sinn gekommen, dass ich mich nur auf die CPU-Werte bezogen habe? Und die wiederrum ein Beleg sind, warum die Stromaufnahme der CPU doch sehr hoch sein wird, um konkurrenzfähig sein zu können?
Diese Schlußfolgerung kann ich nicht nachvollziehen, so ohne jegliche Messwerte.
Zumal der Grafik-Anteil von Llano größer ist als der CPU-Anteil.
P.S.: Das Notebook mit 17" Display, 2 Festplatten usw hat nen 3Zellen Akku. LOL. Wie soll da ne gute Akkulaufzeit bei rauskommen.
LovesuckZ
2011-06-27, 23:32:44
Diese Schlußfolgerung kann ich nicht nachvollziehen, so ohne jegliche Messwerte.
Zumal der Grafik-Anteil von Llano größer ist als der CPU-Anteil.
Nein? Wirklich nicht? Du meinst also, der Last-Verbrauch wird nicht deutlich höher sein, weil man die CPU nur um 50% niedriger takten muss, um im 35 Watt Budget zu bleiben (ebenfalls auch die GPU!)?
Intel muss nur 20% runtergehen, um von 65 Watt auf 35 Watt zu kommen. Und wir reden hier davon, dass selbst das beste Llano Modell nur mit dem Schwächsten Modell von Intel konkurriert. Der i3 ist leicht langsamer als der G620T (okay und hat die HD3000 statt HD2000). Und diese CPU ist in Single-Thread Anwendungen deutlich schneller und im Multi-Thread Anwendungen irgendwo auf dem Niveau des A8 mit 1,6Ghz (bzw. Turbo). 35 Watt beide.
YfOrU
2011-06-27, 23:50:18
Hast du mal einen Link zu einem kaufbaren Notebook, welches das mit ner AMD-GPU bietet?
Zum Beispiel die aktuellen SandyBridge Modelle:
Dell Vostro
Apple MacBook Pro (OSX)
HP Envy 17, dv6, dv7
Lenovo Edge
Sony VAIO
Lenovo Edge:
http://shop.lenovo.com/SEUILibrary/controller/e/deweb/LenovoPortal/de_DE/catalog.workflow:item.detail?GroupID=240&Code=E520BETTER
- AMD Mobility Radeon HD 6630 Switchable
http://geizhals.at/deutschland/a634135.html
http://geizhals.at/deutschland/a634153.html
Review:
http://www.notebookcheck.com/Test-Lenovo-ThinkPad-Edge-E420s-Notebook.53213.0.html
Weitere Pluspunkte sammelt das E420s dank neuster Hardware. Die Mittelklasse-CPU Intel Core i5-2410M bietet zusammen mit der AMD Radeon HD 6630M ein stimmiges Paket, das nun auch durch eine automatische Grafikumschaltung für AMD-GPUs (Switchable Graphics) abgerundet wird.
Das macht praktisch jeder Hersteller bei den neuen SB Notebooks mit AMD GPU. Ausnahmen sind manche Modelle mit ~6470M bei denen komplett auf die Intel IGP verzichtet wird und klassische DTR Modelle.
Irgendwo (Notebookcheck/Journal) gab es letztens auch einen Test von einem recht portablen Notebook mit 6470 sowie deaktivierter Intel GPU. Anscheinend braucht die nur unwesentlich mehr Energie als ein Intel HD3000 und deshalb verzichten die Hersteller hier dann öfters auf die Umschaltfunktion.
Schnitzl
2011-06-28, 00:30:54
Nein? Wirklich nicht? Du meinst also, der Last-Verbrauch wird nicht deutlich höher sein, weil man die CPU nur um 50% niedriger takten muss, um im 35 Watt Budget zu bleiben (ebenfalls auch die GPU!)?
Intel muss nur 20% runtergehen, um von 65 Watt auf 35 Watt zu kommen. Und wir reden hier davon, dass selbst das beste Llano Modell nur mit dem Schwächsten Modell von Intel konkurriert. Der i3 ist leicht langsamer als der G620T (okay und hat die HD3000 statt HD2000). Und diese CPU ist in Single-Thread Anwendungen deutlich schneller und im Multi-Thread Anwendungen irgendwo auf dem Niveau des A8 mit 1,6Ghz (bzw. Turbo). 35 Watt beide.
klar hat man mit Intel ne schnellere CPU, und das bei 35W
nur... wenn man dann Battlefield (Beispiel!) zocken will wird zusätzlich ne discrete GPU benötigt, weil das Intel-HD-Gedöhns nicht dafür taugt. Also ist man wieder deutlich über 35W.
Rate mal, warum Intel beim Ivy Bridge hauptsächlich den GPU-Teil stärker macht...
disap.ed
2011-06-28, 11:07:05
Sind schon Mini-ITX Plattformen wie für den E-350 angekündigt?
http://geizhals.at/a607838.html
Könnte mir einen A6-3400M oder A8-3500M sehr gut als HTPC vorstellen.
Ronny145
2011-06-28, 11:39:51
http://www.computerbase.de/news/hardware/grafikkarten/ati/2011/juni/amd-leaked-llano-fuer-desktop-und-dual-graphics/
Die Desktop Taktfrequenzen haben sich endgültig bestätigt. NDA Fall offenbar am 30. Juni.
http://www.computerbase.de/news/hardware/grafikkarten/ati/2011/juni/amd-leaked-llano-fuer-desktop-und-dual-graphics/
Der halbierte Cache für die Dual-Cores ist aber neu, oder?
So einen klitzekleinen Turbo für das Topmodell, sodass sie dann dort 3,x GHz hinschreiben können, hätten sie doch nun wirklich einbauen können...
Ronny145
2011-06-28, 12:05:49
Der halbierte Cache für die Dual-Cores ist aber neu, oder?
Das war schon bekannt. Allerdings fällt mir noch der A6-3500M neu auf. Der hat 3 Kerne. A4-3300 ist auch neu.
mironicus
2011-06-28, 14:16:41
Ich bin auf den Idle-Verbrauch gespannt. Wenn man einen Rechner mit diskreter Grafikkarte wie der Radeon 5570 betreibt, steigt der Stromverbrauch beim Nichtstun schon um 9-10 Watt an gegenüber einer normalen Onboard-Grafik.
Wenn der Llano mit aktiver Grafik auf dem gleichen Niveau wie Sandy Bridge ist, wäre das schon ein guter Schritt.
Am besten wären 20-25 Watt idle mit SSD.
Sir Integral Wingate Hellsing
2011-06-28, 16:20:08
Quark. In meinem Bekanntenkreis spielen Leute Starcraft2 und GTA4 mit schlechteren CPUs.
Das geht erstaunlich gut, auf jeden Fall besser als manche hier glauben machen wollen.
SC2 ging mit hohen Einstellungen schon mit meinem Athlon 64 X2 2x2GHz @ 2x2.66GHz (CPU 2007 gekauft) + HD 5570 einwandfrei, stimme zu.
Llano ist doch ne klasse P/L-CPU bzw APU!
Weiß gar nicht, wie sich die meisten hier an einer angeblich schlechten Performance aufziehen - kommt mir so vor, als müssen manche, die bis zu 100% Mehrkosten für ne dickere CPU zahlen mussten/wollten (die dann aber meist "nur" 10-30% effektive Mehrleistung bringt), dies mit dem Schlechtmachen der günstigen CPU kompensieren.
Ganz frei nach dem Motto: Was billiger ist als meins kann nur Scheisse sein... :crazy2: :rolleyes:
Ja und der ist noch nicht mal besonders gut.
Ja, sehr teuer und die Performance hält sich im untersten Bereich auf. Jedoch ist Zalmann in den USA sehr weit verbreitet, immerhin schallt der name CNP 7000 CU noch ein wenig nach.
disap.ed
2011-06-29, 12:33:48
Sind schon Mini-ITX Plattformen wie für den E-350 angekündigt?
http://geizhals.at/a607838.html
Könnte mir einen A6-3400M oder A8-3500M sehr gut als HTPC vorstellen.
Habe diese Meldung zu 2 Asus-Modellen gefunden, diese sind aber gewöhnliche Mainboards (also CPU integriert). Ich würde aber etwas mit integrierten Mobile-Chips suchen (wie eben das E-350-Modell oben).
http://www.computerbase.de/news/hardware/mainboards/2011/juni/asus-mit-mini-itx-platinen-fuer-llano-und-cedar-trail/
Und mit WLAN und Bluetooth bereits integriert!
Ronny145
2011-06-30, 07:03:36
Tests sind auf den einschlägigen Seiten online. Bisher nur CB und Ht4u durchgesehen.
Während man also beim anisotropen Filter glänzen kann, gibt es an ganz anderer und unerwarteter Stelle massive Probleme: auf dem Windows-Desktop. Taktet die iGPU herunter, liegen also statt 600 MHz nur noch 282 MHz an, so kommt es zu teilweise massiven Bildfehlern in der Darstellung des Desktops. Diese äußern sich zumeist als weiße Querstriche, die stets vom rechten Bildschirmrand ausgehen, aber auch flimmernde Farbverläufe können beobachtet werden.
Es ist dabei äußert unwahrscheinlich, dass der Fehler an unserem Testmuster liegt, denn auch unsere Partnerseite PC Games Hardware konnte mit ihren Systemen den Fehler beobachten.
http://ht4u.net/reviews/2011/amd_llano_apu_desktop_a8/index15.php
Hier sollte AMD wohl nochmal nachbessern.
CB hat sich dann auch den Mikrorucklern angenommen und den ersten Eindruck bestätigt.
Bereits nach den ersten Sekunden Betrieb des A8-3850 gepaart mit einer Radeon HD 6670 wurde uns sofort klar, dass die Mikrorucklerproblematik auf Llano, gelinde gesagt, katastrophal ausfällt. Bei normalen CrossFire-Systemen können die Mikroruckler schon störend werden, doch das Verhalten von Llano liegt in einer Liga, die weit darüber spielt.
http://www.computerbase.de/artikel/grafikkarten/2011/test-llano-grafikleistung/14/#abschnitt_mikroruckler
Bei der Leistung sind mir keine großen Überraschungen aufgefallen. So liegt im CB Ranking die Grafik 81% vor Intels Topmodell und bei den CPU Werten unterhalb eines i3-2100. Recht positiv sind die Idle Verbrauchswerte würde ich mal sagen, hier wird es sicherlich hauptsächlich vom Mainboard abhängen, die Lastwerte sind leider nicht so berauschend. Ht4u hat bei CPU Last mit Linpack ~95 Watt vermessen. Die 100 W TDP ist vonnöten so wie es aussieht. Das wäre erstmal nicht so wild, nur in Anbetracht der Leistung gegenüber den 32nm Modellen von Intel keine gute Effizienz.
mironicus
2011-06-30, 07:19:34
Bei Ht4u konnte man durch Untervolting den Stromverbrauch um 40 Watt senken. Warum macht AMD nur so einen Scheiß...?
anddill
2011-06-30, 07:48:55
Heise hat jetzt einen kurzen Test online:
http://www.heise.de/ct/artikel/AMD-bringt-APU-Serie-A-fuer-Desktop-PCs-1270062.html
Nicht sehr umfangreich, aber es gibt ja auch über die Dinger nichts bahnbrechendes zu berichten. CPU-Speed etwa wie die schnellsten Athlon II X4, GPU doppelt so schnell wie Intels.
Ich glaub ich werd mir so ein Ding mal in den HTPC klatschen.
Zu den Microrucklern:
Ist doch klar. Wenn man sich mal in Erinnerung ruft wie die entstehen, ist klar, dass sie im GPU-Limit am stärksten ausfallen, aber im CPU-Limit nicht vorhanden sind. Und was haben wir hier? Zwei schwache GPUs im Crossfire.
Ich stelle fest: Liano hat immer noch zu viel CPU-Leistung :devil:
Undertaker
2011-06-30, 08:47:16
Die GPU, das bestätigt sich auch wieder in den heutigen Tests, ist wirklich gut dabei. Die CPU-Leistung liegt im Bereich der (niedrigen) Erwartungen, legt aber immerhin ein paar Prozent gegenüber dem Athlon II X4 zu.
Wirklich enttäuschen tut mich allerdings die Leistungsaufnahme: Wie hat man es geschafft, dass das Gesamtsystem bei CPU-Last mehr verbraucht als der ohnehin nicht sonderlich sparsame Vorgänger in 45nm? :confused: Auch die OC-Ergebnisse bestätigen, dass hier noch irgendetwas im Argen liegen muss. Fragt sich nur: Betrifft dies das aktuelle Stepping oder den Prozess?
mironicus
2011-06-30, 09:16:40
Wie hat man es geschafft, dass das Gesamtsystem bei CPU-Last mehr verbraucht als der ohnehin nicht sonderlich sparsame Vorgänger in 45nm?
Das kommt davon, wenn man zwei Hitzköpfe unter einem Dach vereint. :D
Die Performancevorteile durch schnelleres RAM sind auch nicht zu verachten, die zusätzlichen Kosten dagegen aber schon (teurer als Standard-RAM).
Die Untervoltergebnisse sind gut, aber ein untervolteter i7-2600k verbraucht noch weniger. Wirklich grausam für AMD!
Im Vergleich von Leistung/Energiebedarf zu den aktuellen Sandys weckt bei mir im Kopf gerade Assoziationen zu "Prescott". Falls AMD noch Produktpflege betreiben will bis die Bullifusionsapus kommen weren sie noch stark an der Verlustleistung arbeiten müssen.
Im Vergleich von Leistung/Energiebedarf zu den aktuellen Sandys weckt bei mir im Kopf gerade Assoziationen zu "Prescott". Falls AMD noch Produktpflege betreiben will bis die Bullifusionsapus kommen weren sie noch stark an der Verlustleistung arbeiten müssen.
Schau auf die vcore, mit 1,4V ist kein Staat zu machen.
Bei den BD Samples das gleiche Lied. Da ging anscheinend irgendwas in der Prozessplanung schief. BD benötigt vermutlich deswegen ein neues Stepping, damit mehr Takt bei gleicher Verlustleistung (und weniger vcore) drin ist. Bei den Desktop-Llano hat man es wohl zähneknirschend akzeptiert. Ist ja nicht so wichtig, da das eh nur ein Mittelklasseprozessor ist. Möglicherweise sind die Desktop CPUs mit 100W TDP auch nur Ausschuß, der von den Notebook APUs übrig blieb.
Kommt Zeit- kommt neues Stepping, oder vielleicht gleich Trinity.
Assoziation zu Prescott habe ich deshalb nicht, eher zu Phenom, Stichwort: Zu früh am Markt (Obwohl das Teil nach ursprünglicher Planung schon gut verspätet ist).
boxleitnerb
2011-06-30, 09:41:03
Schau auf die vcore, mit 1,4V ist kein Staat zu machen.
Bei den BD Samples das gleiche Lied. Da ging anscheinend irgendwas in der Prozessplanung schief. BD benötigt vermutlich deswegen ein neues Stepping, damit mehr Takt bei gleicher Verlustleistung (und weniger vcore) drin ist. Bei Llano hat man es wohl zähneknirschend akzeptiert. Ist ja nicht so wichtig, da das eh nur ein Mittelklasseprozessor ist. Möglicherweise sind die Desktop CPUs mit 100W TDP auch nur Ausschuß, der von den Notebook APUs übrig blieb.
Kommt Zeit- kommt neues Stepping, oder vielleicht gleich Trinity.
Assoziation zu Prescott habe ich deshalb nicht, eher zu Phenom, Stichwort: Zu früh am Markt, obwohl das Teil nach ursprünglicher Planung schon gut verspätet ist.
Äh, in Notebooks ist das sehr wichtig, da darunter die Laufzeit leidet. Und da soll Llano doch vor allem einschlagen.
Äh, in Notebooks ist das sehr wichtig, da darunter die Laufzeit leidet. Und da soll Llano doch vor allem einschlagen.
Richtig, meine Aussage bezog sich natürlich nur auf die Desktop Variante, die wurden ja jetzt auch erst getestet. Habs explizit aber erst im nächsten Satz erwähnt, ich werde es mal vorziehen :)
Danke fürs kritische Lesen :)
AnarchX
2011-06-30, 10:21:01
Da wäre man wohl selbst mit 100W CPU-only TDP nicht weit über die 3GHz gekommen. AMD hat sein >3GHz Ziel, was noch auf der Hot Chips propagiert wurde, verfehlt.
Schade, schade. So wie das aussieht werde ich mein jetziges Notebook (CoreDuo 2GHz und 945GMA) noch nicht ersetzen.
Ich hätte gerne wieder die gleiche CPU-Leistung und natürlich von der GPU profitiert, die um einiges besser sein sollte als meine 945GMA.
AnarchX
2011-06-30, 11:38:29
Ein A4-3310MX oder A4-3300M sollte das doch erreichen. Aber nahezu jeder heute verbaute IGP ist um einiges besser als der GMA 950. ;)
LovesuckZ
2011-06-30, 11:41:22
PCPER.com (http://www.pcper.com/reviews/Graphics-Cards/AMD-3850-Llano-Desktop-Processor-Review-Can-AMD-compete-Sandy-Bridge/CPU-and-) hat mal Verbrauchsmessungen mit iGPU und dGPU bei Intel und AMD durchgeführt. Und ein i3-2100 mit einer 6670 benötigt dabei genauso viel Strom wie ein A8-3850 ohne dGPU.
Ich frage mich, was AMD mit Llano eigentlich erreichen wollte? Der CPU Part ist viel zu schwach und muss deswegen nach oben geprügelt werden. Wodurch der Vorteil der iGPU komplett zu nichte gemacht wird. Ein 50%-100% höhrerer Stromverbrauch alleine durch die CPU ist nicht mehr tragbar. Vorallem, wenn die CPU dabei nichtmal schneller ist und im schlimmsten Fall sogar deutlich langsamer.
redfirediablo
2011-06-30, 11:43:51
Die Desktop Llanos werden sicherlich Abfallprodukt der Notebook Varianten sein. Insofern klatscht man halt 1.4V drauf und gut ist. AMD hat sich bei solchen Produkten noch nie die Mühe gemacht die Spannung dort hin zu legen, wo es gerade noch gehen würde.
Die Notebook Varianten scheinen durch sehr gutes Abschalten und die damit erreichten Laufzeiten hingegen durchaus mit Intel mithalten zu können.
Zudem wird der Llano Herstellungsprozess sehr stark auf low power getrimmt sein, was wiederum bedeutet, das er dann nicht gut mit Spannung skaliert und keine hohen Taktraten erreicht.
Insgesamt ist die Effizienz von 32nm HKMG aber trotzdem enttäuschend. Wiederum aber auch nicht groß überraschend, die Leute bei Globalfoundries sind wohl momentan extrem überlastet und hunderte offene Arbeitsstellen können nicht besetzt werden.
Ein A4-3310MX oder A4-3300M sollte das doch erreichen. Aber nahezu jeder heute verbaute IGP ist um einiges besser als der GMA 950. ;)
Das stimmt, aber ich war erschrocken, als ich die Leistungswerte der ersten in die CPU integrierten Intel gesehen habe. Das wären ähnliche Werte wie die meiner schönen 950er...
Aber die im Llano ist definitiv besser.
Die A4 haben ja auch einen höheren Grundtakt, aber eigentlich wollte ich direkt bei einem A6 oder gar A8 einsteigen. Bei denen stört mich leider der niedrige Grundtakt.
Schlammsau
2011-06-30, 12:01:54
Für mich persönlich hat Llano zwar zu wenig Power, aber ich bin mir sicher, dass er seinen Markt hat.
Macht in meinen Augen, bis auf den relativ hohen Lastverbrauch einen durchweg positiven Eindruck!
dildo4u
2011-06-30, 12:53:27
PCGH AMD Llano im Test: A8-3850 für die Lynx-Plattform
http://www.pcgameshardware.de/aid,831650/AMD-Llano-im-Test-A8-3850-fuer-die-Lynx-Plattform/CPU/Test/?page=2
AnarchX
2011-06-30, 13:14:36
Das stimmt, aber ich war erschrocken, als ich die Leistungswerte der ersten in die CPU integrierten Intel gesehen habe. Das wären ähnliche Werte wie die meiner schönen 950er...
Aber die im Llano ist definitiv besser.
Ich weiß ja nicht wo du geschaut hast, aber die HD Graphics von 2010 ist schon erheblich schneller als der GMA 950:
http://www.notebookcheck.com/Intel-Graphics-Media-Accelerator-950-GMA-950.851.0.html
http://www.notebookcheck.com/Intel-Graphics-Media-Accelerator-HD-Intel-HD-Graphics.23064.0.html
Faktor ~5 in 3DMark2005.
Von Features wie HD-Video/Flash-Beschleunigung ganz zu schweigen.
Llano ist da gegenüber nochmal ein erheblicher Sprung.
PCGH AMD Llano im Test: A8-3850 für die Lynx-Plattform
http://www.pcgameshardware.de/aid,831650/AMD-Llano-im-Test-A8-3850-fuer-die-Lynx-Plattform/CPU/Test/?page=2
Der A8-3850 kann wohl nur punkten wenn AMD ihn den OEMs zu Schleuderpreisen überlässt. Der Retail-Käufer fährt da wohl erheblich besser selbst mit einem AM3+ System mit Athlon X4, wo die Option auf eine Bulldozer-CPU und eine stärke GPU besteht.
MadManniMan
2011-06-30, 14:37:19
Die Mikrorucklergeschichte wird umso übler, als dass in den Notebooks (siehe Mobile-Llano-Test bei der CB) wohl explizit mit CF geworben werden wird.
Und die Benchsklaven bei CB haben das Geruckel dereinst ja nichtmal mitbekommen X-D
LovesuckZ
2011-06-30, 14:57:40
Xbitlabs.com über die heutige Software mit GPGPU-Unterstützung:
So, we managed to find multiple applications that really take full advantage of the APU, but it doesn’t produce the anticipated effect. We don’t see any significant performance increase, and Intel CPUs from the Core i3 family that work with similar tasks using only their x86 cores in most cases are way ahead of AMD Llano.
Nevertheless, we can’t deny that Llano has huge potential. Synthetic tests showed clearly that Radeon HD 6550D graphics core had tremendous computational power. So, let’s hope that the programs that will truly benefit from Fusion concept are yet to come in the nearest future. And as of today, the only real task where Llano will undoubtedly be faster than Core i3 thanks to the stream processors of its graphics core is hashed password cracking.
http://www.xbitlabs.com/articles/cpu/display/amd-a8-3800_20.html#sect0
Ronny145
2011-06-30, 15:32:35
Hexus hat auch die Speicherperformance untersucht. Rund 8% Verlust von DDR3-1866 auf DDR3-1600. Für volle Leistung sollte es schon 1866er Speicher sein.
http://www.hexus.net/content/item.php?item=30964&page=10
Ich weiß ja nicht wo du geschaut hast, aber die HD Graphics von 2010 ist schon erheblich schneller als der GMA 950:
http://www.notebookcheck.com/Intel-Graphics-Media-Accelerator-950-GMA-950.851.0.html
http://www.notebookcheck.com/Intel-Graphics-Media-Accelerator-HD-Intel-HD-Graphics.23064.0.html
Faktor ~5 in 3DMark2005.
Von Features wie HD-Video/Flash-Beschleunigung ganz zu schweigen.
Llano ist da gegenüber nochmal ein erheblicher Sprung.
Da habe ich dann wohl irgendwas verwechselt...
Schaffe89
2011-06-30, 17:18:57
Der CPU Part ist viel zu schwach und muss deswegen nach oben geprügelt werden. Wodurch der Vorteil der iGPU komplett zu nichte gemacht wird.
Inwiefern soll der komplett zunichte gemacht werden? Verstehe wer will.
Im Desktop kommts nicht auf Performance/Watt an, wichtiger ist Idle und nicht volle CPU Last mittels Core-Damage.
Mal sehen obs die 65Watt Modelle später besser hinbekommen.
boxleitnerb
2011-06-30, 17:28:08
Perf/W ist nicht wichtig? So pauschal gesagt ist das eine seeeeehr gefährliche Aussage, bei der ich ernsthaft überlege, die in meine Sig aufzunehmen :D
Dann war Perf/W ja auch beim Prescott nicht wichtig oder wie? Das ist jetzt "leicht" unglaubwürdig, was du da von dir gibst.
Llano CPU-Performance nicht so toll -> unwichtig
Llano Verbrauch nicht so toll -> unwichtig
HD5000 Tess nicht so toll -> unwichtig
Siehst du da ein Muster? Klar muss man nicht Salz in die Wunden des favorisierten Produkts streuen und kann relativieren, aber diese selektive Schönrednerei ist doch ziemlich bedenklich imo.
dildo4u
2011-06-30, 17:32:37
Performance per Watt war und ist ein Haupt Pro Argument für die SOC Bauweise,wer was anders behauptet erzählt einfach Murks.
Ronny145
2011-06-30, 17:37:37
http://www.hardware.fr/articles/837-3/architecture-gpu-memoire-partagee.html
Auch gelungener Vergleich mit verschiedenen RAM Frequenzen in HD Auflösung der Franzosen. Die Steigerung auf DDR3-1866 fällt sehr ähnlich aus.
Blediator16
2011-06-30, 17:50:34
Gab es schon einen Versuch von anderen Herstellern soetwas zu entwickeln? Also ein relatives Gleichgewicht zwischen GPU und CPU zu bekommen?
LovesuckZ
2011-06-30, 17:55:47
Inwiefern soll der komplett zunichte gemacht werden? Verstehe wer will.
Im Desktop kommts nicht auf Performance/Watt an, wichtiger ist Idle und nicht volle CPU Last mittels Core-Damage.
Mal sehen obs die 65Watt Modelle später besser hinbekommen.
Llano benötigt gegenüber den 2-Kern Sandy Bridge Prozessoren Arbeit auf jedem Kern unter voller Last. Nur so ist der Prozessor in der Lage sich überhaupt absetzen zu können. pcper.com (http://www.pcper.com/reviews/Graphics-Cards/AMD-3850-Llano-Desktop-Processor-Review-Can-AMD-compete-Sandy-Bridge/Render-T) zeigt dies sehr schön. Und in diesem Fall zieht er dann auch deutlich mehr Strom.
Je weniger Arbeit verrichtet werden muss, umso größer wird der Vorsprung der SB Prozessoren.
Gab es schon einen Versuch von anderen Herstellern soetwas zu entwickeln? Also ein relatives Gleichgewicht zwischen GPU und CPU zu bekommen?
Wie wäre es mit ARM-SoCs?
Hugo78
2011-06-30, 18:15:42
Gab es schon einen Versuch von anderen Herstellern soetwas zu entwickeln? Also ein relatives Gleichgewicht zwischen GPU und CPU zu bekommen?
Wie LS schon sagt ARM SoCs oder auch das aktuelle Innenleben der XBox360 von IBM.
Ist bald ein Jahr alt die News hier:
http://www.computerbase.de/news/hardware/prozessoren/2010/august/xbox-soc-von-ibm-duepiert-intel-und-amd/
fondness
2011-06-30, 18:48:53
Hexus hat auch die Speicherperformance untersucht. Rund 8% Verlust von DDR3-1866 auf DDR3-1600. Für volle Leistung sollte es schon 1866er Speicher sein.
http://www.hexus.net/content/item.php?item=30964&page=10
Für "volle" Leistung bräuchte man wohl noch deutlich mehr Bandbreite. Aber wenn man bei Llano auch die GPU ernsthaft nutzen will würde ich auf jeden Fall den Speichertakt so hoch wählen wie nur irgend wie möglich. CB hat eine beinahe lineare Skalierung der Leistung mit dem Speichertakt gemessen, das sagt schon alles.
boxleitnerb
2011-06-30, 18:53:15
Treibt den Preis der APU schön in die Höhe. Da sehe ich ein ziemliches Problem darin. Was sagt AMD dazu eigentlich?
fondness
2011-06-30, 18:58:47
Treibt den Preis der APU schön in die Höhe. Da sehe ich ein ziemliches Problem darin. Was sagt AMD dazu eigentlich?
Wo ist da ein Problem? Auch mit DDR3-1333 ist die GPU mit Abstand die beste iGPU die man bekommen kann, alles andere ist Bonus. Die OEM werden mit hoher Wahrscheinlichkeit darauf ohnehin wenig wert legen.
PCPER.com (http://www.pcper.com/reviews/Graphics-Cards/AMD-3850-Llano-Desktop-Processor-Review-Can-AMD-compete-Sandy-Bridge/CPU-and-) hat mal Verbrauchsmessungen mit iGPU und dGPU bei Intel und AMD durchgeführt. Und ein i3-2100 mit einer 6670 benötigt dabei genauso viel Strom wie ein A8-3850 ohne dGPU.
Dafür erreichst du mit keinem anderen System eine so niedrige idle-Leistungsaufnahme, schon gar nicht wenn du eine zu Llano vergleichbare GPU-Leistung willst. Und wenn man sich ansieht wie das typische Gebrauchsmuster aussieht, wiegt das wohl wesentlich schwerer als die paar mehr Watt unter maximaler Auslastung, welches vielleicht zu 1% der Zeit zutrifft.
Tiamat
2011-06-30, 19:19:11
Joa die 100W sind aber mit GPU!.
Ein i3 2100 mit dezidierter HD 5770 (laut AMD 18W idle) käme damit schon mal auf 52W idle und auf 152W unter Vollast, was schon mal knapp 50W mehr ist als LLano!
Und vom Grafikchip des Llanos hört man lautstärketechnisch 0!
Und die HD5770 muss auch erstmal seperat gekauft werden, wo Llano dann auch kostengünstiger ist.
Also ich würd das net nur von den Benchmarks abhängig machen, weil so schlecht ist das gebotene schon mal gar net.
Undertaker
2011-06-30, 19:23:00
Eine HD5770 ist auch etwas überzogen, eine HD5550-5570 trifft es eher. ;) Load liegt man damit vmtl. noch unter Llano, idle allerdings nicht - zumindest so lange, bis es endlich auch im Desktop praktikable Lösungen a'la Optimus gibt.
Ronny145
2011-06-30, 19:24:22
Joa die 100W sind aber mit GPU!.
Ein i3 2100 mit dezidierter HD 5770 (laut AMD 18W idle) käme damit schon mal auf 52W idle und auf 152W unter Vollast, was schon mal knapp 50W mehr ist als LLano!
Und vom Grafikchip des Llanos hört man lautstärketechnisch 0!
Und die HD5770 muss auch erstmal seperat gekauft werden, wo Llano dann auch kostengünstiger ist.
Also ich würd das net nur von den Benchmarks abhängig machen, weil so schlecht ist das gebotene schon mal gar net.
Llanos GPU verbraucht kaum was im Idle, ähnlich sparsam wie Sandy Bridge. Die Rede ist vom Verbrauch unter reiner CPU Last, wo die IGP keine Rolle spielt.
YfOrU
2011-06-30, 19:42:26
Eben und wenn man sich das so ansieht, Last regulär: 1,40 Volt Undervoltet: 1,16 Volt
http://ht4u.net/reviews/2011/amd_llano_apu_desktop_a8/index31.php
Ist das Problem auch nicht das eigentliche Design oder Power Management der APU sondern schlichtweg die extrem hohe Spannung der Desktop Llanos unter Last. Das sieht momentan etwas nach Resteverwertung aus und der Fertigungsprozess scheint nicht so rund zu laufen wie er sollte. Da die Laufzeit und Leistungsaufnahme der Llano Preview Notebooks recht ordentlich war (bei moderaten Frequenzen) scheint für die Taktskalierung bei brauchbarer Ausbeute überproportional viel Spannung nötig zu sein.
Da es bei der getesteten APU möglich war die Spannung deutlich zu reduzieren und man mit diesem 32nm Prozess eine Weile auskommen muss sollte das durchaus in den Griff zu bekommen sein.
Dazu kommt das der Chipsatz eine recht hohe Leistungsaufnahme hat. Im direkten Vergleich sollte das aber nicht so ins Gewicht fallen da dessen Integrationsdichte höher ist (6*SATA3 + 4*USB3.0) und damit im Regelfall auf einen externen Controller verzichtet werden kann.
Die werden wohl rein für die Notebookmodelle stark selektieren und anfangs zumindest, alles was nicht passt ins Desktopgeschäft gehen lassen.
Aber 0,24V bzw. 40W sind schon eine Hausnummer für sich...
YfOrU
2011-06-30, 20:01:35
Das kann noch hinzu kommen. Die doch recht niedrigen Frequenzen der Notebook APUs sagen aber schon recht eindeutig das die Skalierung Frequenz - Spannung alles andere als wie gewünscht funktioniert. Hierbei gibt es hauptsächlich 35 und 45W Limits und über die kann man als CPU Hersteller nicht drüber wenn man in den Notebook Designs der großen Hersteller Platz finden will.
Ich persönlich hätte gerne die mobilen Lllanos um die 2GHz gesehen und nicht z.B. bei 1,4GHz oder 1,5GHz.
Man kann nur hoffen, dass sich das noch gibt, sei es mit einem neuen Stepping oder einer besseren Fertigung.
Denn Lllano ist keinesfalls schlecht und ich überlege mir wirklich ein Notebook mit Llano zu kaufen, aber ich würde dieses dann wieder gerne 5 Jahre lang nutzen können und das seh ich mit 1,5GHz nicht.
sklave_gottes
2011-07-01, 02:27:43
Ich finde die CPU leistung von liano ist sogar besser als erwartet. Wenn man auch noch beachtet das die L2-Cache Latenz unverständlicher weise(???) auf 21 Zyklen erhöt wurde.
Hier eine sehr schöne übersicht:
http://ht4u.net/reviews/2011/amd_llano_apu_desktop_a8/index10.php (ganz unten)
Mit einer L2-Cache Latenz von Deneb(10) wäre sicher Deneb+ leistung pro mhz drin gewesen.
mfg martin
LovesuckZ
2011-07-01, 12:10:38
Dafür erreichst du mit keinem anderen System eine so niedrige idle-Leistungsaufnahme, schon gar nicht wenn du eine zu Llano vergleichbare GPU-Leistung willst. Und wenn man sich ansieht wie das typische Gebrauchsmuster aussieht, wiegt das wohl wesentlich schwerer als die paar mehr Watt unter maximaler Auslastung, welches vielleicht zu 1% der Zeit zutrifft.
Mein Asus Transformer mit Dock benötigt beim IDLEN weniger als 2 Watt mit aktivierten Wifi und Display.
Der Idle-Verbrauch ist der uninteressanteste Wert. Denn ein System idlet nicht den ganzen Tag. Selbst geringste Last auf den Kernen, kann den Verbrauch in die höhe Treiben.
Und was ein "typisches Gebrauchstmuster" sein sollte, kannst du mal erklären. Aber ich hoffe, es beinhaltet Arbeiten, die mehr als 2 Kerne benötigen. Denn, wenn dies nicht so wäre, ist Llano ineffizient^10. Und da bringt einem die Ersparnis von maximal 10 Watt beim Nichtstun überhaupt nichts, wenn diese durch Last wieder aufgefressen wird.
Nun ja, das Schreiben eines Texts ist fast mit "Idle" gleichzusetzen, denn nur beim Scrollen und Speichern entsteht sowas wie Last für die Hardware. Auch Forenspamming provoziert nur wenig Last. Insofern ist der "Idle"-Wert für Leute interessant, die nicht auf Bewegtmaterial zugreifen, sondern primär Zeichen absondern.
MfG,
Raff (powered by Desktop @ Steckdose)
LovesuckZ
2011-07-01, 12:25:31
Nun ja, das Schreiben eines Texts ist fast mit "Idle" gleichzusetzen, denn nur beim Scrollen und Speichern entsteht sowas wie Last für die Hardware. Auch Forenspamming provoziert nur wenig Last. Insofern ist der "Idle"-Wert für Leute interessant, die nicht auf Bewegtmaterial zugreifen, sondern prmiär Zeichen absondern.
MfG,
Raff (powered by Desktop @ Steckdose)
Forumspamming produziert viel Last. Immerhin musst du die Seiten jeweils neuladen. Dadurch entsteht Last auf den Kernen.
Textschreiben stimmt. Aber wie oft wirst du ein Text schreiben ohne davor/danach irgendwas anderes tasklästiges zu machen? Ein Spiel spielen, eine Video/Musik-Datei encodieren?
Dazu kommt, dass selbst 10 Watt Unterschied bei 24h/365 Tage nur in 22€ äußern. Wer den Luxus besitzt ein System ohne jegliche Last ein jahr laufen lassen zu können, dem juckt auch nicht der Aufpreis von 22€. Wobei man sich dann auch fragen darf, wieso man überhaupt zu solche Komponenten gegriffen hat...
YfOrU
2011-07-01, 15:10:53
Mein Asus Transformer mit Dock benötigt beim IDLEN weniger als 2 Watt mit aktivierten Wifi und Display.
Dann zeig mir mal das MS Outlook auf deinem Transformer oder den Teamviewer in brauchbar. Wenn du die Arbeit an ner DB abgeschlossen hast darfst auch den mySQL Server, Apache und Phase5 wieder beenden und noch ne Runde Dirt 2 spielen. Ach verdammt geht ja alles gar nicht. Falls es dir nicht aufgefallen ist, abseits von Dirt 2 braucht das alles zu 99% der Laufzeit keine CPU Leistung ;)
Der Idle-Verbrauch ist der uninteressanteste Wert. Denn ein System idlet nicht den ganzen Tag. Selbst geringste Last auf den Kernen, kann den Verbrauch in die höhe Treiben.
Doch das tut es denn IDLE ist aus meiner Sicht alles was sich auf der niedrigsten Taktstufe bewegt. Die kurzen Peaks beim laden von Content sind vergleichsweise lächerlich.
Und was ein "typisches Gebrauchstmuster" sein sollte, kannst du mal erklären. Aber ich hoffe, es beinhaltet Arbeiten, die mehr als 2 Kerne benötigen. Denn, wenn dies nicht so wäre, ist Llano ineffizient^10. Und da bringt einem die Ersparnis von maximal 10 Watt beim Nichtstun überhaupt nichts, wenn diese durch Last wieder aufgefressen wird.
Powergating. Was nicht genutzt wird ist nicht aktiv. Was ist da ineffizient ? Die von dir dargestellte Volllast auf allen Kernen ist in der Praxis heute ein Ausnahmefall. Wenn dem so wäre würden die i7 Notebooks reihenweise zu den Hersteller zurückwandern.
LovesuckZ
2011-07-01, 15:28:35
Dann zeig mir mal das MS Outlook auf deinem Transformer oder den Teamviewer in brauchbar ;)
Meine E-Mails checke ich per Tablet oder Smartphone. Teamviewer auf einem Desktop lässt dem Desktop nicht im IDLE-Modus.
Doch das tut es denn IDLE ist aus meiner Sicht alles was sich auf der niedrigsten Taktstufe bewegt. Die kurzen Peaks beim laden von Content sind vergleichsweise lächerlich.
"Vergleichweise lächerlich"? Wer im Internet surft, ruft reihenweise Seiten auf. Die Peaks summieren sich. Dazu kommt Flash und Scrollen auf Internetseiten. Diese Peaks sind ein Grund, warum ein Rechner beim Internetsurfen deutlich kürzer hält als wenn man nur irgendwas liest mit Wifi.
Powergating. Was nicht genutzt wird ist nicht aktiv. Was ist da ineffizient ?
Wer für gleiche Leistung und Ergebnis 50% länger benötigt bei gleichem Verbrauch oder bei ähnlicher Leistung 50% mehr verbraucht, hat die Arbeit ineffizient erledigt. Llano hat gegenüber Sandy Bridge in Task mit weniger als 4 Threads bzw. Load auf 4 Kernen keine Chance. Da sind die 10 Watt bei einem idlenen System vollkommen belanglos.
schmacko
2011-07-02, 14:35:52
Teamviewer auf einem Desktop lässt dem Desktop nicht im IDLE-Modus.
naja, aber sehr viel über idle auch nicht:
spaßeshalber habe ich ubuntu in der vm laufen lassen, dort teamviewer gestartet, dann unter win7 teamviewer gestartet und dort über tv im writer geschrieben.
dennoch hat sich win7 nicht erbarmt, über 800mhz zu takten. weil aber insgesamt ca. 15% last anliegen, würdest du wohl nicht von idle sprechen... dennoch wäre das für mich praktisch idlen, weil ja die niedrigste spannung am kern anliegt und die niedrigste frequenz läuft. (pII-x6-1090t)
dass ein 2600k unter last viel schneller läuft ist ja geschenkt - ebenso dass er dort sehr energieeffizient arbeitet. dennoch wären doch tests interessant, die das offenbar jetzt endlich effiziente clockgating etc. des llano im "normalen" alltag beleuchten. (btw. nutzt keiner meiner bekannten oder verwandten seinen rechner fürs transkodieren oder "hardcoregaming" - das sind szenarien, die entlegen sind... - und genau das scheint mir zum problem zu werden, dass nämlich kaum jemand die schnellen prozessoren braucht. "normal" ist surfen und schreiben, vielleicht etwas downloaden und ein virenscanner im hintergrund, ganz vielleicht noch ein im, das wars dann schon. ein bisschen fotos anschauen und zweimal in der woche etwas ausdrucken...) - es ist ja kein witz, wenn ich sage, dass das hp625 für meine tochter schon fast überkandidelt ist....
LovesuckZ
2011-07-02, 14:53:26
naja, aber sehr viel über idle auch nicht:
spaßeshalber habe ich ubuntu in der vm laufen lassen, dort teamviewer gestartet, dann unter win7 teamviewer gestartet und dort über tv im writer geschrieben.
dennoch hat sich win7 nicht erbarmt, über 800mhz zu takten. weil aber insgesamt ca. 15% last anliegen, würdest du wohl nicht von idle sprechen... dennoch wäre das für mich praktisch idlen, weil ja die niedrigste spannung am kern anliegt und die niedrigste frequenz läuft. (pII-x6-1090t)
Das ganze ist auch ein bisschen abhängig von der Software und der Arbeiten. Splashtop brauch einiges an Leistung, dafür kann man auch fast alles in Echtzeit streamen. Und es ist schon klasse, wenn ich über Splashtop mit meinem Tablet Fernsehen schauen kann. Es bleibt aber weiterhin ein Problem, dass Llano deutlich ineffizienter als SB ist. Die schlechtere Singlethreadleistung bedeutet, dass man bei gleichem Verbrauch länger arbeiten oder höher takten muss, um die Aufgabe in der selben Zeit erledigen zu können. Dieses Problem bleibt bestehe.
dass ein 2600k unter last viel schneller läuft ist ja geschenkt - ebenso dass er dort sehr energieeffizient arbeitet. dennoch wären doch tests interessant, die das offenbar jetzt endlich effiziente clockgating etc. des llano im "normalen" alltag beleuchten. (btw. nutzt keiner meiner bekannten oder verwandten seinen rechner fürs transkodieren oder "hardcoregaming" - das sind szenarien, die entlegen sind... - und genau das scheint mir zum problem zu werden, dass nämlich kaum jemand die schnellen prozessoren braucht. "normal" ist surfen und schreiben, vielleicht etwas downloaden und ein virenscanner im hintergrund, ganz vielleicht noch ein im, das wars dann schon. ein bisschen fotos anschauen und zweimal in der woche etwas ausdrucken...) - es ist ja kein witz, wenn ich sage, dass das hp625 für meine tochter schon fast überkandidelt ist....
Dafür gibt es in Zukunft ARM. Mein 1,5Ghz DualCore-ARM Prozessor reicht für Internet, Youtube, Fotos, Texte schreiben etc. vollkommen aus und verbraucht dabei vielleicht als kompletter SoC 1,5 Watt.
Das ganze ist auch ein bisschen abhängig von der Software und der Arbeiten. Splashtop brauch einiges an Leistung
Es war aber eindeutig von Teamviewer die Rede.
Dafür gibt es in Zukunft ARM
Ja, in Zukunft. Und heute?
Du biegst mal wieder alles so zurecht wie's passt :freak:
LovesuckZ
2011-07-02, 15:31:53
Es war aber eindeutig von Teamviewer die Rede.
Ja - Teamviewer. Ich habe keine Ahnung, was man mit Teamviewer alles machen kann. Und ich gehe davon aus, dass hier die Server-Variante gemeint ist. Das der Client nicht soviel Leistung benötigen wird, sollte in anbetracht der Tatsache, dass solche Software auch auf deutlich langsameren Prozessoren läuft, verständlich sein. :rolleyes:
Ja, in Zukunft. Und heute?
Du biegst mal wieder alles so zurecht wie's passt :freak:
Mein Transformer läuft schon heute mit 1,5Ghz. SoCs mit mehr als 1Ghz kommen langsam in den Markt (Samsung, Qualcomm und TI haben sie heute schon in Produkten).
Ich biege mir nichts zu recht, sondern sage klar, was passiert, wenn man von "genug Leistung" redet.
Schaffe89
2011-07-02, 15:50:56
Der Idle-Verbrauch ist der uninteressanteste Wert. Denn ein System idlet nicht den ganzen Tag. Selbst geringste Last auf den Kernen, kann den Verbrauch in die höhe Treiben.
Idle ist der Wert der am nächsten der Arbeit nachgehst, die du gut pflegst.
"Forenspamming".
Das kommt am nähestem dem Idle Wert nahe, deswegen ist der gerade so interessant.
Das was du schreibst ist absolut falsch du schaffst es ja nichtmal es so zurechtzubiegen, dass er für dich stimmig ist, weil es nicht ansatzweise nachvolziehbar ist.
Änder doch das mal bitte, das versaut jeden Thread.
Llano hat gegenüber Sandy Bridge in Task mit weniger als 4 Threads bzw. Load auf 4 Kernen keine Chance.
Ein hanbüchenerer Vergleich ist dir nicht eingefallen? Wo ist der Zusammenhang zum Idle. Und wo soll Sandy Bridge beim Internetsurfen die arbeit 50% schneller verrichten? :D
"Vergleichweise lächerlich"? Wer im Internet surft, ruft reihenweise Seiten auf. Die Peaks summieren sich. Dazu kommt Flash und Scrollen auf Internetseiten. Diese Peaks sind ein Grund, warum ein Rechner beim Internetsurfen deutlich kürzer hält als wenn man nur irgendwas liest mit Wifi.
Dur rufst also jede Sekunde eine neue Seite auf? Dass sich die Peaks summieren ist völlig unerheblich für den Verbrauch im Schnitt gesehen.
@ Vollast ist der Llano CPU Teil aufgrund der hohen Spannung kaum effizienter als sein AthlonII Vorgänger, soweit hast du recht.
Ich möchte ja mal irgendeinen Beleg sehen (Tests) der zeigt, dass Idle wirklich der uninteressanteste Wert sein soll.
Wenn ich einfach nur Desktop offen habe und keine Seiten Aufrufe braucht mein System mit Bildschirm 119Watt im Idle.
Wenn ich schreibe annähernd dasselbe und wenn ich Seiten aufrufemache geht der Verbrauch enorm kurz auf ca 130-140Watt Watt nach oben, wo der TFT auch reinspielt.
Dein Hinbiegen der Dinge auf engstinrige Sicht der Dinge ist unnötig, solange es ruhig zugeht auch unterhaltsam.
Schaffe89
2011-07-02, 16:00:49
Perf/W ist nicht wichtig? So pauschal gesagt ist das eine seeeeehr gefährliche Aussage, bei der ich ernsthaft überlege, die in meine Sig aufzunehmen
Ich hab geschrieben *kommt es nicht an*, weil AMD dieguten Chips wohl für den Mobil Bereich nimmt, wo es richtig wichtig wird, wegen Akkulasufzeit... etc.., also nicht falsch verstehen.
Schicherlich ist Performance/Watt ein wichtiger Aspekt, der bei Llano derzeit unter CPU Vollast weniger toll aussieht. Was beim Desktop aber nicht sonderlich interessant ist, zumindest für die OEM´s, solange der Preis der Combo stimmt. Hier hätte ich es klarer ausdrücken sollen.
Llano CPU-Performance nicht so toll -> unwichtig
Llano Verbrauch nicht so toll -> unwichtig
Spoiler
HD5000 Tess nicht so toll -> unwichtig
Siehst du da ein Muster? Klar muss man nicht Salz in die Wunden des favorisierten Produkts streuen und kann relativieren, aber diese selektive Schönrednerei ist doch ziemlich bedenklich imo.
Ich habe nie gesagt, dass die fehlende CPU Performance per se unwichtig ist. Wenn ja, dann bitte verlink das mal.
Genau das gleiche mit der Tesselation. wenn überhaupt habe ich behauptet, dass Tess bis jetzt weniger wichtig ist, für den Spielemarkt, weil nichts da ist, was die Tess Leistung einer GTX 580 nutzt.
ich sehe da keine selektive Schönrederei, es wurde ja nur auf die Leute eingegangen, die Scheuklappen aufhaben und keine Verwendung für Llano sehen, wenn du den Thread meinst.
boxleitnerb
2011-07-02, 16:09:23
Das war allgemein in Richtung einer gewissen Fraktion gesagt. Da fällt eben ein bezeichnendes Muster auf.
Schaffe89
2011-07-02, 16:11:16
Das Muster kann man genau auch auf der "Gegenseite" erkennen.
Es gibt eben verschiedene Ansichten. Solange sie nicht zu extrem sind, kann man damit leben.
LovesuckZ
2011-07-02, 16:12:23
Idle ist der Wert der am nächsten der Arbeit nachgehst, die du gut pflegst.
"Forenspamming".
Das kommt am nähestem dem Idle Wert nahe, deswegen ist der gerade so interessant.
Das was du schreibst ist absolut falsch du schaffst es ja nichtmal es so zurechtzubiegen, dass er für dich stimmig ist, weil es nicht ansatzweise nachvolziehbar ist.
Änder doch das mal bitte, das versaut jeden Thread.
Ich habe erklärt, warum "Forenspamming" lastintensiv ist. Es liegt jetzt an dir und co, dass Gegenteil zu zeigen.
Ich möchte ja mal irgendeinen Beleg sehen (Tests) der zeigt, dass Idle wirklich der uninteressanteste Wert sein soll.
Mein HTPC wird nach 10 Minuten in Standby geschickt, wenn keine Arbeit anfällt. Wer heute 40 Watt verschenken kann, dem stören auch keine zusätzlichen 10 Watt. Wenn man irgendwas den ganzen Tag laufen lassen sollte, dann sein Smartphone, Tablet, Netbook oder Notebook. Die verbrauchen alle <10 Watt beim IDLEN.
Wenn ich einfach nur Desktop offen habe und keine Seiten Aufrufe braucht mein System mit Bildschirm 119Watt im Idle.
Wenn ich schreibe annähernd dasselbe und wenn ich Seiten aufrufemache geht der Verbrauch enorm kurz auf ca 130-140Watt Watt nach oben, wo der TFT auch reinspielt.
11-21 Watt nur durch den Seitenaufruf. Dazu kommt dann wiederum Scrolling, Flash, HTML5 etc. Deswegen hält ein Notebook mit Akkubetrieb beim Surfen auch nicht annährend so lange wie beim Lesen bzw. Schreiben von Texten.
Ich kann das hier sehr schön mit meinem Asus Transformer nachstellen. Und bei einem Office-System mit 40 Watt Idle, ist der Anstieg relativ deutlich höher als bei 119 Watt. Immerhin reden wir hier von CPUs mit 65/100 Watt unter Last, die auf minimalen IDLE-Verbrauch gedrückt werden. Sobald Last anliegt, geht der Verbrauch auch deutlich höher.
/edit: HT4U.de (http://ht4u.net/reviews/2011/amd_llano_apu_desktop_a8/index29.php) hat es sehr schön dargestellt: Ein 16x Anstieg von Idle -> Last. Deswegen sagt der Idle-Verbrauch auch nichts aus, da hier alles auf ein Minimum heruntergefahren wird. Wesentlich sinnvoller wäre Angaben von Tätigkeiten - also Lesen und Schreiben von Texten, Internetsurfen, Seiten mit Flash etc.
Schaffe89
2011-07-02, 16:39:12
Ein 16x Anstieg von Idle -> Last. Deswegen sagt der Idle-Verbrauch auch nichts aus, da hier alles auf ein Minimum heruntergefahren wird.
Ich fragte nach einem Test, der die von dir oben mit Llano angeblich(Laut deinen Aussagen) ineffizienten Teillastzustände, wenn nicht alle Kerne aktiv sind etc.. blabla. beim Schreiben/etc.. zeigt. Das war nämlich der Ausgangspunkt der Diskussion. Das ist dir schon klar? Auchn klar dürfte sein, dass in dem gesamten Test kein relevantes Szenario gemessen wird, oder übersehe ich etwas? Der Blue Ray Verbrauch ist gut.
11-21 Watt nur durch den Seitenaufruf.
Ja aber nur Kurz.
Apropos Scrollen. Grade gemessen: 120 Watt bei Seitenaufruf. Beim durchgängigen Scrollen ganze 124- 130 Watt, also verschwindend gering, da der Bildschirm auch belastet wird. Zudem ein völlig anderes System, als Llano, ohne Powergating, zusätzliche Strmspamechanismen, weiß der Teufel.
Klarheit bringt nur ein Sondertest.
LovesuckZ
2011-07-02, 17:00:31
Ich fragte nach einem Test, der die von dir oben mit Llano angeblich(Laut deinen Aussagen) ineffizienten Teillastzustände, wenn nicht alle Kerne aktiv sind etc.. blabla. beim Schreiben/etc.. zeigt. Das war nämlich der Ausgangspunkt der Diskussion. Das ist dir schon klar? Auchn klar dürfte sein, dass in dem gesamten Test kein relevantes Szenario gemessen wird, oder übersehe ich etwas? Der Blue Ray Verbrauch ist gut.
Es gibt genug Lastangaben im Internet, die zeigen, dass Llano ineffizienter ist - bei allem! Bei Last auf <=2 Kernen wird man wohl nicht mehr verbrauchen als SB, aber dafür deutlich länger benötigen.
Mal ein Beispiel anhand des Lame Converters (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/44338-amd-a8-3850-apu-review-llano-hits-desktop-15.html).
i3: 0,53*80 Watt (50 Watt Idle + 30 Watt Last) + 0,47*50 Watt Idle = 65,9 Watt/h
Ll: 0,75*70 Watt (40 Watt Idle + 30 Watt Last) + 0,25*40 Watt Idle = 62,5 Watt/h
Von den maximal möglichen 10 Watt bleiben hier nur noch 3,4 Watt übrig.
Deswegen ist der Idle-Verbrauch auch keine wirklich relevante Zahl für ein Desktop-System.
w0mbat
2011-07-02, 17:03:58
bestes llano review bis jetzt: http://www.gamestar.de/hardware/prozessoren/amd-a8-3850-fusion-apu/test/amd_a8_3850_fusion_apu,344,2323926.html
:ugly:
Gipsel
2011-07-02, 17:45:11
Erstbestes Llano-Review (http://www.anandtech.com/show/4444/amd-llano-notebook-review-a-series-fusion-apu-a8-3500m/7) gegriffen:
Idle, WiFi off, Display auf 70% Helligkeit, Laufzeit in Min/Wh:
http://images.anandtech.com/graphs/graph4444/38795.png
7,91 Minuten/Wh => 7,6W Verbrauch des ganzen Notebooks
Internet mit IE8 (CPU-Rendering, keine GPU-Beschleunigung, macht also mehr CPU-Last als ein moderner Browser) über aktiviertes WiFi, Seiten enthalten FLASH-Ads, neue Seite alle 60 Sekunden, Display wieder auf 70%, Laufzeit ebenfalls in Min/Wh:
http://images.anandtech.com/graphs/graph4444/38796.png
6,22 Minuten/Wh => 9,6W Verbrauch des ganzen Notebooks
So, jetzt darfst Du mal raten, wieviel alleine das WiFi-Modul verbraucht, das von den 2 Watt Differenz abziehen und überhaupt das Ganze mit der TDP der CPU von 35W sowie dem Verbrauch des Displays auf 70% Helligkeit vergleichen. Was spielt also beim Surfen eine Rolle? Wo liegt man näher dran, am Volllastbetrieb oder am idle? Und bei einem i5 (das Asus K53) sieht das auch nicht so viel anders aus, 7,8W im idle und 9,3W beim Surfen über WiFi.
Schaffe89
2011-07-02, 18:19:21
Bei Last auf <=2 Kernen wird man wohl nicht mehr verbrauchen als SB, aber dafür deutlich länger benötigen.
Länger benötigen bei was? Idle? Schreiben, Scrollen?
Das kann doch wohl nicht dein ernst sein.
Ich Äußere mich lieber nicht mehr dazu...Gipsel hat bereits genug Fakten dazu gepostet.
schmacko
2011-07-02, 22:50:49
Das ganze ist auch ein bisschen abhängig von der Software und der Arbeiten. Splashtop brauch einiges an Leistung, dafür kann man auch fast alles in Echtzeit streamen. Und es ist schon klasse, wenn ich über Splashtop mit meinem Tablet Fernsehen schauen kann. Es bleibt aber weiterhin ein Problem, dass Llano deutlich ineffizienter als SB ist. Die schlechtere Singlethreadleistung bedeutet, dass man bei gleichem Verbrauch länger arbeiten oder höher takten muss, um die Aufgabe in der selben Zeit erledigen zu können. Dieses Problem bleibt bestehe.
wollen wir mal hoffen, dass ein 2600k nicht doppelt so schnell streamt wie ein llano oder er alle buchstaben doppelt eingibt, weil ihm so langweilig ist. ebensowenig denke ich, dass in intel die flashreklame doppelt so schnell abspult oder flashvideos absurd schnell werden.
wie du mit deinem eigenen arm-beispiel zeigst, ist praktisch alle x86-hardware für normales arbeiten "zu schnell".
(andererseits willst du hoffentlich nicht sagen, dass du gar nicht weißt, wofür man teamviewer braucht! ;) )
wie gesagt "langweilt" sich selbst ein phenom in langsamsten p-state, der in einer vm unter win7 ein dualcore-system mit 4gb mit ubuntu64 emuliert, dort ein schreibprogramm laufen hat und gleichzeitig teamviewer bedient. gleichzeitig läuft unter win7 eine teamviewerinstanz, mit der man den openoffice-writer in der ubuntu-vm bedient. die beiden teamviewer kommunizeiren über einen virtuellen netzwerkadapter...
oder in diesem nächsten beispiel: ein ubuntu in der vm "streamt" einen linux-desktop mit im firefox laufendem youtube-video per teamviewer an das gastgebende win7. immernoch bleibt der x6 im langsamsten p-state.
und das streamen geht nicht schneller, wenn ich die energieeinstellungen von win7 auf höchstleistung stelle - wäre ja auch gegen den sinn derselben.
unter volllast sei es geschenkt, dass der llano wegen der absurd hohen vcore peinlichst abkackt, aber idle wird er mit seinen 4 kernen wohl genauso dümpeln wie mein phenom. nur dass der llano viel weniger "grundenergie" braucht. die bei ht4u verlinkten 6w cpu@idle finde ich enorm wenig.
diese teamview-verrenkung kostet bei meinem x6 übrigens ca 10w mehr als normales idlen. (also nichts an ist 10w billiger als ein in einer vm laufenden firefoxinstanz mit youtubevideo per teamviewer an dasselbe win7 gestreamt.) ich kann mir nicht vorstellen, dass llano über 10w mehr verbrauchen wird für ein solches szenario.
und nein! ein sb wird das nicht "schneller" können, denn auch ein pheonom langweilt sich schon dabei.
ps: gibt es eigentlich tests mit "leichtlast"- oder "allerweltsnutzung"-szenarien für llano und sb?
mironicus
2011-07-02, 22:55:35
@Gipsel
Mein Ideapad S205 (E350, 8GB RAM, SSD) verbraucht mit 100% Bildschirmhelligkeit, WLAN an, Bluetooth an auch nur 7 Watt (mit Energieprofil "Höchstleistung" wohlgemerkt, keine Ausbremsung). Mit zugeklapptem Bildschirm (Standby im Netzbetrieb ausgeschaltet) sogar nur 4-5 Watt.
Ich habe auch ein Desktop-System mit E350 (Asus E35M1-Pro, 4GB, SSD, Pico-Netzteil), das verbraucht idle aber schon 18-20 Watt (ohne Bildschirm).
Ich will so einen niedrigen Stromverbrauch auch für meinen Desktop haben! :eek:
y33H@
2011-07-03, 09:41:14
bestes llano review bis jetzt: http://www.gamestar.de/hardware/prozessoren/amd-a8-3850-fusion-apu/test/amd_a8_3850_fusion_apu,344,2323926.html
:ugly:"Ein ausführlicherer Test der integrierten Radeon HD 6550D folgt in Kürze. " :tongue:
M4xw0lf
2011-07-03, 10:27:00
bestes llano review bis jetzt: http://www.gamestar.de/hardware/prozessoren/amd-a8-3850-fusion-apu/test/amd_a8_3850_fusion_apu,344,2323926.html
:ugly:
Über diesen sogenannten "Test" bin ich auch schon gestolpert... Ich glaube keine andere Seite der Welt bringt das Kunststück fertig, im Test KEIN WORT über die integrierte Grafikeinheit zu verlieren. :freak:
Fabian_HT4U
2011-07-03, 11:09:22
Ein Update von uns. Wir haben zu weiteren Tests die Preview-Version des Catalyst 11.7 mit der Versionsnummer 8.871 installiert. Diese eliminiert scheinbar die Bildfehler :)
grüße
Fabian
mironicus
2011-07-03, 11:53:38
Kann ich auch bestätigen. :)
palace
2011-07-04, 00:27:30
Kann es sein, dass mit den 1,4V etwas nicht stimmt, wenn die VID = 1,25V o.ä ist?
Sind das in den diversen Tests anzeige/auslese Fehler? Oder geben manche Boards / BIOS einfach zu viel Spannung?
Der heimliche Sieger könnte für mich der 3800 werden.
Fabian_HT4U
2011-07-04, 07:45:23
Hi,
ich kann hier nur für uns sprechen, aber bei uns waren es reale 1,4 Volt (wir messen und lesen nicht bei CPU-Z & Co ab ;) ) und die VID lag auch bei 1,4 Volt. Es mag Boards/BIOSe geben die zu viel Spannung anlegen, das hatten wir bei uns nicht (einmal AsRock, einmal ASUS).
Erstaunt bin ich über das Problem bei P3DNow, aber da fragst du besser direkt jemand von denen. Bei uns wie gesagt alles richtig ausgelesen und angelegt.
grüße
Fabian
deekey777
2011-07-04, 10:42:23
Ein Update von uns. Wir haben zu weiteren Tests die Preview-Version des Catalyst 11.7 mit der Versionsnummer 8.871 installiert. Diese eliminiert scheinbar die Bildfehler :)
grüße
Fabian
Wenn wir schon dabei sind:
http://support.microsoft.com/kb/2551127
"0x0000010E" Stop-Fehler auf einem Computer, der Hybrid-Grafiklösungen in einer heterogenen GPU-Konfiguration verwendet und Windows 7 oder Windows Server 2008 R2 ausgeführt wird
mironicus
2011-07-04, 13:21:42
Preise für Prozessoren:
A8-3650 ab 93 Euro
A8-3850 ab 111 Euro
3650 und evtl. 3850 lieferbar
http://geizhals.at/deutschland/?cat=cpuamdfm1
Undertaker
2011-07-04, 18:04:01
Da ist der Preis doch schon um einiges gefallen - <100€ sind für das A8-3850 Topmodell in den nächsten Wochen durchaus denkbar. Das wäre dann auch ein durchaus fairer Preis.
fondness
2011-07-04, 18:23:42
Da ist der Preis doch schon um einiges gefallen - <100€ sind für das A8-3850 Topmodell in den nächsten Wochen durchaus denkbar. Das wäre dann auch ein durchaus fairer Preis.
Vorallem wenn man bedenkt das die Plattform auch sehr günstig ist.
y33H@
2011-07-04, 18:34:10
A75-Boards ab gut 50 Euro, ja =)
Jetzt fehlt nur noch der A8-3800:D (der wird wohl sogar "selektiver" sein, als das bisherige Topmodell?)
y33H@
2011-07-04, 18:57:47
Warum ausgerechnet den? Ich hab lieber immer vollen Takt ;)
Der hat bloss 65W TDP (vor allem wg. Kühler/Wärmeabfuhr, wenn man mal spielt), aber andererseits hatte ich kurz ausgeblendet, daß man den 3850 wohl gut "undervolten" kann, also ist dieser evtl. doch besser.
fondness
2011-07-05, 14:15:54
Das kann noch hinzu kommen. Die doch recht niedrigen Frequenzen der Notebook APUs sagen aber schon recht eindeutig das die Skalierung Frequenz - Spannung alles andere als wie gewünscht funktioniert. Hierbei gibt es hauptsächlich 35 und 45W Limits und über die kann man als CPU Hersteller nicht drüber wenn man in den Notebook Designs der großen Hersteller Platz finden will.
Ja, Llano bräuchte definitiv noch Feinschliff. Die Serienprodukte haben Stepping B0, das ist Rekordverdächtig für eine CPU. Offensichtlich hat AMD nicht die Ressourcen oder einfach nicht die Zeit hier in mehr Feinschliff zu investieren. Intel launcht CPUs häufig erst mit D oder E-Stepping.
Schaffe89
2011-07-05, 16:51:50
Dann wird man sich ja bis Trinity kommt über schöne Stepping Updates freuen können.
Vielleicht kommt ja das neue Topmodell alias 3870 schon mit besseren Stepping oder niedrigeren Spannungen.
YfOrU
2011-07-06, 11:04:38
AMD A8 Series A8-3850 4x 2.90GHz So.FM1 BOX
€ 109,35
ASRock A75M-HVS FM1 AMD A75 M-ATX
€ 56,26
4GB G.Skill Ripjaws DDR3-1600 DIMM CL8 Dual Kit
€ 42,70
->208,31€
Intel Core i3 2100 2x 3.10GHz So.1155 BOX
€ 94,34
ASRock 1155 H61M/U3S3 (µ/GBL/V/DDRIII)
€ 58,04
4GB Kingston HyperX DDR3-1600 DIMM CL9 Dual Kit
€ 29,65
->182,03€
Damit ist das Minimalsystem mit Intel CPU 26,28€ günstiger. Für Anwender mit knappen Budget die auch halbwegs aktuelle Spiele in angenehmen Einstellungen flüssig dargestellt haben wollen ist das AMD System so interessant. Meiner Meinung nach sollten aber noch ca. 15€ der Preisdifferenz wegfallen (damit der Abstand zu i3 + dedizierter GPU ungefähr 50€ beträgt). So wäre das AMD System noch mal ein gutes Stück attraktiver. Mit zunehmender Verfügbarkeit von Boards und CPUs sollte das auch realistisch sein.
Beim AMD System ist absichtlich etwas teurer Speicher in dieser Konfiguration. Gute 1600er CL8 Module wie die Ripjaws gehen im Regelfall bis etwas über DDR3 2000 CL9. Gleichfalls habe ich beim Intel System nicht einfach das billigste Board gewählt sondern das günstigste mit USB 3.0.
Je nach dem wäre auch der i3-2120 für 119€ dem A8-3850 gleichzusetzen. Da aber auch ein i3-2100 mit dedizierter GPU im Bereich von 60€ auf vergleichbaren Niveau agiert habe ich hier die günstigere Variante gewählt. Für Spiele bietet der i3-2120 einfach keine Vorteil gegenüber dem günstigeren i3-2100.
Preis/Leistung der Lynx Plattform ist also in jedem Fall ziemlich gut und auch die Anwendungsperformance bewegt sich im Bereich des i3-2100. Fehlt nur noch eine ab Werk reduzierte Leistungsaufnahme im Lastbetrieb. Bei Komplettsystemen sind 50€ Differenz und viele schöne Sticker für die Gehäusefront etwas das Intel Marktanteile kosten wird. Erfolg wird man mit dem Fusion Konzept haben, die Frage bleibt wie hoch bzw. gering die Gewinne (Desktop) ausfallen denn um die 100€ für das Topmodell ist ehrlich gesagt recht wenig.
Öh, was hast du da beim Speicher fabriziert? Achso, halte ich aber für Quatsch, der gleiche DDR3-1600-Speicher, wie beim Intel sollte i.O. sein.
Knuddelbearli
2011-07-06, 12:51:13
lass ihn doch wenn er sich zurechtbiegen muss...
glaub das versteht er nichtmal selber zuerst meint er er nimtm die da die auf DDR3 2000 zu IOCen gehn danach bezieht er sich mit der stickerfrage usw auf OEM ...
YfOrU
2011-07-06, 13:07:09
Ein OEM wird für 1866er CL9 im EK kaum mehr zahlen als für 1600er CL8 (identische Chips). Das Problem ist hier das momentan geringe Angebot an 1866er Modulen für Endkunden.
Die APU ist durch die Bandbreite limitiert. Je mehr desto besser und DDR3 1866 wird nun mal offiziell unterstützt. Für 10€ Aufpreis ist das zu verschmerzen. Dazu nimmt die Preisdifferenz zu 1600er Modulen sowieso über die Zeit ab.
Und wenn es dir mit dem Speicher beim AMD nicht passt, dem i3 lässt sich auch billigster 1066/1333er von der Resterampe unterjubeln. Kombiniert mit einem Board ohne USB3.0 ist eine brauchbare, dedizierte GPU schon in Reichweite (5670 GDDR5). Der Vergleich sollte aber möglichst fair sein.
Schaffe89
2011-07-06, 15:50:56
Die APU ist durch die Bandbreite limitiert. Je mehr desto besser und DDR3 1866 wird nun mal offiziell unterstützt. Für 10€ Aufpreis ist das zu verschmerzen. Dazu nimmt die Preisdifferenz zu 1600er Modulen sowieso über die Zeit ab.
1833mhz Ram bietet im Vergleich zu 1600mhz Ram kaum Vorteile,siehe Tests.
Ronny145
2011-07-06, 16:20:01
1833mhz Ram bietet im Vergleich zu 1600mhz Ram kaum Vorteile,siehe Tests.
Wenn du auf 5-10% verzichten kannst, dann trifft es zu.
http://www.hardware.fr/articles/837-3/architecture-gpu-memoire-partagee.html
boxleitnerb
2011-07-06, 16:27:20
Jo das würde in vielen Fällen sogar noch weiterskalieren, wo der Rest nicht bremst. APU schön und gut, aber das mit dem Speicher ist ein nicht zu unterschätzendes (teures) Problem, wenn man das Ding wirklich ausreizen will.
YfOrU
2011-07-06, 16:47:10
1833mhz Ram bietet im Vergleich zu 1600mhz Ram kaum Vorteile,siehe Tests.
Gegenüber was, 1600er CL7 ? Die meisten Tests mit 1600er Modulen sind mit CL7 - CL8 entstanden. Der Punkt ist das die APU nicht nur mit der Bandbreite skaliert sondern die Latenz ebenfalls deutlichere Auswirkungen hat als bei den sonstigen, aktuellen Prozessoren.
Siehe zum Beispiel hier:
http://www.pcper.com/reviews/Graphics-Cards/AMD-3850-Llano-Desktop-Processor-Review-Can-AMD-compete-Sandy-Bridge/Memory-S
Das der Sprung von 1333 auf 1600, beide CL7 wesentlich größer ist als von 1600 CL7 auf 1866 CL9 sollte nicht überraschen. Wo dann 1600 CL9 einzuordnen ist kann man sich damit auch denken ;)
Billiger 1600er CL9 Speicher ist also nicht gerade die optimale Wahl und die 10€ Aufpreis für etwas besseren Speicher sind prozentual gesehen schon in Ordnung.
Schaffe89
2011-07-06, 22:15:19
Ich habe mich am Computerbase Fazit orientiert.
Gibts denn auch Tests mit 2133 mhz ram? Eventuell geht da noch mehr, das dürfte aber auf normale Grafikkarten ebenso in vielen Fällen zutreffen.
Irgendwas limitiert immer.
Ein Problem ist das aber sicher nicht. @ boxleitnerb O.o
y33H@
2011-07-06, 22:17:50
Mir ist kein Board mit einem Teiler für mehr als 1866 bekannt.
Schaffe89
2011-07-07, 03:00:58
http://www.xbitlabs.com/articles/cpu/display/amd-a8-3800_21.html
Gutes review mit richtig gutem Stromverbrauch und im Schnitt doppelter Grafikleistung als die HD3000. Bei den 65 watt TDP Llano Modellen hat AMD alles richtig gemacht.
Jetzt fehlt nurnoch ein Notebook mit etwa 4x 2,2 ghz, um auch einige Intel CPU´s zu überholen.
Ich freu mich schon auf das Desktop 3870 Modell mit 3,2 ghz.
R.I.P.
2011-07-07, 08:41:02
Hmmmm....:uponder: jemand ne Ahnung ob Trinity (4 BD Doppelmodule + GPU) auch in den FM1 Sockel passen wird? Irgendetwas ofizielles darüber bekannt?
Sorry wenn ein wenig offtopic, aber Am3+ ist eine sehr kurze Geschichte (Lebenszeitraum Juni 2010 bis Erscheinen des BD2 ~ Frühjahr/Mitte 2012), deshalb würde es sich beinahe auszahlen (auf längere Sicht) jetzt auf Llano zu setzten mit FM1 und dann umzusteigen, wenn die CPU Leistung nicht ausreicht. Stimmt es, daß nur 4 PCIexp 2.0 lanes als Grakaslot zur Verfügung stehen?
Danke
Ooch, ob der BD2 wirklich so zeitig kommt, da wäre ich mir nach den bisherigen Erfahrungen nicht soo sicher...
R.I.P.
2011-07-07, 08:51:21
Ooch, ob der BD2 wirklich so zeitig kommt, da wäre ich mir nach den bisherigen Erfahrungen nicht soo sicher...
Bin ein unheilbarer Optimist :freak: Aber wahrscheinlich hast du recht ;(
Fabian_HT4U
2011-07-07, 08:58:49
Hmmmm....:uponder: jemand ne Ahnung ob Trinity (4 BD Doppelmodule + GPU) auch in den FM1 Sockel passen wird? Irgendetwas ofizielles darüber bekannt?
Danke
Wir hatten anlässlich des Launches bei AMD angefragt wie es mit der Langlebigkeit aussieht. Die Antwort war sinngemäß, dass man aktuell nur über Llano und den Sockel F1 spricht und nicht über Dinge, die in der Zukunft passieren. Ein starkes "ja wir behalten den Sockel" sieht imho anders aus, zumal wenn man quasi zeitgleich eh schon Trinity präsentiert...
grüße
Fabian
R.I.P.
2011-07-07, 09:11:04
Vielen Dank Fabian!
Das ist wieder mal besch....eiden. Verdammt, zumindest war AMD bis jetzt immer 1A was Langlebigkeit der Plattform betrifft. Nun ist Am3+ ein kurzeitiges Vergnügen und FM1 scheinbar auch :mad: Einfach nur ärgerlich
Gipsel
2011-07-07, 09:14:27
Hmmmm....:uponder: jemand ne Ahnung ob Trinity (4 BD Doppelmodule + GPU) [..]
Das werden wohl eher nur 2 Module = 4 Kerne + GPU.
R.I.P.
2011-07-07, 09:23:32
Das werden wohl eher nur 2 Module = 4 Kerne + GPU.
Stimmt sorry, habe mich beim Lesen der dazugehörigen Präsentation verlesen :redface:
mironicus
2011-07-07, 16:58:35
Ne, Sockel FM1 und AM3+ werden die langlebigsten Sockel von AMD werden, die es jemals gab... weil es die letzten Produkte sein werden, die von AMD noch kommen, bevor sie 2012 Pleite gehen. :D
Selbst als eingefleischter AMD-User sehe ich momentan kein Land für AMD. Einerseits ist für den Bulldozer wohl ein neues MB fällig, andererseits lohnt sich das wohl kaum, da AM3+ nicht lange leben wird, eine völlig unsinnige Ausgabe. Da würde ich lieber empfehlen, wer ein wenig mehr Bums haben will, sich lieber noch einen X6 zu holen und damit dann die nächsten 2 Jahre zu überstehen. Ich habe momentan zwei AM2+ und ein AM3-Board im Betrieb. Auf allen wird der Bulldozer wohl nicht laufen, die einzige Upgrademöglichkeit wäre ein X6.
Die Llano-Plattform ist attraktiv, aber die Zukunft der Plattform ist mir ebenfalls zu unsicher und der schnellste Llano-Prozessor ist nicht schneller als ein X4-640. AMD hat momentan nichts (bis auf die X6), was mich zu einer Neuanschaffung reizen würde.
Schnitzl
2011-07-07, 17:00:29
Ooch, ob der BD2 wirklich so zeitig kommt, da wäre ich mir nach den bisherigen Erfahrungen nicht soo sicher...
Ist Trinity nicht BD_I + HD6000-GPU?
Was irgendwie noch fehlt bei Llano ist mehr Flexibilität, z.B. schnellerer Quad mit schwächerer Grafik oder andersrum Dualcore mit starker Grafik
...und ein Topmodell mit 55W TDP =)
P.S.: ich gehe zu 95% davon aus dass man Llano2 oder Trinity in FM1 stecken kann, es sollten nur die Boardhersteller den APU-Sockel gleich auf 125W auslegen ;-)
@ mironicus: auf nem AM3 sollte BD doch laufen hiess es zumindest
mironicus
2011-07-07, 18:40:55
@Schnitzl
Aber nur nach einem Bios-Update. Für mein zwei Jahre altes Asus Mainboard mit 785G-Chipsatz ist keins angekündigt.
R.I.P.
2011-07-07, 19:01:01
Ist Trinity nicht BD_I + HD6000-GPU?
Was irgendwie noch fehlt bei Llano ist mehr Flexibilität, z.B. schnellerer Quad mit schwächerer Grafik oder andersrum Dualcore mit starker Grafik
...und ein Topmodell mit 55W TDP =)
P.S.: ich gehe zu 95% davon aus dass man Llano2 oder Trinity in FM1 stecken kann, es sollten nur die Boardhersteller den APU-Sockel gleich auf 125W auslegen ;-)
@ mironicus: auf nem AM3 sollte BD doch laufen hiess es zumindest
Du sprichst mir aus dem Herzen! Bin jetzt gerade am Überlegen ob ich auf ein schnelleres LLano Modell warte, oder doch auf Sandy umsteige. Zumindest wird man dort Ivy weiterverwenden können.
Ich warte sowieso bis ca. September/Oktober, hoffe, daß dann auch ein wenig "bessere/hochwertigere" FM1 Mobos auftauchen
Schnitzl
2011-07-07, 19:57:54
Kommt darauf an was du mit deinem Rechner machen willst...
im September/Oktober gibt evtl. dann den 3870 ;)
MfG
Hacke/schorsch/pudding
2011-07-08, 14:51:02
Vielen Dank Fabian!
Das ist wieder mal besch....eiden. Verdammt, zumindest war AMD bis jetzt immer 1A was Langlebigkeit der Plattform betrifft. Nun ist Am3+ ein kurzeitiges Vergnügen und FM1 scheinbar auch :mad: Einfach nur ärgerlich
AMD war nur in Bezug auf den Sockel-A langlebig, wobei man trotzdem je nach Chipsatzalter bei einem Wechsel der CPU ein neues Board kaufen musste, es sei den man betreibt seinen Prozessor gerne mit reduziertem takt. S755-939-am2 das ging schon sehr schnell, und war alles andere als langlebig.
Sorkalm
2011-07-08, 15:00:45
Naja AM2/AM2+/AM3 gehört auch dazu, schließlich kann man - da entsprechende Mainboard vorausgesetzt - auch eine AM3-CPU in AM2 einbauen. Aber letztendlich ist da vieles eben auch Glückssache, wie gut der BIOS-Support für das Board war usw. Einplanen würde ich das ganze nie (aber ich wechsle meine CPU auch nicht so oft, wer die in einem geringen Rhythmus als 2 Jahre tauscht, sieht das vllt. anders).
Sir Integral Wingate Hellsing
2011-07-08, 15:27:36
AMD war nur in Bezug auf den Sockel-A langlebig, wobei man trotzdem je nach Chipsatzalter bei einem Wechsel der CPU ein neues Board kaufen musste, es sei den man betreibt seinen Prozessor gerne mit reduziertem takt. S755-939-am2 das ging schon sehr schnell, und war alles andere als langlebig.
Ich hab in meinem AM2-Board von 2007 eine AM3 CPU drin - von kurzlebig kann keine Rede sein.
Bei AMD muss man nicht oft das Board wechseln.
Hacke/schorsch/pudding
2011-07-09, 04:55:23
Mag ja sein, das dieses eine AM2-Board ein Biosupdate bekommen hat... die Regel ist eine AM3-CPU auf einem AM2 ohne Plus Board nicht. Gab auch mal Phenom2 Prozessoren speziell für AM2(-) das ist mir auch bekannt. Dies hat jedoch nichts mit der LANGLEBIGKEIT des Sockels zu tun. AM2 ohne + ist auch nur verdammt kurz auf dem Markt gewesen, die Möglichkeit halbwegs aktuelle Hardware einzubauen ist schön und gut, aber der Sockel an sich war extrem kurzlebig.
Vergleicht man das Chaos von 754-939-am2 mit dem Intelsockel 775 dann ist es bei intel im selben Zeitraum schlichtweg übersichtlicher. da war halt ein einziges mal eine Intel-Plattform langlebiger. Ich verwende seit einem Sockel A Duron 700 ausschließlich AMD-Prozessoren weil ich ein Geizknochen bin. Ich habe mit Ausnahme eines alten Centrinonotebooks seit einem pentium 1 233mmx keine Intelhardware mehr verwendet, aber das AMD-Plattformen langlebiger sind ist vor allem in letzter Zeit einfach falsch.
Edit: Vorallem weil seit der Entdeckung des Arschfelsens (Asrock) Bretter für die AMD-Plattform zumeist sehr wenig bis garnichts kosten ist es eh wurscht. Mir geht halt nur der vergangene Sockelwirrwarr auf den Sack.
Schaffe89
2011-07-09, 16:45:52
Ich hab bisher noch jedes jedes AM2 Board mit einer AM3 CPU einwandfrei zum laufen gebracht und das waren relativ viel.
Ich denke, dass es eher die Regel ist, dass da was geht.
Knuddelbearli
2011-07-09, 17:33:53
Mag ja sein, das dieses eine AM2-Board ein Biosupdate bekommen hat... die Regel ist eine AM3-CPU auf einem AM2 ohne Plus Board nicht. Gab auch mal Phenom2 Prozessoren speziell für AM2(-) das ist mir auch bekannt. Dies hat jedoch nichts mit der LANGLEBIGKEIT des Sockels zu tun. AM2 ohne + ist auch nur verdammt kurz auf dem Markt gewesen, die Möglichkeit halbwegs aktuelle Hardware einzubauen ist schön und gut, aber der Sockel an sich war extrem kurzlebig.
Vergleicht man das Chaos von 754-939-am2 mit dem Intelsockel 775 dann ist es bei intel im selben Zeitraum schlichtweg übersichtlicher. da war halt ein einziges mal eine Intel-Plattform langlebiger. Ich verwende seit einem Sockel A Duron 700 ausschließlich AMD-Prozessoren weil ich ein Geizknochen bin. Ich habe mit Ausnahme eines alten Centrinonotebooks seit einem pentium 1 233mmx keine Intelhardware mehr verwendet, aber das AMD-Plattformen langlebiger sind ist vor allem in letzter Zeit einfach falsch.
Edit: Vorallem weil seit der Entdeckung des Arschfelsens (Asrock) Bretter für die AMD-Plattform zumeist sehr wenig bis garnichts kosten ist es eh wurscht. Mir geht halt nur der vergangene Sockelwirrwarr auf den Sack.
dir ists chon klar das es 2 Sockel 775 von Intel gab die nicht zueinander kompatibel waren wegen den Spawas ?
Hacke/schorsch/pudding
2011-07-09, 18:05:11
dir ists chon klar das es 2 Sockel 775 von Intel gab die nicht zueinander kompatibel waren wegen den Spawas ?
Dir ist schon klar das es trotzdem ein Sockel bleibt? Ich beleuchte das doch garnicht von der praktischen Seite her, ich mag nun einmal keine dauernden Änderungen des Sockels.
Ich habe hier schon mehr als zweimal erwähnt das mich die Upgradefunktionalität nicht kratzt mich nervt nur der Sockelwirrwarr im generellen und der war nunmal kurzzeitig bei AMD extrem.
Ähm dir ist schon klar, dass AM2 und AM2+ der gleiche Sockel (940 Pins) und AM3 und AM3+ (941 Pins) sind? AMD unterscheidet da nur wegen der Spannungsversorgung, die für die Stromsparmechanismen geändert wurde.
Intel hatte zur gleichen Zeit S775-vrm11, S1156 und S1155... verzerrte Wahrnehmung?
Knuddelbearli
2011-07-09, 20:24:44
Dir ist schon klar das es trotzdem ein Sockel bleibt? Ich beleuchte das doch garnicht von der praktischen Seite her, ich mag nun einmal keine dauernden Änderungen des Sockels.
Ich habe hier schon mehr als zweimal erwähnt das mich die Upgradefunktionalität nicht kratzt mich nervt nur der Sockelwirrwarr im generellen und der war nunmal kurzzeitig bei AMD extrem.
du meckerst darüber das AM2 auf AM3 nicht garantiert wird, obwohl bei Intel Sockel 775 blieb die CPUS komplett zu 100% inkompatibel waren ignorierst du? ähm ja fanboy alarm?
Schaffe89
2011-07-10, 00:15:38
Dir ist schon klar das es trotzdem ein Sockel bleibt?
Du störst dich also am Namen?
Das hat aber keinen Sinn und ist auch nicht Grundlage für irgendein obenstehendes Argument.
Hacke/schorsch/pudding
2011-07-10, 00:24:03
du meckerst darüber das AM2 auf AM3 nicht garantiert wird, obwohl bei Intel Sockel 775 blieb die CPUS komplett zu 100% inkompatibel waren ignorierst du? ähm ja fanboy alarm?
Das tue ich nicht, ich habe an jener stelle mal kurz darauf Bezug genommen um klar zu stellen das der Sockel AM2 nach recht kurzer Zeit von AM2+ abgelöst wurde. ich glaube langsam einige von euch sind vielleicht zu dumm zu kapieren das mich nicht juckt, was nun besser ist oder was besser geupgradet werden kann. Ich habe mehrmals erklärt, dass mir selbiges nunmal egal ist. Das Intel in der Zeit von Sockel754-939-am2 mit nur einem Sockel 775 auskam ist fakt.
Das man ein altes 775erbrett keinen Core2 einbauen konnte ändert nichts dran.
Ich gebs auf, mir ging es nur darum das die Behauptung AMD-Plattformen seien generell langlebiger so zwar zu Zeiten des SockelA stimmte, jedoch keineswegs generell zutrifft.
Knuddelbearli
2011-07-10, 01:27:53
Generell ist schonmal nie irgendwas irgendwie. Alles kann sich grade im hardwaremarkt jederzeit ändern. Auch Sockelphilosophien.
Du hängst dich aber daran auf das AMD für den selben Sockel 2 Namen benutzt hat ( AM2 und AM2+ die aber in 99% der Fälle kompatibel waren ) während Intel für 2 absolut nicht kompatible "sockel" ( "" daher da der Sockel an sich ja gleich geblieben ist ) den selben Namen genutzt hat um nicht sachkundige zu verarschen.
Um bei deinen Worten zu bleiben, wenn du den Wiederspruch darin nicht kapierst bist du scheinbar einfach zu dumm dafür.
Schaffe89
2011-07-10, 09:58:37
Das Intel in der Zeit von Sockel754-939-am2 mit nur einem Sockel 775 auskam ist fakt.
Da gibt es nichts zu kapieren. Intel hätte ihren Sockel genausogut 775 plus nennen können.
Der wurde ergo dann auch von dem "neuen" 775 Sockel abgelöst.
Du störst dich schlicht an der Bezeichnung. AM2 war der gleiche Sockel wie AM2+ da gab es defacto kaum Differenzen. Ergo kann man heute auch oftmals problemlos mit aktuellen Prozessoren in einen uralten (6) Jahre alten Sockel noch was upgraden. Habe ich erst gestern gemacht bei nem Asus m2n SLI- Deluxe.
Das man ein altes 775erbrett keinen Core2 einbauen konnte ändert nichts dran.
Klar, das ändert nichts.^^ Den Widerspruch bei deiner Argumentation erkennst du nicht?
Den Sockel AM2 konnte man bis jetzt sehr lange upgraden, völlig egal ob der anders benamst wird.
Hacke/schorsch/pudding
2011-07-10, 14:06:47
Dir ist schon klar das es trotzdem ein Sockel bleibt? Ich beleuchte das doch garnicht von der praktischen Seite her, ich mag nun einmal keine dauernden Änderungen des Sockels.
Ich habe hier schon mehr als zweimal erwähnt das mich die Upgradefunktionalität nicht kratzt mich nervt nur der Sockelwirrwarr im generellen und der war nunmal kurzzeitig bei AMD extrem.
siehe mich selbst
Brillus
2011-07-10, 16:03:37
siehe mich selbst
2 Sockel mit gleichen Namen die aber untereinander Inkompatiblel sind sind doch tausendmal schlimmerer Wirrwar wie 1 Sockel der 3 Namen hat.
Hacke/schorsch/pudding
2011-07-10, 21:26:43
2 Sockel mit gleichen Namen die aber untereinander Inkompatiblel sind sind doch tausendmal schlimmerer Wirrwar wie 1 Sockel der 3 Namen hat.
Also sind die Sockel 754, 939 und am2 der selbe sockel? :)
Ach kinners lagert das bitte in einen anderen Thread.
Da nerven ja sogar die Emailbenachrichtigungen.
Bitte kommt wieder zu Llano zurück!
Sir Integral Wingate Hellsing
2011-07-10, 21:40:43
Mag ja sein, das dieses eine AM2-Board ein Biosupdate bekommen hat... die Regel ist eine AM3-CPU auf einem AM2 ohne Plus Board nicht. Gab auch mal Phenom2 Prozessoren speziell für AM2(-) das ist mir auch bekannt. Dies hat jedoch nichts mit der LANGLEBIGKEIT des Sockels zu tun. AM2 ohne + ist auch nur verdammt kurz auf dem Markt gewesen, die Möglichkeit halbwegs aktuelle Hardware einzubauen ist schön und gut, aber der Sockel an sich war extrem kurzlebig.
Vergleicht man das Chaos von 754-939-am2 mit dem Intelsockel 775 dann ist es bei intel im selben Zeitraum schlichtweg übersichtlicher. da war halt ein einziges mal eine Intel-Plattform langlebiger. Ich verwende seit einem Sockel A Duron 700 ausschließlich AMD-Prozessoren weil ich ein Geizknochen bin. Ich habe mit Ausnahme eines alten Centrinonotebooks seit einem pentium 1 233mmx keine Intelhardware mehr verwendet, aber das AMD-Plattformen langlebiger sind ist vor allem in letzter Zeit einfach falsch.
Edit: Vorallem weil seit der Entdeckung des Arschfelsens (Asrock) Bretter für die AMD-Plattform zumeist sehr wenig bis garnichts kosten ist es eh wurscht. Mir geht halt nur der vergangene Sockelwirrwarr auf den Sack.
Ganz ehrlich: Mit Intel hat man definitiv (mit Rückblick auf die letzten 10-11 Jahre) mehr Sockel-Verwirrung als mit AMD gehabt.
Ich kenne (belehrt mich gerne) kein Board mit Intel-CPUs - welches schon 4-5 Jahre alt ist - wo man aktuelle Intel-CPUs einsetzen kann. Und wenn es tatsächlich da ein oder zwei doch geben sollte (ich kanns mir grad nicht vorstellen): Es gibt definitiv mehr AMD-CPU-Boards, die ebenfalls so viele Jahre auf dem Buckel haben, da geht gerne ein Phenom II X2 bzw X4 rein!
Ich denke der FM1-Sockel wird allerdings ähnlich kurzlebig wie der Sockel 754 - welches IMHO bisher der kurzlebigste Sockel bei AMD war (abgesehen von den uralten Slot-A/1-"Sockeln", die hat Intel aber auch relativ schnell wie AMD eingemottet)
Hacke/schorsch/pudding
2011-07-11, 05:15:15
Ganz ehrlich: Mit Intel hat man definitiv (mit Rückblick auf die letzten 10-11 Jahre) mehr Sockel-Verwirrung als mit AMD gehabt.
Ich kenne (belehrt mich gerne) kein Board mit Intel-CPUs - welches schon 4-5 Jahre alt ist - wo man aktuelle Intel-CPUs einsetzen kann. Und wenn es tatsächlich da ein oder zwei doch geben sollte (ich kanns mir grad nicht vorstellen): Es gibt definitiv mehr AMD-CPU-Boards, die ebenfalls so viele Jahre auf dem Buckel haben, da geht gerne ein Phenom II X2 bzw X4 rein!
Ich denke der FM1-Sockel wird allerdings ähnlich kurzlebig wie der Sockel 754 - welches IMHO bisher der kurzlebigste Sockel bei AMD war (abgesehen von den uralten Slot-A/1-"Sockeln", die hat Intel aber auch relativ schnell wie AMD eingemottet)
Da will ich auch garnicht widersprechen, es war eben halt nur in diesem kurzen Zeitraum so, dass die Intelteile etwas konstanter blieben. Das stimmt schon das man bei AMD normalerweise auf der sicheren Seite ist wenn man alte Bretter mit neuen Prozessoren füttern will. Mir ging es halt nur darum, dass es halt nicht immer so ist, "fast immer ist halt etwas anderes als immer" war wohl nen bissl Korintenkackerei von mir aber wundert einen schon, dass dann ellenlang über Produkte Debatiert wird, die in meinem Beispiel garnicht vorkommen weil ich einen anderen Zeitraum betrachte.
Brillus
2011-07-11, 12:34:52
Also sind die Sockel 754, 939 und am2 der selbe sockel? :)
Ne AM2, AM2+ und AM3 sind fast identisch
Ronny145
2011-07-11, 16:06:56
Zol.com.cn hat mit DDR3-2066 Speicher verglichen. Die Steigerungen sind immer noch beachtlich in einigen Spielen zu DDR3-1866.
http://memory.zol.com.cn/238/2386229.html
A8-3850 nähert sich langsam den 100€. Echt günstig muss ich sagen. Auf der anderen Seite ist das zu erwarten gewesen, die APU verkauft sich hauptsächlich über die CPU Leistung.
AnarchX
2011-07-11, 16:39:33
Da hätte man wohl auf ein 192-Bit SI setzen sollen, welches bei Low-End-SKUs einfach nicht genutzt bzw. gar nicht aus dem Package ausgeführt wird.
An der Die-Size hätte das wohl nicht viel geändert.
Ronny145
2011-07-11, 16:48:12
Im Prinzip könnte AMD die Rechenleistung mit Trinitiy mehr oder weniger so belassen und dafür Stacked VRAM einsetzen (oder was auch immer es noch für Möglichkeiten gibt die Bandbreite stark zu erhöhen). Wäre sicher gut genug für einen großen Boost. Wenn AMD die theoretische Rechenleistung 50% zu Llano erhöht, wird vieles davon verpuffen. DDR3-2166 wird nächstes Jahr vermutlich auch noch lange nicht ins Mainstream gerutscht sein. Die OEMs werden wohl mehrheitlich gar auf 1333 oder 1600 Speicher setzen.
Ringwald
2011-07-11, 21:39:24
http://img36.imageshack.us/img36/1544/655277.jpg
Ich dachte die Mobos haben kein Chipsatz mehr?
Undertaker
2011-07-11, 21:49:39
Die Southbridge ist momentan weder bei AMDs noch Intels Desktop- oder Notebook-CPUs integriert. ;)
dildo4u
2011-07-11, 21:54:30
http://img36.imageshack.us/img36/1544/655277.jpg
Ich dachte die Mobos haben kein Chipsatz mehr?
http://www.abload.de/img/a75-fusion_hub_controlmpj7.png
Ringwald
2011-07-11, 21:58:58
Ok, dies macht AMD wohl wegen der Abwärme?
Hätte nicht gedacht das USB 3.0, SATA und Sound soviel Verbraten.
Gibt es durch Llano dann irgendwelche Vorteile für die OEMs im Notebook Sektor?
Undertaker
2011-07-11, 22:19:40
Es entfällt wie bei Arrandale/SB die Northbridge (wobei die zuletzt kaum mehr als den PCIe-Controller enthielt), zudem werden durch die starke IGP kleinere GPUs a'la HD6470M überflüssig.
AnarchX
2011-07-11, 22:38:53
Ok, dies macht AMD wohl wegen der Abwärme?
Hätte nicht gedacht das USB 3.0, SATA und Sound soviel Verbraten.
Nein, das Problem ist eher dass diese Ports viele Pins benötigt, die den CPU-Die nur unnötig groß machen würden, deshalb verwenden die Southbridges auch relativ alte Prozesse um den Die groß zu halten.
Eine moderne Southbridge benötigt kaum mehr als 5W maximal.
R.I.P.
2011-07-11, 22:44:12
http://www.tweaktown.com/reviews/4182/asus_f1a75_v_pro_amd_a75_motherboard_review/index1.html
Test des A8-3850 auf Asus F1A75-V Pro inkl. Spiele-Tests mit dedizierter Grafikkarte (6970). Scheint gegenüber einem X6 1100T gut mithalten zu können:D
fetthund
2011-07-12, 08:50:32
Haha, die 3d-Benches sind ja sowas von GPU-Limitiert:freak:
Das man sich da noch die Zeit nimmt, das Ergebnis mittels Chart zu visualisieren....
Schnitzl
2011-07-12, 15:57:43
ok, wer erklärt mir ide AvP-Werte? :freak:
Schaffe89
2011-07-12, 16:25:00
A8-3850 nähert sich langsam den 100€. Echt günstig muss ich sagen. Auf der anderen Seite ist das zu erwarten gewesen, die APU verkauft sich hauptsächlich über die CPU Leistung.
--------------------------------------------------------------------------------
Naja.. Ein etwa gleich schneller (vll bissl langsamerer) Athlon 645 mit 3,1ghz kostet doch erheblich weniger.
Ronny145
2011-07-12, 16:36:14
Naja.. Ein etwa gleich schneller (vll bissl langsamerer) Athlon 645 mit 3,1ghz kostet doch erheblich weniger.
Der liegt bei 77-80€. 25€ Differenz von gar keiner GPU zu Llanos GPU. Wenn ich bedenke, dass Intel schon 20€ Differenz nimmt zwischen HD2000 und HD3000, ist das nicht viel. Ich hatte das mehr auf die Konkurrenz ausgerichtet. i3-2100 kostet 92€, der etwas schnellere A8-3850 (multithread) kostet nur 10€ mehr, obwohl die GPU mehr als doppelt so flott ist zu der HD2000 im i3-2100.
R.I.P.
2011-07-12, 16:36:43
Haha, die 3d-Benches sind ja sowas von GPU-Limitiert:freak:
Das man sich da noch die Zeit nimmt, das Ergebnis mittels Chart zu visualisieren....
Das stimmt absolut, zeigt jedoch, daß in nicht besonders multithreading profittierenden Spiele (sorry für Wordkomposition) die sehr günstigen LLano CPUs mit ehemaligem AMD Topmodell mithalten können;
zu den AvP Werten: Das Spiel scheint besonders stark von DDr3 Speicher mit hohem Takt zu profitieren??
Schaffe89
2011-07-12, 16:40:00
Der liegt bei 77-80€. 25€ Differenz von gar keiner GPU zu Llanos GPU. Wenn ich bedenke, dass Intel schon 20€ Differenz nimmt zwischen HD2000 und HD3000, ist das nicht viel. Ich hatte das mehr auf die Konkurrenz ausgerichtet. i3-2100 kostet 92€, der etwas schnellere A8-3850 (multithread) kostet nur 10€ mehr, obwohl die GPU mehr als doppelt so flott ist zu der HD2000 im i3-2100
Da hast du schon recht.
AMD peilt mal wieder Kampfpreise an. Wird nicht mehr lange dauern bis das Topmodell unter 100 Euro fällt.
Wann soll denn eigentlich der A8-3870 kommen? Den könnte man dann ja deutlich über 100 Euro platzieren.
Schnitzl
2011-07-12, 17:14:53
Das stimmt absolut, zeigt jedoch, daß in nicht besonders multithreading profittierenden Spiele (sorry für Wordkomposition) die sehr günstigen LLano CPUs mit ehemaligem AMD Topmodell mithalten können;
zu den AvP Werten: Das Spiel scheint besonders stark von DDr3 Speicher mit hohem Takt zu profitieren??
schön, und warum ist der normale X6 schneller als der übertaktete? ;D
Undertaker
2011-07-12, 17:44:38
http://www.notebookcheck.com/Test-HP-Pavilion-dv6-6110eg-Llano-Notebook.56965.0.html
Afair das erste deutsche Review eines Seriengerätes. Die Crossfirelösung scheint immernoch nicht wirklich befriedigend zu sein, hoffentlich kommen noch mehr Geräte welche ausschließlich die kaum langsamere IGP verwenden. Die Akkulaufzeit beim Surfen ist wirklich gut und auf Konkurrenzniveau, der Realverbrauch unter Last mit 65W im 3DMark06 allerdings imho etwas zu hoch für die Leistungsfähigkeit (sicher auch dem ineffizienten Crossfire geschuldet).
Die Plattform prinzipiell macht keinen schlechten Eindruck, aber wirklich nette Geräte gibt es bisher imho noch nicht... :(
Die Plattform prinzipiell macht keinen schlechten Eindruck, aber wirklich nette Geräte gibt es bisher imho noch nicht... :(
Die HP Probooks sehen doch ganz ok aus? Sind halt noch nicht lieferbar, aber das ist ja nur eine Frage von ein paar Wochen...
z.B.: http://gh.de/a657293.html
Undertaker
2011-07-12, 18:08:35
Wäre es nur statt dem A6 der A8-3510/3530... :) Auf jeden Fall positiv, dass auf die kaum schnellere zusätzliche GPU verzichtet wird, die nur unnötig Preis und Verbrauch erhöht. In Verbindung mit einem Akku >~70Wh ergäbe das auch einen schönen Konkurrenten für Acers Timeline Modelle.
fondness
2011-07-12, 18:11:47
Ich finde vor allem die 14"-Modelle sexy:
http://gh.de/a658148.html
Aber abwarten, bis jetzt sind ja fast ausschließlich ein paar HP-Geräte gelistet.
Ringwald
2011-07-12, 19:21:16
Nein, das Problem ist eher dass diese Ports viele Pins benötigt, die den CPU-Die nur unnötig groß machen würden, deshalb verwenden die Southbridges auch relativ alte Prozesse um den Die groß zu halten.
Eine moderne Southbridge benötigt kaum mehr als 5W maximal.
Ich hätte jetzt angenommen die zusätzlichen Pins nur das Package vergrößern würden, aber nicht die CPU-Die selbst. Somit sollte ein etwas größeres Package ja eigentlich billiger als eine extra Southbrigde mit eigener Kühlung sein.
Hab ich da ein Denkfehler?
Ich finde vor allem die 14"-Modelle sexy:
http://gh.de/a658148.html
Aber abwarten, bis jetzt sind ja fast ausschließlich ein paar HP-Geräte gelistet.
Ich hoffe die Rutschen bald in die HP625er Preisregion ;)
mironicus
2011-07-12, 21:05:02
Na ob der Preis des Llano schon morgen unter 100 Euro fällt? Momentan kostet er 100,95. :D
Brillus
2011-07-12, 23:43:34
Ich hätte jetzt angenommen die zusätzlichen Pins nur das Package vergrößern würden, aber nicht die CPU-Die selbst. Somit sollte ein etwas größeres Package ja eigentlich billiger als eine extra Southbrigde mit eigener Kühlung sein.
Hab ich da ein Denkfehler?
Man kann an einen Chips auch nur begrenzt viel Pins bei einer gegebenen Größe anschliessen. Hab mal irgendwo was von 1mm Abstand zwischen den einzelnen Pins am Chips gelsen, kann aber auch sein das cih mcih da total irre.
mironicus
2011-07-13, 15:31:20
Meh... wann gibt es denn endlich mal einen breit angelegten Motherboard-Test für LLano-CPUs? Der Idle-Stromverbrauch würde mich am meisten interessieren (ohne diskrete Grafikkarte, am besten mit 90%-Netzteil oder Pico-PSU).
Ringwald
2011-07-13, 19:33:14
Man kann an einen Chips auch nur begrenzt viel Pins bei einer gegebenen Größe anschliessen. Hab mal irgendwo was von 1mm Abstand zwischen den einzelnen Pins am Chips gelsen, kann aber auch sein das cih mcih da total irre.
Dann konnte man ja so was machen:
http://f.666kb.com/i/bv69ydrlbmojguzue.png
APU und Southbridge im selben Package aber jeweils eigene Pins.
anddill
2011-07-13, 20:15:50
Na ob der Preis des Llano schon morgen unter 100 Euro fällt? Momentan kostet er 100,95. :D
Und schon ist es soweit. Bei 5 Shops unter 100€. Und an 2. Stelle der Geizhals Most-Wanted Liste.
Ronny145
2011-07-13, 20:19:11
Und schon ist es soweit. Bei 5 Shops unter 100€. Und an 2. Stelle der Geizhals Most-Wanted Liste.
Naja 2 Shops sind es.
Sorkalm
2011-07-13, 20:50:32
Naja 2 Shops sind es.
Klassisches Beispiel für "ich will beim Preisvergleich vorn sein". Der Algortihmus unterbietet den Verkaufspreis des anderen Händers um jeweils einen Cent - dummerweise oder absichtlich wohl auch bei den anderen Shops des jeweiligen Unternehmens. ;)
Ronny145
2011-07-13, 21:08:28
Klassisches Beispiel für "ich will beim Preisvergleich vorn sein". Der Algortihmus unterbietet den Verkaufspreis des anderen Händers um jeweils einen Cent - dummerweise oder absichtlich wohl auch bei den anderen Shops des jeweiligen Unternehmens. ;)
Mindfactory, Compuland, Vibu und Drivecity gehören zusammen, zähle ich als eins. Deswegen beträgt der Abstand meist jeweils nur 1 cent zwischen den shops.
Dann konnte man ja so was machen:
http://f.666kb.com/i/bv69ydrlbmojguzue.png
APU und Southbridge im selben Package aber jeweils eigene Pins.
Und was hat man dann davon? Kostenersparnis is nich. bessere Performance fällt auch flach. Der einzige "Vorteil" liegt dann in der erschwerten Mainboard-Verdrahtung und in der gestiegenen TDP.
Ergo: So wie's is isses schon nich schlecht.
Ronny145
2011-07-13, 21:59:39
Und was hat man dann davon? Kostenersparnis is nich. bessere Performance fällt auch flach. Der einzige "Vorteil" liegt dann in der erschwerten Mainboard-Verdrahtung und in der gestiegenen TDP.
Ergo: So wie's is isses schon nich schlecht.
Könnte aber früher oder später kommen. Bei Intel wird es mit Haswell ein Soc Design geben für mobile CPUs laut diverser Meldungen.
Ringwald
2011-07-13, 22:45:31
Und was hat man dann davon? Kostenersparnis is nich. bessere Performance fällt auch flach. Der einzige "Vorteil" liegt dann in der erschwerten Mainboard-Verdrahtung und in der gestiegenen TDP.
Ergo: So wie's is isses schon nich schlecht.
Ich dachte die Southbridge verbraucht nur 5 Watt, sollte doch eigentlich nicht wirklich ins Gewicht fallen. Also ich halte ein SoC schon für eine Kostenersparnis. Aber gut, ich danke zu eher ins Embedded Bereich.
Beim Einsatzbereich von SoCs hält sich das PinOut auch deutlich in Grenzen. Da müssen keine zig USB-, SATA- und wasweißichnochalles-Anschlüsse bereitgestellt werden. Ich denke heutige Chipsätze sollte man fast auschließlich als eine Art Unterverteilung sehen.
mironicus
2011-07-14, 19:02:47
Gibt es schon irgendwelche Anzeichen, wann erste Mini-ITX Platinen für Llano erscheinen...?
Schaffe89
2011-07-15, 01:26:31
Ich bin auch schon vergeblich am Suchen.
Ich brauche einen HTPC zum Arbeiten und Blue Ray Schauen und für das ein oder andere Spiel mal im CoOp.
Ich will kein Intel System mit deutlich langsamerer IGP.
Vielleicht läuft es sogar auf eine richtig billige Brazos Combo hinaus.
Aber da habe ich Angst dass er zum Arbeiten zu langsam ist und zum Blue Ray gucken auch.
y33H@
2011-07-15, 02:09:14
Ein Brazos ist flott genug für Blu-ray, Office und Browser.
Ein Brazos ist flott genug für Blu-ray, Office und Browser.
auf jeden!:up: und außerdem noch total sparsam, cool und damit leise:D
dilated
2011-07-15, 12:54:35
brazos reicht.....
habs auch erst nicht geglaubt^^
llano 1 könnte man auslassen imho
und gleich mit bulldozer kernen (llano 2) anfangen
und gleich mit bulldozer kernen (llano 2) anfangen
Entweder Du schreibst Bulldozer2, oder Trinity, Llano 2 gibts nicht ;)
Twodee
2011-07-15, 16:58:07
Ein Brazos ist flott genug für Blu-ray, Office und Browser.
Für eine kleine Mini-ITX Daddelkiste *für*neben*den*tv* ist Brazos leider zu lahm, da wäre LLano@MiniITX schon *geil*
mironicus
2011-07-15, 20:38:44
Wie heiß dürfen die Llano-Prozessoren eigentlich maximal betrieben werden? Bei Phenom-Prozessoren gibt es je nach TDP 62-70 Grad. Brazos darf glaube ich max. 90 Grad heiß werden. Bei AMD finde ich keine Angaben dazu.
Schaffe89
2011-07-17, 13:03:49
Ein Brazos ist flott genug für Blu-ray, Office und Browser
Na dann, du musst es ja wissen. :)
Für eine kleine Mini-ITX Daddelkiste *für*neben*den*tv* ist Brazos leider zu lahm, da wäre LLano@MiniITX schon *geil*
Ich hab das System mit Pico PSU bereits laufen, heute ganz frisch.
CSS geht ohne Ruckeln, mal sehen obs in Low Settings just for Fun für Res Evil 5 reicht.
Ein 1,6-GHz-Brazos ist auf jeden Fall schnell genug für HD-Filme. Ein C-50 mit seinen 2x 1,0 GHz kann aber, je nach Player, Film und Funktion der GPU-Beschleunigung, das Kotzen bekommen.
MfG,
Raff
y33H@
2011-07-17, 13:19:30
Wenn die GPU den Codec nicht beschleunigt, ruckelt 1080p wegen der CPU.
Yep. Das sollte nicht sein, aber bei VLC & Co. kann schon mal das Gespacke auftreten. Hat man dann 1,5/1,6 GHz anstatt 1,0, bleibt genug Bums übrig, um zumindest eine konstante Bildfolge zu erhalten. ;)
MfG,
Raff
Schnitzl
2011-07-17, 19:19:29
Also mein Aspire One mit C-50 spielt alles bis 720p ab (1080p hab ich nicht versucht, erscheint mir etwas sinnfrei)
Knuddelbearli
2011-07-17, 22:42:52
HTPC 1080p und Sinnfrei ? ähm ja ^^
y33H@
2011-07-17, 22:58:34
Das Aspire One ist ein Netbook mit einer 720p-Auflösung :rolleyes: Da ist 1080p natürlich sinnlos ...
fondness
2011-07-19, 11:26:44
Im Q4 kommt ein A8-3870 mit offenen Multiplikator und hoffentlich neuem Stepping mit höheren Taktraten und ordentlichem Turbo:
http://img19.imageshack.us/img19/1949/amdfusiona38702dhfx57.jpg (http://img19.imageshack.us/i/amdfusiona38702dhfx57.jpg/)
http://www.donanimhaber.com/islemci/haberleri/Ozel-Haber-AMD-carpan-kilidi-acik-FusionA8-3870-islemcisini-hazirliyor.htm
Ronny145
2011-07-19, 11:43:36
Charlie hat was von Q1 gehört für Trinity. Kann natürlich Mist von ihm sein. Wenns stimmt, besser darauf spekulieren. Der A8-3850 ist übrigens auf unter 95€ gesunken in 2 Läden. Wo wollen die 2 shops noch hin? Die große Masse an shops verkauft für um die 110€.
Fabian_HT4U
2011-08-02, 07:42:43
Wir haben uns nun noch einmal die Leistung der iGPU von Llano angenommen und dabei nicht nur den A8-3850 mit HD 6550D sondern auch den kleineren A6-3650 mit HD 6530D vermessen.
http://ht4u.net/reviews/2011/amd_llano_grafikleistung/
Grüße
Fabian
Schaffe89
2011-08-02, 13:57:16
Echt cooles review, danke dafür.
Ein bisschenenttäuschend finde ich, dass der A6-3650 trotz 300 mhz weniger mit der gleichen Spannung arbeitet und somit fast gar nichts einspart.
P3DN hat einige ergänzende Betrachtungen online gestellt: http://www.planet3dnow.de/vbulletin/showthread.php?t=397166
MMn grottiges Mobo. Undervolting ist beeindruckend effektiv, die hohe VID ist in Anbetracht dessen echt unverständlich...
anddill
2011-08-05, 15:24:19
Dieser Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=512034&page=3) brachte mich ins grübeln, wie ein Llano mit GTA4 klarkommt. 4 Cores und praktisch unbegrenzt Grafikspeicher sollte doch zu den Eigenheiten dieses Spiels passen. Gibts da irgendwo Vergleiche?
dildo4u
2011-08-05, 15:30:09
1366x768 und mittleren-hohe Details 32fps.
http://www.notebookcheck.com/AMD-A8-3850-Der-schnellste-Desktop-Llano-im-Test.57611.0.html
y33H@
2011-08-05, 15:39:17
@ anddill
GTA4 nimmt das als Maßstab, was du der IGP im BIOS zuweisen kannst und das sind (iirc) "nur" 512M.
@ dildo4u
NBC nutzen meines Wissens den internen Bench, der läuft deutlich schneller.
dildo4u
2011-08-05, 15:44:08
Saugt die GPU so viel von der Power?Ohne den IGP sinds 60fps im Bench.Deshalb könnte es imo Ingame sein.
http://www.technic3d.com/review/cpu-s/1266-lynx-plattform-amd-a8-3850/8.htm#GrandTheftAuto4
anddill
2011-08-05, 15:50:41
Ist halt nur ein IGP, und wenn das Spiel damit tatsächlich auf 512MB Grafikspeicher begrenzt ist, dann passt es doch mit den Zahlen.
Ich dachte halt, dass der Llano flexibler mit den RAM umgehen kann bzw. irgend wo weiter oben war beschrieben, dass er Speicherbereiche einfach ummappen kann, statt die Daten real umzukopieren. Aber wenn das Spiel meint, es hat nur 512MB zur Verfügung, dann verpufft das.
y33H@
2011-08-05, 16:08:54
Ja, der kann schon ummappen und sich innerhalb der APU Daten zuschieben - aber iirc (!) nimmt GTA4 eben den BIOS-Wert. Bei Gelegenheit schau ich nach ...
Ronny145
2011-08-05, 16:20:16
@ anddill
GTA4 nimmt das als Maßstab, was du der IGP im BIOS zuweisen kannst und das sind (iirc) "nur" 512M.
Ich habe bei Llano Boards eine 1 GB Zuweisung gesehen. Das ist aber nicht der tatsächliche Speicher, der zur Verfügung steht. Zur Verfügung steht der gesamte RAM der Grafik, ist bei Sandy Bridge auch nicht anders.
/vielleicht nicht der gesamte RAM. Bei Sandy Bridge kann ich 512 MB Max einstellen, was allerdings nur ein Problem wäre bei der Grafikeinstellung (lässt sich umgehen). Der Grafik steht 1,7 GB oder so ähnlich zur Verfügung bei 4 GB Systemspeicher. Nennt sich Dynamic Video Memory Technology. Mit 8 GB Systemspeicher sollte sich das erhöhen. Bei Llano wird es ähnlich sein.
mironicus
2011-08-05, 18:52:03
Mehr sollte bei Llano auch gehen...
Ich kann bei meinem E350-Mainboard von Asus sogar bis zu 2 GB für Grafik vom Hauptspeicher abzwacken. Die sind dann auch fest und Windows meldet dann auch, dass entsprechend weniger Speicher zur Verfügung steht.
Wer es braucht... :D
Ronny145
2011-08-05, 18:59:00
Mit der dynamischen Verteilung in Win 7 braucht man da nichts mehr abzwacken. Die Grafik nimmt sich den Speicher von alleine. Sinn macht es eigentlich nur wenn das Spiel die Grafikeinstellungen am sichtbaren VRAM festmacht. Wie in GTA4, lässt sich aber aushebeln.
anddill
2011-08-05, 19:03:02
Mir kam halt nur der Gedanke, daß das ein echter Vorteil des APU-Konzepts sein könnte, wenn die Spiele (oder andere Anwendungen) sich beliebig Grafikram grapschen können. Aber anscheinend muss dazu die (Spiele)-Software dazu speziell angepasst werden.
AnarchX
2011-08-05, 19:13:17
Aber wozu sollte das nötig sein? Für solche riesigen Framebuffer, was wohl der Zuweisung im BIOS entspricht, fehlt der IGP wohl die Leistung.
Texturen können auch im normalen RAM ausgelagert werden, der beim Fusionkonzept schneller angebunden ist, als bei einer dGPU über PCIe.
Und die Software wird durch die aktuellen Konsolen eher auf einen kleinen VRAM und Streaming angepasst.
anddill
2011-08-05, 19:28:05
Dumm nur, wenn die Software sich künstlich einschränkt, statt den reichlich vorhandenen RAM zu nutzen. Und die Leistung der IGPs wird ja in Zukunft steigen.
GTA4 wäre hier ein interessanter Sonderfall, da es ja recht wenig GPU-Rechenleistung braucht und daher schon heute von dem Speicherkonzept profitieren könnte.
AnarchX
2011-08-05, 19:32:30
Zum Test nehme man am besten eine A8-3850 her und teste einmal mit IGP@512MiB und nochmals mit einer HD 5570 512MiB mit angepasstem Takt.
Bei PCGH skalierte damals eine 4870 sehr gut mit dem PCIe-Takt: http://www.pcgameshardware.de/aid,674363/GTA-4-512-MiByte-Grafikkarten-richtig-ausnutzen/Action-Spiel/Test/?page=2
Die Anbindung bei Llano sollte deutlich breiter sein als die 8GB/s eines x16 Gen2 PEG.
anddill
2011-08-05, 19:37:14
Na dann los. Ich hab weder einen A8-3850, eine HD 5570 oder GTA4. Interessant wäre es dann noch, mal mit verschiedenen Speicherreservierungen im BIOS zu experimentieren.
Ronny145
2011-08-06, 19:09:55
Dumm nur, wenn die Software sich künstlich einschränkt, statt den reichlich vorhandenen RAM zu nutzen. Und die Leistung der IGPs wird ja in Zukunft steigen.
GTA4 wäre hier ein interessanter Sonderfall, da es ja recht wenig GPU-Rechenleistung braucht und daher schon heute von dem Speicherkonzept profitieren könnte.
Wieso einschränkt? Da schränkt sich gar nichts ein.
Bei AMD heißt das HyperMemory.
http://www.techpowerup.com/reviews/AMD/A8-3850_Fusion_GPU_Performance/14.html
VooDoo7mx
2011-08-07, 20:19:54
GTA4 wäre hier ein interessanter Sonderfall, da es ja recht wenig GPU-Rechenleistung braucht und daher schon heute von dem Speicherkonzept profitieren könnte.
Woher hast du den Quark? Mit einer schnellen CPU, also keiner von AMD, kann man bei GTA 4 problemlos eine GTX 580 auslasten.
Nur wenn man mit einer lahmen AMD CPU in diesen Spiel permanent am CPU Limit schrammt, benötigt man aber in der Tat keine schnelle Grafikkarte.
Knuddelbearli
2011-08-07, 21:27:02
jaja unser alter Intel fanboy ^^
http://www.pc-max.de/artikel/prozessoren/sandy-bridge-intel-core-i5-2500k-und-core-i7-2600k/7716
und der X6 ist da gar nicht dabei
y33H@
2011-08-07, 21:33:17
Integrierter Benchmark im Grafiklimit ... toll :uclap:
und der X6 ist da gar nicht dabei Der bringt pro Takt auch nicht mehr als ein X4.
Ronny145
2011-08-07, 21:37:30
jaja unser alter Intel fanboy ^^
http://www.pc-max.de/artikel/prozessoren/sandy-bridge-intel-core-i5-2500k-und-core-i7-2600k/7716
und der X6 ist da gar nicht dabei
GPU Limit. Und 60 fps deuten nicht auf eine sinnvolle Testerei hin.
Knuddelbearli
2011-08-07, 21:54:38
800x600 gpu limit ?
ähm ja ^^
sonst habe ich nur test ohne SB gefunden, wo er dann sicher meckern würde da ich dann den 995X hernehmen müsste als vergleich ( der in GTA4 vor dem 2600K ist ), was ihm aber sicher auch nicht passen wird
y33H@
2011-08-07, 22:00:59
Wenn's kein GPU-Limit ist, warum kleben dann so viele CPUs bei 64/65 Fps? Du willst mir doch nicht ernsthaft erzählen, dass ein i7-920 mit 2,67 GHz und geringerer IPC so schnell sein soll wie ein i7-2600K mit 3,40 GHz?! :facepalm:
Ronny145
2011-08-07, 22:09:29
Ab einer gewissen CPU Leistung gehört auch eine schnelle GPU dazu.
http://www.hardware.fr/articles/815-21/gta-4-anno-1404.html
Der Test ist besser, aber auch hier rennen einige CPUs bei knapp 40 fps ins GPU Limit. Sonst müsste der Unterschied zwischen i5-2300 und i5-2600k größer ausfallen.
Knuddelbearli
2011-08-07, 22:09:44
nö will ich nicht aber ebenso kann es bei 800x600 kein so extremes gpu limit sein
allgemein scheint in GTA es nicht möglich zu sein in 3 stellige fps vorzurücken
@ Ronny145
schöner link aber da passt auch vieles nicht zsuammen zB bringen scheinbar 6 Kerne nix obwohl GTA4 eigentlich Kerne mag, aber zeigt auch gut das AMD eben nicht wie unser Intel fanboy behauptet rotz ist ^^
Ronny145
2011-08-07, 22:16:57
@ Ronny145
schöner link aber da passt auch vieles nicht zsuammen zB bringen scheinbar 6 Kerne nix obwohl GTA4 eigentlich Kerne mag, aber zeigt auch gut das AMD eben nicht wie unser Intel fanboy behauptet rotz ist ^^
Seit wann bringen in GTA4 mehr als 4 Kerne einen bedeutsamen Vorteil? Kannst Du einen Test verlinken? Mir war so als wenn ab dem 4. Kern die Skalierung eher schwach ausfällt.
y33H@
2011-08-07, 22:23:11
nö will ich nicht aber ebenso kann es bei 800x600 kein so extremes gpu limit seinNatürlich kann es das :rolleyes: Du kannst auch bei 320x240 ein GPU-Limit bei 65 Fps haben ...
Schaffe89
2011-08-07, 22:43:52
Natürlich kann es das Du kannst auch bei 320x240 ein GPU-Limit bei 65 Fps haben ...
Aber in diesem Bench niemals.
Da muss was anderes schief gelaufen sein. Die FPS müssten weiter ansteigen bei 800x600.
Das ist kein Grafiklimit, da limitiert was anderes.
Ronny145
2011-08-07, 22:51:11
Aber in diesem Bench niemals.
Da muss was anderes schief gelaufen sein. Die FPS müssten weiter ansteigen bei 800x600.
Das ist kein Grafiklimit, da limitiert was anderes.
Das glaube ich nicht. Deutet stark auf GPU Limit hin.
y33H@
2011-08-07, 22:52:28
Aber in diesem Bench niemals. Da muss was anderes schief gelaufen sein. Die FPS müssten weiter ansteigen bei 800x600. Das ist kein Grafiklimit, da limitiert was anderes.Müssen sie nicht. Ich habe das Spiel oft genug gebencht. Das ist ein GPU-Limit und sonst nichts.
Schaffe89
2011-08-08, 11:24:22
Beim Wechseln der Auflösung nur so wenig FPS-Zugewinn?
Schon komisch.
Liszca
2011-08-09, 00:57:15
hab mir den ganzen thread jetzt nicht durchgelesen.
Suche aber ne software die mir die dvd umwandlung für mein android handy beschleunigt.
keine ahnung wonach ich suchen soll, finde irgendwie nicht so recht was ich will ...
Ferengie
2011-08-09, 11:35:48
MediaEspresso (http://de.cyberlink.com/products/mediaespresso/overview_de_DE.html)
anddill
2011-08-14, 12:58:36
Ich hatte jetzt ein Llano-System in den Fingern. War ein Auftragswerk und ich hatte leider keine Gelegenheit groß rumzutesten. Was mir allerdings aufgefallen ist, ist ein extrem niedriger Wert für die Speicherleistung bei der Win7-Leistungsbewertung. Normaler DDR3-1333 mit einem Phenom landet da bei 7,x, der A8-3850 (http://geizhals.at/deutschland/653204) auf einem ASRock A75 Pro4-M (http://geizhals.at/deutschland/655278) landete reproduzierbar auf 5,9. Ist das ein Einzelfall oder "normal"? Irgendwo hakts da anscheinend im Getriebe.
Liszca
2011-08-14, 16:21:11
Ich hatte jetzt ein Llano-System in den Fingern. War ein Auftragswerk und ich hatte leider keine Gelegenheit groß rumzutesten. Was mir allerdings aufgefallen ist, ist ein extrem niedriger Wert für die Speicherleistung bei der Win7-Leistungsbewertung. Normaler DDR3-1333 mit einem Phenom landet da bei 7,x, der A8-3850 (http://geizhals.at/deutschland/653204) auf einem ASRock A75 Pro4-M (http://geizhals.at/deutschland/655278) landete reproduzierbar auf 5,9. Ist das ein Einzelfall oder "normal"? Irgendwo hakts da anscheinend im Getriebe.
kann man das nicht mit dem betriebsmodus des speicherkontrollers (ganged / unganged) beeinflussen=?
anddill
2011-08-14, 16:39:25
Gibts nicht mehr. Forever unganged :D
Liszca
2011-08-14, 17:11:09
Gibts nicht mehr. Forever unganged :D
wie war die lüftersteuerung vom board?
anddill
2011-08-14, 17:48:06
Asrock-typisch. 1-9 als Basisdrehzahl, wobei 1 etwa 50% ist, und eine Zieltemperatur, die ich auf der Vorgabe von 50°C gelassen hab. Geregelt werden ausschließlich per PWM (4-Pol) zwei CPU-Lüfter syncron und ein Gehäuselüfter.
Der Boxed-Kühler gammelt so bei rund 1900RpM rum und die CPU hat 28°C.
Fabian_HT4U
2011-08-16, 17:53:20
Wir haben uns einmal den A6-3650 angesehen und er schneidet bei der aktuellen Preislage fast besser ab als der A8-3850. Bin mal gespannt wie es weiter geht...
http://ht4u.net/reviews/2011/amd_llano_a6_3650/
Grüße
Fabian
Fabian_HT4U
2011-08-18, 09:34:43
Endlich hat AMD einmal den VID-Bereich herausgerückt. Die aktuellen Modelle sind echt hart auf Kante gebaut.
http://ht4u.net/news/24208_amd_enthuellt_weiter_spezifikationen_der_llano-apus_-_spannungen_aktuell_am_oberen_limit/
grüße
Fabian
Ronny145
2011-08-18, 09:57:07
AMD's latest Llano-based processors are currently suffering from shortages due to the weaker-than-expected yield rates of the related 32nm process; however, AMD has already notified its partners that the shortage should be resolved by early September, according to sources from motherboard makers.
http://www.digitimes.com/news/a20110817PD224.html
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.