PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Geschwindigkeitsvergleich X86 und ARM


peddapille
2015-02-14, 13:36:48
Hallo,

mir kam im Rahmen dieses Golem-Artikels (http://www.golem.de/news/cortex-a72-arms-neuer-top-smartphone-kern-verdoppelt-die-effizienz-1502-112134.html) die Frage, wie schnell die Handprozessoren im Vergleich zum PC eigentlich mittlerweile sind!?

Der A72 soll 3.5x so schnell sein, wie der A15. Aber wie viele MFLOPs haben die denn so? Hat einer Werte? (Mein Phenom II von 2009 hat ~7.500MFLOPs)

Ganon
2015-02-14, 14:01:35
http://www.extremetech.com/extreme/188396-the-final-isa-showdown-is-arm-x86-or-mips-intrinsically-more-power-efficient/2

Hier mal ein paar Übersichten, die auch etwas über den Energieverbrauch aussagen.

Prinzipiell ist ein Desktop-Prozessor von Intel immer noch ein ganzes Stück entfernt von dem ganzen ARM-getummel. In dem Bereich prügeln sie sich eher mit dem Intel Atom um die Leistungskrohne, was schon mal recht viel aussagt.

Spasstiger
2015-02-14, 14:14:58
Um welchen Anwendungsbereich geht es dir denn? Ein Vergleich der Rechenleistung in Flop/s ist bei CPUs fast nur für wissenschaftliches und kommerzielles Hochleistungsrechnen (HPC) interessant, also z.B. Durchführung von Simulationen oder Renderjobs.
Für typische Endanwender-Applikationen wie z.B. Internet-Browser, Spiele, Medienwiedergabe oder grafische Betriebssystem-Oberflächen zählen meist andere Qualitäten.
Ein Core i5-2500K hat z.B. mit theoretisch 211 GFlops bei einfacher Genauigkeit die theoretisch mehr als 2,3-fache Rechenleistung eines Core i5-760 mit 90 GFlops. In einem Anwendungs- und Spielerating ist der i5-2500K dann aber doch nur 1,23-mal so schnell: http://www.computerbase.de/2011-01/test-intel-sandy-bridge/46/.

robbitop
2015-02-14, 14:24:30
GFLOPs sagen bei CPUs genau nichts aus. Es gibt bessere Cross Plattform Benchmarks.

Im Moment sind die IPC stärksten ARMs in etwa auf Core 2 Niveau. Haswell hat in etwa 2x IPC und 2-3x Takt. Also 4...6x Leistung.

Die lustigen Angaben von ARM über A72 sind IMO sehr zweifelhaft. A15 brachte rund 30..40 % IPC ggü A9. A9 brachte ähnlich viel ggü A8. A57 ebenfalls in etwa diesen Betrag ggü A15. Mehr würde ich auch für A72 nicht erwarten.

Vor dem Hintergrund muss man auch sagen, dass sich die IPC Vergrößerungen mit Leistungsaufnahme erkauft werden.

Prinzipiell ist es aber möglich, CPUs mit ARM Instruktionssatz zu entwickeln, die vergleichbar schnell sind. Die ISA sollte heutzutage fast schon zweitrangig sein, da der Kern (hinter den Decodern) selbst um ein vielfaches komplexer geworden ist als es früher mal war.

dildo4u
2015-02-14, 15:07:20
Snapdragon 810 nutzt Arm 57 Cores.

http://abload.de/img/snapdragon_810-geekbes7uo9.png

http://www.tomshardware.com/reviews/snapdragon-810-benchmarks,4053-4.html

Geekbench 3 Multicore 64 Bit Score.

http://abload.de/img/zwischenablage02ksu90.png


http://browser.primatelabs.com/processor-benchmarks#4

peddapille
2015-02-14, 15:32:28
Danke Jungs!

Ich weiß, dass das ganze natürlich stark von den Anwendungen abhängt
(im Extremfall rechnen kleine ASICs Spezialaufgaben viel schneller als PCs usw...)

Ich habe auch keinen besonderen Anwendungszweck, außer die einfache
Frage, was heutige Smartphone-Technologie im Stande ist, potenziell zu
leisten (im Vergleich zu meinem 6 Jahre alten PC).


@Dildo4u: Der Link ist interessant!
In dieser Sprechweise kann man schon sagen, dass ein i7-5960X (30.000)
ungefähr 5x so schnell ist, wie mein Phenom II 940 (6.000). Der Atom Z3795
kommt hier auf 3.000 und wäre halb so schnell.

@Ganon:
Nach Fig. 11 deines Links liegt die Performance eines i7 bei "5" und die
des A15 bei "1.5". Richtig?
D.h. Die aktuellen Handyprozessoren wären leistungsmäßig schon zu
vergleichen mit meinem PC, oder?!
Fazit (?): Die Smartphone-Leistung ist dem PC 6 Jahre "hinterher"?

robbitop
2015-02-14, 16:33:00
Synthetische Multicorebenchmarks - die bilden super die Realität ab... :freak:

Ganon
2015-02-14, 16:47:17
Fazit (?): Die Smartphone-Leistung ist dem PC 6 Jahre "hinterher"?

Durchaus möglich. Aber reine CPU-Leistung sagt ja auch nichts über die Gesamtleistung aus. Da spielen ja noch Faktoren wie die Speicheranbindung und GPU ein.

Gerade wenn du einen 6 Jahre alten PC nimmst und dann ein moderneres Spiel nimmst, dann könnte das auf dem ARM-Kern besser laufen, weil halt bessere GPU...

Das heißt du wirst mal so, mal so Benchmarks finden.

Und dann schlägt auch sehr gerne die Realität zu. Da hast du dann eine CPU die auf dem Papier und in Benchmarks gut ist, aber deine Java/Mono/.NET/Flash Anwendung läuft schlecht, weil der Just-In-Time Compiler entweder nicht existent oder noch schlecht optimiert ist.

Das ist auch eines der Dinge die damals Apple mit den PowerPCs auf die Füße gefallen ist. Die CPUs an sich waren in Benchmarks anfangs vllt. noch schneller, aber so Sachen wie Flash, Java und Co. liefen elendig träge.

fdk
2015-02-14, 17:29:18
Lass einfach einen js Benchmark im Browser auf den Geräten laufen die du vergleichen willst. (Octane, etc.)
Da es dirwohl nicht um die theoretische Leistungsfähigkeit geht, sondern um die reale Performance ist das wohl der schnellste weg.

Exxtreme
2015-02-14, 17:31:50
Fazit (?): Die Smartphone-Leistung ist dem PC 6 Jahre "hinterher"?
Ich würde eher 10 Jahre denn 6 Jahre schätzen. Desktop-CPUs haben noch andere Dinge wie Out of order-Execution, beträchtlich schnellere RAM-Anbindung etc. was man bei Smartphones einspart wegen Stromverbrauch. Aber wie schon im Thread erwähnt das hängt davon ab wo man die Vergleiche zieht.

lumines
2015-02-14, 17:38:58
Desktop-CPUs haben noch andere Dinge wie Out of order-Execution, beträchtlich schnellere RAM-Anbindung etc.

Mindestens der aktuelle Cortex A57 ist allerdings auch eine Out-Of-Order-Architektur.

Tesseract
2015-02-14, 17:42:11
6 jahre?
vor 6 jahren gab es lynnfields und GPUs auf basis des GT200. ihr könnt doch nicht allen ernstes davon ausgehen, dass die heutigen ARM-chips da abseits von ein paar synthetikbenchmarks und für die alten architekturen sehr ungünstigen spezialfällen auch nur in die nähe kommen. der moderneren architektur steht da ein vielfaches der rechenleistung und bandbreite gegenüber.

Ich würde eher 10 Jahre denn 6 Jahre schätzen.
realistisch sind wohl eher so ~8 jahre. vor 10 jahren hatten wir noch den p4 und GPUs vor dem G80 und da sieht es mit der performance schon richtig düster aus.

Botcruscher
2015-02-14, 17:52:44
HBM dürfte für alle ein extremer Sprung werden.

Coda
2015-02-14, 18:01:46
Mindestens der aktuelle Cortex A57 ist allerdings auch eine Out-Of-Order-Architektur.
Alles ab Cortex-A9 ist OoO. Davon gibt's natürlich aber viele Komplexitätsstufen.

Ailuros
2015-02-14, 19:05:02
Synthetische Multicorebenchmarks - die bilden super die Realität ab... :freak:

Mir tut nur der Leser leid der glauben wuerde dass er mit einem S810 smartphone ploetzlich desktop CPU Leistung haben wuerde.

---------------------------------------------------


Fuer den threadstarter:

1. Hat die single threading Leistung ein brutales Nachsehen bei ARM cores im Vergleich zu heutigen oder sogar gestrigen desktop CPUs.

2. Ein smartphone bzw. jegliches ULP mobile Geraet kann nicht unendlich Strom vebrauchen ergo wird via DVFS in vielen Stellen die Leistung gedrosselt sobald die N Temperatur errreicht wird. Wenige bis gar keine Geraete koennen ihre gemessene Peak Leistung in Echtzeit ueber laengere Zeit einhalten.

3. Ein S810 hat zwei CPU quads im big.LITTLE config; mir ist egal ob es jetzt ein 80:20, 70:30 oder 60:40 ratio beim Einsatz der A53 gegen die A57 cores sein sollte, aber die tollen geekbench Resultate gelten NUR fuer die A57 cores die am wenigsten eingesetzt werden. Die meiste Schufterei faellt auf die "LITTLE" cores.

4. A57/A15 sind OoO cores mit fettem IPC und fettem Stromverbrauch, waehrend A53/A7 in order sind mit einem bescheidenerem IPC und Stromverbrauch; noch dazu haben die "LITTLE" cores eine geringere minimale und maximale Frequenz im Vergleich zu "big" cores. Beim A53 sind leider die Zahlen fuer die area und Verbrauch nicht so gut wie beim A7.

Hat man das obrige Kauderwelsch jetzt als Leser verstanden (schwer zu sagen denn es ist ziemlich kompliziert), dann kann man ihm auch realistisch folgendes erzaehlen:

http://www.realworldtech.com/forum/?threadid=147766&curpostid=147801

Depending on the workload we're seeing anywhere between 10-50% more clock-for-clock performance than Cortex-A57 under identical system conditions while also reducing power. I'm talking about a range of decent sized, representative workloads, not micro-benchmarks. More information on the micro-architecture and said workloads will be disclosed in due course! :)

Momentan hat ARM noch keinen "LITTLE" A7x core entwickelt, was heisst dass womoegliche erste A72 Integrierungen in big.LITTLE configs mit A53 cores sein werden, ergo noch ein gutes Stueck naeher an der echten Leistung eines S810 oder jeglichem big.LITTLE SoC mit vergleichbaren Frequenzen.

Nette Lektuere fuer u.a. heutige big.LITTLE configs: http://www.anandtech.com/show/8718/the-samsung-galaxy-note-4-exynos-review

y33H@
2015-02-14, 20:44:59
Alles ab Cortex-A9 ist OoO. Davon gibt's natürlich aber viele Komplexitätsstufen.Er meint wohl den A53 (In-Order) statt A57 (OoO).

tdon
2015-02-15, 04:06:45
Geekbench wird gerne von ARM Jüngern benutzt, weil die ganzen kryptischen Tests wie SHA durch Instruktionen in Hardware beschleunigt werden von ARM. Für real world ist das Zeug nur ziemlich belanglos.

Avalox
2015-02-15, 10:05:54
Mir tut nur der Leser leid der glauben wuerde dass er mit einem S810 smartphone ploetzlich desktop CPU Leistung haben wuerde.


So abwegig ist das nicht.

Seit Jahren schrumpft der Markt der Desktop Computer unaufhörlich. Dieses natürlich nur aus einem einzigen Grund, die Leute haben keine Idee, was sie mit der dort gebotenen Leistung anfangen sollen. Das Maß der Dinge ist keinesfalls das, was ein Intel an Spitzen Core i7 gerade so heraus haut, für den Desktop ist vielmehr interessant was denn so heute im Einsatz ist. Da kommst du auf Batterien von CPUs die inzwischen das Nachsehen haben und scheinbar prächtig am Desktop funktionieren.

Zum anderen ist es natürlich so, dass es faktisch heute nur noch CPUs mit mobiler Architektur in PCs gibt. Die knallharten auf absoluter Performance getrimmten CPU Architekturen für einen PC der ständig am Stromnetz hängt, gibt es seit vielen Jahren überhaupt nicht mehr und werden wohl auch niemals wiederkehren. Dementsprechend laufen auch Desktop Systeme überwiegend nie auf Hochbetrieb.

Ein aktueller Snapdragon kommt absolut in den Performance Bereich, welcher vorher mal durchaus eine PC Domäne war.

Das ist ja auch gut so, denn die Anwendungsfelder überschneiden sich ja inzwischen beträchtlich. Alsbald wird den modernen IT Geräten auch hinreichend Arbeitsspeicher zur Seite stehen, auf der anderen Seite sinkt der bedarf an persistenten Speicher im Desktop System. Da muss man nicht lange spekulieren, um das Ergebnis dieses Trends abzuleiten.

YfOrU
2015-02-15, 11:03:28
Als Maßstab sehe ich (egal ob Office Desktop, Mobile oder Ultra-Mobile abseits von Smartphones) 2C/4T Haswell bzw. Broadwell.

Selbst ein Core M-5Y10 (2C/4T bei ~1,7Ghz unter CPU Last) spielt bereits in einer anderen Liga als jegliche ARM CPU. Dabei liegt dessen effektive Taktfrequenz noch deutlich unter den 2+ Ghz welche selbst die kleinsten ULT i3 Modelle bieten. In Relation steht der Desktop (i3) mit 3,5+ Ghz noch mal ein ganzes Eck drüber.

maximum
2015-02-15, 11:10:30
Der PC-Markt schrumpt vorallem auch, weil CPUs einfach auch vor 5-6 Jahren schon soviel Leistung hatten, dass man damit heute noch sinnvoll arbeiten kann. Warum sollte ein Nutzer einen i5-750 aufrüsten, wenn er kaum oder gar nicht spielt, sondern nur Video/Internet/Office nutzt?

mboeller
2015-02-15, 11:59:17
Als Maßstab sehe ich (egal ob Office Desktop, Mobile oder Ultra-Mobile abseits von Smartphones) 2C/4T Haswell bzw. Broadwell.

Selbst ein Core M-5Y10 (2C/4T bei ~1,7Ghz unter CPU Last) spielt bereits in einer anderen Liga als jegliche ARM CPU. Dabei liegt dessen effektive Taktfrequenz noch deutlich unter den 2+ Ghz welche selbst die kleinsten ULT i3 Modelle bieten. In Relation steht der Desktop (i3) mit 3,5+ Ghz noch mal ein ganzes Eck drüber.


IMHO Yein;

http://browser.primatelabs.com/geekbench3/search?dir=desc&q=5Y10&sort=multicore_score

Single-Core: ~2200 Punkte

Ein A72 soll laut ARM eine zw. 10 und 50% höhere IPC erreichen als ein A57.
Der A57 im 7420-SoC von Samsung erreicht single-thread ca. 1500 Punkte. Der A72 sollte also zumindest bei diesem Benchmark nahezu einen Gleichstand mit den kleinen Intel-CPUs erreichen. Als Quadcore also dann bei den Multi-Core benches sogar vorbeiziehen.
Und die absolute Leistung sollte dann aufgrund von 16FF oder 14XM sogar noch einmal um 25-35% höher liegen.

Ich erwarte deshalb schon ca. 2500 Punkte beim Geekbench für einen A72 SoC (single-thread natürlich) und bis zu 9000 Punkte Multi-thread bei einem Quadcore.

Was vielleicht wirklich fehlt ist eine leistungsfähige SSD und min. 4GB HMB Speicher im Handy. Dann wäre die gefühlte Geschwindigkeit bestimmt noch mal ein Stück höher.

Avalox
2015-02-15, 14:51:30
IMHO Yein;

http://browser.primatelabs.com/geekbench3/search?dir=desc&q=5Y10&sort=multicore_score




Intel "erschummelt" sich mit Turbo Takten in den Benchmark Ergebnissen weit nach vorne. Im Schnitt bieten die CPUs die Leistung nicht. Intel läuft der Entwicklung dort immer noch hinterher darf man nicht vergessen.

Was vielleicht wirklich fehlt ist eine leistungsfähige SSD und min. 4GB HMB Speicher im Handy. Dann wäre die gefühlte Geschwindigkeit bestimmt noch mal ein Stück höher.

SSDs sind ja eher uninteressant. Weshalb sollte ein extra SATA Controller Strom verbrauchen. Schnellen Solid State Speicher gibt es ja auch eleganter angebunden. Genau dieses erfolgt ja in der diesjährigen Generation der Geräte.

lumines
2015-02-15, 15:02:01
Intel "erschummelt" sich mit Turbo Takten in den Benchmark Ergebnissen weit nach vorne. Im Schnitt bieten die CPUs die Leistung nicht. Intel läuft der Entwicklung dort immer noch hinterher darf man nicht vergessen.

Sie reizen eben das thermische Budget aus. Schummeln sieht für mich anders aus. Auch ein kurzzeitiger Boost ist eben Leistung. Die Frage ist ja auch, inwiefern die Leistung unter Last bei mobilen Geräten überhaupt wirklich relevant ist, wenn man bei der typischen Nutzung eben keine Volllast hat.

Botcruscher
2015-02-15, 15:47:20
Zum anderen ist es natürlich so, dass es faktisch heute nur noch CPUs mit mobiler Architektur in PCs gibt. Die knallharten auf absoluter Performance getrimmten CPU Architekturen für einen PC der ständig am Stromnetz hängt, gibt es seit vielen Jahren überhaupt nicht mehr und werden wohl auch niemals wiederkehren. Dementsprechend laufen auch Desktop Systeme überwiegend nie auf Hochbetrieb.

Ein Haswell zieht bei AVX selbst ohne OC so viel das er den Takt reduzieren muss. Mit OC gehen da locker 300W. Also wie üblich die Frage welche ominöse mobil-Architektur das sein soll und wo der Unterschied zu einem echten Desktop sein soll. Alles was Intel/AMD mit x86 im Angebot haben ist maximal verbrauchsoptimiert und kommt nach ein paar Stunden zurück zur Dose.

Gandharva
2015-02-15, 15:54:53
IMHO Yein;

http://browser.primatelabs.com/geekbench3/search?dir=desc&q=5Y10&sort=multicore_score

Single-Core: ~2200 Punkte

Ein A72 soll laut ARM eine zw. 10 und 50% höhere IPC erreichen als ein A57.
Der A57 im 7420-SoC von Samsung erreicht single-thread ca. 1500 Punkte. Der A72 sollte also zumindest bei diesem Benchmark nahezu einen Gleichstand mit den kleinen Intel-CPUs erreichen. Als Quadcore also dann bei den Multi-Core benches sogar vorbeiziehen.
Und die absolute Leistung sollte dann aufgrund von 16FF oder 14XM sogar noch einmal um 25-35% höher liegen.

Ich erwarte deshalb schon ca. 2500 Punkte beim Geekbench für einen A72 SoC (single-thread natürlich) und bis zu 9000 Punkte Multi-thread bei einem Quadcore.

Was vielleicht wirklich fehlt ist eine leistungsfähige SSD und min. 4GB HMB Speicher im Handy. Dann wäre die gefühlte Geschwindigkeit bestimmt noch mal ein Stück höher.

YfOrU hat völlig Recht. Geekbench hat fast keine Aussagekraft. Lass wie hier schon erwähnt einen Browser deiner Wahl laufen (z.B. Chrome) und mach einen Bench mit Octane oder Kraken. Das entspricht viel eher der Realität.

tdon
2015-02-15, 16:02:27
Ein Haswell zieht bei AVX selbst ohne OC so viel das er den Takt reduzieren muss.


Meiner läuft mit Basistakt bei voller AVX2 Auslastung. Wenn du das reduzieren meinst ok. Nur bedenke, der Durchsatz ist beinahe doppelt so groß bei voller Auslastung.

Avalox
2015-02-15, 16:27:59
Ein Haswell zieht bei AVX selbst ohne OC so viel das er den Takt reduzieren muss. Mit OC gehen da locker 300W.

Das ist ein extremer Wert, eines gepimpten Dings.
Da kann man mal kräftig drüber lachen über solche CPUs und gleich wieder solche Lächerlichkeit vergessen, aber doch nicht zum Standard erklären.

Auch Haswell ist eine Architektur, die absolut alle Merkmale der damaligen mobilen Intel Architektur immer noch aufweißt.
Natürlich sind mobile CPUs heute weiter und ebenso natürlich hängt dort Intel der Entwicklung hinterher. Der Fokus der Betrachtung hat sich nur verschoben, das ändert aber nichts daran, dass die reinen Desktop und Workstation Entwicklungslinien vor Jahren allesamt eingestellt wurden.

YfOrU hat völlig Recht. Geekbench hat fast keine Aussagekraft. Lass wie hier schon erwähnt einen Browser deiner Wahl laufen (z.B. Chrome) und mach einen Bench mit Octane oder Kraken. Das entspricht viel eher der Realität.

Ein Javascript Test soll was?
Zum einen ist Javascript vom Interpreter fundamental abhängig. Bei den üblichen Javascript Test wird zudem schon mal kräftig beschissen, wie man bei Microsoft im IE ja zutreffend gezeigt bekommen hat und ein Webbrowser hängt in seiner Performance für den Benutzer sicherlich an vielen, aber ganz sicher nicht an der Javascript Interpreter Geschwindigkeit.

Javascript Tests sind Müll, wenn sie denn unterschiedliche Systeme, mit unterschiedlichen Browsern vergleichen sollen. Geekbench ist mit das beste was dort der Markt zu bieten hat, für einen abstrakten Plattformvergleich.

Coda
2015-02-15, 16:33:02
4Ghz (4.4Ghz) boost Devil's Canyon hat ne 88W TDP. Was sollen die 300W OC Werte (die ich übrigens bezweifle) überhaupt aussagen?

BlackBirdSR
2015-02-15, 16:46:37
Gerade mal die Einzelergebnisse der Benchmarks von Geekbench verglichen.
Ein A8 mit 1.4 Ghz ist im Schnitt schneller als ein 2.6 Ghz Core i7...

Warum nutze ich noch einen PC für das Erstellen von Previews in Lightroom?
Das sollte in Zukunft mein iPad neben erledigen.

PS:
A8 bei AES 995MB/s
QC S805 74 MB/s....

Das Ganze ist nicht so einfach.

Festhalten kann man trotzdem, dass ARM schnell aufholt. Das ist aber generell in der Industrie so: Die Konkurrenz kann mit wenig Mitteln schnell aufschließen, aber diese letzten 15% kosten dann unglaublich viel Energie/Geld/Zeit etc.

mboeller
2015-02-15, 17:02:23
Schnellen Solid State Speicher gibt es ja auch eleganter angebunden. Genau dieses erfolgt ja in der diesjährigen Generation der Geräte.

Hast du dazu einen Link? Ich wusste nicht das die jetzigen Flash-Speicher schon so schnell sind. Bisher waren die ja immer noch um einen Faktor 8-10 langsamer als eine normale SSD (zumindest soweit ich mich erinnere).

mboeller
2015-02-15, 17:06:32
Festhalten kann man trotzdem, dass ARM schnell aufholt. Das ist aber generell in der Industrie so: Die Konkurrenz kann mit wenig Mitteln schnell aufschließen, aber diese letzten 15% kosten dann unglaublich viel Energie/Geld/Zeit etc.

Und die letzten 15% interessieren genau für was? Außer natürlich für Schxxxx-Vergleiche...ähh Benchmarks ;)

15% merkt man halt beim normalen Arbeiten nicht. Und selbst wenn du was richtig aufwendiges machst ist der PC halt erst nach zB. 3min fertig und nicht schon nach 2,5min...

Exxtreme
2015-02-15, 17:17:06
Und die letzten 15% interessieren genau für was? Außer natürlich für Schxxxx-Vergleiche...ähh Benchmarks ;)

15% merkt man halt beim normalen Arbeiten nicht. Und selbst wenn du was richtig aufwendiges machst ist der PC halt erst nach zB. 3min fertig und nicht schon nach 2,5min...
Kommt darauf an. 15% können heftig ins Geld gehen wenn teure Arbeitszeit dran hängt.

Avalox
2015-02-15, 17:27:13
Hast du dazu einen Link? Ich wusste nicht das die jetzigen Flash-Speicher schon so schnell sind. Bisher waren die ja immer noch um einen Faktor 8-10 langsamer als eine normale SSD (zumindest soweit ich mich erinnere).

Die Speicherzellen sind es schon immer die selben gewesen. SSD und eMMC sind beides Solid State Speicher mit NAND Flash. Der Unterschied befindet sich primär in der Anbindung, der in der Ultramobilen Variante dem Solid State Speicher als embedded Controller mit auf dem Baustein integriert ist.
Für dieses Jahr werden UFS 2.0 Geräte erwartet und diese sollen in diesem Step rund 1,2GByte/s Nettotransferraten erreichen. Sehr ordentlich. Im Bezug zu den üblichen Größen des persistenten Speichers der Geräte und den Anwendungsgrößen ist das sehr, sehr ordentlich.


http://www.tomshardware.com/news/samsung-xiaomi-ufs-memory-standard,28076.html

mboeller
2015-02-15, 17:49:59
http://www.tomshardware.com/news/samsung-xiaomi-ufs-memory-standard,28076.html


Schexxe... WOW!

Danke. Also 1.2GB/sec sind schon mal richtig heftig.

Ailuros
2015-02-15, 18:53:55
Gerade mal die Einzelergebnisse der Benchmarks von Geekbench verglichen.
Ein A8 mit 1.4 Ghz ist im Schnitt schneller als ein 2.6 Ghz Core i7...

Warum nutze ich noch einen PC für das Erstellen von Previews in Lightroom?
Das sollte in Zukunft mein iPad neben erledigen.

PS:
A8 bei AES 995MB/s
QC S805 74 MB/s....

Das Ganze ist nicht so einfach.

Festhalten kann man trotzdem, dass ARM schnell aufholt. Das ist aber generell in der Industrie so: Die Konkurrenz kann mit wenig Mitteln schnell aufschließen, aber diese letzten 15% kosten dann unglaublich viel Energie/Geld/Zeit etc.

Ein jeglicher einfacher "test" in Echtzeit verraet schnell das die Sache eben nicht so einfach oder so optimistisch ist wie sie benchmark Zahlen ausmalen.

YfOrU
2015-02-15, 19:13:55
Intel "erschummelt" sich mit Turbo Takten in den Benchmark Ergebnissen weit nach vorne. Im Schnitt bieten die CPUs die Leistung nicht. Intel läuft der Entwicklung dort immer noch hinterher darf man nicht vergessen.

Intel gibt sowohl die garantierte Basis als auch die maximale Turbo Taktfrequenz an. Meiner Ansicht nach ist das deutlich transparenter als die für ARM SoCs typische Angabe der maximal anliegenden Taktfrequenz. Die ist bei potenteren SoCs schlussendlich auch nichts anderes als eine Turbo Frequenz welche am oberen Rand bzw. direkt oberhalb des thermischen Budgets angesiedelt ist.

Avalox
2015-02-15, 19:28:31
Intel gibt sowohl die garantierte Basis als auch die maximale Turbo Taktfrequenz an. Meiner Ansicht nach ist das deutlich transparenter als die für ARM SoCs typische Angabe der maximal anliegenden Taktfrequenz.

Die Turbo Frequenz ist keine obere Grenze eines normalen Taktspektrums.
Es ist eine kurzeitige automatische Übertaktung, bei Überschreitung jeglichen TDPs.

Dieses natürlich in Benchmark Situationen, auch nur ausserhalb jedes Regelbetriebs und das mit einem enormen Differenz zum Normalbetrieb.

YfOrU
2015-02-15, 19:34:19
Da beispielsweise das Budget der CPU ohne GPU Last aufgrund der dynamischen Verteilung größer ist als bei kombinierter Last ist das so nicht richtig. Und ja, der maximale Turbo kann je nach SKU oberhalb der konstant abführbaren Verlustleistung liegen (Turbo Boost 2.0). Eben das trifft aber auch auf den Großteil der potenteren ARM SoCs zu (maximale Taktfrequenzen für CPU und GPU). Das Intel hier eine aggressivere Lösung einsetzt dürfte vor allen an den realen Möglichkeiten liegen. Deren filigranes Powermanagement lässt sich auch gut nach oben nutzen. Mit Skylake (mobile) kommen noch dynamische Frequenzen für den Arbeitsspeicher dazu.

Avalox
2015-02-15, 19:36:10
Da beispielsweise das Budget der CPU ohne GPU Last aufgrund der dynamischen Verteilung größer ist als bei kombinierter Last ist das so nicht richtig.

Was ist so nicht richtig? Natürlich überschreitet Intels Turbotechnik den TDP, für kurze Zeiträume durch Übertaktung, wie diese typisch für Benchmark Situationen sind und das in echten Größenordnungen.

Das ist nichts anderes als Benchmark schummeln mit Anmeldung.

BlackBirdSR
2015-02-15, 19:56:28
Ein jeglicher einfacher "test" in Echtzeit verraet schnell das die Sache eben nicht so einfach oder so optimistisch ist wie sie benchmark Zahlen ausmalen.

optimistisch in welcher Richtung und Bedeutung?

Ailuros
2015-02-15, 20:19:32
optimistisch in welcher Richtung und Bedeutung?

Fuer ULP mobile natuerlich. Ein dual Cyclone @1.4GHz ist eben in Echtzeit nicht so schnell wie ein i7@2.6GHz egal welche Kopfstaende man machen will. Interessant auf rein technischer Basis waere was ein solcher Cyclone leistet bei einer 2.6GHz Frequenz, aber es wird noch eine geraume Weile dauern bis solche Frequenzen bei so fetter IPC realistisch selbst in einem ultra thin tablet sein werden.

Gandharva
2015-02-15, 21:20:06
Ein Javascript Test soll was?
Den aktuellen Workload eines Browsers simulieren. Das sagen zumindest Google-, Mozilla- und diverse andere Entwickler aktueller Browser. Achso, niemand hat was von sunspider geschrieben...

Avalox
2015-02-15, 21:28:46
Den aktuellen Workload eines Browsers simulieren. Das sagen zumindest Google-, Mozilla- und diverse andere Entwickler aktueller Browser. Achso, niemand hat was von sunspider geschrieben...

Aktueller Workload? Albern.

Der einzige Workload ist vielleicht ein Browserspielchen in Javascript, der dem entspricht.
Also alles andere, als ein aktueller Workload eines normalen Benutzers im Internet.
Die mobilen Browser sind allesamt auf einen geringen Speicherverbrauch hin entwickelt.
Sunspider ist Müll und war Müll. Nicht der Rede wert.

Die einzige Plattform auf der man dort mehr oder weniger vernümftig vergleichen kann ist Linux, oder eben ChromeOS da es für für dieses ARM Linux einen Chrome Browser gibt.

Gandharva
2015-02-15, 21:35:33
Aktueller Workload? Albern.
Ja klar, im Avalox Universum. :D

Avalox
2015-02-15, 21:52:15
Ja klar, im Avalox Universum. :D


Wie willst du behaupten, dass ein normales Verhalten eines Benutzers am Webbrowser beim rumsurfen, dem auch nur entfernt ähnlich ist, was ein Octane 2.0 Benchmark veranstaltet?
Ich garantiere dir, dass behaupten nicht mal die Entwickler des Benchmarks.

kevsti
2015-02-15, 23:44:11
Selbst wenn es ein realistischer Workload wäre - dann ist die Ausführungsgeschwindigkeit noch massiv von anderen Faktoren beeinflusst, als nur von der CPU. Das Problem ist einfach, so realistischer man ein Benchmark macht, um so mehr verwässert der Bezug zur reinen CPU-Leistung - weil eben dann auch Speicher, Betriebssystem, Programmiersprache, Auflösungen, GPU, dedizierte Beschleunigungen (z. B.: für crypto Geschichten), Befehlsätze, etc... als Faktoren mitwirken.
Macht man den Test stark abstrakt (z. B. irgend ein Number crunching, direkt in der jeweiligen Maschinensprache, ohne Ausnutzung von irgendwelchen Tricks der jeweiligen Architektur oder Befehlserweiterungen), mögen die Werte zwar relativ gut vergleichbar sein und nur die CPU beleuchten - sind für die Realität aber völlig irrelevant...

Dazu kommen noch Geschichten wie Multithreading hinzu - übertreiben und vereinfachten wir mal stark... stellen wir uns vor ein ARM Kern wäre 0,2x so schnell wie eine aktueller Intel x86 Kern. Nun hat die ARM CPU aber 64 Kernen und die Intel CPU nur 4... dann würde man sagen können - die ARM CPU ist ~3x schneller als die Intel CPU. Aber ob jemals überhaupt mehr als 4 Kerne der ARM CPU sinnvoll, bei normaler Benutzung, genutzt werden können - ist natürlich hoch fraglich... und somit ist die Intel CPU am ende doch wesentlich schneller...


Ich würde es daher einfach mal logisch sehen... Die x86 Architektur wird ja auch nicht erst seit gestern und/oder stiefmütterlich entwickelt... Nein, da sitzen Firmen, mit viel Know-How, schon seit Jahrzehnten dran. Die Unterschiede zwischen RISC (ARM) und CISC (X86) sind auch nicht mehr so groß wie damals... Beide schauen sich die eine oder andere Idee von einander ab. Wieso sollte dann jetzt auf einmal eine CPU die a) auf sehr geringe Produktionskosten (=geringe Größe, geringere Komplexität, weniger Transistoren) und b) auf geringen Stromverbrauch optimiert wird, es ernsthaft mit einem Schwergewicht wie einer aktuellen x86 CPU aufnehmen können? Mit aktuell meine ich hier locker die letzten 6-8 Jahren.
Das macht kein Sinn, ARM kann auch nicht hexen...

Beide haben ihr Ziel, auf welche beide stark hin optimiert wurden und werden. Damit haben beide auch ihre eigene Zielgruppe...

Noch ein (sperriges) Argument: Bei Supercomputer finden sich (im Gegensatz zu früher) immer mehr x86 Architekturen, statt PowerPC und ähnlichen (RISC). Wenn selbst dort, wo man die Software auf die Architektur optimal anpassen kann, vermehrt zu x86 gegriffen wird... spricht das doch Bände. Auch: der 3. schnellste Supercomputer Blue Gene/Q von IBM (mit 1,5 Millionen PowerPC CPUs) verbraucht für 16,3PFlops ca. 7,9MW an Strom. Der aktuell schnellste Supercomputer verbraucht mit einer Mischung aus x86 und GPUs (insgesamt knapp 100.000 Chips) ca. 17,8MW - bei 33,6PFLops. Also liegen Grundlegend beide Architektur bei Leistung/Energieverbrauch annähernd gleich. Würde ARM so viel effizienter sein, dann würde das auch irgendwo beim Blue Gene/Q mit einfließen... D.h. viel effizienter ist ARM auch nicht und da die ARMs wesentlich weniger Energie verbrauchen, müssen sie also auch wesentlich langsamer sein.

Ailuros
2015-02-16, 09:22:29
Wer traut sich mal die desktop version der Seite hier auf einem tablet zu laden unter herunterzu-scrollen? http://www.honda-motorcycles.gr/model.php?model=hornet600

:biggrin:

Coda
2015-02-16, 10:33:16
Funktioniert bis auf das Scaling problemlos, selbst auf meinem Telefon.

Noch ein (sperriges) Argument: Bei Supercomputer finden sich (im Gegensatz zu früher) immer mehr x86 Architekturen, statt PowerPC und ähnlichen (RISC). Wenn selbst dort, wo man die Software auf die Architektur optimal anpassen kann, vermehrt zu x86 gegriffen wird... spricht das doch Bände. Auch: der 3. schnellste Supercomputer Blue Gene/Q von IBM (mit 1,5 Millionen PowerPC CPUs) verbraucht für 16,3PFlops ca. 7,9MW an Strom. Der aktuell schnellste Supercomputer verbraucht mit einer Mischung aus x86 und GPUs (insgesamt knapp 100.000 Chips) ca. 17,8MW - bei 33,6PFLops. Also liegen Grundlegend beide Architektur bei Leistung/Energieverbrauch annähernd gleich. Würde ARM so viel effizienter sein, dann würde das auch irgendwo beim Blue Gene/Q mit einfließen... D.h. viel effizienter ist ARM auch nicht und da die ARMs wesentlich weniger Energie verbrauchen, müssen sie also auch wesentlich langsamer sein.
Das kannst du nicht vergleichen. Das meiste von den 33,5 PFLOPs kommen von den GPUs. Und GPUs lassen sich leider lange nicht so flexibel programmieren wie die PowerPC-Kerne von dem Blue Gene.

Wie willst du behaupten, dass ein normales Verhalten eines Benutzers am Webbrowser beim rumsurfen, dem auch nur entfernt ähnlich ist, was ein Octane 2.0 Benchmark veranstaltet?
Ich garantiere dir, dass behaupten nicht mal die Entwickler des Benchmarks.
Es geht um die gefühlte Latenz, und da ist JavaScript-Performance sehr wohl wichtig. Gute Beispiele sind Google Maps/Drive/Mail.

Ailuros
2015-02-16, 12:08:55
Es geht schon, nur flutscht es eben keineswegs so wie auf einem heutigen desktop PC.

Sonst hab ich ein bisschen herumgespielt und ein A15@1.8GHz big.LITTLE Gespann scheint ungefaehr auf Intel G3420@3.2GHz beim browsing zu liegen (Google Chrome fuer beide Faelle).

Coda
2015-02-16, 12:16:02
Es geht schon, nur flutscht es eben keineswegs so wie auf einem heutigen desktop PC.
Merke ich keinen Unterschied. Chrome 40 auf Android und Chrome 40 auf dem Desktop sind beide nicht flüssig.

robbitop
2015-02-16, 13:41:12
Es geht schon, nur flutscht es eben keineswegs so wie auf einem heutigen desktop PC.

Sonst hab ich ein bisschen herumgespielt und ein A15@1.8GHz big.LITTLE Gespann scheint ungefaehr auf Intel G3420@3.2GHz beim browsing zu liegen (Google Chrome fuer beide Faelle).
Das muss aber eine SW Ursache haben. Ein Haswell (selbst ein beschnittener) auf knapp doppelter Frequenz wie ein A15 sollte diesen (aus HW Sicht) blau und grün schlagen. Mindestens Faktor 2 an IPC und dazu fast doppelter Takt.

Undertaker
2015-02-16, 13:54:06
Die spielen auch nicht einmal annähernd in der gleichen Liga. Wo gerade die Rede von JavaScript war: In Kraken liegt da etwa Faktor 5 zwischen beiden.

deekey777
2015-02-16, 15:05:50
Wer traut sich mal die desktop version der Seite hier auf einem tablet zu laden unter herunterzu-scrollen? http://www.honda-motorcycles.gr/model.php?model=hornet600

:biggrin:
Ich dachte, diese Seite wäre schlimm genug http://www.asus.com/us/Notebooks_Ultrabooks/ASUS_Transformer_Book_T100TA/ , aber ich wurde des Besseren gelehrt. Mal sehen, wie sie auf dem Acer W4 mit Z3740&Kachel-IE performt (teste später).

Ailuros
2015-02-16, 16:28:27
Das muss aber eine SW Ursache haben. Ein Haswell (selbst ein beschnittener) auf knapp doppelter Frequenz wie ein A15 sollte diesen (aus HW Sicht) blau und grün schlagen. Mindestens Faktor 2 an IPC und dazu fast doppelter Takt.

Es ist zwar OT aber ich konnte den angeblich geringen Unterschied von einem Haswell Pentium und einem Haswell i3 in Echtzeit nie sehen. Ich hab den 3420 bei der Arbeit unter win7/64bit in einer ziemlich sauberen sw Umgebung.

Coda
2015-02-16, 16:34:33
Hat halt nur zwei Kerne ohne Hyperthreading. Das macht bei Anwendungen eher keinen Unterschied, bei Spielen aber inzwischen einen gewaltigen.

Ailuros
2015-02-17, 07:05:01
Fuer data crunching ist der "baby"-Haswell durchaus gut angelegt, glaenzt aber erst richtig wenn man ihn auch mit einem SSD kombiniert (dass ein SSD benutzt wird ist eben nicht selbstverstaendlich bei einer budget CPU).

Wie dem auch sei zwar OT aber ein netter writeup fuer Verbrauch: http://semiengineering.com/with-responsibility-comes-power/

Savay
2015-03-16, 09:31:34
Ich dachte, diese Seite wäre schlimm genug http://www.asus.com/us/Notebooks_Ultrabooks/ASUS_Transformer_Book_T100TA/ , aber ich wurde des Besseren gelehrt. Mal sehen, wie sie auf dem Acer W4 mit Z3740&Kachel-IE performt (teste später).

Merke ich keinen Unterschied. Chrome 40 auf Android und Chrome 40 auf dem Desktop sind beide nicht flüssig.

Also auf der HP von RSI kann ich z.B. einen deutlichen unterschied zwischen meinem Nexus 7 2013 (immerhin nen 1,5GHz Quad KRAIT) und meinen Desktop Rechnern merken. (PhII X6 1055T & Xeon 1231 v3) Jeweils mit den neuesten Chrome (stable) Build.
Das Arbeitsnotebook (i5-4300U) scheint auch deutlich flotter zu sein...da kann ich allerdings nicht mit Chrome vergleichen.
Der HTPC (AMD E-350 Zacate) scheint eher vergleichbar zum Tablet zu sein...

Bestimmte PDFs mit hochaufgelöstem Inhalt werden auch extrem langsam auf dem Tablet verarbeitet.

Ob das an den Anwendungen/Scripten oder an anderen flaschenhälsen als der CPU liegt kann ich so nicht beurteilen.

In der Praxis ist der Unterschied zu nem durchschnittlichen Desktopsystem aber immernoch nennenswert!

MasterElwood
2015-03-16, 09:41:50
Hast du dazu einen Link? Ich wusste nicht das die jetzigen Flash-Speicher schon so schnell sind. Bisher waren die ja immer noch um einen Faktor 8-10 langsamer als eine normale SSD (zumindest soweit ich mich erinnere).

http://www.androidpolice.com/2015/03/05/galaxy-s6-storage-benchmarks-show-it-blowing-all-past-phones-out-of-the-water/

MasterElwood
2015-03-16, 10:15:51
Wie schauts mit Gaming Performance aus? Ist der neue Futuremark nicht plattformübergreifend vergleichbar? Haben die nicht sogar damit geworben?

----------------

Hier gibts browser benchmarks von Tegra K1 vs INTEL Chromebooks:
http://www.engadget.com/2014/09/23/acer-chromebook-13-review/

Damit haben wir beide Plattformen auf demselben OS.

Ein Core i3-4005U ist dort in Google OCTANE rund doppelt so schnell wie ein Tegra K1.

Mit diesen beiden Fixpunkten müsste man jetzt doch (zumindest in der Browser Geschwindigkeit) auf alle anderen X86/ARM hochrechnen können...

YfOrU
2015-03-16, 12:23:12
Lenovo Yoga 3 Pro mit Core-M: (Kraken, WebXPRT und 3DMark 1.2 Physics)
http://www.anandtech.com/show/9061/lenovo-yoga-3-pro-review/4
http://www.anandtech.com/show/9061/lenovo-yoga-3-pro-review/5

Linux Benchmarks: X-Gene 1 (8C, 2.4GHz, ARMv8), Atom C2750 und Xeon E3
http://www.anandtech.com/show/8357/exploring-the-low-end-and-micro-server-platforms/9

AppliedMicro kommt mit dem X-Gene 1 (8C, 40W TDP) ungefähr auf die Performance des Atom C2750 (Silvermont, 8C, 20W TDP). Die neuen Xeon D SoCs wie D-1540 (Broadwell, 8C/16T, 45W TDP) welche ebenfalls auf dieses Segment abzielen bewegen sich entsprechend in einer anderen Welt (oberhalb Xeon E3-1240 v3, Haswell, 4C/8T, 80W TDP). Die Energieeffizienz lässt man aufgrund der 40nm Fertigung (X-Gene 1) besser außen vor. X-Gene 2 wird zwar einen größeren Sprung machen (28nm) aber auch das wird in der Realität noch meilenweit entfernt von Intels Server SoCs liegen. Schneller als Avoton/Denverton aber deutlich geringere Effizienz und wesentlich langsamer als Broadwell-DE.
X-Gene 2: http://www.hotchips.org/wp-content/uploads/hc_archives/hc26/HC26-11-day1-epub/HC26.11-4-ARM-Servers-epub/HC26.11.430-X-Gene-Singh-AppMicro-HotChips-2014-v5.pdf
Broadwell-DE Preview: http://www.servethehome.com/intel-xeon-d-1540-power-performance-preview/

IMHO hat Intel die Messlatte mit Broadwell-DE derart hoch gehängt (Performance, Effizienz, Features) das man sich auf absehbare Zeit nur selbst schlagen kann.

davidzo
2015-03-16, 20:02:46
Wer traut sich mal die desktop version der Seite hier auf einem tablet zu laden unter herunterzu-scrollen? http://www.honda-motorcycles.gr/model.php?model=hornet600

:biggrin:


Also auf einem Macbook Retina mit 4870HQ und GT750m an 4K Monitor Bootcamp@Win7 ruckelt das unerträglich. Mein One Plus one ist da deutlich schneller...

Der HeinZ
2015-03-17, 14:57:51
Ich sehe das THEMA ARM/X86 mal aus sicht eines betroffenen/User der nur wissen möchte wie schnell sein Handy/Tablet in ALLTÄGLICHEN Aufgaben gegenüber seinem Pc abschneidet, WENN er überhaupt einen Unterschied feststellen kann.

Da muss ich sagen: 98 % der ALLTÄGLICHEN arbeiten an einem Apple IPhone 6 und 90 % an einem Ipad3 sind bereits so schnell, dass ich dafür nicht mehr meinen Laptop starte.
Von daher hat ARM mächtig aufgeholt, was die realitätsnahe Arbeit am Microchip gesteuerten arbeiten angeht. (für mich ist hierbei das gesamtpaket entscheidend, speicher etc interessieren einen normalo nicht).
Und das sind nicht mal die aktuellsten Beipiele für ARM Geräte.

DIES SPIEGELT NICHT MEINEN PERSÖNLICHEN UMGANG MIT DEM PC WIEDER, das möchte ich nochmal betonen, :)
aber
Definition Alltäglich bedeutet für mich:
-Internet surfen auf NORMALEN Internetseiten, nix mit Superflash,Super Canvas, Supersilverlight oder Superjava oder irgendwelche Google Chome Webgl experimente
-Notizen in ein Programm meiner Wahl einhämmern
-Musik hören, Videos gucken
-kleine Spiele, kurzweilige, ohne großen Grafikaufwand und Gigabyte an Daten und keiner weltbewegenden KI (hauptsache die Illusion ist einigermaßen glaubwürdig.
-Minidatenbanken befüllen, zum Beispiel Adressbuch
-Fotos schnell bearbeiten (zum beispiel eine Person aus dem Bild wegschneiden), mini Handyvideos kleiner schneiden für die Kollegen zum kaputtlachen
-Ergänzung: seine MusikAnlage und Receiver steuern (das leigt bei meinen Freunden aus mir nicht bekannten Gründen im Trend....
-dazu zählt auch nicht: Marktanalyse und Wissenschafts Excelbearbeitung, irgendwelche Raytracing Programme und oder Videoschnittprogramme, welche mir 750 verschiedene Filter für das gleiche Ergebniss bereitstellen, aufwenige Adobe Photoshop Jedi Effekt und
keine Datenanalyse über 27.000.000 einträge. Ebenso X.265 Videos aus dem 4k Format in Blueray Qualität umrechnen. Generell Benchmarks aller art, das tut auch keiner.Alles was auch nur irgendwie in richtung weiter denken geht, fällt nicht unter "Normalo" Umgang mit einem Laptop, geschweige denn Pad oder Handy.
Soetwas macht kein normale Mensch in seiner freizeit, außer er ist ein NErd, dann guckt er sich auch die Windows 7 installation an und findet sie spannend ---> Nicht das ich das tue. :)

Daher halte ich diese Geräte für so leistungsstark, das sie einen normalen PC bei diesen aufgaben ersetzen können und der Endanwender keinen Unterschied feststellt.
Oder interessiert einen normalen anwender noch etwas anderes? Für alles andere kann er sich ja immernoch ne Playstation kaufen. :)


Viele Grüße
Matthias

robbitop
2015-03-17, 15:11:00
Was die ULP Geräte so schnell macht ist die schlankere Software (OS, APIs, vollständig 3D beschleunigtes GUI bei Apple seit 2007), weniger "Features" die es herumschleppen muss (Footprint im Speicher sinkt) und der konsequente Nutzen von SSDs.

Selbst sonstwas für langsame PCs, Netbooks etc erleben allesamt einen zweiten Frühling, wenn Arbeitsspeicher und Systemlaufwerk nicht bremsen. Versorge ich ein solches System mit genügend Arbeitsspeicher (Memoryfootprint ist dann egal) und einer SSD, läuft das Ganze auch auf einmal rasant. Insbesondere, wenn der Browser kein Flash und Java unterstützen muss. Ich kann mir vorstellen, dass es mit einer schlanken Linuxdestribution noch besser geht als mit einem Windows 7.

Was ich sagen will: dass ULPs so schnell sind, ist vor allem eine Frage der Umgebung, weniger eine Frage der (zugegeben immer schneller werdenden) SoCs. Selbst SoCs mit Cortex A7 Quadcores laufen ziemlich gut in schlanken Android Destributionen.

Es braucht einfach nicht all zu viel Leistung für diese Anforderungen. Insbesondere wenn Webseiten auch noch für mobile optimiert sind.

Die IPC der ULPs hat - insbesondere im Fall von Cyclone (sicher aber auch bei Denver und A72) schon ziemlich aufgeholt. Immerhin schafft man es mit wenigen Watts an die IPC von Conroe heranzukommen.

Andererseits wird die maximale Leistung (analog zu Intels Core M) immer nur kurzzeitig abgerufen. Danach wird häufig gedrosselt. Typischer ULP Workflow fühlt sich dadurch snappy an. Mehr als es die HW dauerhaft halten kann (Dauerlast).
Das ist schon beeindruckend. Aber dennoch:

- es liegt nur kurzzeitig an
- Taktraten sind derzeit bei den High-IPC Designs bei rund 50 % der aktuellen Cores aus dem Hause Intel (und ich brauche niemandem zu sagen, dass Frequenz design und spannungsbedingt exponenzial! die Leistungsaufnahme erhöhen)
- man ist mit der IPC noch in einem entspannten Bereich der Kurve des abnehmenden Grenzertrags. Auf einem Territorium, auf dem Intel und Co schon vor Jahren die Grundarbeit gelegt haben und man auf fertige Lösungsansätze (die man selbst implementieren muss) zurückgreifen kann.

-> es besteht also kein linearer Zusammenhang zwischen Leistung und elektrischer Leistung. :)

Am Ende ist der "Workflow" auf ULPs aber auch so gering vom Anspruch und nur mit kurzen Peaks versehen, dass es flutschen muss. Für den gleichen Workload sind moderne PCs total überdimensioniert.

Savay
2015-03-17, 15:13:31
Für alles andere kann er sich ja immernoch ne Playstation kaufen. :)

Weil da sowas normales wie z.B. Lightroom anständig drauf läuft? :wink:
Was genau ist "alltäglich"...was ist es nicht...und wer bestimmt das bitteschön?!

Ne mal im Ernst...ein Tablet/Smartphone ist weder von der Rechenleistung aus gesehen noch von der Usability (guter Monitor mit Maus/Tastatur ist mMn nicht zu schlagen) ein Ersatz für nen anständigen PC. Zumindest wenn man nicht nur Einkaufszettel mit dem Ding befüllen will und sich das sonstige Anwendungsprofil rein auf relativ anspruchslose MedienWIEDERGABE beschränkt.

Mutters lowcost Laptop können Sie deshalb mittlerweile recht gut ersetzen. :cool:

Mein Nexus 7 (2013) scheitert z.B. gelegentlich noch sowohl an einer angemessen schnellen verarbeitung von diversen PDFs, Excel Sheets und auch etlichen (NORMALEN) Webseiten...und das ist alles nichts wirklich abgehobenes oder "unnormales".

Oft ist die Software einfach nicht entsprechend optimiert und setzt hier die Grenzen aber oft genug limiteren auch Hardware Einflüsse.
Von dem manchmal enormen Input Handicap "Touchscreen" mal ganz abgesehen....aber das ist hier ja nicht das Thema. :wink:

Der HeinZ
2015-03-17, 15:24:41
Bei der Usability stimme ich dir zu. Mittlerweile gibt es aber Bluetooth und daher auch entsprechende Mäuse und Tastaturen. (Auch wenn das bei einem 5 Zoll Handy grober unfug wäre, aber es geht). Ja PDF´s sind wieder ein garnicht mal zu unterschätzendes Thema, in der Tat verhalten sich da manche Programme wie eine Slightshow, wenn man durchblättern möchte.
Daher drucke ich mir diese Sachen dann einfach aus, vorausgesetzt in bin zuhause.
Hast du bei den Internetseiten mal alle möglichen Browser durchprobiert? Irgendwie scheinen viele Seiten gerade bei android geräten (ich hab da ein Asus 1-Kern Gerät) mit manchen Browsern nicht vernüftig zusammenzuspielen.
Ist ja zum Glück durch das Icon-touchen kein Problem den Browser mal kurz zu wechseln, wenn der andere Browser die Seite doof findet.

Ergänzung: ich glaube Leistungstechnisch könnte die Playstation Lightroom zumindest beim gröbsten bearbeiten gut bedienen.

Gruss
Matthias

Savay
2015-03-17, 15:40:53
Hast du bei den Internetseiten mal alle möglichen Browser durchprobiert? Irgendwie scheinen viele Seiten gerade bei android geräten (ich hab da ein Asus 1-Kern Gerät) mit manchen Browsern nicht vernüftig zusammenzuspielen.

Ja habe ich...aber da ich primär Chrome benutze und der auf Android mit am besten funktioniert ist das als Ursache auch eigentlich unwahrscheinlich...Vanialla Android zeigt sowieso allgemein für Apps meiner Erfahrung nach auch weniger Performance Stolpersteine als die von den OEMs versauten Android Varianten...das Nexus 7 läuft im Vergleich mMn deshalb schon ganz gut... m. versionen der Websites sind ja auch generell nie ein Problem.

Das Problem sind manche Script oder HTML5 lastige Webseiten...die meisten laufen zwar nicht unbedingt miserabel auf dem Tablet...aber aufm PC doch spürbar besser.
Betroffene Seiten sind z.B. ein Webinterface für SAP und die WebMail Variante vom Firmen Outlook. Ganz schlimm auf meinem Tablet läuft z.B. auch https://robertsspaceindustries.com/
Ansonsten sind in den Untiefen der...ähm...Erwachsenenunterhaltung...auch etliche Seiten zu finden die eindeutig die Grenzen der mobilen Geräte aufzeigen. :tongue:

Multitasking geht aufm Tablet sowieso bisher auch nicht zufriedenstellend...das beinhaltet auch das öffnen mehrerer Tabs parallel. Was ich persönlich sehr ausgiebig nutze.
Die Android Browser schmeißen die Websites um Ressourcen zu sparen meistens einfach aus dem Cache und erzeugen als ersatz einen Screenshot statt sie weiter auszuführen.
Was natürlich das wechseln der Tabs zu einem Geduldsspiel macht wenn man die diesbezügliche Verarbeitungsgeschwindigkeit vom PC gewohnt ist. :wink:


Ergänzung: ich glaube Leistungstechnisch könnte die Playstation Lightroom zumindest beim gröbsten bearbeiten gut bedienen.


Ist technisch ja auch mehr oder weniger nen 08/15 low-End PC...aber ich glaube die recht niedrig taktenden Jaguar Kerne würden es dennoch zum geduldspiel machen.
Etliche Routinen brauchen noch Takt und IPC, da schlecht parallelisiert, um die Bearbeitung nicht gewaltig auszubremsen.
Das läuft idR besser auf nem hochtakdenden DualCore mit HT als auf nem niedrigtaktenden OctaCore...von nem reinen BatchProcessing vielleicht mal abgesehen.

Deswegen ist derartiges auf Tablets bislang auch nicht besonders toll...Ich habe da schon so einige RAW Konverter aufm Tablet getestet. :biggrin:

Der HeinZ
2015-03-18, 06:47:53
Also auf einem Macbook Retina mit 4870HQ und GT750m an 4K Monitor Bootcamp@Win7 ruckelt das unerträglich. Mein One Plus one ist da deutlich schneller...

Das wundert mich sehr denn:
Auf meinem ACER Iconia W500 ruckelt da tatsächlich garnix. (Windows 10 32 Bit, Standard IE)

:)