PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : SoC vs. GPU - wann sind wir soweit ein Desktopreplacement am Markt zu sehen?


Die gelbe Eule
2013-07-04, 14:42:06
Leider kenne ich zur Zeit nicht wie performant der stärkste SoC im Grafikbereich aufgebaut ist, das man diesen mit einem Desktoppendant vergleichen könnte.
Meine Vision und vielleicht die vieler anderer, ich stecke mein Smartphone in eine Dockingstation, anywhere, anytime und kann damit Spiele nutzen, welche eigentlich nur auf dem Desktop flüssig laufen. Alternativ auch ein Tablet der Größe egen, um mehr Raum für Hardware zu schaffen. Da sich hier die Leistung jährlich schneller vergrößert als im Desktopbereich, man sieht zum Teil zwei neue SoC Generationen, eine interessante Thematik.

Natürlich rede ich hier nicht von hohen AA-Modi, doch einige Grafikdemos auf Android haben doch zumindest annähernd Unreal 3 Grafik flüssig dargestellt.

Wäre gut wenn jemand etwas Licht in die Sache bringen könnte.

boxleitnerb
2013-07-04, 14:48:18
Nie. SoCs könnten generell GPUs im unteren Segment ersetzen bis sagen wir mal HD7750. Aber kein Smartphone SoC mit <5W TDP. Unmöglich.

Ailuros
2013-07-04, 14:55:25
Ein jeglicher desktop fuer seine Zeit wird stets einige Meilen von einem SFF SoC entfernt sein weil IMHO:

1. Aufloesungen weiterhin fuer desktops bzw. displays skalieren werden.
2. Bandbreite und Stromvebrauch auf einem SFF SoC immer nur so klein sein kann wie es fuer jeden Zeitraum die Kategorie erlaubt.

Ja natuerlich werden SoCs weiterhin skalieren, aber desktop PCs kommen auch nicht auf irgendwelchen Stillstand. Einen zumindest Faktor 10x Unterschied zwischen diesen Welten wird es immer geben und das ist auch nur ein worst case scenario da die eigentlichen Unterschiede schon um einiges groesser sind. In GLB2.7 ist eine GTX Titan momentan um fast 50x Mal schneller als ein Tegra4.

RLZ
2013-07-04, 14:58:02
Wenn man manche Performance-Hochrechnung hier im Forum sieht, könnte man echt meinen in 2 Jahren sind Handys schneller als Desktops. Im Mobilbereich wird es demnächst auch wesentlich langsamer vorwärts gehen. Ein <5W System wird es nie mit einem >200W Rechner auch nur im entferntesten aufnehmen können.

Ailuros
2013-07-04, 15:05:21
Wenn man manche Performance-Hochrechnung hier im Forum sieht, könnte man echt meinen in 2 Jahren sind Handys schneller als Desktops. Im Mobilbereich wird es demnächst auch wesentlich langsamer vorwärts gehen. Ein <5W System wird es nie mit einem >200W Rechner auch nur im entferntesten aufnehmen können.

Welche Hochrechnungen? SFF SoC GPUs erreichen in 2014 in etwa XBox360 GPU Leistung, wobei es zwar imposant ist aber die Xenos GPU ist schon ein ziemlich altes Eisen an GPU.

Godmode
2013-07-04, 15:14:50
Wenn man manche Performance-Hochrechnung hier im Forum sieht, könnte man echt meinen in 2 Jahren sind Handys schneller als Desktops. Im Mobilbereich wird es demnächst auch wesentlich langsamer vorwärts gehen. Ein <5W System wird es nie mit einem >200W Rechner auch nur im entferntesten aufnehmen können.

Genau so sehe ich das auch. Watt ist hier die beste Größe für den Vergleich. Eine Mobile GPU müsste schon um etliche Größenordnungen schneller sein, um mit einer 250W GPU mithalten zu können.

Avalox
2013-07-04, 16:06:12
Viel fehlt doch nicht mehr von einer APU in Richtung eines SoCs.

Die Entwicklung findet doch schleichend statt.

Alle gebräuchlichen Desktop CPUs heute entstammen doch den Mobil CPU Linien.
Die Massenspeicher in den Desktop Geräten orientieren sich auch immer mehr an den Formfaktoren von Mobilgeräten. Der Desktop bewegt sich technisch schon heute in Richtung der Mobilgeräte, dass in vielen Beziehungen.

Und in Mobilgeräten werden auch SoCs Einzug halten. Intel kündigte groß an, dass die ATOM Entwicklung weit mehr Kapazitäten zuzuordnen, als den anderen CPU Reihen und in der ATOM Linie sind eben auch die Intel SoCs verortet. Welche dann durchaus über das Mobilgerät in den Desktop reichen könnten demnächst.

Es ist doch alles eine Frage der Anwendung. Schnelle GPUs brauchen die passenden Spiele. Nun stehen 4k Monitore vor der Tür, was ein wenig Aufschub geben könnte.
Aber wie viel wird denn in Zukunft auf dem Desktop gespielt und was wird dort gespielt? Das ist die entscheidende Frage.

Schon sehr spannend die Entwicklung.

Die gelbe Eule
2013-07-04, 16:37:12
Ich möchte ja nicht eine Titan einer Adreno 330 gegenüberstellten. Vielleicht fängt man klein an und zwar bei der IGPU im Desktopbereich. Mit dieser kann man ja auch spielen, eben nur nicht in Qualität. Und wenn man sich html5 oder Gamestreamingdienste anschaut, wird die Leistung welche man benötigt vielleicht doch nicht so weit weg sein. Schließlich schaut man auf den Massenmarkt, die "Enthusiasten" wie die meisten von uns haben immer einen dedizierten PC zusätzlich.

RLZ
2013-07-04, 17:06:36
Ich habe wohl Probleme deine Frage zu verstehen.
Wenn du surfen willst, einfache Office Aufgaben erledigen willst oder Angry Birds spielen willst, kannst du das heute schon mit Tablets machen. Eine IGP für den Desktop wird aber immer eine höheres Energiebudget haben als ein SoC für Handy oder Tablet. Also wird man nie eine aktuelle IGP in der Leistung erreichen. (wenn doch, gibt es sehr schnell einen Herstellerwechsel im Desktop Bereich)

Die gelbe Eule
2013-07-04, 17:23:07
Einfach gesagt, man nimmt seinen Desktop PC als Smartphone mit, könnte also alles das machen wo man möchte, wenn es die technischen Vorausstzungen gibt. Das Smartphone müsste also eine minimale Desktopgrafikleistung anbieten um dies zu ermöglichen. Was ich auf dem Tablet oder Smartphone spielen kann, das es so als App gibt, wäre für einen Desktopersatz nicht relevant, schleißlich kann ich diese Apps auf jeden HDMI basierten Monitor/TV auch spielen.

RLZ
2013-07-04, 17:37:51
Das ist ja mehr eine Frage des Ökosystems.
An den WinRT Tablets sieht man ja schön, dass man solche Sachen wie Office schon bequem auf einem Tegra 3 laufen lassen kann.
Ein Surface Pro bietet dir schon ansehnliche Leistung und du musst ja nur noch Maus, Tastatur und Bildschirm anschließen. Mit Haswell sollte das dann sogar wireless möglich sein.

ndrs
2013-07-04, 17:41:22
Wenn ichs richtig verstanden habe, was du willst, wäre das ja so ziemlich das, was sich viele bei den externen Grafikkartengehäusen für Notebooks per Thunderbolt o.ä. wünschen.

Ailuros
2013-07-04, 17:42:22
Einfach gesagt, man nimmt seinen Desktop PC als Smartphone mit, könnte also alles das machen wo man möchte, wenn es die technischen Vorausstzungen gibt. Das Smartphone müsste also eine minimale Desktopgrafikleistung anbieten um dies zu ermöglichen. Was ich auf dem Tablet oder Smartphone spielen kann, das es so als App gibt, wäre für einen Desktopersatz nicht relevant, schleißlich kann ich diese Apps auf jeden HDMI basierten Monitor/TV auch spielen.


Tablets werden schon in ein paar Jahren in etwa low end notebook/core i3 Leistung erreichen; fuer smartphones wird es noch etwas mehr dauern da der form factor in etwa halb so viel Stromverbrauch erlaubt.

Sonst fuer das was Du beschreibst reichen heutige SFF mobile GPUs schon seit langem aus.

Die gelbe Eule
2013-07-04, 21:44:23
Wenn ichs richtig verstanden habe, was du willst, wäre das ja so ziemlich das, was sich viele bei den externen Grafikkartengehäusen für Notebooks per Thunderbolt o.ä. wünschen.

Nicht ganz, weil mitschleppen solltest nur das Smartphone, die restliche Infrastruktur wäre dann dort wo Du gerade bist. Dabei ist die Infrastruktur nur die Peripherie, sprich Bildschirm, Tastatur und Maus. Der Dock ansich nur Schnittstelle der die Signale entgegen nimmt. Ein ITX Mainboard ist nochmal wie groß? Da sollte ein Tablet mindestens drankommen, mit Technologieshrinks wäre ein Smartphone das Optimum.

ndrs
2013-07-04, 23:26:57
Nicht ganz, weil mitschleppen solltest nur das Smartphone, die restliche Infrastruktur wäre dann dort wo Du gerade bist. Dabei ist die Infrastruktur nur die Peripherie, sprich Bildschirm, Tastatur und Maus. Der Dock ansich nur Schnittstelle der die Signale entgegen nimmt. Ein ITX Mainboard ist nochmal wie groß? Da sollte ein Tablet mindestens drankommen, mit Technologieshrinks wäre ein Smartphone das Optimum.
Ok, dann hab ich dich falsch verstanden. In dem Fall schließ ich mich dem Rest an und sage "niemals", wegen Leistungsaufnahme und Kühlung.

MasterElwood
2013-07-06, 12:53:30
Desktops werden (leider) langsam aber sicher extrem Niesche.

Die Masse wendet sich immer mehr von Desktops ab und geht hin zu Laptops. Und ehrlich gesagt: für den Normalen Anwender durchaus verständlich.

Und technisch gesehen (Stomaufnahme, Platz...) sind Tablets und Laptops nicht sooo weit weg.

Die Zukunft, wo dein Smartphone dein "PC" ist, und wo du - wenn zu besuch - dich ans Gast TV hängst um was zu arbeiten oder so...

Ich wollt grad was schreiben - aber ich ziehe den Gedanken zurück. Das Smartphone WIRD der "Zweit-PC" für Jederman werden. Nur wirst du dich nicht irgendwo dazuhängen, sondern wirst dein Flexibles Display ausrollen und dein zusammenklappbares BT-Keyboard+Mouse auspacken.

Und super hi-end sachen werden in der Cloud berechnet und in Echtzeit gestreamt.

RLZ
2013-07-06, 13:06:12
Bis das Realität ist, haben wir vielleicht schon 5 neue Geräteklassen und Smartphones sind dann nicht mehr relevant.

Coda
2013-07-06, 14:16:24
Bis das Realität ist, haben wir vielleicht schon 5 neue Geräteklassen und Smartphones sind dann nicht mehr relevant.
Sondern?

basti333
2013-07-06, 14:16:30
Leider kenne ich zur Zeit nicht wie performant der stärkste SoC im Grafikbereich aufgebaut ist, das man diesen mit einem Desktoppendant vergleichen könnte.
Meine Vision und vielleicht die vieler anderer, ich stecke mein Smartphone in eine Dockingstation, anywhere, anytime und kann damit Spiele nutzen, welche eigentlich nur auf dem Desktop flüssig laufen. Alternativ auch ein Tablet der Größe egen, um mehr Raum für Hardware zu schaffen. Da sich hier die Leistung jährlich schneller vergrößert als im Desktopbereich, man sieht zum Teil zwei neue SoC Generationen, eine interessante Thematik.

Natürlich rede ich hier nicht von hohen AA-Modi, doch einige Grafikdemos auf Android haben doch zumindest annähernd Unreal 3 Grafik flüssig dargestellt.

Wäre gut wenn jemand etwas Licht in die Sache bringen könnte.

Vielleicht ist das in 10 Jahren möglich, aber wenn wir soweit sind das ein ca. 30$ teurer SoC unteres Desktop (oder Notebook) Niveau erreicht, müssen wir uns eine frage stellen: Warum zum teufel soll ich mein Smartphone in irgendein gehäuse stecken um dann auf einen großen Bildschirm spiele, die darauf gespeichert sind, zu spielen? Kostenersparnis wäre kaum gegeben (wie gesagt 30$ koster so ein SoC ja ungefähr), gleichzeitig würde das viele Hard- und Softwareprobleme verursachen, ganz zu schweigen davon, was passiert wenn du dir ein neue Smartphone kauft (anderer Formfaktor...). Alles zusammengenommen würde ich am Ende vermutlich sogar mehr bezahlen als wenn ich 2 komplett seperate Geräte hätte.

Viel wahrscheinlicher ist es doch das es mehr Richtung cloud (nicht zu verwechseln mit cloudgaming) geht. Also Spiele werden mehr oder weniger Automatisch auf andere Geräte geladen wenn du sie auf einem kaufst (siehe Apple App Store oder zukünftig Steam) und Spielstände vermehrt in der cloud gespeichert werden. Aber sein Handy ans Notebook oder Desktop stöpseln? Wird nicht passieren.

RLZ
2013-07-06, 14:25:59
Sondern?
Keine Ahnung.
a) vielleicht
b) Wenn ich jetzt schon wüsste welche Geräteklassen in der Zukunft entstehen und auch noch erfolgreich werden, könnte ich wohl sehr reich werden. ;)

MasterElwood
2013-07-06, 14:37:07
Hab jedes jahr ein neues Smartphone. Von meinem ersten Android Phone (Desire) bis zu meinem S4 hab ich - im Schnitt - jedes Jahr eine Performance Steigerung um den Faktor 1.8

Und jedes Jahr hör ich "das geht ja nicht soweiter". Und trotzdem war der letze Sprung (S3 => S4) wieder genausogroß.


Um wieviel steigt die durchschnittliche Desktopleistung pro Jahr? 30%? 40%? :biggrin:

Undertaker
2013-07-06, 14:51:45
Das wird auch nicht so weiter gehen. Das die Sprünge in der Vergangenheit so groß waren, ist einfach zu erklären: Stetig wachsende Bilddiagonalen und damit die Möglichkeit, immer stärkere Akkus und SoCs mit höherer TDP zu verbauen. Bei aktuellen High-End-Geräten mit ~5" und extrem schmalem Rahmen ist die Grenze der Hosentaschentauglichkeit allerdings erreicht, mehr als allerhöchstens 3 Watt bekommt man hier nicht abgeführt. Dementsprechend wird die Leistungsentwicklung zwangsläufig abflachen müssen.

Ailuros
2013-07-06, 18:34:27
Die Leistungssteigerungen werden in absehbarer Zeit nachlassen weil Herstellungsprozesse zunehmend problematisch werden und die Spruenge von node zu node um einiges mehr dauern und weil Batterien auch nicht endlos groesser werden koennen.

drmaniac
2013-07-09, 16:11:27
ich stelle mir das so vor (könnte ich mir glatt patentieren lassen ;))

Das Smartphone ist unterwegs aufgrund Akkuleistung und Hitzeentwicklung eben massiv gebremst in einigen Jahren. Es läuft quasi auf Sparflamme (Was immer noch schneller ist wie das was wir heute kennen).

Und wenn wir zuhause sind, docken wir es ein. Durch den Dock wird es a) mit der nötigen Power versorgt um von der Leistung auf 100% zu gehen, b) wird es physikalisch durch das Dock thermal entlastet, es gibt also die Hitze über veschiedenen Maßnahmen direkt weiter.

So kann das Gerät dann zuhause eben vollwertige Anwendungen betreiben und unterwegs das nötigste.


Wo stelle ich einen Patentantrag? ;)

Undertaker
2013-07-09, 16:30:12
Das gibt es bei einigen Hybrid-Tablets bereits. ;) Aber hat sich nicht ein Australier auch das Rad patentieren lassen? :freak:

VooDoo7mx
2013-07-09, 17:57:34
Die Sache ist auch die, dass man mit aktuellen Smartphones kaum die verfügbare Leistung dauerhaft abrufen kann.
Die Geräte werden teilweise so heiß das man sie an einigen Stellen nicht mehr anfassen kann und der Akku ist in 2-3h leer.

Ich persönlich finde das aktuelle High End SoCs schon für Smartphones überdimensioniert sind.

VooDoo7mx
2013-07-09, 17:59:05
ich stelle mir das so vor (könnte ich mir glatt patentieren lassen ;))

Das Smartphone ist unterwegs aufgrund Akkuleistung und Hitzeentwicklung eben massiv gebremst in einigen Jahren. Es läuft quasi auf Sparflamme (Was immer noch schneller ist wie das was wir heute kennen).

Und wenn wir zuhause sind, docken wir es ein. Durch den Dock wird es a) mit der nötigen Power versorgt um von der Leistung auf 100% zu gehen, b) wird es physikalisch durch das Dock thermal entlastet, es gibt also die Hitze über veschiedenen Maßnahmen direkt weiter.

So kann das Gerät dann zuhause eben vollwertige Anwendungen betreiben und unterwegs das nötigste.


Wo stelle ich einen Patentantrag? ;)

Deine unglaubliche Idee hatten vor dir schon zig andere Unternehmen mit teilweise auch schon kaufbaren Produkten.

AnarchX
2013-07-10, 08:56:15
Ich persönlich finde das aktuelle High End SoCs schon für Smartphones überdimensioniert sind.
Peak-Leistung kann man doch nie genug haben, sofern das Powermanagement vernünftig arbeitet. So sind z.B. rechenintensive Aufgaben schneller erledigt und der andere großer Verbraucher das Display kann schneller wieder abgeschalten werden.

Geben eigentlich schon Smartphone-Hersteller Kontrolle über das Powermanagement der SoCs? Ähnlich wie unter Windows wäre da doch diverse Energie-Einstellungen möglich und auch eine Option die das besagte zu heiß werden verhindern könnte.

robbitop
2013-07-10, 10:05:26
Die großen Leistungssprünge kamen aus zweierlei Dingen:

1. größeres Wachstum als durch Shrinks erlaubt.
Bedeutet, man hatte vor 4-5 Jahren noch 1 W SoCs mit ganz kleinem Kern. Die konnten in einem 2" Smartphone und in einem Tablet laufen. Jetzt werden die Dinger größer und verbrauchen mehr und passen eben nur in ein 4-6" Smartphone (mit großem Akku) bzw. extra in das Tablet.

Hier ist in etwa das gleiche passiert, wie es bei Grafikkarten passiert ist. Die Dinger haben mal 30 W verbraucht - inzwischen ist es Faktor 10.

Irgendwann ist aber eine sinnvolle Grenze für den Formfaktor erreicht. Dann kann man nur noch mit dem Prozess Sprünge machen.

2. Niedrig hängende Früchte.
Bis vor kurzem hatte man noch extrem simple In Order CPUs, die vielleicht so schnell waren wie ein 4x86. (pro Takt -> ARM11). Da gibt es so viele niedrig hängende Früchte (mal versimplifiziert: dual issue -> A8, Out of order -> A9, breiteres Design -> A15), die man ernten konnte. Aber auch die sind irgendwann abgeerntet (siehe Intels Core Reihe). Und danach bemüht man sich um jedes Prozent IPC.
Auch die Anzahl der Kerne zu skalieren bringt irgendwann nichts mehr. (Amdahls Law)

Es ist intuitiv völlig klar, dass das nicht ewig so weiter geht.

Simon Moon
2013-07-10, 11:55:28
Deine unglaubliche Idee hatten vor dir schon zig andere Unternehmen mit teilweise auch schon kaufbaren Produkten.

Und es bleibt dennoch eine Nischenlösung.

Die zusätzliche Leistung, die man eh nur lokal nutzen könnte, kann man dann auch gleich lokal in die Dockingstation einbauen. Wobei, eine Dockingstation nicht notwendig ist dank WLAN & Bluetooth. Ergo -> man kann es auch beim normalen PC belassen.

Ailuros
2013-07-10, 13:02:41
Die großen Leistungssprünge kamen aus zweierlei Dingen:

1. größeres Wachstum als durch Shrinks erlaubt.
Bedeutet, man hatte vor 4-5 Jahren noch 1 W SoCs mit ganz kleinem Kern. Die konnten in einem 2" Smartphone und in einem Tablet laufen. Jetzt werden die Dinger größer und verbrauchen mehr und passen eben nur in ein 4-6" Smartphone (mit großem Akku) bzw. extra in das Tablet.

Hier ist in etwa das gleiche passiert, wie es bei Grafikkarten passiert ist. Die Dinger haben mal 30 W verbraucht - inzwischen ist es Faktor 10.

Nichts dagegen, aber wenn schon denn schon erwaehnt man auch in dem Fall den Leistungssprung von 30 auf 250W TDP fuer eine high end GPU der eben NICHT bei nur 10x Unterschied liegt.

Irgendwann ist aber eine sinnvolle Grenze für den Formfaktor erreicht. Dann kann man nur noch mit dem Prozess Sprünge machen.

So viel sollte klar sein; die Spruenge werden aber auch nicht gerade "klein" sein.

2. Niedrig hängende Früchte.
Bis vor kurzem hatte man noch extrem simple In Order CPUs, die vielleicht so schnell waren wie ein 4x86. (pro Takt -> ARM11). Da gibt es so viele niedrig hängende Früchte (mal versimplifiziert: dual issue -> A8, Out of order -> A9, breiteres Design -> A15), die man ernten konnte. Aber auch die sind irgendwann abgeerntet (siehe Intels Core Reihe). Und danach bemüht man sich um jedes Prozent IPC.
Auch die Anzahl der Kerne zu skalieren bringt irgendwann nichts mehr. (Amdahls Law)

Es ist intuitiv völlig klar, dass das nicht ewig so weiter geht.

Von der einen Seite verspricht ARM mit A5x um 30% hoehere Frequenzen bei 25% geringerem Stromverbrauch (wobei wohl die Prozess-Technologie mitbereichnet wurde LOL) und von der anderen Seite sollte es doch klar sein dass CPUs im SFF Bereich irgendwann zunehmend zur Stagnation kommen werden wo sich eben SoC Hersteller zu alternativen Leistungssteigerungen wenden werden. Ich hatte im vorigen Jahr einen Adreno 225 mit 8Vec4 ALUs bei 400MHz unter 28nm und ich hab heute schon knapp innerhalb eines Jahres SIMDs und bei Adreno330 6*SIMD16@450MHz. Neben der Effizienz-Steigerung pro ALU lane hast Du im zweiten Fall auch 4x Mal so viel TMUs.

Es gibt noch genug "niedrig haengende Fruechte" zum pfluecken innerhalb und ausserhalb Prozessen; man muss eben nur das Ganze auf realistischen Nivaeu halten. Bald wird heutige desktop low end Leistung nicht in smartphones auftreten; zwar irgendwann schon aber es wird natuerlich etliche Jahre dauern.

robbitop
2013-07-10, 13:32:45
Nichts dagegen, aber wenn schon denn schon erwaehnt man auch in dem Fall den Leistungssprung von 30 auf 250W TDP fuer eine high end GPU der eben NICHT bei nur 10x Unterschied liegt.

Grafikkarten sind mit den Shrinks schneller geworden plus das was man darüber hinaus gewachsen ist. Faktor 10 kommt also vom "darüber hinaus wachsen" und hinzu kommten 5-6 Shrinks, die nochmal ~ Faktor 64 bedeuten. Ergebnis ist ~ Faktor 640. Ohne das Über-den-Shrink-hinauswachsen wären wir heute bei weiterhin 30 W und 1/10 der Leistung (also Faktor 64 einer Geforce 3).

Alles natürlich eine Milchmädchenrechnung.


So viel sollte klar sein; die Spruenge werden aber auch nicht gerade "klein" sein.

Sie sind das Übliche. Alle 2 Jahre maximal Faktor 2. Eher weniger, da Prozesswechsel jetzt immer langsamer kommen und immer weniger bringen.
Auch sind, wie oben schon beschrieben, zumindest im Bereich CPU viele niedrig hängende Früchte bereits geerntet. Wir haben jetzt bereits 4 Kerne in einem SoC, wir haben OoO, wir haben einen integrierten Speichercontroller, wir haben mehrere Pipelines für die Execution. Klar gibt es noch mehr solcher Bumpups. Die Leistungssprünge werden gemäß sinkenden Grenzertrages aber immer kleiner.

GPUs werden aber weiterhin besser mit Shrinks skalieren. Weil diese eben beliebig parallel funktionieren und man die Leistung dort gut mit der Anzahl an Transistoren nach oben bringen kann.


Es gibt noch genug "niedrig haengende Fruechte" zum pfluecken innerhalb und ausserhalb Prozessen; man muss eben nur das Ganze auf realistischen Nivaeu halten. Bald wird heutige desktop low end Leistung nicht in smartphones auftreten; zwar irgendwann schon aber es wird natuerlich etliche Jahre dauern.
Ohne Frage. Ich sage ja auch nicht, dass es ab sofort vorbei ist. Ich sage nur, dass es irgendwann vorbei ist mit dem Wachstum und das ganze mittelfristig stagnieren wird. Schau dir an, wie stark jemand wie Intel sich anstrengen muss, um ein paar popelige % aus ihren CPUs zu quetschen. Die sind schon ganz weit oben auf der Leistungskurve. Irgendwann geht es nur noch mit Babyschrittchen voran. Deren Prozesse sind derartig krank (im positiven Sinne), dass sie die Dinger auch noch extremst stromsparend bekommen.
Aber im Bereich IPC wird es immer schwerer.

Ailuros
2013-07-10, 19:39:02
Grafikkarten sind mit den Shrinks schneller geworden plus das was man darüber hinaus gewachsen ist. Faktor 10 kommt also vom "darüber hinaus wachsen" und hinzu kommten 5-6 Shrinks, die nochmal ~ Faktor 64 bedeuten. Ergebnis ist ~ Faktor 640. Ohne das Über-den-Shrink-hinauswachsen wären wir heute bei weiterhin 30 W und 1/10 der Leistung (also Faktor 64 einer Geforce 3).

Alles natürlich eine Milchmädchenrechnung.

Die Steigerung ist so oder so gigantisch und wir sind noch weit davon entfernt wo man sagen koennte dass wir in einer Sackgasse sind. Es wird zwar noch ca. 2 Jahre oder etwas weniger dauern aber Maxwell (top dog) verdreifacht die arithmetische Effizienz von Kepler schon.

Sie sind das Übliche. Alle 2 Jahre maximal Faktor 2. Eher weniger, da Prozesswechsel jetzt immer langsamer kommen und immer weniger bringen.
Auch sind, wie oben schon beschrieben, zumindest im Bereich CPU viele niedrig hängende Früchte bereits geerntet. Wir haben jetzt bereits 4 Kerne in einem SoC, wir haben OoO, wir haben einen integrierten Speichercontroller, wir haben mehrere Pipelines für die Execution. Klar gibt es noch mehr solcher Bumpups. Die Leistungssprünge werden gemäß sinkenden Grenzertrages aber immer kleiner.

Na mal sehen was Intel und spaeter Apple interessantes auftischen fuer SFF; SoCs brauchen mehr Bandbreite und sie wird auch zunehmen. Wenn diese nicht zunimmt - eben da in einem SoC alle Einheiten an der gleichen oeden Bandbreite haengen - kannst Du Dir jegliche theoretische Leistungs-Steigerung schnell an den Hut stecken und das gilt natuerlich fuer alle Einheiten.

GPUs werden aber weiterhin besser mit Shrinks skalieren. Weil diese eben beliebig parallel funktionieren und man die Leistung dort gut mit der Anzahl an Transistoren nach oben bringen kann.

GPUs werden in Zukunft in Bedeutung in SFF SoCs zunehmen; einen anderen Ausweg gibt es nicht.

Ohne Frage. Ich sage ja auch nicht, dass es ab sofort vorbei ist. Ich sage nur, dass es irgendwann vorbei ist mit dem Wachstum und das ganze mittelfristig stagnieren wird. Schau dir an, wie stark jemand wie Intel sich anstrengen muss, um ein paar popelige % aus ihren CPUs zu quetschen. Die sind schon ganz weit oben auf der Leistungskurve. Irgendwann geht es nur noch mit Babyschrittchen voran. Deren Prozesse sind derartig krank (im positiven Sinne), dass sie die Dinger auch noch extremst stromsparend bekommen.
Aber im Bereich IPC wird es immer schwerer.

Bis SFF mobile CPUs im core i3 Leistungsbereich landen wird es eine Ewigkeit dauern. Und dieses oede "irgendwann" hoere ich auch schon seit einer Ewigkeit; es wird keiner so leicht ueber ein halbes Jahrzehnt spekulieren wollen. Weiss der Geier wie es nach 5 Jahren mit Herstellung aussehen wird. Nun Gott sei Dank ist endlich das daemliche Maerchen der Vergangenheit verschwunden dass Bandbreiten in Zukunft nicht mehr sooo wichtig sein wird; ein Dally hat wohl einen realistischeren Wind in die Segel gepustet.

H2 2016 duerften wir knapp bei der TFLOP Schwelle sein oder ein Haar darueber und dieses mit den typischen konservativen Frequenzen die man bei Apple iOS GPUs sind. Wohl nicht nur ein 2x Mal Faktor alle 2 Jahre und ja entweder SoC designer haben einen realistischen Plan all die FLOPs zu benutzen oder sie verschwenden einfach riesige Anteile an zukuenftigen SoCs ueber nichts.