PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

Hugo78
2011-07-22, 22:12:52
@AnarchX

Eventuell haben sie das AC100 nicht vergessen, aber sie sagen ja auch "Notebook".
Das AC100 war ja ne Nummer kleiner. ;)

T3 wäre aber gescheiter, wenn T3 im August verfügbar wird.
Und wie du schon richtig sagts, ein richtiges OS muss her.
Das Google Zeug mag ja fürs Handy und Tab ok sein, aber mir wäre auch ein Ubuntu oder gar Win8 beta lieber.

Mancko
2011-07-22, 23:01:22
N-Core wird häufig für ein CPU mit mehr als 4 oder 8-Cores verwendet.

Ich tippe auf 8

=Floi=
2011-07-23, 03:32:45
was ist denn echelon?
wird denver ein T3 für den desktop?

könnten ja 6 oder 10 auch sein. dank intel könnte nv ja auch auf die dumme idee kommen und solche "krummen" zahlen verwenden. hat einfac den vorteil, dass man so intelligent transistoren spart und trotzdem genug leistung anbietet und sich auch von den quad core cpus absetzen kann.

Ailuros
2011-07-23, 18:26:00
N-Core wird häufig für ein CPU mit mehr als 4 oder 8-Cores verwendet.

N steht unter normalen Umstaenden fuer eine X-beliebige Zahl und nichts bestimmtes. Wie z.B. for n samples use n cycles. Wieso es jetzt mir nichts dir nicht nur streng 4 oder 8 anzeigen soll hoere ich zum ersten Mal.

Hoechstwahrscheinlich wird Wayne irgend etwas in der Richtung von quad A9 @2.0GHz haben IMHO. NV gehoert nicht zu den Eagle/A15 lead partners.

Ich erinnere mich an ein nVidia statement, vielleicht war es auch auf Project Denver bezogen, wo sie gesagt haben, dass sie derzeit 8 CPU Kerne als Optimum empfinden. Mehr werden wir schätz ich in den nächsten Jahren nicht sehen.

Selbst im obrigen Diagram steht klipp und klar drin dass Project Denver erst ab =/>2013 zum Anlauf kommen wird und ja afaik faengt project denver erst mit 20HP@TSMC an.

was ist denn echelon?
wird denver ein T3 für den desktop?

Denver ist eine von NV modifizierte 64bit ARM CPU fuer groessere SoCs mit Maxwell GPUs. Es wird desktop und embedded SoCs geben ab 20nm.

könnten ja 6 oder 10 auch sein. dank intel könnte nv ja auch auf die dumme idee kommen und solche "krummen" zahlen verwenden. hat einfac den vorteil, dass man so intelligent transistoren spart und trotzdem genug leistung anbietet und sich auch von den quad core cpus absetzen kann.

Ab 2013 und 20nm? Fuer higher end SoCs sollten Dich sogar 16 CPU Kerne nicht ueberraschen in der Zukunft.

IVN
2011-07-23, 19:50:11
Mir tun diejenigen SoC Hersteller ernsthaft leid die ab 28nm nicht desktop Leistung (muss ja nicht der letzte Schrei im heutigen desktop sein) sowohl von der CPU als auch von der GPU Seite liefern werden.

Selbst am Anfang wird eine 2*A15 CPU@=/>2GHz verdammt gute CPU Leistung bringen und das sogar in nur smart-phones. Alles andere als low end.

Ooops Moment NV gehoert gar nicht zu den A15 lead partners; aendert aber trotz allem nichts am obrigen. Hoehere Effizienz bzw. Leistung hat niemand geschadet egal woher es kommt. Ausserdem ist mainstream und low end das high end von gestern. Man nennt es auch technologischen Fortschritt sonst braucht man auch kein mobiles Geraet jeglicher Art und rechnet noch mit einem Abakus.
:confused:

Das ist doch um mehrere Faktoren langsamer als ein gleichgetakteter C2Duo. Und der C2Duo ist wie viele Jahre alt? Und was ist er heutzutage von der Performance her? Eindeutig lowest end possible.

Ailuros
2011-07-24, 15:47:25
:confused:

Das ist doch um mehrere Faktoren langsamer als ein gleichgetakteter C2Duo. Und der C2Duo ist wie viele Jahre alt? Und was ist er heutzutage von der Performance her? Eindeutig lowest end possible.

War es nicht NV welches fuer Tegra3/Kal-El den quad A9@1.5GHz mit einem core2 duo verglichen hat?

http://images.anandtech.com/reviews/SoC/NVIDIA/Kal-El/roadmap.jpg

Ein 2*A15 bei =/>2.0GHz ist um einige Laengen schneller als das letztere Gespann. In dem huebschen marketing Bildchen oben liegt ein 2*A15 ein gutes Stueck vor Wayne.

------------------------------------------------------------------------------------------------------------------------------------------------

***edit: uebrigens tablet sales fuer Q2 11': http://www.xbitlabs.com/news/mobile/display/20110721234836_Tablets_Powered_by_Google_Android_Grab_30_of_the_Market_in_Q2_201 1_Analysts.html

Eine ziemlich brutale Steigerung fuer Android tablets; nur sehe ich aus diesen Zahlen nichts dass die "erhofften" oder projezierten Zahlen fuer Tegra2 tablets selbst annaehernd decken koennte.

Hugo
2011-07-24, 16:16:34
Wieso sind sie denn kein Leadpartner.
Warum setzt NV keine A15 Kerne ein, wenn 2*A15 schneller als die 4*A9 im Wayne sind?

IVN
2011-07-24, 16:25:45
War es nicht NV welches fuer Tegra3/Kal-El den quad A9@1.5GHz mit einem core2 duo verglichen hat?

http://images.anandtech.com/reviews/SoC/NVIDIA/Kal-El/roadmap.jpg

Ein 2*A15 bei =/>2.0GHz ist um einige Laengen schneller als das letztere Gespann. In dem huebschen marketing Bildchen oben liegt ein 2*A15 ein gutes Stueck vor Wayne.

------------------------------------------------------------------------------------------------------------------------------------------------

***edit: uebrigens tablet sales fuer Q2 11': http://www.xbitlabs.com/news/mobile/display/20110721234836_Tablets_Powered_by_Google_Android_Grab_30_of_the_Market_in_Q2_201 1_Analysts.html

Eine ziemlich brutale Steigerung fuer Android tablets; nur sehe ich aus diesen Zahlen nichts dass die "erhofften" oder projezierten Zahlen fuer Tegra2 tablets selbst annaehernd decken koennte.
Nv kann behaupten was es will, 4 A9 sind sicherlich nicht so schnell wie ein C2D. Der Beweis muss erst erbracht werden.

AnarchX
2011-07-24, 16:37:49
Der Benchmarkaufbau ist doch bekannt: http://www.brightsideofnews.com/news/2011/2/21/why-nvidiae28099s-tegra-3-is-faster-than-a-core-2-duo-t7200.aspx

IVN
2011-07-24, 16:40:30
Der Benchmarkaufbau ist doch bekannt: http://www.brightsideofnews.com/news/2011/2/21/why-nvidiae28099s-tegra-3-is-faster-than-a-core-2-duo-t7200.aspx
So wie jeder andere Synth-Bench, sagt auch dieser nicht viel über die reale Performance aus.

Man erinnere sich an die Prescotts und K8s in Synths vs Real-World Benches.

Avalox
2011-07-24, 16:48:59
Nv kann behaupten was es will, 4 A9 sind sicherlich nicht so schnell wie ein C2D.

Ach, ist der niemals. nVidia vermuschelt die CPU Kern Leistung mit der GPU Kern Leistung zu irgendein nicht nachvollziehbaren Rating.
Andreas Stiller hatte es mal kurz in irgend einer c't mal kurz angesprochen.
nVidia ist doch mehr an der GPU interessiert als an den ARM Kernen. Weshalb der GPGPU Part natürlich nach vorne gespielt wird.
Und natürlich findet man auf der GPGPU Seite schnell Anwendungen welche deutlich schneller ablaufen, als auf einen C2D. Nur ob diese Anwendungen einen Benutzer tatsächlich interessieren ist die Frage.
Allerdings dürften sich auch die wenigsten Benutzer tatsächlich noch für CPU Leistung interessieren. Diese ist ja eh im Überfluss vorhanden.

robbitop
2011-07-24, 17:06:31
Ein A9 ist bei gleichem Takt so schnell wie ein Intel Atom. Ein C2D hat die mehrfache IPC eines Atoms und den mehrfachen Takt. Da liegt locker eine Größenordnung dazwischen. Einfach nur lächerlich.

Es wird IMO nie einen ARM geben, der einem dann aktuellen AMD oder Intelprozessor hinsichtlich Performance das Wasser reichen kann.

schöner Artikel mit sehr sehr guter Argumentation darüber von David Kanter:
http://www.realworldtech.com/page.cfm?ArticleID=RWT050911220752

Deinorius
2011-07-24, 17:06:40
Der Benchmarkaufbau ist doch bekannt: http://www.brightsideofnews.com/news/2011/2/21/why-nvidiae28099s-tegra-3-is-faster-than-a-core-2-duo-t7200.aspx


CoreMark ist uninteressant. Wieso verlinkst du ausgerechnet darauf?

Ein A9 ist bei gleichem Takt so schnell wie ein Intel Atom.


Sicher?

AnarchX
2011-07-24, 17:28:52
CoreMark ist uninteressant. Wieso verlinkst du ausgerechnet darauf?

Weil es die Basis für NVs Grafik ist.



Sicher?
http://www.hardware-infos.com/berichte.php?bericht=60&seite=7
Vielleicht findet sich mal jemand mit AC100 und einem Atom Netbook, der mal ausführlichere Benchmarks durchführt....


Es wird IMO nie einen ARM geben, der einem dann aktuellen AMD oder Intelprozessor hinsichtlich Performance das Wasser reichen kann.

schöner Artikel mit sehr sehr guter Argumentation darüber von David Kanter:
http://www.realworldtech.com/page.cfm?ArticleID=RWT050911220752
Auch nicht im Ultra-Book-Markt (<20W)?

IVN
2011-07-24, 17:36:31
Ach, ist der niemals. nVidia vermuschelt die CPU Kern Leistung mit der GPU Kern Leistung zu irgendein nicht nachvollziehbaren Rating.
Andreas Stiller hatte es mal kurz in irgend einer c't mal kurz angesprochen.
nVidia ist doch mehr an der GPU interessiert als an den ARM Kernen. Weshalb der GPGPU Part natürlich nach vorne gespielt wird.
Und natürlich findet man auf der GPGPU Seite schnell Anwendungen welche deutlich schneller ablaufen, als auf einen C2D. Nur ob diese Anwendungen einen Benutzer tatsächlich interessieren ist die Frage.
Allerdings dürften sich auch die wenigsten Benutzer tatsächlich noch für CPU Leistung interessieren. Diese ist ja eh im Überfluss vorhanden.
Ganz und gar nicht. Schon beim Surfen sind die heutigen SoCs zu lahm. Man braucht noch viel, viel mehr CPU-Power.

robbitop
2011-07-24, 17:52:04
Auch nicht im Ultra-Book-Markt (<20W)?
Maximal im Netbook / Atom Markt.

Ultrabook gibt es zB den 1,8 GHz i7 SB mit Turbo auf 2,8 GHz. Allein von der IPC ist ARM dort so weit weg. Und je mehr IPC oben drauf kommt, um so schwieriger wird es, sie zu erhöhen. Gesetz des abnehmenden Grenzertrages.
Ein ARM mit SB IPC werden wir laaaange nicht sehen. Und wenn ARM das irgendwann mal hat, ist Intel wieder extrem viel weiter.

Nur weil ARM -das was ihre Kernkompetenz ist!- es schafft im >1 W Bereich super da zu stehen, heißt das nicht, dass man konkurrenzfähige High Performance CPUs hinbekommt.
Das ist einfach nicht ARMs Kernkompetenz. Außerdem haben sie gar nicht das Kapital, keine Fabrik und selbst mit einem wirklich guten Partner wie GF nicht die Time-to-Market und die Execution von Intel. ;)

AMD hat es bis heute nicht geschafft, bspw eine CPU zu bauen, die die gleiche IPC erreicht wie ein Core 2. Geschweige denn SB! Und das mit 20 Jahren Erfahrung und Größenordnungen mehr Ressourcen als ARM.

Einfach mal den wirklich sehr sehr guten Artikel von David Kanter lesen.

Deinorius
2011-07-24, 17:56:21
http://www.hardware-infos.com/berichte.php?bericht=60&seite=7
Vielleicht findet sich mal jemand mit AC100 und einem Atom Netbook, der mal ausführlichere Benchmarks durchführt....


Ich kenne den Test, aber der ist grad mal halbgar. Frag ma doch den lovesuckz, der hat doch ein AC100. ;D

Auch nicht im Ultra-Book-Markt (<20W)?


Seine Aussage ist doch, dass die Entwicklung auch bei Intel nicht stillsteht.

Ganz und gar nicht. Schon beim Surfen sind die heutigen SoCs zu lahm. Man braucht noch viel, viel mehr CPU-Power.


Oder GPU-Rendering fürs Surfen.

Ailuros
2011-07-25, 12:40:56
Ach, ist der niemals. nVidia vermuschelt die CPU Kern Leistung mit der GPU Kern Leistung zu irgendein nicht nachvollziehbaren Rating.
Andreas Stiller hatte es mal kurz in irgend einer c't mal kurz angesprochen.
nVidia ist doch mehr an der GPU interessiert als an den ARM Kernen. Weshalb der GPGPU Part natürlich nach vorne gespielt wird.
Und natürlich findet man auf der GPGPU Seite schnell Anwendungen welche deutlich schneller ablaufen, als auf einen C2D. Nur ob diese Anwendungen einen Benutzer tatsächlich interessieren ist die Frage.
Allerdings dürften sich auch die wenigsten Benutzer tatsächlich noch für CPU Leistung interessieren. Diese ist ja eh im Überfluss vorhanden.

Welcher GPGPU Teil genau? Hoechstwahrscheinlich steckt im Tegra3 eine aehnliche GPU wie in Tegra2 mit mehr PS ALUs und hoeherer Frequenz. Wie man jetzt mit FP20 PS ALUs zu GPGPU genau kommt ist mir fremd. Klingt genauso fuer Mali200/400 wo es bei FP16 fuer PS ALUs stecken bleibt, wobei natuerlich die kommende T604 Generation mit vollen USC FP32/64 ALUs ankommt. Ausser NV hat irgend etwas im Lauf der Zeit geaendert, sieht es vor 20nm nicht nach USC bzw. FP32 GPU ALUs aus.

Wieso sind sie denn kein Leadpartner.
Warum setzt NV keine A15 Kerne ein, wenn 2*A15 schneller als die 4*A9 im Wayne sind?

Weil NVIDIA keinen Vertrag mit ARM hat um ein A15 Leadpartner zu sein. Frag doch NV warum dem nicht so ist. Kann sein dass ich jemand verpasse aber mir bekannte lead partners fuer A15 sind Samsung, ST Ericsson und Texas Instruments.

Nv kann behaupten was es will, 4 A9 sind sicherlich nicht so schnell wie ein C2D. Der Beweis muss erst erbracht werden.

Du hast mich erstmal ueber eine Behauptung gequotet die 2*A15 bei =/>2.0GHz betraf. Dieses Gespann ist alles andere als low end fuer die heutigen desktop CPU Verhaeltnisse. Fuer die desktop CPU Verhaeltnisse von morgen vielleicht schon, aber man braucht wohl keine langwierige Analyse zu verstehen dass es stets einen gewissen Abstand zwischen desktop und embedded geben wird.

AffenJack
2011-07-25, 13:09:37
Du hast mich erstmal ueber eine Behauptung gequotet die 2*A15 bei =/>2.0GHz betraf. Dieses Gespann ist alles andere als low end fuer die heutigen desktop CPU Verhaeltnisse. Fuer die desktop CPU Verhaeltnisse von morgen vielleicht schon, aber man braucht wohl keine langwierige Analyse zu verstehen dass es stets einen gewissen Abstand zwischen desktop und embedded geben wird.

Was solls denn bitte sonst als Low End sein? Für 40€ kriegste nen Regor mit 2x3ghz und das Ding ist sicher schneller als 2xA15 @ 2ghz. Höhere Bereiche als Low End könnte man nur mit Quad A15 erreichen.

fondness
2011-07-25, 13:13:28
Du hast mich erstmal ueber eine Behauptung gequotet die 2*A15 bei =/>2.0GHz betraf. Dieses Gespann ist alles andere als low end fuer die heutigen desktop CPU Verhaeltnisse. Fuer die desktop CPU Verhaeltnisse von morgen vielleicht schon, aber man braucht wohl keine langwierige Analyse zu verstehen dass es stets einen gewissen Abstand zwischen desktop und embedded geben wird.

Stimmt, das ist wirklich nicht Lowend. Sowas langsames wird heute im Desktop gar nicht mehr verkauft. A15 wird maximal Bobcat IPC erreichen, eher spürbar weniger.

Avalox
2011-07-25, 15:03:34
Welcher GPGPU Teil genau?

Hatte im Sinn, dass die nächste Inkarnation Unified Shader höherer Genauigkeit bekommen soll.
War nichts.
Zur Ehrenrettung der c't stand es dort auch anders zum Kal-El und der nVidia Performancerechnung. Die GPU Leistung geht nicht als GPGPU Leistung in das Rating, sondern wird direkt hinzu addiert.
Ich habe da nVidia zu viel zugetraut.

"Eine rund fünffache Beschleunigung verspricht Nvidia gegenüber dem derzeit verfügbaren Tegra 2. An Bord befinden sich neben den vier Rechenkernen noch eine Grafik-Einheit mit 12 Kernen, die etwa die dreifache Grafikleistung des ULP GeForce im Tegra 2 haben soll – doppelte Rechenleistung und dreifache Grafikleistung addiert Nvidia zur fünffachen Gesamtleistung. "

http://www.heise.de/ct/meldung/Nvidia-zeigt-Quad-Core-ARM-Tablet-1190778.html

IVN
2011-07-25, 18:35:11
Du hast mich erstmal ueber eine Behauptung gequotet die 2*A15 bei =/>2.0GHz betraf. Dieses Gespann ist alles andere als low end fuer die heutigen desktop CPU Verhaeltnisse. Fuer die desktop CPU Verhaeltnisse von morgen vielleicht schon, aber man braucht wohl keine langwierige Analyse zu verstehen dass es stets einen gewissen Abstand zwischen desktop und embedded geben wird.
Auch heute ist das Low-End. Schau mal bei Geizhals nach.

Ich geh davon aus, das sich niemand einen veralteten Sockel kaufen würde, deswegen fallen 775-CPUs aus. Für 1055 ist die langsamste und billigste CPU ein Pentium G620 mit 2,6 GHz um €55. Um wie viele Faktoren ist dieser wohl schneller als so ein A15 mit 2GHz? 2, 3, vlt sogar 4x?

AnarchX
2011-07-25, 18:48:49
Sofern der A15 nicht deutlich unter Bobcat-IPC landet: http://www.anandtech.com/bench/Product/328?vs=406

IVN
2011-07-25, 18:51:02
Sofern der A15 nicht deutlich unter Bobcat-IPC landet: http://www.anandtech.com/bench/Product/328?vs=406
Ich nehme an Bobcat-IPC kann man vergessen. Das ist schon ziemlich utopisch.

Ailuros
2011-07-25, 22:08:59
Ich nehme an Bobcat-IPC kann man vergessen. Das ist schon ziemlich utopisch.

Gut dann bleiben wir bei Deiner "Annahme" und warten auf reale Messungen der Zukunft ab.

IVN
2011-07-26, 08:23:31
Gut dann bleiben wir bei Deiner "Annahme" und warten auf reale Messungen der Zukunft ab.
Ich denke meine Annahme ist realistisch. Immerhin ist Bobcat in Sachen IPC nicht weit von einem Phenom entfernt, und wie lange hat AMD gebraucht, bis sie diese IPC erreicht haben? Und das soll ARM einfach so vollbringen? Yeah, right...

robbitop
2011-07-26, 09:26:02
Bobcat ist eher näher am K8 dran - sogar ein Stück langsamer. Vom K10 kann absolut nicht die Rede sein.
Das hat VIA mit dem C8 auch geschafft und Transmeta auch beinahe. Vieleicht ist der A15 auch etwas langsamer pro Takt - aber im Bereiche K7- K8 werden sie schon kommen.

Ailuros
2011-07-26, 10:25:34
Ich denke meine Annahme ist realistisch. Immerhin ist Bobcat in Sachen IPC nicht weit von einem Phenom entfernt, und wie lange hat AMD gebraucht, bis sie diese IPC erreicht haben? Und das soll ARM einfach so vollbringen? Yeah, right...

2*A15 bei =/>2.0GHz sind verdammt viel fuer zukuenftige smart-phone SoC Designs, denn sehr weit ueber 960*540 beispielsweise wird die Aufloesung hier schwer skalieren, ausser es stellt jemand smart-phones in Schuhgroesse her.

Von dem abgesehen ist nirgends festgenagelt dass man mir nichts dir nichts nur 2 A15 in einem zukuenftigem Design benutzen muss. Je mehr sich Herstellungsprozesse ausreifen desto mehr cores sind moeglich (je nach Zielmarkt) und/oder hoehere Frequenzen.

ST Ericsson's Nova A9600 (2*A15@bis zu 2.0GHz) und Texas Instruments OMAP5 (2*A15@bis zu 2.5GHz) angekuendigte zukuenftige SoCs sind smart-phone Designs afaik. Das einzig negative ist dass beide auf 28HP und nicht LP setzen um so hohe Frequenzen zu erreichen. Zumindest TI aber scheint bis jetzt bei UMC keine besondere Probleme zu haben nach eigenen Meldungen.

Wenn es jetzt zu tablet Designs kommt und ueberhaupt da die Aufloesungen hier bald um einiges steigen werden koennte es heikel werden, aber wie schon erwaehnt wurde werden die meisten Hersteller eben nicht nur ausschliesslich auf CPU Beschleunigung beruhen und es gibt stets auch die quad core A15 Option. Ab 28nm werden die GPU Bloecke in SoCs generell um ein sehr gesundes Prozentual steigen denn multi-core GPUs wird es nicht nur von einer Seite geben.

Kurz: natuerlich wird der desktop stets aus verstaendlichen Gruenden (Stromverbrauch ahoi) im Vorsprung liegen; es sollte aber nicht heissen dass der embedded Bereich im Stillstand stehen wird.

IVN
2011-07-26, 10:36:24
Bobcat ist eher näher am K8 dran - sogar ein Stück langsamer. Vom K10 kann absolut nicht die Rede sein.
Das hat VIA mit dem C8 auch geschafft und Transmeta auch beinahe. Vieleicht ist der A15 auch etwas langsamer pro Takt - aber im Bereiche K7- K8 werden sie schon kommen.
Wie groß ist der Unterschied zw. K8 und Phenom? 20%, vlt 30? Das würde ich immer noch als den gleichen IPC-Bereich klassifizieren. Erst Nehalem und SB liegen spürbar höher. Ein ARM Design wird nicht so schnell in diese Bereiche kommen. Auch nicht in den K8-Bereich. Ich denke, dank Ailuros traut man hier den SoC-Designer viel mehr zu, als sie tatsächlich imstande sind.

2*A15 bei =/>2.0GHz sind verdammt viel fuer zukuenftige smart-phone SoC Designs, denn sehr weit ueber 960*540 beispielsweise wird die Aufloesung hier schwer skalieren, ausser es stellt jemand smart-phones in Schuhgroesse her.

Von dem abgesehen ist nirgends festgenagelt dass man mir nichts dir nichts nur 2 A15 in einem zukuenftigem Design benutzen muss. Je mehr sich Herstellungsprozesse ausreifen desto mehr cores sind moeglich (je nach Zielmarkt) und/oder hoehere Frequenzen.

ST Ericsson's Nova A9600 (2*A15@bis zu 2.0GHz) und Texas Instruments OMAP5 (2*A15@bis zu 2.5GHz) angekuendigte zukuenftige SoCs sind smart-phone Designs afaik. Das einzig negative ist dass beide auf 28HP und nicht LP setzen um so hohe Frequenzen zu erreichen. Zumindest TI aber scheint bis jetzt bei UMC keine besondere Probleme zu haben nach eigenen Meldungen.

Wenn es jetzt zu tablet Designs kommt und ueberhaupt da die Aufloesungen hier bald um einiges steigen werden koennte es heikel werden, aber wie schon erwaehnt wurde werden die meisten Hersteller eben nicht nur ausschliesslich auf CPU Beschleunigung beruhen und es gibt stets auch die quad core A15 Option. Ab 28nm werden die GPU Bloecke in SoCs generell um ein sehr gesundes Prozentual steigen denn multi-core GPUs wird es nicht nur von einer Seite geben.

Kurz: natuerlich wird der desktop stets aus verstaendlichen Gruenden (Stromverbrauch ahoi) im Vorsprung liegen; es sollte aber nicht heissen dass der embedded Bereich im Stillstand stehen wird.
Das mag alles stimmen, trotzdem ist auch aus heutiger Sicht ein A15 nichts anderes als ultra low end. Und nicht nur im Desktop Bereich.

Ailuros
2011-07-26, 11:19:57
Ich denke, dank Ailuros traut man hier den SoC-Designer viel mehr zu, als sie tatsächlich imstande sind.

Spar Dir die Schnappschuesse, denn es ist keinerlei "Ehre" wenn man ein jegliches Publikum so auf die Palme treiben koennte.

Das mag alles stimmen, trotzdem ist auch aus heutiger Sicht ein A15 nichts anderes als ultra low end. Und nicht nur im Desktop Bereich.

Unter welcher Konstellation, Frequenz, Stromverbrauch-cap, Sw-Umgebung oder weiss der Geier was noch? Die obrige Generalisierung ist fuer die Muelltonne. Ich sagte wir sollten die ersten realen Messungen abwarten. Bis zu dem Zeitpunkt darfst Du zwar glauben was Du willst aber solche undokumentierte Behauptungen sind dann eventuell auch "ultra low end".

IVN
2011-07-26, 12:45:08
Spar Dir die Schnappschuesse, denn es ist keinerlei "Ehre" wenn man ein jegliches Publikum so auf die Palme treiben koennte.



Unter welcher Konstellation, Frequenz, Stromverbrauch-cap, Sw-Umgebung oder weiss der Geier was noch? Die obrige Generalisierung ist fuer die Muelltonne. Ich sagte wir sollten die ersten realen Messungen abwarten. Bis zu dem Zeitpunkt darfst Du zwar glauben was Du willst aber solche undokumentierte Behauptungen sind dann eventuell auch "ultra low end".
Der einzige Bench, den wir als Anhaltspunkt haben, ist Coremark. Ist zwar ein 4C A9, aber dieser kann es nicht mal mit einem kastrierten C2D @ 2 GHz aufnehmen. Hinzu kommt, das solche Synth-Benches tendenziell schwache Architekturen (die in RL Applikationen nur schwer ausgelastet werden können) bevorteilen. Auch mit +50% IPC und dem höheren Takt wird der A15 nicht mal in die Nähe heutiger low-end Desktop oder Notebook CPUs kommen. Vlt wird er ne Chance gegen die AMD/Intel-Angebote im Netbook-Bereich haben (besonders dank Win8), aber auch da wird er kaum High-End darstellen, wie von dir vermutet.

AnarchX
2011-07-29, 22:47:45
Anwendungen auf ARM: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8855982#post8855982

Tiamat
2011-07-31, 19:48:34
Texas Instruments plant Verkauf der Ti-Sparte.
Angeblich wegen eines 13%-igen Gewinnrücksgangs im zweiten Quartal. *lächerlich*

Meines Erachtens hat das eindeutig was mit der Präsenz von Nvidia und mit den verschärften Konkurrenzbedingungen zu tun.


Link:
http://www.computerbase.de/news/wirtschaft/unternehmen/2011/juli/ti-soll-verkauf-der-omap-sparte-planen/

Hugo78
2011-07-31, 20:26:13
Diese Meldung glaube ich erst, wenn sie von einer echten Quelle kommt. :usweet:

Tiamat
2011-07-31, 21:09:38
Kommt immerhin von Semiaccurate, CB hat das nur zitiert ^^

AwesomeSauce
2011-07-31, 21:37:38
Kommt immerhin von Semiaccurate
Genau deswegen:D

Mancko
2011-07-31, 22:51:44
Texas Instruments plant Verkauf der Ti-Sparte.
Angeblich wegen eines 13%-igen Gewinnrücksgangs im zweiten Quartal. *lächerlich*

Meines Erachtens hat das eindeutig was mit der Präsenz von Nvidia und mit den verschärften Konkurrenzbedingungen zu tun.


Link:
http://www.computerbase.de/news/wirtschaft/unternehmen/2011/juli/ti-soll-verkauf-der-omap-sparte-planen/

Ich habe schon vor Wochen geschrieben, dass die großen recht bald die Schnauze voll von dem SoC Markt haben, weil der Konkurenzkampf zunimmt und die Gewinne damit abnehmen. Dafür haben die Großen einfach zu hohe Kosten, sind zu träge und haben eine zu große Verwaltung.

Nvidia sollte die Sparte einfach kaufen. Ein Konkurent weniger.

LovesuckZ
2011-07-31, 23:13:43
TI hat es auch sehr hart getroffen. Die haben gerademal zwei relevante DualCore Smartphone Designs. Und ich weiß nichtmal, ob überhaupt schon eins auf dem Markt ist.
Im Tablet-Markt gibt es nur das Playbook. Das spielt keine wirkliche Rolle. Android-Geräte kommen frühsten im September. Wobei diese gleich ins Low-End gehen müssen, da nVidia mit Tegra 3 den oberen Markt (ab 350€/$399) einnehmen wird. Und Konkurrenz zu Tegra 3 wird es frühsten irgendwann Ende Q1 geben...

Aber ich bezweifel, dass die die Sparte verkaufen. Der Markt wächst unglaublich, das wäre einfach kurzsichtig.

Ailuros
2011-08-01, 18:02:00
So verrueckt ist der Gedanke gar nicht, obwohl es auch nicht wirklich etwas mit dem Thread hier zu tun hat. Ich bezweifle zwar auch dass TI verkaufen will, aber bei so einer Moeglichkeit waere dieser newsblurb um einiges langweiliger als die eigentlichen Spekulationen wer die potentiellen Kaeufer sein sollten (wer denn ueberhaupt?) :D

Hugo
2011-08-01, 18:39:03
als Käufer würde ich Intel, AMD und Nvidia denken oder?

Deinorius
2011-08-01, 18:42:39
Intel sicher nicht. Die leben von x86.
AMD wäre da schon wahrscheinlicher, aber die machen sich mit ihren x86 Parts im mobilen Bereich besser als Intel, also wozu, wenn sie sich dann wieder mal ins Minus katapultieren würden wie damals mit ATI. :ugly:

Was hätte nvidia genau davon, wenn sie eh schon ARM SoCs bauen?

Hugo78
2011-08-01, 20:19:41
@Deinorius
Ein paar Patente und ein haufen erfahrener Ingenieure.
Gutes Personal sollte man halten.

Hugo
2011-08-01, 20:35:13
Nvidia würde damit auch nen Konkurenten wegkaufen

Intel hätte damit nen Fuß im Tablet/Smartphone Markt. Die Atoms sind da ja noch ungeeignet

Deinorius
2011-08-01, 20:47:28
Gute Argumente.

Nur, ob Intel wirklich auf ARM setzen würde, bis deren Atom (jemals X-D) reif für Smartphones werden würde? Daran zweifle ich weiterhin.

Ailuros
2011-08-02, 09:48:44
Ich wollte eigentlich mit meinem vorigen Post ein Ende ans OT setzen, aber ich hab wohl genau das Gegenteil erreicht :D

TI's OMAP Abteilung ist wie Rys selber bei B3D sagte ein gewaltiger Brocken als nur eine Abteilung die smart-phone applications processors herstellt.

Aber ganz schnell in der Hoffnung dass es diesmal wirklich ein Ende zum OT gibt:

Intel hat wie gesagt Atom CPUs, AMD hat eigene CPU und GPUs und NVIDIA hat auch schon alles was sie brauchen. Ja TI hat weniger Umsatz gemacht im letzten Quartal aber man sollte auch mitberechnen dass NOKIA einer ihrer groessten Kunden ist. Mit dem Microsoft Deal war bei NOKIA der einzige grosse Gewinner fuer den Anfang Qualcomm, wobei sich andere wie TI und ST Ericsson u.a. fuer NOKIA fuer die Zukunft anders ausgeruestet haben.

Was jetzt OMAP4 spezifisch betrifft: es dauert bei OMAPs stets etwas bis das Ganze in den Umlauf kommt. Ab Ice Cream Sandwich wird sich so wie es aussieht das Bild fuer OMAP4 um einiges verbessern und es liegen immer noch 4460 und 4470 im Anlauf.

Deinorius
2011-08-02, 12:15:37
Ich wollte eigentlich mit meinem vorigen Post ein Ende ans OT setzen, aber ich hab wohl genau das Gegenteil erreicht :D


Wie naiv. :ulol:

OMAP 4440 wird ja Referenz-Plattform für Ice Cream Sandwich, also wäre das mit dem Verkaufen auch sehr kurzsichtig. So und damit bin ich auch weg. :D

LovesuckZ
2011-08-02, 12:19:48
Woher kommt eigentlich diese Behauptung? Ich habe gelesen, dass Asus das PadFone mit Tegra 3 und ICS bringen wird. Auch Huang hat sich in der letzten Conference Call dementsprechend nippisch ausgedrückt.

Ailuros
2011-08-02, 16:40:03
Es kann durchaus der Fall sein dass Google diesmal mehr als einen Referenz-Design zulaesst fuer Ice Cream Sandwich.

Solche indirekte Aussagen deuten aber nicht besonders darauf hin: http://www.gottabemobile.com/2011/06/01/texas-instruments-the-preferred-chip-maker-for-googles-ice-cream-sandwich/

fondness
2011-08-02, 16:55:12
Vielleicht kommt NV auch ganz einfach zu spät, weil man den angekündigten Termin mal wieder nicht einhalten konnte:
We can remember that Nvidia was persistent at the Kal El announcement that the devices will hit retail as soon as August. Our Far East sources are quite confident that this won’t happen

http://www.fudzilla.com/mobiles/item/23603-kal-el-devices-won%E2%80%99t-come-in-august


Das passt ja auch zu den Aussagen in deinem Artikel:
TI are just so relaible, if they say they’ll have something done by Tuesday, it’s done on Tuesday, and it’s done right. Does this suggest that NVIDIA is unreliable and untimely?

Deinorius
2011-08-02, 16:57:59
Es kann durchaus der Fall sein dass Google diesmal mehr als einen Referenz-Design zulaesst fuer Ice Cream Sandwich.


Vielleicht sogar drei in Richtung:

Smartphone Low-End
Smartphone High-End
Tablet

Wäre gar nicht mal so verkehrt. Immerhin ist der Markt von Android deutlich fragmentierter.

LovesuckZ
2011-08-02, 17:41:02
Vielleicht kommt NV auch ganz einfach zu spät, weil man den angekündigten Termin mal wieder nicht einhalten konnte:


Das hat nichts mit nVidia zu tun. Time-to-Market ist eben nicht so einfach, wenn man solche Produkte liefert.

Es kann durchaus der Fall sein dass Google diesmal mehr als einen Referenz-Design zulaesst fuer Ice Cream Sandwich.

Solche indirekte Aussagen deuten aber nicht besonders darauf hin: http://www.gottabemobile.com/2011/06/01/texas-instruments-the-preferred-chip-maker-for-googles-ice-cream-sandwich/

Habe ich gelesen. Macht null sinn. Wo TI zur Zeit ist, sieht man ja. Nämlich hinter nVidia.

Ailuros
2011-08-02, 17:51:30
Das hat nichts mit nVidia zu tun. Time-to-Market ist eben nicht so einfach, wenn man solche Produkte liefert.

Hat denn NVIDIA schon irgendwelche T3 SoCs ausgeliefert? Oder noch besser da es um ICS geht, hat Google zeitlich etwas bekommen oder nicht?


Habe ich gelesen. Macht null sinn. Wo TI zur Zeit ist, sieht man ja. Nämlich hinter nVidia.

Natuerlich macht es Null Sinn fuer Dich und natuerlich liegt nur fuer Dich Texas Instruments hinter NVIDIA. In welchem Universum ist dann wohl eher die Frage.

LovesuckZ
2011-08-02, 17:57:09
Hat denn NVIDIA schon irgendwelche T3 SoCs ausgeliefert? Oder noch besser da es um ICS geht, hat Google zeitlich etwas bekommen oder nicht?

Laut nVidia werden seit Februar Samples ausgeliefert. Wenn es heute keine Samples gäbe, würde in diesem Jahr überhaupt kein T3 Gerät mehr erscheinen.

Die Aussage in dem Text macht null sinn. TI's aktueller DualCore SoC ist kaum besser als T2. Einzig die Taktrate ist höher, was zum Leistungsplus führt.


Natuerlich macht es Null Sinn fuer Dich und natuerlich liegt nur fuer Dich Texas Instruments hinter NVIDIA. In welchem Universum ist dann wohl eher die Frage.

Ja - TI lebt von ihrem SingleCore Design. Deswegen sind sie auch ziemlich kleinlaut in der CC gewesen als man sie auf OMAP4 angesprochen hat. Und ich bezweifel, dass Google sich dem Hersteller als Partner ausgesucht hat, der noch das beste SingleCore Design besitzt.

Ailuros
2011-08-02, 18:09:47
Laut nVidia werden seit Februar Samples ausgeliefert. Wenn es heute keine Samples gäbe, würde in diesem Jahr überhaupt kein T3 Gerät mehr erscheinen.

Sagt mir aber nichts darueber wann Google samples haben wollte. Ich wiederhole trotz allem dass ich mir noch nicht sicher bin ob es nur einen oder mehrere Referenz-Platformen fuer ICS geben wird. Fuer OMAP4 bin ich zumindest sicher.

Die Aussage in dem Text macht null sinn. TI's aktueller DualCore SoC ist kaum besser als T2. Einzig die Taktrate ist höher, was zum Leistungsplus führt.

Nach Dir laeuft auf Tegras bis jetzt alles wie Butter mit 4G LTE networks oder?

OMAP4430 um die es hier geht taktet die A9 CPUs bei 1GHz und die GPU bei 305MHz gegen Tegra2 bei 1GHz/300MHz fuer smart-phone SoCs. Wo soll genau die hoehere Frequenz liegen?

http://www.anandtech.com/show/4551/motorola-droid-3-review-third-times-a-charm

Wobei die GPU hier nicht mal den RC2.0 Treiber des NexusS hat. Von der Aufloesung her und vom gleichen Hersteller ist eigentlich nur das Motorola Droid3 mit dem Motorola Atrix vergleichbar (960*540).

Erst 4460 wird die CPU bei 1.5GHz takten und die GPU bei 385MHz.


Ja - TI lebt von ihrem SingleCore Design. Deswegen sind sie auch ziemlich kleinlaut in der CC gewesen als man sie auf OMAP4 angesprochen hat. Und ich bezweifel, dass Google sich dem Hersteller als Partner ausgesucht hat, der noch das beste SingleCore Design besitzt.

Gibts noch mehr Panik-edits pro Post? :D Bezweifel was Du willst, es wird sich mit der Zeit so oder so zeigen fuer was sich Google genau entschieden hat.

Sonst solltest Du Dir weniger Sorgen machen um einen der groessten Semi Hersteller weltweit der rein zufaellig eine der groessten SoC Hersteller ueberhaupt ist und mehr ueber den Rauch und Qualm der sich in den letzten 4-5 Jahren rund um NV's embedded Zeug bewegt. Ich hab nirgends irgendwelche besondere Verkaufszahlen von T2 gesehen, noch irgendwelchen Gewinn oder einfacher insgesamt das was NV schon seit einiger Zeit behauptet. Selbst Jensen hat zugestanden dass es nicht so gelaufen ist wie sie selber erwartet haben.

Ja natuerlich liegt TI momentan im Ruecksatz was Umsaetze betrifft und ja natuerlich waren OMAP4 design wins bis jetzt nichts besonderes, aber ausser Apple selber scheint es generell keinem anderen besonders gut zu gehen ueberhaupt NOKIA. Nur Samsung verkauft ihre GalaxyS2 smart-phones wie warme Semmeln eben weil es momentan kein smart-phone gibt egal von wem das ein so attraktives Preis-/Leistungsverhaeltnis anbietet wie dieses. Oopps Moment steckt aber auch kein SGX oder Tegra drin. Komischerweise hat Samsung nicht ein Exynos basierendes ICS smart-phone angekuendigt sondern eins mit einem OMAP4.

LovesuckZ
2011-08-02, 18:24:50
Sagt mir aber nichts darueber wann Google samples haben wollte. Ich wiederhole trotz allem dass ich mir noch nicht sicher bin ob es nur einen oder mehrere Referenz-Platformen fuer ICS geben wird. Fuer OMAP4 bin ich zumindest sicher.

Und was soll TI in der selben Zeit als Samples geschickt haben? Wohl auch nur 4430. Wohl kaum ein Grund, dass man sich für TI entscheiden würde.


Nach Dir laeuft auf Tegras bis jetzt alles wie Butter mit 4G LTE networks oder?

Und bei TI? Sieht es doch genauso düster aus.


OMAP4430 um die es hier geht taktet die A9 CPUs bei 1GHz und die GPU bei 305MHz gegen Tegra2 bei 1GHz/300MHz fuer smart-phone SoCs. Wo soll genau die hoehere Frequenz liegen?

Wie wäre es mit der Taktung der GPU? Immerhin ist man 20-30% höher als die letztjährigen SGX540 Umsetzungen. Und in abetracht der Tatsache, dass man 6 Monate nach dem Atrix 4G erscheint, ist die Leistung nichts, worüber man bei Google vorstellig werden würde.

Ailuros
2011-08-02, 22:08:02
Und was soll TI in der selben Zeit als Samples geschickt haben? Wohl auch nur 4430. Wohl kaum ein Grund, dass man sich für TI entscheiden würde.

Tja dann bleibt wohl nur noch abzusehen fuer was sich Google am Ende entschieden hat.

Und bei TI? Sieht es doch genauso düster aus.

Da solltest Du Motorola fragen wieso sie kurzfristig fuer's Droid3 nicht den original geplanten T2 sondern OMAP4430 gewaehlt haben.

Wie wäre es mit der Taktung der GPU? Immerhin ist man 20-30% höher als die letztjährigen SGX540 Umsetzungen.

Und was hat der S5PC11x von Samsung genau mit TI's OMAP4 gemeinsam? Gar nichts. Auch die ULP GF im Tegra1 kam damals mit einer um einiges bescheideneren Frequenz als die maximalen 333MHz im Tegra2. Ja und?

Und in abetracht der Tatsache, dass man 6 Monate nach dem Atrix 4G erscheint, ist die Leistung nichts, worüber man bei Google vorstellig werden würde.

Dann wird sich wohl Google bei Dir entschuldigen muessen fuer ihre Entscheidungen. Leistung ist eben stets eine extrem relative Sache und Gott sei Dank nicht der einzige Faktor der zaehlt. Sonst haette eben Samsung fuer ihre erstes ICS smart-phone eben auch gleich Exynos waehlen koennen. Google unter Google Nexus Prime.

Google hat bis jetzt Qualcomm, Samsung und NVIDIA SoCs als Referenz-Platformen gewaehlt und ich werde es auch nicht ausschliessen dass fuer den ICS Nachfolger wieder Qualcomm ein Kandidat sein koennte. Waren damals die Qualcomm SoCs wirklich das "schnellste" Zeug im Umlauf und wird es auch in der Zukunft sein?

Label
2011-08-03, 06:37:55
Ich wiederhole trotz allem dass ich mir noch nicht sicher bin ob es nur einen oder mehrere Referenz-Platformen fuer ICS geben wird. Fuer OMAP4 bin ich zumindest sicher.

...sieht gut aus für TI (http://news.cnet.com/8301-13924_3-20086991-64/google-ti-cozy-up-on-android-ice-cream-sandwich/)...

Muss aber ein aktuell erhältlicher SoC sein, denn

The 4470 is expected to sample later this year and appear in devices in 2012.

Ice Cream Sandwich kommt aber IMHO noch dieses Jahr..

Hugo78
2011-08-03, 08:15:29
Vielleicht sogar drei in Richtung:

Smartphone Low-End
Smartphone High-End
Tablet


Oder man spezialisiert sich.
Denn bei allem was zukünftig über Handys hinausgeht, wird man gegen Win8 einen extrem schweren Stand haben.
Von daher hat Google vielleicht einfach nur den Focus auf Smartphones und entsprechend max. Dual Core SoCs.

Deinorius
2011-08-03, 10:57:14
Was größeres als Dual-Core hätt ich nicht mal erwartet. oO

Außerdem ist es noch nicht sicher, wie weit Windows 8 Erfolg haben wird. Stark aufgeblähtes OS für in Relation schwache Hardware? Nicht, dass die Leistung passen würde, aber ich hab Bedenken wegen der Akkulaufzeit.

Und was noch am besten ist, Google schreitet mit HC in den Android-Markt und zieht sich mit ICS wieder leicht zurück, weil sie vor M$ Windows 8 Schiss haben? :|
I don't think so, Sir.

LovesuckZ
2011-08-03, 11:06:15
Was größeres als Dual-Core hätt ich nicht mal erwartet. oO

Ziemlich rückständig. Das wäre so als wenn sie für HC sich ein Partner gesucht hätten, der vorallem im Single-Core Bereich tätig ist...
QuadCore ist die Zukunft. Statt also jetzt schon den Weg zu eben, bleibt man auf der Stelle stehen.

Sie müssen sowieso mit nVidia arbeiten. Es gibt Millionen Tegra 2 Geräte in den Händen von Menschen, die alle ICS erwarten. Don't mess with your base. :freak:


Außerdem ist es noch nicht sicher, wie weit Windows 8 Erfolg haben wird. Stark aufgeblähtes OS für in Relation schwache Hardware? Nicht, dass die Leistung passen würde, aber ich hab Bedenken wegen der Akkulaufzeit.

Und was noch am besten ist, Google schreitet mit HC in den Android-Markt und zieht sich mit ICS wieder leicht zurück, weil sie vor M$ Windows 8 Schiss haben? :|
I don't think so, Sir.

Ha, die Liebe für Win8 verstehe ich nicht. Muss sowieso alles an ARM angepasst werden. Das haben Google und Co ja schon längst überwunden.

mrt
2011-08-03, 11:22:14
Was den aktuellen SOCs fehlt, ist Singlethreadleistung. Es lässt sich nicht alles beliebig parallelisieren, ARM hat nicht umsonst beim A15 die IPC erhöht. :wink:

LovesuckZ
2011-08-03, 11:25:59
Was den aktuellen SOCs fehlt, ist Singlethreadleistung. Es lässt sich nicht alles beliebig parallelisieren, ARM hat nicht umsonst beim A15 die IPC erhöht. :wink:

A15 bekommst du frühsten im 2. Halbjahr 2012. Grundsätzlich ist es egal, ob über höhrere IPC oder Takt. Mit 28nm wird man auch A9 höher prügeln können. 1,5Ghz sind ja heute schon kein Problem. Grundsätzlich ist aber beides notwendig: Mehr Kerne und höhrere SingleThread-Leistung.

Deinorius
2011-08-03, 11:27:49
Ziemlich rückständig.


Natürlich, weil ja schon die Mehrheit aller Programme 4 Kerne super duper ausnutzen können. :uclap:
QuadCore wird schon wichtig werden, da brauchst dir keine Sorgen machen, aber im Gegensatz zum Desktop-Markt ist das Gesamtpaket deutlich wichtiger und wenn der SoC, ob mit 2 oder 4 Kernen, nur suboptimal ist, wird was anderes genommen. Tegra3 in Smartphones? X-D
Don't mess with your base my nvidia. :freak:


:unono:

mrt
2011-08-03, 11:33:32
A15 bekommst du frühsten im 2. Halbjahr 2012. Grundsätzlich ist es egal, ob über höhrere IPC oder Takt. Mit 28nm wird man auch A9 höher prügeln können. 1,5Ghz sind ja heute schon kein Problem. Grundsätzlich ist aber beides notwendig: Mehr Kerne und höhrere SingleThread-Leistung.
Langfristig ja, aber mittelfristig sind 2 Kerne genug, außer du willst die GPU-Beschleunigung wieder abschaffen.

LovesuckZ
2011-08-03, 11:37:43
Natürlich, weil ja schon die Mehrheit aller Programme 4 Kerne super duper ausnutzen können. :uclap:
QuadCore wird schon wichtig werden, da brauchst dir keine Sorgen machen, aber im Gegensatz zum Desktop-Markt ist das Gesamtpaket deutlich wichtiger und wenn der SoC, ob mit 2 oder 4 Kernen, nur suboptimal ist, wird was anderes genommen. Tegra3 in Smartphones? X-D

Der selbe Quatsch wurde auch bei DualCore gesagt. Weitsicht scheint einigen zu fehlen. Achja, Sony geht auch auf Quadcore A9. Die müssen wohl auch zuviel Platz auf den Wafer haben. :freak:

Also TI bietet nur suboptimale SoCs in diesem Jahr an. Die werden richtig verlieren mit ihrem veralterten DualCore Design.


:unono:

Klar, wenn Google Millionen Menschen mit HC Tablets gerne verarschen will. Die werden beim nächsten Kauf einen weiten Bogen machen um Android.
Vorallem, was sollen sie mit einem weiteren DualCore Tablet mit unterirdischer GPU-Leistung, wenn der Konkurrent mit QuadCore deutlich bessere GPU-Werte erreicht? 4460 Tablets kommen frühsten im September. 7 Monate nach Xoom, 5 Monate nach Asus. Und auf sowas will Google bauen? Die tun mir irgendwie leid.

Langfristig ja, aber mittelfristig sind 2 Kerne genug, außer du willst die GPU-Beschleunigung wieder abschaffen.

GPU-Beschleunigung bringt dir nichts, wenn du Daten kopieren willst. Wenn du im Internet surfst. Wenn du Physik berechnest...

Konami
2011-08-03, 11:51:37
War das eigentlich schon hier? 28nm dual A15 beats Nvidia’s 40nm quad-core (http://www.fudzilla.com/processors/item/23448-two-arm-a15-cores-can-outperform-four-cortex-a9-cores), laut TI-Mitarbeitern

Captain Future
2011-08-03, 11:59:21
Nur Samsung verkauft ihre GalaxyS2 smart-phones wie warme Semmeln eben weil es momentan kein smart-phone gibt egal von wem das ein so attraktives Preis-/Leistungsverhaeltnis anbietet wie dieses. Oopps Moment steckt aber auch kein SGX oder Tegra drin.
In manchen wohl schon...
http://pocketnow.com/android/samsung-galaxy-s2-gt-i9103-with-tegra-2-at-fcc

LovesuckZ
2011-08-03, 12:01:46
Tegra 2 soll in die Low-Cost Telefone kommen - also Galaxy R/Z. Laut Bilder soll Samsung's DualCore Design auch 120mm^2 groß sein. Dann macht es irgendwie sinn Tegra 2 zu nehmen, da wohl ein Preis von $15-$17 wirtschaftlicher ist als 120mm^2 zu fertigen und zu testen.

Deinorius
2011-08-03, 12:02:43
Der selbe Quatsch wurde auch bei DualCore gesagt. Weitsicht scheint einigen zu fehlen. Achja, Sony geht auch auf Quadcore A9. Die müssen wohl auch zuviel Platz auf den Wafer haben. :freak:


Äpfel und Birnen?
Hab ich nicht geschrieben, dass QuadCore kommen wird, nur nicht jetzt sofort. Was ist denn jetzt großartig an DualCore Geräten gekommen? Gerade mal die High-End Geräte. Die sollen sich erstmal mit DualCore austoben. QuadCore kann mit 28 nm immer noch nachkommen, wenn das Gesamtpaket, gerade für Smartphones, besser passt.
Wenn du das nicht verstehen willst/kannst, wunderts mich bei dir eh net.

Also TI bietet nur suboptimale SoCs in diesem Jahr an. Die werden richtig verlieren mit ihrem veralterten DualCore Design.


Natürlich ist der einzige Anbieter von QuadCore in diesem Jahr nvidia. :freak: Da kann alles andere nur veraltet sein.

GPU-Beschleunigung bringt dir nichts, wenn du Daten kopieren willst. Wenn du im Internet surfst. Wenn du Physik berechnest...


Hast du jetzt Sarkasmus-Quote nur vergessen, oder meinst du das sogar ernst? :facepalm:

War das eigentlich schon hier? 28nm dual A15 beats Nvidia’s 40nm quad-core (http://www.fudzilla.com/processors/item/23448-two-arm-a15-cores-can-outperform-four-cortex-a9-cores), laut TI-Mitarbeitern


Würde mich für den Alltagsgebrauch auch nicht wundern.

LovesuckZ
2011-08-03, 12:12:42
Äpfel und Birnen?
Hab ich nicht geschrieben, dass QuadCore kommen wird, nur nicht jetzt sofort. Was ist denn jetzt großartig an DualCore Geräten gekommen? Gerade mal die High-End Geräte. Die sollen sich erstmal mit DualCore austoben. QuadCore kann mit 28 nm immer noch nachkommen, wenn das Gesamtpaket, gerade für Smartphones, besser passt.
Wenn du das nicht verstehen willst/kannst, wunderts mich bei dir eh net.

QuadCore kommt leider nur "jetzt sofort". Statt das zu akzeptieren, wird hier doch glatt Fortschritt zu tote geredet. Das selbe tat man aber auch mit DualCore. Es ist nur nicht ganz so stark in den Vordergrund gerückt, weil es keine vernünftigen Tegra 2 Geräte im letzten Jahr gab.
Und mit QuadCore rückt DualCore natürlich in niedrige Preisregionen.


Natürlich ist der einzige Anbieter von QuadCore in diesem Jahr nvidia. :freak: Da kann alles andere nur veraltet sein.

Tja und wieso soll 4430/4460 das bessere Gesamtpaket bieten? Man schlägt nichtmal richtig Tegra2. Als Tegra2 Besitzer beneide ich nur den Videoprozessor. Alles andere ist belanglos. Heck, selbst meine auf 425Mhz laufende Geforce ULP ist auf dem Niveau wie das Motorola Smartphone im GLBenchmark - trotz 86% mehr Pixel.


Hast du jetzt Sarkasmus-Quote nur vergessen, oder meinst du das sogar ernst? :facepalm:

Da ich mit meinem DualCore-1500MHz-HC Gerät Erfahrungen sammeln darf, meine ich es ernst. Woher hast du dein Wissen?

Ailuros
2011-08-03, 12:34:10
...sieht gut aus für TI (http://news.cnet.com/8301-13924_3-20086991-64/google-ti-cozy-up-on-android-ice-cream-sandwich/)...

Muss aber ein aktuell erhältlicher SoC sein, denn



Ice Cream Sandwich kommt aber IMHO noch dieses Jahr..

Moeglicherweise wenn dann 4430 weil der 4460 sowieso nur der gleiche Brei mit hoeherem Takt ist. 4470 kommt erst in 2012, aber fuer die unterliegende sw bzw. GPU treiber selber duerfte es keinen Unterschied machen; lediglich andere Modell-Namen.

Natürlich, weil ja schon die Mehrheit aller Programme 4 Kerne super duper ausnutzen können. :uclap:
QuadCore wird schon wichtig werden, da brauchst dir keine Sorgen machen, aber im Gegensatz zum Desktop-Markt ist das Gesamtpaket deutlich wichtiger und wenn der SoC, ob mit 2 oder 4 Kernen, nur suboptimal ist, wird was anderes genommen. Tegra3 in Smartphones? X-D



:unono:

AP30 koennte locker zwei der vier A9 Kerne deaktiviert haben. Zwar ist es eine relativ kleine die area Verschwendung (ca. =/>3mm von 80mm2 insgesamt) aber dank power gating beeinflusst es den Stromvebrauch nicht und es ist besser den winzigen area Unterschied zu schlucken als ein zusaetzliches tape-out fuer einen weiteren SoC der um einiges teurer sein wird.

Hugo78
2011-08-03, 12:46:29
Ha, die Liebe für Win8 verstehe ich nicht. Muss sowieso alles an ARM angepasst werden. Das haben Google und Co ja schon längst überwunden.

Nur wo steht Google mit ihrem Chrome OS oder Android im Jahr 2015?
Werden sie bis dahin schon 8 kerne unterstützen oder ARM 64bit Erweiterungen?

Wenn es um den mobilen Endverbraucher PC-Markt geht, seh ich in MS den stärkeren Partner als in Goolge.

Ailuros
2011-08-03, 12:54:48
QuadCore kommt leider nur "jetzt sofort". Statt das zu akzeptieren, wird hier doch glatt Fortschritt zu tote geredet. Das selbe tat man aber auch mit DualCore. Es ist nur nicht ganz so stark in den Vordergrund gerückt, weil es keine vernünftigen Tegra 2 Geräte im letzten Jahr gab.
Und mit QuadCore rückt DualCore natürlich in niedrige Preisregionen.

Ein SoC ist viel VIEL mehr als nur eine CPU oder nur eine GPU. Da heutige und zukuenftige SoCs aus 8-12 (+/- nach oben oder unten) heterogenen Prozessoren bestehen zaehlt stets das Gesamtpaket und eventuell auch die unterliegende sw Platform.

Tja und wieso soll 4430/4460 das bessere Gesamtpaket bieten? Man schlägt nichtmal richtig Tegra2.

Frag NVIDIA direkt (wenn Du ueberhaupt irgendwelchen Zugang zu ihnen hast) wieso T2 Kompatibilitaets-probleme hat und wieso Motorola fuer's Droid3 nicht den geplanten Tegra2 benutzt hat sondern einem OMAP4. Haette auch ein Snapdragon sein koennen und gleiches gilt natuerlich fuer ICS. Google waehlt tatsaechlich das was sie selber als die all around bessere Loesung empfinden. Glaubst Du wirklich dass Google mit irgendwelchen Interessen oder kindischen Sentimalitaeten operiert wenn es zur Auswahl einer Referenz-Platform kommt?

Wo gibt es denn einen Vergleich zwischen einem OMAP4460 und einem Tegra2 den ich verpasst habe?

Als Tegra2 Besitzer beneide ich nur den Videoprozessor. Alles andere ist belanglos. Heck, selbst meine auf 425Mhz laufende Geforce ULP ist auf dem Niveau wie das Motorola Smartphone im GLBenchmark - trotz 86% mehr Pixel.

Ach jetzt ist die Frequenz ploetzlich relevant? Und dazu noch eine uebertaktete. Es ist zwar offensichtlich was Du gegen jeglichen anderen Hersteller im embedded Markt ausser NVIDIA hast, aber wir werden wohl schon sehen fuer wen bei Google der Groschen fuer ICS gefallen ist. Es steht uebrigens nirgends in Stein gemetzelt dass NVIDIA nicht in zukuenftigen Android OS Versionen mit zukuenftigen SoCs ein Kandidat fuer eine Referenz-Platform sein koennte denn Google hat kein besonderes Interesse oder noch besser irgendwelchen Zweck A ueber B oder C zu waehlen.

GPU-Beschleunigung bringt dir nichts, wenn du Daten kopieren willst. Wenn du im Internet surfst. Wenn du Physik berechnest..

Kommt auf die GPU an und was damit jeglicher Hersteller und auch die unterliegende sw genau anrichten will. Kommt auch drauf an was man fuer Daten kopiert, GPUs helfen durchaus beim surfen mit und fuer physics tja wenn GPGPU auf einer jeglichen GPU dann wohl schon. Im Gegenfall gibt es dann nur lediglich bunte CPU-demos.

Nur wo steht Google mit ihrem Chrome OS oder Android im Jahr 2015?
Werden sie bis dahin schon 8 kerne unterstützen oder ARM 64bit Erweiterungen?

Wenn es um den mobilen Endverbraucher PC-Markt geht, seh ich in MS den stärkeren Partner als in Goolge.

Windows (embedded) ist etwas welches ich persoenlich gar nicht gern sehe im embedded Markt; hab ich ja auch schon oefters betont. Mir ist persoenlich lieber wenn linux kernel basierende OSs wie Android die Oberhand behalten und Microsoft wenig oder am besten gar nichts damit zu tun hat. Ausser natuerlich sie schaffen es ein zukuenftiges mobiles OS so anzupassen dass der sw overhead analog zu diesem eines Android OS der Zeit sein wird. Bei win8 hab ich keine Hoffnung das so etwas passiert.

Das dumme ist eben dass gegen meine eigenen persoenlichen "Wuensche" sehr viele an winblows im embedded Bereich interessiert sind und daran kann man leider nichts aendern. Wenn Microsoft langfristig ein grosses Standbein im embedded Markt erreichen wird, wird sich wohl auch einiges generell im Markt aendern. Und gerade das ist es welches ich nicht gerne sehen werde.

mrt
2011-08-03, 13:14:00
Nur wo steht Google mit ihrem Chrome OS oder Android im Jahr 2015?
Werden sie bis dahin schon 8 kerne unterstützen oder ARM 64bit Erweiterungen?

Wenn es um den mobilen Endverbraucher PC-Markt geht, seh ich in MS den stärkeren Partner als in Goolge.
Android und ChromeOS bauen auf den Linuxkernel auf... der kann "etwas" mehr als mit nur 8 Kernen umgehen... Alles eine Frage der Kernelconfig beim kompilieren.
GPU-Beschleunigung bringt dir nichts, wenn du Daten kopieren willst. Wenn du im Internet surfst. Wenn du Physik berechnest...
Daten im Hintergrund kopieren sollte keinen aktuellen SoC ins schwitzen bringen, falls doch, dann ist der Fehler woanders. GPU-Beschleunigtes rendern im Browser bringt einiges... und Physikberechnungen auf einem Smartphone/Tablet? Ist das dein ernst?

Deinorius
2011-08-03, 13:15:36
Da ich mit meinem DualCore-1500MHz-HC Gerät Erfahrungen sammeln darf, meine ich es ernst. Woher hast du dein Wissen?



Du willst das Wort Gesamtpaket nicht verstehen? Wie kommst du überhaupt auf die Idee, dass es besser sein kann, freiwillig etwas über die CPU rendern zu lassen, wenn die Möglichkeit besteht, auf effizientere Weise, die GPU einzubinden. iOS nutzt es, WP7 nutzt es, Android seit HC nutzt es. Also was soll der Humbug? Glaubst du, die Programmierer wissen nicht, was sie tun?

LovesuckZ
2011-08-03, 13:17:54
Ein SoC ist viel VIEL mehr als nur eine CPU oder nur eine GPU. Da heutige und zukuenftige SoCs aus 8-12 (+/- nach oben oder unten) heterogenen Prozessoren bestehen zaehlt stets das Gesamtpaket und eventuell auch die unterliegende sw Platform.

Und was kann denn abseits vom Rendering so schönes mit der GPU auf Android machen? Achja, nichts.


Frag NVIDIA direkt (wenn Du ueberhaupt irgendwelchen Zugang zu ihnen hast) wieso T2 Kompatibilitaets-probleme hat und wieso Motorola fuer's Droid3 nicht den geplanten Tegra2 benutzt hat sondern einem OMAP4. Haette auch ein Snapdragon sein koennen und gleiches gilt natuerlich fuer ICS. Google waehlt tatsaechlich das was sie selber als die all around bessere Loesung empfinden. Glaubst Du wirklich dass Google mit irgendwelchen Interessen oder kindischen Sentimalitaeten operiert wenn es zur Auswahl einer Referenz-Platform kommt?

Das Droid 3 hat kein 4G. Welche "Kompatibilitaets-Probleme" sollte es also abseits von 4G Modulen geben? Vielleicht war das Gerücht auch einfach falsch.


Wo gibt es denn einen Vergleich zwischen einem OMAP4460 und einem Tegra2 den ich verpasst habe?

Es gibt nichtmal einen 4460 im Markt. Würde man T2 genauso hochprügeln, wäre der Unterschied minimal.
TI darf sich also aussuchen, ob man miz 4460 gegen T3 geht und verliert oder im Low-Cost sich mit T2 rumschlagen möchte.


Ach jetzt ist die Frequenz ploetzlich relevant? Und dazu noch eine uebertaktete. Es ist zwar offensichtlich was Du gegen jeglichen anderen Hersteller im embedded Markt ausser NVIDIA hast, aber wir werden wohl schon sehen fuer wen bei Google der Groschen fuer ICS gefallen ist. Es steht uebrigens nirgends in Stein gemetzelt dass NVIDIA nicht in zukuenftigen Android OS Versionen mit zukuenftigen SoCs ein Kandidat fuer eine Referenz-Platform sein koennte denn Google hat kein besonderes Interesse oder noch besser irgendwelchen Zweck A ueber B oder C zu waehlen.

Ich habe nur gezeigt, dass an OMAP4 nichts tolles dran ist außer dem Videprozessor. Die Leistungsfähigkeit ist T2 Niveau.

Und es ist lustig mir vorzuwerfen, ich wäre gegen irgendwelche Hersteller. Aus den Finger einer Person, dessen Aussagen in Bezug auf Tegra 2 keinen Wert besitzten, ist das doch sehr abenteuerlich. Das ist hier der Tegra Thread. Und trotzdem darf man hier hoch und runter lesen, wie shice Tegra ist, wieviel besser die Konkurrenz. Und sobald man die Dinge auf den Tisch packt, ist man natürlich gegen alle anderen. Das hat schon Anzeichen von Sektenverhalten. :rolleyes:


Daten im Hintergrund kopieren sollte keinen aktuellen SoC ins schwitzen bringen, falls doch, dann ist der Fehler woanders. GPU-Beschleunigtes rendern im Browser bringt einiges... und Physikberechnungen auf einem Smartphone/Tablet? Ist das dein ernst?

Das Kopieren über WLAN benötigt alleine 30%-50% an CPU-Leistung, wenn diese auf 1500MHz laufen - auf beiden Cores(!). Sobald die Last durch andere Arbeiten ansteigen, geht die Übertragungsgeschwindigkeit bei HC runter. Mehr freie Kerne und man hätte wesentlich mehr Spielraum.

Es gibt beim Internet nicht alleine um das Rendern. Das geschieht schon heute. Es geht um das Laden der Seite und das Verteilen der einzelnen Bestandteile auf die Kerne.

Und natürlich sind Physikberechnungen bedeutend. Immerhin handelt es sich auch - selbst wenn ich es als belanglos empfinde - um Spielestationen. Sony geht nicht umsonst auf QuadCore.

Hugo78
2011-08-03, 13:34:03
@mrt
Ok, nur ist halt die Frage ob Google sowas auch allein hinbekommen hätte, wenn da nicht andere schon Vorarbeit geleistet hätten.

Windows (embedded) ist etwas welches ich persoenlich gar nicht gern sehe im embedded Markt;

Na ich denke auch primär an Net/Sub-Notebooks, nicht an Handys und Tablets.
Wobei son Asus Transformer dann doch wieder in die Netbook Ecke passt (für mich).

Anyway ...
Windows (XP, Vista, Win7) bedient fast 88% des PC Retailmarktes, MacOS 6% oder der ganze Rest wird auch in den nächsten Jahren nicht viel mehr an Bedeutung gewinnen.
Ansonst hätte es für Linux allgemein, schon vor Jahren einen Durchbruch gegeben.

Von daher, wenn NV den klassischen x86 Markt von unten aufmischen wollen, dann brauchen sie MS.

LovesuckZ
2011-08-03, 13:36:31
Das Linux sich nicht durchgesetzt hat, lag doch eher daran, dass es keinen Grund gab Linux zu verwenden. Die Hardware für Linux war auch nur zum Großteil x86.

Mit ARM sieht es vollkommen anders aus. Tablets laufen mit einem OS, dass kein Windows ist. Windows selbst ist an x86 gebunden und hat keine Chance, da die Hardware nicht konkurrenzfähig ist. Im Grunde ist es jetzt die Zeit von Linux bzw. Unix, da die Konkurrenzfähigkeit auf Basis einer unterschiedlichen Massenhardwarearchitektur erfolgt.

Ailuros
2011-08-03, 13:45:08
Und was kann denn abseits vom Rendering so schönes mit der GPU auf Android machen? Achja, nichts.

Dann lies Dir gefaelligst einige Honeycomb relevante Artikel durch.

Das Droid 3 hat kein 4G. Welche "Kompatibilitaets-Probleme" sollte es also abseits von 4G Modulen geben? Vielleicht war das Gerücht auch einfach falsch.

Vielleicht ist ueberzeugend als Argument.

Es gibt nichtmal einen 4460 im Markt.

Weiss ich wohl selber.

Würde man T2 genauso hochprügeln, wäre der Unterschied minimal.
TI darf sich also aussuchen, ob man miz 4460 gegen T3 geht und verliert oder im Low-Cost sich mit T2 rumschlagen möchte.

Wenn man einen T2 um N "hochpruegelt" waere ein fairer Vergleich lediglich mit einer analogen "hochpruegelung" der Frequenzen eines 4460. Was soll der Bloedsinn?

Ich habe nur gezeigt, dass an OMAP4 nichts tolles dran ist außer dem Videprozessor. Die Leistungsfähigkeit ist T2 Niveau.

Beim 4430 wohl schon (wenn man GPU bound benchmarks weglaesst). Sonst wird sich Tegra3 gegen 4460 bzw. 4470, Qualcomm Krait oder weiss der Geier was noch stellen muessen.

Und es ist lustig mir vorzuwerfen, ich wäre gegen irgendwelche Hersteller.

Nur bist Du fuer den Fall der einzige der es als "lustig" empfinden koennte. Es ist eben so dass was immer NV herstellt Gold wert ist und der ganze Rest eben nichts besonderes.

Aus den Finger einer Person, dessen Aussagen in Bezug auf Tegra 2 keinen Wert besitzten, ist das doch sehr abenteuerlich. Das ist hier der Tegra Thread.

Es ist nur ein Tegra Thread wenn es Dir gerade passt. Ich hab mit dem TI/OMAP Zeug diesmal gar nicht angefangen, sondern es war Tiamat der den Link fuer den angeblichen OMAP Abteilung Verkauf postete.

Und trotzdem darf man hier hoch und runter lesen, wie shice Tegra ist, wieviel besser die Konkurrenz. Und sobald man die Dinge auf den Tisch packt, ist man natürlich gegen alle anderen. Das hat schon Anzeichen von Sektenverhalten. :rolleyes:

Gut. Jegliche zukuenftige Relevanz, Vergleich oder Andeutung zu jeglichem SoC ausserhalb von Tegra wird von jetzt ab ohne weitere Warnung geloescht um erstmal das staendige OT Problem zu loesen.

Eigentlich koennte ich es auch gleich fuer existierende Posts der vorigen Zeiten machen, aber es wuerde auch ein sehr grosser Anteil Deiner Beitraege verschwinden wofuer Du natuerlich auch gleich wieder meckern wirst, denn selbst wenn Du keinen Grund zum meckern hast, meckerst Du eben genau weil Du keinen Grund zum meckern hast.

Und nein das obrige wird nicht weiter besprochen und zurueck zum Thema: Tegra und NUR Tegra

Ailuros
2011-08-03, 13:50:03
Na ich denke auch primär an Net/Sub-Notebooks, nicht an Handys und Tablets.
Wobei son Asus Transformer dann doch wieder in die Netbook Ecke passt (für mich).

Notebook/PC hat wohl nicht viel mit embedded zu tun. In der Zukunft wird NVIDIA das vorige mit Project Denver SoCs bedienen und tablets bzw. smart-phones mit Tegra.

Anyway ...
Windows (XP, Vista, Win7) bedient fast 88% des PC Retailmarktes, MacOS 6% oder der ganze Rest wird auch in den nächsten Jahren nicht viel mehr an Bedeutung gewinnen.
Ansonst hätte es für Linux allgemein, schon vor Jahren einen Durchbruch gegeben.

Google Android hat eber im embedded Markt einen brutal grossen Anteil und wenn man solche linux kernel basierende OSs wie iOS noch mitberechnet wird der insgesamte Anteil noch brutaler.

Was genau hat MacOS mit dem ganzen zu tun?

Von daher, wenn NV den klassischen x86 Markt von unten aufmischen wollen, dann brauchen sie MS.

Seit wann hat ARM x86 CPUs? Selbst Project Denver wird ARM CPU IP (modifiziert) verwenden so wie es aussieht.

LovesuckZ
2011-08-03, 13:59:13
Da ich nichts Tegra relevantes in diesem Post sehen konnte sondern wieder Tegra gegen OMAP Vergleiche gegen Die Du Dich gerade oben beschwert hast, wurde der gesamte Inhalt geloescht. Beim naechsten Versuch behandle ich es als Missachtung der Moderation fuer welchen siehe nochmal modtext in Post 1329.

LovesuckZ
2011-08-03, 14:11:26
Nett, dass man nun schon mit Zensur hantiert. Aber gut, reden wir wieder über Tegra:

Anandtech hat sich 3.2 beim Transformer angeschaut und mal wieder Leistungssteigerung bei der GPU festgestellt:
http://images.anandtech.com/graphs/graph4558/40067.png
http://www.anandtech.com/show/4558/android-32-on-the-asus-eee-pad-transformer-tested/2

robbitop
2011-08-03, 14:20:12
Ich warte nur darauf, dass das Cheaten auch bei Handhelds und Handys beginnt. Das sind ja schon unglaubwürdige Steigerungen. Faktor 2 ggü dem 3.0. .... Shader/Texturreplacement ... das kennen wir doch alles vom PC.

LovesuckZ
2011-08-03, 14:25:44
Ich warte nur darauf, dass das Cheaten auch bei Handhelds und Handys beginnt. Das sind ja schon unglaubwürdige Steigerungen. Faktor 2 ggü dem 3.0. .... Shader/Texturreplacement ... das kennen wir doch alles vom PC.

Na, ist es verwunderlich? Schau dir dochmal an, was für Flag es gegen Tegra 2 gab als das Ipad 2 kam und Anandtech die Werte ermittelt hatte. Da wurde Rotz und Wasser geflamt.
Es wird doch auch hier oder im Beyond3d.com dauernd auf den GLBenchmark verwiesen. Als SoC Hersteller würde ich auch cheaten, wenn man soviel Wert auf synthetische Benchmarks legt.

Captain Future
2011-08-03, 14:37:33
Cheaten hat eine lange Tradition. (http://www.heise.de/ct/artikel/Tricky-285516.html) Da wäre Nvidia mit dem Tegra nichtmal die ersten - was es auf keinen Fall besser macht.

mrt
2011-08-03, 14:46:33
Das Kopieren über WLAN benötigt alleine 30%-50% an CPU-Leistung, wenn diese auf 1500MHz laufen - auf beiden Cores(!). Sobald die Last durch andere Arbeiten ansteigen, geht die Übertragungsgeschwindigkeit bei HC runter. Mehr freie Kerne und man hätte wesentlich mehr Spielraum.

Es gibt beim Internet nicht alleine um das Rendern. Das geschieht schon heute. Es geht um das Laden der Seite und das Verteilen der einzelnen Bestandteile auf die Kerne.

Und natürlich sind Physikberechnungen bedeutend. Immerhin handelt es sich auch - selbst wenn ich es als belanglos empfinde - um Spielestationen. Sony geht nicht umsonst auf QuadCore.
Das liegt wohl eher an den Treibern und fehlernder Hardwareunterstützung für Verschlüsselung. Mit meinem 0815 SE bekomm ich 54Mit WLAN recht dicht, natürlich pfeift das Ding dann aus dem letzen Loch ist aber auch ein viel schwächere SoC verbaut.

Lies dir mal Artikel zur HW-Beschlaunigung durch, dann siehst das vielleicht anders.

Ja bei Spielen nützen mehr Kerne schon jetzt was, da wird auch T3 seinen Einsatz finden. Allerdings reicht ein DC-SoC für das 0815-Smartphone und das ist der Massenmarkt.

Ailuros
2011-08-03, 14:52:57
Ich warte nur darauf, dass das Cheaten auch bei Handhelds und Handys beginnt. Das sind ja schon unglaubwürdige Steigerungen. Faktor 2 ggü dem 3.0. .... Shader/Texturreplacement ... das kennen wir doch alles vom PC.

Ich sehe bis jetzt nichts merkwuerdiges daran denn es ist durchaus normal das eine neue OS Version und/oder eine neue GPU Treiber Revision (oder sogar compiler) solche Leistungssteigerungen liefern koennen. Zwischen 3.2 und 3.1 steigt der Transformer um knapp 33%. Es ist nicht das erste Mal dass wir solche Leistungssteigerungen im embedded Markt sehen und mir wuerden selbst noch hoehere Steigerungen keinen besonderen Eindruck machen, denn es sind alle GPU Entwickler in einer quasi "Lernphase" mit OpenGL_ES und das ohne besondere Aussnahmen. Eventuell koennte ein besser ausgebuegelter Treiber oefters mehr liefern als eine staerkere GPU mit dem gleichen schwachen Treiber.


Ja bei Spielen nützen mehr Kerne schon jetzt was, da wird auch T3 seinen Einsatz finden. Allerdings reicht ein DC-SoC für das 0815-Smartphone und das ist der Massenmarkt.

Wie ich schon sagte besteht durchaus die Moeglichkeit dass NV zwei AP30 Varianten liefern wird fuer smart-phone einmal mit quad core und einmal mit dual core (hoechstwahrscheinlich 2 deaktivierte CPU cores). Hiermit hat dann jeglicher potentielle Kunde/Hersteller die Wahl was er genau haben will.

LovesuckZ
2011-08-03, 15:00:49
Das liegt wohl eher an den Treibern und fehlernder Hardwareunterstützung für Verschlüsselung. Mit meinem 0815 SE bekomm ich 54Mit WLAN recht dicht, natürlich pfeift das Ding dann aus dem letzen Loch ist aber auch ein viel schwächere SoC verbaut.

Deswegen ist es gut, wenn man mehr Spielraum hat. Dann muss Software nicht 101% optimiert sein.


Lies dir mal Artikel zur HW-Beschlaunigung durch, dann siehst das vielleicht anders.

Ich rede nicht von Rendering. Das bringt mir nämlich nichts, wenn ich einem Tab ein Flashvideo laufen habe und im anderen weitersurfen will.


Ja bei Spielen nützen mehr Kerne schon jetzt was, da wird auch T3 seinen Einsatz finden. Allerdings reicht ein DC-SoC für das 0815-Smartphone und das ist der Massenmarkt.

ICS soll für alle Segmente gedacht sein. Deswegen sehe ich es kritisch ein veraltertes DualCore Design als Referenzplattform zu nehmen, wenn man damit weder auf neue Technik rücksicht nimmt, noch sicherstellt, dass die vorhandenen HC Geräte auch zeitnah mit ICS geupdatet werden kann.

Ailuros
2011-08-03, 15:13:43
Zwei mal so viel die gleichen CPU cores ist wohl schwer als "neue Technologie" zu bezeichnen. Hoehere Leistung fuer N Aufgaben (angenommen auch genug threads) wohl schon.

Sonst bezweifle ich dass jemand von uns (ausser vielleicht wenigen Mitlesern die unter NDA liegen koennten) weiss was ICS genau enthalten wird und was sie genau fuer jegliche moegliche Einheiten insgesamt reingesteckt haben. Tatsache ist dass der Schritt ein einziges OS fuer smart-phones und tablets zu haben man nur positiv ansehen kann. Und ja ich bezweifle dass ICS die Faehigkeiten eines Tegra3 in irgend einer Art zurueckhalten koennte, weil T3 nicht die Referenz-Platform fuer die OS Revision ist.

Wir muessen ICS erstmal in unabhaengigen Artikeln getestet sehen und dann werden wir erst wissen was genau geaendert wurde und wie sich dieses gegen andere embedded OSs vergleichen kann.

Hugo78
2011-08-03, 16:17:35
Seit wann hat ARM x86 CPUs? Selbst Project Denver wird ARM CPU IP (modifiziert) verwenden so wie es aussieht.

Tegra 3 wurde von MS schon auf Net/Notebooks gezeigt, und bis Denver ist noch ne Weile hin.

Ergo wird Tegra 3 und größer, mehr als nur embedded Handys und Tabs bedienen.
Und damit dann einen Teil des klassischen x86 Markt.

Avalox
2011-08-03, 17:21:53
einer unterschiedlichen Massenhardwarearchitektur erfolgt.


Das auch unterhalb der ARM Architektur selbst, dass darf man nicht vergessen.

Es wird einen ganzen Sack von Windows für ARM geben, da die einzelnen ARM SoC Implementierungen nicht binärkompatibel zueinander sind.

Windows für ARM wird noch für den einen oder anderen eine richtige Überraschung werden.

Tiamat
2011-08-03, 17:41:16
Das auch unterhalb der ARM Architektur selbst, dass darf man nicht vergessen.

Es wird einen ganzen Sack von Windows für ARM geben, da die einzelnen ARM SoC Implementierungen nicht binärkompatibel zueinander sind.

Windows für ARM wird noch für den einen oder anderen eine richtige Überraschung werden.

Wie die sind nicht binärkompatibel zueinander ? Wie läuft das dann bei Android?

Tiamat
2011-08-03, 21:19:54
Ok ich beantworte mir meine eigene Frage. Klar müssen die binärkompatibel sein, und zwar nach ARM v7. Durchaus interessant ist allerdings die Frage in wie weit die herstellerspezifischen Erweiterung in Win8 überhaupt genutzt werden können?

Avalox
2011-08-03, 23:30:24
Ok ich beantworte mir meine eigene Frage. Klar müssen die binärkompatibel sein, und zwar nach ARM v7. Durchaus interessant ist allerdings die Frage in wie weit die herstellerspezifischen Erweiterung in Win8 überhaupt genutzt werden können?

Nein. MS wird nicht umhinkommen mindestes vier nicht binär kompatible Windows für ARM Versionen auf dem Markt zu bringen um schon nur die heutigen Hersteller abdecken zu können. Bzw. wird es dann für native Anwendungen immer mindesten vier nicht binärkompatible ARM Varianten geben müssen.

Das Original

http://www.theregister.co.uk/2011/05/18/james_on_arm_and_windows/

Andreas Stiller

http://www.h-online.com/newsticker/news/item/Processor-Whispers-Of-dear-friends-and-engravers-1263024.html

Inzwischen räumt auch Microsoft zudem ein auf jegliche x86 Emulation, oder Umsetzung entsprechender Applikationen in den ARM Versionen zu verzichten.

Die gute Rene James hat da völlig Recht.

Wie Android es macht? Durch Anpassung des OpenSource Android an die Plattform durch den Hersteller und durch Abstraktion der Anwendungen.

Tiamat
2011-08-04, 00:55:29
LOL tatsächlich, hab mir´s grad durchgelesen.
Also dass keine Legacy-Software ausgeführt werden kann, hab man sich schon denken können, aber das hier macht mich grad sprachlos. ^^

aylano
2011-08-04, 13:51:34
Gibts schon Angaben bzw. Grüchte, warum sich jetzt kal-El verspätet.

Die Verspätung ist schon etwas seltsam.
Denn an der 40nm-Fertigung kann es doch nicht liegen.

LovesuckZ
2011-08-04, 14:01:34
Verspätung? Kal-El ist doch da. Musst nur bei nVidia nachfragen und 100k oder so kaufen.

aylano
2011-08-04, 14:13:00
Verspätung? Kal-El ist doch da. Musst nur bei nVidia nachfragen und 100k oder so kaufen.
http://ht4u.net/news/24173_nvidias_kal-el_verspaetet_sich/

Das beantwortet nicht meine Frage.

LovesuckZ
2011-08-04, 14:14:30
Natürlich. Da du Kal-El nicht im Laden als Chip kaufen kannst, ist es eine Antwort auf deine Frage.
Kal-El verspätet sich nicht, es sind die Produkte mit Kal-El.

Schaffe89
2011-08-04, 14:19:00
So konkret ist darüber aber nichts bekannt, wenns nach dir ginge haben sich auch die Fermi Chips nicht verspätet, nur die "geräte" alias Grafikkarten waren noch nicht fertig.;D

disap.ed
2011-08-04, 15:00:10
Nein. MS wird nicht umhinkommen mindestes vier nicht binär kompatible Windows für ARM Versionen auf dem Markt zu bringen um schon nur die heutigen Hersteller abdecken zu können. Bzw. wird es dann für native Anwendungen immer mindesten vier nicht binärkompatible ARM Varianten geben müssen.

Das Original

http://www.theregister.co.uk/2011/05/18/james_on_arm_and_windows/

Andreas Stiller

http://www.h-online.com/newsticker/news/item/Processor-Whispers-Of-dear-friends-and-engravers-1263024.html

Inzwischen räumt auch Microsoft zudem ein auf jegliche x86 Emulation, oder Umsetzung entsprechender Applikationen in den ARM Versionen zu verzichten.

Die gute Rene James hat da völlig Recht.

Wie Android es macht? Durch Anpassung des OpenSource Android an die Plattform durch den Hersteller und durch Abstraktion der Anwendungen.


LOL, für was gibt es dann sowas wie eine ARM v7 ISA? Wäre ja so wie wenn es für AMD, Intel und VIA verschiedene Windows geben würde.

darkcrawler
2011-08-04, 23:53:54
LOL tatsächlich, hab mir´s grad durchgelesen.
Also dass keine Legacy-Software ausgeführt werden kann, hab man sich schon denken können, aber das hier macht mich grad sprachlos. ^^


war ja klar, das grosse getöne ala "arm löst x86 ab" (jenseits von embedded) ist nur ein feuchter fanboy-traum, den man hier auch schon belächeln durfte :wink:

Tiamat
2011-08-05, 03:14:15
Was war daran bitteschön klar? Bei Linux findet man im Sourcecode des Kernels den Ordner ARM , wo v6 und v7 berücksichtigt wird. Würden sich die Hersteller keine Eigenanpassung vornehmen, hätte sich das Problem erst mal von Grund auf erledigt.

Dann müsste für weitere Argumente erstmal geklärt werden, was binärkompatibel im Sinne des Sprechers bedeutet, was genau.
Nehmen wir an, das ist einfach so, dann hat Google eindeutig den besseren Job gemacht.
Die delegieren die Anpassung an die Hersteller und durch die VM ist das einheitlich.

MS bürdet sich die Arbeit hier dagegen selbst auf. Das wird hier für das Compilerteam auf jeden Fall ein Dauerjob, um nicht zu sagen "Höllenarbeit".

Aber nach wie vor bin ich immer noch skeptisch, das z.B GCC verschiedene Targets innerhalb der ARM Arch hat, wär mir absolut neu. Meines Wissens kann man als Architektur ARM , die entsprechende ISA-Version und eine Angabe zur FPU machen ( z.B Neon ), aber mehr auch nicht. Das glaub ich erst, wenn ich es sehe (4 Win8 Versionen) :)

fondness
2011-08-05, 12:12:35
NVIDIA delays Kal-El, T30 Tegra by Two Months
http://www.brightsideofnews.com/news/2011/8/4/nvidia-delays-kal-el2c-t30-tegra-by-two-months.aspx

Ailuros
2011-08-05, 14:37:27
Es gibt auch 3 typische Hass-Artikel von Charlie fuer Tegra. Ich hab sie gerade durchgelesn und musste nur den Kopf schuetteln. Das einzige mit dem ich wirklich mit Charlie zustimme ist dass NV ausgezeichnete und hart-arbeitende engineers hat und dass so manches "Missgeschick" auf NV's Management zurueckzuleiten ist.

Es gibt so viele Fehler in den 3 Artikeln dass ich keinem raten wuerde sich damit Zeit zu verschwenden. Ausser dem obrigen ist das einzig andere welches stimmt dass T3 nicht zeitig oder nach den bisherigen Behauptungen ausgeliefert wurde.

Und nein fuer mich ist Kritik hier uebertrieben, denn solche Faelle gibt es bei allen SoC Herstellern. Dabei sollte man sich auch nicht als Gegenbeispiel fragen warum Apple das iPhone5 um 3 Monate verspaeten musste. SoCs sind empfindliche Tiere und es laeuft selten alles nach Plan.

Screemer
2011-08-05, 14:43:46
laut cnet wurde omap4 zur referenzplattform für ice cream sandwich auserkoren. ich gehe immer noch von mehreren socs je nach zielgerät aus, wie hier im thread schon spekuliert wurde. kal-el könnte durchaus tablet referenz sein. -> http://news.cnet.com/8301-13924_3-20086991-64/google-ti-cozy-up-on-android-ice-cream-sandwich/

LovesuckZ
2011-08-05, 14:57:21
Die Artikel zu Tegra und Denver auf Semiaccurate sind der letzte Rotz. Bin gestern rein zufällig darüber gestolpert, aber den Quatsch kann ich auch zusammenschreiben. :rolleyes:

laut cnet wurde omap4 zur referenzplattform für ice cream sandwich auserkoren. ich gehe immer noch von mehreren socs je nach zielgerät aus, wie hier im thread schon spekuliert wurde. kal-el könnte durchaus tablet referenz sein. -> http://news.cnet.com/8301-13924_3-20086991-64/google-ti-cozy-up-on-android-ice-cream-sandwich/

Es wird interessant sein zu sehen, wie das Konzept aufgehen wird. Selbst mit Tegra 2 und HC gab es mehr als genug Probleme, wo man sich nur an den Kopf fassen konnte. Und da war T2 der Referenz-SoC. Jetzt müssen sie Tablets und Smartphones mit einem OS zusammenführen...

dildo4u
2011-08-05, 15:10:10
Die Archos G9 3.1 Tabs kommen ja schon mit 1.5Ghz OMAP4,das gute ist die lassen das OS Stock nur paar Archos Apps sind drauf.Bin sehr auf die Tests gespannt.


http://www.archos.com/products/gen9/feat_dualcore.html?country=de&lang=de

LovesuckZ
2011-08-10, 15:29:58
Und da ist Tegra 2 nun auch in einem Samsung gebrandmarkten Smartphone: http://blogs.nvidia.com/2011/08/hands-on-with-the-tegra-powered-samsung-galaxy-r-android-super-phone/

Gipsel
2011-08-10, 15:51:31
Und da ist Tegra 2 nun auch in einem Samsung gebrandmarkten Smartphone: http://blogs.nvidia.com/2011/08/hands-on-with-the-tegra-powered-samsung-galaxy-r-android-super-phone/Das wegen der abgerundeten Apple-Ecken wohl auch bald nicht mehr verkauft werden darf. :freak:
Gebrandmarkt trifft es da schon ganz gut.

Hugo78
2011-08-10, 17:12:18
Lol was seh ich da, ArmAII fürs Handy?! :D

LovesuckZ
2011-08-10, 17:14:06
Ist kein Spiel. Das soll eher so eine Art Waffen-Simulation sein...

Hugo78
2011-08-10, 17:55:16
Ja habs grad gesehen, ist ein klassischer "Moorhuhn" Schießstand.
http://www.netbooknews.de/46509/tegra-zone-games-arma-firing-range-thd-test/

Aber dafür schauts gut aus.
http://www.netbooknews.de/wp-content/uploads/Games2_thumb.jpg

LovesuckZ
2011-08-11, 23:32:52
Huang über Kal-El und dem Stromverbrauch:
Kal-El wird in jedem Anwendungsgebiet einen niedrigeren Stromverbrauch aufweisen als Tegra 2.

Englisch gib's morgen aus dem Transcript.

Mancko
2011-08-11, 23:34:30
Huang sagt grad im Conference Call, dass er im Tegra Business mehr Umsatz vom Phone Markt erwartet als von den Tablets und zwar wegen der Stückzahlen. Nun dafür muss man kein Hellseher sein aber es ist erstaunlich wieviele Design Wins für Phones die bereits haben und es sollen weitere kommen. Hätte mit weniger gerechnet.

LovesuckZ
2011-08-11, 23:37:32
Huang sagt grad im Conference Call, dass er im Tegra Business mehr Umsatz vom Phone Markt erwartet als von den Tablets und zwar wegen der Stückzahlen. Nun dafür muss man kein Hellseher sein aber es ist erstaunlich wieviele Design Wins für Phones die bereits haben und es sollen weitere kommen. Hätte mit weniger gerechnet.

Wieso? Smartphone-Markt ist um ein Vielfaches größer als Tablets. Und Smartphone ist der Markt, der immer wächst. Dazu kommt, dass auch der Smartphone-Markt nach mehr Leistung schreit.
Tegra 2 ist außerdem mit der stromsparenste ARM-SoC auf dem Markt. Und er ist mit 49mm^2 sehr klein, was nVidia mit aggressiver Preisposition einen Vorteil bringt.

Ailuros
2011-08-12, 00:08:50
Huang sagt grad im Conference Call, dass er im Tegra Business mehr Umsatz vom Phone Markt erwartet als von den Tablets und zwar wegen der Stückzahlen. Nun dafür muss man kein Hellseher sein aber es ist erstaunlich wieviele Design Wins für Phones die bereits haben und es sollen weitere kommen. Hätte mit weniger gerechnet.

Vier Design wins bis jetzt. Was soll an dem Samsung Deal so besonders sein? Die meisten grossen Semis kaufen links und rechts diverse SoCs ein und im Fall von Samsung wo sie auch selber SoCs herstellen faellt in den meisten Faellen der Schwerpunkt eher auf diese.


Tegra 2 ist außerdem mit der stromsparenste ARM-SoC auf dem Markt. Und er ist mit 49mm^2 sehr klein, was nVidia mit aggressiver Preisposition einen Vorteil bringt.

Muss der Grund sein dass Tegra2 bei weitem mehr tablet desing wins erreicht hat als smart-phone design wins. NV verkaufte von Anfang an mit sehr attraktiven Preisen, nur wollte es damals keiner glauben.

LovesuckZ
2011-08-12, 00:11:10
Es sind 6: 1x LG (2x mit T-Mobile USA), 3x Motorola, 1xSamsung, 1xChina-Gerät.

Ailuros
2011-08-12, 00:18:02
Es sind 6: 1x LG (2x mit T-Mobile USA), 3x Motorola, 1xSamsung, 1xChina-Gerät.

Es ist eine Bestellung an SoCs pro Hersteller; ausser Du glaubst Hersteller bestellen in Dosen SoCs was der groesste Schwachsinn ueberhaupt waere. Je groesser die Anzahl der bestellten SoCs desto besser die Chancen fuer bessere Preise.

LovesuckZ
2011-08-12, 00:21:04
Es sind 6 reale Produkte. Keine Bestellungen, keine bloßen Aussagen.

Ailuros
2011-08-12, 00:28:12
Es sind 6 reale Produkte. Keine Bestellungen, keine bloßen Aussagen.

Es sind 4 Design wins von 4 Herstellern. Ob 4 oder 6 es handelt sich ja sowieso nicht um die Uebermenge und es ist wohl doch besser zu allem was Du haben willst ja zu sagen um seine Ruhe zu bekommen.

LovesuckZ
2011-08-12, 00:34:14
Es sind 4 Design wins von 4 Herstellern. Ob 4 oder 6 es handelt sich ja sowieso nicht um die Uebermenge und es ist wohl doch besser zu allem was Du haben willst ja zu sagen um seine Ruhe zu bekommen.

Es sind 6 unterschiedliche Designs von 4 Herstellern. Weder TI noch Qualcomm haben mehr anzubieten.

Ailuros
2011-08-12, 00:37:39
Es sind 6 unterschiedliche Designs von 4 Herstellern. Weder TI noch Qualcomm haben mehr anzubieten.

Ich hab Dir schon gesagt dass Du recht hast damit ich meine Ruhe bekomme. Hast Du sonst noch etwas ueberfluessiges in anderer Formulierung dazuzufuegen oder koennen wir endlich weiter machen?

LovesuckZ
2011-08-12, 01:02:48
Ich hab Dir schon gesagt dass Du recht hast damit ich meine Ruhe bekomme. Hast Du sonst noch etwas ueberfluessiges in anderer Formulierung dazuzufuegen oder koennen wir endlich weiter machen?

Weitermachen? Etwa so? Ach nein, dass ist ja wieder Offtopic, weil man die Konkurrenz erwähnt:
nVidia hat sogar mehr Smartphone Designs als TI und Qualcomm zusammen im Tablet-Markt. Nicht schlecht für ein Design, dass a)garnicht für Smartphones gemacht wurde und b) von der Konkurrenz deutlich überboten würde. :eek:

Ailuros
2011-08-12, 01:16:38
Weitermachen? Etwa so? Ach nein, dass ist ja wieder Offtopic, weil man die Konkurrenz erwähnt:
nVidia hat sogar mehr Smartphone Designs als TI und Qualcomm zusammen im Tablet-Markt. Nicht schlecht für ein Design, dass a)garnicht für Smartphones gemacht wurde und b) von der Konkurrenz deutlich überboten würde. :eek:

Du hast selber verlangt dass es sich nur in diesem Thread um Tegra dreht (was auch durchaus fuer mich akzeptabel ist) aber erlaubst Dir selber genau das Gegenteil. Das wahnwitzigste ist dass Du eine geraume Zeit brauchtest Dir die obrige Antwort auszudenken weil es Dir sonst eben an etwas konstrunktiverem fehlt.

Das zur Seite Du kannst Dich wieder beruhigen aber der smart-phone Markt wurde immer noch nicht von Tegra2 SoCs ueberschwemmt. Nicht schlecht fuer den Anfang aber wenn's schon irgend ein Anhaltspunkt jeglicher Konkurrenz sein muss, GalaxyS2 hat bis jetzt zich Mal mehr Einheiten verkauft als die vorerwaehnten 6 Modelle zusammen wobei es sich um Samsung's eigenen SoC handelt und mit GPU IP mit der wenig bis gar nichts geworben wurde und Mali GPU IP war bis zum GalaxyS2 ein groesserer "Unbekannte" als alles Tegra.

Samsung hat erst vor kurzem uebrigens auch ein weiteres S5PC1xx SoC basierendes smart-phone veroeffentlicht und ein smart-phone mit Adreno220. Da Du Dich selber von Vergleichen nicht fernhalten kannst, erzaehl mal wie viele S5PC1xx und wie viele OMAP3 basierende smart-phones Samsung noch heute verkauft und dann koennn wir darueber reden.

LovesuckZ
2011-08-12, 01:25:28
Du hast selber verlangt dass es sich nur in diesem Thread um Tegra dreht (was auch durchaus fuer mich akzeptabel ist) aber erlaubst Dir selber genau das Gegenteil. Das wahnwitzigste ist dass Du eine geraume Zeit brauchtest Dir die obrige Antwort auszudenken weil es Dir sonst eben an etwas konstrunktiverem fehlt.

Ich habe hier über keine andere Firma geschrieben. Konstruktiv gibt es nichts, weil DU und deine Freunde nichts konstruktives beizutragen habt.

Denn es endet immer in solchen Aussagen:

Das zur Seite Du kannst Dich wieder beruhigen aber der smart-phone Markt wurde immer noch nicht von Tegra2 SoCs ueberschwemmt. Nicht schlecht fuer den Anfang aber wenn's schon irgend ein Anhaltspunkt jeglicher Konkurrenz sein muss, GalaxyS2 hat bis jetzt zich Mal mehr Einheiten verkauft als die vorerwaehnten 6 Modelle zusammen wobei es sich um Samsung's eigenen SoC handelt und mit GPU IP mit der wenig bis gar nichts geworben wurde und Mali GPU IP war bis zum GalaxyS2 ein groesserer "Unbekannte" als alles Tegra.

Nonsens-Quervergleiche.
Wieso schreibst du sowas nicht auch im Qualcomm und TI Thread? Ach stimmt, die kommen nicht von nVidia und nennen sich Tegra. Wird einem das Gebashe nicht langsam langweilig, weil immer nur die SoCs von Firmen hervorgehoben werden, die sowieso durch eine bessere Time-To-Market glänzen?


Samsung hat erst vor kurzem uebrigens auch ein weiteres S5PC1xx SoC basierendes smart-phone veroeffentlicht und ein smart-phone mit Adreno220. Da Du Dich selber von Vergleichen nicht fernhalten kannst, erzaehl mal wie viele S5PC1xx und wie viele OMAP3 basierende smart-phones Samsung noch heute verkauft und dann koennn wir darueber reden.

Wow, OMAP3. Ist also OMAP3 nun schon der Konkurrent zu Tegra 2? Man, wie sich die Vergleiche ändern. :rolleyes:

Am besten vergleichen wir OMAP3 auch dann mit Tegra 3. Immerhin passt dann am Ende sogar die Zahl.

dildo4u
2011-08-12, 01:25:47
"Das Geschäft mit den Consumer Products, was die Tegra-Sparte und erstmals die Akquisition von Icera einschließt, wuchs um 36,8 Prozent auf 167,7 Millionen US-Dollar."

http://www.computerbase.de/news/2011-08/nvidia-knackt-wieder-die-umsatz-milliarde/

Ailuros
2011-08-12, 01:41:45
Ich habe hier über keine andere Firma geschrieben. Konstruktiv gibt es nichts, weil DU und deine Freunde nichts konstruktives beizutragen habt.

Dazu haben wir Dich selbstverstaendlich :D


Nonsens-Quervergleiche.
Wieso schreibst du sowas nicht auch im Qualcomm und TI Thread? Ach stimmt, die kommen nicht von nVidia und nennen sich Tegra. Wird einem das Gebashe nicht langsam langweilig, weil immer nur die SoCs von Firmen hervorgehoben werden, die sowieso durch eine bessere Time-To-Marktet glänzen?

Ich hab diesmal nicht mit den Vergleichen angefangen; Du warst derjenige der Qualcomm und TI in die Diskussion hier reingemischt hat. Es gibt uebrigens keinen TI Thread. http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8881981&postcount=1372

Wenn Du es haben willst dass Vergleiche zu anderen SoC Herstellern aus diesem Thread fern bleiben musst Du Dich als erster daran halten. Und ja ich stehe auch dann dazu dass es weder von mir oder jedem anderen nochmal so weit kommt. Was soll's denn jetzt werden? Willst Du Vergleiche oder eben nicht? Denn es gibt kein multiple choice noch irgend eine besondere Behandlung fuer Dich; es ist entweder oder.

Wow, OMAP3. Ist also OMAP3 nun schon der Konkurrent zu Tegra 2? Man, wie sich die Vergleiche ändern. :rolleyes:

S5PC1xx genauso wenig; aber wenn es zu Verkaufszahlen kommt gibt es bei Tegra2 generell nichts besonderes zum jubeln. Fuer Dich vieleicht schon, aber insgesamt im grossen Bild sind es immer noch ein paar Erbsen in einem grossen Topf. Natuerlich hat und wird NV eine steigende Tendenz haben, aber man kann immer nocht nicht von einem TI/Qualcomm/Samsung oder weiss der Geier was noch Vergleich reden.

Am besten vergleichen wir OMAP3 auch dann mit Tegra 3. Immerhin passt dann am Ende sogar die Zahl.

Da man sich bei smartphone Tegra3 SoCs auf AP30 bezieht, denk ich wohl eher an einen anderen SoC der mit einem "A" anfaengt fuer diesen Herbst.

LovesuckZ
2011-08-12, 01:55:29
Dazu haben wir Dich selbstverstaendlich :D

Du kannst gerne meine Lügen in diesen Thread auflisten. Sollte nicht schwer fallen, wenn man mir vorwirft, dass ich "überflüssiges" schreibe.


Ich hab diesmal nicht mit den Vergleichen angefangen; Du warst derjenige der Qualcomm und TI in die Diskussion hier reingemischt hat. Es gibt uebrigens keinen TI Thread.
Wenn Du es haben willst dass Vergleiche zu anderen SoC Herstellern aus diesem Thread fern bleiben musst Du Dich als erster daran halten. Und ja ich stehe auch dann dazu dass es weder von mir oder jedem anderen nochmal so weit kommt. Was soll's denn jetzt werden? Willst Du Vergleiche oder eben nicht? Denn es gibt kein multiple choice noch irgend eine besondere Behandlung fuer Dich; es ist entweder oder.


Merkst du nicht, dass dein Gebashe von Tegra immer nur in diese Richtung geht:
Kein Erfolg, langsam, schlecht, stromhungrig, bla.

Und wenn man dann nach Maßstab fragt kommt:
Samsung, Apple, alter Single-Core-Schrott vom letzten Jahr.

Und genau das führt zu einer absurden Situation. Sobald man dich berichtigt, kommt sowieso immer Samsung und Apple als Maßstab und solche Aussagen:


Ob 4 oder 6 es handelt sich ja sowieso nicht um die Uebermenge

Etwas, das überhaupt nicht relevant war. Mancko hat sich gewundert, wieso nVidia mit Smartphones mehr Umsatz generiere. Deine Aussage?
Was soll an den Designs relevant sein.

Glückwunsch, ein Bash als Antwort auf eine ernste Frage. :rolleyes:


S5PC1xx genauso wenig; aber wenn es zu Verkaufszahlen kommt gibt es bei Tegra2 generell nichts besonderes zum jubeln. Fuer Dich vieleicht schon, aber insgesamt im grossen Bild sind es immer noch ein paar Erbsen in einem grossen Topf. Natuerlich hat und wird NV eine steigende Tendenz haben, aber man kann immer nocht nicht von einem TI/Qualcomm/Samsung oder weiss der Geier was noch Vergleich reden.


Und da sind wir wieder: In der Vergangenheit war noch OMAP4 der Vergleich und wenn's mit dem nicht klappt, nehmen wir eben Samsung, oder Apple, oder OMAP3. Irgendwas wird schon reichen, um den Fortschritt mit Tegra2 in die kleine Ecke zu drücken.

Ich sollte echt einen Thread über TI aufmachen und OMAP4 bashen, weil nVidia mit Tegra2 deutlich mehr Erfolg hat. Bringt zwar niemanden etwas, aber das ist anscheinend das Niveau, dass man haben will.

Ailuros
2011-08-12, 02:08:18
Merkst du nicht, dass dein Gebashe von Tegra immer nur in diese Richtung geht:
Kein Erfolg, langsam, schlecht, stromhungrig, bla.

Tegra2 ist ein sehr guter SoC aber insgesamt auch nichts besonderes und dieses hab ich schon zich Male wiederholt. Sonst steh ich nicht zum Thema und auch nicht zur Diskussion und natuerlich auch nicht zu Deinem typischen Verfolgungswahn.

Und wenn man dann nach Maßstab fragt kommt:
Samsung, Apple, alter Single-Core-Schrott vom letzten Jahr.

Und genau das führt zu einer absurden Situation. Sobald man dich berichtigt, kommt sowieso immer Samsung und Apple als Maßstab und solche Aussagen:

Ich hab nicht erwartet dass Du einsehen wirst dass Du damit angefangen hast, aber da die Leier kein Ende nehmen wird:

Es wird von jetzt ab kein einziger Vergleich zwischen TegraX und jeglichen anderen SoCs geduldet und diesmal wird es auch steinhart gelten fuer ALLE/


Etwas, das überhaupt nicht relevant war. Mancko hat sich gewundert, wieso nVidia mit Smartphones mehr Umsatz generiere. Deine Aussage?
Was soll an den Designs relevant sein.

Glückwunsch, ein Bash als Antwort auf eine ernste Frage. :rolleyes:

NVIDIA und Analysten erwarteten um einiges mehr. Hat NV ihre Tegra2 Projektionen bis jetzt erreichen koennen ja oder nein?

Und da sind wir wieder: In der Vergangenheit war noch OMAP4 der Vergleich und wenn's mit dem nicht klappt, nehmen wir eben Samsung, oder Apple, oder OMAP3. Irgendwas wird schon reichen, um den Fortschritt mit Tegra2 in die kleine Ecke zu drücken.

Wenn Tegras den Markt ueberschwemmen werden werden wir es schon merken. In der Zwischenzeit halt Dich bitte ans rot-gedruckte oben.

Ich sollte echt einen Thread über TI aufmachen und OMAP4 bashen, weil nVidia mit Tegra2 deutlich mehr Erfolg hat. Bringt zwar niemanden etwas, aber das ist anscheinend das Niveau, dass man haben will.

Es steht nirgends dass es verboten ist. Nur musst Du uns dann auch mitteilen ob Du nur mit Dir selber einen Monolog fuehren willst oder ob ein jegliches Gegenwort dann auch erlaubt ist.

So und jetzt zurueck zum Thema; streng Tegra und NUR Tegra auch von Dir. Wenn Du Dich sonst noch austoben willst schick mir ein PM.

Ailuros
2011-08-12, 08:34:57
"Das Geschäft mit den Consumer Products, was die Tegra-Sparte und erstmals die Akquisition von Icera einschließt, wuchs um 36,8 Prozent auf 167,7 Millionen US-Dollar."

http://www.computerbase.de/news/2011-08/nvidia-knackt-wieder-die-umsatz-milliarde/

Hier auch xbitlabs dazu: http://www.xbitlabs.com/news/other/display/20110811195714_Tegra_Chip_for_Mobile_Devices_Lifts_Nvidia_s_Revenues_in_Q2.html

"Our consumer products business, which includes Tegra smartphone and tablet products, and now Icera baseband processors and RF transceivers, as well as our embedded products, was up 36.8% over the prior quarter, at $167.7 million. Much of the increase was driven by seasonally up game console royalties and refreshes in embedded entertainment products. Tegra was steady as the product ramps in the first quarter hit shelves. Icera’s contribution was not significant," explained Karen Burns, interim chief financial officer at Nvidia.

Ich hab nicht die blasseste Ahnung wieviel man Icera zuleiten koennte, aber ich kann mir auch schwer vorstellen dass die Analogie von den knapp 168Mio besonders gross ist, eher das Gegenteil (obwohl Icera's Verkaufs-potential fuer die Zukunft durchaus gross ist). Das einzige was ich finden konnte ist dass Icera in 2009 und 2010 ihren Umsatz um zich Male erhoeht hatte (4x Mal im letzten Fall) ohne jeglichen genaue Summen.

Noch kann man genau wissen wie gross die Analogie fuer RSX royalties genau ist. Wie dem auch sei, insgesamt fuer die Sparte (Tegra, Icera, console royalties) ist ein Zusatz von ~37% durchaus sehenswert.

Mancko
2011-08-12, 09:37:27
Icera soll umsatzäßig belanglos sein meinte Huang. Er hat auch gesagt, dass sie da aktuell sich auf zukünfige Integration in die Tegra Palette kümmern und das die LTE Komponenten die da gerade neu entwickelt werden oder worden sind auch erst später zum Umatz beitragen.
Er redete von Q1 2012 als Zeitpunkt, wann Icera Teil Umsatzmäßig Gas geben wird.

Insofern würde ich schon davon ausgehen, dass Tegra ordentlich zugelegt hat. Im nächsten Quartal dürfte es noch mal einen ordentlichen Schub geben.

LovesuckZ
2011-08-12, 11:35:33
Icera soll umsatzäßig belanglos sein meinte Huang. Er hat auch gesagt, dass sie da aktuell sich auf zukünfige Integration in die Tegra Palette kümmern und das die LTE Komponenten die da gerade neu entwickelt werden oder worden sind auch erst später zum Umatz beitragen.
Er redete von Q1 2012 als Zeitpunkt, wann Icera Teil Umsatzmäßig Gas geben wird.

Insofern würde ich schon davon ausgehen, dass Tegra ordentlich zugelegt hat. Im nächsten Quartal dürfte es noch mal einen ordentlichen Schub geben.

Ja. Umsatzentwicklung soll 2012 relevant werden und die Integration 2013 mit Tegra stattfinden.
Siehe auch: http://blogs.barrons.com/techtraderdaily/2011/08/11/nvidias-huang-plenty-of-upside-for-tegra/

Achja, laut Huang werden sie in diesem jahr in ca. 10% aller verkauften Android-Geräte sein.

Achja, zu Kal-El:
And Kal-El, it's going to be world's first quad-core processor. And it's so much higher performance than Tegra 2 and at so much lower power. And very few people have internalized that Kal-El is lower power in every use case compared to Tegra 2. And so this is, it's really a great breakthrough based on the technology we call variable SMP, variable symmetric multiprocessing, that makes it possible for us to achieve much higher performance where performance is needed and much lower power in almost everything that you do.
http://seekingalpha.com/article/286901-nvidia-s-ceo-discusses-q2-2012-results-earnings-call-transcript?part=qanda

Woha, ich lass mich überraschen.

AwesomeSauce
2011-08-12, 13:05:46
Ist das jetzt auf per Core bezogen oder auf den gesamten Chip? Ich meine, doppelte Core Anzahl und trotzdem noch weniger Verbrauch:eek:

Ailuros
2011-08-12, 13:24:10
Ist das jetzt auf per Core bezogen oder auf den gesamten Chip? Ich meine, doppelte Core Anzahl und trotzdem noch weniger Verbrauch:eek:

Offensichtlich auf den gesamten SoC. Wie schon vor einiger Zeit erwaehnt bei Tegra2 takten zwar die zwei A9 CPU cores dynamisch nach unten je nach workload aber eben nicht unabhaengig (was bis jetzt in vielen Faellen der Fall war). Bei Tegra3 operiert clock gating unabhaengig pro CPU core, ergo fuer ein sehr vereinfachtes Beispiel:

CoreA = 400MHz
CoreB = 600MHz
CoreC = 1000MHz
CoreD = 900MHz

Bei Tegra2 wenn der eine core auf 600MHz z.B. runtertaktet, gilt es zwangsweise fuer beide.

Noch kommt dazu dass nicht alle 4 cores so oft ausgelastet werden und es fuer smart-phones hoechstwahrscheinlich sowohl eine quad core A9 als auch eine dual core A9 Variante geben wird, wobei ich mit Arun zustimme dass sie einfach 2 CPU cores deaktiviert haben da es billiger ist als zwei tape outs.

V2.0
2011-08-12, 13:28:28
Wenn ich das lese und an Kepler / Maxwell und den Verzicht auf Hotclock denke.... ob wohl Grundzüge davon es schin in Kepler geschafft haben, so dass man SMD-Blöcke einzeln takten kann.

Ailuros
2011-08-12, 13:35:42
Wenn ich das lese und an Kepler / Maxwell und den Verzicht auf Hotclock denke.... ob wohl Grundzüge davon es schin in Kepler geschafft haben, so dass man SMD-Blöcke einzeln takten kann.

Der einzige moegliche Zusammenhang koennte sein dass es irgendwelche Parallelen zwischen Project Denver und Maxwell in der Zukunft geben koennte was reduzierte hotclocks oder die Abschaffung dieser betrifft.

Mir ist was Tegra3 betrifft nur das fortschrittlichere power/clock-gating der CPU Einheiten bekannt, was die ULP GeForce in diesem betrifft keine Ahnung, aber ich sehe auch nicht was das eine mit dem anderen zu tun haben koennte. Dass die ULP GF power/clock-gating haben wird bezweifle ich nicht, aber dass jetzt die diversen Vec4 ALUs (3 eingeschaetzt - 2PS + 1VS) unabhaengig und unterschiedlich takten will ich bezweifeln.

Flusher
2011-08-12, 14:09:12
Könnte mir jemand kurz Sagen wie Nvidia bei der Grafiklösung des Tegra 2 auf 8 Recheneinheiten kommt? Wieviele Vertex/Pixel-Shader hat das Teil?

LovesuckZ
2011-08-12, 14:10:20
Könnte mir jemand kurz Sagen wie Nvidia bei der Grafiklösung des Tegra 2 auf 8 Recheneinheiten kommt? Wieviele Vertex/Pixel-Shader hat das Teil?

2x Vec4 Recheneinheiten, unterteilt in 1x Vec4 Pixelshader und 1x Vec4 Vertexshader.

Ailuros
2011-08-12, 14:23:27
Eigentlich 4+1 fuer die PS ALU wenn man die blending unit mitberechnet; wenn kein blending vorgeht kommt noch theoretisch 1 FLOP dazu (9 anstatt 8).

Flusher
2011-08-12, 14:31:44
Dankeschön :)

Label
2011-08-16, 20:49:08
Im optimieren von Treibern ist Nvidia echt klasse... (http://www.anandtech.com/show/4605/samsung-galaxy-tab-101-4g-lte-review/4) :up:

Ailuros
2011-08-17, 09:10:01
Im optimieren von Treibern ist Nvidia echt klasse... (http://www.anandtech.com/show/4605/samsung-galaxy-tab-101-4g-lte-review/4) :up:

Und daran sollten sich viele andere ein Beispiel nehmen. Wenn es zu Treibern kommt hoert man im Hintergrund nur positives.

Mancko
2011-08-27, 13:59:26
Laut Computerbase sollen die neuen Amazon Tablets ebenfalls auf Tegra setzen.
Eins auf den Tegra2 und das andere dann bereits auf Tegra3 alias Kal-El

http://www.computerbase.de/news/2011-08/amazon-plant-aggressive-tablet-preisstrategie/

Nakai
2011-08-27, 14:52:06
Kal-El ist auch perfekt geeignet für Tablets.

Dural
2011-08-29, 13:08:21
vielleicht zu Perfekt... ich bin ja mal auf die Akku Laufzeiten gespannt, gerade bei den Handys :rolleyes:

Gerade bei voller Belastung dürfte T3 doch so einiges an Strom verbrauchen, trotz der mittlerweile sehr guten 40nm Fertigung. Die frage stellt sich natürlich wie man eine solche SoC im Handy bereich derzeit voll aus lasten will/kann (nützlich!) Im Teillast betrieb mache ich mir betreffent Strom verbrauch aber keine sorge, da dürfte die Aussage seitens NV wohl sogar stimmen und T3 ist etwas sparsamer als noch T2.

Ailuros
2011-08-29, 15:18:59
AP30 (smart-phones) ist je nach Wahl des Herstellers entweder dual oder quad A9 afaik (hab ich ja auch schon etliche Male erwaehnt). Hoechstwahrscheinlich sind die zwei von den vier A9 cores einfach deaktiviert um die Kosten eines weiteren getrennten spins dafuer zu sparen (und nein sie verbrauchen so keinen zusaetzlichen Strom da power-gated).

Nakai
2011-08-29, 17:34:16
Nur die volle Ausbaustufe von Kal-El ist interessant, da sie wohl relativ zeitg zu kommen scheint. Die Dualcoreversion von Kal-El ist selbst einem Omap4440 unterlegen, welcher jetzt schon auf dem Markt aufschlägt. Kal-El kann nur im höheren Bereich etwas reissen.

Dural
2011-08-29, 20:38:06
Nur die volle Ausbaustufe von Kal-El ist interessant, da sie wohl relativ zeitg zu kommen scheint. Die Dualcoreversion von Kal-El ist selbst einem Omap4440 unterlegen, welcher jetzt schon auf dem Markt aufschlägt. Kal-El kann nur im höheren Bereich etwas reissen.

Wie kommst du den auf das???

Nakai
2011-08-29, 22:40:19
Wie kommst du den auf das???

Ich weiß noch nicht, wie NV Tegra 3 positionieren will. Ein Omap4440 hat schon 2 CortexA9 mit 1,5GHz und einen SGX540 mit 384MHz unter der Haube. Außerdem gibts da noch das Kriterium der Speicheranbindung. SingleChannel vs DualChannel ist kein Vergleich. Das Problem ist einfach, dass NV erst nächstes Jahr mit Kal El in den Smartphone-Markt kommen will (jedenfalls laut Roadmap). Omap4440 ist jetzt schon auf dem Markt. Deswegen schrieb ich, dass KalEl "perfekt" für Tablets geeignet ist, da ziemlich früh kommt und eine hohe Rechenleistung bringt. Aber die Konkurrenz schläft nicht...

€: NV gut mitspielt und KalEl zeitig bringt, dann wird man damit einen guten Erfolg liefern können. T2 konnte auch ziemlich erfolgreich werden, weil man relativ früh auf dem Markt gekommen ist. Aber nur 6 Monate später waren schon überlegenere Produkte auf dem Markt. NV muss KalEl früh genug liefern, dann wird er wieder ziemlich erfolgreich...

Ailuros
2011-08-30, 08:46:21
Nakai,

Verfuegbare Produkte duerfte es noch nicht geben, lediglich Ankuendigungen (es ist uebrigens 4460).

Wie dem auch sei AP30 wird es sowohl als dual core als auch als quad core Variante geben. Die zweite ist dann bei theoretischer voller Auslastung der CPUs schon ueberlegen egal ob diese niedriger getaktet sein sollte als im T30. Bandbreite koennte ein Kopfschmerz sein aber dann auch nur bei groesserer bis voller Auslastung.

Ailuros
2011-09-01, 00:30:06
http://www.anandtech.com/show/4719/sony-enters-tablet-market-announces-two-tablets

Das Tablet mit den 2 Bildschirmen koennte eine durchaus interessante Loesung sein.

Ailuros
2011-09-02, 00:30:07
http://www.xbitlabs.com/news/graphics/display/20110831192653_Nvidia_Experiments_with_Video_Games_Streaming_from_PC_to_Tablet.h tml

Sehr interessant. Der letzte Paragraph ist aber ziemlich getroffen, denn es koennte tatsaechlich ein Kopfschmerz sein wenn Spiele nicht dementsprechend angepasst werden.

Hugo78
2011-09-02, 05:52:19
Abseits von Spielen könnte aber ein Streaming von Präsentationsmaterial auf Tablets, im Arbeitsleben für manchen nützlich sein.
So wie schon bei der iRay Demo.

Ailuros
2011-09-02, 08:36:37
Abseits von Spielen könnte aber ein Steaming von Präsentationsmaterial auf Tablets, im Arbeitsleben für manchen nützlich sein.
So wie es schon bei der iRay Demo.

Durchaus und mir gefallen auch stets innovative Ideen wie diese. Wenn ISVs jetzt noch einige Spiele fuer touchscreen controls anpassen koennen waere es ziemlich toll. Eine durchaus interessante Perspektive fuer die Zukunft.

Hugo
2011-09-07, 13:47:01
Huang träumt.... :)
http://www.hardwareluxx.de/index.php/news/consumer-electronics/gadgets/19816-nvidia-tegra-soll-in-jedes-zweite-smartphone.html

Ailuros
2011-09-07, 15:39:55
Huang träumt.... :)
http://www.hardwareluxx.de/index.php/news/consumer-electronics/gadgets/19816-nvidia-tegra-soll-in-jedes-zweite-smartphone.html

Dass sie Qualcomm als eigentlichen (wichtigen) Konkurrenten ansehen ist erstmal getroffen IMHO. 4 Jahre sind eine ziemlich lange Zeit und wenn sie es wirklich schaffen muss man ihnen den Hut abnehmen. Mit der Haelfte von smart-phones sind wohl windows/android smart-phones gemeint; ein ziemlich grosser Happen als Projektion, aber da die Zeitspanne auch ziemlich gross ist wage ich es noch nicht als unmoeglich abzustempeln. Icera kann uebrigens unter den jetzigen Fluegeln von Tegra von jetzt ab ziemlich viel erreichen. Ein sehr wichtiger Schritt fuer Tegra waere auch lower end SoCs parallel zu higher end SoCs weiterhin herzustellen, denn das dicke Volumen und Umsatz hockt IMHO in den low cost smart-phones.

***edit: http://www.dailytech.com/article.aspx?newsid=22646

Blediator16
2011-09-07, 16:15:02
Sagt das der Huang, weil es NVs einzige Alternative ist oder ist er wirklich davon überzeugt, dass man sozusagen in der Scheisse steckt, wenn man kein Tablet/Smartphone CPU bringt?

Mancko
2011-09-07, 16:30:57
Sagt das der Huang, weil es NVs einzige Alternative ist oder ist er wirklich davon überzeugt, dass man sozusagen in der Scheisse steckt, wenn man kein Tablet/Smartphone CPU bringt?

Das wird ein bisschen von Beidem sein. Wobei ich nicht sagen würde dass man in der Scheisse steckt. Huang ist ein ziemlicher Visionär und was ich bei Nvidia extrem gut finde ist die Flucht nach vorne. Nvidia schafft es neue Märkte zu generieren und auch existierende Märkte für sich zu gewinnen und das Unternehmen ständig zu verändern. Das haben sie bereits mehrfach bewiesen und in der Regel kleckern sie dann auch nicht über einen längeren Zeitraum gesehen sondern klotzen und stecken sich sehr ambitionierte Ziele. Nicht jedes Ziel erreicht man, aber von der Moral und Vorgehensweise her unterscheidet sich Nvidia hier von den meißten doch erheblich. AMD beispielsweise agiert sehr viel vorsichtiger und langsamer als Nvidia und mein persönlicher Eindruck ist, dass viele der heutigen SoC Hersteller auf Dauer das Interesse an dem Markt verlieren werden. Vor allem die großen Konzerne im ARM Umfeld werden dauerhaft keinen Bock haben sich mit Nvidia auseinander zu setzen. Aufgrund der Unternehmens und Kostenstruktur haben sie dort einfach Nachteile was die Dynamik in der Produktentwicklung angeht.

Dural
2011-09-07, 19:03:51
wann werden wir erste geräte mit tegra3 im handel sehen? reicht es noch dieses Jahr?

es ist sehr still um tegra3 geworden :)


überlege mir gerade ob ich noch das asus eee pad mit eee pad dock kaufen will, hatte es heute in den
händen und muss sagen sehr cooles teil! 16h akku laufzeit ist schon eine hausnummer!
ich wollte eigentlich bis tegra3 warten hmmm...


edit:

http://www.tomshardware.de/ASUS-Transformer2-Tablet-Nvidia-Tegra3,news-246114.html

na dann, noch ein monat abwarten ;)

Nakai
2011-09-07, 20:02:28
Nakai,

Verfuegbare Produkte duerfte es noch nicht geben, lediglich Ankuendigungen (es ist uebrigens 4460).

Wie dem auch sei AP30 wird es sowohl als dual core als auch als quad core Variante geben. Die zweite ist dann bei theoretischer voller Auslastung der CPUs schon ueberlegen egal ob diese niedriger getaktet sein sollte als im T30. Bandbreite koennte ein Kopfschmerz sein aber dann auch nur bei groesserer bis voller Auslastung.

Ich wollte eigentlich viel früher antworten...ging aber zeitlich nicht.

Natürlich ich hab da was bei Archos Tablets übersehen.

überlege mir gerade ob ich noch das asus eee pad mit eee pad dock kaufen will, hatte es heute in den
händen und muss sagen sehr cooles teil! 16h akku laufzeit ist schon eine hausnummer!
ich wollte eigentlich bis tegra3 warten hmmm...

Tegra3 ist dieses Jahr noch eine wirklich gute Option. Aber ab nächstes Jahr wirds ziemlich knapp für Tegra3. Selbst Wayne wird laut Nvidias eigener Roadmap nicht so viel stärker(Faktor2), vor allem wenn man die Leistungsratings zwischen SOCs vergleicht.

Dass sie Qualcomm als eigentlichen (wichtigen) Konkurrenten ansehen ist erstmal getroffen IMHO. 4 Jahre sind eine ziemlich lange Zeit und wenn sie es wirklich schaffen muss man ihnen den Hut abnehmen. Mit der Haelfte von smart-phones sind wohl windows/android smart-phones gemeint; ein ziemlich grosser Happen als Projektion, aber da die Zeitspanne auch ziemlich gross ist wage ich es noch nicht als unmoeglich abzustempeln. Icera kann uebrigens unter den jetzigen Fluegeln von Tegra von jetzt ab ziemlich viel erreichen. Ein sehr wichtiger Schritt fuer Tegra waere auch lower end SoCs parallel zu higher end SoCs weiterhin herzustellen, denn das dicke Volumen und Umsatz hockt IMHO in den low cost smart-phones.

Nvidia kann tatsächlich einige Vorteile mit ihren relativ flotten Releases einfahren. Nur stellt sich die Konkurrenz gerade deutlich um. Das wird in nächster Zeit natürlich noch gut klappen. SOC-Entwicklung ist ziemlich zeitaufwändig.

Sagt das der Huang, weil es NVs einzige Alternative ist oder ist er wirklich davon überzeugt, dass man sozusagen in der Scheisse steckt, wenn man kein Tablet/Smartphone CPU bringt?

Ach, das ist derzeit die einzigste Alternative. AMD machts ja auch, nur gehen die von oben nach unten.;)

€: AMD könnte auch in mittelfristiger Zeit in diesem Bereich mit einem ARM-SOC einsteigen.

Ailuros
2011-09-07, 21:29:35
Tegra3 ist dieses Jahr noch eine wirklich gute Option. Aber ab nächstes Jahr wirds ziemlich knapp für Tegra3. Selbst Wayne wird laut Nvidias eigener Roadmap nicht so viel stärker(Faktor2), vor allem wenn man die Leistungsratings zwischen SOCs vergleicht.

Kommt drauf fuer wieviel NV jeglichen SoC verkaufen wird und ob moeglicherweise vielleicht T2 doch nicht zum Auslauf kommt und weiter-produziert wird. Somit koennte NV irgendwie schon fuer hoehere Volumen konkurrieren. Qualcomm verkauft doch auch noch momentan tonnenweise Adreno 200 und 205 und 220 kommt erst jetzt so langsam in Aufschwung.

Nvidia kann tatsächlich einige Vorteile mit ihren relativ flotten Releases einfahren. Nur stellt sich die Konkurrenz gerade deutlich um. Das wird in nächster Zeit natürlich noch gut klappen. SOC-Entwicklung ist ziemlich zeitaufwändig.

NV wird das unkontrollierbare Problem haben wie jeder andere SoC Hersteller, naemlich zunehmend problematische Herstellungsprozesse. Waere 28nm@TSMC nicht so problematisch haetten sie vielleicht schon dieses Jahr in Massenproduktion mit 28nm SoCs gehen koennen.

Ach, das ist derzeit die einzigste Alternative. AMD machts ja auch, nur gehen die von oben nach unten.;)

€: AMD könnte auch in mittelfristiger Zeit in diesem Bereich mit einem ARM-SOC einsteigen.

AMD hat wie schon oefters von ihnen selber erwaehnt keine Plaene vorruebergehend fuer smart-phone Maerkte und das wohl weil ihre DX11 Architektur eben nicht besonders momentan hilft zumindest nicht bis zu 28nm, wenn selbst dieses nicht zu frueh ist.

So wie der smart-phone Markt wird wohl kein anderer Markt in absehbarer Zeit wachsen.

Hugo
2011-09-07, 21:42:06
was ist ein Kal-El+?
http://www.heise.de/newsticker/meldung/Nvidia-Mit-Kal-El-in-den-Notebook-Markt-1338799.html

ein shrink in 28nm?

Hugo78
2011-09-07, 21:49:02
Kommt drauf fuer wieviel NV jeglichen SoC verkaufen wird und ob moeglicherweise vielleicht T2 doch nicht zum Auslauf kommt und weiter-produziert wird.

Dualcore SoCs für den günstigen Massenmarkt sollte NV ohnehin erstmal noch weiterbauen.
Es wäre sicher auch nicht schlecht, wenn NV später in 28nm nochmal einem reinen Dualcore auf Basis von Tegra3 bringt.
Also ein A9 Dualcore mit 1,5Ghz (+X) statt nur 1 Ghz und schnellerer GPU als im T2, aber ebend für den Preis eines T2.
Ausser natürlich man hat schon ein A15 Dualcore am Start, zu der Zeit (Mitte 2012).

fondness
2011-09-07, 22:02:58
was ist ein Kal-El+?
http://www.heise.de/newsticker/meldung/Nvidia-Mit-Kal-El-in-den-Notebook-Markt-1338799.html

ein shrink in 28nm?

Ich finde es seltsam das Huang jetzt schon wieder Luftblasen verteilt, nachdem man die ursprünglichen Projektionen zu Tegra ja bereits um mehrere Faktoren verfehlt hat. So zu tun als gebe es in dem Markt eh nur Qualcomm und Nvidia finde ich auch seltsam. Denn erstens fertigen bedeutende Hersteller wie Samsung und Apple ihre Chips selbst und zweitens gibt es daneben auch noch Texas Instruments, sowie AMD/Intel mit x86, die auch immer stromsparender werden.

Man darf hier auch nicht vergessen das sich diese beiden bewusst gegen ARM entschieden haben, obwohl ARM nach wie vor äußerst offensiv die beiden versucht anzuwerben. Sollte sich ARM tatsächlich auf breiter Front durchsetzten, wird auch Intel/AMD nicht daran vorbei kommen ARM-Chips anzubieten. Jedenfalls ist es ziemlich naiv von Huang zu glauben, sich einen angeblichen 20Mrd-Markt 2015 zu zweit teilen zu können.

Was ist eigentlich davon zu halten: "Damit will Nvidia den Smartphone-Markt erobern und währenddessen auch ein eigenes Betriebssystem vorstellen."
Ein Betriebssystem von Nvidia? Tatsächlich? Oder ein Fehler?

AnarchX
2011-09-07, 22:04:45
was ist ein Kal-El+?
http://www.heise.de/newsticker/meldung/Nvidia-Mit-Kal-El-in-den-Notebook-Markt-1338799.html

ein shrink in 28nm?
... und wohl eine Win8-tauglichen GPU (DX11?).

Ailuros
2011-09-07, 22:17:27
... und wohl eine Win8-tauglichen GPU (DX11?).

Aus dem Link selber:

Im Unterschied zu den Kal-Els könnte Wayne tatsächlich einen Grafikchip mitbringen, der auf eine Unified-Shader-Architektur setzt und damit auch CUDA unterstützt. Erste Anzeichen dafür gab es bereits zur GPU Technology Conference im September 2010.

AnarchX
2011-09-07, 22:20:00
"Auch den Kal-El-Nachfolger Kal-El+ kündigte Huang an. Mit ihm will Nvidia in Zusammenspiel mit Windows 8 for ARM schließlich in den Notebook-Markt einsteigen."

dildo4u
2011-09-07, 22:21:13
Man braucht doch nicht zwingend ne DX10/11 Fähige GPU für Win8.MS hat gesagt die Anforderungen werden die selben wie für Win7 sein,ein Game der DX10/11 Klasse kannste auf der CPU sowieso vergessen.

http://windows.microsoft.com/de-DE/windows7/products/system-requirements

Hugo78
2011-09-07, 22:22:26
"Auch den Kal-El-Nachfolger Kal-El+ kündigte Huang an. Mit ihm will Nvidia in Zusammenspiel mit Windows 8 for ARM schließlich in den Notebook-Markt einsteigen."

Wird ja auch Zeit. :D

Ailuros
2011-09-07, 22:36:02
"Auch den Kal-El-Nachfolger Kal-El+ kündigte Huang an. Mit ihm will Nvidia in Zusammenspiel mit Windows 8 for ARM schließlich in den Notebook-Markt einsteigen."

Dafuer reicht DX9 Level3 (DX11 certified DX9.0). NV muss halt einfach dafuer die PS ALUs auf zumindest FP24 aufbohren, die Z Praezision auf 24bit erhoehen und die TMUs u.a. fuer maximale 4096*4096 Texturen erweitern.

RLZ
2011-09-07, 22:45:48
Alles schön und gut was die machen.
Aber bei so einem Satz kriege ich einen Brechreiz:
Anfang 2013 will Nvidia schließlich "Grey" präsentieren, auf dessen Silizium bereits die 3G/4G-Mobilfunktechnik des im Mai 2011 für 367 Millionen US-Dollar übernommenen Unternehmens Icera stecken soll. Damit will Nvidia den Smartphone-Markt erobern und währenddessen auch ein eigenes Betriebssystem vorstellen.
Was ist deren Problem? Das Letzte, was wir brauchen, ist noch ein anderes Betriebssystem.

Hugo78
2011-09-07, 23:04:34
Das mit dem OS muss erstmal Heise erläutern.
Denkbar wäre natürlichen eine eigene Linuxdistribution für Server, grade mit Blick auf "Denver".

Ailuros
2011-09-07, 23:10:49
Das mit dem OS muss erstmal Heise erläutern.
Denkbar wäre natürlichen eine eigene Linuxdistribution für Server, grade mit Blick auf "Denver".

Kann durchaus auf irgendwelche zwielichtige Andeutungen seitens NV zurueckfuehren die heise vielleicht falsch interpretiert hat. Dailytech berichtet folgendes:

The company is sitting on a $2.5B USD surplus of cash and says it may be considering more acquisitions. Mr. Huang offered a surprise when he said NVIDIA might consider buying internet startups with the cash. He says that while large internet service companies are becoming overpriced, many startups are still quite attractive.

An NVIDIA social network or blogging service? That's an odd thought. But then again, most wrote the company off when it first jumped into mobile.

http://www.dailytech.com/article.aspx?newsid=22646

Zwischen einer solchen Investition und einem eigenen OS gibt es schon einen gewaltigen Unterschied falls das Missverstaendnis hier liegen sollte.

Dural
2011-09-08, 09:41:39
Tegra3 noch mal Später?!?

Wo ist den bitte das problem, die haben seit anfang Jahr lauffähige T3 SoC und die 40nm Fertigung dürfte mittlerweile recht problemlos sein, also am chip selber liegt es ja sicher nicht :rolleyes:

Ist wie bei T2, da lagen die chips auch schon lange rum und trotzdem wurde ständig mit der begründung "software" probleme verschoben :rolleyes:


wahrscheinlich auch einer der gründe für ein eigenes betriebssystem...

Ailuros
2011-09-08, 12:36:46
Tegra3 noch mal Später?!?

Wo ist den bitte das problem, die haben seit anfang Jahr lauffähige T3 SoC und die 40nm Fertigung dürfte mittlerweile recht problemlos sein, also am chip selber liegt es ja sicher nicht :rolleyes:

Hat nichts mit der Fertigung zu tun; Tegra3 hat immer noch single channel memory wie Tegra2 und es koennte hier die Bandbreite durchaus drosseln, wenn man bedenkt dass T3 doppelt so viel CPU cores und 50% mehr GPU Einheiten hat beides bei hoeherer Frequenz. T30/tablets duerfte schon mehr oder weniger bei der versprochenen Zeit bei Partnern angekommen sein, AP30/smartphones war im Juni als ich das letzte Mal nachfragte eben noch nicht.

Ist wie bei T2, da lagen die chips auch schon lange rum und trotzdem wurde ständig mit der begründung "software" probleme verschoben :rolleyes:

wahrscheinlich auch einer der gründe für ein eigenes betriebssystem...

Siehe oben. Rayfield zeigte sich ziemlich unsicher als das Thema "Bandbreite" aufkam. Sie werden's schon hinbekommen, aber hw relevante Verspaetungen sind stinknormal und das bei allen SoC Herstellern. Intel hat auch als Gegenbeispiel ihre neuesten SoCs verspaeten muessen weil das angegebene TDP nicht der finalen hw Realitaet entsprach und ihre Partner Intel ihnen das Zeug einfach gegen den Schaedel knallten. Und stell Dir vor Intel hat sogar ihre eigenen fabs.

Ist so oder so kein Weltuntergang da auch die Konkurrenz nicht in absehbarer Zeit mit irgenwelchen quad core CPUs ankommen wird. Qualcomm hat normalerweise in letzter Zeit verdammt aggressive turn times, aber wie ich schon hier und auch im Qualcomm Thread andeutete, NV liegt mit ihrer win8 GPU Treiber-entwicklung (fuer Kal-El+) zu 100% nach Plan momentan, waehrend Qualcomm fuer ihren quad core Krait so manches ernsthaftes Problemchen zu scheinen hat fuer die GPU Treiber-entwicklung.

Dural
2011-09-09, 12:46:26
Hat nichts mit der Fertigung zu tun; Tegra3 hat immer noch single channel memory wie Tegra2 und es koennte hier die Bandbreite durchaus drosseln, wenn man bedenkt dass T3 doppelt so viel CPU cores und 50% mehr GPU Einheiten hat beides bei hoeherer Frequenz.


Ja und? was hat das mit der Verspätung zu tun? Das Silizium ist eh schon lange fertig und da wird sich rein gar nichts mehr ändern...


ich gehe mal davon aus das Tegra ein 32Bit SI hat?

fondness
2011-09-09, 12:49:20
also am chip selber liegt es ja sicher nicht :rolleyes:


Natürlich liegt es am Chip, an was denn sonst? Tablet-OS gibt es inzwischen mehr als genug. NV war halt wieder mal zu optimistisch.

Ailuros
2011-09-09, 13:09:16
Ja und? was hat das mit der Verspätung zu tun? Das Silizium ist eh schon lange fertig und da wird sich rein gar nichts mehr ändern...


ich gehe mal davon aus das Tegra ein 32Bit SI hat?

Speicherfrequenz aufpumpen ohne den Stromverbrauch besonders zu beinflussen geht wohl nicht durch sw oder?

Nakai
2011-09-09, 13:12:11
Ja und? was hat das mit der Verspätung zu tun? Das Silizium ist eh schon lange fertig und da wird sich rein gar nichts mehr ändern...


ich gehe mal davon aus das Tegra ein 32Bit SI hat?

Ich gehe eh davon aus, dass es von anderen SOCs von anderen Hersteller, welche noch nicht released sind, schon Silizium vorhanden ist. Bei einem SOC ist die Software, aber auch verdammt wichtig. Das sollte man nicht unterschätzen. Jedoch ist T3 nur eine Evolution, der Softwareaufwand ist eher zu vernachlässigen.

T2 und T3 haben nur ein 32Bit SI. Das ist im Vergleich zur Konkurrenz ein Witz. Bei T3 will man aber auf sehr schnellen Speicher setzen.
Ich gehe bei vollem Ausbau davon aus, dass T3 nur schwerlich in einem Smartphone einsetzbar ist. Im Tablet wird ein T3 sicherlich sich sehr gut machen. Ich hab ja mal geschrieben, dass er "perfekt" dafür geeignet ist. Man muss hier auch die frühere Einführung betrachten. In einem halben Jahr wird T3 eh genug Probleme mit Konkurrenz haben. Vor allem die OMAP4-Serie wird dann deutlich breiter ausgerollt sein.

So oder so, Anfang nächstes Jahres(eher H1) kommt Qualcomm mit Krait und Adreno225 und TI mit OMAP4470. Die sind beide ziemlich nett und interessant.


mfg

Ailuros
2011-09-09, 13:23:19
Bei T30/tablets ist die Verspaetung wohl nicht die Rede wert. Die relativ groessere Verspaetung hat eher mit AP30 zu tun.

Nakai,

Zumindest T30 scheint momentan eine ziemlich gute Anzahl an design wins zu haben. ICS soll spaetestens im November ankommen und ich kann mir leicht vorstellen dass die ersten T30/ICS tablets so manchen positiven Eindruck gewinnen werden.

Ailuros
2011-09-09, 16:22:42
NVIDIA pre-announces "Grey" with integrated baseband:

X-Bit (rough summary): http://www.xbitlabs.com/news/mobile/...abilities.html
Heise (more detailed but in german): http://www.heise.de/newsticker/meldu...t-1338799.html
Original source (english audio): http://phx.corporate-ir.net/phoenix....ventId=4186691

I'm honestly surprised it's coming so early - the roadmap picture indicates it's lagging Wayne by only about one quarter. That also means it's not lagging Icera's 28nm baseband by much (tape-out planned for early Q4 2011 as of MWC11 iirc) - interestingly that's on 28HP whereas this will probably be on 28HPM, although it would be weirdly interesting and unexpected if NVIDIA used 28HP rather than 28HPM for the full chip. Not likely since there's no point and the overall architecture is probably a derivative of Kal-El though.

So I'd have to guess Wayne will tape-out in early Q1 2012 and Grey will tape-out in early Q2 2012, assuming neither gets delayed. And you'd probably want to add a slight delay to Grey for baseband certification (and the fact it's smartphone-only which takes longer to get to market than tablets). BTW, it turns out I was wrong about Tegra 2's tape-out date; it taped-out in early Q2 2009 rather than late 2008 as I often claimed. Oops!

Here's my random first guess for Grey specs: 2GHz dual-core A9 with NEON, 1MB L2, Kal-El GPU but clocked substantially higher, 1080p High Profile Decode, 1080p Baseline Encode, 32-bit LPDDR2 up to 1066MHz. 1 core/4 channel Icera DXP up to 100Mbps LTE (ICE8060 is 1 core/2channel up to 50Mbps, ICE9040 is 2 core/4 channel up to 150Mbps) is most likely although 1 core/2 channel 50Mbps isn't impossible either. Basically a slightly higher-end competitor to the MSM8930 either way. Let's see if I'm wrong on everything or not in a year or two.

http://forum.beyond3d.com/showpost.php?p=1580360&postcount=258

Blediator16
2011-09-09, 17:02:14
Was würde dieses Baseband LTE konkret für uns Kunden heißen? Könnte man für das gleiche Geld schneller surfen?

Duplex
2011-09-12, 13:24:35
Nvidias ARM SOC / Kal-El+ Notebooks mit Windows-8 Support
http://www.heise.de/newsticker/meldung/Nvidia-Mit-Kal-El-in-den-Notebook-Markt-1338799.html

+ Hohe Akkulaufzeit
+ Nvidia Logo
+ Nvidia Grafik
+ Kostengünstig zu fertigen
+ Windows 8

Damit wird Nvidia viel Geld verdienen.

Gipsel
2011-09-12, 14:26:22
Kal-El(+) ist nicht Project Denver. Und ich denke, daß andere Firmen sehr konkurrenzfähige Hardware dazu anbieten werden. Also wodurch sollte nv einen deutlichen Vorteil in dem Markt haben?

Dural
2011-09-12, 14:52:07
Sag mir eine Firma die nächstes Jahr einen ARM Quad Core mit GeForce GPU und dem bekanntem NV Logo inkl. NV Treiber für Windows 8 anbieten wird :freak: ;)


Speicherfrequenz aufpumpen ohne den Stromverbrauch besonders zu beeinflussen geht wohl nicht durch sw oder?

1. glaube ich kaum dass es wegen dem eine Verspätung gibt
2. es gibt Speicher mit den entsprechenden Spezifikationen, daran kann NV rein gar nichts ändern sondern die nur einhalten
3. NV kann nur den optimale Speicher Takt für die komplette vorhandene Hardware wählen und das dauert vielleicht Wochen aber sicher nicht Monate


Die Verspätung kann nur an der Integration bei den Hersteller liegen und gegeben falls der Software Optimierung, übrigens wurde T3 laut NV nicht schon lange ausgeliefert?

fondness
2011-09-12, 15:00:33
Sag mir eine Firma die nächstes Jahr einen ARM Quad Core mit GeForce GPU und dem bekanntem NV Logo inkl. NV Treiber für Windows 8 anbieten wird :freak: ;)

Und wo ist da jetzt der große Vorteil? Das Ding wird leistungsmäßig nicht konkurrenzfähig sein, und ob man jetzt vielleicht 1-2W mehr oder weniger verbraucht ist in einem Notebook viel eher zu verschmerzen als in einem durchgehend mobilen Gerät wie einem Handy/Tablet.

Avalox
2011-09-12, 15:12:20
Und ich denke, daß andere Firmen sehr konkurrenzfähige Hardware dazu anbieten werden. Also wodurch sollte nv einen deutlichen Vorteil in dem Markt haben?

Wenn es Konkurrenz auf ARM Basis ist, wird es sehr übersichtlich sein. Denn Windows 8 wird ARM bezogen nur auf eine paar ausgesuchten SoCs von TI, nVidia und eben dem von Windows Phone 7 bekannten Qualcomm laufen. Auf allen anderen ARM SoCs wird Windows 8 nicht laufen.

Ailuros
2011-09-12, 15:15:26
Sag mir eine Firma die nächstes Jahr einen ARM Quad Core mit GeForce GPU und dem bekanntem NV Logo inkl. NV Treiber für Windows 8 anbieten wird :freak: ;)

Ein Jahr ist eine lange Zeit Dural. Es wird mehrere geben aber wie viele es wirklich schaffen werden mit so reifen und stabilen Treibern fuer win8 anzukommen ist eine Frage fuer sich. NV's Treiber-entwicklung ueberhaupt fuer alles windows ist ein brutaler Vorteil im Vergleich zu anderen SoC Herstellern. Da kann es leicht bei so manchem wackelig werden.

1. glaube ich kaum dass es wegen dem eine Verspätung gibt
2. es gibt Speicher mit den entsprechenden Spezifikationen, daran kann NV rein gar nichts ändern sondern die nur einhalten
3. NV kann nur den optimale Speicher Takt für die komplette vorhandene Hardware wählen und das dauert vielleicht Wochen aber sicher nicht Monate


Die Verspätung kann nur an der Integration bei den Hersteller liegen und gegeben falls der Software Optimierung, übrigens wurde T3 laut NV nicht schon lange ausgeliefert?

T30 Anfang des Jahres ja, aber AP30 bis zum Juni zumindest nicht. Das eigentliche Problem hat wie ich schon sagte zeitlich lediglich AP30/smart-phones. T30 tablets werden wir dieses Jahr noch angekuendigt sehen IMHO. AP30 smart-phones steht doch in NV's eigenen slides drin wann es diese geben wird. Das eigentliche Problem duerfte im LPDDR2 memory controller liegen, wobei LPDDR3 Varianten kein Problem haben duerften.

Es hiess August fuer T30 und noch vor Ende des Jahres AP30.

Hersteller haetten Geraete theoretisch auch mit heutigen Android Versionen vorstellen koennen und spaeter ICS nachladen. Ist aber auch ziemlich wurscht, da es momentan fuer NV IMHO sowieso wichtiger ist noch eine zusaetzliche gesunde Summe an T2's zu verkaufen.

Gaestle
2011-09-12, 16:01:03
Wenn es Konkurrenz auf ARM Basis ist, wird es sehr übersichtlich sein. Denn Windows 8 wird ARM bezogen nur auf eine paar ausgesuchten SoCs von TI, nVidia und eben dem von Windows Phone 7 bekannten Qualcomm laufen. Auf allen anderen ARM SoCs wird Windows 8 nicht laufen.


Welchen grund gibt es dafür? Müssen andere ARM-Cores anders angesprochen werden, oder ist das ein spezieller Deal zwischen den entsprechenden Herstellern?
Welche ARM-Cores bleiben denn dann außen vor? Hat Samsung ein eigenes ARM-Design?

mboeller
2011-09-12, 16:19:30
Nvidias ARM SOC / Kal-El+ Notebooks mit Windows-8 Support
http://www.heise.de/newsticker/meldung/Nvidia-Mit-Kal-El-in-den-Notebook-Markt-1338799.html

+ Hohe Akkulaufzeit
+ Nvidia Logo
+ Nvidia Grafik
+ Kostengünstig zu fertigen
+ Windows 8

Damit wird Nvidia viel Geld verdienen.


Verbraucht etwa der Kal-El+ soviel, das er sich nicht mehr für Tablets eignet?

dildo4u
2011-09-12, 16:22:01
Verbraucht etwa der Kal-El+ soviel, das er sich nicht mehr für Tablets eignet?
Kal-El+ ist grad für Win8 Tabs gedacht,MS bringt genau deswegen ARM Unterstützung,die wollen was vom Kuchen abhaben.Und Kal El+ wird vermutlich weniger Strom brauchen als Kal El,da ab nästes Jahr in 28nm gefertigt wird,10 Stunden Akkulaufzeit sollte imo locker machbar sein in 10Zoll Tabs kann man recht große Akku's verbauen.

NVIDIA Tegra 3(Kal El in 40nm) Tablet running Windows 8

http://www.youtube.com/watch?v=LSFdgwZZVOE

Und nach oben dürfte Nvidia Atom angreifen wollen also sind wohl eher Netbooks als Notebooks gemeint.

Avalox
2011-09-12, 18:43:19
Welchen grund gibt es dafür? Müssen andere ARM-Cores anders angesprochen werden, oder ist das ein spezieller Deal zwischen den entsprechenden Herstellern?


Die SoCs sind schlicht nicht binärkompatibel, auch die drei SoC Hersteller oben werden alle mit jeweils eigenen Windows 8 Version bedient. Diese Windows Versionen sind weder abwärts-, noch werden diese aufwärtskompatibel sein.

Die Windows 7 Fallback Oberfläche von Windows 8 werden diese ARM Windows 8 Versionen nicht unterstützen und seit einigen Wochen geht ja auch das hartnäckige Gerücht um, dass man die ARM Windows 8 Versionen nur mit (jeweils passenden) Anwendungen über den MS App Store betreiben kann.


Welche ARM-Cores bleiben denn dann außen vor? Hat Samsung ein eigenes ARM-Design?

Gibt ja eine große Anzahl von Herstellern. Ja auch Samsung hat eigenen ARM SoCs. Man muss ja z.B. auch sehen, dass ARM gar nicht z.B. nVidia die fixeren Cortex A15 lizenziert hat.

Mit den drei Herstellern ist Windows 8 aber immer noch deutlich im Vorteil vor z.B. Windows Phone 7, welches faktisch nur zu einer einzigen Qualcomm SoC Familie mit einigen wenigen Modellen kompatibel ist.

Ailuros
2011-09-12, 22:21:02
Geruechte sind zwar nur Geruechte aber es wimmelt im Netz nur von diesen dass Samsung in ein paar Tagen ein T3 tablet fuer win8 vorzeigen wird.

Avalox
2011-09-13, 07:04:05
Geruechte sind zwar nur Geruechte aber es wimmelt im Netz nur von diesen dass Samsung in ein paar Tagen ein T3 tablet fuer win8 vorzeigen wird.

Das ist dann allerdings ein x86 Pad, mit "traditionell kompatiblen" Windows 8.
http://news.cnet.com/8301-13924_3-20104104-64/windows-8-tablet-from-samsung-has-intel-inside/

Ailuros
2011-09-13, 08:02:30
Das ist dann allerdings ein x86 Pad, mit "traditionell kompatiblen" Windows 8.
http://news.cnet.com/8301-13924_3-20104104-64/windows-8-tablet-from-samsung-has-intel-inside/

Genauso ein Geruecht wie das vorerwaehnte; wenn Du nach samsung win8 tablet googlest kommen ist dieses die einzige Seite die auf Intel deutet. Kann aber durchaus sein dass es so ist. Wird halt mehr Strom verbraten und um einiges teurer sein als mit einem T3.

Ailuros
2011-09-13, 08:38:29
Kal-El+ ist grad für Win8 Tabs gedacht,MS bringt genau deswegen ARM Unterstützung,die wollen was vom Kuchen abhaben.Und Kal El+ wird vermutlich weniger Strom brauchen als Kal El,da ab nästes Jahr in 28nm gefertigt wird,10 Stunden Akkulaufzeit sollte imo locker machbar sein in 10Zoll Tabs kann man recht große Akku's verbauen.

NVIDIA Tegra 3(Kal El in 40nm) Tablet running Windows 8

http://www.youtube.com/watch?v=LSFdgwZZVOE

Und nach oben dürfte Nvidia Atom angreifen wollen also sind wohl eher Netbooks als Notebooks gemeint.

Um es etwas klarer mit dem relevanten slide zu machen:

http://www.anandtech.com/show/4769/the-updated-tegra-roadmap-kalel-in-2012-wayne-in-late-2012early-2013

http://images.anandtech.com/doci/4769/Screen%20Shot%202011-09-12%20at%201.50.39%20PM_575px.png

Schon Kal El koennte in clamshells auftauchen; Kal El+ dann noch mehr da unter 28nm auch um einiges hoehere Frequenzen moeglich sein werden. Mit Wayne und Grey ist dann geplant die breitere Pallette zu bedienen eben von clamshell bis zu mainstream smart-phones.

Grey wie ich oben schon sagte wird dann offensichtlich fuer die groessere Volumen sorgen und es koennte tatsaechlich zu einer Explosion ihres embedded Marktanteils fuehren.

Avalox
2011-09-13, 09:22:44
Wird halt mehr Strom verbraten und um einiges teurer sein als mit einem T3.

Die QuadCore ARM SoCs werden auch energietechnisch in einer anderen Liga spielen. Zumal ja Heise durchaus auch schon zu verstehen gibt, dass Windows 8 sicherlich einiges an CPU Leistung benötigen wird.

Alles mal sehen, wenn vielleicht tatsächlich heute Abend die Windows 8 Preview Version breit verteilt wird, werde ich mir diese mal auf das Tab installieren.

Ich hoffe doch mal, dass der Hinweis, dass die Windows 8 Touch Oberfläche erst mit 1366 x 768 Pixel Auflösung vernümftig läuft ein Indiz dafür ist, dass MS aus Ermanglung von x86 Alternativen eben das Asus Geräte, also damit das Tab als Grundlage für die Entwicklung dieses genommen haben und es dann doch ansprechend läuft.

Dural
2011-09-13, 10:16:09
also ich würde von T3+ nicht so viel erwarten, am ende dürfte es einfach ein T3 mit etwas mehr Takt sein. Wie wir es schon beim T2+ gsesehen haben, übrigens gibt es ein Gerät das der verwendet?!?

Ailuros
2011-09-13, 12:01:34
Tegra2 3D (dual core A9@1.5GHz)/40nm wurde dank Tegra3 (quad core A9@1.5GHz)/40nm storniert.

Aber: http://www.fudzilla.com/processors/item/24052-tegra-2-finally-goes-beyond-10ghz

Gaestle
2011-09-13, 13:02:11
Die SoCs sind schlicht nicht binärkompatibel, auch die drei SoC Hersteller oben werden alle mit jeweils eigenen Windows 8 Version bedient. Diese Windows Versionen sind weder abwärts-, noch werden diese aufwärtskompatibel sein.

Die Windows 7 Fallback Oberfläche von Windows 8 werden diese ARM Windows 8 Versionen nicht unterstützen und seit einigen Wochen geht ja auch das hartnäckige Gerücht um, dass man die ARM Windows 8 Versionen nur mit (jeweils passenden) Anwendungen über den MS App Store betreiben kann.




Gibt ja eine große Anzahl von Herstellern. Ja auch Samsung hat eigenen ARM SoCs. Man muss ja z.B. auch sehen, dass ARM gar nicht z.B. nVidia die fixeren Cortex A15 lizenziert hat.

Mit den drei Herstellern ist Windows 8 aber immer noch deutlich im Vorteil vor z.B. Windows Phone 7, welches faktisch nur zu einer einzigen Qualcomm SoC Familie mit einigen wenigen Modellen kompatibel ist.

danke für die Info.

Dural
2011-09-13, 13:08:44
der T2+/3D hatte aber immer schon "nur" 1,2GHz


http://www.waybeta.com/news/102030/dual-core-tegra2+-fingerprint-lock-motorola-me860-evaluation/

http://mobile.zol.com.cn/230/2306890.html


geräte mit der SoC finde ich aber nirgends

Ailuros
2011-09-13, 13:20:24
der T2+/3D hatte aber immer schon "nur" 1,2GHz


http://www.waybeta.com/news/102030/dual-core-tegra2+-fingerprint-lock-motorola-me860-evaluation/

http://mobile.zol.com.cn/230/2306890.html


geräte mit der SoC finde ich aber nirgends

Du hast recht. T2 3D hatte noch etwas zusaetzliche Logik fuer 3D. Muss ja kein refresh SoC sein im gegebenen Fall. Es ist vollkommen herkoemmlich dass mit dem Lauf der Zeit je mehr Prozesse ausreifen dass SoC Hersteller mit hoeheren Frequenzen ankommen.

Gipsel
2011-09-13, 14:41:33
Man muss ja z.B. auch sehen, dass ARM gar nicht z.B. nVidia die fixeren Cortex A15 lizenziert hat.In dem Zusammenhang stellt sich dann natürlich auch die Frage, womit man eigentlich besser bedient wäre: einen Quad-A9 oder einem Dual-A15 oder auch einem Dual-Krait, wobei A15/Krait wohl auch auf einen höheren Takt ausgelegt sind als die A9. Mein Tipp wären eher die (deutlich) schnelleren Dualcores. ;)
Nvidias schnellerer Core kommt ja offenbar erst mit Project Denver.

Avalox
2011-09-13, 15:07:05
In dem Zusammenhang stellt sich dann natürlich auch die Frage, womit man eigentlich besser bedient wäre: einen Quad-A9 oder einem

Mal sehen wie Windows 8 laufen wird.

Man könnte ja jetzt mal gemeinerweise mutmaßen, dass nVidia ein paar Stunden bevor die MS Build anfängt schnell ihre schnelleren DualCore aus dem Programm streicht, weil diese dann für jeden offensichtlich zu wenig Power für Windows 8 haben.
Wenn man tatsächlich die realistische Auswahl hat zwischen vielen, aber langsameren Kernen und wenigen aber schnellen Kernen, wird man i.d.R. mit letzteren besser fahren. Es spricht ja zudem nichts dagegen auch einen Cortex A15 in einen QuadCore zu verbauen, diese sind ja auch in Aussicht gestellt worden.
Also ganz ehrlich muss sich ja noch zeigen, ob ARM basierende Lösungen in diesem angestrebten Bereich überhaupt gegen Intel und AMD behaupten können.
Ich denke die ARM Lösungen sind gut, welche relativ unabhängig, oder eben sehr effizient mit der CPU Leistung umgehen können. Das ist ja auch gerade der Kniff an den bisherigen Lösungen. Dieser Umstand hat ja gerade einen Intel die Angstschweißperlen auf die Stirn getrieben. Das nun solch eine Hochrüstung betrieben wird ist ja eher sehr kontraproduktiv und die beiden x86 Wettbewerber reiben sich die Hände. Tröstlich dabei ist eben immer, dass der der dann trotzdem mit weniger CPU Leistung auskommt, immer die schickeren sexy Geräte mit längeren Laufzeiten produzieren wird.

Ailuros
2011-09-13, 21:09:09
In dem Zusammenhang stellt sich dann natürlich auch die Frage, womit man eigentlich besser bedient wäre: einen Quad-A9 oder einem Dual-A15 oder auch einem Dual-Krait, wobei A15/Krait wohl auch auf einen höheren Takt ausgelegt sind als die A9. Mein Tipp wären eher die (deutlich) schnelleren Dualcores. ;)
Nvidias schnellerer Core kommt ja offenbar erst mit Project Denver.

Nur geht keiner der Eagle lead partner in den A15 Bereich vor 28nm; moeglich waere es schon theoretisch auf 40/45nm aber dann auch sicher nicht bei so hohen Frequenzen wie unter 28nm.

KalEl ist ein quad core A9 unter 40G und Kal EL+ mehr oder weniger ein shrink des vorigen. KalEl ist tick und KalEl+ tock. Wie metafor schon sagte bei B3D sie werden wohl fuer Grey ein zusaetzliches team engagieren muessen, denn die heutigen reichen bei weitem nicht aus. Es ist ja auch nicht so dass die Konkurrenz so schnell Architekturen aendert. Meistens strecken sich die embedded GPU Architekturen ueber zumindest 4-5 Jahre.

Gipsel
2011-09-14, 11:08:12
Ich würde erwarten, daß spätestens zum Launch von Win8 die A15/Krait-Dinger auf den Markt kommen. Für Kal-El+ sind das also die Gegner.

Ailuros
2011-09-14, 13:08:44
Ich würde erwarten, daß spätestens zum Launch von Win8 die A15/Krait-Dinger auf den Markt kommen. Für Kal-El+ sind das also die Gegner.

Haengt bei allen Faellen wohl eher von 28nm bei etlichen foundries ab. Uebrigens am Rand duerfte "Grey" von Jean Grey (Xmen - The Dark Phoenix) stammen. Genauso wie Rogue (Xmen) bei Serie6. Sieht so aus als ob alle ploetzlich einen Xmen Koller bekommen haben :D

Hugo78
2011-09-14, 13:36:19
@Ailuros
Es heißt ja "Nomen est Omen"...
Also lieber ein Haufen schwer besiegbare Superhelden, denn anscheinend zahlt es sich nicht aus,
sein nächstes Chipdesign nach einer arschlahmen Planierraupe zubenennen. *SCNR* :D

Dural
2011-09-14, 14:21:45
Ich würde erwarten, daß spätestens zum Launch von Win8 die A15/Krait-Dinger auf den Markt kommen. Für Kal-El+ sind das also die Gegner.

dann gibt es auch Wayne, der ist für ende 2012 gesetz ;)

Gipsel
2011-09-14, 14:33:54
Uebrigens am Rand duerfte "Grey" von Jean Grey (Xmen - The Dark Phoenix) stammen.Weswegen man sich auch gerne die Frage stellen darf, warum ich mir vor 3 Monaten oder so genau den Avatar zugelegt habe. :rolleyes:
:D

Gipsel
2011-09-14, 14:35:11
dann gibt es auch Wayne, der ist für ende 2012 gesetz ;)
Warten wir es ab. :)

Ailuros
2011-09-14, 15:09:42
Damit dildo nicht nach seinem Qualcomm relevanten Post sucht, ich hab ihn in den Qualcomm Thread verschoben.

LovesuckZ
2011-09-14, 18:48:21
Im Beyond3d.com (http://forum.beyond3d.com/showpost.php?p=1582053&postcount=290) Forum kann man das über ein Transformer TF201 finden:
http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro21&D=Asus+Transformer+TF201&testgroup=overall

Mal ein Vergleich zwischen meinem Transformer mit 1,5GHz und 425MHz (27% Übertaktung) auf der GPU:

GLBenchmark 2.1 Egypt Standard : 40,6 FPS -- 21.1 Fps
GLBenchmark 2.1 Pro Standard : 51,2 FPS -- 31.6 Fps
GLBenchmark 2.1 Egypt Offscreen 720p : 53,0 FPS -- 28.2 Fps
GLBenchmark 2.1 Pro Offscreen 720p : 65,0 FPS -- 47.8 Fps

Hugo
2011-09-14, 19:06:48
Im Beyond3d.com (http://forum.beyond3d.com/showpost.php?p=1582053&postcount=290) Forum kann man das über ein Transformer TF201 finden:



damit wäre nen Ipad2 doppelt so schnell wie der T3?

LovesuckZ
2011-09-14, 19:09:41
Die Frage ist, inwieweit Offscreen einen Tile Base Renderer bevor- oder benachteiligt.

Im Egypt-Offscreen wäre es 88 FPS zu 53 FPS - also ca. 66% schneller.

Hugo
2011-09-14, 19:12:25
66% sind aber auch ne hausnummer. da bekleckert NV sich nicht gerade mit Ruhm

LovesuckZ
2011-09-14, 19:13:18
66% sind aber auch ne hausnummer. da bekleckert NV sich nicht gerade mit Ruhm

Es sind auch 120mm^2 zu 80mm^2. ;)

Aber viel interessanter sind die Low-Level Test zwischen beiden:
TF201: http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro21&D=Asus+Transformer+TF201&testgroup=lowlevel
TF101: http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro21&D=Asus+Eee+Pad+Transformer+TF101&testgroup=lowlevel

Vorallem die Shader/Fragment Test sind deutlich besser als die Vertex-Ergebnisse. Lässt darauf schließen, dass die Annahme, dass nVidia mehr PS-Einheiten haben wird, richtig sein wird.

/edit: Nach der Fillrate gehend läuft die GPU des TF201 Gerät mit annährend gleicher Taktung, hat jedoch doppelt soviele TMUs.

Tja, Hotclocking für die ALUs? :D

Ailuros
2011-09-14, 19:44:31
Es sind auch 120mm^2 zu 80mm^2. ;)

Aber viel interessanter sind die Low-Level Test zwischen beiden:
TF201: http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro21&D=Asus+Transformer+TF201&testgroup=lowlevel
TF101: http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro21&D=Asus+Eee+Pad+Transformer+TF101&testgroup=lowlevel

Vorallem die Shader/Fragment Test sind deutlich besser als die Vertex-Ergebnisse. Lässt darauf schließen, dass die Annahme, dass nVidia mehr PS-Einheiten haben wird, richtig sein wird.

/edit: Nach der Fillrate gehend läuft die GPU des TF201 Gerät mit annährend gleicher Taktung, hat jedoch doppelt soviele TMUs.

Tja, Hotclocking für die ALUs? :D

Sieht mir momentan lediglich nach hoeherer Frequenz aus da die vertex shading tests beim T3 um einiges besser sind bei schaetzungsweise immer noch 1 Vec4 VS ALU.

Der common vertex weighted test ist um ca. 54% hoeher z.B.

So lange die Vergleichsfunktion fuer T3 nicht richtig geht (die Resultate sind ja auch ziemlich frisch) ist das Ganze etwas unuebersichtlich.

Nichtdestominder ziemlich anstaendige Leistung NVIDIA :)

Sonst zum die area Unterschied, wie wuerde es aussehen wenn ein iPad2 um >N% hoeher getaktet wird?

Die Frage ist, inwieweit Offscreen einen Tile Base Renderer bevor- oder benachteiligt.

Es laesst ihn genauso gleichgueltig wie einen non TB-IMR.

LovesuckZ
2011-09-14, 19:49:27
Sieht mir momentan lediglich nach hoeherer Frequenz aus da die vertex shading tests beim T3 um einiges besser sind bei schaetzungsweise immer noch 1 Vec4 VS ALU.

Der common vertex weighted test ist um ca. 54% hoeher z.B.

Die Pixelshader-Test liegen über 2x und gehen annährend auch an 3x soviel ran. Das ist nicht zu erklären, wenn nVidia die PS verdoppelt hat und die Taktfrequenz gleichbleibt. Und ich gehe nicht davon aus, dass die Taktrate der GPU an die 1000Mhz geht. :freak:


Sonst zum die area Unterschied, wie wuerde es aussehen wenn ein iPad2 um >N% hoeher getaktet wird?

Naja, der Unterschied in der Fläche ist ziemlich groß. Alleine die 40mm^2 machen fast schon die GPU vom iPad2 aus.

Ailuros
2011-09-14, 19:57:12
Die Pixelshader-Test liegen über 2x und gehen annährend auch an 3x soviel ran.

Was soll daran merkwuerdig sein?

1 Vec4 PS@333MHz = 2.67 GFLOPs
2 Vec4 PS@450MHz = 7.20 GFLOPs

Unterschied 2.67x Mal; es koennte sowohl auch mehr als 450MHz sein oder Verfeinerungen in der pipeline oder etwas Treiber tuning.

Das ist nicht zu erklären, wenn nVidia die PS verdoppelt hat und die Taktfrequenz gleichbleibt. Und ich gehe nicht davon aus, dass die Taktrate der GPU an die 1000Mhz geht. :freak:

Ich muss etwas offensichtliches verpassen. Wo soll die Frequenz gleich sein und warum?

Naja, der Unterschied in der Fläche ist ziemlich groß. Alleine die 40mm^2 machen fast schon die GPU vom iPad2 aus.

Gilt genauso fuer die dual core A9@1 GHz welches beim A5 auch um die 40mm2 einnehmen welches wir schon zich Male ausgeleiert haben. Bei 50% mehr Takt wird aus 88 = 132.

***edit: jetzt geht der Vergleich endlich

http://www.glbenchmark.com/compare.jsp?benchmark=glpro21&showhide=true&certified_only=1&D1=Asus%20Transformer%20TF201&D2=Asus%20Eee%20Pad%20Transformer%20TF101

LovesuckZ
2011-09-14, 22:57:32
Was soll daran merkwuerdig sein?

1 Vec4 PS@333MHz = 2.67 GFLOPs
2 Vec4 PS@450MHz = 7.20 GFLOPs

Unterschied 2.67x Mal; es koennte sowohl auch mehr als 450MHz sein oder Verfeinerungen in der pipeline oder etwas Treiber tuning.

Und wie erklärst du dir die Texturleistung, die gerade mal 2x so hoch ist? nVidia wird wohl kaum 50% mehr Textureinheiten verbauen...

Die Pixel- und Fragmentergebnisse zeigen klar auf 50% mehr Takt und 2x Vec4 PS. Aber die Texturleistung zeigt auf dem selben Takt bei doppelten Einheiten. Außer wir nehmen an, dass 33% der Leistung verpufft, weil das 32bit Interface in dem Test limitiert.

Ailuros
2011-09-15, 08:35:40
Und wie erklärst du dir die Texturleistung, die gerade mal 2x so hoch ist? nVidia wird wohl kaum 50% mehr Textureinheiten verbauen...

http://www.glbenchmark.com/compare.jsp?benchmark=glpro21&showhide=true&certified_only=1&D1=Apple%20iPad%202&D2=LG%20P920%20Optimus%203D

1GTexel/s gegen 0.6GTexels/s. Jedoch fast ein Unterschied von Faktor 4x in texture fetch; hier koennte die Antwort in den cache sizes, Bandbreite oder sonst wo liegen oder einfach eine Kombination aller. iPad2 operiert im warm up Test exakt am Optimum, wobei ich aber auch meine Vorbehalte habe ob diverse Tests wie dieser vom iPad2 vielleicht sogar nicht auf default Frequenzen laufen bei community tests und das was wir sehen ein einfacher Durchschnitt ist.

Ich wuerde nicht allzu grossen Wert auf die Fuellraten Tests legen unter diesem Licht. Und nein ich will nicht behaupten dass T3 uebertaktet ist. So lange ich nicht weiss wie der Fuellraten Test vorgeht und was er genau anstellt, ist jegliche These IMO zu gewagt. Anand hat bei seinem ersten Test den iPad2 mit einer knapp unter 900MTexels Fuellrate gemessen, hat aber auch mehr Bandbreite als T3.

Uebrigens: http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro21&D=Hardkernel+ODROID-A&testgroup=lowlevel

4 TMUs@275MHz ;)

Die Pixel- und Fragmentergebnisse zeigen klar auf 50% mehr Takt und 2x Vec4 PS. Aber die Texturleistung zeigt auf dem selben Takt bei doppelten Einheiten. Außer wir nehmen an, dass 33% der Leistung verpufft, weil das 32bit Interface in dem Test limitiert.

Mich wuerde es kein bisschen wundern wenn die ULP GF sogar auf 500MHz getaktet ist auf T30/tablets. Unter 40G bzw. 45nm ist das kein besonderes Wunder mehr fuer single core GPUs die nicht zu viel die area einnehmen. Wenn so etwas von NV nicht kommen koennte dann wird aus auch schwer ein anderer schaffen. Bandbreite duerfte etwas limitieren IMHO, aber anhand der Resultate sieht es nicht nach einem Problem aus. Im Hintergrund machte bis jetzt lediglich eher AP30 Sorgen mit der Bandbreite, aber ich will die Dinger erstmal naechstes Jahr sehen.

***edit: 500MHz fuer ULP/T3 mit allhoechster Wahrscheinlichkeit = check.

AnarchX
2011-09-20, 17:07:10
Companion Core für T3: http://www.hardware.fr/news/11845/quot-companion-core-quot-kal-el.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+hardware%2Ffr%2Fnews+%28HardWare.fr+-+News%29

Hugo
2011-09-20, 18:42:34
hier mal nen deutscher Artikel zu T3
http://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/19951.html

Konami
2011-09-20, 18:46:26
Companion Core für T3: http://www.hardware.fr/news/11845/quot-companion-core-quot-kal-el.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+hardware%2Ffr%2Fnews+%28HardWare.fr+-+News%29
"Das Interesse ist offensichtlich nicht mit zu zünden den Rest des Chips vervierfachen Herzen für diese Aufgaben, und damit Energie zu sparen, wenn das Gerät in der Nähe-Wach."

Dieser Idee macht mir gutes Anschein :up:

AnarchX
2011-09-20, 20:20:50
CB hat auch einen ausführlichen Artikel: http://www.computerbase.de/news/2011-09/nvidias-tegra-3-setzt-auf-5-cpu-kerne/

edit:

Verschieden Fertigungsprozesse auf T3?
http://img193.imageshack.us/img193/4204/specsbj.jpg (http://imageshack.us/photo/my-images/193/specsbj.jpg/)

http://www.anandtech.com/show/4840/kalel-has-five-cores-not-four-nvidia-reveals-the-companion-core

Gipsel
2011-09-20, 20:43:21
Verschieden Fertigungsprozesse auf T3?Das hat TSMC schon länger im Angebot und nennt sich LPG. Da kann man sozusagen die Transistoren der LP und G Prozesse in einem Chip mixen.

Hugo
2011-09-20, 20:44:53
klingt nicht schlecht, mal sehn was es real bringt. Auf den Folien sieht es gut aus

LovesuckZ
2011-09-20, 21:07:36
Die Whitepaper gibt es direkt bei nVidia:
http://www.nvidia.com/object/IO_90715.html

Und man einfach sagen: ARM ist eine so innovative CPU-Technik, dass man echt nur hoffen, dass sie sich auch sehr gut nach oben skalieren lässt. Der ganze SoC Markt ist in den letzten Jahren so dermaßen innovativ gewesen, wo man sich bei AMD und Intel nur fragen kann, wieso sie so langsam sind.

Knuddelbearli
2011-09-20, 21:27:32
weill intel niemand mehr fürchten muss, ihre letzten Revolutionen alle totaler Fehlgriff waren und deshalb jetzt lieber auf gemütliche Evolution statt Revolution setzt ( und amd kann es sich einfach nicht leisten )

LovesuckZ
2011-09-20, 22:03:16
So wie es aussieht, könnte nVidia's Tegra 3 der erste ARM-SoC sein, der eine unabhängige Spannungskontrolle über die einzelnen ARM-Cores erlaubt. Snapdragon gibt jedem CPU-Kern die durch den höhsten Workflow bestimmte Spannung, selbst wenn der zweite Kern nur auf einem niedrigen Takt läuft.

weill intel niemand mehr fürchten muss, ihre letzten Revolutionen alle totaler Fehlgriff waren und deshalb jetzt lieber auf gemütliche Evolution statt Revolution setzt ( und amd kann es sich einfach nicht leisten )

Das Intel als dominanter Marktführer nicht der ganz großte Innovator ist, ist noch verständlich. Wenn Intel aber innovativer als Underdog ist, dann stimmt irgendwas nicht im x86 Markt.

Geld selbst ist keine Voraussetzung für Innovation. nVidia ist eine kleine Firma im Vergleich mit TI und Qualcomm. Und trotzdem war Tegra 2 so dermaßen ein riesiger Schritt und mit Tegra 3 wird man anscheinend nochmal eine Schippe drauflegen. Und nVidia's Forschungsgeld liegt bei knapp $220 Millionen für alle Entwicklungen.

Knuddelbearli
2011-09-20, 22:08:24
nun eine neue technologie kostet in so einem alten markt wie x86 einige milliarden wenn da bei intel was schiefgeht kaum ein problem bei amd kann man sich dann schonmal nen insolvenzberater suchen

Ailuros
2011-09-21, 10:03:02
So wie es aussieht, könnte nVidia's Tegra 3 der erste ARM-SoC sein, der eine unabhängige Spannungskontrolle über die einzelnen ARM-Cores erlaubt. Snapdragon gibt jedem CPU-Kern die durch den höhsten Workflow bestimmte Spannung, selbst wenn der zweite Kern nur auf einem niedrigen Takt läuft.

Ohne absolut sicher zu sein (denn die fruitco Details sind stets so mager dass man fast nie Durchblick hat) aber ich glaube dass es auch auf A5 der Fall ist.

Das Intel als dominanter Marktführer nicht der ganz großte Innovator ist, ist noch verständlich. Wenn Intel aber innovativer als Underdog ist, dann stimmt irgendwas nicht im x86 Markt.

Wenn Intel es endlich schafft einen anstaendigen Fuss im embedded Markt zu landen, koennen wird darueber nochmal diskuttieren. Momentan sieht es nicht nach es etwas besonderem aus, ergo ist die Debatte wohl ueberfluessig.

Geld selbst ist keine Voraussetzung für Innovation.

Kommt drauf an fuer was genau.

nVidia ist eine kleine Firma im Vergleich mit TI und Qualcomm. Und trotzdem war Tegra 2 so dermaßen ein riesiger Schritt und mit Tegra 3 wird man anscheinend nochmal eine Schippe drauflegen. Und nVidia's Forschungsgeld liegt bei knapp $220 Millionen für alle Entwicklungen.

Der zusaetzliche ARM core deckt erstmal das Fragezeichen wieso T3 bis zu 5x Mal schneller sein soll als T2 und ja unter diesem Licht und alles mitbetrachtet ist die Einschaetzung bei maximaler Last nicht uebertrieben.

Qualcomm hat ernsthafte Treiberprobleme fuer win8 und dafuer helfen leider jeglichen Resource nicht viel wenn es an Erfahrung fehlt.

NV wird zunehmend Resourcen in die Tegra Sparte schuetten muessen (nach Geruechten wird Grey auf's indische Team verfrachtet), ergo werden die heutigen Resourcen bei weitem nicht ausreichen. Ueberhaupt wenn NV tatsaechlich langfristig das Potential hat fast genausoviel von der SoC Sparte (Tegra + Denver) zu verdienen wie von allen anderen Maerkten.

Xmas
2011-09-21, 13:30:23
Snapdragon gibt jedem CPU-Kern die durch den höhsten Workflow bestimmte Spannung, selbst wenn der zweite Kern nur auf einem niedrigen Takt läuft.
Qualcomm behauptet das Gegenteil.

Coda
2011-09-22, 09:07:52
Das mit dem Stromspar-Kern ist schon bekannt, oder?
http://www.heise.de/newsticker/meldung/Nvidia-Quad-Core-Tegra-Kal-El-hat-fuenften-Stromsparkern-1347265.html

Jedenfalls finde ich das keine schlechte Idee. Könnte ich mir auch auf dem Desktop vorstellen, indem man z.B. einen Bobcat in einen Bulldozer einbaut. Man müsste nur gewährleisten, dass das Instruction-Set das exakt selbe ist.

Henroldus
2011-09-22, 09:51:58
Im Prinzip ist das doch alles ein alter Hut und ist nur neu verpackt:
Cool n Quiet, Turbomode, Turbocore, Kernabschaltung, diverse hibenatemodi, usw.
Im Prinzip sollte eine CPU nur dann die Leistung liefern, wenn sie benötigt wird und ansonsten möglichst schlafen.
Die Leistungsklassen könnte man dann nach dem zulässigen maximalverbrauch aufstellen.
vgl die "konfigurierbare" TDP die grad im Gespräch ist.

Bei Smartphones ist doch mittlerweile das Display der größte Stromschlucker, da und bei den Akkus ist mehr Potential.

Coda
2011-09-22, 09:54:37
Im Prinzip ist das doch alles ein alter Hut und ist nur neu verpackt
Nö. Der Kern ist anders als die anderen. Das gab es noch nie.

Ailuros
2011-09-22, 10:23:02
Das mit dem Stromspar-Kern ist schon bekannt, oder?
http://www.heise.de/newsticker/meldung/Nvidia-Quad-Core-Tegra-Kal-El-hat-fuenften-Stromsparkern-1347265.html

Jedenfalls finde ich das keine schlechte Idee. Könnte ich mir auch auf dem Desktop vorstellen, indem man z.B. einen Bobcat in einen Bulldozer einbaut. Man müsste nur gewährleisten, dass das Instruction-Set das exakt selbe ist.

Aus dem Link:

Das Konzept mit dem fünften Kern hat sich Nvidia nach eigenen Angaben patentieren lassen.

AnarchX
2011-09-22, 10:31:15
Jedenfalls finde ich das keine schlechte Idee. Könnte ich mir auch auf dem Desktop vorstellen, indem man z.B. einen Bobcat in einen Bulldozer einbaut. Man müsste nur gewährleisten, dass das Instruction-Set das exakt selbe ist.
Im Desktop kommt es wohl kaum auf die wenigen Watt Unterschied zwischen einem Bobcat-Core und einem halbaktivem BD-Core an.
Bei Tegra wo jede 50mW sehr wichtig sind, sieht es natürlich anders aus.

Mit zukünftigen Tegra-SoCs ist man wohl mobil unterwegs und kann daheim im Dock die volle Leistung abrufen und den stationären Konsolen gefährlich werden.

Avalox
2011-09-22, 10:37:09
Im Prinzip ist das doch alles ein alter Hut und ist nur neu verpackt:


Es gibt durchaus SoCs welche Stromspar Kerne mitbringen. Ansich keine neue Idee. Die neuen OMAP haben sogar zwei skalierende Stromsparkene dabei. Diese haben allerdings natürlich einen abweichenden Funktionsumfang, weshalb dieses aus Programmsicht etwas umständlich ist.

Aber natürlich ist die Idee, dass Geräte welche den ganzen Tag laufen, davon aber überwiegend nur auf eMails und Anrufe warten dieses, zum erreichen einer hohen Standby Zeit von einer separaten stromsparenden Einheit übernommen wird.
Ob es sinnvoll ist oder nicht hängt ja vom Verwendungsprofil des Gerätes ab. Aber natürlich ist es auch ein Indiz dafür, dass die Primärkerne der SoC inzwischen in Verbrauchsbereich vorstoßen, welche solche Maßnahmen überhaupt erstmal zwingend erforderlich machen.

Ailuros
2011-09-22, 11:03:43
Im Desktop kommt es wohl kaum auf die wenigen Watt Unterschied zwischen einem Bobcat-Core und einem halbaktivem BD-Core an.
Bei Tegra wo jede 50mW sehr wichtig sind, sieht es natürlich anders aus.

Mit zukünftigen Tegra-SoCs ist man wohl mobil unterwegs und kann daheim im Dock die volle Leistung abrufen und den stationären Konsolen gefährlich werden.

Es geht offensichtlich auch um total verschiedene Leistungs-ziele. Wie dem auch sei, ich bin mir nicht im klaren wie es genau bei heutigen desktop CPUs und Stromverbrauch aussieht (power-/clock-gating etc.) aber wenn Sachen wie Optimus sonstwo Sinn machen fuer GPUs, koennte es vielleicht durchaus eine Idee sein aber dann wohl eher fuer notebooks oder einfacher jegliches mobile Geraet dass teilweise auch auf seiner Batterie laufen muss.

LovesuckZ
2011-09-22, 11:24:09
Es gibt durchaus SoCs welche Stromspar Kerne mitbringen. Ansich keine neue Idee. Die neuen OMAP haben sogar zwei skalierende Stromsparkene dabei. Diese haben allerdings natürlich einen abweichenden Funktionsumfang, weshalb dieses aus Programmsicht etwas umständlich ist.


Natürlich ist dies eine neue Idee. Wäre sie nicht neu - wieso hat niemand darüber spekuliert? :freak:

Wir reden hier nicht von spezifischen Kernen, die nur eine bestimmte Aufgabe übernehmen. Sondern von einer vollkommen gleichwertigen CPU (edit: Die bis 500MHz genauso leistungsstark ist wie ein Kern aus dem Performanceverbund), die jedoch im Gegensatz zum anderen Verbund auf Low-Power getrimmt ist. Und genau DAS ist neu sowie ziemlich überraschend.

Avalox
2011-09-22, 12:27:15
Wir reden hier nicht von spezifischen Kernen, die nur eine bestimmte Aufgabe übernehmen. Sondern von einer vollkommen gleichwertigen CPU (edit: Die bis 500MHz genauso leistungsstark ist wie ein Kern aus dem Performanceverbund), die jedoch im Gegensatz zum anderen Verbund auf Low-Power getrimmt ist. Und genau DAS ist neu sowie ziemlich überraschend.


Ich stelle nicht die Innovation in Abrede, allerdings ist es auch beim neuen Tegra ein Kern welcher für spezifische Aufgaben gedacht ist. Der Vorteil ist dort, dass diese eben keine speziell übersetzte Software benötigt.
Natürlich sind die oben erwähnten Stromsparkerne auch völlig allgemeine CPU Kerne, welche alles machen können. Der Unterschied ist, dass für diese die Anwendung entsprechend übersetzt vorliegen muss. Aber der Anspruch ist ja erstmal ähnlich. Eben die Geräte Standby Funktionalitäten sicher zu stellen.

Nun hat nVidia scheinbar ja eh nur den Cortex A9 lizenziert und kann nur auf Basis dessen Lösungen bauen, zum anderen hat es ja deutliche Handlingsvorteile die Flexibilität zu haben. Aber vermutlich verbraucht der nVidia Stromsparkern auch deshalb mehr Strom, als die Variante der Wettbewerber mit einer für die Aufgabe angepassten Architektur.

LovesuckZ
2011-09-22, 12:51:11
Ich stelle nicht die Innovation in Abrede, allerdings ist es auch beim neuen Tegra ein Kern welcher für spezifische Aufgaben gedacht ist. Der Vorteil ist dort, dass diese eben keine speziell übersetzte Software benötigt.

Liest eigentlich noch irgendwer das, was veröffentlicht wird?
Der "Companion Core" hat die selbe Leistungsfähigkeit wie alle anderen CPU-Kerne. Er ist nicht für "spezifische Aufgaben" gedacht. Deswegen weiß das OS auch nicht, auf welchen Kern die geringe Last läuft. Das ist was vollkommen anderes als z.B. der Videodekoder, der explizit angesprochen werden muss.

Nun hat nVidia scheinbar ja eh nur den Cortex A9 lizenziert und kann nur auf Basis dessen Lösungen bauen, zum anderen hat es ja deutliche Handlingsvorteile die Flexibilität zu haben. Aber vermutlich verbraucht der nVidia Stromsparkern auch deshalb mehr Strom, als die Variante der Wettbewerber mit einer für die Aufgabe angepassten Architektur.

"Scheinbar", "vermutlich". Wow. nVidia hat auch A15 lizenziert. Aber das bringt auch sehr viel auf 40nm.
Die Konkurrenz bietet soetwas nicht an. Und wer weiß, wie sich das ganze in Zukunft weiterentwickelt. Fakt ist, dass Tegra 3 bald erscheint, OMAP5 z.B. erst Ende 2012. Na, da hat die Konkurrenz aber einen wirklichen zeitlichen Vorteil vor Tegra 3...

Deinorius
2011-09-22, 13:07:10
Tegra 3 kommt noch in 40 nm und hat A9 Kerne. OMAP5 kommt in 28 nm und hat A15 Kerne. So what?

Ailuros
2011-09-22, 13:07:40
Zum Zeitpunkt wo OMAP5 erscheinen wird, wird er sich eher gegen Tegra4 schlagen muessen. Eigentliche Konkurrenz seitens TI fuer Tegra3 ist OMAP4 inklusive 4470 der aber erst in Q4 zum sampling kommt.

Screemer
2011-09-22, 13:10:19
der heilige gral des mobile computing wurde entdeckt...

Ailuros
2011-09-22, 13:14:40
Tegra 3 kommt noch in 40 nm und hat A9 Kerne. OMAP5 kommt in 28 nm und hat A15 Kerne. So what?

NV hat im Vergleich zu anderen SoCs (wie z.B. Freescale iMX6 quad A9@1.2GHz, OMAP4470 dual A9@1.8GHz usw.) schon einen zeitlichen Vorsprung, aber eigentlich hauptsaechlich was T30/tablets betrifft. AP30/smartphones wird nicht vor Q1 2012 erscheinen und ist auch nicht ausschliesslich quad A9 wie T30.

Wie dem auch sei insgesamt auf den Tablet Markt konzentriert wird sich T30/T3 wohl ziemlich gut verkaufen stets unter Android und auch teilweise davon abhaengig was Samsung genau plant. Samsung wird wohl schon ein T30 basierendes tablet vorstellen (wobei Samsung die einzige bisherige groessere Kraft in der Android tablet Welt bist jetzt ist) und es kommt dann darauf wie sich das Ganze zwischen T3 und ihrem eigenen Exynos jeweils aufteilt.

Deinorius
2011-09-22, 13:18:54
Danke, dass du noch zwischen Tablet und Smartphone-Markt unterscheidest.

Ansonsten wollte ich damit ausdrücken, dass diese beiden SoCs nicht direkt vergleichbar sind.