PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

Blediator16
2013-01-12, 01:09:42
GPU-Leistung wird wohl um einiges besser sein bei finalen Resultaten als das Zeug dass vorzeitig heraussickerte.

Das kann man bei NV auch erwarten, doch der springende Punkt ist wieviel schneller sie am Ende sein können durch Treiber? update.

Dural
2013-01-12, 15:53:05
genug leistung wird T4 auch auf der GPU haben, immerhin wurde die einheiten versechstfacht und schon der T3 hat aus seinen 12 einheiten einiges rausgeholt.

habe diese woche ein ipad4 geschenkt bekommen und habe heute diverse games geladen, bis jetzt ist mir aber noch keins unter gekommen das nicht auf einem T3 mit 720p laufen würde. da dürfte T4 mit dual channel und der deutlich verbesserten GPU ready für 1080p sein.

das einzige was mir im vergleich zum ipad sofort aufviel, ist das der T3 eine echt miese bildqualität hat.

Spasstiger
2013-01-12, 16:47:40
GPU-Leistung wird wohl um einiges besser sein bei finalen Resultaten als das Zeug dass vorzeitig heraussickerte.
Schneller als ein PowerVR 554MP4 wirds aber sicherlich nicht, zumal eben auch das Featureset hinterherhinkt und dadurch teilweise keine fairen Vergleiche gemacht werden (z.B. fp16 gegen fp24/fp32).
Tegra-4-Nutzer dürfen sich aber auf die gute Zusammenarbeit von NV mit der Spieleindustrie auch im Smartphone/Tablet-Bereich verlassen, so dass ich an der Spieletauglichkeit für die nächsten beiden Jahre nicht zweifle.

Ailuros
2013-01-12, 21:50:26
Schneller als ein PowerVR 554MP4 wirds aber sicherlich nicht, zumal eben auch das Featureset hinterherhinkt und dadurch teilweise keine fairen Vergleiche gemacht werden (z.B. fp16 gegen fp24/fp32).

Nimm kein Gift drauf und man kann in GLBenchmark2.5 24bit z nicht entgehen.

Tegra-4-Nutzer dürfen sich aber auf die gute Zusammenarbeit von NV mit der Spieleindustrie auch im Smartphone/Tablet-Bereich verlassen, so dass ich an der Spieletauglichkeit für die nächsten beiden Jahre nicht zweifle.

Es gibt einen Unterschied zwischen ein paar Optimierungen in ein paar Spielen und exclusive Spiel-Entwicklung fuer N Platform.

robbitop
2013-01-14, 09:15:51
Das ist auch eine Frage des Taktes. Die MP-GPUs von IMG sind ja immer recht niedrig getaktet. Tegra hatte immer recht viel GPU Clock. Und es kommt sicherlich auch auf die Art der Limitierung der Applikation an. Wenn etwas sehr shaderlastig ist, könnte ich mir gut vorstellen, dass 554MP4 extremst gut dasteht.

Ailuros
2013-01-14, 11:44:01
Das ist auch eine Frage des Taktes. Die MP-GPUs von IMG sind ja immer recht niedrig getaktet. Tegra hatte immer recht viel GPU Clock. Und es kommt sicherlich auch auf die Art der Limitierung der Applikation an. Wenn etwas sehr shaderlastig ist, könnte ich mir gut vorstellen, dass 554MP4 extremst gut dasteht.

Wieso denkst Du vielleicht dass ein 554MP4 nicht um zich Male besser dasteht wenn eine Applikation verdammt Fuellraten oder Geometrie-limitiert waere oder u.v.a auch bei tonnenweise shadowmaps?

http://www.glbenchmark.com/compare.jsp?benchmark=glpro25&showhide=true&data-source=1&D1=Asus%20Transformer%20Pad%20TF700T%20Infinity&D2=Apple%20iPad%204

Wo hat denn T3 genau 8 TMUs, 64 z/stencil, 4 tri setups/rasterizers u.a.?
Wenn Applikationen auf die MIMD artige Bearbeitung von den SGX ALUs profitieren koennten waere die Unterschiede um zich Male brutaler.

Unter den heutigen Umstaenden reicht ein einzelner SGX554@520MHz um ~40% schneller zu sein als die ULP GF im T3 bei 520MHz und in dem Fall ist zumindest die Einheiten Anzahl ausserhalb der ALUs um einiges vergleichbarer.

robbitop
2013-01-14, 11:56:56
NVIDIA hat mit T2 und T3 niedrigere Einheitenanzahl durch Takt und mir unbekannte andere Komponenten kompensiert.
554 MP4 war ggü 543 MP4 ja vor allem in shaderlastigen Bereichen deutlich überlegen.

An sich müsste 554 MP4 soziemlich alles plattwalzen.

deekey777
2013-01-15, 13:21:53
The Tegra 4 GPU, NVIDIA Claims Better Performance Than iPad 4 (http://www.anandtech.com/show/6666/the-tegra-4-gpu-nvidia-claims-better-performance-than-ipad-4)
...
Tegra 4 features 72 GPU "cores", which are really individual components of Vec4 ALUs that can work on both scalar and vector operations. Tegra 2 featured a single Vec4 vertex shader unit (4 cores), and a single Vec4 pixel shader unit (4 cores). Tegra 3 doubled up on the pixel shader units (4 + 8 cores). Tegra 4 features six Vec4 vertex units (FP32, 24 cores) and four 3-deep Vec4 pixel units (FP20, 48 cores). The result is 6x the number of ALUs as Tegra 3, all running at a max clock speed that's higher than the 520MHz NVIDIA ran the T3 GPU at. NVIDIA did hint that the pixel shader design was somehow more efficient than what was used in Tegra 3.

If we assume a 520MHz max frequency (where Tegra 3 topped out), a fully featured Tegra 4 GPU can offer more theoretical compute than the PowerVR SGX 554MP4 in Apple's A6X. The advantage comes as a result of a higher clock speed rather than larger die area. This won't necessarily translate into better performance, particularly given Tegra 4's non-unified architecture. NVIDIA claims that at final clocks, it will be faster than the A6X both in 3D games and in GLBenchmark. The leaked GLBenchmark results are apparently from a much older silicon revision running no where near final GPU clocks. ...

Der A6X ist gerade für das iPad 4 mit seinem Retina-Display gebaut. Dass er in 720p bessere Leistungen bietet, ist klar, aber das wird auch das Ziel von Nvidia sein, in 1280x720 (bzw. 1280x800) eine gute Performance zu bieten. Wieviele davon in 1920x1080 bleibt, werden wir sehen, aber da kann man auch den Takt entsprechend erhöhen.

Klingt blöd und naiv, ist aber so: Nova 3 performat auf einem iPhone 5 besser als auf einem iPad 4 - wegen der geviertelten Auflösung.

dildo4u
2013-01-15, 13:28:08
Tegra 4 wurde schon in Geräten gezeigt die ne höhere Auflösung als das ipad4 haben,der Chip muss also auf dort gut performanen.(Vizio Tab)Es wird vermutlich nur wenige Tegra 4 Geräte geben wird die mit weniger als 1080p kommen.

Knuddelbearli
2013-01-15, 13:36:36
wodurch schleisst du darauf das er gut performt nur weill er dort verbaut wird ?

Eggcake
2013-01-15, 13:53:00
Das sagte er ja nicht. Er "soll" in 1080p gut performen, denn dafür ist er u.a. auch gemacht. Nicht für nur für 720p. Wieso 720p das Ziel von NV sein soll, verstehe ich also nicht ganz.

dildo4u
2013-01-15, 13:53:58
wodurch schleisst du darauf das er gut performt nur weill er dort verbaut wird ?
Die Bandbreite wird doch deutlich erhöt im Vergleich zum Vorgänger.Tegra 3 hat nur Single Channel DDR3 support T4 Dual.

Knuddelbearli
2013-01-15, 13:57:22
Tegra 4 wurde schon in Geräten gezeigt die ne höhere Auflösung als das ipad4 haben,der Chip muss also auf dort gut performanen.(Vizio Tab)Es wird vermutlich nur wenige Tegra 4 Geräte geben wird die mit weniger als 1080p kommen.


doch das sagt er ^^

Eggcake
2013-01-15, 15:54:21
Na es gibt muss und es gibt muss. Und ich nahm an es war letzteres :D
If you know what I mean?
Wie dem auch sei, ich bleibe dabei und behaupte der T4 ist auch für 1080p konzipiert...

mboeller
2013-01-15, 16:58:25
Das sagte er ja nicht. Er "soll" in 1080p gut performen, denn dafür ist er u.a. auch gemacht. Nicht für nur für 720p. Wieso 720p das Ziel von NV sein soll, verstehe ich also nicht ganz.

Warum hat dann Project Shield einen 5" Monitor mit 720p wo doch inzwischen jedes China-Billighandy [;)] 1080p hat.

Eggcake
2013-01-15, 17:27:28
Weil NV möglicherweise eingesehen hat, dass 1080p bei einer solchen Displaygrösse für die Katz' ist?

Also ich werde auch weiterhin garantiert ein 720p phone bei ~4.5-5" einem 1080p phone bevorzugen. Das ist nur verschenkte Leistung. Spätestens ab ~7" fängt's an Sinn zu machen.

dildo4u
2013-01-15, 17:33:26
Warum hat dann Project Shield einen 5" Monitor mit 720p wo doch inzwischen jedes China-Billighandy [;)] 1080p hat.

Einfach damit sie es billiger anbieten können,Shield kann man ohne 3G/4G schlecht über ein Vertrag verkaufen wie die meisten 600€ Handys.
1080p bei 5 Zoll ist der ganze Hype 2013 und jeder Hersteller wird Geräte bringen.(Sony,HTC,Samsung,LG)
Nur google wird dieses Display so verschleudern alle anderen mit nem Namen im Westen werden abkassieren.

Neues Gerücht Tegra 4 im Nexus 5

http://www.androidauthority.com/nexus-5-nexus-7-7-made-by-lg-for-google-io-specs-features-and-prices-leaked-already-147343/

robbitop
2013-01-15, 17:38:29
Wenn die Vertexlast so hoch ist, dass die 4x4 Vec ALUs halbwegs ausgelastet sind und der Takt ~2x so hoch ist wie beim A6x kann Tegra 4 sicher in ähnliche Performanceregionen stoßen. Zumindest bei starker arithmetischer Last.
Wenn das Ding 4 TMUs hat, stimmt die Füllrate ja auch einigermaßen überein. Weiß jemand, wieviele TMUs Tegra 4?

deekey777
2013-01-15, 18:15:52
Warum hat dann Project Shield einen 5" Monitor mit 720p wo doch inzwischen jedes China-Billighandy [;)] 1080p hat.

Die einfachste Erklärung ist, dass die Konsole im harten Wettbewerb stehen wird, so dass hier auf Kosten geachtet werden muss. Auch ist der Sinn nach mehr als 1280x720/800 bei so einem kleinen Display fragwürdig.

Der andere Punkt ist die Performance: Es ist eine Konsole, mit der ausdrücklich gespielt werden soll. Also lieber 720p und stabile FPS als 1080p und sehr schwankende FPS. Auch will man damit die PCs nicht unnötig überstrapazieren, damit das Spielen von PC-Spielen auf der Konsole für ein breites Publikum möglich bleibt.

Ailuros
2013-01-15, 19:04:00
ULP GF in T4 koennte 4 TMUs haben. Die geleakten Dalmore Platform GLbenchmark Resultate zeigten in etwa analoge Fuellraten und Tri-Raten wie auf T3.

In Egypt offscreen (1080p) landete das Ding 32.9 fps bei ~3600 frames. Wenn die Frequenz auf der fruehen Dalmore Test-Platform etwas mehr als die Haelfte war, ist es durchaus moeglich das die finale hw ueber die 6k Latte schreitet.

Sonst fuer diejenigen die Zweifel haben, wenn jemand heutzutage sagt dass A schneller ist in GLBenchmark als B dann ist offensichtlich 1080p/offscreen gemeint. Onscreen ist stets mit default vsync und ziemlich wertlos fuer einen benchmark-Vergleich.

Dass die ULP GF in T4 4xMSAA unterstuetzt konnte man schon in den geleakten Dalmore Resultaten sehen; ich will hoffen dass die Resultate dafuer nichtaussagend sind denn der Sturz von fast 33 fps auf 17 fps mit 4xMSAA ist nicht gerade klein.

Hugo78
2013-01-15, 20:25:06
Warum hat dann Project Shield einen 5" Monitor mit 720p wo doch inzwischen jedes China-Billighandy [;)] 1080p hat.

Weils schlicht sinnlos wäre.
Das Display erreicht 294 dpi (Quelle (http://www.computerbase.de/news/2013-01/nvidia-zeigt-tegra-4-handheld-project-shield/)), was weit über der Grenze der wahrnehmbaren Schärfe eines menschlichen Auges von 229 dpi liegt (Quelle (http://www.computerbase.de/news/2012-10/keine-vorteile-bei-full-hd-displays-in-smartphones/)).

Dural
2013-01-15, 20:58:50
zudem ich persönlich 100x lieber 720p mit 60FPS hätte als 1080p mit 30FPS als beispiel.

diese auflösungs wahn derzeit ist ja wirklich schlimm, gerade bei portablen geräten nahezu lächerlich, da die schon beschränkte lauf zeit und leistung bedingt durch den akku betrieb noch mal kleiner wird.

Eggcake
2013-01-15, 20:59:38
Nun gut, ich will keinen Flamewar lostreten, aber 229 vs >300dpi sehe ich mit geschlossenen Augen. Das hatte ich gerade vom Wechsel von meinem Übergangshandy (HTC DHD) zum One X...die Aussage ist ja auch höchst umstritten bzw. wo genau nun die Grenze für einzelne Geräte liegen soll...auf jeden Fall kann man sagen, dass 294 garantiert mehr als genug sind und 1080 einfach nur unnützer overkill wäre. Mich nerven die 1080p Handys schon jetzt, bevor sie überhaupt erschienen sind. Das braucht kein Mensch - ich will lieber 720p dafür bessere Performance. :/

robbitop
2013-01-16, 09:25:48
Warum hat dann Project Shield einen 5" Monitor mit 720p wo doch inzwischen jedes China-Billighandy [;)] 1080p hat.
Weils sinnfrei ist. FullHD auf 5"? Das entstand durch dieses blödsinnige Wettrüsten. Nach dem Nutzwert wird nicht gefragt. (in anderen Threads hingegen werden 4K TVs!! als sinnfrei bezeichnet, bei denen die Pixeldichte um ein vielfaches geringer ist als auf einem Mobiltelefon)

AnarchX
2013-01-16, 09:36:43
Für asiatische Schriftarten sind solche >400dpi Display nicht so sinnlos. Aber für Shield wäre wohl so ein Display, was wohl allein $150-200 kostet viel zu teuer und der Nutzen eher gering.

mboeller
2013-01-16, 09:42:21
$150-200 für das Display?

Wieso kostet das Oppo Find5 dann nur $400?

http://www.chinaphonereview.com/oppo-find-5-x909

Und die übrigen Specs sind auch nicht soo schlecht.

AnarchX
2013-01-16, 09:50:51
Der Rest abseits des Displays ist wohl auch nur im Bereich von $100-150. Insofern kann Oppo, welches wohl nicht unerheblich von China subventioniert wird, durchaus so einen Preis anbieten.

Aber $400+ könnte NV sich wohl für so ein Gimmick eher nicht erlauben.

robbitop
2013-01-16, 09:53:39
Für asiatische Schriftarten sind solche >400dpi Display nicht so sinnlos. Aber für Shield wäre wohl so ein Display, was wohl allein $150-200 kostet viel zu teuer und der Nutzen eher gering.
In einem normalen Abstand ist alles >300 dpi nicht mehr von Nutzen. Project Shield hälst du wie einen Controller - nämlich im Schoß. Da ist der Sichtabstand noch höher.

Deinorius
2013-01-16, 20:11:17
Für asiatische Schriftarten sind solche >400dpi Display nicht so sinnlos.


Sinnlos wohl nicht, aber weiterhin sinnfrei.

Black-Scorpion
2013-01-16, 20:21:27
Weils sinnfrei ist. FullHD auf 5"? Das entstand durch dieses blödsinnige Wettrüsten. Nach dem Nutzwert wird nicht gefragt. (in anderen Threads hingegen werden 4K TVs!! als sinnfrei bezeichnet, bei denen die Pixeldichte um ein vielfaches geringer ist als auf einem Mobiltelefon)
Ein ganz toller Vergleich. 1080p Material gibt es bereits. Was zum Geier willst du mit einer 4k Kiste wo das meiste mit SD und HD 720p ankommt? Wenn man schon vergleicht sollte man sich wenigstens etwas Mühe geben und nicht einfach nur großen BS vergleichen.

mboeller
2013-01-17, 07:51:18
Sinnlos wohl nicht, aber weiterhin sinnfrei.

ich glaub die Chinesen sehen das anders:
http://www.computerbase.de/news/2012-09/angebliche-technische-details-zu-find5-x990-aufgetaucht/

Undertaker
2013-01-17, 09:34:22
Ein ganz toller Vergleich. 1080p Material gibt es bereits. Was zum Geier willst du mit einer 4k Kiste wo das meiste mit SD und HD 720p ankommt? Wenn man schon vergleicht sollte man sich wenigstens etwas Mühe geben und nicht einfach nur großen BS vergleichen.

Ähm ja. Bei einem 5" Smartphone argumentierst du, dass es 1080p Material bereits gibt, und bei einem TV betonst du SD und 720p?

Imo machen 1080p auf einem Smartphone sehr viel weniger Sinn als 4k auf einem TV. Den TV behalte ich länger, schließe ihn evtl. auch mal an den PC an oder lasse schlechter aufgelöstes Material hochskalieren. Auf einem Smartphone ist der Unterschied zwischen 720p und 1080p für 99% der Anwender wohl nicht einmal sichtbar.

Ailuros
2013-01-17, 15:29:17
Es macht zwar jeder was ihm passt, aber unter normalen Umstaenden klebt keiner seine Nase auf einen Fernseher-Bildschirm noch setzt man sich normalerweise um 30-40cm davor. Typisch ein paar Meter Abstand fuer einen TV und ein smartphone haelt man (wenn man keine Augen-Probleme hat) um die 30-40cm vor der Nase.

Wo und wieso Ihr jetzt zu dem Aufloesungs-Vergleich zwischen TVs und smartphones kommt OHNE den Sicht-abstand in Betracht zu nehmen, ist wohl eine Frage fuer sich.

Deinorius
2013-01-18, 22:29:27
Ein ganz toller Vergleich. 1080p Material gibt es bereits. Was zum Geier willst du mit einer 4k Kiste wo das meiste mit SD und HD 720p ankommt? Wenn man schon vergleicht sollte man sich wenigstens etwas Mühe geben und nicht einfach nur großen BS vergleichen.


Wollen wir uns jetzt Blu-Ray Filme auf einem Smartphone ansehen, während man mit einer Lupe davor linst, um einen Unterschied zwischen 720p und 1080p ausmachen zu können? Der Rest wurde schon gesagt.

ich glaub die Chinesen sehen das anders:
http://www.computerbase.de/news/2012-09/angebliche-technische-details-zu-find5-x990-aufgetaucht/


Deswegen auch meine Unterscheidung zwischen sinnlos und sinnfrei. Es bringt was, ob der höhere Stromverbrauch und der Preis das wert ist, ist eine andere Frage. Zum Teil wird sich das mit der Zeit legen, aber ich würde nicht zu sehr darauf setzen.

OgrEGT
2013-01-19, 06:44:39
Sorry for OT...

Für mich ist sinnlos und sinnfrei ein und dasselbe... :uponder:

Ailuros
2013-01-28, 17:43:33
http://www.fudzilla.com/home/item/30275-nvidia-to-start-making-its-own-tablets-and-smartphones

Blediator16
2013-01-28, 17:48:27
Since Nvidia would design and manufacture the reference tablets and smartphones itself, it should be in a good position to ensure quality and completely control the features.

Bauen sie ihre eigenen Produktionslinien oder versteh ich da gerade was falsch?

Ailuros
2013-01-28, 17:52:01
Bauen sie ihre eigenen Produktionslinien oder versteh ich da gerade was falsch?

Nur Referenz-designs so wie ich es verstehe; aber da wohl noch einige wichtige Einzelheiten fehlen zu diesem Schachzug unterhalte ich momentan jegliche vorzeitige Schlussfolgerungen. Auf jeden Fall klingt es gewagt fuer einen Markt wie diesen, aber es hoert sich auch nicht so krumm am Ende an.

Hugo78
2013-01-28, 18:09:34
Das Nexus 7 ist doch letztlich schon eine Idee von Nvidia & Asus gewesen, aka Asus Memo.
Was dann dank Google richtig vermarktet wurde.

Wenn man ein SoC mit Modem hat, dann kann man auch Display, Gehäuse und Akku einkaufen, machen andere ja auch nicht anders.
Foxcoon schraubt das dann zusammen, aktuelles "Android pur ohne Bockmist" draufspielen => fertig.

Beim Vertrieb wirds schwieriger, hier muss man schon einen Partner haben, den die Zielgruppe besser kennt und der die Vertiebswege mitbringt.
Asus würde sich hier natürlich wieder anbieten.

Ailuros
2013-01-28, 18:47:32
Ja aber es muss aber auch etwas bringen, sonst wird es zur Fehlinvestition. Ich bezweifle dass sich das Nexus7 schlechter verkauft haette wenn NV nicht ihre Finger irgendwie in dessen Entwicklung gehabt haette.

Ganz so nebenbei hat das Nexus7 nie die bombastischen Verkaufszahlen erreicht die sich manche erhofft haben, eben weil immer wenige schnallen was es genau bedeutet einen Google Referenz-design zu erreichen. Verkaufszahlen sind nie ueberragend gross, eben weil Google generell immer noch der wichtigste Anteil fehlt den Apple und Amazon quasi gemeinsam haben: Inhalt.

Zwar nur eine US zentrische Statistik, aber es sieht auch auf globaler Basis nicht besonders besser aus: http://thenextweb.com/mobile/2013/01/28/report-amazon-dominates-android-tablets-us-based-kindle-fires-alone-are-33-of-global-devices/?awesm=tnw.to_r0TI&utm_source=Twitter&utm_medium=share%20button&utm_content=Report:%20Amazon%20dominates%20Android%20tablets,%20US-based%20Kindle%20Fires%20alone%20are%2033%%20of%20global%20devices&utm_campaign=social%20media

Im Angesicht von Tegra4 duerfte sicher etwas dahinter stecken dass durchaus helfen wird, aber wie gesagt noch zu wenig Einzelheiten.

Undertaker
2013-01-28, 18:55:09
Nur Referenz-designs so wie ich es verstehe; aber da wohl noch einige wichtige Einzelheiten fehlen zu diesem Schachzug unterhalte ich momentan jegliche vorzeitige Schlussfolgerungen. Auf jeden Fall klingt es gewagt fuer einen Markt wie diesen, aber es hoert sich auch nicht so krumm am Ende an.

Mit einer kurzen Time-to-Market (!), guter Verfügbarkeit und aggressiven Preisen könnte ich mir auch ein echtes Nvidia-Smartphone gut vorstellen – man stelle sich eine Art Nexus 4 mit Tegra-4-SoC und ein paar kleinen Verbesserungen wie einem zusätzlichen Kartenleser vor. Das würde sich aktuell vermutlich auch für gut 400 Euro wie warme Semmeln verkaufen, zumal Nvidia einen durchaus renommierten Markennamen in die Waagschale werfen kann.

Ailuros
2013-01-28, 19:05:49
Mit einer kurzen Time-to-Market (!), guter Verfügbarkeit und aggressiven Preisen könnte ich mir auch ein echtes Nvidia-Smartphone gut vorstellen – man stelle sich eine Art Nexus 4 mit Tegra-4-SoC und ein paar kleinen Verbesserungen wie einem zusätzlichen Kartenleser vor. Das würde sich aktuell vermutlich auch für gut 400 Euro wie warme Semmeln verkaufen, zumal Nvidia einen durchaus renommierten Markennamen in die Waagschale werfen kann.

Och NV koennte locker mit dem AP40 den Google "Nexus5" Referenz-design gewinnen. Das sagt aber weder etwas ueber die Verkaufszahlen des Geraetes aus noch der absoluten Notwendigkeit fuer einen NVIDIA spezifischen Referenz-design.

Skysnake
2013-02-01, 13:20:52
Keine guten Nachrichten für nVidia

http://www.computerbase.de/news/2013-02/toshiba-angeblich-erster-abnehmer-des-nvidia-tegra-4/

Dural
2013-02-01, 15:54:19
überrascht mich jetzt nicht mal wirklich, die gründe stehe ja auch in der news. tablet werden immer wie biliger und beim 0815 konsument dürfte bei tablet der SoC so ziemlich egal sein.

eine SoC die zwar relativ viel leistung hat aber dafür auch teurer ist und viel strom verbraucht hat es da naturgemäss etwas schwerer. Zudem ist T4 aktuell schon nichts besonderes mehr, das war beim T2 und T3 noch anders (erster Dual beziehungsweisse Quad Core)

NV wäre gut beraten gewessen noch eine abgespekte variante mit nur zwei kernen und einer kleineren GPU früher zu entwickeln. (die kommt ja dieses jahr noch)

Ailuros
2013-02-01, 19:03:22
überrascht mich jetzt nicht mal wirklich, die gründe stehe ja auch in der news. tablet werden immer wie biliger und beim 0815 konsument dürfte bei tablet der SoC so ziemlich egal sein.

Und wieso stagniert nicht der Markt sondern es werden konstant neuere und schnellere tablets in sogar steigenden Volumen verkauft?

eine SoC die zwar relativ viel leistung hat aber dafür auch teurer ist und viel strom verbraucht hat es da naturgemäss etwas schwerer.

Aus dem computerbase link:

Während das chinesische Unternehmen mehreren Quellen zufolge deutlich billigere SoCs liefert, gelten Qualcomms kommende Chips der Reihen S600 und S800 als schneller und sparsamer als Nvidias Gegenstück.

Keine Ahnung wie es mit dem Stromverbrauch aussieht und ich bezweifle dass es wirklich ein Kaufgrund ist. Qualcomm ist etabliert in dem Markt und dazu riesig als Semi, was wir ja schon etliche Male erwaehnt haben.

Zudem ist T4 aktuell schon nichts besonderes mehr, das war beim T2 und T3 noch anders (erster Dual beziehungsweisse Quad Core).

Aber aber aber es hat doch HDR always on....:rolleyes:

NV wäre gut beraten gewessen noch eine abgespekte variante mit nur zwei kernen und einer kleineren GPU früher zu entwickeln. (die kommt ja dieses jahr noch)

Jensen muss sich endlich mal hinsetzen und einsehen wo sie irgendwelche strategische Fehler gemacht haben und das Blatt so schnell wie moeglich wenden. Grey kommt sicher noch dieses und es ist natuerlich keine falsche Design-Entscheidung, nur befuerchte ich dass Qualcomm und Samsung die smartphone design wins wieder brutal aufkehren werden mit oder ohne Grey.

Marginal schneller als das iPad4 (welches uebrigens einen gigantischen SoC hat im Vergleich zu T4 und verdonnert wohl auch mehr Strom) und das Bumsgeraetchen under dem Namen Project shield rettet eben leider nicht den Tag.

Noch ist noch gar nichts entschieden und Acer bzw. Asus koennten noch ihre Meinung aendern oder das Verkaufsvolumen von T4 koennte auch ohne die beiden besser sein als bei T3. Eine schlechte Indizie ist es momentan schon, aber entschuldigt ich war ja stets der Depp des Dorfes als ich jedesmal behauptete dass NV seit Tegra nur bloede Design-Entscheidungen trifft. Und ja eine sehr starke GPU mit NV sehr guter hw und sw Erfahrung haette mehr Koepfe umdrehen koennen als eine Werbe-Kampagne fuer ARM all die Jahre zu fuehren. Aber was weiss ich wohl davon :rolleyes:

Hugo78
2013-02-01, 19:13:21
Qualcomms S600 & S800 Release ist erst für "mid 2013" angekündigt.
Über den Verbrauch kann man dann reden, zumal das S4 Pro im Nexus 4 ja nun alles andere als sparsam ist.

Bei gleicher Displayhelligkeit (200 Candela) kommt das Nexus 4 grad mal auf 4:57min wo ein One X+ fast 8Stunden schaft.
Beide haben ein 2100mAh Akku.
http://www.computerbase.de/artikel/handys/2013/test-huawei-ascend-g-615/6/

Tegra 4 soll über 40% sparsamer bei gleicher Leistung sein, also was Digitimes sich da zusammenreimt ist Quark.

Und ja für mich ist das HDR Feature aktuell der Burner, ausser kommende Tests widerlegen Nvidias CES Keynote in dem Fall.

Skysnake
2013-02-01, 19:14:45
Jup, dafür muss nVidia sich aber auch VOLL zu Tegra bekennen, und nicht solche "Lowbudget R&D" Dinger raus knallen...

Als Neuer und Kleiner am Markt, muss man entweder spott billig sein, was andere schon deutlich besser können, wie es scheint, oder man muss eben die Performance-Krone holen, was aber anscheinend auch andere besser können. Naja und im Mobile-Bereich wäre dann noch Perf/W ein Punkt, wo man wirklich punkten kann, ist hier aber anscheinend auch nicht wirklich der Fall...

Das ist einfach nichts Halbes und nichts Ganzes, was nVidia da im Moment macht. SO wird man in dem hart umkämpften Markt auf jeden Fall keinen Fuß fassen, UND Gewinne machen, von denen man leben kann.

So kanns auf jeden Fall nicht weiter gehen, sonst kann man es gleich bleiben lassen, und das wäre absolt die falsche Entscheidung. nVidia braucht so etwas wie diesen Markt.

Ailuros
2013-02-01, 19:33:19
Qualcomms S600 & S800 Release ist erst für "mid 2013" angekündigt.

Ach und wenn wird T4 in Geraeten genau erscheinen wenn sie gerade erst beim sampling sind?

Über den Verbrauch kann man dann reden, zumal das S4 Pro im Nexus 4 ja nun alles andere als sparsam ist.

Sei fair. Das Nexus4 hat irgend ein Design-problem waehrend andere S4 Pro nicht im geringsten das gleiche Problem haben.

Bei gleicher Displayhelligkeit (200 Candela) kommt das Nexus 4 grad mal auf 4:57min wo ein One X+ fast 8Stunden schaft.
Beide haben ein 2100mAh Akku.
http://www.computerbase.de/artikel/handys/2013/test-huawei-ascend-g-615/6/

Siehe oben.

Tegra 4 soll über 40% sparsamer bei gleicher Leistung sein, also was Digitimes sich da zusammenreimt ist Quark.

In Faellen wo nicht mal die halben CPU ausgereizt werden sicher; aber dafuer sind heutige tablets schon schnell genug.

Und ja für mich ist das HDR Feature aktuell der Burner, ausser kommende Tests widerlegen Nvidias CES Keynote in dem Fall.

Es ist aber auch wirklich die einzige wahre Innovation in dem Ding. Ist zwar alles Geschmacksache aber fuer mich kein besonderer Kaufgrund ueberhaupt fuer ein tablet. Ich wuerde auf jeden Fall mit einem tablet kein Bilder knipsen; wenn es jetzt zu smartphones kommt sind ihre design wins so oder so laecherlich wenig. Ob HDR on jetzt ploetzlich Samsung anreizt tonnenweise AP40 SoCs vorzubestellen?

***edit: und im letzten Satz liegt eben der eigentliche Haken der Sache; wir als Endverbraucher sind nicht NVIDIA's eigentliche Kunden sondern OEMs bzw. Geraete-hersteller. Wenn man in solch einem Fall keinen grossen Volume-Deal landet, bringt es rein gar nichts.

Mal ein Schuss Humor: wie willst Du Frauen mit einem solchen tablet genau ansprechen? "wait don't go away, I have my HDR always on..."

Stell Dir vor Du hockst in einem Flugzeug und jemand neben Dir packt jemand stolz sein iPad aus. Darauf fragst Du grinsend "Dass ist ein tablet?" und packst folgendes aus:

http://www.brightsideofnews.com/news/2013/1/23/the-era-of-4k-supertablets-cometh-panasonic-leads-the-way.aspx "Dass ist ein TABLET!!!" Etwa in dem Sinn eben: http://www.youtube.com/watch?feature=player_embedded&v=01NHcTM5IA4

(natuerlich ist das Panasonic Monster prototype womoeglich schweineteuer und hat auch nur knapp 2 Stunden Laufzeit...)

Undertaker
2013-02-01, 19:43:43
Sei fair. Das Nexus4 hat irgend ein Design-problem waehrend andere S4 Pro nicht im geringsten das gleiche Problem haben.

Allerdings: Cortex A-15 ist auch ein gutes Stückchen schneller als Krait, zumal Tegra 4 höher taktet als der S4 Pro (letzterer praktisch doch nur mit 1,5 GHz verfügbar?).

Dennoch verstehe ich nicht ganz, warum Nvidia nicht parallel einen noch sparsameren T4 mit geringerer Frequenz vorstellt. Das sollte doch nun nicht so aufwändig sein, dass ein solcher erst Monate später kommt?

Ailuros
2013-02-01, 19:51:15
Allerdings: Cortex A-15 ist auch ein gutes Stückchen schneller als Krait, zumal Tegra 4 höher taktet als der S4 Pro (letzterer praktisch doch nur mit 1,5 GHz verfügbar?).

S4 SoCs sind aber schon eine geraume Zeit erhaeltlich waehrend die kommenden Krait SoCs auf 2.3GHz takten werden mit einer staerkeren GPU.

Dennoch verstehe ich nicht ganz, warum Nvidia nicht parallel einen noch sparsameren T4 mit geringerer Frequenz vorstellt. Das sollte doch nun nicht so aufwändig sein, dass ein solcher erst Monate später kommt?

Es gibt bei allen Tegras Tx0 fuer tablets und APx0 fuer smartphones, wobei das zweite genau der gleiche SoC ist nur mit geringeren Frequenzen. Im Tegra3 T30 taktet die GPU bei 520MHz und AP30 bei 416MHz.

Undertaker
2013-02-01, 19:57:45
S4 SoCs sind aber schon eine geraume Zeit erhaeltlich waehrend die kommenden Krait SoCs auf 2.3GHz takten werden mit einer staerkeren GPU.

Ich meinte das rein in Bezug auf die Leistungsaufnahme. Ob ein Snapdragon 800 mit diesen Frequenzen noch immer sparsamer als T4 oder ein anderer Quad A15 ist (oder gar das Gegenteil)?

Es gibt bei allen Tegras Tx0 fuer tablets und APx0 fuer smartphones, wobei das zweite genau der gleiche SoC ist nur mit geringeren Frequenzen. Im Tegra3 T30 taktet die GPU bei 520MHz und AP30 bei 416MHz.

Bei Tegra 3 war mir das bekannt - nur kommt auch bei T4 direkt zum Start eine sparsamere Smartphone-Variante? Bei Digitimes wird ja explizit auf die Leistungsaufnahme hingewiesen.

Hugo78
2013-02-01, 20:17:02
Es ist aber auch wirklich die einzige wahre Innovation in dem Ding.

Ja nun ich kann aktuell nichts entdecken, was auch nur im geringsten so praktisch für uns Endkunden ist, wie flinkes HDR Knipsen mit dem Handy.
Die Keynote von Qualcomm zum S600 / S800 war ein "Gute Laune" Scherz (http://www.ustream.tv/recorded/28319638),
da gabs nix wovon man im Alltag als Nutzer profitiert, ausser das die Dinger noch mal wieder schneller als ihre Vorgänger wären. *boring*
Ja .. ausser man will 4K Videos mit seinem Handy aufnehmen, ... scheitert dann aber am knappen internen Speicher der meisten Geräte mit 8-16GB. *hust*


***edit: und im letzten Satz liegt eben der eigentliche Haken der Sache; wir als Endverbraucher sind nicht NVIDIA's eigentliche Kunden sondern OEMs bzw. Geraete-hersteller. Wenn man in solch einem Fall keinen grossen Volume-Deal landet, bringt es rein gar nichts.

Von mir aus kann Nvidia auch zu Foxcoon gehen und dort in Eigenregie Handys fertigen lassen.
Surfen, telefonieren, SMS, Fotos & Videos, dass sind meine Prioritäten im Alltag.

Ailuros
2013-02-01, 20:47:01
Ich meinte das rein in Bezug auf die Leistungsaufnahme. Ob ein Snapdragon 800 mit diesen Frequenzen noch immer sparsamer als T4 oder ein anderer Quad A15 ist (oder gar das Gegenteil)?

Natuerlich ist ein quad Krait um einiges sparsamer als ein quad A15; es gibt guten Grund dass Qualcomm und Apple auf custom ARM CPU cores gestiegen sind. Jetzt bleibt abzusehen wie NV die A15 cores genau integriert hat; wenn es auf der selben Masche liegt wie bis T3, dann koennen sie cores wahlweise total abschalten und die aktiven koennen beliebig takten aber stets mit der gleichen Frequenz. Fuer einfachen Mist hat NV den companion core, wobei andere Hersteller wie Samsung das ARM big.LITTLE Konzept adoptiert haben mit dem wesentlichen Unterschied dass so viel kleine wie grosse cores. Samsung Exynos 5250 hat 2*A15+2*A7 und dessen Nachfolger als "octacore" vermarktet 4*A15+4*A7.

Was NV jetzt noch haette machen koennen sind asynchrone Frequenzen fuer die 4 A15 cores durch sw. Bis die Dinger aber auf Regalen erscheinen keine Ahnung.

Qualcomm hat kein big.LITTLE und auch keinen companion core. Anstatt haben sie asynchrone Frequenzen fuer alle CPU cores. Man kann also theoretisch auf einem quad einen core sagen wir mal auf 400MHz takten, einen auf 500MHz, den dritten auf 1GHz und den vierten auf 1.5GHz. Asynchrone Taktung in hw wie bei Krait kostet etwas zusaetzliche Logik in hw, aber da A15 cores brutal groesser sind als Kraits koennen sie den Unterschied locker verschmerzen und natuerlich auch mit aggressiveren Frequenzen antanzen.

Bei Tegra 3 war mir das bekannt - nur kommt auch bei T4 direkt zum Start eine sparsamere Smartphone-Variante? Bei Digitimes wird ja explizit auf die Leistungsaufnahme hingewiesen.

AP Varianten kommen normalerweise etwas spaeter (wenn es keine Verspaetungen gibt wie bei T3) aber mit relativ kleinem Zeitunterschied.

Die Typen von digitimes sind auch mit Verlaub nicht gerade Genies mit der Materie. Sowohl Qualcomm und UEBERHAUPT Mediatek verkaufen hauptsaechlich mainstream SoCs. Ihre neuesten mainstream SoCs von beiden haben quad A7 CPUs bei 1.2GHz (und ja Qualcomm benutzt Krait nur fuer high end SoCs) der selbstverstaendlich um zich Male billger und sparsamer sein wird als ein quad A15 SoC. NV muss eben leider darauf warten bis Grey fertig ist. Afaik wurde Grey nichtmal in den Staaten sondern von derem team in Indien entwickelt.

Ja nun ich kann aktuell nichts entdecken, was auch nur im geringsten so praktisch für uns Endkunden ist, wie flinkes HDR Knipsen mit dem Handy.
Die Keynote von Qualcomm zum S600 / S800 war ein "Gute Laune" Scherz (http://www.ustream.tv/recorded/28319638),
da gabs nix wovon man im Alltag als Nutzer profitiert, ausser das die Dinger noch mal wieder schneller als ihre Vorgänger wären. *boring*
Ja .. ausser man will 4K Videos mit seinem Handy aufnehmen, ... scheitert dann aber am knappen internen Speicher der meisten Geräte mit 8-16GB. *hust*

Du weisst besser als ich dass in der Mehrzahl der Faelle, Handys nur gut sind fuer gelegentliche Knipserei. Wenn man wirklich ernsthaft knipsen will und ueberhaupt wenn es zu grosser Foto-Flaeche kommt ist man heute noch immer noch auf eine gute digi-cam angewiesen. Selbst wenn "HDR on" so innovativ ist wie NV verspricht, ist der SoC fuer die heutigen Verhaeltnisse zu gross es in eine digi-cam oder sogar cam-corder zu schaffen. Mit nem heatsink auf dem SoC vielleicht schon.

Von mir aus kann Nvidia auch zu Foxcoon gehen und dort in Eigenregie Handys fertigen lassen.
Surfen, telefonieren, SMS, Fotos & Videos, dass sind meine Prioritäten im Alltag.

Woher sollen die resourcen jetzt ploetzlich fuer NV herkommen dass sie jetzt auch noch eigene Handys fertigen lassen sollen?

Es ist zwar nicht an Dich gerichtet sondern geht eher in die Vergangenheit: kannst Du noch daran erinnern als NV mit Tegra2 den Samsung deal landete und Analysten kunterbunt von angeblichen $300Mio Umsatz nur von dem deal projezierten? Der deal war sicher nicht klein fuer NV aber auch nur ein kleiner Zwischenschieber bis sie ihre eigenen Exynos SoCs ausrollen konnten. Kann durchaus sein dass Samsung etwas von T4 abkauft aber auch nach wie vor in geringem Volumen wie mit allen anderen SoCs die sie ab und zu links und rechts einkaufen.

HTC ist erstmal garantiert fuer smartphones, obwohl HTC auch fuer die bruellende Mehrzahl ihrer Handys Qualcomm SoCs benutzt und dann kommt vielleicht noch etwas von den Chinesen wie ZTE obwohl die normalerweise nur mit billigem mainstream Zeug umgehen, wofuer T4 so teuer ist und ZTE ist auch kein high volume deal.

Undertaker
2013-02-01, 20:53:44
Natuerlich ist ein quad Krait um einiges sparsamer als ein quad A15; es gibt guten Grund dass Qualcomm und Apple auf custom ARM CPU cores gestiegen sind.

Ich hätte da zunächst auf die Verfügbarkeit getippt, denn während Krait schon länger auf dem Markt ist, exisitiert mit dem Nexus 10 erst ein einziges reales Cortex A15 Produkt (wenn ich noch ein anderes vergessen habe: geschenkt).

Das Krait bei 2,3 GHz wirklich noch effizienter ist als ein ähnlich schneller A15 Quad, kann ich mir noch nicht so recht vorstellen – aber OK, da gilt es die ersten Tests abzuwarten.

Ailuros
2013-02-01, 21:02:31
Das Krait bei 2,3 GHz wirklich noch effizienter ist als ein ähnlich schneller A15 Quad, kann ich mir noch nicht so recht vorstellen – aber OK, da gilt es die ersten Tests abzuwarten.

Die CPU auf T4 wird zumindest bei 1.9GHz wenn nicht sogar 2.0GHz takten aber dieses hauptsaechlich fuer tablets. Smartphones/AP40 werden wohl eher etwas bescheidener takten.

Hugo78
2013-02-01, 21:15:40
Woher sollen die resourcen jetzt ploetzlich fuer NV herkommen dass sie jetzt auch noch eigene Handys fertigen lassen sollen?

Wenn wir mal die Kosten für so ein Risiko ausser Acht lassen, seh ich da kein Problem.
Denn so "Buden" wie Foxconn als Auftragsfertiger, können sogar "über Nacht" tausende von Handys abändern.

Apple had redesigned the iPhone’s screen at the last minute, forcing an assembly line overhaul. New screens began arriving at the plant near midnight.

A foreman immediately roused 8,000 workers inside the company’s dormitories, according to the executive. Each employee was given a biscuit and a cup of tea, guided to a workstation and within half an hour started a 12-hour shift fitting glass screens into beveled frames. Within 96 hours, the plant was producing over 10,000 iPhones a day.
- http://www.nytimes.com/2012/01/22/business/apple-america-and-a-squeezed-middle-class.html?_r=2&

Da kann man sicher auch nach eigenem Design fertigen lassen. Die Smartphones sehen doch eh alle gleich aus.

Das Problem ist dann eher das Marketing, wenn man wirklich Volumen generieren will/muss um die Kosten wieder rein zubekommen.


HTC ist erstmal garantiert fuer smartphones, .

Dann können wir das Obere auch wieder vergessen und ich warte auf HTCs Auftritt @ MWC 2013 in 3 Wochen. :biggrin:

Ailuros
2013-02-01, 22:07:00
Wenn wir mal die Kosten für so ein Risiko ausser Acht lassen, seh ich da kein Problem.
Denn so "Buden" wie Foxconn als Auftragsfertiger, können sogar "über Nacht" tausende von Handys abändern.

Sind die Kosten gering dass man sie nur einfach so uebersehen kann? Wenn sie heute so weit gehen wuerden und versuchen wuerden ernsthaft grosse Volumen selber zu generieren wuerde NV so schnell rote Zahlen sehen wie man gerade noch zwinkern kann.

- http://www.nytimes.com/2012/01/22/business/apple-america-and-a-squeezed-middle-class.html?_r=2&

Da kann man sicher auch nach eigenem Design fertigen lassen. Die Smartphones sehen doch eh alle gleich aus.

Das Problem ist dann eher das Marketing, wenn man wirklich Volumen generieren will/muss um die Kosten wieder rein zubekommen.

Jetzt vergleich mir doch um Himmel's Willen nicht NVIDIA mit Apple im SFF Markt. Apple kann nicht nur den obrigen stunt problemlos verschmerzen mit ihren brutalen Gewinnmargen von dem i-Zeug sondern macht eben extrem hohen Gewinn wobei ihre SoCs oefters bis zu doppelt so gross sind wie Tegras.

Selbst wenn die obrige Geschichte stimmt handelt es sich lediglich um device assembly. Neben den uebermaessigen Kosten die NV nie und nimmer tragen koennte, sollen sie wann genau ein Geraet entwickeln und es verdammt einfach sowohl auf hw als auch sw Ebene zusammenstellen lassen und ueberpruefen. Bis sie soweit kommen wenn sie von Null anfangen liegt schon T5 an der Reihe. Irgendwie hab ich das Gefuehl dass manche von Euch glauben dass ein smartphone nur ein Haufen Legosteine sind die man kinderleicht in Minuten zusammenstecken kann und sofort laeuft alles wie gewuenscht.

Und ja natuerlich ist stets jeglicher Erfolg oder Misserfolg nur ein Resultat von marketing. Wenn dem so waere haette jeglicher "Erfolg" nur fuer eine sehr begrenzte Zeit halten koennen. Es will einfach den meisten hier nicht einleuchten dass das Phaenomen Apple eben nicht nur auf marketing, oder nur gute hw, oder nur gute Herstellungsqualitaet etc basiert. Es ist eine Summe von vielen Faktoren u.a. auch deren eigenes OS und applications store.

Dann können wir das Obere auch wieder vergessen und ich warte auf HTCs Auftritt @ MWC 2013 in 3 Wochen. :biggrin:

Ja fuer Dich als Verbraucher, was aber nichts mit der Debatte hier zu tun hat. Es ist eben kein deal fuer hohe Volumen und um das geht es gerade.

Hugo78
2013-02-01, 22:58:18
Nun denn, sagen wir der Digitimes Bericht wäre der Wost Case für 2013,
also nicht nur für NV sondern für Alle abseits von Qualcomm und MediaTek.
Dann könnte sich NV auch die Tegra Reihe sparen.

Denn von allein überleben könnte das dann nur Apple, Intel und Samsung.
Huawei und ZTE werden von Papa Staat gefördert, dass ist ne Langzeitstrategie seitens der KP Chinas.

Was bleibt dann in den nächsten 5-10 Jahren?
Apple, Intel, Samsung, Huawei und ZTE (+ MediaTek als absoluten Billigheimer).

Skysnake
2013-02-02, 11:56:41
Sind die Kosten gering dass man sie nur einfach so uebersehen kann? Wenn sie heute so weit gehen wuerden und versuchen wuerden ernsthaft grosse Volumen selber zu generieren wuerde NV so schnell rote Zahlen sehen wie man gerade noch zwinkern kann.

Und auf Deals mit anderen OEMs für ihre TegraX brauchen Sie dann auch nicht mehr hoffen, da Sie mit agressiven Preisen in den Markt müssten, um überhaupt etwas absetzen zu wollen. Wer ist denn nVidia im SFF-Markt? Richtig, ein NICHTS. Das kennt doch keine Sau.

Nun denn, sagen wir der Digitimes Bericht wäre der Wost Case für 2013,
also nicht nur für NV sondern für Alle abseits von Qualcomm und MediaTek.
Dann könnte sich NV auch die Tegra Reihe sparen.

Eben genau das.... Aktuell gehen die das zu halbherzig an, und könnten es sich eigentlich sparen...


Denn von allein überleben könnte das dann nur Apple, Intel und Samsung.
Huawei und ZTE werden von Papa Staat gefördert, dass ist ne Langzeitstrategie seitens der KP Chinas.

Was bleibt dann in den nächsten 5-10 Jahren?
Apple, Intel, Samsung, Huawei und ZTE (+ MediaTek als absoluten Billigheimer).
Groß anders wird es in den nächsten Jahren auch nicht aussehen. Da wird es einige Konsolidierungen am Markt geben. TI wird es wohl nicht auf Dauer im Markt aushalten, wie es aussieht, oder Sie verschieben sich auf gewisse Nischen. Alternativ fällt halt irgendwann Qualcomm oder MediaTek noch mit raus, wobei ich das nicht glauben kann bei Qoalcomm. MediaTek und alle anderen Billiganbieter werden aber auf jeden Fall aus China nen bösen Preiskampf erleben, den Sie wohl nicht gewinnen können.

Überhaupt muss man im IT Bereich China als sehr hartes und gefährliches Terrain ansehen, da China ganz offen auf Selbstversorgung aus ist... Die buttern Geld und Ressourcen in rauen Mengen in ihren MIPS rein. Und jetzt nicht nur für die Hardware, sondern auch für Software. Die Supporten Softwaredeveloper recht gut.

Und wenn China 0 staatliche Deals mehr raus gibt, oder nur noch ganz ganz wenige, und die eigene Bevölkerung auf "Made in China" eingeschworen ist, sowie eben mit extrem günstiger Staatsware versorgt wird, zur not einfach ein paar Zölle usw auf die Sachen aus dem Ausland..., dann wird jemand ein wirklich wichtiger Markt wegbrechen.

Was China im Moment in allen Bereichen macht ist wirklich bedenklich, man kann aber nur wenig dagegen machen, wenn man China als "Marktchance" sieht. Fragt sich nur, ob die Chance ne Chance bleibt...

Dural
2013-02-02, 12:09:32
ja NV könnte sich die Tegra sparte echt auf sparen... geht nicht mehr lange und NV macht damit mehr umsatz als AMD mit ihren GPUs :rolleyes:

Skysnake
2013-02-02, 12:27:02
Boah war der gut... :fail:
Was bringt dir der größte Umsatz, wenn du Jahr für Jahr für Jahr nur Minus machst, und die Zukunftsaussichten keinen deut besser aussehen als aktuell?

Richtig, es bringt rein gar nichts...

Und wer sagt, das nVidia es generell aufhören soll? Sie sollen sich nur endlich richtig dazu bekennen, oder es eben bleiben lassen... Nur die aktuelle Vorgehensweise ist vom Management einfach fürn ARSCH.

Dural
2013-02-02, 13:09:39
zum glück macht AMD mit ihren GPUs von jahr zu jahr grosse gewinne ;D

du kannst es drehen wie es dier am bessten passt, aber am ende hat NV mit T2 und T3 alles richtig gemacht und das zeigen auch die vielen produkte die damit auf dem markt sind doch eindeutig, und die verkaufszahlen sprechen für sich.

beim T4 muss man halt noch etwas abwarten wie sich das ganze entwickelt, die marktlage ist für NV mit diesem produkt sicher nicht mehr so "einfach" wie noch mit T2 und T3.

übrigens ist es völlig normal das man in einem neuen produkte bereich kein gewinn schreibt und tegra ist halt noch immer relativ neu, man muss zuerst ja alles aufbauen und so was passiert nirgends von heute auf morgen. :rolleyes:

und falls du es immer noch nicht bemerkt hättest, NV hat sich schon lange neben den GPUs voll auf tegra fokusiert.

YfOrU
2013-02-02, 13:25:35
Bei gleicher Displayhelligkeit (200 Candela) kommt das Nexus 4 grad mal auf 4:57min wo ein One X+ fast 8Stunden schaft.
Beide haben ein 2100mAh Akku.
http://www.computerbase.de/artikel/handys/2013/test-huawei-ascend-g-615/6/


Der Laufzeitvergleich auf CB über Videos lässt kaum Rückschlüsse auf den SoC zu. Solange ein integrierter Video Decoder greift langweilen sich sowohl CPU als auch GPU.
In erster Linie schlägt hier das verbaute Display mit Hintergrundbeleuchtung voll ein. An zweiter Stelle steht die Implementierung der eingesetzten Plattform und der daraus resultierende Energiebedarf im Leerlauf.

Um auf das (LG) Nexus 4 (Videotest, CB) zurückzukommen:

Dieses hat bei 200 cd/m² praktisch eine identische Laufzeit wie das LG Optimus 4X HD (Tegra3).
Bei maximaler Helligkeit geht dem Optimus 4X HD früher die Luft aus denn diese ist höher als beim Nexus 4.

Da sich die jeweils verbauten 4,7 Zoll IPS Panel genauso wie die Akkukapazität nur marginal unterscheiden ist die Ursache somit leicht zu finden.
-> Die Kombination aus LED Backlight und IPS Panel ist bei beiden LG Produkten eine Katastrophe das es schlimmer kaum geht.

Gegenbeispiel. Das iPhone 5 hat zwar ein kleineres Display aber gleichzeitig auch einen proportional schwächeren Akku. Die eigentliche Problematik ist identisch:
Ein hochauflösendes IPS Panel braucht eine sehr starke Hintergrundbeleuchtung. Trotzdem kommt das iPhone 5 welches die gleiche maximale Helligkeit wie ein Optimus 4X HD hat auf die doppelte Laufzeit. Solche Werte stellen das Engineering bei Apple auf eine ganz andere Stufe denn LG baut nicht nur Smartphones sondern auch IPS Panel. Richtig peinlich denn das sollte eigentlich zur absoluten Kernkompetenz bei LG zählen ;)

Irgendwie ist das symptomatisch für LG denn die schaffen es über das ganze Portfolio in einer verlässlichen Regelmäßigkeit eigentlich richtig guten Produkten einen groben Negativpunkt reinzupacken.

Skysnake
2013-02-02, 13:38:34
zum glück macht AMD mit ihren GPUs von jahr zu jahr grosse gewinne ;D

du kannst es drehen wie es dier am bessten passt, aber am ende hat NV mit T2 und T3 alles richtig gemacht und das zeigen auch die vielen produkte die damit auf dem markt sind doch eindeutig, und die verkaufszahlen sprechen für sich.

beim T4 muss man halt noch etwas abwarten wie sich das ganze entwickelt, die marktlage ist für NV mit diesem produkt sicher nicht mehr so "einfach" wie noch mit T2 und T3.

übrigens ist es völlig normal das man in einem neuen produkte bereich kein gewinn schreibt und tegra ist halt noch immer relativ neu, man muss zuerst ja alles aufbauen und so was passiert nirgends von heute auf morgen. :rolleyes:

und falls du es immer noch nicht bemerkt hättest, NV hat sich schon lange neben den GPUs voll auf tegra fokusiert.
Liest du nicht, oder willst du es nicht verstehen?

1. Zwischen jedes Jahr Geld in ein "Projekt" reinbuttern, wo man nur halbherzig rangeht ist ein gewaltiger Unterschied zu einem "Projekt" wo man schon seid Jahren Gewinne, wenn auch keine gewaltigen, einfährt, und die Entwicklungen eh für die Zukunft braucht (APU). Bei AMD ist das eine Symbiose, die notwendig ist, sonst könnten Sie den Laden direkt zu machen. Und das ziehen Sie auch knall hart durch!

2. Ich kritisiere nur, das nVidia sich eben nicht voll rein hängt, sondern mit minimalem Aufwand versucht in einem Markt etwas zu reisen, in dem mit harten Bandagen gekämpft wird, und selbst Teilnehmer, die schon lange Jahre dabei sind UND Gewinne machen, sich überlegen ob Sie dabei bleiben oder nicht...

So wie nVidia das macht, ist es auf jeden Fall voll fürn Arsch. Da könnte man sich das Geld wirklich sparen, denn wenn Sie genau so weiter machen wie jetzt, machen Sie auch in 10 Jahren noch Verlust mit der Sparte... Und das ist doch wohl nicht Ziel eines Unternehmens oder?

Hugo78
2013-02-02, 20:50:05
Da sich die jeweils verbauten 4,7 Zoll IPS Panel genauso wie die Akkukapazität nur marginal unterscheiden ist die Ursache somit leicht zu finden.
-> Die Kombination aus LED Backlight und IPS Panel ist bei beiden LG Produkten eine Katastrophe das es schlimmer kaum geht.

(...)

Richtig peinlich denn das sollte eigentlich zur absoluten Kernkompetenz bei LG zählen ;)

Ok, überredet... :anonym:

Ailuros
2013-02-03, 19:46:02
zum glück macht AMD mit ihren GPUs von jahr zu jahr grosse gewinne ;D

du kannst es drehen wie es dier am bessten passt, aber am ende hat NV mit T2 und T3 alles richtig gemacht und das zeigen auch die vielen produkte die damit auf dem markt sind doch eindeutig, und die verkaufszahlen sprechen für sich.

AMD hat bis jetzt ueberhaupt keinen Standfuss im mobile SFF Markt, waehrend NV (GoForce1 und 2 mitberechnet) schon bei ihrer 6. mobilen "Generation" sind, davon 4 "Generationen" mit eigen entwickelten SoCs. Bis zum Fruehling 2012 nach JPS Statistiken hatten NV knapp 1/10 vom Marktanteil dass nur Qualcomm hat. Wo und wie genau sprechen irgendwelche Verkaufszahlen fuer sich? Ohne sehenswerte Verkaufsvolumen im smartphone Markt sind eine relativ gute Anzahl an tablet design wins mit relativ geringem Volumen fuer tablets nur ein paar Erbsen im grossen Topf. Tegra3 groesster Volumen-Deal ist das Nexus7 das gerade erst ende Januar die 6 Mio Stueck erreicht hat und dieses sogar bei relativ geringem Preis damit der Preis auch relativ niedrig ausfallen konnte.

Dagegen hat Samsung fuer 2012 ein gutes Stueck ueber 200Mio smartphones verkauft und projeziert fuer 2013 sind >300Mio.

beim T4 muss man halt noch etwas abwarten wie sich das ganze entwickelt, die marktlage ist für NV mit diesem produkt sicher nicht mehr so "einfach" wie noch mit T2 und T3.

Abwarten sicher; aber da T2 und T3 kombiniert bis zum Fruehling 2012 einen Marktanteil von ca. 3+% fuer NV erreichen konnten, ist das Prozentual bis zum Fruehling 2013 garantiert nicht bombastisch gestiegen ergo bin ich mal sehr groesszuegig und projeziere 2x Mal so viel bis Fruehling 2014 T40, AP40 und Grey kombiniert. Die Frage ist dann hier lediglich wie genau und von wo diese Verdoppelung so einfach kommen soll.

übrigens ist es völlig normal das man in einem neuen produkte bereich kein gewinn schreibt und tegra ist halt noch immer relativ neu, man muss zuerst ja alles aufbauen und so was passiert nirgends von heute auf morgen. :rolleyes:

und falls du es immer noch nicht bemerkt hättest, NV hat sich schon lange neben den GPUs voll auf tegra fokusiert.

Und eine GPU IP Schmiede die verdammt jung ist wie Vivante (die bis gestern fast keiner kannte) hat in der Zwischenzeit nicht nur mehr Integrierung als NV's SoC gesehen sondern hat NV durch Freescale einen ziemlich grossen Deal fuer BMW aus den Haenden geschnappt, eben weil Vivante's GPU IP voll OpenCL1.0 kompliant ist und ueber GPGPU faehig.

Verlust ist nicht nur die relativ geringen finanzielle Einzelheiten die man in NV's finanziellen Resultaten sieht, sondern genau die Flecken wo NV etliche Male den kuerzeren ziehen musste. Rechne auch gleich noch Amazon und Volkswagen dazu wo Texas Instruments ihnen ebenso die deals aus den Haenden geschnappt hat. Der Amazon deal war fuer 2012 ueber 12Mio Einheiten schwer.

Skysnake
2013-02-03, 23:25:39
Dagegen hat Samsung fuer 2012 ein gutes Stueck ueber 200Mio smartphones verkauft und projeziert fuer 2013 sind >300Mio.

Und es könnten aktuell wohl sogar noch deutlich mehr sein! Meine Freundin wollte sich nen Galaxy S3 holen, weil Sie unbedingt eins haben wollte... Hab zwei Monate versucht ihr das aus zu reden, aber gut, Sie wollte es haben... also seis drum. Also bei guenstiger.de und idealo.de geschaut und mal beim MM. Das geile war, der Mensch von MM hat gleich abgewiegelt, und gemeint, Sie hätten keine, und wüssten auch nicht, wann Sie welche kommen. Er hätte seid 6 Wochen keine mehr bekommen, und hat auch noch 160 Stück an ausstehenden Lieferungen, die er so praktisch auch schon verkauft hat :freak:


Verlust ist nicht nur die relativ geringen finanzielle Einzelheiten die man in NV's finanziellen Resultaten sieht, sondern genau die Flecken wo NV etliche Male den kuerzeren ziehen musste. Rechne auch gleich noch Amazon und Volkswagen dazu wo Texas Instruments ihnen ebenso die deals aus den Haenden geschnappt hat. Der Amazon deal war fuer 2012 ueber 12Mio Einheiten schwer.
/sign

Einfach nur /sign nVidia tritt auf der Stelle, weil Sie sich eben nicht voll rein hängen, und in dem Markt kommt man halt nicht weit, wenn man sich nicht voll rein hängt.

Ailuros
2013-02-04, 20:58:32
Und es könnten aktuell wohl sogar noch deutlich mehr sein! Meine Freundin wollte sich nen Galaxy S3 holen, weil Sie unbedingt eins haben wollte... Hab zwei Monate versucht ihr das aus zu reden, aber gut, Sie wollte es haben... also seis drum. Also bei guenstiger.de und idealo.de geschaut und mal beim MM. Das geile war, der Mensch von MM hat gleich abgewiegelt, und gemeint, Sie hätten keine, und wüssten auch nicht, wann Sie welche kommen. Er hätte seid 6 Wochen keine mehr bekommen, und hat auch noch 160 Stück an ausstehenden Lieferungen, die er so praktisch auch schon verkauft hat :freak:

Zum surfen oder videos/Filme anschauen ist so ein Pantoffel-smarthphone ideal; fuer meinen Geschmack schon etwas zu gross. Es war eben so dass so lange Samsung's smartphones aehnlicher aussahen als iPhones, hat Samsung angeblich ein rechteckiges Geraet-Design kopiert und so bald sich Samsung zu differenzieren versuchte ist es zu gross....wie immer liegt natuerlich die Wahrheit irgendwo in der Mitte und jeder sollte sich kaufen was im am besten steht und andere in Ruhe lassen.

Das Ganze ist zwar OT aber die Dinger sind auch ein klein bisschen umstaendlich bei der Bedienungs-freundlichkeit; bei Apple i-Quark hat man eben leider oefters den Vorteil eines KISS Konzepts und anderen Differenzen wofuer aber Apple auch ein ziemliches premium (fuer meinen Geschmack nicht immer gerechtfertigt) verlangt. Ich will hoffen dass ich jetzt nicht fuer das obrige von den gegenseitigen fanboys wieder gelyncht werde.


Einfach nur /sign nVidia tritt auf der Stelle, weil Sie sich eben nicht voll rein hängen, und in dem Markt kommt man halt nicht weit, wenn man sich nicht voll rein hängt.

Sie waeren schon verrueckt wenn sie mit vollem ramtamtam antanzen wuerden und resourcen nur so zum Fenster rauswerfen wuerden. Diesbezueglich gibt es nichts einzuwenden; ich bin lediglich so naiv und stur von einem Graphik IHV die staerkste Konzentration auf der GPU Seite zu erwarten. Mit was genau differenziert sich Tegra4 als quad CPU SoC genau von all den anderen quad CPU SoCs die schon erhaeltlich sind oder noch ankommen werden? Gravierend bessere GPU Leistung und schon gar nicht mehr Funktionalitaeten sind es auf jeden Fall nicht.

Ich wundere mich machen NV employees bis jetzt bei OGL_ES API Definierungs-drafts ueberhaupt mit oder schnarcht irgend jemand einfach die Zeit nur rum um NV's Existenz in den drafts zu gerechtfertigen?

Hugo78
2013-02-07, 16:41:31
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=44927&d=1360251137

HTC will offenbar schon vor der MWC am 19. Feb. sein neues Flagschiff vorstellen und
spart hier auch nicht mit Seitenhieben auf seine Mitbewerber.
- http://blog.htc.com/2013/02/a-brief-history-of-photography/

Wie auch immer, ...
"HTC kicks off a new sound and camera experience in 2013" klingt mMn. verdächtig nach Tegra 4. :naughty:

Label
2013-02-07, 17:48:54
Wie auch immer, ...
"HTC kicks off a new sound and camera experience in 2013" klingt mMn. verdächtig nach Tegra 4. :naughty:

Da geht es wohl eher um Ultrapixel (http://www.areamobile.de/news/23538-htc-m7-ultrapixel-kamera-starttermin-im-maerz-und-uvp-von-650-euro)

Skysnake
2013-02-07, 18:01:42
Also Qualcomm haut hier mal richtig fett auf die Kacke bzgl nVidia und Tegra ;D

http://www.tomshardware.de/Qualcomm-Snapdragon-Nvidia-Tegra-Prozessoren,news-248736.html

Ailuros
2013-02-07, 18:10:52
Also Qualcomm haut hier mal richtig fett auf die Kacke bzgl nVidia und Tegra ;D

http://www.tomshardware.de/Qualcomm-Snapdragon-Nvidia-Tegra-Prozessoren,news-248736.html

Ein reiner marketing PR gegen die T4 marketing PRs seitens NV sonst nichts. Qualcomm's kommender quad Krait@2.3GHz mit um einiges mehr Bandbreite und einer staerkeren GPU als Adreno320 ist zwar schwer zu uebersehen, aber NV scheint diesmal ziemlich heftig in Leistung dazuzulegen wenn es zur GPU kommt.

Momentan erreicht ein S4 PRO von Qualcomm mit einer Adreno320 in smartphones rund 2.5x Mal mehr GPU Leistung als ein Tegra3 fuer tablets. NVIDIA legt mit T40/tablets zwischen 3x und 4x Mal zu wenn es zur GPU Leistung kommt minus etwas weniger GPU Frequenz fuer smartphone Varianten des SoCs und der Abstand zum kommenden Qualcomm SoC koennte relativ gering sein. Wo es bei AP40/smartphones hapern koennte im Vergleich zu Qualcomm's Gegenangebot fuer smartphones ist der Stromverbrauch und dass das LTE modem auf T4 noch nicht voll integriert ist.

Uebrigens ist die Verlinkung auf den digitimes newsblurb dass T4 nur Toshiba als design-win hat falsch. Man kann Vizio z.B. auch noch dazuzaehlen, eben weil NV meistens mit der Anzahl von design wins protzt, wobei natuerlich Verkaufsvolumen pro design win total "nebensaechlich" sind :wink:

Besser so?

Dural
2013-02-07, 18:22:02
Also Qualcomm haut hier mal richtig fett auf die Kacke bzgl nVidia und Tegra ;D

http://www.tomshardware.de/Qualcomm-Snapdragon-Nvidia-Tegra-Prozessoren,news-248736.html


Wenn sich ein CMO so extrem gegen ein Konkurenz Produkt äussert kann das ja nur eins bedeuten: Qualcomm hat wohl richtig angst vor NV :wink:

Ailuros
2013-02-07, 18:42:40
Wenn sich ein CMO so extrem gegen ein Konkurenz Produkt äussert kann das ja nur eins bedeuten: Qualcomm hat wohl richtig angst vor NV :wink:

Mit den bruellenden Verkaufszahlen die Qualcomm macht zittern sie sicher konstant von Ehrfurcht. Der SFF Markt und ueberhaupt wenn man eine SoC Hersteller ist, braucht unter normalen Umstaenden kein beschissenes marketing. Der Endverbraucher kauft kein Produkt von Qualcomm oder NVIDIA ein sondern ein HTC, Samsung, Sony oder weiss der Geier was noch smartphone oder tablet. In der Mehrzahl der Faelle weiss der Endverbraucher nichtmal was in A, B oder C drinsteckt, mit Aussnahme natuerlich einigen tech-freaks wie wir.

NVIDIA hat mit dem albernen Marketing angefangen und es ist stinknormal dass darauf jemand wie Qualcomm antworten wird.

Vielleicht hilft es: http://www.xbitlabs.com/news/other/display/20121205223049_Qualcomm_Becomes_World_s_Fastest_Growing_Semiconductor_Company.ht ml

Skysnake
2013-02-07, 22:06:47
Und das Sie eben pissed sind, auch wegen kleiner Deal, die ihnen flöten gehen, weil nVidia Luftschlösser baut...

Die wollen denen halt berechtigt die Luft aus den Segeln nehmen. Aber genau so was kommt halt von dem halbgaren agieren von nVidia...

Ailuros
2013-02-08, 09:36:04
Und das Sie eben pissed sind, auch wegen kleiner Deal, die ihnen flöten gehen, weil nVidia Luftschlösser baut...

http://www.nvidia.com/object/tegra-superphones.html

Waeren es brutal mehr wuerde NV nicht davon zurueckscheuen mehr anzugeben. Der HTC X design win war geteilt zwischen NV und Qualcomm, da die T3 Varianten in Bereichen veroeffentlicht wurde wo man kein LTE brauchte. Solche Einzelheiten sind innerhalb Qualcomm's Erwartungen und sie werden jetzt nicht noch extra non-LTE SoCs entwickeln um diesen Marktanteil zu bedienen. Ein weiteres Beispiel waere Blackberry Z10: mit LTE Qualcomm S4, ohne LTE Texas Instruments OMAP4470.

Mit zwei halbwegs sehenswerten smartphone design wins die nichtmal exklusiv fuer NV fuer das spezifische Modell sind, kann es Qualcomm mehr als egal sein.

Die wollen denen halt berechtigt die Luft aus den Segeln nehmen. Aber genau so was kommt halt von dem halbgaren agieren von nVidia...

Ich persoenlich wuerde als Firma nicht reagieren.

Skysnake
2013-02-08, 09:46:15
Du kennst doch nVidias Marketing. ;D

Als Konkurrent wäre ich da irgendwann auch einfach nur noch pissed. Ich kann das auf menschlicher Ebene 100% nachvollziehen.

Hugo78
2013-02-08, 11:07:28
Qualcomm CEO Anand Chandrasekher ist Ex-Intel, der ist weder pissed noch hat er Angst,
der macht nur das was er bei Intel gelernt hat und holt auf, was Qualcomm bisher völlig fehlte.
Selbstbewusstes Marketing.

Wie schon Anandtech schreibt:

Obviously Qualcomm doesn't need any help getting its SoCs and baseband chips into smartphones and tablets, but what it does need is guidance on the marketing side. Intel and NVIDIA are both well known for being very aggressive with their marketing.
- http://www.anandtech.com/show/6135/anand-chandrasekher-joins-qualcomm

So.

Jetzt noch mal zum THG Interview.
Denn mit seiner Aussage, "We believe our Snapdragon 600 outperforms Tegra4 ..." dürfte er Nvidias PR grad Munition geliefert haben.
Denn die Adreno 320 GPU im S600 mag ja 2-3 mal flinker als Tegra 3s GPU sein, aber Tegra 4 hat 6 mal mehr GPU Leistung an Bord.

Also CPU seitig mag S600 mithalten, aber bei der GPU muss schon S800 mit Adreno 330 GPU her,
von der Qualcomm selber sagt, diese sei doppelt so schnell wie Adreno 320.

Da geht es wohl eher um Ultrapixel (http://www.areamobile.de/news/23538-htc-m7-ultrapixel-kamera-starttermin-im-maerz-und-uvp-von-650-euro)

Das klingt zwar auch spannend, aber wenn da ein S4pro drin steckt, meh ... Hugo do not want. :D

Undertaker
2013-02-08, 11:26:33
Denn mit seiner Aussage, "We believe our Snapdragon 600 outperforms Tegra4 ..." dürfte er Nvidias PR grad Munition geliefert haben.
Denn die Adreno 320 GPU im S600 mag ja 2-3 mal flinker als Tegra 3s GPU sein, aber Tegra 4 hat 6 mal mehr GPU Leistung an Bord.

Also CPU seitig mag S600 mithalten, aber bei der GPU muss schon S800 mit Adreno 330 GPU her,
von der Qualcomm selber sagt, diese sei doppelt so schnell wie Adreno 320.

1,9 GHz QC Krait = 1,8-1,9 GHz QC A15? Don't think so. GPU getraue ich mir nicht einzuschätzen.

Ailuros
2013-02-08, 11:54:01
Qualcomm CEO Anand Chandrasekher ist Ex-Intel, der ist weder pissed noch hat er Angst,
der macht nur das was er bei Intel gelernt hat und holt auf, was Qualcomm bisher völlig fehlte.
Selbstbewusstes Marketing.

Wie schon Anandtech schreibt:

- http://www.anandtech.com/show/6135/anand-chandrasekher-joins-qualcomm



Genau.

Jetzt noch mal zum THG Interview.
Denn mit seiner Aussage, "We believe our Snapdragon 600 outperforms Tegra4 ..." dürfte er Nvidias PR grad Munition geliefert haben.
Denn die Adreno 320 GPU im S600 mag ja 2-3 mal flinker als Tegra 3s GPU sein, aber Tegra 4 hat 6 mal mehr GPU Leistung an Bord.

Du verwecheselst NV's eigene Aussagen; 6x Mal ist das theoretische Maximum wobei NV ziemlich deutlich war/ist dass T4 zwischen 3x und 4x Mal schneller ist in Spielen und public benchmarks.

In GLBenchmark2.5 landet der 320@400MHz etwas ueber 3800 frames und T30/tablet 1490 frames; wie ich vorher sagte ein Unterschied von 2.5x.

Nach Qualcomm's eigener roadmap soll Adreno330@450MHz um 30% schneller sein. Ergo nach spekulativer Mathe 3800+30% = knapp unter 5000 frames.

T30 = 1491 * Faktor 4.0 = 5964 frames
AP30/smartphone taktete bei 416MHz fuer die GPU gegen 520MHz im T30/tablet, ergo ein Unterschied von 20%.
Sind es wieder 20% Taktunterschied kommt mit dem spekulativen Zeug in etwa 4700 raus.

Ob jetzt die eine Loesung ein paar Prozent mehr oder weniger liefert ist doch ziemlich wurscht. Was eher zaehlt ist perf/mW.

Also CPU seitig mag S600 mithalten, aber bei der GPU muss schon S800 mit Adreno 330 GPU her,
von der Qualcomm selber sagt, diese sei doppelt so schnell wie Adreno 320.

Siehe oben. Ich hab sogar ein paar Fetzen Einblick fuer den noch nicht oeffentlichen GL2.7 aber ich noch nix verrraten duerfen ;)

Blediator16
2013-02-08, 21:29:31
Nexus 7 Successor Will Ditch Nvidia, Opt for Qualcomm Instead, Says Report

http://www.technobuffalo.com/2013/02/08/google-nexus-7-qualcomm-chip/

Scheinbar bewahreiten sich eure Aussagen.

Skysnake
2013-02-08, 21:57:13
Tja, in dem Marktsegment wird halt mit ganz harten Bandagen gekämpft...

Der Krieg gegen AMD ist da nen Kindergeburtstag gegen.

Hugo78
2013-02-08, 23:32:09
Was diesen Nexus 7 Nachfolger angeht,
da wäre Tegra 4 sicher auch einfach noch nicht in den Mengen lieferbar, die Google aktuell braucht, selbst wenn Google dafür Tegra wollte.

@Undertaker
Ich kann das Krait Zeug immer so schlecht einschätzen.
Für mich ist der S600 ein leicht gepimpter S4pro, sollte immernoch langsamer als 4*A15 bei gleichem Takt sein,
aber ich bin hier einfach zu sehr DAU, also kann der S600 CPU seitig ruhig gleichwertig sein, mir gings primär um den GPU Speed. :smile:

@Ailuros
Also kurz, Tegra 4 wäre nur knapp hinter S800, wenn dein Rechenbeispiel so zutrifft?!
Dann sind die Aussichten für paar gute Deals dieses Jahr doch richtig gut, vorrausgesetzt der Preis stimmt und es hakt nicht noch irgendwo.

Langfristig seh ich den Kampf gegen Größen wie Apple (wenn auch nicht direkt), dann Qualcomm,
Intel und den von der chinesischen Zentalbank vollständig subventionierten Huawei/ZTE & Co., als nicht machbar an für Nvidia.

Nvidia braucht hier ne Nische für Tegra abseits vom Billigsegment.

Skysnake
2013-02-09, 00:41:26
Machst du es dir da nicht etwas einfach?

nVidia hat halt z.B. kein LTE mit drin, wenn ich das jetzt richtig verstanden habe. Das kostet direkt mal ein paar Deals, weil man hier eben wieder zusätzlichen Aufwand betreiben muss, und so etwas scheut man.

Zu deinem abschließenden Satz:
Wo soll den die Nische für nVidia sein?

Und noch dringender. Reicht nVidia in Anbetracht der zukünftigen Desktop/Server Entwicklung überhaupt eine Nische zum überleben?

Hugo78
2013-02-09, 01:40:03
LTE haben sie ja jetzt mit dem i500.

Die Nische ist natürlich schwer zufinden, denn dafür braucht man Features, die niemand anderes bietet wie ebend "One Shot HDR".

Oder man geht Apples Weg, ein Alleingang, den ich selber aber auch nicht für realistisch halte.
Wen gleich nicht völlig unrealistisch, grade im Vergleich zu LG.

Man könnte Nvidia als Marke im Smartphone Markt aufbauen, nur sind die Mittel ggü. den Großen halt beschränkt.

robbitop
2013-02-09, 08:31:23
Wenn man für LTE aber einen extra Chip verbauen muss, während es Alternativen gibt, bei denen das mit auf dem SoC verbaut ist, ist das schon mal ein negativer Punkt. Dazu das geringere Featureset und die stromhungrigen A15 (die ihre Performance aufgrund der TDP Hemmschwelle + Throtteling selten ausspielen können) noch dazu.
Ich würde im Moment als Hersteller auch eher Krait verbauen. Qualcomm hat recht gute SoC. Custom ARM mit guter Performance/Leistungsaufnahme Rate + relativ gute GPUs mit den Adreno 3xx.

Der A15 wird IMO erst mit 20 nm so richtig sinnvoll sein, weil er dann wohl nicht mehr so viel Leistung aufnimmt.

Ailuros
2013-02-09, 09:21:52
Was diesen Nexus 7 Nachfolger angeht,
da wäre Tegra 4 sicher auch einfach noch nicht in den Mengen lieferbar, die Google aktuell braucht, selbst wenn Google dafür Tegra wollte.

Asus war tatsaechlich supply limited fuer das Nexus7 deshalb sind es "nur" 6 Mio Einheiten bis Januar 2013 seit der Vorstellung. Qualcomm hat aber auch zumindest eine Milliarde $ investiert um zusaetzliche 28LP Kapazitaeten und Prioritaeten zu sichern. Und jetzt frage ich nochmal anhand der bisher von mir gelieferten Daten, was genau ist so schwer daran zu verstehen dass Qualcomm mit ihrer Groesse und verfuegbaren resourcen zich Mal anrichten kann als NV in dem Bereich?

@Undertaker
Ich kann das Krait Zeug immer so schlecht einschätzen.
Für mich ist der S600 ein leicht gepimpter S4pro, sollte immernoch langsamer als 4*A15 bei gleichem Takt sein,
aber ich bin hier einfach zu sehr DAU, also kann der S600 CPU seitig ruhig gleichwertig sein, mir gings primär um den GPU Speed. :smile:

Ist doch relativ wurscht; OEMs geht es eher um perf/W selbst bei tablet designs. Im Gegenfall haette theoretisch auch ein Exynos5250 im Nexus7 stecken koennen und fast 3x Mal schneller sein koennen als das heutige Resultat oder? 5250 verbratet peak 8W....Du wolltest sagen?

@Ailuros
Also kurz, Tegra 4 wäre nur knapp hinter S800, wenn dein Rechenbeispiel so zutrifft?!

Wenn sich NV nicht wieder ihren Arsch abluegt mit ihren Projektionen ja. Das aber liegt aber im vorigen Paragraph und noch spezifischer perf/mW fuer smartphone SoCs.

Dann sind die Aussichten für paar gute Deals dieses Jahr doch richtig gut, vorrausgesetzt der Preis stimmt und es hakt nicht noch irgendwo.

Errrr siehe oben.

Langfristig seh ich den Kampf gegen Größen wie Apple (wenn auch nicht direkt), dann Qualcomm,
Intel und den von der chinesischen Zentalbank vollständig subventionierten Huawei/ZTE & Co., als nicht machbar an für Nvidia.

Huawei/ZTE sind lediglich Handy-Hersteller bzw. OEMs wie LG, Asus usw. Huawei/ZTE und dergleichen kaufen u.a. SoCs von HiSilicon, MediaTek und dergleichen ein. Von den Chinesischen SoC Herstellern haben HiSilicon, MediaTek, Allwinner und Ingenic bis jetzt IMG GPU IP lizenziert, die ersten zwei sogar Rogue.

Nvidia braucht hier ne Nische für Tegra abseits vom Billigsegment.

NV muss tonnenweise mehr Resourcen in den Markt werfen wenn sie wirklich ernsthaft mitspielen wollen. Sowohl in Herstellungs-Kapazitaeten als auch in SoC Entwicklung selber. Ich leg zwar meine Hand nicht ins Feuer dass Grey tatsaechlich in Indien entwickelt wurde, aber wo immer ich es bis jetzt erwaehnt habe hat keiner "nein" gesagt. Es wurde eben nach den Infos nicht in der US entwickelt weil es nicht genug resourcen gab. Und bevor mir jemand mit angeblich billigeren Loehnen in Indien kommt, ich wuesste nicht warum grosse Konzerne in letzter Zeit einen fetten Batzen an Entwicklung bzw. Herstellung in die US schieben ;)

***edit: es sieht zwar nach aussen so aus als ob ich ein "die hard IMG fanboy" bin aber bei denen ist auch nicht alles so wie es sein sollte. Wie es aber auch sein mag "off the record" und privat donnerts von meiner Seite schon gegen deren obrigem Management's idiotischen Entscheidungen, aber sonst insgesamt haben sie laut JPR im Fruehling 2012 einen GPU Marktanteil von 50% gegen 33% Qualcomm und 3,2% fuer NVIDIA. Auf sturem GPU IP Nivaeu sind es 80% Marktanteil und Vivante hat einen groesseren Anteil als ARM mit GPU IP bis jetzt eben weil Vivante's IP GPGPU faehig ist. Entwickler konzentrieren sich hauptsaechlich auf das groesste Volumen und nein es werden keine mobilen Spiele selbst fuer iOS fuer ein 554MP4 Monster spezifisch entwickelt, sondern eher SGX535/540 ungefaehr Nivaeu.

Anders die ganze Affaere ist um zich Male komplizierter als sich nur auf Marktanteile, Resourcen, Firmen-Groessen zu konzentrieren. Ich habe zwar kein Zweifel dass NV langfristig im SFF Markt wachsen wird, aber es wird schon einige Zeit dauern und das hauptsaechliche Problem hier ist dass sie nicht nur Intel bzw. AMD (fuer wie lange?) wie fuer GPUs gegenueber haben sondern eine um einiges groessere Anzahl von Konkurrenten die auch eine Unmenge von resourcen aufwenden koennen. Ohne ernsthafte Volumen zu erreichen werden sie auch keine ISVs mit ULP GFs beinflussen koennen.

Ja es gibt Tegra spezifisch "optimierte" Spiele in begrenzter Anzahl, aber fragt doch mal nach was die Optimierungen genau betreffen.

Skysnake
2013-02-09, 09:27:01
Weil gutes Marketing für die Verkäufe in den USA :tongue:

Ne hast ja Recht. Auch in Indien gibt es nicht mehr alles zum Spotpreis... Deswegen ziehen ja auch Heuschrecken wie Nokia ins nächste Billiglohnland weiter :down:

Zu deinem letzten Absatz:
Wäre es nicht erstmal absolut ausreichen, wenn man wenigstens mal kein Minus mit der Sparte macht?

Das würde mir für zwei Jahre ausreichen.

Ailuros
2013-02-09, 09:41:09
Weil gutes Marketing für die Verkäufe in den USA :tongue:

Ne hast ja Recht. Auch in Indien gibt es nicht mehr alles zum Spotpreis... Deswegen ziehen ja auch Heuschrecken wie Nokia ins nächste Billiglohnland weiter :down:

Zu deinem letzten Absatz:
Wäre es nicht erstmal absolut ausreichen, wenn man wenigstens mal kein Minus mit der Sparte macht?

Das würde mir für zwei Jahre ausreichen.

Wenn Grey aus der T4 Familie sich anstaendig genug verkauft koennten sie vielleicht die roten Zahlen loswerden aber dann wohl nur IMO break even point oder ein Fetzen darueber.

Die ganze Sache ist auch verdammt kompliziert. IMG als Gegenbeispiel macht zwar Gewinn in letzter Zeit aber trotz bombastischem Volumen bei ueber 300Mio integriertem IP in chips fuer 2012 waren es knapp $100Mio Umsatz mit einer verdammt geringen Gewinnrate. IP hat zwar den Vorteil dass man verdammt viel Volumen erreichen kann, aber die Margen sind auch laecherlich klein. Der royalty pro chip Durchschnitt fuer IMG GPU IP liegt momentan bei irgendwo $0.3 und die Rate wird noch etwas fallen mit den ganzen chinesischen low cost deals. IMG ist zwar statistisch die dritt-groesste IP Firma weltweit aber gegen ARM und dessem riesigem CPU IP Geschaeft sind sie nur Winzlinge; deshalb wohl auch die MIPS acquisition obwohl ich mir selbst aus dieser keine Wunder vorstellen kann (und nein komm mir nicht wieder mit dem albernen MIPS chinesischen low cost Scheiss...).

Ein denkbares Geschaeft waere IP fuer NV nicht unbedingt gewesen wenn es zu Umsatz bzw. Gewinn langfristig kommt, aber das fette Geld von ihren SoCs kommt sowieso spaeter von desktop/notebook SoCs. Alternativ rein theoretisch haetten sie schon von Anfang an nur GPU IP verkaufen koennen, das daemliche waere aber dann wieder dass man fuer IP nicht mehr mit nur zwei hw engineers fuer die GPUs bis zu T3 auskommt.

Ailuros
2013-02-14, 10:41:12
http://www.xbitlabs.com/news/mobile/display/20130213224156_Nvidia_to_Start_Shipping_Tegra_4_Application_Processors_in_July.h tml

Auslieferung July 2013; erste Geraete ab August/September 13'.

-----------------------------------------------------------------------------------------------------

http://www.fudzilla.com/home/item/30459-nvidia-bucks-industry-trend-profits-rise

"We're working around the clock," Huang said. "We'll have some phone success this year but we're not expecting to have a whole lot of phone design wins until we have, until we engage the market, with LTE."

In other words, Nvidia will not have “a whole lot” of phone designs with this Tegra generation, which comes as no surprise.

Ich bin auch nicht ueberrascht im Gegensatz zu vielen anderen. Grey ist der eigentliche Startpunkt fuer mainstream/high volume smartphone design wins.

Skysnake
2013-02-14, 12:00:03
Verständlich. Wer will schon noch nen extra Chip nur für LTE verbauen, wenn man das bei anderen Designs auch mit einem Chip bekommt.

Auslieferungsstart im July 2013 scheint mir aber echt spät. Und mit August/September sollte man eigentlich auch keinen Blumentopf mehr gewinnen oder? Die Chips der Konkurrenz sollten doch da schon auf dem Markt sein, also in Endgeräten.

fondness
2013-02-14, 13:01:09
http://www.xbitlabs.com/news/mobile/display/20130213224156_Nvidia_to_Start_Shipping_Tegra_4_Application_Processors_in_July.h tml

Auslieferung July 2013; erste Geraete ab August/September 13'.


Warum erst so spät? Waren die Chips bei der Vorstellung nicht früher angekündigt? Bis dahin wird es sicher nicht besser für NV, selbst Qualcomm hat dann bereits wieder die nächste Generation am Markt.

Ailuros
2013-02-14, 15:46:27
Warum erst so spät? Waren die Chips bei der Vorstellung nicht früher angekündigt? Bis dahin wird es sicher nicht besser für NV, selbst Qualcomm hat dann bereits wieder die nächste Generation am Markt.

Fudo sagte selber in einem newsblurb dass die T4 hw die sie bis Q4 2012 vom fab erhalten haben nicht produktionsreif war und sie noch einen respin brauchten. So etwas generiert schon leicht eine Verspaetung von 1 bis 2 Quartalen.

Nur Qualcomm? Jensen protzte dass T4 der schnellste tablet chip sein wird bei seiner Erscheinung? Soll ich auf Apple's naechstes tablet deuten oder ist es verstaendlich was ich meinen koennte?

Verständlich. Wer will schon noch nen extra Chip nur für LTE verbauen, wenn man das bei anderen Designs auch mit einem Chip bekommt.

Auslieferungsstart im July 2013 scheint mir aber echt spät. Und mit August/September sollte man eigentlich auch keinen Blumentopf mehr gewinnen oder? Die Chips der Konkurrenz sollten doch da schon auf dem Markt sein, also in Endgeräten.

Siehe oben. Hw respin = Verspaetung.

Skysnake
2013-02-14, 17:19:14
Das ist natürlich ganz schlecht für nVidia.

Da werden sicherlich einige Deals entweder ganz geplatzt sein, oder zumindest Kunden verstimmt gewesen sein. Man muss den Partnern ja rechtzeitig die Roadmaps vorzeigen, damit die auch planen können.

nVidida sollte die ungeplanten Verzögerungen mal abstellen.

Ailuros
2013-02-14, 17:28:01
nVidida sollte die ungeplanten Verzögerungen mal abstellen.

ROFL Du Witzbold? Wie denn genau? Solcher Mist passiert bei jedem IHV ohne jegliche Ausnahme. Das einzige was NV weglassen koennte ist die daemliche Marketing-Trompeterei die sie selber in diesem Markt vorgestellt haben und wenn's schon sein muss erst dann wenn die SoCs erst beim sampling bei ihren Partnern sind. Einfacher: Jensen es reicht mit den Holzschrauben :P

Skysnake
2013-02-14, 17:37:28
WIE Sie das machen, überlasse ich ihnen. Die einzig praktikable Möglichkeit, hast du genannt.

Mir gehts nur darum, das es langsam zur "Gewohnheit" wird, und das kann sich nVidia auf Dauer auch nicht leisten. Damit macht man sich einfach den Ruf kaputt. Vor allem im SFF muss man liefern, sonst ist man schnell weg vom Fenster.

Marty98
2013-02-14, 18:44:18
ein paar News zum Thema Tegra.

"A few outlets incorrectly assumed this meant Q2 of NVIDIA's fiscal year, but I just confirmed with NVIDIA that Jen-Hsun was referring to calendar Q2 - in other words, the period of time between April and June 2013."

http://www.anandtech.com/show/6746/tegra-4-shipment-date-still-q2-2013

"Indeed, according to sources who claim to be familiar with HP's plans, the company intends to roll out a high-end tablet running an Nvidia Tegra 4 processor at some point this year."

http://www.tgdaily.com/mobility-brief/69497-is-hp-going-android-for-tablets

"And now Ouya CEO Julie Uhrman has acknowledged that the two companies are working closely together to optimize the Tegra 3 for use with a wired console, rather than a battery-based mobile device."

http://www.tgdaily.com/games-and-entertainment-features/69493-ouya-and-nvidia-optimizing-tegra-3-soc-for-android-console

Ailuros
2013-02-14, 18:50:21
Zumindest keine Verspaetung. Um einiges besser :)

Hugo78
2013-02-14, 21:14:21
Mit Blick auf den Formfaktor des kleinen Ouya Würfels und dem Fakt das Tegra 4 USB 3.0 mitbringt und 4k "abspielt",
sowie das Thin Client PCs auch nicht grade billig sind (http://geizhals.at/de/?cat=sysdivtc&sort=p), da frag ich mich grad wann wohl jemand einen Thin Client / HTPC mit Tegra4 bringt?

Also ne kleine Linux-Box mit LAN, SDHC Slot, paar USB 3.0 Ports und HDMI,
für 150-200€ das müsste sich immernoch wie geschnitten Brot verkaufen.

Ailuros
2013-02-14, 21:48:11
Keine Ahnung. Eine Idee waere es auf jeden Fall, ebenso wie auch die Moeglichkeit von smartTV SoCs (muss ja nicht unbedingt T4 sein koennte auch T3 werden).

Skysnake
2013-02-15, 00:28:58
Na das hört sich schon viel besser an.

Ne Verspätung wäre echt scheise für nVidia.

Ailuros
2013-02-15, 20:03:44
http://www.fudzilla.com/home/item/30477-nvidia-grey-has-phone-design-wins

Brauchte man wirklich eine Glaskugel fuer Grey?

Skysnake
2013-02-16, 11:50:13
Ja wat denn nu? :ugly:

Jetzt soll Tegra4 doch wieder später kommen, aber Grey dafür früher...

Tegra4 später wäre doof, aber wenn Grey mit integriertem LTE dafür früher kommt, ist das unterm Strich wohl doch ganz ok.

Marty98
2013-02-16, 22:01:23
Tegra 4 soll nicht zu spät kommen. Einer hat die den realen mit dem fiskalen Quartal verwechselt und alle haben es nachgeplappert, bis Anand angefragt hat und er kommt wie geplant Q2.

Ailuros
2013-02-17, 10:30:00
Tegra 4 soll nicht zu spät kommen. Einer hat die den realen mit dem fiskalen Quartal verwechselt und alle haben es nachgeplappert, bis Anand angefragt hat und er kommt wie geplant Q2.

Es war wohl Fudo sonst wuerde er nicht immer noch darauf im obrigen Grey link bestehen. Sowohl Fuad als auch Anand haben ausgezeichneten Zugang zu NV, ergo bleibt abzuwarten was wirklich los ist, aber im gegebenen Fall klingt es mir danach als ob Fudo nicht seinen eigenen Fehler einsehen will.

Der springende Punkt dieser SoC Generation war stets Grey denn NV braucht wirklich anstaendigen smartphone Mark-anteil und dieser laesst sich eben nur durch mainstream SoCs mit LTE erringen. Grey war glaub ich fuer Q3 angeschlagen, ergo ist ein paar Monate frueher (kann auch innerhalb Q3 liegen, aber je frueher stets desto besser) durchaus eine Eulogie fuer NV.

AnarchX
2013-02-19, 15:07:42
Tegra 4i: 4+1 A9 (bis 2,3GHz), 60 Core Geforce und integriertem LTE-Modem
http://www.anandtech.com/show/6753/nvidia-announces-tegra-4i-formerly-project-grey-with-integrated-lte

http://pc.watch.impress.co.jp/img/pcw/docs/588/384/04.jpg
http://pc.watch.impress.co.jp/img/pcw/docs/588/384/07.jpg
http://pc.watch.impress.co.jp/docs/column/ubiq/20130219_588384.html?ref=rss

Hugo
2013-02-19, 15:36:20
wann kann man den mit dem Tegra4i in kaufbaren Geräten rechnen?

AnarchX
2013-02-19, 15:40:01
In terms of time frame, NVIDIA expects the first Tegra 4i designs to begin shipping at the end of 2013, with most devices appearing in Q1 of 2014
http://www.anandtech.com/show/6753/nvidia-announces-tegra-4i-formerly-project-grey-with-integrated-lte

Da konkurriert man wohl dann schon mit SwiftV2-Cores und Rogue-GPUs.

fondness
2013-02-19, 15:48:25
Tegra 4i: 4+1 A9 (bis 2,3GHz), 60 Core Geforce und integriertem LTE-Modem
http://www.anandtech.com/show/6753/nvidia-announces-tegra-4i-formerly-project-grey-with-integrated-lte

http://pc.watch.impress.co.jp/img/pcw/docs/588/384/04.jpg
http://pc.watch.impress.co.jp/img/pcw/docs/588/384/07.jpg
http://pc.watch.impress.co.jp/docs/column/ubiq/20130219_588384.html?ref=rss

Laut NV ist ein A9 also schneller als Krait? LOL. Ansonsten wäre es schön langsam mal Zeit für custom Cores, ob 2014 wen noch ein Quad A9 aus den Socken hauen wird wage ich zu bezweifeln.

Hugo
2013-02-19, 16:21:32
ich denk nen Quad A9 @ 2,3GHz bringt 2014 im wichtigen Mainstream noch genug Leistung.
Aber 2014 find ich ganz schön spät

mboeller
2013-02-19, 16:48:45
Der Die-shot ist ja wieder genauso gefakt wie der vom T4.


Seltsam....Charlie kann mit seiner Einschätzung zum T4 ja nicht so weit daneben liegen ansonsten würde Nvidia nicht jetzt schon, also 8-9 Monate zu früh die Werbetrommel für den Grey ankurbeln. Q1 2014 ist außerdem sehr spät für den Grey. Da wird ja selbst Mediatek zuvor was bringen was besser ist.

Die 2,3GHz glaube ich wenn ich die ersten Benchmarks sehe.

Ailuros
2013-02-19, 17:18:50
Der Die-shot ist ja wieder genauso gefakt wie der vom T4.


Seltsam....Charlie kann mit seiner Einschätzung zum T4 ja nicht so weit daneben liegen ansonsten würde Nvidia nicht jetzt schon, also 8-9 Monate zu früh die Werbetrommel für den Grey ankurbeln. Q1 2014 ist außerdem sehr spät für den Grey. Da wird ja selbst Mediatek zuvor was bringen was besser ist.

Die 2,3GHz glaube ich wenn ich die ersten Benchmarks sehe.

Wieso? ST-Es neuester mainstream FD-SOI SoC taktet seine A9 CPUs auch bei 2.3GHz wenn nicht hoeher je nach Fall; es ist eben nur keine quad-A9 sondern ein "e-quad" mehr in der 2+2 big.LITTLE Philosophie Richtung. Unter der Tatsache dass Grey/T4i auch 28HPM benutzen wird wie Tegra4 ist die Frequenz alles andere als absurd.

Laut NV ist ein A9 also schneller als Krait? LOL. Ansonsten wäre es schön langsam mal Zeit für custom Cores, ob 2014 wen noch ein Quad A9 aus den Socken hauen wird wage ich zu bezweifeln.

Bei 2.3GHz vs. 1.5GHz vielleicht schon; ist aber auch total wurscht da die kommenden Kraits auch auf 2.3GHz takten werden. Fuer mainstream SoCs ist ein quad A9@2.3GHz durchaus sehenswert; heutige mainstream SoCs von Mediatek und Qualcomm haben quad A7 cores bei 1.2GHz.

AnarchX
2013-02-19, 17:23:54
Bei 2.3GHz vs. 1.5GHz vielleicht schon; ist aber auch total wurscht da die kommenden Kraits auch auf 2.3GHz takten werden. Fuer mainstream SoCs ist ein quad A9@2.3GHz durchaus sehenswert; heutige mainstream SoCs von Mediatek und Qualcomm haben quad A7 cores bei 1.2GHz.
Die Folie vergleicht aber bei gleichem Takt. Wohl möglich ist Krait einfach etwas schwach bei SpecINT.

Ailuros
2013-02-19, 18:11:22
Die Folie vergleicht aber bei gleichem Takt. Wohl möglich ist Krait einfach etwas schwach bei SpecINT.

Gibt es irgendwo SpecINT Resultate zwischen mobilen CPUs die man vergleichen koennte? Nicht dass ich NV's Marketing-Gewaesch in solchen Faellen je ernst nehme, denn wenn man das slide ein bisschen schaerfer ueberdenkt ist NV schoen bloed dass sie A15 und nicht A9 cores fuer T4 integriert haben.

Ich haette Anand's Artikel nicht so schlampig durchlesen sollen:

NVIDIA has noted that it using R4 of ARM’s Cortex A9, which includes higher IPC thanks to the addition of a better data prefetching engine, dedicated hardware for cache preload instructions and some larger buffers. NVIDIA believes it is the first to implement the latest version of ARM's Cortex A9 core, however there's nothing stopping others from doing the same.

http://www.anandtech.com/show/6753/nvidia-announces-tegra-4i-formerly-project-grey-with-integrated-lte

Das erklaert natuerlich die Unterschiede.

Ailuros
2013-02-21, 09:19:13
Ich mach jetzt nicht fuer jeden SoC Hersteller einen getrennten Thread auf, aber da einige Zweifel hatten ueber die 2.3GHz mit dem quad A9 (uebrigens hw revision 4 von ARM) hier ein Beweiss dass ST-E sogar noch weiter aufpumpen kann:

http://www.fudzilla.com/home/item/30532-new-st-ericsson-novathor-l8580-to-appear-at-mwc-2013

Sonst relevant zum Thema:

http://www.anandtech.com/show/6771/zte-to-build-tegra-4-smartphone-and-working-on-i500-based-design-as-well

AnarchX
2013-02-24, 23:27:24
http://pc.watch.impress.co.jp/img/pcw/docs/589/158/11.jpg

http://pc.watch.impress.co.jp/img/pcw/docs/589/158/17.jpg
... sollten wohl bei T4i nur 2 Pixelpipelines sein.

http://pc.watch.impress.co.jp/img/pcw/docs/589/158/20.jpg

http://pc.watch.impress.co.jp/docs/column/kaigai/20130225_589158.html?ref=rss

Laut Artikel arbeiten die ALUs mit VLIW.

=Floi=
2013-02-24, 23:45:08
der 4i ist doch eh schon wieder beschiss. was will ich mit nem chip, der nicht voll ist. ich will überall den gleichen chip und nicht wieder 10 verschiedene versionen davon.

AnarchX
2013-02-24, 23:55:17
Was heißt nicht voll? Der 4i ist eben für den Einsatz in Smartphones angepasst.

Gipsel
2013-02-25, 00:11:54
Nette letzte Folie, die FP20 Flops und FP32 Flops munter addiert und vergleicht. Ist so bißchen wie mit den Äpfeln und Birnen.

dildo4u
2013-02-25, 06:29:26
T4 Benches

http://youtu.be/asQUdRKYVrQ

Skysnake
2013-02-25, 08:10:28
Intel bringt so ziemlich die gleichen Features für ihren neuen Chip.

http://semiaccurate.com/2013/02/24/intel-doubles-up-on-phones-with-z2580-clover-trail/#.USsN4VdDcZ0

Bleibt für T4 nur noch die pulsierende Displaybeleuchtung um Strom zu sparen als Alleinstellungsmerkmal oder?

Hugo78
2013-02-25, 08:33:06
der 4i ist doch eh schon wieder beschiss. was will ich mit nem chip, der nicht voll ist.

Tegra 4i ist nicht beschnitten, sondern nur ein kleinerer Ableger.

In etwa wie Qualcomms S600, das aktuell in vielen Neuankündigungen zufinden ist, aber nur im Namen was mit den neuen S800 zutun hat.
Das SoC entspricht technisch "nur" einem übertaktetem S4 Pro.

Ailuros
2013-02-25, 09:57:42
Nette letzte Folie, die FP20 Flops und FP32 Flops munter addiert und vergleicht. Ist so bißchen wie mit den Äpfeln und Birnen.

Der per mm2 Vergleich stockt auch an so manchen Stellen, aber bei solchen Marketing-Folien egal von wem sollte man auch nichts anderes erwarten.

Auf jeden Fall sind die 57fps oder 6400+ frames fuer GL2.5 offscreen 1080p innerhalb Erwartungen basierend auf den bisherigen Geruechten. Bei einer 672MHz Frequenz auch keine besondere Ueberraschung. Wieso gibt es uebrigens keine Stromverbrauch-Folie :D

Ist die ULP GF in T4 bzw. T4i hauptsaechlich ALU limitiert koennte man ca. 5200 frames vom T4i in GL2.5 spaeter erwarten.

Tegra 4i ist nicht beschnitten, sondern nur ein kleinerer Ableger.

In etwa wie Qualcomms S600, das aktuell in vielen Neuankündigungen zufinden ist, aber nur im Namen was mit den neuen S800 zutun hat.
Das SoC entspricht technisch "nur" einem übertaktetem S4 Pro.

Wenn die neuesten Geruechte stimmen musste Samsung ihren octacore Exynos fuer das GalaxyS4 aufgeben und hat es mit einem S600 mit der CPU auf 1.9GHz ersetzt. Wenn's ebenso stimmt dass Samsung fuer 2013 um die 100Mio S4 smartphones auflegen will ein Riesen-Gewinn fuer Qualcomm (falls Samsung in der Zwischenzeit ihren Exynos 5 nicht nochmal aufgelegt hat) und ein Riesen-Verlust fuer IMG (wohl ausserhalb ihrer Kontrolle).

Es passte in letzter Zeit schon etwas schwer in meinen Schaedel wie Samsung den octacore 4*A15 + 4*A7 in ein smartphone quetschen will; als Laie klang mir ein quad Krait mit asynchronen Frequenzen stets als die elegantere Idee von der perf/mW Perspektive. NVIDIA ist diesbezueglich wohl auch nicht total verrueckt dass sie "nur" die letzte aufgepumpte R4 hw revision von CortexA9 cores in T4i integriert hat.

Das eigentliche Problem hat hier IMHO ARM; denn es scheint bis jetzt bei allen Herstellern verdammt problematisch zu sein A15 cores bei anstaendigem power portofolio in ein smartphone quetschen zu koennen. Fragt mich nicht ob es in der absehbaren Zukunft Folgen fuer ARM haben koennte, denn ich muss leider immer noch dicht halten ;)

Intel bringt so ziemlich die gleichen Features für ihren neuen Chip.

http://semiaccurate.com/2013/02/24/intel-doubles-up-on-phones-with-z2580-clover-trail/#.USsN4VdDcZ0

Bleibt für T4 nur noch die pulsierende Displaybeleuchtung um Strom zu sparen als Alleinstellungsmerkmal oder?

Too little too late; im GPU Bereich koennte T4i locker um ueber 50% schneller sein.

Hugo78
2013-02-25, 11:03:24
Wenn die neuesten Geruechte stimmen musste Samsung ihren octacore Exynos fuer das GalaxyS4 aufgeben und hat es mit einem S600 mit der CPU auf 1.9GHz ersetzt.

Ja das was Qualcomm hier letztes Jahr in 28nm investiert hat, zahlt sich jetzt aus.
Man könnte auf NV bezogen jetzt sagen, "hätten sie mal noch ein T3 mit Modem und aufgebohrter GPU" gebracht,
aber ich glaub nicht, dass man das Modem schneller integriert bekommen hätte.
Wobei die Roadmap für T4i arg verspätet ausschaut.

Das eigentliche Problem hat hier IMHO ARM; denn es scheint bis jetzt bei allen Herstellern verdammt problematisch zu sein A15 cores bei anstaendigem power portofolio in ein smartphone quetschen zu koennen.

Kommt mir auch so vor und mich würd es deshalb auch nicht wundern, wenn auch Qualcomms S800 sich verspätet oder langsamer wird als gedacht, weil man ja hier ähnliche "Herausforderungen" meistern muss.

AffenJack
2013-02-25, 11:09:49
Ist die ULP GF in T4 bzw. T4i hauptsaechlich ALU limitiert koennte man ca. 5200 frames vom T4i in GL2.5 spaeter erwarten.


Die wird vor allem Bandbreitenlimitiert sein in T4i, da ja wieder nur Single Channel verbaut ist. Daher sollte man nicht allzu viel von der Performance erwarten denke ich.

YfOrU
2013-02-25, 11:21:34
Kommt mir auch so vor und mich würd es deshalb auch nicht wundern, wenn auch Qualcomms S800 sich verspätet oder langsamer wird als gedacht, weil man ja hier ähnliche "Herausforderungen" meistern muss.

Ähnliche Herausforderungen ja aber nicht in dem Ausmaß. Qualcomm und Apple entwickeln im Gegensatz zu ARM reale Produkte bei gleichzeitig deutlich exakteren Zielfenster (->Smartphone bis Tablet).

Wirklich übel an der aktuellen Situation ist das abseits von Intel alle Hersteller vergleichsweise lange mit einer 28nm Fertigung leben müssen und damit schauen fast alle ohne ISA Lizenz (sowie darauf basierenden) Produkten in die Röhre.

Ailuros
2013-02-25, 15:47:04
Die wird vor allem Bandbreitenlimitiert sein in T4i, da ja wieder nur Single Channel verbaut ist. Daher sollte man nicht allzu viel von der Performance erwarten denke ich.

Best case scenario, haette ich erwaehnen sollen. Tegra3 immer mit single channel aber der TF700 hat deutlich mehr Bandbreite liefert aber nur knapp 22% mehr Leistung bei gleichen GPU Frequenzen:

http://www.glbenchmark.com/compare.jsp?D1=Asus+Eee+Pad+Transformer+Prime+TF201&D2=Asus+Transformer+Pad+TF700T+Infinity&cols=2

Ja das was Qualcomm hier letztes Jahr in 28nm investiert hat, zahlt sich jetzt aus.
Man könnte auf NV bezogen jetzt sagen, "hätten sie mal noch ein T3 mit Modem und aufgebohrter GPU" gebracht,
aber ich glaub nicht, dass man das Modem schneller integriert bekommen hätte.
Wobei die Roadmap für T4i arg verspätet ausschaut.

Um es klar zu machen, den Samsung deal haetten sie schwer gelandet aus vielen Gruenden.

Kommt mir auch so vor und mich würd es deshalb auch nicht wundern, wenn auch Qualcomms S800 sich verspätet oder langsamer wird als gedacht, weil man ja hier ähnliche "Herausforderungen" meistern muss.

What YforU said....schneller getakteter S600 der nach Geruechten im naechsten GalaxyS4 erscheinen soll: http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro25&D=Samsung+SHV-E300S

Wenn auf T4i zu stark der single channel Speicher limitiert wie AffenJack korrekt notiert hat, kann es durchaus sein dass T4i sogar unter dieser S600 Variante in Leistung ankommt. Der spezifische S600 ist schon bei seiner Integration in Geraeten und T4i hat noch nicht mal sein sampling geschafft.

Wenn Q theoretisch den S600 schon auf 1.9GHz CPU und womoeglich GPU auf 480MHz takten kann, was soll sie genau davon abhalten S800 mit 2.3GHz und noch hoeherer GPU Frequenz vorzustellen?

Ailuros
2013-02-25, 16:27:34
Nette letzte Folie, die FP20 Flops und FP32 Flops munter addiert und vergleicht. Ist so bißchen wie mit den Äpfeln und Birnen.

Uebrigens bin gerade darueber gestolpert:

http://forum.beyond3d.com/showthread.php?t=60334&page=69

Wenn Rys sagt dass eeTimes nicht besonders falsch liegt wird es auch stimmen:

http://www.eetimes.com/electronics-news/4407258/Apple-s-A-series-family--More-than-a-hobby

35mm2@32nm sollen genau inwiefern korrekt sein zu jeglicher hypothetischen 28nm Normalisierung die sie behaupten und die GFLOPs fuer den T604 sind brutal um mehr als einen Faktor 2x kastriert.

Noch besser Du kannst so wie sie die anderen GPU Bloecke berechnen die 10.5mm2 fuer die ULP GF im T4 gleich vergessen, ohne jegliche surrounding logic und power islands und weiss der Geier was noch fehlt sicher; aber im marketing block Diagram schmiert man GPU cores so ein dass jemand den Eindruck bekommt dass es ca. 1/4 des area estates bildet....

Hugo78
2013-02-25, 17:20:12
Wenn Q theoretisch den S600 schon auf 1.9GHz CPU und womoeglich GPU auf 480MHz takten kann, was soll sie genau davon abhalten S800 mit 2.3GHz und noch hoeherer GPU Frequenz vorzustellen?

S800 soll ja neben einer stärkeren GPU, auch neue CPU Kerne bekommen im Vergleich zum S600.
Da stellt sich die Frage ob sich diese ebenfalls, wie A15 verhalten.

Ailuros
2013-02-25, 17:26:47
S800 soll ja neben einer stärkeren GPU, auch neue CPU Kerne bekommen im Vergleich zum S600.
Da stellt sich die Frage ob sich diese ebenfalls, wie A15 verhalten.

Ist doch total wurscht. NV erreicht bis jetzt mit ihren Tegras in der groessten Mehrzahl tablet design wins; wieso soll T4 jetzt ploetzlich eine Ausnahme machen? T4i ist dann eine ganz andere Geschichte und hat eben nicht so stromfressende quad A15 wie T4. Wie gesagt fuer smartphones ist perf/mW noch zich Male wichtiger als bei tablets und Qualcomm ist nunmal der zweiffellose Koenig in smartphone SoC design wins.

Aber da Du an S800 schon gezweifelt hast, bitte schoen: http://www.engadget.com/2013/02/25/zte-announces-grand-memo-snapdragon-800/

Hugo78
2013-02-25, 17:34:48
ZTE will auch Tegra 4 Smartphones verbauen.
Und wer Salesking ist, darum ging es doch grad garnicht?!

Nochmal ...
Das eigentliche Problem hat hier IMHO ARM; denn es scheint bis jetzt bei allen Herstellern verdammt problematisch zu sein A15 cores bei anstaendigem power portofolio in ein smartphone quetschen zu koennen.

Und wenn Qualcomm vergleichbar schnelle Cores im S800 verbaut, auch wenn sie nicht 1:1 A15 sind, dann ebend würde es mich nicht wundern das auch S800 so seine Probleme hat im Smartphone Segment.

Ailuros
2013-02-25, 17:40:56
ZTE will auch Tegra 4 Smartphones verbauen.
Und wer Salesking ist, darum ging es doch grad garnicht?!

Wenn es in einer Tegra Debatte um Volumen geht, ist es in allen Faellen (nicht nur bei Dir hier) seltsamerweise irrelevant. Ja und ZTE wird auch von anderen SoCs einkaufen was ziemlich normal ist. Wenn ein Handy Modell zich Mal mehr Millionen verkauft als das andere ist es schon relevant.


Und wenn Qualcomm vergleichbar schnelle Cores im S800 verbaut, auch wenn sie nicht 1:1 A15 sind, dann ebend würde es mich nicht wundern das auch S800 so seine Probleme hat im Smartphone Segment.

Welche denn?

Undertaker
2013-02-25, 17:44:27
Na Leistungsaufnahme beispielsweise. Was das Nexus 4 unter Volllast so zieht, ist schon ziemlich heftig (nämlich fast das doppelte des Exynos 4412/Galaxy S3). Und dort taktet der Quad Core Krait "nur" mit 1,5 GHz.

Ailuros
2013-02-25, 17:52:33
Na Leistungsaufnahme beispielsweise. Was das Nexus 4 unter Volllast so zieht, ist schon ziemlich heftig (nämlich fast das doppelte des Exynos 4412/Galaxy S3). Und dort taktet der Quad Core Krait "nur" mit 1,5 GHz.

Wobei sich keiner im klaren ist bis jetzt ob es im Fall vom Nexus4 nur ein LG Problem ist, denn ich hab bis jetzt nichts ueber Implementierungen von anderen Herstellern lesen koennen. Ausser es hat sich in der Zwischenzeit etwas geaendert throttelt das Nexus4 ziemlich brutal wenn man GLBenchmark ganz durchlaufen laesst. Bei anderen Handys ausserhalb LG gibt es das Problem nicht, aber die Leistung ist eben etwas maessiger.

Nochmal NV weiss genau warum sie fuer smartphone deals eher auf T4i/Grey setzen und eben nicht auf T4. 4*A15 bei jeglicher Frequenz ueber 1.5GHz machen mir um einiges mehr Angst wenn es zu Stromverbrauch kommt als jeglicher gleich getakteter quad Krait. Zugegeben ist Exynos5250 nur ein tablet design, aber die 2*A15@1.7GHz verbraten auch bis zu 4W und ja natuerlich ohne big.LITTLE. Wenn's dann gleich 4 davon geben soll bei gleicher Frequenz oder bis zu 1.9-2.0GHz in tablets muss man sich fragen wie oft die Dinger nicht voll ausgelastet duerfen um die Batterie nicht in Null Komma nichts leer zu saugen.

Undertaker
2013-02-25, 20:01:11
Nochmal NV weiss genau warum sie fuer smartphone deals eher auf T4i/Grey setzen und eben nicht auf T4. 4*A15 bei jeglicher Frequenz ueber 1.5GHz machen mir um einiges mehr Angst wenn es zu Stromverbrauch kommt als jeglicher gleich getakteter quad Krait.

Da bin ich bei dir; allerdings müss(t)en S600/800 auch ziemlich hoch takten, da sie pro-MHz nicht auf Tegra 4 Level sind. T4i dürfte da, sowohl was Leistungsaufnahme als auch Performance betrifft, einfach der passendere Gegner sein.

Kennst du die neuesten Tegra-Slides? Zumindest Nvidias eigene Zahlen sehen T4 in CPU- und GPU-Benchmarks (SpecInt, Sunspider, GLBench etc.) doch um einiges vor dem 8064 sowie einem prognostizierten S800. Leistungsaufnahme hat man dort allergings natürlich nicht verglichen. :D

Hugo78
2013-02-25, 20:08:40
Welche denn?

Im S800 sollen "Krait 400" in 28nm HPM kommen, statt "Krait 300" im 28nm LP (S4 / S600)
- http://www.areamobile.de/news/23275-qualcomm-stellt-neue-quad-core-chips-snapdragon-600-und-800-vor
- http://en.wikipedia.org/wiki/Snapdragon_%28system_on_chip%29#Snapdragon_800

Also mehr Leistung kann auch Qualcomm nicht aus dem Nichts zaubern.
Wenn A15 mehr Saft braucht, dann auch Krait 400.

Ailuros
2013-02-25, 20:27:05
Also mehr Leistung kann auch Qualcomm nicht aus dem Nichts zaubern.
Wenn A15 mehr Saft braucht, dann auch Krait 400.

Sicher nicht; aber sie sind trotz allem ziemlich puenktlich mit ihren release Projektionen.

Da bin ich bei dir; allerdings müss(t)en S600/800 auch ziemlich hoch takten, da sie pro-MHz nicht auf Tegra 4 Level sind. T4i dürfte da, sowohl was Leistungsaufnahme als auch Performance betrifft, einfach der passendere Gegner sein.

Wieviele tablet deals wird Qualcomm genau erreichen?

Kennst du die neuesten Tegra-Slides? Zumindest Nvidias eigene Zahlen sehen T4 in CPU- und GPU-Benchmarks (SpecInt, Sunspider, GLBench etc.) doch um einiges vor dem 8064 sowie einem prognostizierten S800. Leistungsaufnahme hat man dort allergings natürlich nicht verglichen. :D

Natuerlich laesst NV auch mit Absicht jeglichen perf/mW Vergleich weg; nur brutal verdrehte marketing slides ueber die sich so manche momentan krumm lachen. Und ja natuerlich hab ich sie gesehen; wenn wir schon dabei sind kann mir jemand mal eine anstaendige Erklaerung liefern wieso sie z.B. 6x Mal die VS ALUs integriert haben im Vergleich zu T3, waehrend sie am trisetup nichts geaendert haben? (1.3x ist der Taktunterschied). Nicht nur hocken so viele VS ALUs in der Mehrzahl der Faelle dumm rum, sondern werden die VS units nie wirkliche ihre Beine ausstrecken koennen. Bei z/stencil das Gleiche.

Was haelt theoretisch Qualcomm oder jegliches Qualcomm davon aufs Frequenzgas der GPU zu treten wenn es um einen tablet design geht? Ist aber auch ebenso relativ wurscht; NV will Eindruecke gewinnen und endlich den ersten Platz in beliebten mobile GPU benchmarks einnehmen. Verspaeten sie sich nicht dauert es ein paar Monate; bei selbst einer leichten Verspaetung von tablets haben sie wieder den Nachseher und offensichtlich nicht von Qualcomm.

Undertaker
2013-02-25, 20:42:15
Und ja natuerlich hab ich sie gesehen; wenn wir schon dabei sind kann mir jemand mal eine anstaendige Erklaerung liefern wieso sie z.B. 6x Mal die VS ALUs integriert haben im Vergleich zu T3, waehrend sie am trisetup nichts geaendert haben? (1.3x ist der Taktunterschied).

Lustigerweise steht da bei T4i sogar ein Faktor 1.5. ;)

Was haelt theoretisch Qualcomm oder jegliches Qualcomm davon aufs Frequenzgas der GPU zu treten wenn es um einen tablet design geht?

Das wundert mich ehrlichgesagt auch.

Ailuros
2013-02-25, 21:36:23
Lustigerweise steht da bei T4i sogar ein Faktor 1.5. ;)

Tegra4 ULP GF = 672MHz vs. 520MHz (T30) = 1.3x
Tegra4i ULP GF = 660MHz vs. 416MHz (AP30) = 1.5x

Das wundert mich ehrlichgesagt auch.

Der S600 den Samsung wohl fuers GalaxyS4 benutzen wird hat die CPU auf 1.9GHz und den Adreno320 womoeglich von 400 auf 480MHz getaktet.

Undertaker
2013-02-25, 21:44:10
Tegra4 ULP GF = 672MHz vs. 520MHz (T30) = 1.3x
Tegra4i ULP GF = 660MHz vs. 416MHz (AP30) = 1.5x

Ah, da habe ich das Bild zu schnell überflogen. Danke für den Hinweis.

Ailuros
2013-02-26, 09:08:43
Ah, da habe ich das Bild zu schnell überflogen. Danke für den Hinweis.

Die ersten geleakten Resultate von der Dalmore T4 dev Platform duerften mit einer GPU Frequenz von irgendwo 375MHz gewesen sein. In den GL2.5 Geometrie-Tests lag dieses meistens auf T3 Niveau und stellenweise etwas darunter. Natuerlich wird am Ende bei 672MHz um einiges mehr herauskommen bei T4 vs. T3, aber der trisetup wird leider nach wie vor limitieren.

Uebrigens hat die GPU nach wie vor Zugang afaik zum 2MB L2 cache der CPU/SoCs, sonst wuerde es zu viel Bandbreite fressen. Ich bin neugierig was Kishonti genau im GLB2.7 angestellt hat; dass es tonnenweise alpha tests mit all dem Gruensalat der Vegetation hat kann man kinderleicht sehen in den preview videos; mal sehen wie es SGX bewaeltigt da scissoring komischerweise (fuer einen TBDR) nicht eine seiner staerken ist. Hat aber 2.7 so viel back to front overdraw wie ich gehoert habe koennte es IMRs ziemlich stark belasten.

=Floi=
2013-02-28, 07:09:31
es gibt von anderem herstellern, wo die sim version einen dualcore arm besitzt und die normale tabletversion einen quadcore hat. ich habe angst, dass es hier auch so werden wird...

Ailuros
2013-02-28, 08:56:37
es gibt von anderem herstellern, wo die sim version einen dualcore arm besitzt und die normale tabletversion einen quadcore hat. ich habe angst, dass es hier auch so werden wird...

Es wird auch Hersteller geben die mir nichts dir nichts einen quad A15 in einem smartphone haben moechten mehr aus Marketing-Gruenden. Es ist ja auch nicht so dass Samsung fuer den Exynos 5410 quad A15 auch wirklich "braucht".

Wie dem auch sei fuer smartphones ist T4i nahezu ideal IMHO. Hier muss ich NV wirklich den Hut abnehmen fuer die CPU Wahl; eine neueste hw Revision vom Cortex-A9 dessen IPC sogar einem Krait den Hintern versohlen kann und taktet auch wunderbar auf 2.3GHz mit geringer die area und Stromverbrauch.

Ehrlich gesagt frage ich mich wieso T4 nicht sogar besser angelegt waere mit einer T4i quad A9 R4 CPU dann eben halt bei =/>2.5GHz. Es ist eben nicht so dass Apple's dual core Swift@1.4GHz (MC zur Seite) besser dasteht als das letztere; im Gegenteil waere der Unterschied mit einer >2.5GHz Frequenz mehr als nur sehenswert.

Skysnake
2013-02-28, 10:29:32
Du meinst >2.5GHz A9er wie von ST-Ericsson?

http://semiaccurate.com/2013/02/26/st-ericsson-shows-off-3-0ghz-arm-a9-tablet/#.US8jNFdDcZ0

Ailuros
2013-02-28, 17:43:14
Du meinst >2.5GHz A9er wie von ST-Ericsson?

http://semiaccurate.com/2013/02/26/st-ericsson-shows-off-3-0ghz-arm-a9-tablet/#.US8jNFdDcZ0

Der L8580 von ST_E taktet in der Zwischenzeit schon auf 3.0GHz aber ich bezweifle dass sie R4 Cortex A9 benutzt haben; ist aber auch mit dem FDSOI Zeug hergestellt.

Skysnake
2013-02-28, 18:43:01
Ich weis, dass die mit 3.0 GHz takten, ich wollte nur das man den Text auch liest ;)

Bzgl A9:
Keine Ahnung, was die da für einen genau verwenden. Aber man wird schauen müssen, wie sich Tegra dagegen schlägt.

Ailuros
2013-02-28, 19:58:13
http://arstechnica.com/gadgets/2013/02/future-of-mobile-cpus-part-2-whats-ahead-for-the-major-players/

Eine ziemlich gute und einfache Zusammenfassung vom SFF mobilen Markt momentan und dessen Beteiligten.

Skysnake
2013-02-28, 20:35:54
Da kommt nVidia mal mega schlecht weg :ugly:

Vor allem die Einschätzung bzgl unified Shader wäre ja extrem herb. Da würde man bzgl API-Support ja wohl richtig hart hinter her hängen.

Hugo78
2013-02-28, 22:22:34
Nvidia kann nicht gegen Apple, Samsung, Intel und Qualcomm anstinken, dazu sind sie zu klein.
Da muss man nur auf den Marktwert schauen. Wo die anderen 100-400 Mrd. haben, stehen bei NV aktuell 8 Mrd.

Unified Shader wären wünschenswert, aber da Nvidia eh ne eigene Nische in dem großen Ganzen braucht und in der mobilen Zukunft mit Geforce Grid,
die Hauptrechenleistung in der Could sieht, statt auf dem mobilen Device, ist das eventuell garnicht ihr Ziel, weil nicht realistisch ggü. den Big Boys.

Wenn zb. Shield wirklich Lagfrei vom PC auf das eigene Display oder den TV streamen könnte, wozu muss das Gerät selber dann noch DX11 können?
Smartphones selber verkaufen sich auch nicht über Gamingeigenschaften.
Beim aktuellen HTC One spricht HTC nicht mit einer Silbe von Schlagwörtern wie DX11.

Das sind Nebenkriegsschauplätze, ggü LTE, Displayauflösung & -Schärfe, Akkuleistung oder der Kamera.
Grade bei der Kamera nimmt man endlich mal Sachverstand zur Hand, geht weg vom Megapixelwahn hin zu was Praktischem wie mehr Licht fürn Sensor.

Ich persönlich hätte mir das zwar in Verbindung mit "One Shot HDR" vom Tegra 4 gewünscht, aber NV kann eh noch nicht die Menge liefern,
von daher logisch das HTC Qualcomms aktuelles S4 Update aka S600 verbaut.

Im Arstechnica Artikel heißt es dann, dass Smartphones eher Perf/W kritisch sind ggü. Tablets, und NV deshalb Tablets Design Wins hat,
aber dann schau ich mir die aktuellen Full HD Smartphones an, die sind alle grausam schlecht was die Akkuleistrung angeht.
Völlig egal was für ein SoC dadrin steckt.

Als Beispiel Sonys Flagschiff Xperia Z mit Qualcomms S4 Pro.
- http://www.computerbase.de/artikel/handys/2013/test-sony-xperia-z/5/

Wenn das Display schon *gefühlt* 60% und mehr vom Verbrauch ausmacht, da kann der Rest vom Gerät so sparsam sein wie er will,
das Produkt bleibt dürftig von der Laufzeit her.

Und last but not least, wir sind ja im Spekulatiusbereich, wer sagt eigentlich,
dass der Königsweg für mobile Unified Shader nicht schon längst gefunden wurde, doch noch immer durch Patente geschützt ist?
Könnte Nvidia sich da ne Lizenz von Apple oder Qualcomm zu fairen Preisen einkaufen?! Wohl kaum ...

Undertaker
2013-02-28, 22:48:15
Im Arstechnica Artikel heißt es dann, dass Smartphones eher Perf/W kritisch sind ggü. Tablets, und NV deshalb Tablets Design Wins hat

Bingo, meine Rede.


aber dann schau ich mir die aktuellen Full HD Smartphones an, die sind alle grausam schlecht was die Akkuleistrung angeht.
Völlig egal was für ein SoC dadrin steckt.

Ersteres ist schon wahr, dennoch gibt es da schon einige Unterschiede. Ein Galaxy S3 hält z.B. bei starker Last fast doppelt so lange wie das Google Nexus 4, was in erster Linie am hungrigeren (wenn auch schnelleren) SoC liegt. Im Alltag relativiert sich das natürlich etwas, trotzdem will keiner sein Smartphone schon nach einer Stunde spielen laden müssen.

Blediator16
2013-02-28, 23:09:26
Nvidia kann nicht gegen Apple, Samsung, Intel und Qualcomm anstinken, dazu sind sie zu klein.
Da muss man nur auf den Marktwert schauen. Wo die anderen 100-400 Mrd. haben, stehen bei NV aktuell 8 Mrd.



Interessiert doch kein Schwein. Genau so wie es bei AMD keinen juckt, dass Intel und andere viel größer sind.

Hugo78
2013-02-28, 23:40:32
Ich gönne AMD ihre Position im kommenden Konsolenzeitalter.
Aber ansonst, wo kann AMD hier auftrumpfen?!

Das mobile Segment ist so unendlich viel schnelllebiger.
Intel wird in den nächtsten zwei bis drei Jahren Qualcomm verdrängen und dann Samsung, sofern sie ihre Software gebacken bekommen.
HW seitig haben sie genug Ressourcen ... aber NV ebend nicht.

Gipsel
2013-02-28, 23:58:40
Da kommt nVidia mal mega schlecht weg :ugly:

Vor allem die Einschätzung bzgl unified Shader wäre ja extrem herb. Da würde man bzgl API-Support ja wohl richtig hart hinter her hängen.
Na schau Dir doch an, was nV da anbietet: split Vertex- und Pixelshader, letztere nur mit fp20 Genauigkeit, während andere mit vollen fp32 unified Shader Architekturen antanzen, die sogar bereits für OpenCL 1.1 zertifiziert sind (full profile, nicht embedded, die 300er-Adrenos können angeblich sogar 1.2; na, die Adrenos sind auch abgespeckte Radeons). NV kann zwar vom Speed mithalten, in dem sie bei Tegra4 die Einheitenzahlen massiv aufgebohrt haben, aber featuremäßig nicht. Aber das ist ja auch nicht neu und solange keine wirklich anspruchsvollen Sachen auf Mobilchips laufen, kommen sie halt damit klar.

Deinorius
2013-03-01, 00:28:17
Intel wird in den nächtsten zwei bis drei Jahren Qualcomm verdrängen und dann Samsung, sofern sie ihre Software gebacken bekommen.


Jo sicher.
Ich höre schon das Kartellamt an die Tür hämmern. :ugly:

Skysnake
2013-03-01, 01:33:40
Na schau Dir doch an, was nV da anbietet: split Vertex- und Pixelshader, letztere nur mit fp20 Genauigkeit, während andere mit vollen fp32 unified Shader Architekturen antanzen, die sogar bereits für OpenCL 1.1 zertifiziert sind (full profile, nicht embedded, die 300er-Adrenos können angeblich sogar 1.2; na, die Adrenos sind auch abgespeckte Radeons). NV kann zwar vom Speed mithalten, in dem sie bei Tegra4 die Einheitenzahlen massiv aufgebohrt haben, aber featuremäßig nicht. Aber das ist ja auch nicht neu und solange keine wirklich anspruchsvollen Sachen auf Mobilchips laufen, kommen sie halt damit klar.
Mir gings da eher weniger um den JETZT Zustand. Das man da massiv hinterherhinkt vom Featureset ist mir auch bekannt ;)

Mir gings eher um die Zukunftsprognose, das man auch auf JAHRE hinweg keine unified Shader erwartet, womit man auf JAHRE hinweg auf der Stelle tritt. Wo könnte den nVidia im Featureset nachziehen, ohne auf unified Shader zu gehen? Mir fällt nichts ein...

Ich bin ja hier schon als verdammt pessimistisch verschrien, aber selbst ich erwarte eigentlich, das nVidia in 1-2 Jahren unified Shader bringt.

Deswegen mein ich, das die wirklich hart austeilen gegenüber nVidia.

Wenn sich das so bewahrheitet, kann nVidia eigentlich die nächsten Jahre auch komplett ne Pause einlegen und dafür richtig an nem neuen Chip arbeiten, weil so gewinnen die keinen Blumentopf, mit dem am Ende ein + in der Sparte dasteht

LordDeath
2013-03-01, 02:20:08
Nvidia könnte weiterhin (und vielleicht sollten sie es auch) ihren guten Draht zu den Spieleentwicklern nutzen, um so Tegra-exklusive Zusatzeffekte in deren Spiele zu bekommen. Das wäre mMn eine ziemlich effektive Werbung und würde "Tegra" quasi mit einem Bildqualitätsmehrwert in Verbindung zu setzen. Bei den großen Grafikkarten haben sie auf solch proprietäre Lösungen schon mit PhysX und CUDA gesetzt. Vielleicht klappt das auch im Tablet- und Smartphonemarkt?

Eine andere Baustelle wäre, wenn Nvidia im ARM-Bereich mehr auf freie Treiber setzten würde. Wenn Tegra-basierte Geräte automatisch vom Linux-Kernel voll unterstützt werden, hätten sie somit eine Eigenschaft, die sie von den Konkurrenten abheben würde. Jedes Tegra-Gerät würde sich dann automatisch als Bastler-Gerät anbieten. Afair entstehen die aktuellen freien Treiber ähnlich wie nouveau über Reverse Engineering über die Community. :frown:
Vielleicht könnte also Nvidias aktuelle Underdog-Position dafür sorgen, dass sie von ihren alten Pfaden abkommen und künftig in eine bessere (weil quelloffene) Richtung marschieren. :D

Nakai
2013-03-01, 02:34:40
vidia könnte weiterhin (und vielleicht sollten sie es auch) ihren guten Draht zu den Spieleentwicklern nutzen, um so Tegra-exklusive Zusatzeffekte in deren Spiele zu bekommen. Das wäre mMn eine ziemlich effektive Werbung und würde "Tegra" quasi mit einem Bildqualitätsmehrwert in Verbindung zu setzen. Bei den großen Grafikkarten haben sie auf solch proprietäre Lösungen schon mit PhysX und CUDA gesetzt. Vielleicht klappt das auch im Tablet- und Smartphonemarkt?

Die GPU im T4 ist vom Featurelevel eher eine Geforce FX5900 Ultra, während Adreno 3xx eher ein RV670 ist.

Adreno 3xx hat schon SIMDs statt VLIW/Vector-Einheiten, oder?

Vielleicht könnte also Nvidias aktuelle Underdog-Position dafür sorgen, dass sie von ihren alten Pfaden abkommen und künftig in eine bessere (weil quelloffene) Richtung marschieren.

Siehe PhysX...*hust*

Und nein T4 ist nicht so schlecht, wie es gerne gesagt wird. Er ist einfach veraltet, hat dennoch ordentlich Bumbs!

Skysnake
2013-03-01, 02:42:30
Nvidia könnte weiterhin (und vielleicht sollten sie es auch) ihren guten Draht zu den Spieleentwicklern nutzen, um so Tegra-exklusive Zusatzeffekte in deren Spiele zu bekommen. Das wäre mMn eine ziemlich effektive Werbung und würde "Tegra" quasi mit einem Bildqualitätsmehrwert in Verbindung zu setzen. Bei den großen Grafikkarten haben sie auf solch proprietäre Lösungen schon mit PhysX und CUDA gesetzt. Vielleicht klappt das auch im Tablet- und Smartphonemarkt?

Und wie soll das mit veralteter Technik gehen? :ugly: Die anderen sind viel weiter was die Technik anbelangt.

Zudem Desktop != SFF Markt.

Im Desktop hat nVidia einen Marktanteil von ~50% oder sogar mehr. Im SFF krebsen Sie irgendwo bei einstelligen Prozentsätzen rum. Warens nicht 2% oder so? :ugly:

Da interessieren sich die Entwickler nen Scheisdreck für nVidias propritäre Hampeleien.


Eine andere Baustelle wäre, wenn Nvidia im ARM-Bereich mehr auf freie Treiber setzten würde. Wenn Tegra-basierte Geräte automatisch vom Linux-Kernel voll unterstützt werden, hätten sie somit eine Eigenschaft, die sie von den Konkurrenten abheben würde. Jedes Tegra-Gerät würde sich dann automatisch als Bastler-Gerät anbieten. Afair entstehen die aktuellen freien Treiber ähnlich wie nouveau über Reverse Engineering über die Community. :frown:
Vielleicht könnte also Nvidias aktuelle Underdog-Position dafür sorgen, dass sie von ihren alten Pfaden abkommen und künftig in eine bessere (weil quelloffene) Richtung marschieren. :D
Damit kannst du im Desktop/PC-Mobile Bereich jemanden hinterm Stich hervor locken, aber nicht im SFF Markt. Die Systeme sind relativ dicht, und die Leute nutzen halt Andoid. Thats it. Mit Firefox OS und Ubuntu for Smartphones kommt da eventuell etwas bewegung rein, aber bei weitem nicht in dem Umfeld. Die Leute sind da noch sehr sehr sehr viel massiver reine Endanwender und keine Entwickler.

Wäre natürlich schön offene Treiber zu haben, das ist aber NICHTS was nVidia jetzt in Geräte rein bringen würde, da das andere Leute entscheiden und nicht der Endkunde. Sowas würde eigentlich nur echt funktionieren, wenns über Google im "Nexus" geht, oder eben über selbst vermarktete Gerät.

nVidia hat aber gar kein Interesse daran, die Treiber offen zu machen... Das weicht von ihrer propritären Grundeinstellung absolut ab. Zudem würde es eben nicht wirklich was helfen, so lange man nicht auch interessante Hardwarefeatures verfügbar hat.

LordDeath
2013-03-01, 02:50:36
Das mit den zusätzlichen Grafikeffekten nur für Tegra-Geräte meinte ich eher im Hinblick auf Berichte, laut denen Nvidia ihre eigenen Entwickler für eine Woche zu den Spieleschmieden schickt und diese dort direkt vor Ort Hilfe leisten und ggf. Codeoptimierungen beisteuern. Diese Nähe zu den Entwicklern scheinen sie im Desktopmarkt AMD voraus zu haben und die Überlegung war, ob sie das auch in diesen neuen Markt übertragen könnten.
Bisher gab es schon einige Spiele, die spezielle Tegra-Versionen hatten. Mit dieser Entwicklernähe könnten sie das dann evtl. weiter ausbauen. Diese Zusatzfeatures hätten dann also nicht direkt technische Hintergründe.

Nakai
2013-03-01, 02:58:19
Mhh, im SFF-Markt ist der kleinste gemeinsame Nenner das Wichtigste. Jeder soll ja die App verwenden können. Kurz: SGX540-Niveau in etwa.

Natürlich könnte man in die Richtung gehen, doch wegen was? Ich glaube kaum, dass es jemand interessieren würde, dafür ist die Nachfrage nach solcher Software nicht vorhanden.

Skysnake
2013-03-01, 03:05:34
Du meinst wohl eher, der kleinste gemeinsame Nenner von Apple, Samsung und Qualcomm. Dast ist fast der komplette Markt.

Vor allem funktioniert das mit dem Softwaresupport aber nicht, weil man im SFF-Bereich keine großen AAA Titel hat, sondern UNMENGEN! an Low-Budget Produkten, wo insbesondere die mit extrem genialen Spielprinzipien GANZ vorne liegen. Reine Oppulentgrafik ist da eher zweitrangig.

LordDeath
2013-03-01, 03:19:38
Ihr habt da wohl Recht. Man muss bedenken, dass anders als im Desktopbereich wir hier nicht Nvidias Kunden sind. Wir entscheiden uns selbst und kaufen dann evtl. eine Geforce Karte für den PC, aber beim Tegra muss Nvidia ihre Abnehmer zunächst unter Samsung, Apple, HTC, etc. finden. Daher wird es wohl nichts mit Opensource-Treibern oder ähnlichem als Verkaufsargument.

Trotzdem wäre es schön zu sehen, wenn Nvidia sich mehr für die "Bastlerecke" rund um ARM-Platinen wie dem Raspberry Pi interessieren würde. Abseits von Smartphones, Tablets und Handheld-Konsolen hat Nvidia noch überhaupt keinen Fuß im ARM-Markt gefasst, der aber immerhin größer als diese drei Bereiche ist. ARM-Chips sind nicht nur zum Spielen da und ich frag mich, ob Nvidia hier wirklich nicht doch noch mitmischen will.

Pentium M
2013-03-01, 03:31:37
Nvidia bringt erstmal TITAN.Der Zukunftsmarkt liegt darin Badfliesen bei TMSC zu produzieren.

Mancko
2013-03-01, 08:20:32
Vor allem funktioniert das mit dem Softwaresupport aber nicht, weil man im SFF-Bereich keine großen AAA Titel hat, sondern UNMENGEN! an Low-Budget Produkten, wo insbesondere die mit extrem genialen Spielprinzipien GANZ vorne liegen. Reine Oppulentgrafik ist da eher zweitrangig.

Damit hast Du die Frage bzgl. der Notwendigkeit des aktuellsten Featuresets ja schon gegeben.

fondness
2013-03-01, 09:10:19
Wie dem auch sei fuer smartphones ist T4i nahezu ideal IMHO. Hier muss ich NV wirklich den Hut abnehmen fuer die CPU Wahl; eine neueste hw Revision vom Cortex-A9 dessen IPC sogar einem Krait den Hintern versohlen kann und taktet auch wunderbar auf 2.3GHz mit geringer die area und Stromverbrauch.


Naja es sind trotzdem wieder nur Cores von der Stange die mit Sicherheit wieder eine Unzahl von Herstellern verbauen werden. Wenn NV in den Markt einen Unterschied machen will braucht es konkurrenzfähige custom Cores und endlich mal eine brauchbare GPU.

Damit hast Du die Frage bzgl. der Notwendigkeit des aktuellsten Featuresets ja schon gegeben.

Die GPU wird in solche Devices bei weitem nicht nur für Spiele benutzt. Einzig Tegar ist durch sein begrenzter Featureset nicht zu GPGPU in der Lage.

Das mobile Segment ist so unendlich viel schnelllebiger.
Intel wird in den nächtsten zwei bis drei Jahren Qualcomm verdrängen und dann Samsung, sofern sie ihre Software gebacken bekommen.
HW seitig haben sie genug Ressourcen ... aber NV ebend nicht.

Also Qualcomm hat mittlerweile eine höhere Martkapitalisierung als Intel und wächst um 30% pro Jahr. Also ein Spaziergang wird das nicht für Intel. :freak:

Nvidia kann nicht gegen Apple, Samsung, Intel und Qualcomm anstinken, dazu sind sie zu klein.
Da muss man nur auf den Marktwert schauen. Wo die anderen 100-400 Mrd. haben, stehen bei NV aktuell 8 Mrd.

Es ist auch kein Zufall das Jensen mittlerweile eine Übernahme durch einen großen mehrmals als Option benannt hat.
Sie sehen IMO auch die Felle davon schwimmen und das sie in diesem Markt mit den enormen Investitionsvolumen auf Dauer nicht bestehen können.
Nur NV bleibt trotzdem nichts andere übrig als es zu versuchen. NV hält nicht ohne Grund die Ressourcen zusammen und versucht sich ein Kapitalpolster aufzubauen.

Ailuros
2013-03-01, 09:56:10
Nvidia kann nicht gegen Apple, Samsung, Intel und Qualcomm anstinken, dazu sind sie zu klein.
Da muss man nur auf den Marktwert schauen. Wo die anderen 100-400 Mrd. haben, stehen bei NV aktuell 8 Mrd.

Und gegen wen konkurrieren sie sonst dann noch genau? Wie gesagt Texas Instruments und ST Micro sind auch aus dem smartphone/tablet Markt ausgestiegen und beide sind auch um einiges groesser als NV. TI hatte auch einen zich groesseren Marktanteil als NV und haette sich schon einiges mehr leisten koennen. Es geht um das Risiko dass NV eingeht und dieses ist leider nicht klein.

Unified Shader wären wünschenswert, aber da Nvidia eh ne eigene Nische in dem großen Ganzen braucht und in der mobilen Zukunft mit Geforce Grid,
die Hauptrechenleistung in der Could sieht, statt auf dem mobilen Device, ist das eventuell garnicht ihr Ziel, weil nicht realistisch ggü. den Big Boys.

Was jetzt das eine mit dem anderen zu tun haben soll kann ich bei bestem Willen nicht verstehen.

Wenn zb. Shield wirklich Lagfrei vom PC auf das eigene Display oder den TV streamen könnte, wozu muss das Gerät selber dann noch DX11 können?
Smartphones selber verkaufen sich auch nicht über Gamingeigenschaften.
Beim aktuellen HTC One spricht HTC nicht mit einer Silbe von Schlagwörtern wie DX11.

Ach den Flop meinst Du? Shield wirs sich sicher in Massen verkaufen. DX11 wird in Zukunft (ab 2014) hauptsaechlich fuer windows Geraete wichtig sein. Fuer Android bzw. iOS wirst Du fuer etliche Jahre kein OGL_ES3.0 brauchen welches aber auch nicht unterstuetzt wird; liegt OGL_ES3.0 auch auf der cloud dass darauf Entwickler ES3.0 mobile Spiele entwickeln koennen?

Uebrigens windowsRT ja fuer Tegras, aber windows phone wohl nicht wenn ich mich nicht irre mit FP20, was ich aber so oder so als unwichtig empfinde.

Das sind Nebenkriegsschauplätze, ggü LTE, Displayauflösung & -Schärfe, Akkuleistung oder der Kamera.
Grade bei der Kamera nimmt man endlich mal Sachverstand zur Hand, geht weg vom Megapixelwahn hin zu was Praktischem wie mehr Licht fürn Sensor.

Ich persönlich hätte mir das zwar in Verbindung mit "One Shot HDR" vom Tegra 4 gewünscht, aber NV kann eh noch nicht die Menge liefern,
von daher logisch das HTC Qualcomms aktuelles S4 Update aka S600 verbaut.

Wenn vergleichbares auf anderen Platformen erscheinen sollte, wurde es dann in letzter Minute entwickelt oder war es nur eine Richtung die fast jeder erwartet haette?

Im Arstechnica Artikel heißt es dann, dass Smartphones eher Perf/W kritisch sind ggü. Tablets, und NV deshalb Tablets Design Wins hat,
aber dann schau ich mir die aktuellen Full HD Smartphones an, die sind alle grausam schlecht was die Akkuleistrung angeht.
Völlig egal was für ein SoC dadrin steckt.

http://www.glbenchmark.com/compare.jsp?D1=Samsung+GT-I9300+Galaxy+S+III&D2=HTC+One+X+%28EndeavorU%29&cols=2

Du kannst es auch in Echtzeit versuchen und dabei sind die beiden Beispiele lediglich 720p phones. Das S3 ist schneller und haelt auch laenger aus und ja der Test ist zweifelhaft weils es variierende Helligkeit auf Geraeten gibt; aber basierend auf den Indizien kannst Du es auch selber ausprobieren, wenn man brightness zuerst erstmal richtig abmisst.

Als Beispiel Sonys Flagschiff Xperia Z mit Qualcomms S4 Pro.
- http://www.computerbase.de/artikel/handys/2013/test-sony-xperia-z/5/

Wenn das Display schon *gefühlt* 60% und mehr vom Verbrauch ausmacht, da kann der Rest vom Gerät so sparsam sein wie er will,
das Produkt bleibt dürftig von der Laufzeit her.

Was sonst ist neu?

Und last but not least, wir sind ja im Spekulatiusbereich, wer sagt eigentlich,
dass der Königsweg für mobile Unified Shader nicht schon längst gefunden wurde, doch noch immer durch Patente geschützt ist?
Könnte Nvidia sich da ne Lizenz von Apple oder Qualcomm zu fairen Preisen einkaufen?! Wohl kaum ...

Ueberdenk Dir noch mal den Bloedsinn ehrlich; es wurde gar nichts patentiert und man kann auch nichts diesbezueglich patentieren.

Seit wann entwickelt Apple GPU IP und kann es sogar weiterlizenzieren? Und ja NV koennte sich von ARM, IMG oder Vivante durchaus GPU IP einkaufen aber es waere die Blamage des Jahrhunderts.

Naja es sind trotzdem wieder nur Cores von der Stange die mit Sicherheit wieder eine Unzahl von Herstellern verbauen werden. Wenn NV in den Markt einen Unterschied machen will braucht es konkurrenzfähige custom Cores und endlich mal eine brauchbare GPU.

Fuers erste wird wohl hoffentlich Denver stehen und ich will hoffen dass Tegra5 endlich eine bessere GPU liefern wird; mir waere persoenlich etwas auf einer vergleichbaren G9x Schiene fuer mobile GPUs vollkommen ausreichend. Nochmal es ist bei NV kein "wir koennen nicht" Thema; es ist lediglich das Resultat einer ueberbeschissenen internen Strategie die die resources fuer Tegra GPU zu stark reduziert hat; ab T4 ist es etwas besser geworden, aber man braucht eben mehr.



Es ist auch kein Zufall das Jensen mittlerweile eine Übernahme durch einen großen mehrmals als Option benannt hat.
Sie sehen IMO auch die Felle davon schwimmen und das sie in diesem Markt mit den enormen Investitionsvolumen auf Dauer nicht bestehen können.
Nur NV bleibt trotzdem nichts andere übrig als es zu versuchen. NV hält nicht ohne Grund die Ressourcen zusammen und versucht sich ein Kapitalpolster aufzubauen.

Wenn jegliche Firma ja selbst Intel nicht ihre Majestaet zum Kaiserstatus aufruft wird NV nie ja sagen. Wenn es Jensen so benutzt damit die meisten regelrecht gezwungen werden abzusagen, dann kein Einwand. Im Gegenfall ist es schon ein verdammt merkwuerdiger Ego-trip einer einzelnen Person.

Undertaker
2013-03-01, 10:22:47
http://www.glbenchmark.com/compare.jsp?D1=Samsung+GT-I9300+Galaxy+S+III&D2=HTC+One+X+%28EndeavorU%29&cols=2

Du kannst es auch in Echtzeit versuchen und dabei sind die beiden Beispiele lediglich 720p phones. Das S3 ist schneller und haelt auch laenger aus und ja der Test ist zweifelhaft weils es variierende Helligkeit auf Geraeten gibt; aber basierend auf den Indizien kannst Du es auch selber ausprobieren, wenn man brightness zuerst erstmal richtig abmisst.

GLBenchmark 2.5 Egypt HD Onscreen: 16,6 fps (S3) vs. 18,6 fps (Tegra 3)

Da siehst du übrigens mal, warum ich dir zuletzt schon gesagt habe, das man sich nicht nur an einem Benchmark festklammern sollte - dem imo ziemlich verbuggten GLBench schon gar nicht. Die GPU des S3 dürfte zweifellos stärker sein als Tegra 3, dennoch ist sie onscreen langsamer. Und ja, soweit ich weiß haben beide die gleiche Auflösung von 720p. Offscreen 1080p soll beim S3 dann die gleiche Framerate produzieren wie 720p, eindeutig Unfug. Also: Nicht immer am GLBench orientieren. ;)

Ebenso wie das S3 GPU-seitig schneller ist als Tegra 3 (auch wenn der GLBench teils was anderes sagt), ist der Exynos auch sparsamer. Da es prozesstechnisch aber 32nm vs. 40nm steht, hat das nichts mit einem ineffizienteren Chip an sich zu tun. Man könnte eher sagen, das der Exynos gemessen an seinem Prozess recht defensiv/schwach/sparsam ausgelegt wurde.

Ailuros
2013-03-01, 10:31:18
Das mit den zusätzlichen Grafikeffekten nur für Tegra-Geräte meinte ich eher im Hinblick auf Berichte, laut denen Nvidia ihre eigenen Entwickler für eine Woche zu den Spieleschmieden schickt und diese dort direkt vor Ort Hilfe leisten und ggf. Codeoptimierungen beisteuern. Diese Nähe zu den Entwicklern scheinen sie im Desktopmarkt AMD voraus zu haben und die Überlegung war, ob sie das auch in diesen neuen Markt übertragen könnten.
Bisher gab es schon einige Spiele, die spezielle Tegra-Versionen hatten. Mit dieser Entwicklernähe könnten sie das dann evtl. weiter ausbauen. Diese Zusatzfeatures hätten dann also nicht direkt technische Hintergründe.

NV's hauptsaechlicher Punkt gegen tiling ist dass Entwickler zu viel code dafuer anpassen muessen; dummerweise sind Adreno (wer es noch nicht bemerkt hat adreno ist ein anagram fuer radeon), IMG und ARM Mali GPUs alle tilers, ergo wenn Entwickler etwas anpassen dann wohl einmal.

Da NV kein tiling unterstuetzt und bis zu T3 nur auf earlyZ bzw. fette caches angewiesen war um Bandbreite zu sparen war und ist es die hauptsaechliche Aufgabe vom DevRel game code so gut wie moeglich fuer front to back wo immer moeglich sortieren zu lassen; optimal wird man es nie hinbekommen und es ist auch eine ziemlich grosse Verschwendung von resources stets aber IMHO.

Sonst mit dem gigantischem Markanteil dass Apple hat und dem premium die Entwickler im Apple application store bekommen werden sie sich wohl auf welches Volumen genau konzentrieren wenn Apple pro Jahr schon fast 200Mio Geraete verkauft? Hier sollte man sagen dass sich die Konstanten im mobilem Markt schlagartig aendern wuerden wenn Apple in Zukunft nicht mehr IMG GPU IP benutzen sollte.

robbitop
2013-03-01, 10:34:59
Von der IPC sollte ein Cortex A9 r4 aber nicht an Krait rankommen. Ersterer soll 15 % mehr IPC haben als der alte A9 (was ich erst glaube, wenn ich es sehe!). Krait 600 soll angeblich auch ~10 % mehr IPC haben als der erste Krait.
Zwischen dem ersten Krait und dem alten A9 lagen gut und gern ~35 % IPC Differenz.

NV prügelt den Takt halt hoch. Die Frage ist, wie sich das auf die Leistungsaufnahme auswirkt. Man hat am Ende wenig davon, wenn die CPU dauernd heruntertakten muss oder herumthrotteln muss.
Krait soll ja auch mit rund 2 GHz in aktueller Revision kommen. Ich sehe also eigentlich kein Versohlen des Hinterns.

A15 ist zu stromhungrig für Smartphones. IMO ist Swift für den Formfaktor Mobilphones ein sehr guter Kompromiss aus Leistung und Leistungsaufnahme.

Ailuros
2013-03-01, 10:41:10
GLBenchmark 2.5 Egypt HD Onscreen: 16,6 fps (S3) vs. 18,6 fps (Tegra 3)

Ach onscreen passt besser weil T3 leicht schneller ist rein zufaellig oder? Kishonti platziert basierend auf 1080p offscreen.

Da siehst du übrigens mal, warum ich dir zuletzt schon gesagt habe, das man sich nicht nur an einem Benchmark festklammern sollte - dem imo ziemlich verbuggten GLBench schon gar nicht.

Was soll denn an GLB verbuggt sein und warum sollen die anderen moechtegern mobilen GPU benchmarks weniger "verbuggt" sein?

Die GPU des S3 dürfte zweifellos stärker sein als Tegra 3, dennoch ist sie onscreen langsamer. Und ja, soweit ich weiß haben beide die gleiche Auflösung von 720p. Offscreen 1080p soll beim S3 dann die gleiche Framerate produzieren wie 720p, eindeutig Unfug. Also: Nicht immer am GLBench orientieren. ;)

Welche der beiden SoCs fehlt es an Bandbreite und wieso um Himmel's Willen kann man nicht selber an so was denken sondern muss gleich die unterliegende Applikation daran schuld sein? Tut mir leid aber Du hast hier leider nichts entdeckt.

Ebenso wie das S3 GPU-seitig schneller ist als Tegra 3 (auch wenn der GLBench teils was anderes sagt), ist der Exynos auch sparsamer. Da es prozesstechnisch aber 32nm vs. 40nm steht, hat das nichts mit einem ineffizienteren Chip an sich zu tun. Man könnte eher sagen, das der Exynos gemessen an seinem Prozess recht defensiv/schwach/sparsam ausgelegt wurde.

Bullshit hoch2. Wie waere es mit einem perf/mW und perf/mm2 Vergleich zwischen Mali400MP4 und der ULP GF T3? Ach natuerlich gab es NIE diesbezueglich slides sondern nur mit T4 wenn mobile GPUs tonnenweise mehr features haben. T604 (ob nutzlos oder nicht ist ein anderes Kapitel) ist sogar ueber FP64 in hw faehig wenn man es schon in bunten marketing slides mit FP20 ALUs vergleichen muss.

Mali400 hat auch nur FP16 PS ALUs; aber da NV seit neuestem behauptet dass FP20 und FP32 keinen sehenswerten Unterschied machen behaupte ich auch das gleiche zwischen FP16 und FP20. Bei vergleichbarer Taktrate ist ein Mali400MP4 gegen die ULP GF im T3 um ca. 30% schneller bei kleinerer die area und kleinerem Stromverbrauch und ja selbstverstaendlich erst bei zumindest 1080p.

Undertaker
2013-03-01, 11:09:20
Ach onscreen passt besser weil T3 leicht schneller ist rein zufaellig oder? Kishonti platziert basierend auf 1080p offscreen.

Na onscreen ist das, wo die Framerate zählt, oder? Aber das diente ohnehin nur als Beispiel dafür:

Was soll denn an GLB verbuggt sein und warum sollen die anderen moechtegern mobilen GPU benchmarks weniger "verbuggt" sein?

Habe ich doch gerade gesagt: Gleiche Framerate beim Exynos in 1080p offscreen und 720p onscreen. Langsamer als Tegra 3 onscreen, was der Leistungsrelation zwischen beiden Chips so gar nicht entspricht. Und auch sonst sind die Leistungsrelationen öfters mal etwas merkwürdig.

Bullshit hoch2. Wie waere es mit einem perf/mW und perf/mm2 Vergleich zwischen Mali400MP4 und der ULP GF T3? Ach natuerlich gab es NIE diesbezueglich slides sondern nur mit T4 wenn mobile GPUs tonnenweise mehr features haben. T604 (ob nutzlos oder nicht ist ein anderes Kapitel) ist sogar ueber FP64 in hw faehig wenn man es schon in bunten marketing slides mit FP20 ALUs vergleichen muss.

Da hast du meine Grundaussage aber reichlich missverstanden. Wenn du perf/mW und perf/mm² vergleichen willst, dann bitte erstmal die Prozessunterschiede bereinigen. Mein Fokus lag aber sowieso auf einem anderen Punkt, nämlich dem zweiten Satz den du zitiert hast.

Ailuros
2013-03-01, 11:24:55
Na onscreen ist das, wo die Framerate zählt, oder? Aber das diente ohnehin nur als Beispiel dafür:

Wenn Du onscreen messen willst dann nimm ein mobiles Spiel zur Hand. Ein synthetischer benchmark wie Kishonti's Zeug ist in etwa ein 3dfurz fuer Handys der versucht mobile Spiele der Zukunft zu prophezeien; unter dieser Logik ist 1080p fuer solch einen benchmark wohl besser angelegt.

Habe ich doch gerade gesagt: Gleiche Framerate beim Exynos in 1080p offscreen und 720p onscreen. Langsamer als Tegra 3 onscreen, was der Leistungsrelation zwischen beiden Chips so gar nicht entspricht. Und auch sonst sind die Leistungsrelationen öfters mal etwas merkwürdig.

Beim Mali limitiert der VS, dieser zieht aber in hoeheren Aufloesungen schneller ab weil er als tiler mehr Bandbreite sparen kann. T3 hat ausser earlyZ gar nichts um Bandbreite zu sparen und was soll Dir single channel Speicher genau anrichten? Wunder?

Da hast du meine Grundaussage aber reichlich missverstanden. Wenn du perf/mW und perf/mm² vergleichen willst, dann bitte erstmal die Prozessunterschiede bereinigen. Mein Fokus lag aber sowieso auf einem anderen Punkt, nämlich dem zweiten Satz den du zitiert hast.

Ich hab die daemliche Angewohnheit und antworte Ansatzweise was nicht gerade korrekt ist, aber ist auch momentan nebenwichtig. Es gibt so viele architekturelle Unterschiede die in der Mehrzahl der Faelle solche Phaenomaene durchaus erklaeren.

Von der IPC sollte ein Cortex A9 r4 aber nicht an Krait rankommen. Ersterer soll 15 % mehr IPC haben als der alte A9 (was ich erst glaube, wenn ich es sehe!). Krait 600 soll angeblich auch ~10 % mehr IPC haben als der erste Krait.
Zwischen dem ersten Krait und dem alten A9 lagen gut und gern ~35 % IPC Differenz.

NV prügelt den Takt halt hoch. Die Frage ist, wie sich das auf die Leistungsaufnahme auswirkt. Man hat am Ende wenig davon, wenn die CPU dauernd heruntertakten muss oder herumthrotteln muss.
Krait soll ja auch mit rund 2 GHz in aktueller Revision kommen. Ich sehe also eigentlich kein Versohlen des Hinterns.

A15 ist zu stromhungrig für Smartphones. IMO ist Swift für den Formfaktor Mobilphones ein sehr guter Kompromiss aus Leistung und Leistungsaufnahme.

Ist Swift als Architektur naeher an A9 (r4) oder naecher an A15?

Undertaker
2013-03-01, 11:31:13
Wenn Du onscreen messen willst dann nimm ein mobiles Spiel zur Hand. Ein synthetischer benchmark wie Kishonti's Zeug ist in etwa ein 3dfurz fuer Handys der versucht mobile Spiele der Zukunft zu prophezeien; unter dieser Logik ist 1080p fuer solch einen benchmark wohl besser angelegt.

Wenn er realistische Ergebnisse liefert gerne - aber daran habe ich beim GLBench eben so meine Zweifel. Beispiel:

Beim Mali limitiert der VS, dieser zieht aber in hoeheren Aufloesungen schneller ab weil er als tiler mehr Bandbreite sparen kann.

Korrigiere mich wenn ich falsch liege: Wäre diese Theorie wirklich korrekt, müsste das Galaxy S2 - gleiche Mali-400 MP4, aber viel niedriger getaktet - rund im Bereich der Taktdifferenz langsamer sein. Warum ist das nicht der Fall?

http://www.glbenchmark.com/compare.jsp?cols=2&D1=Samsung+GT-I9300+Galaxy+S+III&D2=Samsung+GT-i9100+Galaxy+S2

Im Anschluss stellt sich gleich die Frage, ob so ein extrem limitierender VS wirklich praxisnah ist.

robbitop
2013-03-01, 11:55:23
Ist Swift als Architektur naeher an A9 (r4) oder naecher an A15?
Eher A15. 3x Execution Pipelines und 3x Decoder. Aber weniger Ports als A15 und sicher irgendwo zwischen A9 und A15 was die Ausgefeiltheilt der OoO Engine angeht. Swift opfert halt ein wenig IPC für Transistorcount/TDP. Der nächste Swift SoC wird, vermute ich, auch höhere Taktraten bieten. Aber gewiss nicht so hohe wie bei den anderen. Man möchte die Akkulaufzeiten ja im Blick haben und sich sicher auch nicht die Blöße mit Throtteling/Heruntertakten geben. In den A15 SoCs steckt einfach zu viel für die vorgegebene TDP.

Ailuros
2013-03-01, 15:40:29
Wenn er realistische Ergebnisse liefert gerne - aber daran habe ich beim GLBench eben so meine Zweifel. Beispiel:



Korrigiere mich wenn ich falsch liege: Wäre diese Theorie wirklich korrekt, müsste das Galaxy S2 - gleiche Mali-400 MP4, aber viel niedriger getaktet - rund im Bereich der Taktdifferenz langsamer sein. Warum ist das nicht der Fall?

http://www.glbenchmark.com/compare.jsp?cols=2&D1=Samsung+GT-I9300+Galaxy+S+III&D2=Samsung+GT-i9100+Galaxy+S2

Im Anschluss stellt sich gleich die Frage, ob so ein extrem limitierender VS wirklich praxisnah ist.

Wo takten denn Deiner Meinung nach die GPUs in den beiden Vergleichsgeraeten?

Das hier taktet auf jeden Fall bei 533MHz:

http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro25&D=Samsung+SCH-I605

Eher A15. 3x Execution Pipelines und 3x Decoder. Aber weniger Ports als A15 und sicher irgendwo zwischen A9 und A15 was die Ausgefeiltheilt der OoO Engine angeht. Swift opfert halt ein wenig IPC für Transistorcount/TDP. Der nächste Swift SoC wird, vermute ich, auch höhere Taktraten bieten. Aber gewiss nicht so hohe wie bei den anderen. Man möchte die Akkulaufzeiten ja im Blick haben und sich sicher auch nicht die Blöße mit Throtteling/Heruntertakten geben. In den A15 SoCs steckt einfach zu viel für die vorgegebene TDP.

Es war eine ehrliche Frage, da ich mich selber nicht sicher war in welche Richtung ich Swift kategorisieren soll. Schaetzungsweise bis zu 1.8GHz? Mehr kann ich mir schwer bei fruitco vorstellen.

Gaestle
2013-03-01, 15:46:17
Was ist Swift überhaupt?

Die suchmaschine spuckt mir vor allem Ergebnisse zu Autos und zu einer App aus. Aber Autos passen so schlecht in mobile Geräte...

Ailuros
2013-03-01, 15:48:38
Was ist Swift überhaupt?

Die suchmaschine spuckt mir vor allem Ergebnisse zu Autos und zu einer App aus. Aber Autos passen so schlecht in mobile Geräte...

ROFL :biggrin: Swift ist der Codename fuer Apple's custom core CPU basierend auf ARM ISA.

Undertaker
2013-03-01, 16:04:05
Wo takten denn Deiner Meinung nach die GPUs in den beiden Vergleichsgeraeten?

Im S2 läuft die Mali 400 mit 266 MHz, im S3 mit 400 MHz.

Ailuros
2013-03-01, 16:20:11
Im S2 läuft die Mali 400 mit 266 MHz, im S3 mit 400 MHz.

S2 = 266MHz, S3 = 440MHz und die neueste Revision bei 533MHz. Die GLB2.5 Werte fuer egypt offscreen 1080p sind 10/16/19 je nach Frequenz. Wenn etwas nicht zu stimmen scheint dann klick ich auf das Resultat und bekomm alle bisheringen Werte pro benchmark: http://www.glbenchmark.com/subtest_results_of_device.jsp?D=Samsung+GT-i9100+Galaxy+S2&id=448&benchmark=glpro25

Mit nur 2-3 Resultaten aus einer Uebermenge von ~10fps und dazu von einem nur spezifischem User hat der Kerl vielleicht sogar uebertaktet. GLBenchmark team tested: http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro25&D=Samsung+GT-i9100+Galaxy+S2

:weg:

***edit: es gibt einen Kerl drueben bei B3D der sich professionell mit Samsung's Zeug beschaeftigt, von dem ich auch die Frequenzen u.a. bekomme.

Gaestle
2013-03-01, 16:35:43
ROFL :biggrin: Swift ist der Codename fuer Apple's custom core CPU basierend auf ARM ISA.


Dankeschöön.

Hugo78
2013-03-02, 12:42:00
Tegra 4i Reference Phone
http://blogs.nvidia.com/2013/02/how-phoenix-the-tegra-4i-reference-phone-will-bring-awesome-features-to-the-mainstream/

Skysnake
2013-03-02, 12:49:24
Phoenix? :confused:

Ist das die Marke, oder das Modell???

Gipsel
2013-03-02, 14:48:47
Phoenix? :confused:

Ist das die Marke, oder das Modell???
Das ist ein nVidia-Eigendesign, halt ein Referenzmodell, das wohl so nie auf den Markt kommen wird. Es soll nur als Orientierung für andere Hersteller dienen.
Der Name ist übrigens eine Abwandlung des Codenamens (Jean) Grey, auch bekannt als (Dark) Phoenix. Und so nebenbei, mein Avatar stellt Dark Phoenix dar. :lol:

Skysnake
2013-03-02, 20:04:49
Aha :biggrin:

Ist die Meldung damit aber nicht ziemlich für den Poppes? Bzw. warum zeigt nVidia son Eigendesign? :ugly: Will etwa kein Hersteller das Ding haben, und Sie bringen daher nen komplett fertiges Design? :ugly:

Macht doch meines Wissens nach weder Qualcomm, noch TI noch sonst wer. Mir wäre derartiges zumindest noch nie zu Ohren gekommen. Korrigiert mich also falls ich falsch liege. Ich bin jetzt allerdings schon sehr verwundert.

dildo4u
2013-03-02, 20:11:54
Ist üblich vorallem im nicht High-End Bereich ebend um wie dort beschrieben Time to Market zu verkürzen.

http://www.engadget.com/2013/01/23/little-chilli-la-m1-qrd/

https://qrd.qualcomm.com/

http://blog.laptopmag.com/intels-clover-trail-reference-phone-delivers-rich-3d-worlds

Wobei ich nicht glaube das wir vor 2014 1080p im Midrange sehen,vermutlich wird T4i erstmal mit 720p Displays kombiniert.

Skysnake
2013-03-02, 20:53:55
Ah ok, das kannte ich jetzt nur von Samsung usw eben, die selbst Geräte verkaufen, aber nicht von Herstellern, die nur Einzelteile liefern.

Deinorius
2013-03-03, 00:52:55
1080p im Midrange sehen


1080p im Midrange???? Bitte NICHT!! :facepalm:

Ailuros
2013-03-03, 10:44:41
Das ist ein nVidia-Eigendesign, halt ein Referenzmodell, das wohl so nie auf den Markt kommen wird. Es soll nur als Orientierung für andere Hersteller dienen.
Der Name ist übrigens eine Abwandlung des Codenamens (Jean) Grey, auch bekannt als (Dark) Phoenix. Und so nebenbei, mein Avatar stellt Dark Phoenix dar. :lol:

Es ist kein Geheimnis mehr dass ein verpuppter hardcore NV fanboy in Dir steckt :biggrin: :eek:

1080p im Midrange???? Bitte NICHT!! :facepalm:

Fuer ein smartphone? So lange der Stromverbrauch bzw. Batterielaufzeit anstaending sind und das Geraet ist nicht nahezu im Erwachsenen Pantoffel-Bereich haette ich persoenlich nichts dagegen.

Deinorius
2013-03-03, 11:09:11
Und welchen Sinn hat diese hohe Auflösung bei diesen geringen Größen? Gerade wenn du es lieber nicht noch größer haben möchtest. Anstatt die Akkulaufzeit auf dem derzeitigen Level zu halten, wäre es mir eindeutig lieber, die würden die typische Akkulaufzeit zumindest auf 3-4 Tage verdoppeln!

Ailuros
2013-03-04, 07:40:12
Und welchen Sinn hat diese hohe Auflösung bei diesen geringen Größen?

Etwa den gleichen Sinn den die ohnehin schon grossen ppi Werte auf tablets oefters haben. Wie viel ppi hast Du genau wenn Du 2560*1600 bzw. 2048*1536 auf 10" berechnest? Zugegeben bei einem 4.5" display wird es mehr als bei 2560@10" aber bei 5.5" sind es dann Gleichstand.

Tablets werden aber in der weiteren Zukunft auch nicht bei den vorigen Aufloesungen stehen bleiben.

Gerade wenn du es lieber nicht noch größer haben möchtest. Anstatt die Akkulaufzeit auf dem derzeitigen Level zu halten, wäre es mir eindeutig lieber, die würden die typische Akkulaufzeit zumindest auf 3-4 Tage verdoppeln!

Ich sagte anstaendige Akkulaufzeit, welches wohl nicht heisst dass jemand nach knapp 1 Stunde angry birds nach einer Steckdose suchen muss ;)

Es kommt natuerlich stets darauf an was man genau mit jeglichem Geraet anrichtet, aber fuer 3-4 Tage durchschnittliche Akkulaufzeit wird es auch in der Zukunft nicht sehr viele high end smartphone Kandidaten geben (wenn ueberhaupt), da eben Hersteller stets auf der unendlichen Wettjagd sein werden X, Y und Z auch noch integrieren zu wollen bei N mehr Leistung.

Deinorius
2013-03-04, 22:17:00
Etwa den gleichen Sinn den die ohnehin schon grossen ppi Werte auf tablets oefters haben. Wie viel ppi hast Du genau wenn Du 2560*1600 bzw. 2048*1536 auf 10" berechnest? Zugegeben bei einem 4.5" display wird es mehr als bei 2560@10" aber bei 5.5" sind es dann Gleichstand.


Gleichstand? lol wut? Zück nochmal deinen Taschenrechner, 2560x1600 auf 10,1" haben knapp 300 ppi, während FullHD auf 5,5" immer noch 400 ppi bietet.

Tablets werden aber in der weiteren Zukunft auch nicht bei den vorigen Aufloesungen stehen bleiben.


Na super, schon wieder ein Megapixelwahn? Ich kann nur hoffen, dass wir bei Video zumindest mit 8K aufhören. -.-

Ich sagte anstaendige Akkulaufzeit, welches wohl nicht heisst dass jemand nach knapp 1 Stunde angry birds nach einer Steckdose suchen muss ;)


Mit anderen Worten sollte man zumindest eine gute Zeit Aug einem Smartphone spielen können, ohne wieder laden zu müssen. Inklusive zusätzlicher Akkuladung, um es z.B. noch nach Hause oder wohin auch immer schaffen zu können. Ergibt umgerechnet auch eine Akkulaufzeit von rund drei Tagen, wenn man nur telefoniert, Nachrichten schreibt und etwas surft. ;)
Das ist teilweise auch heute schon möglich, aber nur unter bestimmten Umständen. Ich verlange also nichts unrealistisches oder irrsinniges. Das wäre durchaus in naher Zukunft realisierbar.

Ailuros
2013-03-05, 06:40:39
Gleichstand? lol wut? Zück nochmal deinen Taschenrechner, 2560x1600 auf 10,1" haben knapp 300 ppi, während FullHD auf 5,5" immer noch 400 ppi bietet.

Brainfart 299 vs. 412ppi.

Na super, schon wieder ein Megapixelwahn? Ich kann nur hoffen, dass wir bei Video zumindest mit 8K aufhören. -.-

Tablets der Zukunft werden wohl nicht bei nur 10" stecken bleiben so wie es aussieht. Wenn man schon bei 2048 bzw. 2560 bei 10" ist wo landet man bei mehr inches genau? Es wird noch ein paar Jahre dauern bis sich 4k egal wo durchsetzt und es geht in solchen Faellen weniger um videos als text IQ, denn fruitco u.a. vergisst nicht dass ein tablet ein quasi fancy e-book reader ist und ein smartphone eine quasi kleinere Variante vom vorigen. Wenn man so anal ist und benutzt bei 2048*1536 auf 10" immer noch font AA, dann sollte es klar sein wieso sie so viel Wert auf hohe Aufloesungen legen. Bei iPhones erwarte ich so einen Trend zugegeben nicht, denn Apple wird wohl auf dem Daumen-Dingsbums noch einige Zeit beharren. Bei Samsung aber wo die extrem grossen displays schon standard sind und ueberhaupt ihren "phablets" wird fuer browsing z.B. 1080p langfristig schon seinen Nutzen finden.


Mit anderen Worten sollte man zumindest eine gute Zeit Aug einem Smartphone spielen können, ohne wieder laden zu müssen. Inklusive zusätzlicher Akkuladung, um es z.B. noch nach Hause oder wohin auch immer schaffen zu können. Ergibt umgerechnet auch eine Akkulaufzeit von rund drei Tagen, wenn man nur telefoniert, Nachrichten schreibt und etwas surft. ;)
Das ist teilweise auch heute schon möglich, aber nur unter bestimmten Umständen. Ich verlange also nichts unrealistisches oder irrsinniges. Das wäre durchaus in naher Zukunft realisierbar.

High end = high end Leistung = high end Stromverbrauch. Was und wieso soll sich daran irgend etwas besonderes in jeglichem Markt genau aendern? Es ist ja auch nicht so dass Batterien unendlich weiterwachsen koennen.

Die Frage ist einfacher: braucht man als Verbraucher wirklich mehr Leistung als man von einem mainstream SoC mit 4*A7@1.2GHz z.B. oder dem 4*A9 R4 config auf T4i auf einem smartphone und wo genau ist der springende Punkt wo es sich mehr um marketing und weniger um Notwendigkeit handelt?

Eben aus der Perspektive klingt IMHO T4i als ein sehr gut positionierter SoC; mir ist persoenlich scheissegal ob es "nur" eine quad A9 CPU ist in diesem; die GPU ist stark genug fuer ein heutiges smartphone und wenn das insgesamte Resultat nicht zu viel Strom verbraten sollte wuerde ich auch nicht zu 1080p nein sagen.

Avalox
2013-03-12, 20:47:40
Die Linley Group hat in ihrem neuen Microprocessor Report festgestellt,

dass der Tegra 4 SoC ganz klar den Snapdragon S800 ausperformt.
Dieses sowohl in der CPU Leistung, wie auch bei der GPU Leistung. Der Tegra 4 ist in jedem Belang deutlich fixer, als der Qualcomm Gegenentwurf.

http://www.linleygroup.com/mpr/ Die Analyse ist wie immer kostenpflichtig.

Nightspider
2013-03-12, 20:52:58
Hat Nvidia die ARM15 Cores ebenfalls modifiziert oder wie kann T4 im CPU Part schneller sein?
Bei den Aussagen von Qualcomm, das der S800 bis zu 75% schneller ist als der S4Pro, hätte ich auf den S800 gewettet, was die CPU Leistung angeht.

dildo4u
2013-03-12, 20:57:00
Qualcomm nutzt keine A15 Cores sondern Krait mit mehr Takt als beim S4 Pro.http://en.wikipedia.org/wiki/Krait_%28CPU%29
IPC ist leicht hinter A15.(3.3 vs 3.5)Der S800 wird einfach auch für Smartphones konzipiert sein,daher kann er nicht so viel Strom saugen wie T4.Nvidia hat für Smartphones extra ein T4i mit A9 Cores.

http://www.nvidia.com/object/tegra-4-processor.html

Ailuros
2013-03-12, 21:00:24
Die Linley Group hat in ihrem neuen Microprocessor Report festgestellt,

dass der Tegra 4 SoC ganz klar den Snapdragon S800 ausperformt.
Dieses sowohl in der CPU Leistung, wie auch bei der GPU Leistung. Der Tegra 4 ist in jedem Belang deutlich fixer, als der Qualcomm Gegenentwurf.

http://www.linleygroup.com/mpr/ Die Analyse ist wie immer kostenpflichtig.

Wird ziemlich egal sein; Qualcomm groesste Mehrzahl an design wins sind smartphone SoCs und fuer diese ist wohl T4i besser angebracht. Die benchmark Resultate stammen uebrigens von NV selber; verstaendlicherweise wird NV nicht so leicht zu perf/mW Vergleichen fuer solche Faelle greifen.

Was will NV eigentlich mit dem Quark erreichen? Fehlt es an anstaendigen design wins dass subjektive marketing Turnereien so notwendig geworden sind?

Nightspider
2013-03-12, 21:01:55
Wobei sich Samsung ja auch mit A15 Quad in die Smartphones wagt.

Naja da bin ich ja mal gespannt. S800 ist ja kein übertakteter S4Pro wie angeblich S600 (stimmt das?) sondern soll wohl eine neuere Architektur haben.

Wobei Nvidia ja auch einen Companion Core hat. Kann mir nicht vorstellen, das Samsungs S4 SoC mit 4*A15 deutlich effizienter ist als T4.

dildo4u
2013-03-12, 21:04:50
Wobei Nvidia ja auch einen Companion Core hat. Kann mir nicht vorstellen, das Samsungs S4 SoC mit 4*A15 deutlich effizienter ist als T4.
Die bauen extra 4 A7 Cores ein damit das mit dem Handy Akku hinhaut sicher nicht aus Spaß,Nvidia wollte kein so ein Monster bauen was die Die Größe angeht.

Avalox
2013-03-12, 21:06:51
Hat Nvidia die ARM15 Cores ebenfalls modifiziert oder wie kann T4 im CPU Part schneller sein?


Ich denke nicht.

Bei den Aussagen von Qualcomm, das der S800 bis zu 75% schneller ist als der S4Pro, hätte ich auf den S800 gewettet, was die CPU Leistung angeht.

Na ja. Marketing. CPU+GPU+Takterhöhung vielleicht. Oder Funktion XY für sich allein betrachtet.

Der alte Krait Kern soll wohl um maximal 10% schneller sein als der bisherige Krait - Taktbereinigt.

Wird ziemlich egal sein; Qualcomm groesste Mehrzahl an design wins sind smartphone SoCs und fuer diese ist wohl T4i besser angebracht. Die benchmark Resultate stammen uebrigens von NV selber; verstaendlicherweise wird NV nicht so leicht zu perf/mW Vergleichen fuer solche Faelle greifen.


Der T4i wird ja wohl zu Kampfpreisen auf den Markt gepumpt werden. Es geht ja schon länger das Gerücht über 99$ Smartphones mit T4i SoC umher.

Nightspider
2013-03-12, 21:07:45
Sich den ganzen Smartphone Markt wegen 4 kleiner A9 Cores zu verschenken ergibt aber auch nicht viel Sinn. Der Platzbedarf dieser ist schon fast vernachlässigbar.

Ailuros
2013-03-12, 21:54:29
Der T4i wird ja wohl zu Kampfpreisen auf den Markt gepumpt werden. Es geht ja schon länger das Gerücht über 99$ Smartphones mit T4i SoC umher.

Hat blendend mit dem Nexus7 Konzept funktioniert. So toll dass bis jetzt Asus nichts von T4 wissen will. Mit einem $99 MSRP fuer ein smartphone macht NV nette Verlustmargen und manche von Euch koennt dann froehlich laestern ueber den Plastik-Mist oder generell 0815 Herstellungsqualitaet. Ich dachte T4i war fuer 1080p smartphones u.a. :rolleyes:

Avalox
2013-03-12, 21:58:05
Ich dachte T4i war fuer 1080p smartphones u.a. :rolleyes:

Ja, für 99$ 1080p Smartphones... :)

Wenn dann 199$ bei rauskommen, wie beim Nexus 7 wäre es doch auch schon beachtlich.

Ailuros
2013-03-12, 22:10:03
Ja, für 99$ 1080p Smartphones... :)

Wenn dann 199$ bei rauskommen, wie beim Nexus 7 wäre es doch auch schon beachtlich.

Eine absolute Eulogie fuer den Verbraucher kein Zweifel, nur wird es NV nichts bringen.

Avalox
2013-03-12, 22:14:30
Eine absolute Eulogie fuer den Verbraucher kein Zweifel, nur wird es NV nichts bringen.

Großer Marktanteil und viele Tegra optimierte Spiele und Software.

nVidia ist doch der einzige Hersteller der viel Geld ausgibt, damit Entwickler eine aufgehübschte Tegra Version heraus bringen.

Ausserdem ist der T4i doch recht klein. Warum sollte der nicht in einem entsprechenden Massendevice zu günstigen Konditionen stecken?

100 Euro ist doch die magische Grenze. Das Kindle Fire Pad erreicht diese gerade. Ein 99Euro Nexus 7 Gerät ist auch schon länger Phantomthema und soll bis Mitte des Jahres erscheinen.
Auch in so etwas könnte ein T4i stecken, als Ersatz für den alten Tegra 3.

Auf jeden Fall wird der Wettbewerb doch jetzt deutlich anziehen.

Blediator16
2013-03-12, 22:26:27
Großer Marktanteil und viele Tegra optimierte Spiele und Software.

nVidia ist doch der einzige Hersteller der viel Geld ausgibt, damit Entwickler eine aufgehübschte Tegra Version heraus bringen.

Ausserdem ist der T4i doch recht klein. Warum sollte der nicht in einem entsprechenden Massendevice zu günstigen Konditionen stecken?

100 Euro ist doch die magische Grenze. Das Kindle Fire Pad erreicht diese gerade. Ein 99Euro Nexus 7 Gerät ist auch schon länger Phantomthema und soll bis Mitte des Jahres erscheinen.
Auch in so etwas könnte ein T4i stecken, als Ersatz für den alten Tegra 3.

Auf jeden Fall wird der Wettbewerb doch jetzt deutlich anziehen.

Wenn man hier auch den "PhysX Weg" geht, dann wird das ebenfalls untergehen. Von der Tegrazone hört man kaum was.

Skysnake
2013-03-12, 23:06:17
Großer Marktanteil und viele Tegra optimierte Spiele und Software.

nVidia ist doch der einzige Hersteller der viel Geld ausgibt, damit Entwickler eine aufgehübschte Tegra Version heraus bringen.

Ausserdem ist der T4i doch recht klein. Warum sollte der nicht in einem entsprechenden Massendevice zu günstigen Konditionen stecken?

100 Euro ist doch die magische Grenze. Das Kindle Fire Pad erreicht diese gerade. Ein 99Euro Nexus 7 Gerät ist auch schon länger Phantomthema und soll bis Mitte des Jahres erscheinen.
Auch in so etwas könnte ein T4i stecken, als Ersatz für den alten Tegra 3.

Auf jeden Fall wird der Wettbewerb doch jetzt deutlich anziehen.
Soll das jetzt Sarkasmus sein, oder meinst du das wirklich ernst? :ugly:

Welcher Softwarehersteller, gibt denn bitte auf nVidia auch nur den kleinsten Schiss? Wenn muss nVidia da richtig rein buttern, und das können Sie sich auf Dauer nicht leisten. Das sind nur ein paar Prestige-Projekte, aber das wars dann auch...

Und selbst da müssen Sie schauen, dass die Hersteller das überhaupt annehmen werden in Zukunft. nVidia hinkt einfach bei den GPU-Features meilenweit hinterher, und je mehr die neuen Features genutzt werden, und je mehr sich Grafikengine-Lizenzierung im SFF durchsetzt, desto mehr Probleme wird nVidia bekommen.

Ailuros
2013-03-13, 09:34:50
Großer Marktanteil und viele Tegra optimierte Spiele und Software.

Deinen Optimismus muesste mal jemand teilen ehrlich. NV wird nicht ueber Nacht zu einem Samsung, Apple oder Qualcomm weil sie eben noch nicht die resourcen dafuer haben. Nach JHH selber sind sie momentan etwa in der Mitte der Strecke ihren break even point zu erreichen. Ohne mehrere wirklich grosse Volumen-deals dauert es noch etwas dafuer.

nVidia ist doch der einzige Hersteller der viel Geld ausgibt, damit Entwickler eine aufgehübschte Tegra Version heraus bringen.

Echt? Wie viel denn? Bei roten Zahlen geben sie gerade noch das bisschen aus dass sie koennen und eher um hauptsaechlich wo immer sie es schaffen so gut wie moeglich fuer front to back zu optimieren weil es eben ausser earlyZ keine sehenswerten Bandbreiten-Sparmassnahmen gibt.

Sonst: http://schedule.gdconf.com/session/15102909/The_Future_of_Mobile_Graphics_%28Presented_by_Imagination_Technologies%29

Ausserdem ist der T4i doch recht klein. Warum sollte der nicht in einem entsprechenden Massendevice zu günstigen Konditionen stecken?

Weil ihnen TSMC fuer 28HPM bei dem Volumen einen Sonderpreis einlegen wird? Schon mal davon gehoert dass je groesser das Volumen desto geringer die Herstellungskosten. Und ja natuerlich wird NV wafer fuer ein mehrere hundert Mio chips vorbestellen, weil sie eben jegliches Risiko kinderleicht schlucken koennen?

100 Euro ist doch die magische Grenze. Das Kindle Fire Pad erreicht diese gerade. Ein 99Euro Nexus 7 Gerät ist auch schon länger Phantomthema und soll bis Mitte des Jahres erscheinen.
Auch in so etwas könnte ein T4i stecken, als Ersatz für den alten Tegra 3.

Ach wenn T3 so alt wird dass es spottbillig zum herstellen wird ist es auch kein Wunder dass man noch mehr mit dem Preis runtergehen kann. Direkten Gewinn hat NV von den 6 Mio Nexus7 bis jetzt auch nicht gesehen. Was soll mit Kindle Fire Pad sein? Wie alt ist OMAP4430 gerade und auf welchem Prozess wird es hergestellt?

T4i ist ein brandneuer design und dazu noch auf 28HPM ausgelegt; wenn Dir hier die wesentlichen Unterschiede nicht einleuchten kann ich auch nicht weiterhelfen. Nochmal am Kostenrand zu verkaufen ist zwar eine Eulogie fuer den Endverbraucher aber wohl eher eine panacea fuer NV weil es zwar etwas mehr Volumen reinholen wird aber wohl keinen hohen genug Umsatz um die steigenden Kosten fuer Tegra weiterhin zu finanzieren.

Auf jeden Fall wird der Wettbewerb doch jetzt deutlich anziehen.

Hoer ich schon seeeeehr lange; Entwickler konzentrieren sich uebrigens auf die pre-dominant hw und den lowest common denominator. Sonst wenn Intel, Samsung, Apple und dergleichen von jemand momentan Angst haben dann ist es Qualcomm. Qualcomm, Samsung und Apple sind die Art der semis die mal schnell ein paar Milliarden in foundries investieren um ihre Herstellung zu finanzieren.

Der Markt wird nach wie vor von IP dominiert aus verstaendlichen Gruenden. Bevor Du zu so kunderbunten Projektionen kommst, waere es vielleicht doch angebraucht auf den launch von T4 bzw. T4i abzuwarten und dessen jeweiligen perf/mW ratios. NV marketing hat uns die Ohren mit perf/mm2 u.a. vollgestopft aber nirgends wenigstens ein Piep ueber Stromverbrauch. Nebenbei waren die Praesentationen mit so vielen Luegen ausgestattet dass es nicht mehr schoen ist. Nach NV stets hat ein Mali T604 nur 32 GFLOPs bei 533MHz. In Echtzeit hat der 604 4*SIMD16 + 8 SFUs, aber nach NVs Kunstrechnerei 30 SIMD lanes und 79 SFUs und wenn es nur die einzige Luege waere....

Wir haben noch genug Zeit bis NV's technisches marketing es endlich schafft zu verstehen was wirklich im Markt vorgeht; Enthusiasmus sehe ich stets links und rechts fuer A,B oder C, aber wenn die wahren Marktanteile am Ende rauskommen war es am Ende stets zu viel Weihrauch ohne Hintergrund.

Skysnake
2013-03-13, 10:04:12
Und genau das muss in die Köpfe bei nVidia SFF!=dedizierter GPU Markt....

Im SFF dreht sich kein Hansel nach ihnen um, und Sie müssen eben die Produzenten überzeugen, und nicht irgendwelche Endkunden... Zudem hat man nicht den Vorteil wie im Mobile-x86 Markt, wo Intel ein Interesse daran hat keine AMD GPU mit seinen CPUs kombinieren zu lassen...

Ailuros
2013-03-13, 10:10:42
Und genau das muss in die Köpfe bei nVidia SFF!=dedizierter GPU Markt....

Im SFF dreht sich kein Hansel nach ihnen um, und Sie müssen eben die Produzenten überzeugen, und nicht irgendwelche Endkunden... Zudem hat man nicht den Vorteil wie im Mobile-x86 Markt, wo Intel ein Interesse daran hat keine AMD GPU mit seinen CPUs kombinieren zu lassen...

Firmen-Angestellte sind auch nur Leute und koennen eventuell auf Marketing reinfallen. Es gibt fuer sehr wenige Spieler in diesem Markt eine relativ sichere Zukunft; Teufel es reicht wenn Apple IMG einen Tritt in den Hintern verpasst und schon haben sie den groessten design win ueberhaupt verloren.

Momentan ist es auch ziemlich unruhig in fern oestlichen Maerkten weil sich so einiges zwischen den grossen Konzernen dort bewegt. Sharp steht als einfaches Beispiel auf sehr wackligen Beinen.

Skysnake
2013-03-13, 10:50:31
Verdammt viele stehen auf wackeligen Beinen... Wie du schon richtig sagst, wenn einer der großen Hustet, dann bebt die Erde für so manchen.

Samsung setzt ja auch nicht 100% auf eigene Designs usw.

Der Markt bewegt sich halt wirklich stark, und genau darin sehe ich für nVidia ein Problem. Ich befürchte einfach, dass Sie da mit den Großen einfach nicht mithalten können, und die "Kleinen" die es sonst noch gibt, werden/wurden eh schon dazwischen zerrieben.

Avalox
2013-03-13, 11:47:17
Soll das jetzt Sarkasmus sein, oder meinst du das wirklich ernst? :ugly:

Welcher Softwarehersteller, gibt denn bitte auf nVidia auch nur den kleinsten Schiss? Wenn muss nVidia da richtig rein buttern, und das können Sie sich auf Dauer nicht leisten. Das sind nur ein paar Prestige-Projekte, aber das wars dann auch...


Natürlich bezahlt nVidia dafür. Guten Zugang zu Spieleentwicklern haben sie ja.

Eigentlich ist alles was Rang und Namen hat Kandidat in einer Tegra optimierten Version zu erscheinen und auch eine Menge mehr.

Das war bei Tegra 2 so, bei Tegra 3 und nun für Tegra 4.

http://androapk.org/wp-content/uploads/2013/02/NVIDIA-5-Games-Optimized-for-the-Tegra-4.jpg


nVidia hinkt einfach bei den GPU-Features meilenweit hinterher, und je mehr die neuen Features genutzt werden, und je mehr sich Grafikengine-Lizenzierung im SFF durchsetzt, desto mehr Probleme wird nVidia bekommen.


Ich denke man muss mal sehen wie nVidia in der Vergangenheit getickt hat, dort kann man bestimmt so einigen ablesen wie es weiter gehen wird.

Was nutzen ein Features auf der einen Seite, wenn die Spiele dann durch direkten Unterstützung trotzdem wieder besser auf dem Tegra aussehen und dort kann man eben doch den Zirkelschluss wieder bilden. Shild passt dort z.B. auch prima hinein.
nVidia geht halt an die Entwickler direkt heran.

Jetzt denkt man mal ein paar Semester weiter, dann wird es für die Plattform Android AAA Titel geben und wenn dann nVidia den Fuß in der Tür hat mag das durchaus Kreise ziehen. Das sollte man nicht unterschätzen.

Ailuros
2013-03-13, 11:49:05
Verdammt viele stehen auf wackeligen Beinen... Wie du schon richtig sagst, wenn einer der großen Hustet, dann bebt die Erde für so manchen.

Samsung setzt ja auch nicht 100% auf eigene Designs usw.

Der Markt bewegt sich halt wirklich stark, und genau darin sehe ich für nVidia ein Problem. Ich befürchte einfach, dass Sie da mit den Großen einfach nicht mithalten können, und die "Kleinen" die es sonst noch gibt, werden/wurden eh schon dazwischen zerrieben.

So lange sie ihre standalone GPUs sowohl fuer mainstream als auch fuer Profi-Maerkte bei Wucher-Margen verkaufen koennen mach ich mir keine Sorgen um NV. T4i ist tatsaechlich NV's ticket etwas Markt-volumen dazuzugewinnen, aber da so oder so T4i billiger ist als T4 fallen auch die Margen wieder.

Nur ARM hat verdammt hohe Margen fuer ihr CPU IP, aber dass dann auch nur weil sie auch ein quasi Monopol im Markt sind.

YfOrU
2013-03-13, 11:52:02
Der Markt bewegt sich halt wirklich stark, und genau darin sehe ich für nVidia ein Problem. Ich befürchte einfach, dass Sie da mit den Großen einfach nicht mithalten können, und die "Kleinen" die es sonst noch gibt, werden/wurden eh schon dazwischen zerrieben.

Es wird unter Umständen mittelfristig halbwegs funktionieren aber auf lange Sicht sind exorbitante Investitionen nötig. Sowohl was die Entwicklung als auch die Fertigung betrifft.

Vor allen letzteres sehe ich als äußerst kritischen Punkt an denn hier geht es nicht nur um Kapazitäten sondern auch um die (zeitnahe) Verfügbarkeit neuer Fertigungsprozesse für die eigenen Produkte. In diesem Bereich ist Intel der absolute Maßstab und damit muss zumindest eine teilweise Annäherung erfolgen. Ob das über eigene Fabs oder exklusive Verträge mit Auftragsfertigern läuft spielt nur eine untergeordnete Rolle. Es wird in jedem Fall sehr teuer.

Gleichzeitig muss genug Kapital vorhanden sein um unabhängig vom wirtschaftlichen Erfolg einzelner Produktgenerationen agieren zu können denn das Entwicklungstempo welches Unternehmen wie Qualcomm, Apple oder Intel auf lange Sicht umsetzen werden dürfte noch größer ausfallen als es im klassischen x86 Bereich (Intel - AMD) jemals der Fall gewesen ist. Hier muss zwangsläufig auf TI hingewiesen werden. Obwohl dieses Unternehmen erheblich größer ist als Nvidia wurde aus wirtschaftlichen Gründen die Reißleine gezogen. Dabei ist der Zug noch nicht mal richtig losgefahren und TIs IP Portfolio wäre alles andere als eine schlechte Ausgangsbasis gewesen. Denen war aber klar welcher Aufwand nötig ist um in Zukunft erfolgreich zu sein -> mittelfristig kaum rentabel und ein zu hohes Risiko damit den ganzen Laden gegen die Wand zu fahren.

Ailuros
2013-03-13, 12:02:06
Natürlich bezahlt nVidia dafür. Guten Zugang zu Spieleentwicklern haben sie ja.

Seit wann sind ISVs Volumen genau egal? Ein gelegentlicher Gefalle hier und da bringt auch nicht den Fruehling.

Eigentlich ist alles was Rang und Namen hat Kandidat in einer Tegra optimierten Version zu erscheinen und auch eine Menge mehr.

Bleibt die Frage wieso man ueberhaupt Optimierungen braucht bei einer so "straight forward" Architektur.

Das war bei Tegra 2 so, bei Tegra 3 und nun für Tegra 4.

Erzaehl mal wieviele Spiele fuer diese genau verkauft wurden?


Ich denke man muss mal sehen wie nVidia in der Vergangenheit getickt hat, dort kann man bestimmt so einigen ablesen wie es weiter gehen wird.

Und sie hatten in der Vergangenheit so viele und so grosse Konkurrenten wie heute?

Was nutzen ein Features auf der einen Seite, wenn die Spiele dann durch direkten Unterstützung trotzdem wieder besser auf dem Tegra aussehen und dort kann man eben doch den Zirkelschluss wieder bilden.

Das Bumsspielchen oben sieht sicher um einiges "besser" aus und verkauft sich auch um einiges mehr als die populaersten mobile Spiele fuer iOS und Android oder?

Shild passt dort z.B. auch prima hinein.
nVidia geht halt an die Entwickler direkt heran.

Wenn aus dem Ding kein Mega-Erfolg wird....:rolleyes:

Jetzt denkt man mal ein paar Semester weiter, dann wird es für die Plattform Android AAA Titel geben und wenn dann nVidia den Fuß in der Tür hat mag das durchaus Kreise ziehen. Das sollte man nicht unterschätzen.

Nochmal ich hoer den albernen Brei schon seit GoForce; ich hab's fuer Mali gehoert und sonst noch welche andere Loesung. Qualcomm, Samsung und Apple bleiben nach wie vor die grossen Spieler im Markt und es kommt im allerbesten Fall langfristig noch Intel dazu. Hat NV eine Chance dass jeglicher der vorerwaehnten je eine ziemlich grosse Bestellung bei NV macht fuer einen wirklichen high volume deal? Wohl eher nein.

NVIDIA wird weiterhin zuwachsen im SFF zweiffellos, aber eben nicht mit dem Rhythmus die viele von Euch von Zeit zu Zeit zuschreiben wollt. Es will ja keiner einsehen aber wie gesagt am Ende wenn jedesmal Marktanteile angekuendigt werden verstecken sich alle schnell hinter ihrem Finger.

Avalox
2013-03-13, 12:20:49
Seit wann sind ISVs Volumen genau egal? Ein gelegentlicher Gefalle hier und da bringt auch nicht den Fruehling.


Diesen ist Ertrag wichtig nicht Volumen und wenn nVidia ein Extrabonus verspricht für wenig Aufwand, dann wird dieser sicherlich gerne mitgenommen.

Wie gesagt, alles was Rang und Namen hat, hat mit einer Wahrscheinlichkeit auf eine Tegra optimierte Version mit besserer Grafik.

Bleibt die Frage wieso man ueberhaupt Optimierungen braucht bei einer so "straight forward" Architektur.

Um einen nVidia Bonus den Kunden zu verkaufen. Es wird je selbst sogar Content hinzugefügt. Wer das Spiel am schönsten spielen möchte, braucht dann einen Tegra.

Erzaehl mal wieviele Spiele fuer diese genau verkauft wurden?

Wie viel Spiele verkauft werden k.A., ich weiß nur wieviel Spiele in einer Tegra Version angeboten werden und dort sind bald die 100 voll, mit zunehmender Tendenz.

Gerade das Nexus 7 wird so einiges beigetragen haben, das auch in das Bewusstsein der Leute zu bekommen.

Und sie hatten in der Vergangenheit so viele und so grosse Konkurrenten wie heute?

Unterschätzen würde ich sie nicht.
Ich will auch nichts überhöhen. nVidia spielt als einer der wenigen Spieler auch auf der Contentseite und der T4i ist scheinbar dazu da sich Marktanteil zu kaufen. Mehr nicht.

YfOrU
2013-03-13, 12:49:36
Unterschätzen würde ich sie nicht.
Ich will auch nichts überhöhen. nVidia spielt als einer der wenigen Spieler auch auf der Contentseite und der T4i ist scheinbar dazu da sich Marktanteil zu kaufen. Mehr nicht.

Wenn Nvidia keinen richtig finanzstarken Investor oder Käufer findet wird man mittelfristig den ein oder anderen Erfolg haben aber am Ende fehlt es am Budget. Es ist nahezu unmöglich hier auf absehbare Zeit die Gewinne zu erzielen welche zwingend nötig wären um das Entwicklungstempo und gleichzeitig fallende Preise dauerhaft mitgehen zu können. Auch besteht praktisch keine Möglichkeit das durch Einnahmen anderer Sparten zu kompensieren. Dabei sollte ursprünglich der SoC Bereich diesen Part gegenüber den anderen Sparten übernehmen. Die strategischen Projektionen haben sich als komplett falsch erwiesen. Damit befindet man sich in guter Gesellschaft (Intel). Nur haben letztere die Mittel um solche Fehler ohne Schmerzen kompensieren zu können.

Undertaker
2013-03-13, 13:05:04
Wer hier kennt denn die genauen Entwicklungsbudgets der SoC-Sparte bei den verschiedenen Herstellern? Einfach die Jahresgewinne oder die Marktkapitalisierung zu vergleichen ist reichlich witzlos, da die meisten Unternehmen in einer Reihe verschiedener Branchen unterwegs sind. Qualcomm z.B. ist z.B. auch im Bereich von Mobilfunk-Basisstationen, WLAN- und sonstige Funkchips, Satellitenkommunikation usw. aktiv; was da am Ende wirklich nur für die SoC-Sparte drauf geht? Selbige ist zudem deutlich breiter gefächert und verursacht damit auch höhere Gesamtkosten, als auf 2-3 verschiedene Tegra-Chips entfallen.
Hier kann man übrigens auch sehr gut Vergleiche mit anderen Branchen ziehen. Nur weil z.B. VW im Vergleich zu allen anderen europäischen Herstellern ein Riese ist, können die anderen trotzdem konkurrenzfähige Autos bauen. Ganz einfach weil VW auch zigfach mehr Modelle entwickelt... Aber klar: Durch Synergieeffekte bleibt beim größeren Unternehmen am Ende tendenziell mehr Gewinn übrig.

Rein technisch ist man mit T4 (eher Tablets) und T4i die kommenden Quartale gut aufgestellt. Qualcomm ist mit S600/S800 natürlich etwas eher dran, für einen "Underdog" siehts aber recht ordentlich aus. ;)

YfOrU
2013-03-13, 13:20:19
Selbige ist zudem deutlich breiter gefächert und verursacht damit auch höhere Gesamtkosten, als auf 2-3 verschiedene Tegra-Chips entfallen.

Der Punkt ist das über die Integration von ARM IP Cores und "Mainstream" Fertigung bei Unternehmen wie TSMC in der Zukunft kein Blumentopf zu gewinnen ist.

Es sind ISA kompatible Eigenentwicklungen, State of the Art Fertigung mit hoher Kapazität sowie immer aktuellste (integrierte) Funkstandards nötig. Dafür sind im Vergleich zu oberen erheblichst größere Investitionen nötig und dann müssen die einzelnen Produkte auch noch zum richtigen Zeitpunkt marktreif sein. Unternehmen wie Qualcomm, Samsung oder auch Intel haben hier über das eigene Portfolio an Produkten große Synergieeffekte und schlichtweg viel mehr Kapital zur Verfügung. Bei Nvidia bleibt das praktisch an ein paar Produkten in einer einzelnen Sparte hängen.

Es macht wenig Sinn in eine GPU Funktechnologie zu integrieren. Zuerst müssen CPUs integriert werden und dann sind wir bei etwas wie den AMD APUs. Allerdings sind das dann keine LP SoCs mehr und damit muss eine separate Big-Core CPU her. Dafür ist aber nochmal mehr Kapital nötig und gleichzeitig steigt das Risiko das am Ende ein Produkt heraus kommt welches die Vorgaben massiv verfehlt. Ist sowohl AMD als auch Intel trotz massig Erfahrung schon passiert. Das Hauptproblem liegt weniger darin ein paar LP SoCs auf den Markt zu werfen sondern sich mit einem breiten Portfolio in knallharten Märkten konkurrenzfähig aufzustellen. Dagegen ist der Bereich der (dedizierten) GPUs die reinste Kuschelecke.

Undertaker
2013-03-13, 14:03:08
"Mainstream" Fertigung bei Unternehmen wie TSMC

Welcher Hersteller außer Intel kann derzeit einen besseren Prozess als die diveresen 28nm-Variationen bei TSMC anbieten?

Es macht wenig Sinn in eine GPU Funktechnologie zu integrieren.

Davon redet ja auch keiner - das Funk-Know-How von Icera dient der Tegra-Schiene. Btw: Haben/hatten TI, Samsung, Apple oder die ganzen China-Buden eigene Mobilfunk-Technik in ihren SoCs? Wer außer Qualcomm kann aktuell überhaupt SoCs mit integriertem LTE anbieten?

Nvidia hat sicherlich nicht das Potential, in den kommenden Jahren Qualcomm die Marktführerschaft im SoC-Markt zu entreißen. Ganz so schwarz wie einige die Situation hier malen ist sie aber definitiv nicht. Irgendwie haben wir die gleiche Diskussion jedes Jahr aufs Neue – und beim Blick auf die Quartalsergebnisse der Tegra-Sparte zeigt sich dann doch immer ein ziemlich üppiges Wachstum. ;)

Skysnake
2013-03-13, 15:00:08
Auf zu welchem Preis?

So lange unterm Strich noch immer ein Minus bei raus kommt, kann man es auch stecken lassen...

YfOrU
2013-03-13, 16:04:48
Welcher Hersteller außer Intel kann derzeit einen besseren Prozess als die diveresen 28nm-Variationen bei TSMC anbieten?

Die Frage ist nicht wer etwas besseres anbieten könnte sondern wer das Beste was der Markt in der Realität hergibt bekommt. Das war in diesem Bereich eindeutig Qualcomm und wird in Zukunft kaum anders laufen. Nur das es eher noch ein ganzes Stück teurer werden wird denn diesen großen Rückstand auf Intel werden weder Qualcomm noch Apple auf Dauer schlucken wollen. Gerade in einem Segment in welchem es um jedes mW geht ist das langfristig ein massiver Wettbewerbsnachteil.


Davon redet ja auch keiner - das Funk-Know-How von Icera dient der Tegra-Schiene. Btw: Haben/hatten TI, Samsung, Apple oder die ganzen China-Buden eigene Mobilfunk-Technik in ihren SoCs? Wer außer Qualcomm kann aktuell überhaupt SoCs mit integriertem LTE anbieten?

Eine sogenannte "World-Baseband" hat bisher nur Qualcomm integriert. Das rechnet sich auch nur wenn der entsprechende SoC in sehr hohen Volumen global abgesetzt wird (sowie zeitnahe eine Verfügbarkeit gegeben ist).

Deshalb hat zum Beispiel Samsung eine separate WCDMA+LTE Baseband zur Kombination mit dem gesamten SoC Portfolio. Apple macht das ähnlich nur wird die Baseband grundsätzlich von Qualcomm zugekauft.
Nvidia geht mit T4i den gleichen Weg wie Qualcomm welcher in einem gewissen Umfang funktionieren sollte. Ernsthafte Konkurrenz zu Qualcomm wird das bei realer Verfügbarkeit am Markt aber nicht mehr sein. Also in Relation geringerer Verkaufspreis und damit muss es das Volumen richten was wiederum alles andere als einfach ist.

Ailuros
2013-03-13, 16:40:57
Diesen ist Ertrag wichtig nicht Volumen und wenn nVidia ein Extrabonus verspricht für wenig Aufwand, dann wird dieser sicherlich gerne mitgenommen.

Wie gesagt, alles was Rang und Namen hat, hat mit einer Wahrscheinlichkeit auf eine Tegra optimierte Version mit besserer Grafik.

So wie Sachen von Epic, iD, oder anderen? Was genau versteht Du unter "bessere Grafik" vielleicht?

Um einen nVidia Bonus den Kunden zu verkaufen. Es wird je selbst sogar Content hinzugefügt. Wer das Spiel am schönsten spielen möchte, braucht dann einen Tegra.

So wie Infinity Blade z.B. mit 4xMSAA fuer high end Geraete?


Wie viel Spiele verkauft werden k.A., ich weiß nur wieviel Spiele in einer Tegra Version angeboten werden und dort sind bald die 100 voll, mit zunehmender Tendenz.

Junge sind darunter aber anspruchsvolle AAA mobile Titel :freak:

Gerade das Nexus 7 wird so einiges beigetragen haben, das auch in das Bewusstsein der Leute zu bekommen.

6 Bums Millionen gegen ueber 100Mio zumindest jeweils fuer Samsung und Apple; wenn ich beim letzteren allen i-Mist mitrechne sind es 33x Mal so viel.

Unterschätzen würde ich sie nicht.
Ich will auch nichts überhöhen. nVidia spielt als einer der wenigen Spieler auch auf der Contentseite und der T4i ist scheinbar dazu da sich Marktanteil zu kaufen. Mehr nicht.

Ein paar extra Bums Millionen sage ich doch. Ich bin grosszuegig und schaetze sie von Fruehling 13' bis Fruehling 14' =/>6% Marktanteil insgesamt ein, embedded mitberechnet. Mehr als doppelt so viel als bis zu Fruehling 12' von mir aus auch gleich 3x Mal so viel. Schau her das Prozentual ist immer noch einstellig?

Wer hier kennt denn die genauen Entwicklungsbudgets der SoC-Sparte bei den verschiedenen Herstellern? Einfach die Jahresgewinne oder die Marktkapitalisierung zu vergleichen ist reichlich witzlos, da die meisten Unternehmen in einer Reihe verschiedener Branchen unterwegs sind. Qualcomm z.B. ist z.B. auch im Bereich von Mobilfunk-Basisstationen, WLAN- und sonstige Funkchips, Satellitenkommunikation usw. aktiv; was da am Ende wirklich nur für die SoC-Sparte drauf geht? Selbige ist zudem deutlich breiter gefächert und verursacht damit auch höhere Gesamtkosten, als auf 2-3 verschiedene Tegra-Chips entfallen.

Qualcomm hat im letzten Jaar ueber 1 Mrd investiert um foundry Kapazitaeten zu sichern.

Hier kann man übrigens auch sehr gut Vergleiche mit anderen Branchen ziehen. Nur weil z.B. VW im Vergleich zu allen anderen europäischen Herstellern ein Riese ist, können die anderen trotzdem konkurrenzfähige Autos bauen. Ganz einfach weil VW auch zigfach mehr Modelle entwickelt... Aber klar: Durch Synergieeffekte bleibt beim größeren Unternehmen am Ende tendenziell mehr Gewinn übrig.

Apropos VW was ist denn mit der angeblichen Tegra "Exklusivitaet" dort los?

Rein technisch ist man mit T4 (eher Tablets) und T4i die kommenden Quartale gut aufgestellt. Qualcomm ist mit S600/S800 natürlich etwas eher dran, für einen "Underdog" siehts aber recht ordentlich aus. ;)

Und wenn ich jetzt ROGUE sage kommt was fuer eine Antwort? Ja aber? Die GFLOP/mm2 bzw. GFLOP/W Raten gibt es nichtmal im desktop. Ordentlich ja aber jaemmerlich WENIG fuer den groessten GPU IHV weltweit wenn es zu GPUs kommt.

Ich glaube es wird so langsam Zeit dass ich mal ein bisschen mehr erklaere warum mir Jensen mit dem Tegra Zeug so auf den Wecker geht; als die GF100/40G angefangen hat, hat JHH von allen moeglichen Seiten engineers angesammelt um das Problem zu loesen, GF110 so schnell wie moeglich auf die Schiene zu bekommen und 28nm Probleme mit Kepler so stark wie moeglich zu vermeiden. Die ULP GF Abteilung blieb mit 1 architect und 1 RTL engineer stehen bis zu T3. 2 Leute halloechen klingelts bei irgend jemand?

Als aber JHHs kunterbunten Bums-Projektionen fuer Analysten fuer T3 nicht ankamen war der Suendenbock Herr Mike Rayfield; als der arme Kerl aber kreischte dass sie zu wenig resourcen haben hat keiner auf ihn gehoert. Rayfield hat gekuendigt und hat einen besseren Job woanders sofort gefunden.

In der Zwischenzeit wurden resources wieder zu Tegra zurueckgeschleusst aber wenn es wirklich genug gewesen waere wuerde die ULP GF auf T4 auch anders aussehen. Man pumpte einfach nur so um N% die ALU lanes auf, liess das Grundgestell unveraendert und fuegte als Tortenkirsche noch etwas Bandbreiten-Komprimierung zum mix damit es nicht zu nackt aussieht. Was wollen sie eigentlich mit 6x Mal so viel VS ALUs im Vergleich zu T3 wenn die raster bzw. trisetup Einheiten unveraendert dastehen?

Das daemliche ist eben dass ich immer noch ueber den einen oder anderen Weg Zugang zu NV haben; und es ist auch hier natuerlich stets die gleiche ehlendige Geschichte: sw und hw engineers sind absolute Genies und Entscheidungen werden von ratlosen Marketing/PR Affen getroffen.

Avalox
2013-03-13, 23:37:53
So wie Sachen von Epic, iD, oder anderen? Was genau versteht Du unter "bessere Grafik" vielleicht?


Nö. Aber Sachen von Rockstar Games, wie Grand Theft Auto: Vice City, oder Max Payne. Aber auch andere Kaliber wie ARMA II, oder auch Dead Trigger 1 und 2, oder NBA 2K13 von 2k Games usw. usw. usw.

Alle am schicksten auf dem Tegra ..

nVidia hat dort schon ein glückliches Händchen.

zmNZwpn1C-4

Blediator16
2013-03-13, 23:50:31
Nö. Aber Sachen von Rockstar Games, wie Grand Theft Auto: Vice City, oder Max Payne. Aber auch andere Kaliber wie ARMA II, oder auch Dead Trigger 1 und 2, oder NBA 2K13 von 2k Games usw. usw. usw.

Alle am schicksten auf dem Tegra ..

nVidia hat dort schon ein glückliches Händchen.

Man konnte Max Payne mit Chainfire auch auf z.b einem GSG3 in "Tegra Qualität" spielen. Irgendwas scheint da doch schief zu laufen.

Avalox
2013-03-14, 00:01:27
Man konnte Max Payne mit Chainfire auch auf z.b einem GSG3 in "Tegra Qualität" spielen. Irgendwas scheint da doch schief zu laufen.


Ne. Da läuft nichts schief. nVidia bezahlt für aufgehübschte Versionen, sie bezahlen, dass die Hersteller eine hübschere Version erstellen und diese ggf. nur eine Tegra Abfrage enthält. Das hat nicht unbedingt einen technischen Hintergrund. Jetzt würde nVidia natürlich sagen, dass die Hersteller natürlich mit der Leistungsfähigkeit der Tegra Lösung rechnen können.. Aber da ist natürlich nur blah.
Ziel ist es den Kunden einen Mehrwert des Tegra Kaufs zu bieten. Da spiel die Technik gar keine Rolle, da kann der Wettbewerb die tollere Lösung haben, das Spiel sieht dann auf einen Tegra immer noch besser aus..
Hat der Kunde erstmal Geld für ein Tegra only Spiel ausgegeben, so kann er es nicht mehr ggf. auf ein später gekauftes nicht Tegra Gerät mehr spielen..
Das man diese Spiele durch wegpatchen von irgendwelchen Abfragen dann ggf. auch auf andere GPUs spielen kann, bezweifelt gar niemand. Aber das ist natürlich kein Garant.

Knuddelbearli
2013-03-14, 00:07:06
und für so eine Strategie braucht man dann einfach die schiere menge an designwins

das optimieren wird bei höherem Marktanteil ja sogar eher günstiger

Ailuros
2013-03-14, 06:28:34
und für so eine Strategie braucht man dann einfach die schiere menge an designwins

Deshalb drehen wir uns auch im Kreis die ganze Zeit mit der Debatte hier. Die Optimierungen fuer die paar Spiele pro SoC Generation bringen eben nicht so leicht die designwins bzw. irgendwelches Volumen rein, wenn man bedenkt wer der eigentliche "Kunde" hier ist. Da es verdammt schwer sein wird fuer NV einen grossen Deal mit grossem Volumen zu landen muessen sie eine Unzahl an kleinen design wins zusammenkratzen damit daraus etwas wird.

das optimieren wird bei höherem Marktanteil ja sogar eher günstiger

Bei sehr hohen Anteilen sogar eventuell fast umsonst.

deekey777
2013-03-14, 16:21:27
Nö. Aber Sachen von Rockstar Games, wie Grand Theft Auto: Vice City, oder Max Payne....

Kannst du das näher erläutern? Denn soweit ich weiß, ist der Unterschied, dass Tegra-Spieler zusätzlich Grafikoptionen haben bzw. zB anisotrope Filterung möglich ist (aber nicht wirklich exklusiv).

Man sollte auch ansprechen, dass weder Gameloft- noch EA-Spiele in der Tegrazone zu finden sind. Auch sieht zB NOVA 3 auf einem Tegra-3-Gerät schlechter aus als auf einem iPad 2.

Um das kurz zu machen: Das Ganze "THD"-Zeug wirkt auf mich wie zusätzliche GPU-Effekte bei Spielen, die PhysX nutzen. Es sind nur wenige wirkliche AAA-Titel, die meisten Titel sind solche, die man längst vergessen hat.

Ailuros
2013-03-14, 17:56:27
Kannst du das näher erläutern? Denn soweit ich weiß, ist der Unterschied, dass Tegra-Spieler zusätzlich Grafikoptionen haben bzw. zB anisotrope Filterung möglich ist (aber nicht wirklich exklusiv).

AF ist leistungsmaessig bullshit wenn man keine quad TMUs hat.

Man sollte auch ansprechen, dass weder Gameloft- noch EA-Spiele in der Tegrazone zu finden sind. Auch sieht zB NOVA 3 auf einem Tegra-3-Gerät schlechter aus als auf einem iPad 2.

Du meinst das z-aliasing u.a.? 16bit Z ist eben schneller als 24bit Z ;) Es ist eben nicht steril Leistung sondern Leistung bei N Bildqualitaet.

Um das kurz zu machen: Das Ganze "THD"-Zeug wirkt auf mich wie zusätzliche GPU-Effekte bei Spielen, die PhysX nutzen. Es sind nur wenige wirkliche AAA-Titel, die meisten Titel sind solche, die man längst vergessen hat.

Wie gesagt NV naehert sich so vielen Entwicklern wie moeglich und es wird so weit der code fuer front to back optimiert bis N% mehr Leistung rauskommt. NOVA3 war eine slideshow auf Tegras bis es optimiert wurde. Wenn sie schon dabei sind etwas fuer Leistung zu optimieren kann man gelegentlich mal hier und da ein klein bisschen dazufuegen.

Aber eben NICHT hoeher aufgeloeste Texturen, mehr shader calls und 4x MSAA wie auf high end Apple hw z.B. fuer Sachen wie Infinity Blade. Uebrigens wird coverage AA NICHT mehr ab T4/T4i unterstuetzt; ich will nur hoffen dass 4xAA nicht so lahmarschig ist wie auf den ersten Test-Resultaten.

Und wenn's schon sein muss 4x MSAA kommt auf den meisten mobilen GPUs dort draussen mit nur geringem Leistungsverlust in vielen Faellen. Hochgetaktete Mali400MP4 koennen in racing sims z.B. sogar 16xAA einschalten welches eine Kombination von 4xMSAA und 4xOGSS ist. So etwas sollte man mal in videos in Echtzeit gegen den Rums mit dem NV wirbt vergleichen.

deekey777
2013-03-14, 21:17:26
AF ist leistungsmaessig bullshit wenn man keine quad TMUs hat.
Das kommt von Nvidia. Am Ende sieht es wohl so aus:
http://www.anandtech.com/show/5688/apple-ipad-2012-review/16
(GTA III)



Du meinst das z-aliasing u.a.? 16bit Z ist eben schneller als 24bit Z ;) Es ist eben nicht steril Leistung sondern Leistung bei N Bildqualitaet.

Ich meine schon das:
http://www.eurogamer.net/articles/df-hardware-how-powerful-is-tegra-3
Also disappointing is that the Android version loses all the extra effects work we see on the iPad 2 version.

Ich spielte NOVA 3 auf einem iPhone 4, das ist die Qualität wie auf einem iPad 3 in voller Auflösung (also ohne Effekte): http://news.cnet.com/8301-17938_105-57432267-1/does-n.o.v.a-3-actually-look-better-on-the-old-ipad/
Das ist schon ein Unterschied. Dennoch muss ich mich da zurückhalten, wenn die Android-Version auf iPad-2-Niveau angepasst wurde. Beim neuesten Modern Combat 4 heißt es, dass einige Effekte fehlen.

Edit: https://www.youtube.com/watch?v=iV0F74vKOEc

Wie gesagt NV naehert sich so vielen Entwicklern wie moeglich und es wird so weit der code fuer front to back optimiert bis N% mehr Leistung rauskommt. NOVA3 war eine slideshow auf Tegras bis es optimiert wurde. Wenn sie schon dabei sind etwas fuer Leistung zu optimieren kann man gelegentlich mal hier und da ein klein bisschen dazufuegen.

Aber eben NICHT hoeher aufgeloeste Texturen, mehr shader calls und 4x MSAA wie auf high end Apple hw z.B. fuer Sachen wie Infinity Blade. Uebrigens wird coverage AA NICHT mehr ab T4/T4i unterstuetzt; ich will nur hoffen dass 4xAA nicht so lahmarschig ist wie auf den ersten Test-Resultaten.


Das ist schon klar. Mit "Tegra optimized" werden Spiele auf die Tegras optimiert, aber das suggeriert den Eindruck, dass es sich um einzigartige Bildverbesserungen/Effekte handeln kann.

Der wichtigste Punkt ist aber gar nicht die bessere Bildqualität, sondern die Steuerung mit einem Gamepad, was für einen Spieler vielmehr entscheidend ist, da es einfach vorteilhaft ist. Und hier hat Nvidia einen Vorsprung, da Spiele mit Gamepad-Steuerung gepusht werden. Das ist ein Kaufkriterium und nicht zusätzliche Effekte.

Avalox
2013-03-14, 23:05:47
Na ja. Passt ja irgendwie

Gestern ist Real Boxing für Android erschienen und es läuft nur auf Trega.


https://play.google.com/store/apps/details?id=com.vividgames.realboxing

Ailuros
2013-03-15, 08:29:18
Na ja. Passt ja irgendwie

Gestern ist Real Boxing für Android erschienen und es läuft nur auf Trega.


https://play.google.com/store/apps/details?id=com.vividgames.realboxing

Ein port von iOS ;D:freak:

Ailuros
2013-03-16, 09:54:07
http://www.fudzilla.com/home/item/30781-trefis-tegra-is-lifting-nvidia%E2%80%99s-outlook

Nvidia currently earns about 18 percent of its revenue from Tegra processors, which is not bad for a product that was on the drawing board just a few years ago.

"We estimate Tegra sales to grow at a CAGR of 17% until 2016. While we believe that Nvidia will manage to expand its footprint in mobile computing, we think that the increasing competition will keep its growth rate lower than the industry average,” said Trefis.

Trefis believes Tegra’s contribution to Nvidia’s overall revenue could reach over 25 percent by 2019, which means the Tegra business won’t expand much in a mature smartphone market.

Wow "ganze" 7% in 6 Jahren? "Optimistischer" koennten Analysten gar nicht sein.

fondness
2013-03-16, 13:47:26
http://www.fudzilla.com/home/item/30781-trefis-tegra-is-lifting-nvidia%E2%80%99s-outlook






Wow "ganze" 7% in 6 Jahren? "Optimistischer" koennten Analysten gar nicht sein.

Also zumindest Tegra 4 war definitiv eine Fehlentscheidung von NV IMO. Zu stromhungrig, technisch nicht auf der höher der Zeit und zu spät. Gibt es inzwischen schon mehr Aussagen zu möglichen Design-Wins? Bisher ist es hier wohl nicht ohne Grund verdammt ruhig. NV kann nur hoffen das Tegar4i besser einschlägt.

Ailuros
2013-03-16, 15:33:10
Also zumindest Tegra 4 war definitiv eine Fehlentscheidung von NV IMO. Zu stromhungrig, technisch nicht auf der höher der Zeit und zu spät.

9.4W peak aber nur fuer die CPUs. In der Zwischenzeit sah ich jetzt erst dass unten an der Tabelle mit NV's T4 Benchmark Resultaten "no thermal constraints". Ja entschuldigt bei "no thermal constraints" kann ich so manche andere Platform auch auf Hochtouren treiben. Und ich glaubte dass die knapp 8W fuer den Exynos5250 im Google Nexus10 zu viel waren....

Gibt es inzwischen schon mehr Aussagen zu möglichen Design-Wins? Bisher ist es hier wohl nicht ohne Grund verdammt ruhig. NV kann nur hoffen das Tegar4i besser einschlägt.

Tablets von Vizio, HP und Toshiba. Smartphones: ZTE....alles natuerlich design wins mit Chancen fuer etliche Millionen Verkaufsvolumen pro deal :rolleyes:

Ach ja dann kommt natuerlich noch Project Shield und Phoenix....;D

http://www.slideshare.net/fullscreen/caulfield2600/tegra-4i-expands-the-market/1

Zwar steht fuer T4i GLB2.5 preliminary dran, aber knapp 3400 frames sind nicht besonders berauschend. Der single channel Speicher scheint mehr zu limitieren als ich mir vorstellen konnte.

mboeller
2013-03-16, 16:17:19
9.4W peak aber nur fuer die CPUs.

....und 5W für den Tegra4i


Quelle: http://blogs.nvidia.com/2013/03/tegra-4-tegra-4i-win-praise-from-leading-semiconductor-analyst-firm/ (oder eben dein Link)

Undertaker
2013-03-16, 16:29:29
Da steht nur etwas von "expect". 5 W klingen für die hohe Taktrate nicht unrealistisch, aber das ist definitiv keine gesicherte Herstellerangabe.

Selbst bei einer offiziellen TDP müsste man genau schauen, wie sich der Chip im Detail verhält. Gibt die TDP gleichzeitigt Volllast bei CPU und GPU her? Oder kann schon ein Teil fast das Maximum erreichen? Die 9,4 W bei T4 klingen verglichen mit den ~8 W beim Exynos 5250 (davon allein ~4 W für die CPU) schon fast etwas wenig.

Ailuros
2013-03-16, 16:39:54
....und 5W für den Tegra4i


Quelle: http://blogs.nvidia.com/2013/03/tegra-4-tegra-4i-win-praise-from-leading-semiconductor-analyst-firm/ (oder eben dein Link)

Wenn sich am Ende herausstellt dass der Samsung Exynos5410 tatsaechlich seine 4*A15 cores bei 1.2GHz taktet (4*A7@1.6GHz) (und nicht andersrum wie bis jetzt die meisten glauben) setzt es ein ganz anderes Bild auf A15 core perf/W generell. Samsung hat IMHO versucht durch Taktanpassungen einen Balance fuer perf/mW im GalaxySiV zwischen ihrem 5410 SoC und dem uebertaktetem Qualcomm S600 herzustellen. Zwar gibt es keine einfache Formel wo man ein 4+4 big.LITTLE config mit 1.2/1.6GHz gegen einen quad Krait bei 1.89GHz so leicht vergleichen kann, aber man breicht auch nicht solch eine Formel um einzusehen dass die Vergleiche totaler BULLSHIT sind.

Wie oft muss man noch erwaehnen dass Qualcomm hauptsaechlich smartphone SoCs als Kerngeschaeft hat? Wenn jetzt der Stromverbrauch um N% scheissegal waere ist natuerlich jeglicher theoretischer S600/S800 auf die Stromverbrauchsraten von Tegra4 angepasst schneller wie Qualcomm auch behauptet. Der Author vom Linley group ist einfach zu daemlich das Loch in der Logik zu entdecken oder der write up wurde ordentlich finanziert.


Selbst bei einer offiziellen TDP müsste man genau schauen, wie sich der Chip im Detail verhält. Gibt die TDP gleichzeitigt Volllast bei CPU und GPU her? Oder kann schon ein Teil fast das Maximum erreichen? Die 9,4 W bei T4 klingen verglichen mit den ~8 W beim Exynos 5250 (davon allein ~4 W für die CPU) schon fast etwas wenig.

Es sind irgendwo =/>4W fuer den dual A15 im 5250 und es sind 9.4W peak NUR fuer die 4*A15 cores bei 1.9GHz im Tegra4. Wenn man es richtig liesst stimmt es schon und macht auch absoluten Sinn.

As we noted earlier, the SPECint benchmark only stresses one core. Judging from the power dissipation at 845MHz, we can assume the processor voltage is cut to 0.8V for low-power operation. At 1.9GHz, assuming the core voltage is the nominal 1.0V for the 28nm HPL process (and ignoring the effect of static power dissipation, as this is a low leakage process), the lone core consumes about 2.35W (P=CfV2). If all four A15 cores were fully engaged at this power level, the processor would draw 9.4W (not including GPU or I/O power). If the cores require overvolting to hit the maximum clock speed, the power situation would be even worse.

***edit:

Rueckzug: die 30fps fuer T4i in GL2.5 1080p offscreen scheinen Werte zu sein die der Author nur so "geraten" hat. Das Samsung GalaxySIV launcht in kurzer Zeit und erreicht in diesem schon mit dem Qualcomm S600 ganze 42fps im gleichen benchmark. Da T4i in geringen Quantitaeten wenn ueberhaupt innerhalb 2013 ankommen wird, muss NV sich verdammt anstrengen und die Treiber bis zum kotzen dafuer optimieren denn +40% werden zu dem Zeitpunkt wohl nicht mehr ausreichen.

Undertaker
2013-03-16, 20:46:20
Es sind irgendwo =/>4W fuer den dual A15 im 5250 und es sind 9.4W peak NUR fuer die 4*A15 cores bei 1.9GHz im Tegra4.

Ah, dann passt das schon besser zusammen. Doppelte Kernzahl und etwas höhere Taktrate gleich etwas mehr als doppelte Leistungsaufnahme.

fondness
2013-03-16, 20:57:37
Es sind irgendwo =/>4W fuer den dual A15 im 5250 und es sind 9.4W peak NUR fuer die 4*A15 cores bei 1.9GHz im Tegra4. Wenn man es richtig liesst stimmt es schon und macht auch absoluten Sinn.


Und was braucht so ein Tegra4 dann wenn GPU und I/O auch noch belastet werden? Wohl 15W+. Das zeigt wie viel da bei Volllast gedrosselt werden muss, bzw. wie es um die Perf/Watt gerade auch angesichts des Featuresets eigentlich steht.

Undertaker
2013-03-16, 21:00:20
Throttelt nicht auch das Nexus 4 unter kombinierter CPU-/GPU-Last? Wir sind mittlerweile schlicht in TDP-Bereichen angelangt, die zumindest in Smartphones nicht mehr ohne weiteres handlebar sind.

Bzgl. Perf/Watt von Cortex-A15 vs. Krait dürfte der Vergleich der beiden Galaxy S4-Versionen recht interessant werden.

fondness
2013-03-16, 21:11:09
Throttelt nicht auch das Nexus 4 unter kombinierter CPU-/GPU-Last? Wir sind mittlerweile schlicht in TDP-Bereichen angelangt, die zumindest in Smartphones nicht mehr ohne weiteres handlebar sind.

Bzgl. Perf/Watt von Cortex-A15 vs. Krait dürfte der Vergleich der beiden Galaxy S4-Versionen recht interessant werden.

Vor allem der Vergleich zu AMD und Intel wird zunehmend interessant. IMO braucht es dringend custom-Core von starken Partnern. AMD will Temash mit Jaguar-Cores bei deutlich unter 5W inkl. DX11.1-GPU bringen, Intel wird Ende des Jahres mit einer neuen Architektur nachziehen.

ARM selbst hat viel zu wenig Ressourcen um hier langfristig bestehen zu können. Krait wird nicht umsonst in sämtlichen Smartphones verbaut und dürfte mit ziemlicher Sicherheit deutlich stromsparender zu werke gehen. Aber ein A15 hat so in einem Smartphone IMO nichts verloren.

Undertaker
2013-03-16, 21:30:21
Nun, der A15 war bislang schlicht keine Alternative, da noch nicht verfügbar. Einen besseren Vergleich als beim S4 kann man gar nicht bekommen, da absolut identisches Systemumfeld. Evtl. kann der A15 durch seine niedrige Taktrate ja noch einiges an Effizienz gewinnen.

Zur Konkurrenz: Wenn man sieht, wie gut bereits ein Atom Z2760 (mit 1,7 Watt TDP!) dasteht – nicht bzgl. absoluter Leistung, sondern Perf/Watt –, kann man vor den kommenden Generationen schon einigen Respekt bekommen. Innerhalb kurzer Zeit scheint Intel gleich zwei Shrinks (32nm -> 22 nm -> 14 nm) und eine grundlegend neue Architektur abzufeuern; aktuell sind ja weder die Kerne noch der Prozess wirklich taufrisch. Gerade der Prozessvorteil gegenüber allen Konkurrenten ist in diesem Bereich ein unschätzbarer Vorteil.

Gipsel
2013-03-16, 22:04:34
Gerade der Prozessvorteil gegenüber allen Konkurrenten ist in diesem Bereich ein unschätzbarer Vorteil.
Grade deswegen ist auch GF mit ihrem 14XM-Prozeß (http://www.globalfoundries.com/technology/14XM.aspx) so unter Druck. Der bringt gegenüber ihren 20nm-Prozessen zwar kaum einen Flächenvorteil, aber dafür Stromverbrauchsvorteile. Der Flächenvorteil ist ja eher sekundär bei der momentanen Entwicklung der Kosten (TSMCs 20nm Prozeß soll z.B. in etwa gleiche Kosten pro Transistor haben wie 28nm). Kann GF die Vorteile des 14XM-Prozesses ohne wesentliche Kostensteigerung gegenüber 20nm anbieten, ist die Diesize praktisch egal (weil bei den Mobilgeschichten sowieso keiner am Reticle-Limit der Belichter arbeitet, wie nV das bei GPUs macht).

Ailuros
2013-03-17, 20:03:32
Vor allem der Vergleich zu AMD und Intel wird zunehmend interessant. IMO braucht es dringend custom-Core von starken Partnern. AMD will Temash mit Jaguar-Cores bei deutlich unter 5W inkl. DX11.1-GPU bringen, Intel wird Ende des Jahres mit einer neuen Architektur nachziehen.

Wenn AMD nur vorhat bei tablets zu bleiben dann ok. Fuer smartphones brauchen sie entweder einen von Grund auf angepassten design oder der DX11.1 Ueberfluss in der GPU wird tonnenweisen an Transistoren schlucken die sonst in Leistung haetten investiert werden koennen.

ARM selbst hat viel zu wenig Ressourcen um hier langfristig bestehen zu können. Krait wird nicht umsonst in sämtlichen Smartphones verbaut und dürfte mit ziemlicher Sicherheit deutlich stromsparender zu werke gehen. Aber ein A15 hat so in einem Smartphone IMO nichts verloren.

Glaubst Du Qualcomm, Apple und NV spinnen dass sie custom CPU designs
entwickeln.

dildo4u
2013-03-19, 18:24:30
Neuste Tegra Roadmap von der GPU Technology Conference

http://www.abload.de/img/tegara4uzc.jpg

Kayla Entwickler Board Tegra 3 CPU + ultra Low Power Kepler (Bei Logan in einem Chip)

Cuda Demo's auf Kayla
http://www.abload.de/img/keylai4qhj.jpg

Ailuros
2013-03-19, 18:33:31
Ach wie schoen ich bekomm in 2015 einen tablet/smartphone design wo ein ganzer Maxwell cluster reinpasst :uhippie:

AnarchX
2013-03-19, 18:36:06
Ein Faktor 10 ausgehend von Tegra 4 sind wohl >>500GFLOPs für die GPU?

dildo4u
2013-03-19, 18:39:40
Ein Faktor 10 ausgehend von Tegra 4 sind wohl >>500GFLOPs für die GPU?
1TFlop.T4 hat 96 GFLop.(Nur GPU)

http://en.wikipedia.org/wiki/Tegra

Ailuros
2013-03-19, 18:46:25
1TFlop.T4 hat 96 GFLop.

http://en.wikipedia.org/wiki/Tegra

Tegra2 ist 1 auf der Skala und Parker 100. Nach der Logik ist ULP GF = 5.33 GFLOPs * 100x = 533 GFLOPs. Damit Du nicht unangenehm enttaeuscht wirst die Skala ist fuer Leistungssteigerung auf SoC level und nicht auf GFLOPs.

Die roadmap ist sowieso der letzte Dreck denn Tegra4 ist um zich Mal mehr schneller als T3 im Gegensatz zu T3 vs. T2 obwohl der Marketing-Krampf das Gegenteil behauptet. Sie stimmt bis zu T4 lediglich wenn man sich auf sehr einfache Aufgaben beschraenkt auf einem tablet und perf/W misst.