PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17 18 19 20 21 22 23 24 25 26

fondness
2013-06-20, 16:41:26
Projekt "Shield" scheint ja ein Selbstläufer zu werden, man muss schon vor der Auslieferung der ersten Gerätes den Preis senken: :freak:
http://www.computerbase.de/news/2013-06/nvidia-senkt-den-preis-von-project-shield/

Die Begründung ist auch Herrlich: „Tausende Spieler haben uns gesagt, für 299 US-Dollar wird Shield ein Selbstläufer“, so Nvidia.

Blediator16
2013-06-20, 17:09:06
Projekt "Shield" scheint ja ein Selbstläufer zu werden, man muss schon vor der Auslieferung der ersten Gerätes den Preis senken: :freak:
http://www.computerbase.de/news/2013-06/nvidia-senkt-den-preis-von-project-shield/

Die Begründung ist auch Herrlich: „Tausende Spieler haben uns gesagt, für 299 US-Dollar wird Shield ein Selbstläufer“, so Nvidia.

Vll. sollten wir auch "tausende" Spieler bitten NVidia zu sagen,dass wir Titan für 500€ haben wollen:freak:

Skysnake
2013-06-20, 21:02:34
Projekt "Shield" scheint ja ein Selbstläufer zu werden, man muss schon vor der Auslieferung der ersten Gerätes den Preis senken: :freak:
http://www.computerbase.de/news/2013-06/nvidia-senkt-den-preis-von-project-shield/

Die Begründung ist auch Herrlich: „Tausende Spieler haben uns gesagt, für 299 US-Dollar wird Shield ein Selbstläufer“, so Nvidia.
Ja, das ist ziemlich lächerlich. Die wollen wohl verhindern, dass die "paar" Leute, die sich das Ding vorbestellt haben, richtig sauer werden, weil der Preis kurz nach release richtig absackt, weil man das Ding nicht los wird.

Vll. sollten wir auch "tausende" Spieler bitten NVidia zu sagen,dass wir Titan für 500€ haben wollen:freak:
Wäre doch mal was :biggrin:

Heimatsuchender
2013-06-21, 00:44:48
Projekt "Shield" scheint ja ein Selbstläufer zu werden, man muss schon vor der Auslieferung der ersten Gerätes den Preis senken: :freak:
http://www.computerbase.de/news/2013-06/nvidia-senkt-den-preis-von-project-shield/

Die Begründung ist auch Herrlich: „Tausende Spieler haben uns gesagt, für 299 US-Dollar wird Shield ein Selbstläufer“, so Nvidia.


299 Dollar finde ich auch noch sehr gewagt. Ich interessiere mich auch für einen Androiden-Handheld (der von Archos ist Crap), muss bei 299 Dollar aber doch tüchtig überlegen - zumal bald auch ein interessantes Gerät von JXD kommen soll.


tobife

Nightspider
2013-06-21, 01:46:30
Was will man mit so einem Teil? Die meisten Anroid Games sind für die Tonne.
Vielleicht gibt es paar optisch schöne Shooter aber gibts da liebe zum Detail?
Story? Spielzeitdauer über 4h?

Will NV ein Konkurenz-Handheld zu Nintendo 3DS und PS Vita aufbauen?

Und wie ist die Leistung von Shield im Vergleich zur Vita?

PS Vita: 512MB RAM;A9 QuadCore und 45nm SoC

Shield wird ca. doppelt so schnell sein und weniger Strom verbraten*, solange man es mit der Taktrate bei der A15 Cores nicht übertreibt.
Hätte NV noch ein Jahr gewartet würde die Leistung für PS3 Ports ausreichen. GTA auf dem Handheld. :ugly:

*bezogen auf Leistung pro Watt

mboeller
2013-06-21, 07:54:11
Shield wird ca. doppelt so schnell sein und weniger Leistung verbraten,

die PS Vita braucht mehr als 8 Watt? Glaub ich nicht. Zeig mal.

Blediator16
2013-06-21, 14:54:15
Oke, wer lizensiert öffentlich ähnlich starke IP? Wie der zu lizensierte Kepler aussieht, steht nicht in der News. Er kann jedoch alles, was NV derzeit liefern kann.


Vor einigen Monaten waren die Konsolen noch unwichtig. Nun will man IPs verkaufen und die Shield soll der Hit werden, weil Kunden diese für 299 ihnen aus den Händen reissen wollen. Alles nur gerede.

Nightspider
2013-06-21, 15:01:18
die PS Vita braucht mehr als 8 Watt? Glaub ich nicht. Zeig mal.

Wo sage ich das die Vita mehr als 8 Watt benötigt?

Undertaker
2013-06-21, 16:40:28
Was denkst du denn was Shield braucht? Das Ding ist ja sogar aktiv gekühlt... Was ich übrigens etwas unschön finde, denn mit ein paar Prozent weniger Takt und Spannung hätte das sicher auch passiv funktioniert.

Nightspider
2013-06-21, 16:51:03
Irgendwas zwischen 7-10 Watt dürfte Shield sicherlich fressen incl. Display.
Habe aber auch nichts Anderes vorher behauptet.

Der 1. Post von mir bezog sich eher auf die Leistung pro Watt, welche deutlich über PS Vita liegen wird, wegen 45vs28nm.

Undertaker
2013-06-21, 18:06:58
Dann solltest du das


Shield wird ca. doppelt so schnell sein und weniger Leistung verbraten

aber korrigieren. Ja, Shield wird deutlich schneller und effizienter, aber sicherlich nicht sparsamer als die PS Vita sein.

Ailuros
2013-06-22, 07:29:33
Der Vergleich hinkt von vielen Seiten denn NV hatte nichtmal T2 fertig als Sony damals IP evaluierte fuer ihr handheld, wie schon erwaehnt Samsung 45nm gegen TSMC 28nm und auch low level API fuer das Vita.

Ist aber so oder so wurscht da SONY's Vita sowieso kein besonderer Erfolg ist oder werden wird.

NVIDIA will schlicht und einfach Marktanteile erreichen und natuerlich auch auf den einen oder den anderen Weg Entwickler anzusprechen. Ich kann mir zwar schwer vorstellen was Shield wirklich erreichen wird (worrueber selbst NV wohl nicht sicher ist) aber das gleiche gilt natuerlich auch fuer die neueste IP Lizenzierung.

deekey777
2013-06-22, 09:45:31
Projekt "Shield" scheint ja ein Selbstläufer zu werden, man muss schon vor der Auslieferung der ersten Gerätes den Preis senken: :freak:
http://www.computerbase.de/news/2013-06/nvidia-senkt-den-preis-von-project-shield/

Die Begründung ist auch Herrlich: „Tausende Spieler haben uns gesagt, für 299 US-Dollar wird Shield ein Selbstläufer“, so Nvidia.

An sich finde ich Shield ziemlich gut. Aber bin ich bereit 300 EUR auszugeben, wenn ich schon jetzt die Gewissheit habe, dass es kaum Spiele dafür gibt, deren Qualität diese Ausgabe rechtfertigen?

ZipKaffee
2013-06-22, 15:07:33
Ja, das ist ziemlich lächerlich. Die wollen wohl verhindern, dass die "paar" Leute, die sich das Ding vorbestellt haben, richtig sauer werden, weil der Preis kurz nach release richtig absackt, weil man das Ding nicht los wird.


Selbst 299 Dollar sind viel zu teuer! Für 180 Euro gibs schon ne WiiU. Ich glaub die meinen die können den Preis so hoch ansetzten wie bei ihren Grafikkarten.

Ich freue mich wenn Nvidia richtig fett auf die Fresse mit dem Teil fällt.
Sorry aber sowas muss bestraft werden. :uup:

mboeller
2013-06-22, 16:17:40
OT:

was mich ein wenig wundert; warum bringen eigentlich alle immer nur Android-Spielekonsolen auf den Markt.

Warum nicht einmal eine Android-Spielekonsole mit Tegra4 od. S800 incl. SmartTV Funktionen und BlueRay Player. Alles in einem was man halt so braucht. Sollte nicht mehr als 150,- Dollar/Euro kosten. BlueRay Player gibt es ja schon für 50-60 Euro. Ein besserer Prozessor und mehr Speicher, WLAN, SD-Card Reader "und fertig". Android incl. der meisten Programme sollte ja "for free" sein.

Ailuros
2013-06-23, 15:28:16
Reicht dafuer nicht einfach ein controller fuer einen smartTV mit einem relativ neuem SoC? Ich hab schon etliche Male gefragt warum NV fuer den Bereich smartTV mit ihren SoCs noch nichts angerichtet hat; zumindest ist mir bis jetzt noch nichts relevantes bewusst.

Undertaker
2013-06-23, 16:00:50
Das rentiert sich wohl nicht bzw. fehlt dafür die Nachfrage. Ein T4, 2 GB RAM und zusätzlicher Flashspeicher dürften den Preis eines solchen Gerätes doch um einiges in die Höhe treiben; da wohl die wenigsten Kunden auf ihren Gerät wirklich spielen, wäre der Mehrpreis schwer vermittelbar. Und ein weiterer Grund: Die Lebensdauer eines TVs liegt beträchtlich höher, der integrierte SoC wäre dagegen relativ schnell veraltet.


Warum nicht einmal eine Android-Spielekonsole mit Tegra4 od. S800 incl. SmartTV Funktionen und BlueRay Player. Alles in einem was man halt so braucht. Sollte nicht mehr als 150,- Dollar/Euro kosten. BlueRay Player gibt es ja schon für 50-60 Euro. Ein besserer Prozessor und mehr Speicher, WLAN, SD-Card Reader "und fertig". Android incl. der meisten Programme sollte ja "for free" sein.

Wäre eine schicke Sache, ja. Zumal man allein durch das im Gegensatz zu Shield/einem Smartphone entfallende Display einige Kosten einsparen kann.

Dural
2013-06-23, 16:02:25
Selbst 299 Dollar sind viel zu teuer! Für 180 Euro gibs schon ne WiiU. Ich glaub die meinen die können den Preis so hoch ansetzten wie bei ihren Grafikkarten.

Ich freue mich wenn Nvidia richtig fett auf die Fresse mit dem Teil fällt.
Sorry aber sowas muss bestraft werden. :uup:

so eine aussage wie deine sollte bestraft werden. :rolleyes:

wie eine android konsole wie Shield vergleichbar wäre mit einer konsole von ms, sony oder nintendo die ohne zweifel über die spiele finanziert werden.

übrigens dürfte Shield schon nach ein paar gekauften spiele in der summe deutlich billiger sein als eben die regulären konsolen.

ich finde die 299.- sogar recht günstig wenn man vergleicht was diverse smartphones die mehr oder weniger aus den selben komponenten bestehen kosten.

aber nein, auch ich denke Shield wird es extrem schwer haben, man sieht hier ja sehr schön wie einige user denken.

Ailuros
2013-06-24, 11:47:27
Das rentiert sich wohl nicht bzw. fehlt dafür die Nachfrage. Ein T4, 2 GB RAM und zusätzlicher Flashspeicher dürften den Preis eines solchen Gerätes doch um einiges in die Höhe treiben; da wohl die wenigsten Kunden auf ihren Gerät wirklich spielen, wäre der Mehrpreis schwer vermittelbar. Und ein weiterer Grund: Die Lebensdauer eines TVs liegt beträchtlich höher, der integrierte SoC wäre dagegen relativ schnell veraltet.

Der LG smartTV mit dem G6200 Rogue duerfte auch glaube ich ueber 1800 Euro kosten. Heisst aber nicht dass es nicht lower end Loesungen nicht auch in TV SoCs schaffen, wie z.B. Intel's Sodaville welches auch nicht das heisseste Eisen damals im Ofen war und Intel sicher nicht mit mickrigen Preisen verkaufte. Wieso koennte man heutzutage z.B. keinen T3 in einem smartTV haben?

Zu guter letzt liegt etliche Male mehr Potential im smartTV Markt (der wohl auch irgendwann explodieren wird) als im automotive infotainment Markt. Vergleichsmaessig bekommst Du von allen SFF Maerkten die langweiligsten und aeltesten SoCs im letzten und ob jemand oefters heutzutage neue TVs kauft als Autos und genau wie viele pro Haushalt ist auch so eine Sache fuer sich.

Undertaker
2013-06-24, 12:13:59
Heisst aber nicht dass es nicht lower end Loesungen nicht auch in TV SoCs schaffen, wie z.B. Intel's Sodaville welches auch nicht das heisseste Eisen damals im Ofen war und Intel sicher nicht mit mickrigen Preisen verkaufte.

Kommt halt immer darauf an, was genau der smarte TV denn alles können soll. Für eine halbwegs optimierte UI, ein paar Multimedia-Funktionen und vielleicht noch Smartphone-Steuerung braucht es jetzt keine Unmassen an Leistung. Anspruchsvoller wirds für Internet-Browsing und vor allem aber Spiele. Und hier hat man eben das erwähnte Problem, dass der SoC schneller veraltet als der TV an sich.

Vergleichsmaessig bekommst Du von allen SFF Maerkten die langweiligsten und aeltesten SoCs im letzten und ob jemand oefters heutzutage neue TVs kauft als Autos und genau wie viele pro Haushalt ist auch so eine Sache fuer sich.

In einem PKW sind die Leistungsansprüche an den SoC a) niedriger und b) über die gesamte Lebensdauer konstant (zumindest was die Kernfunktionen betrifft, d.h. Navi, Multimedia, etc.).

YfOrU
2013-06-24, 12:29:13
wie eine android konsole wie Shield vergleichbar wäre mit einer konsole von ms, sony oder nintendo die ohne zweifel über die spiele finanziert werden.
Praktisch der gesamte Markt der dedizierten Konsolen funktioniert auf diese Art. Der für eine mobile Konsole sehr hohe Anschaffungspreis ist alles andere als optimal.


übrigens dürfte Shield schon nach ein paar gekauften spiele in der summe deutlich billiger sein als eben die regulären konsolen.
Womit wir beim Thema Content sind. Spiele auf dem Niveau der typischen Konsolen werden die absolute Ausnahme darstellen. Am Ende sind das Titel welche primär für Smartphones und Tablets entwickelt werden.


ich finde die 299.- sogar recht günstig wenn man vergleicht was diverse smartphones die mehr oder weniger aus den selben komponenten bestehen kosten.
Smartphones sind der falsche Ansatzpunkt da deutlich vielseitiger. Eher Tablets im 7 - 8 Zoll Format und dann sieht der Preis von 299€ nicht mehr besonders gut aus.

Dural
2013-06-24, 12:35:49
auch wenn man es mit 7" tablet vergleicht steht Shield preislich nicht so schlecht da wie einige behaupten.

natürlich gibt es tablet für unter 200.- oder sogar noch weniger, sind von der Hardware aber kaum vergleichbar.
zudem hat man da das problem, das es schlicht keine high-end 7" tablet gibt und man müsste eher im 10" bereich suchen.

YfOrU
2013-06-24, 12:59:09
Die PSP Vita inkl. 3G gibt es um 200€ und gleiches trifft auf durchaus brauchbare Tablets zu. Highend ist zwar schön aber kann den Mangel an entsprechenden Content nicht kaschieren. Am Ende ist der Content auf der Vita deutlich besser und ein Tab wie das Nexus 7 erheblich flexibler - bei für die typischen Titel ausreichender Leistung.

Oben drauf kommt noch das der große Teil der höherwertigen 7 Zoll Geräte in den nächsten Wochen und Monaten aktualisiert wird da am Ende des Produktzyklus -> S600 und vergleichbar auch unter 300€.

Hugo78
2013-06-24, 17:42:16
HP Slate 21 AIO

21,5 Zoll "All-In-One" Android-Tablet mit T4.

http://www.computerbase.de/news/2013-06/hp-bringt-21-zoll-android-tablet-mit-tegra-4/

Black-Scorpion
2013-06-24, 18:21:37
21,5" Tablet?

Ailuros
2013-06-24, 19:07:32
21,5" Tablet?

Kommt irgendwann schon noch, nur kann man es wohl schwer "tablet" nennen. Es wird wohl trotzdem jemand geben der versuchen wuerde mit so einem Ding Bilder zu knipsen :D

Black-Scorpion
2013-06-24, 19:16:40
Kommt irgendwann schon noch, nur kann man es wohl schwer "tablet" nennen. Es wird wohl trotzdem jemand geben der versuchen wuerde mit so einem Ding Bilder zu knipsen :D
Schwer kommt wohl zu den 55cm noch dazu. Frage mich echt wer das Ding Tablet getauft hat.

Ailuros
2013-06-24, 19:24:19
Wird sowieso suendhaft teur sein und wenn das Ding nicht irgend eine Riesen-batterie hat wird es auch eine relativ kurze Batterie-Laufzeit haben.

War es LG dass vor kurzem ein solch riesiges tablet vorzeigte? In =/>5 Jahren kann ich mir schon solche Dinger vorstellen, aber wohl eher als quasi ultrabook Ersatzgeraete oder relevante hybride.

Deinorius
2013-06-24, 20:15:46
Sind etwa 15-17" Tablets so uninteressant, dass es gleich 21,5" sein müssen? oO

Ailuros
2013-06-24, 21:27:59
Sind etwa 15-17" Tablets so uninteressant, dass es gleich 21,5" sein müssen? oO

http://www.youtube.com/watch?v=sLS3RGesIFQ ;D

Deinorius
2013-06-24, 22:11:30
Point taken! :ulol:

Hugo78
2013-06-24, 23:14:25
Mir war klar das ihr euch an der Bezeichung "Tablet" künstlich hochziehen würdet. *trollolol*

Zunächst steht dort mal "All in One", diese PC Art gibt es schon ewig und das Teil anstatt PC nun als Tablet zubezeichnen,
ist sinnvoll wenn man dem DAU signalisieren will, dass man hier einen Touchscreen hat, wo man nicht permanent Maus und Tastatur braucht.
Tablet statt "Touchscreen-Monitor + PC" ...

Zumal, das man es nicht als Brett benutzen soll sondern als Desktop, zeigt eigentlich schon das Produktbild,
wo klar ein Ständer zusehen ist, der das Tablet aufrecht hält.

Nightspider
2013-06-25, 04:20:54
Ich hätte auch gern leichte 12-13 Zoll Tablets.
Wenn 10 Zoll bei 450-500g möglich sind, sollten 12-13 Zoll bei ca. 700g möglich sein.(Gewicht vom ipad1)
Ich brauch bei einem Tablet auch keine 10-12h Laufdauer.7-8h würden vollkommen reichen.

Nochmal zu Shield:
Ein Hauptgrund gegen Shield ist ja auch, das die Leistung von Tegra4 in 99% aller Spiele nicht genutzt wird.
Vielleicht gibt es ein Jahr nach Release ~5 Spiele mit highend Grafik aber das wars dann auch schon.
Dazu wird die Steuerung in den wenigste Spielen extra für Shield angepasst werden.
Die einzig echten "Coregames" werden Portierungen von PS2 und später vllt von PS3 werden.
Aber wozu soll man die gleichen Spiele nochmal unterwegs spielen?


Beim 3DS und der PS Vita sieht das ganz anders aus. Die haben vielleicht viel weniger Leistung aber dafür "echte" Spiele, mit hoher Spielzeit, Story...mit richtigen Ideen und gutem Gameplay dahinter.

Für die 0815-Casua-Games braucht kein Schwein ein Nvidia Shield Handheld.
Und keiner brauch sich einbilden, das Entwicklerstudios nur für Shield extra Aufriss machen werden und Shield exclusive Spiele programmieren werden, die annähernd die Hardware auslasten und vom Gameplay überzeugen können.

Solche Titel wird man wahrscheinlich an einer Hand abzählen können.

Viel lieber hätte ich einen neuen Nintendo Handheld mit Tegra 4 Power und HD Auflösung. Dort hätte man dann wenigstens eine große Auswahl an "richtigen" Spielen. Denn für den 3DS gibt es mittlerweile sehr viele und sehr gute Spiele.
Nur bei der Hardware sieht der 3DS mit 400*240 schon recht "scheiße" aus gegen aktuelle Smartphones. Aber man kann von Glück reden wenn der 3DS Nachfolger überhaupt in ~3-4 Jahren die Leistung vom Tegra erreicht.

Skysnake
2013-06-25, 09:38:03
Für die 0815-Casua-Games braucht kein Schwein ein Nvidia Shield Handheld.
Und keiner brauch sich einbilden, das Entwicklerstudios nur für Shield extra Aufriss machen werden und Shield exclusive Spiele programmieren werden, die annähernd die Hardware auslasten und vom Gameplay überzeugen können.

Solche Titel wird man wahrscheinlich an einer Hand abzählen können.

Definitiv.

Und dabei hast du noch nicht mal angesprochen, das Shield erstmal wohl nur in den USA kommt, und selbst da wohl nicht die Absatzzahlen erreicht, die man gern hätte und daher mit dem Preis Prelaunch kräftig runter geht.....

Welcher Entwickler entwickelt denn für eine "Konsole", die nicht überall auf der Welt verkauft wird, und da wo Sie verkauft wird auch nocht die eigenen Erwartungen des Herstellers nicht erfüllt....

Das Ding ist tot bevor es überhaupt das Licht der Welt erblickt hat. Ne Totgeburt halt.

Ich kann mir gut vorstellen, das die Entwickler, die was für Shield machen wollten, sich jetzt durchaus stark überlegen, ob Sie das überhaupt noch durch ziehen, und noch mehr Geld rein pumpen, oder nen Schlussstrich machen, und sagen: "Ok, jetzt beenden und Minus machen, aber überleben, als darauf zu hoffen, das es doch noch was wird, und am Ende vielleicht pleite zu gehen."

Ailuros
2013-06-25, 09:52:41
Mir war klar das ihr euch an der Bezeichung "Tablet" künstlich hochziehen würdet. *trollolol*

Ich hab den Link auch benutzt als LG ein windows 21" tablet vor einiger Zeit benutzte. Zu lahmarschig fuer einen notebook (quasi) Ersatz und zu schwer, umstaendlich, stromhungrig fuer ein tablet. Es hagelt also nicht an der Bezeichnung im gegebenen Fall sondern eben dass das Geraet lediglich ein Experiment seitens HP ist, welches man fuer die heutige Verhaeltnisse durchaus als daemlich abstempeln kann egal wie es sich nennen will. Die Ergonomie bzw. Stromverbrauch von dem Klotz wird nicht besser wenn ich es Ultratablet nenne.

Zunächst steht dort mal "All in One", diese PC Art gibt es schon ewig und das Teil anstatt PC nun als Tablet zubezeichnen,
ist sinnvoll wenn man dem DAU signalisieren will, dass man hier einen Touchscreen hat, wo man nicht permanent Maus und Tastatur braucht.
Tablet statt "Touchscreen-Monitor + PC" ...

Jack of all trades, master of none. MSRP? Ich sag schon jetzt nein danke. In ca. 5 Jahren wo dann Haswell oder dessen Nachfolger mit windows in so ein Ding passen mit anstaendiger Batterielaufzeit ja bitte und dann zahl ich gerne einen tausender dafuer.

Zumal, das man es nicht als Brett benutzen soll sondern als Desktop, zeigt eigentlich schon das Produktbild,
wo klar ein Ständer zusehen ist, der das Tablet aufrecht hält.

Ein netter Schlappschwanz an desktop; viel design, hoher Preis und nichts dahinter. Der naechste bitte.....

Hugo78
2013-06-25, 10:18:25
Jack of all trades, master of none.

Die klassische Definition eines PCs.

viel design, hoher Preis und nichts dahinter.

Verkauft sich seit Jahren wie geschnitten Brot.

Ailuros
2013-06-25, 10:33:32
Die klassische Definition eines PCs.

Du willst mir wohl nicht die Leistung von einem SFF SoC T4 mit selbst einem heutigen low end PC vergleichen oder?

Verkauft sich seit Jahren wie geschnitten Brot.

Wie viele Mio Exemplare soll denn die spezifische Schnappsidee genau verkaufen?

Dural
2013-06-25, 10:43:57
Welcher Entwickler entwickelt denn für eine "Konsole", die nicht überall auf der Welt verkauft wird, und da wo Sie verkauft wird auch nocht die eigenen Erwartungen des Herstellers nicht erfüllt....



da hast du aber was falsch verstanden, das ding ist einfach eine Android konsole, kein mensch wird gezielt auf Shield ein game entwickeln, sondern einfach ein game für das Android system.
Shield ist ja quasi nur ein tablet mit einem usb pad, was schon heute seit Android 4.1 (?) möglich ist, den da hat google die usb pad unterstützung integriert.

das Android im game bereich immer wichtiger wird muss ich ja nicht sagen, sieht man im google marktplatz von selber. da lässt sich noch richtig gutes geld verdienen, die spiele werden da von selber kommmen.

Hugo78
2013-06-25, 10:50:12
Du willst mir wohl nicht die Leistung von einem SFF SoC T4 mit selbst einem heutigen low end PC vergleichen oder?

So ein HP Slate 21 AIO kaufen Leute, wo sich das Teil in ihre Räumlichkeiten integrieren soll.
Sei es für Präsentationen im kleinen Kreis, wo ein 13-15" Ultrabook und erst recht ein 10" Tablet zu klein ist,
aber man andersrum keinen, immer noch klobigen Desktop PC haben will und sei es nur weils schön aussieht.

Wie viele Mio Exemplare soll denn die spezifische Schnappsidee genau verkaufen?

Muss man jeden neunen Formfaktor immer nur Apple überlassen?
Apple hatte den 5" Handytrend verpennt, da war Samsung schneller.
Das nochmal größere 5,5" Samsung Galaxy Note wurde auch erst belächelt, verkaufte sich dann so gut,
dass hier nicht nur das Note 2 kam, sondern das nochmal größere Galaxy Mega 6.3 und andere Hersteller kopieren das grad.

Ailuros
2013-06-25, 11:05:27
So ein HP Slate 21 AIO kaufen Leute, wo sich das Teil in ihre Räumlichkeiten integrieren soll.
Sei es für Präsentationen im kleinen Kreis, wo ein 13-15" Ultrabook und erst recht ein 10" Tablet zu klein ist,
aber man andersrum keinen, immer noch klobigen Desktop PC haben will und sei es nur weils schön aussieht.

Solche Faelle werden in der weiteren Zukunft mit aehnlichen Geraeten durchaus angesprochen aber dann eben mit windows tablets wo die Leistung dann eben auch stimmt. Wie gesagt LG hatte schon so ein Ding vorgestellt mit einem i5 integriert aber die Batterie-laufzeit von dem Ding ist leider miserabel und der Preis wird wohl noch laecherlicher sein als im Fall vom obrigen HP Geraet. Der grosse Unterschied ist dass das LG Geraet durchaus auch ueber etwas CAD faehig ist.

Muss man jeden neunen Formfaktor immer nur Apple überlassen?

Es ist wohl nicht Apple's Fehler wenn es andere nicht schaffen eine Idee zu veroeffentlichen die nicht zufaellig idiotisch ist. Du solltest Dich selber fragen warum HP nie so weit wie Apple mit tablets gekommen ist.

Apple hatte den 5" Handytrend verpennt, da war Samsung schneller.

Und wir springen von der einen Irrelevanz zur anderen; was haben 5" smartphones mit dem 21" Klotz genau gemeinsam? Samsung brauchte etwas um sich zu differenzieren und groessere displays waren ein guter kickstart. Es ist wohl schon ein Unterschied wenn man von 4 auf 5" steigt und von 10 zu 21" oder?

Das nochmal größere 5,5" Samsung Galaxy Note wurde auch erst belächelt, verkaufte sich dann so gut,
dass hier nicht nur das Note 2 kam, sondern das nochmal größere Galaxy Mega 6.3 und andere Hersteller kopieren das grad.

Das Note ist wohl kein reines smartphone mehr. Aber wenn Du schon dabei bist den Klotz zu verteidigen, was soll denn das HP Dingsda genau kosten? Denn Samsung's smartphones und phablets sind meistens um einiges billiger als i-Phones. Soll der HP AIO Klotz in etwa billiger sein als ein iPad oder sonst ein echtes tablet?

***edit: Rueckzieher gegen $399 MSRP gibt es eigentlich nichts einzuwenden: http://www.fudzilla.com/home/item/31767-hp-announces-21-inch-tegra-4-aio

Skysnake
2013-06-25, 11:26:53
Ok krass :ugly:

Aber warum zur Hölle will/wollte nVidia dann 299/349$ :ugly:

Wo ist das die Berechtigung?

Bzw. was für billigen Schund versucht HP da einem an zu drehen?

robbitop
2013-06-25, 11:33:18
Apple hatte den 5" Handytrend verpennt, da war Samsung schneller.

Hätte Apple das gewollt, hätten sie es gemacht. Das war ja schon seit Jahren abzusehen. Und dennoch sind sie lange auf 3,5" beharrt und nur langsam auf 4" gegangen.
Das war nicht aus Sturheit oder weil sie es nicht können. Es war eine Sache der Ergonomie des Produktes.
Apple will offenbar keine 10 verschiedenen Produkte pro Jahr für 10 unterschiedliche Zielgruppen auf den Markt werfen, sondern nur ein Produkt.
Es geht ihnen auch nicht um Marktanteil oder Umsatz, sondern nur um den reinen Gewinn. Und da stehen sie dank dicker Gewinnmarge immer noch sehr sehr gut da. Das iPhone ist nunmal ein Premiumprodukt, bei denen das Klientel bereit ist, den Mehrpreis auszugeben. Der Markt akzeptiert das Produkt auch offenbar als solches.
Es fährt ja auch nicht jeder einen BMW oder einen Mercedes. Das P/L ist auch dort suboptimal - aber die Gewinnspanne ist höher und das ist das, was für Apple zählt.

Offenbar passt ein unergonomisches und viel zu großes Display nicht zu den Vorstellungen für das iPhone. Das ganze soll sehr sehr portabel bleiben und einfach bedienbar bleiben. Offenbar denkt Apple, dass ihre Zielgruppe das genauso sieht.

Für Ansprüche an größere Geräte, gibt es dann Tablets. (IMO sehen diese riesen Smartphones total behämmert aus und erinnert mich immer ein wenig an die Sketche von Comedy Street, bei dem er sich ein riesen Telefon an's Ohr hällt)

Vieleicht wird Apple aber auch dort einbrechen, wenn sie sehen, dass selbst der Premiummarkt solche Produkte wünscht.

Bisher war es ja eigentlich immer andersherum. Apple fragt nicht den Kunden was er will, sondern Apple schafft ein Produkt, bei dem sie der Meinung sind, dass sie es gut finden und damit am Ende auch ihr Zielmarkt.

Ich persönlich finde die 4" eigentlich sehr gut für ein Smartphone. Die 3,5" waren fast besser, da noch besser bedienbar und noch kleiner für die Tasche. Wenn man ernsthaft surfen will, sind die kleinen Tablets doch eh wesentlich besser. The right tool for the right job... ;)

Deinorius
2013-06-25, 11:49:42
399 $? :eek: :ugly:

Das stinkt zum Himmel!

lastshady
2013-06-25, 17:49:41
nvidia shield inzwischen 20,5fps bei gl 2.7

http://gfxbench.com/device.jsp?benchmark=gfx27&D=NVidia+Shield

Nightspider
2013-06-25, 18:22:38
Am meisten bin ich fast auf den Vergleich der CPU Perforemance gespannt, zwischen S800 und T4.

Von der GPU nehmen sie sich ja scheinbar nicht viel. Nur interessiert mich wie stark der Krait 400 vor dem A15 liegt. Auch was die Effizienz betrifft.

Wobei die Effizienz beider SoCs bei beim GPU Teil genauso interessant sein dürfte.

Ailuros
2013-06-25, 20:03:53
Am meisten bin ich fast auf den Vergleich der CPU Perforemance gespannt, zwischen S800 und T4.

Von der GPU nehmen sie sich ja scheinbar nicht viel. Nur interessiert mich wie stark der Krait 400 vor dem A15 liegt. Auch was die Effizienz betrifft.

Wobei die Effizienz beider SoCs bei beim GPU Teil genauso interessant sein dürfte.

Der Vergleich zwischen Exynos5410 und dem uebertaktetem S600 war leider nichts wert, da das erste so manche hw Wehwehchen zu haben scheint. 5420 soll jetzt endlich problemlos laufen (ja unter Umstaenden laufen auch alle 8 simultan wenn gewollt) ergo werden wir hoffentlich bald sehen wie sich der letzte gegen S800 schlaegt.

S800 oder jeder Krait braucht offensichtlich mehr Takt um mit A15 cores mithalten zu koennen. Da der S800 mit bis zu 2.3GHz taktet erwarte ich keine besonderen CPU Echtzeit Leistungs-unterschiede gegen A15 cores bei 1.9GHz.

mboeller
2013-06-25, 20:20:30
Am meisten bin ich fast auf den Vergleich der CPU Perforemance gespannt, zwischen S800 und T4.

Von der GPU nehmen sie sich ja scheinbar nicht viel.


+30% beim GL 2.7 sind also nicht viel? (27 <-> 20,7fps)

http://www.engadget.com/2013/06/18/qualcomm-snapdragon-800-mdp-benchmarks/

Ailuros
2013-06-25, 20:41:05
+30% beim GL 2.7 sind also nicht viel? (27 <-> 20,7fps)

http://www.engadget.com/2013/06/18/qualcomm-snapdragon-800-mdp-benchmarks/

Ich nehme aber den Vergleich nur so an wenn es ein S800 smartphone geben wird dass 27fps in GLB2.7 erreicht, gegen ein T4 smartphone :freak::P

lastshady
2013-06-26, 01:46:25
Ich nehme aber den Vergleich nur so an wenn es ein S800 smartphone geben wird dass 27fps in GLB2.7 erreicht, gegen ein T4 smartphone :freak::P


Wenns überhaupt T4 smartphones geben wird;D T4i ....naja.

In einem s4 könnte auch ne übertaktete adreno 330 sein die ca. 29-30 fps hat oder?.Selbst die 26 fps sind richtig beeindruckend muss ich sagen.

Highend Rogue´s werden nochmal stärker oder,wenn ja um wieviel ca.?

Das system ist schon geschickt,sobald ich ein handy holen will wird ein stärkeres vorgestellt...bei note 3 is schluß jetzt reichts:D

mboeller
2013-06-26, 07:45:07
Ich nehme aber den Vergleich nur so an wenn es ein S800 smartphone geben wird dass 27fps in GLB2.7 erreicht, gegen ein T4 smartphone :freak::P

reichen dir die 26fps im Referenz-Smartphone nicht?

http://www.engadget.com/gallery/qualcomm-s800-mdp-phone-screenshots/5973678/

;)

Ailuros
2013-06-26, 12:03:08
Wenns überhaupt T4 smartphones geben wird;D T4i ....naja.

ZTE hat doch eins angekuendigt oder? Wenn ich schon sehe dass HP im tablet nicht die vollen T4 Frequenzen benutzt sieht es grau fuer ein high end smartphone aus mit vollen T4 Frequenzen ausser das Ding kommt mit einer tablet Batterie :P

In einem s4 könnte auch ne übertaktete adreno 330 sein die ca. 29-30 fps hat oder?.Selbst die 26 fps sind richtig beeindruckend muss ich sagen.

Braucht das S4 wirklich einen untertakteten S800? Es ist schon heute verdammt schnell.

Highend Rogue´s werden nochmal stärker oder,wenn ja um wieviel ca.?

Kommt drauf an was Du mit high end meinst; da wir ausserhalb von Apple wohl schwer etwas davon zu erwarten haben wuerde ich das naechste iPhone (5S bzw. A7?) auf etwa iPad4 GPU Leistung einschaetzen und das naechte iPad dann (5 bzw. A7X?) bis zu 2x Mal so viel darueber. Interessant wird es fuer solche Dinger sowieso ab OGL_ES3.0 und GLB3.0 wo die ersten ES3.0 GPUs erst richtig in die Kniehe gehen werden.

Das system ist schon geschickt,sobald ich ein handy holen will wird ein stärkeres vorgestellt...bei note 3 is schluß jetzt reichts:D

Ich werde S800/T4/Rogue etc. SoCs erst "brauchen" wenn ich aehnliche Leistung unterhalb der 200 Euro Grenze bekommen kann in der Zukunft. Jedes Jahr etliche hundert Euronen auf den Ladentisch zu legen nur um das neueste und heisseste smartphone bzw. tablet zu haben ist ein ziemlich teures Hobby. Wer's kann schoen und gut; fuer mich ist es Ueberfluss.

robbitop
2013-06-26, 12:14:03
Wozu muss ein Smartphone 100 GFLOPs GPU haben und 4 Kerne mit 2,3 GHz? Am Ende surft man darauf, telefoniert und spielt ein paar trashige Games, die selbst auf einem Tegra 2 noch gut laufen.
Ich sehe das so wie Ailuros. Entwicklung ist wichtig, aber für den persönlichen Bedarf ist beim Smartphone der Nutz-Mehrwert vom allerneusten SoC relativ beschränkt. Für die Kernaufgaben von Smartphones ist selbst in Low End Geräten ausreichend Leistung da.
Wenn eine UI nicht butterweich auf einem A9 Dualcore und einer 0815 GPU ist, ist eher die Software ineffizient als die HW zu schwach.

Ailuros
2013-06-26, 12:36:21
Wozu muss ein Smartphone 100 GFLOPs GPU haben und 4 Kerne mit 2,3 GHz? Am Ende surft man darauf, telefoniert und spielt ein paar trashige Games, die selbst auf einem Tegra 2 noch gut laufen.

Es gibt eben auch verschiedene Ansprueche; ich will nicht aus gutem Grund auf einem jeglichen mobilen Geraet surfen bzw. via e-mails konstant erreichbar sein. Ich hab nichtmal einen Vertrag dafuer.

Fuer andere die gelegentlich viel mit dem Handy surfen ist dann je staerker die CPU desto besser.

Ich sehe das so wie Ailuros. Entwicklung ist wichtig, aber für den persönlichen Bedarf ist beim Smartphone der Nutz-Mehrwert vom allerneusten SoC relativ beschränkt. Für die Kernaufgaben von Smartphones ist selbst in Low End Geräten ausreichend Leistung da.
Wenn eine UI nicht butterweich auf einem A9 Dualcore und einer 0815 GPU ist, ist eher die Software ineffizient als die HW zu schwach.

Es kommt eher auf perf/mW an in einem smartphone; fuer ein heutiges smartphone hab ich nichts dagegen einmal am Tag die Batterie nachzuladen, aber oefters als das ist nervlich. Ergo muss es irgendwo stets eine gesunde Balance zwischen Stromverbrauch und Leistung geben.

Und das mit der UI ist eine zu grobe Vereinfachung; wie und wo arbeitet eine heutige SFF GPU wirklich parallel fuer so viele wie moegliche Faelle und wie sieht es dann u.a. dann auch fuer GPGPU genau aus? http://withimagination.imgtec.com/index.php/powervr/understanding-powervr-series5xt-powervr-and-architecture-efficiency-part-7

robbitop
2013-06-26, 13:56:02
Auch beim Browser ist man an einem Punkt angekommen, wo mehr CPU Leistung nur noch Nuancen an Vorteilen bringt.
Ich finde es toll, dass sich im SoC Markt so viel tut. Aber wirklich brauchen tun die wenigsten die Performance aktuell. Da ein Smartphone üblicherweise über 24 Monatsverträge (teil-)subventioniert wird, müssen die Dinger auch nicht extrem zukunftssicher sein.

IMO ist auch heute noch das Nexus 4 ein guter Tip. Die HW reicht mehr als aus. Selbst ein SGS 3 reicht noch für 2 Jahre. Das SGS 2 meiner Freundin macht keinen fühlbar schlechteren Job als mein iPhone 5.
Ich sehe den Vorteil einfach nicht. Schön, etwas schnelleres zu haben -> aber ein Bein würde ich mir dafür nicht ausreißen. :D

Aber ich begrüße den Fortschritt - interessieren tut er mich auch. Man könnte basierend auf heutigen SoCs schon tolle dedizierte mobile Spieleplattformen bauen.

Man stelle sich mal einen SoC vor mit 14 nm Fertigungstechnik von Intel, 4x Silvermont Kerne mit 2 GHz (die vermutlich jeden ARM Prozessor inkl. A57 wegknüppeln) und den Rest mit Rogue Clustern auffüllen. Das Ganze in eine große mobile Spieleplattform mit AAA Titeln. Damit sollte man locker flockig Current Gen Konsolen Leistung haben.

Nur leider gäbe es, wie man an der Vita sieht, keinen Markt dafür

Ailuros
2013-06-26, 14:54:22
Fuer smartTV und/oder set top boxes moeglicherweise schon; die Dinger sind sowieso nicht billig und da man schon fuer den internet connected Teil u.a. schon einen SoC braucht, kann der Hersteller dann auch bei dem Preis von high end smartTVs auch einen relativ groesseren SoC verkraften. Und da gibt es wohl doch einen Markt und dazu einen groesseren als der Konsolen-Markt am Ende. Wenn Du so etwas von Intel erwartest gute Nacht; wenn ihnen mal wieder nicht Apple vorzeigt wo es langgeht, bleiben smartTVs wohl nur 'smart' auf Papier.

Das Nexus4 ist uebrigens ein mainstream Angebot; unterhalb von diesem gibt es dann noch fuer budget smartphones noch so einiges interessantes Preis-/Leistungsverhaeltnis, wobei dieser verstaendlicherweise auch der eigentliche low common denominator ist.

Die Zukunft bringt nicht nur GPGPU/OpenCL (T5/Logan) mit sich, sondern auch zunehmend bessere perf/mW. T4i ist auch nur ein mainstream smartphone SoC aber wie sieht es fuer browsing als Beispiel im Bereich perf/mW genau aus im Vergleich zu einem T2 oder T3 "superphone"?

Heimatsuchender
2013-06-27, 14:04:47
NVidia verschiebt Shield mindestens einen Monat, sollte heute in den USA erscheinen. Gründe gab NVidia nicht an. Probleme mit dem T4?


t32715

Ailuros
2013-06-27, 14:10:46
NVidia verschiebt Shield mindestens einen Monat, sollte heute in den USA erscheinen. Gründe gab NVidia nicht an. Probleme mit dem T4?


t32715



http://www.fudzilla.com/home/item/31794-nvidia-delays-shield-console

Nvidia said it had discovered a “mechanical issue” in the device and promptly pinned the blame on third party component providers, which can’t be that hard since the device isn’t manufactured by Nvidia itself.

Gipsel
2013-06-27, 14:50:40
http://www.fudzilla.com/home/item/31794-nvidia-delays-shield-console
Was eine etwas eigenartige Argumentation ist, wie z.B. heise ausführt (http://www.heise.de/newsticker/meldung/Debakel-Nvidia-laesst-Marktstart-der-Spielkonsole-Shield-platzen-1897748.html). Wenn die das erst jetzt entdeckt hätten, müßten die Geräte an die ganzen Vorbesteller schon längst auf dem Weg sein.

Skysnake
2013-06-27, 15:02:25
:tongue:
http://www.pcgameshardware.de/Project-Shield-Hardware-256897/News/nVidia-Weiterer-Rueckschlag-fuer-SHIELD-1076202/

Orginal gibts unter:
http://blogs.nvidia.com/blog/2013/06/26/shield-delayed/

Da gibts Leute die meinen ihnen wurde der Betrag schon von der Kreditkarte abgebucht, und Sie würden jetzt auf jeden Fall stornieren, weil Sie sich verarscht vorkommen. Das habe ich aber mal rausgelassen, man muss ja nicht noch ne scharfe Bombe hinstellen, wenn der Fanboy-Mob schon hinter der nächsten Ecke lauert ;D

@Gipsel:
Ich bin auch SEHR überrascht. Was soll da an mechanischen Problemen so kurzfristig auftauchen?

Kabelbruch für das Display?

Oder macht der Lüfter schlapp?

Ok, es kann immer mal was sein, aber bei SHIELD häufen sich halt die "schlechten" NAchrichten jetzt schon vor dem Launch. Meist kommt sowas ja erst kurz nach dem Launch raus, wenns wirklich am Zulieferer liegt und nicht an der Produktion an sich....

deekey777
2013-06-27, 15:10:53
Ich tippe, dass die Konsole nicht bei Nvidia in deren HQ gefertigt wird, sondern bei einem Auftragsfertiger, der entweder die Qualitätskontrolle nicht sehr ernstnimmt oder mangelhafte Teile verwendet hat oder zumindest für einen Teil der Produktion.

Skysnake
2013-06-27, 15:13:11
nVidia hat gar keine eigene Fertigung...

Ailuros
2013-06-27, 18:36:56
Was eine etwas eigenartige Argumentation ist, wie z.B. heise ausführt (http://www.heise.de/newsticker/meldung/Debakel-Nvidia-laesst-Marktstart-der-Spielkonsole-Shield-platzen-1897748.html). Wenn die das erst jetzt entdeckt hätten, müßten die Geräte an die ganzen Vorbesteller schon längst auf dem Weg sein.

Ich hab es mit Absicht ohne Kommentar gepostet. Eigenartig? Wieso? ;D:freak:

Der Hersteller hat wohl den heatsink fuer den heatsink vergessen.

Ailuros
2013-06-28, 22:15:14
Nach dem HP Slate jetzt auch Toshiba's T4 tablet mit GLB2.7 Resultaten:

http://gfxbench.com/compare.jsp?D1=Toshiba+REGZA+AT703&D2=HP+Slatebook+10+X2&D3=NVidia+Shield&D4=HTC+One&cols=4

Die CPU im Toshiba tablet taktet auch auf 1.8GHz; mal sehen ob das Asus T4 tablet sich auf volle 1900/672MHz wagt.

Avalox
2013-06-28, 23:18:45
Aufschlussreiche Geekbench Ergebnisse des Tegra 4 bestückten SHIELD, hier mal im CPU Vergleich mit einen gleich getakteten S600.

http://browser.primatelabs.com/geekbench2/compare/2103885/2025966


Das Toshiba Excite Pro Tegra 4 Pad ist auch inzwischen bei Geekbench.

http://browser.primatelabs.com/geekbench2/compare/2093942/2018746

Skysnake
2013-06-28, 23:57:28
Hinkt der Vergleich nicht sehr?

Das eine ist ein Smartphone und das andere ein aktiv gekühlter handheld :ugly:

Klar das Shield deutlich schneller ist.

Avalox
2013-06-29, 00:02:50
Hinkt der Vergleich nicht sehr?

Das eine ist ein Smartphone und das andere ein aktiv gekühlter handheld :ugly:

Klar das Shield deutlich schneller ist.


Wieso soll der Vergleich hinken? Das ist ein CPU Vergleich und kein GPU Vergleich.
Den S600 und S800 wirst du auch in einem Pad finden.. Macht das dir den Vergleich lieber? Ab welcher Diagonalen ist für dich eigentlich ein Pad ein Pad und ein Smartphone noch ein Smartphone?

Skysnake
2013-06-29, 00:12:44
Die Kühlung ist da komplett unterschiedlich. Passiv vs aktiv.

Und wenn ich mich recht erinnere throttelt das S4 eben auch bei reiner cpu last.

Avalox
2013-06-29, 00:26:36
Und wenn ich mich recht erinnere throttelt das S4 eben auch bei reiner cpu last.

Ja, wie die Qualcomm Gegenstücke auch, oder Intel Prozessoren im Mainboard.
Das Tegra 4 Pad oben hat keine aktive Kühlung.

Skysnake
2013-06-29, 00:43:37
ja und du siehst den Unterschied zwischen shield und tablet?

Und das S4 ist nen Smartphone...

Avalox
2013-06-29, 01:07:30
ja und du siehst den Unterschied zwischen shield und tablet?


Natürlich. Ein unterschiedliches Mainboard, ein langsamer getakteter SoC und langsamerer Speicher.


Und das S4 ist nen Smartphone...

Ja und es spielt keine Rolle in dem Fall. Mit welchen Snapdragon 600 Pad willst du es denn vergleichen? Dem Padfone Pad?
Wo ist denn der Unterschied zwischen einem Pad und einem Smartphone?

Ist das ein Pad oder ein Smartphone?
http://t3.gstatic.com/images?q=tbn:ANd9GcQnah4jYCtlUq9h2vLQKdQDKrRrpp-W4oxNPQ9il1ErVFVTQcrNODtkJzhl

Skysnake
2013-06-29, 02:19:08
je größer, desto weniger thermal throlling. Und shield ist aktiv gekühlt. DA wird wahrscheinlich zumindest innerhalb der Tests gar nicht wegen der Temp gethrottelt.

Deswegen kann man unterschiedliche Formfaktoren auch nicht direkt vergleichen. Die Chips hängen einfach an der Kühlung.

lastshady
2013-06-29, 04:12:24
Und Tablets haben höhere Tdp Zulassung bevor gethrotteled wird.
Vorallem bei den 4*a15 bedeutet das höhere peak leistung im vergleich zu dem zustand im handy weil er mehr verbrauchen darf.

Nightspider
2013-06-29, 06:34:16
Theoretisch könnte man aus Shield nen super DS oder 3DS Emulator basteln.
Dann wirft man das Bild vom oberen (3D) Screen auf seinen (3D) Fernseher und kann die Touch-Eingaben wie bei Nintendos Handhelds am unteren Screen, dem Shield-Bildschirm, eingeben.^^

Ich bin mal gespannt ob mehr Portierungen von den alten Konsolen dadurch auch für Android erscheinen werden.

Ist eigentlich bekannt, wie groß die Verzögerung in Verbindung mit einem Nvidia-Computer ist, wenn man das Bild auf Shield streamt und wie genau das realisiert wird?
War bei der Wii-U Entwicklung nicht die Aussage, das Wlan eine zu geringe Bandbreite bzw. eine zu hohe Latenz hat?

Avalox
2013-06-29, 07:29:33
Und Tablets haben höhere Tdp Zulassung bevor gethrotteled wird.
Vorallem bei den 4*a15 bedeutet das höhere peak leistung im vergleich zu dem zustand im handy weil er mehr verbrauchen darf.

Nein bedeutet es nicht, denn der Snapdragon 600 im Geekbench wird im S4 nicht abgeregelt. Schneller wäre dieser selbst mit aktiver Kühlung und Trockeneis nicht.

Die CPU rutscht von der Energie bilanzierten Bedeutung auf dem SoC nach hinten. 15% der DIE Fläche des S600 sind überhaupt noch CPU, beim Tegra 4 sind es nur noch 7,5% für die vier Primärkerne und nochmal 1,7% für den zusätzlichen fünften Kern und in diesen 7,5% sind noch mal die einzelnen Einheiten der CPU Kerne zu unterteilen. Ein Integertest läuft damit primär auf 0,x% der DIE Fläche.

Nightspider
2013-06-29, 07:50:22
Wo seht ihr eigentlich eine aktive Kühlung beim Shield? Ich seh da nur einen passiven Alu-Kühler im Promovideo. Oder gab es schon teardowns, wo ein Lüfter zu sehen war?

Und im S4 wird die Metallrückseite des OLED-Panels als "Kühler" genutzt.
Das S4 wird somit auch passiv gekühlt, wenn man es so nimmt, mit einem Kühler.

Bisherige Smartphones wurden so gesehen auch passiv gekühlt, nur eben ohne Kühlkörper.

Avalox
2013-06-29, 07:56:47
Bisherige Smartphones wurden so gesehen auch passiv gekühlt, nur eben ohne Kühlkörper.

Warum ohne Kühlkörper? Es gibt die unterschiedlichsten Konstruktionen bei Smartphones und natürlich auch Kühlkörper bei Smartphones.
Natürlich werden alle Geräte gekühlt.

Nightspider
2013-06-29, 08:36:52
Alle Geräte werden gekühlt bedeutet,das alle mit einem Kühlerkörper in der ein oder anderen Form gekühlt werden, was bisher definitiv _nicht_(!) der Fall ist.

Viele Smartphones, wie iPhone 4, 4S usw. besitzen kein Metall auf dem SoC, darüber ist nur Luft. Die EMI-Shield liegen nicht auf den Chips auf. Also kann man nicht sagen, das diese gekühlt werden und das dürfte auf so ziemlich jedes Mittelklasse und Einsteigerklasse Smartphone zutreffen.

Und weil die HighEnd-SoCs immer heißer werden, denken halt viel Ingenieure darüber nach, wie man die trotz kleinem Gehäuse zuverlässig kühlen kann. Mini-Heatpipes sind zB. gerade im Gespräch. Beim S4 wird zB. die Wärme direkt auf die Panelrückseite übertragen und großfläche verteilt. Beim N4 wird die Wärme auch an einen innderen Metallrahmen abgegeben.

Skysnake
2013-06-29, 10:31:22
Wo seht ihr eigentlich eine aktive Kühlung beim Shield? Ich seh da nur einen passiven Alu-Kühler im Promovideo. Oder gab es schon teardowns, wo ein Lüfter zu sehen war?

Mehrere Seiten haben von einem Lüfter geschrieben, die das Ding schon in der Hand hatten. Man sieht auch die Lüfteröffnung im forderen Bereich.

Nein bedeutet es nicht, denn der Snapdragon 600 im Geekbench wird im S4 nicht abgeregelt. Schneller wäre dieser selbst mit aktiver Kühlung und Trockeneis nicht.

Nen Link dazu, dass die CPU im S4 nicht runter taktet?

Ailuros
2013-06-29, 15:32:28
Nen Link dazu, dass die CPU im S4 nicht runter taktet?

Ich bin zu faul nochmal den fudo Link zu finden wo QCOM aussagt dass sie S600 und S800 je nach Fall bei einer maximalen Temperatur von 43C throtteln; dabei ist das Ziel fuer smartphones in etwa maximal 2.5-3W und fuer tablets um die 5W "TDP".

Bisher sehe ich lediglich T4 in einem HP und einem Toshiba tablet integriert wobei bei beiden die CPU & GPU um 10% niedriger ist als Shield und komischerweise in GLB2.7 auf gleichem Nivaeu wie das HTC One oder GalaxyS4 (S600) smartphones. Asus ist unter normalen Umstaenden etwas aggressiver als HP und Toshiba deshalb kann es durchaus sein dass wir von diesen ein voll getaktetes T4 tablet sehen. Wenn nicht hat Shield zumindest einen guten Grund fuer seine Entwicklung bzw. Existenz: vorruebergehend den ersten Platz in benchmarks einzunehmen.

Nach den neuesten S4 Skandalen taktet Samsung je nach benchmarks die GPU Frequenz hoch; wenn Samsung schon bescheisst wird mir keiner so leicht weiss machen koennen dass Qualcomm und schon gar nicht NV nicht des oefteren hier und da bescheissen. Gibt es ueberhaupt jemand der solchen Firlefanz heutzutage untersucht?

lastshady
2013-06-29, 15:46:05
Warum ohne Kühlkörper? Es gibt die unterschiedlichsten Konstruktionen bei Smartphones und natürlich auch Kühlkörper bei Smartphones.
Natürlich werden alle Geräte gekühlt.

Ich hab damit eigentlich den Exynos 5410 gemeint.(QUAD A15)
Ich kann mich an den test vom nexus 10 erinnern, der für cpu peak 4 watt hatte und danach runtergetaktet hat.

Skysnake
2013-07-05, 15:16:58
http://www.hardwareluxx.de/index.php/news/hardware/prozessoren/26962-nvidia-tegra-4-fuer-viele-hersteller-zu-teuer.html

Tegra4 ist den Herstellernscheinbar zu teuer. Für nVidia ist das natürlich fatal, wenn die Hersteller keine Mengen absetzen, weil in dem Bereich muss man ja einfach über die Masse gehen.

Ich warte ja immer noch darauf, das nVidia erklärt nur noch die IP ihrer GPU zu verkaufen, und selbst das Tegra-Geschäft komplett ein zu stampfen.

Ailuros
2013-07-05, 19:29:53
Nichts Neues; war alles leider schon von Anfang an klar. Die Parallele wenn es zu Preis-/Leistungsverhaeltnis kommt und Mediatek kann ich immer noch nicht schnallen. Ein T4 ist momentan das absolute high end und ein MTK6589 das absolute low end; ja natuerlich hat das letzte ein besseres Preis-/Leistungs und auch Preis-/Stromverbrauchs-Verhaeltnis. So etwas ist schon fast selbstverstaendlich.

Unter der Logik ist selbst T4i nicht mit Mediatek's SoCs vergleichbar.

Sonst ist das eigentliche "ticket" zum waren Einstieg in den Markt fuer anstaendige Volumen low end und von da ab baut man sich dann Schritt fuer Schritt auf. Samsung, Apple und Qualcomm haben sich in der Zwischenzeit so stark etabliert dass man im smartphone Markt heutzutage nur ein Standbein mit low end machen kann.

Skysnake
2013-07-05, 19:42:49
Ja, der Ansicht bin ich auch schon lange...

Bzgl MediaTek, ich bin mir jetzt nicht ganz sicher, ob man sich ausdrücklich nur auf die bezogen hat, oder auch andere wie Qualcomm mit einschließt.

Sie sagen ja:

vor allem MediaTek
Das bedeutet aber im Umkehrschluss, das es auch andere gibt, nur das es dort halt am extremsten ist. Jetzt bleibt nur noch die Frage wie extrem das halt ist.

Ailuros
2013-07-05, 19:51:52
Ja, der Ansicht bin ich auch schon lange...

Bzgl MediaTek, ich bin mir jetzt nicht ganz sicher, ob man sich ausdrücklich nur auf die bezogen hat, oder auch andere wie Qualcomm mit einschließt.

Sie sagen ja:

Das bedeutet aber im Umkehrschluss, das es auch andere gibt, nur das es dort halt am extremsten ist. Jetzt bleibt nur noch die Frage wie extrem das halt ist.

Mediatek verkauft zwar in verueckten Volumen und hat auch eine brutal grosse Wachstumsrate in letzter Zeit, aber es bleibt nach wie vor low end Material. Die Aussage ist genauso daemlich wenn ich behaupten wuerde dass sich ein GTX Titan nicht so gut verkauft wie eine GTX640 oder andere low end GPU. Halloechen bei einem $999 MSRP spricht man nur eine winzige Elite an im Gegensatz zu jeglichem budget Angebot.

Mediatek verkauft heute ihre 6589 SoCs (quad A7 1.0-1.5GHz je nach Variante) irgendwo zwischen $3 und $5 je nach Fall. Und jetzt soll ich die Logik finden warum ein =>$25 SoC nicht in grossen Volumen verkauft? Wie bloed kann man sein das selbstverstaendliche nicht zu erkennen? Ein T4 ist auch auf etliche Male schneller auf vielen Fronten im Vergleich zu einem 6589 ergo ein ganz anderes Preis-/Leistungsverhaeltnis.

Wuerde jemand sagen dass jemand wie NV ein low end Angebot braucht um Marktanteil zu erreichen ist es natuerlich eine andere Geschichte. Im gegebenen Fall ist das folgende:

Zwar böte NVIDIAs Chip eine hohe Leistung, das Preis-Leistungsverhältnis wäre bei mehreren Konkurrenzprodukten aber deutlich besser; vor allem MediaTek wird in diesem Zusammenhang angeführt.

...einfacher Duennschiss wenn man ein klein bisschen weiterdenken kann wie oben.

Undertaker
2013-07-05, 20:34:48
Das bedeutet aber im Umkehrschluss, das es auch andere gibt

Low-End-SoCs? Da ist MediaTek bei weitem nicht der einzige Anbieter. Rockchip, Amlogic, Allwinner... Wobei vermutlich allein Rockchip und MediaTek die überwiegende Masse des Low-End-Segmentes abdecken.

Bzgl. T4-Preisen: Was kostet ein Snapdragon 800 (8074) oder 600 (8064M)? Wenn man Preise vergleichen will, dann sind dies die passenden Konkurrenten. Das High-End immer überproportional mehr als Low-End kostet, ist keine Überraschung. Ansonsten vermute ich ja immer noch, dass vor allem auch die mangelhafte Liefersituation das Problem ist... Kein Hersteller wird einen SoC für ein wichtiges Volumenmodell ordern, wenn es da noch hakt.

Ailuros
2013-07-05, 21:55:05
Eine mangelhafte Lieferung unter 28nm heutzutage? Ausser der SoC war mit einem metal spin nicht zufrieden und braucht mehr das waere dann was anderes. Im Hintergrund heisst es einfach dass NV mit Absicht konservativ herstellt. Ich verstehe es auch; NV ist wohl nicht so daemlich auf einem Haufen T4 SoCs sitzen bleiben zu wollen.

Skysnake
2013-07-05, 23:42:00
das der Mediatek-Vergleich bullshit ist, sollte wohl klar sein. Darüber brauchen wir gar nicht diskutieren. Die Frage ist für mich nur, wie der Halbsatz zu verstehen ist. Bezieht man sich da auf andere Chips im Low bis maximal MidrangeBereich, oder auch auf chips die mit T4 konkurieren können?

Der Artikel ist diesbezüglich ziemlich bescheiden geschrieben.

Ailuros
2013-07-06, 10:41:20
das der Mediatek-Vergleich bullshit ist, sollte wohl klar sein. Darüber brauchen wir gar nicht diskutieren. Die Frage ist für mich nur, wie der Halbsatz zu verstehen ist. Bezieht man sich da auf andere Chips im Low bis maximal MidrangeBereich, oder auch auf chips die mit T4 konkurieren können?

Der Artikel ist diesbezüglich ziemlich bescheiden geschrieben.

Ich weiss wirklich nicht wie es gemeint ist und ich hab auch keinen Bock irgendwie darueber weiter zu denken. Selbst T4i ist nicht vergleichbar zu Mediatek's oder anderem low end Zeug.

So wie T4i bis jetzt klingt (und ausser dass die Hersteller Frequenzen reduzieren um Verbrauch etwas mehr zu drosseln) wird der SoC IMHO durchaus Material fuer high end smartphones sein. Mehr oder weniger auf Leistungsnivaeu vom naechsten iPhone (5S?).

Wenn es jetzt NV schafft den T4i billig genug zu verkaufen und die Hersteller kommen mit irgendwo 250-300 Euro smartphones dafuer an koennte es durchaus zu einem Verkaufschlager werden.

Skysnake
2013-07-06, 11:01:25
Auf T4i hatte ich mich nicht bezogen, sondern nur auf T4. Sonst hätte ich ja auch T4i geschrieben ;) Ich stell mir die Frage eben, wie die Preis/Leistung gegenüber Produkten aussieht die etwa die gleiche Kragenweite haben. Ich hatte den Artikel so verstanden, das selbst da T4 preislich maximal konkurrenzfähig, aber kein "gutes" Angebot ist. Sprich halt einfach nicht billiger ist als die Konkurrenz.

In den Halbsatz habe ich aber wohl zu viel hineininterpretiert wie es scheint. Ihr habt ja nicht den selben Gedankengang gehabt ;)

T4i könnte wirklich ein Erfolg werden, wenn er billig genug angeboten wird. Das integrierte LTE Modem sehe ich auf jeden Fall als ein sehr gutes Argument pro T4i an. Die Frage ist halt nur, wann er wirklich in Geräten verfügbar wid, und was nVidia eben am Ende dafür verlangt.

Für T4i sehe ich, jetzt mal ganz unabhängig vom Preis, auf jeden Fall mehr Potenzial als für T4.

PS:
Gibt es eigentlich Preise für T4 und dafür vergleichbare Chips? Würde mich wirklich mal interessieren, wo man da jetzt wirklich steht.

Ailuros
2013-07-06, 12:22:00
Es gibt keine einfache Antwort auf Deine Frage; bis zu Tegra3 nahm NV nur Bestellung von zumindest 100.000 SoCs an. Bei einer theoretischen Bestellung von nur 100.000 SoCs kann man wohl erwarten dass jeglicher T4 locker $25 wenn nicht sogar mehr kosten koennte. Je hoeher das Volumen desto mehr faellt der Preis und das gilt fuer jeden SoC Hersteller.

Kann sein dass QCOM z.B. einen S800 auch um die $25-30 verkauft bei niedrigem Volumen; hat jetzt aber dann Samsung eine Vorbestellung fuer sagen wir mal 30Mio SoCs gemacht fuer Zeitraum X reduziert sich der Preis/Stueck ziemlich stark.

Eben u.a. auch ein Grund warum es jemand wie Samsung und/oder Apple bis zu einem Punkt scheissegal sein kann wie gross ein solcher SoC werden wird. NV bleibt seit 4 Tegra Generationen bei knapp 80mm2 waehrend Du von Samsung und Apple des oefteren SoCs von 120-160+mm2 sehen wirst.

Volumen reduziert BOM (bill of materials) bis zur Herstellung eines SoCs und ueberlaesst dem SoC Hersteller dann auch den Luxus mit niedrigeren Preisen verkaufen zu koennen.

Bei NV und geringen Volumen kann man eben noch nicht von irgendwelchem Rabbatt reden, ueberhaupt da NV auch nicht selber herstellt wie z.B. Intel oder Samsung.

Undertaker
2013-07-06, 12:31:51
Da wir es hier wohl noch nicht hatten(?): Toshibas eXcite Pro ist nun gelistet:

http://geizhals.de/?cat=nbtabl&xf=2177_Tegra+4#xf_top


T4 @ 1,8 GHz
2 GB RAM
10.1" mit 2560x1600
802.11b/g/n/ac


Und das beste: In der 32GB-Version mit 449€ bereits jetzt günstiger gelistet als das technisch etwas schwächere Nexus 10 mit gleichem Speicher. Da kann man nicht meckern. :) Mit (Full)HD, weniger Speicher und zunehmender Konkurrenz sollte die 300 Euro Marke wohl erreichbar sein.

Skysnake
2013-07-06, 12:32:32
Ja, das Problem ist mir auch schon lange bekannt. Deswegen verstehe ich auch nicht, warum nVidia nicht aggressiv Marktanteile gewinnen will/kann.

Mit den kleinen Absatzmengen können Sie nie im Leben konkurrenzfähige Produkte verkaufen. Dafür ist dann der Fixkostenanteil einfach zu groß. Die Entwicklung von nem Tegra ist ja auch nicht "umsonst".

Coda
2013-07-06, 13:00:12
Und das beste: In der 32GB-Version mit 449€ bereits jetzt günstiger gelistet als das technisch etwas schwächere Nexus 10 mit gleichem Speicher. Da kann man nicht meckern. :) Mit (Full)HD, weniger Speicher und zunehmender Konkurrenz sollte die 300 Euro Marke wohl erreichbar sein.
Leider schließt sich für mich alles aus was keinen offiziellen Google-Update-Support bekommt.

Ailuros
2013-07-06, 13:09:43
Da wir es hier wohl noch nicht hatten(?): Toshibas eXcite Pro ist nun gelistet:

http://geizhals.de/?cat=nbtabl&xf=2177_Tegra+4#xf_top


T4 @ 1,8 GHz
2 GB RAM
10.1" mit 2560x1600
802.11b/g/n/ac


Und das beste: In der 32GB-Version mit 449€ bereits jetzt günstiger gelistet als das technisch etwas schwächere Nexus 10 mit gleichem Speicher. Da kann man nicht meckern. :) Mit (Full)HD, weniger Speicher und zunehmender Konkurrenz sollte die 300 Euro Marke wohl erreichbar sein.

Erwaehnt hab ich es glaub ich schon; wie gesagt ich hoffe dass zumindest Asus ein T4 basierendes Geraet veroeffentlicht sonst bleibt Shield mit seinem Luefter alleine an der Spitze von GLB2.7.

Sonst siehe Coda's Antwort und noch dazu dass genau eben Toshiba draufsteht. Nein danke.

AffenJack
2013-07-06, 14:08:40
Was ist an Toshiba so schlimm? Hab ich was verpasst?
Offizieller Google Update Support? Dann beschränkt man sich doch nur auf die Nexusgeräte, als wenn die Updates mittlerweile noch soviel neues bringen würden, was man unbedingt braucht.

mboeller
2013-07-06, 16:50:20
Mediatek verkauft heute ihre 6589 SoCs (quad A7 1.0-1.5GHz je nach Variante) irgendwo zwischen $3 und $5 je nach Fall. Und jetzt soll ich die Logik finden warum ein =>$25 SoC nicht in grossen Volumen verkauft? Wie bloed kann man sein das selbstverstaendliche nicht zu erkennen? Ein T4 ist auch auf etliche Male schneller auf vielen Fronten im Vergleich zu einem 6589 ergo ein ganz anderes Preis-/Leistungsverhaeltnis.

Wuerde jemand sagen dass jemand wie NV ein low end Angebot braucht um Marktanteil zu erreichen ist es natuerlich eine andere Geschichte. Im gegebenen Fall ist das folgende.

Springst du mit deinem Vergleich nicht ein wenig zu kurz?

Der MT6589 ist ja nicht der einzige SoC von Mediatek. Der MT8135, der laut dem Analysten-PDF im Q3/2013 auf den Markt kommen soll würde imho reichen um dem Tegra4 gefährlich zu werden. 4x A15 + 4xA7 + SGX6xx sollten reichen um den Tegra4 leistungsmäßig nahe zu kommen.

Undertaker
2013-07-06, 17:58:44
Hat der nicht nur 2x A15 + 2x A7?

Ailuros
2013-07-06, 18:00:25
Springst du mit deinem Vergleich nicht ein wenig zu kurz?

Der MT6589 ist ja nicht der einzige SoC von Mediatek. Der MT8135, der laut dem Analysten-PDF im Q3/2013 auf den Markt kommen soll würde imho reichen um dem Tegra4 gefährlich zu werden. 4x A15 + 4xA7 + SGX6xx sollten reichen um den Tegra4 leistungsmäßig nahe zu kommen.

Wofuer steht genau "kommen soll"? Kaufbare Produkte in Q3 13' oder etwas anderes? Ich hab's zwar nicht durchgelesen aber wenn sampling gemeint sein soll, liegt es eben NICHT auserhalb meiner Erwartungen.

Sonst glaubst Du wirklich dass "jede" Rogue Variante T4 die Brust zeigen koennte? Was leistet denn nach Deiner Meinung ein dual cluster G6200 bei sagen wir mal 300MHz genau? Hat Rogue vielleicht Zauberflops um eine 3:1 Relation mit anderen aufrecht halten zu koennen?

Avalox
2013-07-09, 00:58:14
Habe zufällig gesehen, dass das erste Smartphone mit Tegra 4 (i?) im GFXBench gelistet ist.

Das Xiaomi MI 3

http://gfxbench.com/device.jsp?benchmark=gfx27&D=Xiaomi+MI+3

Neosix
2013-07-09, 05:06:19
http://winfuture.de/news,76859.html

Von ZTE soll wohl auch ein Smartphone mit T4 kommen.

Ailuros
2013-07-09, 11:05:11
Habe zufällig gesehen, dass das erste Smartphone mit Tegra 4 (i?) im GFXBench gelistet ist.

Das Xiaomi MI 3

http://gfxbench.com/device.jsp?benchmark=gfx27&D=Xiaomi+MI+3

Tegra4 und nicht T4i; 1.8GHz CPU und 605MHz GPU genauso wie die bisherigen tablets.

mboeller
2013-07-09, 20:25:11
Hat der nicht nur 2x A15 + 2x A7?

Kann sein. Ich hab das "4 CPU" als 4 x (big.little) interpretiert. Muss aber nicht sein. :)

Ailuros
2013-07-10, 12:11:32
Kann sein. Ich hab das "4 CPU" als 4 x (big.little) interpretiert. Muss aber nicht sein. :)

http://chinamobiles.org/showthread.php?33684-Mediatek-n%C3%A4chster-SOC-mit-big-LITTLE-architecture-A15-A7

The message from the new electronic display MediaTek in the third quarter of this year will be the mass production of dual-core dual-core Cortex-A15 Cortex-A7 four-core tablet application processor,...

2+2= 4 :P

Nebenbei liegt beim 6589T die GPU bei 11+GFLOPs. Mit etwas Glueck sind sie beim 8xxx bei ca. 3x Mal so viel arithmetischer Effizienz. Low end Material eben nach wie vor ;)

Undertaker
2013-07-17, 16:17:57
Kommendes Acer-Tablet mit T4:

http://www.notebookcheck.com/Acer-Tablet-TA2-mit-Tegra-4-und-WQXGA-Display.97541.0.html

Hugo78
2013-07-17, 19:59:55
Ich China ist das erste Smartphone mit T4 erhältlich.
http://de.engadget.com/2013/07/15/zte-u988s-erstes-smartphone-mit-tegra-4-debutiert-in-china/
http://www.androidnext.de/news/zte-geek-u988s-erstes-smartphone-mit-tegra-4-chip-bestaetigt/

ZTE Geek U988S:
- 1,8GHz
- 5" FullHD
- 2GB RAM
- microSD slot
- 13 MPixel Cam
- ca.2300 mAh ?! Akku (unklare Angabe, find dazu keine Quelle)

Ailuros
2013-07-17, 20:06:39
2300mAh? Bei mir haelt ein quad A7@1.2GHz gerade einen Tag aus mit ziemlich schwerer Nutzung und einer 2000mAh Batterie.

Undertaker
2013-07-18, 12:51:17
Das ist soviel wie ein Xperia Z oder HTC One, das S4 hat mit 2.600 mAh auch nur knapp 10% mehr. Sicherlich nicht gerade top, aber das ist die Konkurrenz auch nicht.

Bleibt als zweiter Faktor natürlich noch die Leistungsaufnahme. Zum einen ist bei Teillast ohnehin das Display der größte Verbraucher, zum anderen denke ich ja immernoch das der Companion Core seine Sache so schlecht nicht machen wird. ;) Unter Volllast begrenzt die Kühlung alle aktuellen High-End-SoCs auf etwa das gleiche Verbrauchslevel (bei identischem Umfeld).

Hugo78
2013-07-18, 17:11:28
2300mAh? Bei mir haelt ein quad A7@1.2GHz gerade einen Tag aus mit ziemlich schwerer Nutzung und einer 2000mAh Batterie.

Mobistel Cynus T5?

dildo4u
2013-07-24, 17:07:16
Project Logan - FaceWorks "Ira" demo

http://youtu.be/Vx0t-WJFXzo

Mobile KEPLER LOGAN ISLAND DEMO

http://youtu.be/miEglxHz1iA

http://blog.laptopmag.com/wpress/wp-content/uploads/2013/07/mobilekepler-670x374.jpg

http://www.computerbase.de/news/2013-07/nvidia-demonstriert-ersten-mobile-kepler-chip-logan/

Hugo78
2013-07-24, 18:14:15
PCGH dazu^^
http://www.pcgameshardware.de/Nvidia-Tegra-Hardware-255923/News/Project-Logan-Echtzeit-Demo-2-Watt-GPU-Video-vorgestellt-1080140/

aufkrawall
2013-07-24, 18:29:00
Also mangelts bei der momenten Gesichtsdarstellung in Spielen wieder mal nicht an der Rechenleistung, sondern an effizienter Content Creation.
Da muss man noch etliche Millionen reinwerfen.

Ailuros
2013-07-24, 18:56:56
Also mangelts bei der momenten Gesichtsdarstellung in Spielen wieder mal nicht an der Rechenleistung, sondern an effizienter Content Creation.
Da muss man noch etliche Millionen reinwerfen.

Wenn Du fast die gesamte Rechenleistung investierst in einem techdemo um lediglich einen Kopf zu rendern, dann mangelt es an gar nichts. In einem Spiel mit komplexer Umwelt wo erstmal resourcen dafuer gebraucht werden ist es wohl noch nicht so leicht solche Gesichte darzustellen ohne dass darunter die Leistung leidet.

Natuerlich koennte jemand ein Spiel aus dem techdemo machen aber wie oft willst Du dem Glatzkopf an den Ohren ziehen oder in seiner Nase grubeln bis es langweilig wird? :D

-----------------------------------------------------------

Sonst sieht das Insel-demo spitze aus aber auch nur weil NV ausgezeichnete Artisten hat fuer ihre techdemos. Daran sollten sich andere mal ein Beispiel nehmen; technisch interessante demos sind zwar schoen und gut aber wie beim Essen isst das Auge eben auch mit.

aufkrawall
2013-07-24, 19:40:05
Wenn Du fast die gesamte Rechenleistung investierst in einem techdemo um lediglich einen Kopf zu rendern, dann mangelt es an gar nichts. In einem Spiel mit komplexer Umwelt wo erstmal resourcen dafuer gebraucht werden ist es wohl noch nicht so leicht solche Gesichte darzustellen ohne dass darunter die Leistung leidet.

Bei Logan soll aber nur ein Pups an Watt für die Glatze draufgehen, während Desktop-GPUs keulen.
Klaro nicht an der gleichen Qualität, bei Desktop-Auflösungen würde der geringere Detailgrad der Logan-Demo sicherlich noch deutlicher auffallen. Trotzdem erscheint mir das im Vergleich zu nem Psycho oder einer Lara immer noch als sehr gutes Ergebnis für die benötigte Rechenzeit. Hautdetails und Animationen hab ich in der Logan-Form noch in keinem Desktop-Spiel gesehen. Das sollte doch in Zeiten eines GK110 eigentlich machbar sein, mit gutem LOD auch mit mehreren Gesichtern und akzeptablen fps.


Sonst sieht das Insel-demo spitze aus aber auch nur weil NV ausgezeichnete Artisten hat fuer ihre techdemos. Daran sollten sich andere mal ein Beispiel nehmen; technisch interessante demos sind zwar schoen und gut aber wie beim Essen isst das Auge eben auch mit.
Fand die Leo-Demo eigentlich sowohl technisch als auch künstlerisch sehr ansprechend. Da darf man AMD dann auch mal loben. :cool:

Ailuros
2013-07-24, 20:26:07
Bei Logan soll aber nur ein Pups an Watt für die Glatze draufgehen, während Desktop-GPUs keulen.

Echt?

NVIDIA took its Ira demo, originally run on a Titan at GTC 2013, and got it up and running on a Logan development board. Ira did need some work to make the transition to mobile. The skin shaders were simplified, smaller textures are used and the rendering resolution is dropped to 1080p. NVIDIA claims this demo was done in a 2 - 3W power envelope.

http://www.anandtech.com/show/7169/nvidia-demonstrates-logan-soc-mobile-kepler

Klaro nicht an der gleichen Qualität, bei Desktop-Auflösungen würde der geringere Detailgrad der Logan-Demo sicherlich noch deutlicher auffallen. Trotzdem erscheint mir das im Vergleich zu nem Psycho oder einer Lara immer noch als sehr gutes Ergebnis für die benötigte Rechenzeit. Hautdetails und Animationen hab ich in der Logan-Form noch in keinem Desktop-Spiel gesehen. Das sollte doch in Zeiten eines GK110 eigentlich machbar sein, mit gutem LOD auch mit mehreren Gesichtern und akzeptablen fps.

Ja nur war eben mein Punkt dass Du Koepfe mit dem Detail-grad eben nicht in einem mobilen first person shooter mit 20 Gegnern zur gleichen Zeit haben kannst mit toller Umgebung und dass auch noch bei der unendlichen Ballerei und Explosionen auch noch die Fetzen fliegen. Wenn man alle resourcen einer Platform nur auf einen sterilen Glatzkopf begrenzt der mal die Nase rumpft dann ist es kein Wunder dass das Resultat imposant ist.

Der Zweck des techdemos ist es auch Kinnladen fallen zu lassen und es wird auch erreicht; man kann aber trotzdem nicht einen solchen Detailgrad in einem mobilen Spiel so leicht in absehbarer Zeit benutzen. Ist aber auch nichts Neues mit techdemos da sie das allerbeste einer Architektur illustrieren sollen.

Fand die Leo-Demo eigentlich sowohl technisch als auch künstlerisch sehr ansprechend. Da darf man AMD dann auch mal loben. :cool:

Nur hat Leo und AMD rein gar nichts mit dem spezifischem Markt zu tun. Imagination und ARM techdemos fuer ihre GPU IP sind zwar technisch sehr interessant aber artistisch zum kotzen langweilig.

aufkrawall
2013-07-24, 21:03:51
Echt?



http://www.anandtech.com/show/7169/nvidia-demonstrates-logan-soc-mobile-kepler

Ja, und? Du hast doch das Video gesehen.



Ja nur war eben mein Punkt dass Du Koepfe mit dem Detail-grad eben nicht in einem mobilen first person shooter mit 20 Gegnern zur gleichen Zeit haben kannst mit toller Umgebung und dass auch noch bei der unendlichen Ballerei und Explosionen auch noch die Fetzen fliegen.

Schon klar. Aber schau dir mal Cutscenes in TombRaider oder Crysis 3 an, da sind meist nur 1- maximal 5 Gesichter zu sehen. Crysis 3 ist da derzeit mit Abstand am besten, aber trotzdem kommen die nicht so lebensecht rüber wie der Typ aus der Faceworks-Demo (auf nem Tegra!). Und trotzdem läuft das Spiel auf ner Titan auch nicht durchgehend richtig flüssig...
Darum, dass man in L4D3 dutzende detaillierte Zombie-Visagen gleichzeitig zerschießt, ging es mir doch gar nicht. ;)


man kann aber trotzdem nicht einen solchen Detailgrad in einem mobilen Spiel so leicht in absehbarer Zeit benutzen. Ist aber auch nichts Neues mit techdemos da sie das allerbeste einer Architektur illustrieren sollen.

Die Architektur gibts aber auf auf dem Desktop mit xmal mehr Rechenleistung.


Nur hat Leo und AMD rein gar nichts mit dem spezifischem Markt zu tun. Imagination und ARM techdemos fuer ihre GPU IP sind zwar technisch sehr interessant aber artistisch zum kotzen langweilig.
War mir nicht ganz sicher, ob du das nicht umfassender meintest.
Da sagt man mal was Nettes über AMD...
:tongue:

AnarchX
2013-07-25, 10:04:19
Müsste sich dieser Mobile-Kepler nicht bei >>100 GFLOPs/Watt bewegen? (K6000/"Titan Ultra": 23GFLOPs/Watt) :freak:

Die Vergleichsgrafik von NV mit der "Horsepower" deutet wohl laut Anandtech auf 400 GFLOPs hin. Mit CPU-Last vielleicht eher etwas in Richtung von 200 GFLOPs. Dazu die Angabe von 2-3W.

Ailuros
2013-07-25, 10:54:29
Ja, und? Du hast doch das Video gesehen.

Ja ich hab's gesehen und es wurde so manches fuer SFF mobile reduziert; das Endresultat ist nach wie vor imposant. Aendert nichts daran dass sie die Mehrzahl wenn nicht alle hw resourcen verschwendet haben um den Kopf im demo zu rendern.


Die Architektur gibts aber auf auf dem Desktop mit xmal mehr Rechenleistung.

Es wurde auch um X-Mal fuer's mobile demo reduziert.

War mir nicht ganz sicher, ob du das nicht umfassender meintest.
Da sagt man mal was Nettes über AMD...
:tongue:

Tut mir leid aber AMD ist eben leider noch nicht relevant zum SFF mobile Markt.

Ailuros
2013-07-25, 11:01:32
Müsste sich dieser Mobile-Kepler nicht bei >>100 GFLOPs/Watt bewegen? (K6000/"Titan Ultra": 23GFLOPs/Watt) :freak:

Ich schaetze (und nein ich weiss es nicht) dass sie die 18fps in GLB2.7 mit einer Frequenz von 200-250MHz erreicht haben. Peak duerfte bei knapp 1GHz Frequenz sein was aber wohl auch nichts mehr mit tablet power targets zu tun haben sollte. Worst case scenario ausser ich hab etwas verpasst sind es 75 GFLOPs/W.

Und hier ist eben die Stelle wo ich bei B3D drueben von den NV fanboys fast gelyncht werde weil es keiner einsehen will dass es eben kein direkter Kepler Ableger sein wird sondern ein auf perf/mW optimierter Ableger.

Die Vergleichsgrafik von NV mit der "Horsepower" deutet wohl laut Anandtech auf 400 GFLOPs hin. Mit CPU-Last vielleicht eher etwas in Richtung von 200 GFLOPs. Dazu die Angabe von 2-3W.

http://www.youtube.com/watch?v=TPtgsrv5xqM

Fuer das obrige; wenn man es ganz scharf ueberdenkt ist die Leistung/W auch nicht mehr sooo besonders, wohl eher fuer manche die glauben wollten dass solche Raten nie moeglich sein werden fuer SFF mobile oder dass es nur wilde Uebertreibungen sind. Das wirklich beindruckende dabei ist dass man die perf/W mit OGL4.4 Faehigkeiten erreicht.

Wie war es noch vor einigen Jahren dass hunderte von GFLOPs nicht so schnell in smartphones passen werden? Logan ist fuer H2 2014 projeziert bis dahin werden =/>100 GFLOPs a piece of cake sein fuer smartphones.

AffenJack
2013-07-25, 11:09:15
Anandtech schreibt H1 2014 und mit dem Tapeout jetzt ist der Zeitplan auch realistisch. T4 hat ja nun auch nur knapp übern Halbes Jahr gebraucht bis zu ersten Produkten. Zumindest bis er in Tablets kommt, für Phones dauerts ja immer länger.
Frage ist allerdings ob das Ding wirklich 28 nm wird, wie die ganzen Seiten schreiben. Bei 20 nm wäre dann H2 2014 eher der zu erwartende Termin.

Skysnake
2013-07-25, 11:23:31
Fuer das obrige; wenn man es ganz scharf ueberdenkt ist die Leistung/W auch nicht mehr sooo besonders, wohl eher fuer manche die glauben wollten dass solche Raten nie moeglich sein werden fuer SFF mobile oder dass es nur wilde Uebertreibungen sind. Das wirklich beindruckende dabei ist dass man die perf/W mit OGL4.4 Faehigkeiten erreicht.

Ja das ist es, ich frage mich allerdings, was in diesen 2-3W wirklich alles drin ist. Man kann sich alles mögliche ja "schön", also raus, rechnen...

Die Kühlabdeckung ist auch sehr groß. Leider sieht man dadurch gar nicht, wie der Speicher angebunden ist. Eventuell kommt ja direkt Mem on Package. Allein das würde die Effizienz gut steigern.


Wie war es noch vor einigen Jahren dass hunderte von GFLOPs nicht so schnell in smartphones passen werden? Logan ist fuer H2 2014 projeziert bis dahin werden =/>100 GFLOPs a piece of cake sein fuer smartphones.
Wem das nicht klar war, der hatte/hat keine Ahnung...

Label
2013-07-25, 11:26:52
Das wirklich beindruckende dabei ist dass man die perf/W mit OGL4.4 Faehigkeiten erreicht.

Mit Android 4.3 kann jetzt OGL ES 3.0 verwendet werden.
Wird in mobilen Systemen in Zukunft OGL ohne ES eingesetzt werden können?

Ailuros
2013-07-25, 11:49:36
Anandtech schreibt H1 2014 und mit dem Tapeout jetzt ist der Zeitplan auch realistisch. T4 hat ja nun auch nur knapp übern Halbes Jahr gebraucht bis zu ersten Produkten. Zumindest bis er in Tablets kommt, für Phones dauerts ja immer länger.
Frage ist allerdings ob das Ding wirklich 28 nm wird, wie die ganzen Seiten schreiben. Bei 20 nm wäre dann H2 2014 eher der zu erwartende Termin.

Daemliche Haarspalterei; 10-12 Monate vom tape out sind entweder am Rand von H1 oder Anfang H2. Die ersten Angaben ueber fruehes T4 Silizium waren auch euphorisch in der Vergangenheit und trotzdem brauchte das Ding noch einen metal spin am Ende. Noch schlimmer device availability ist ausserhalb der Kontrolle von NV und jeglichem SoC Entwickler.

Klar kann NV nicht frueh genug Logan auf die Strasse bringen, aber wir reden hier auch ueber die "GalaxyS5" bzw. "iPhone6" Generation, ergo nochmal bis zu 2x Mal so viel was heute Hersteller oder in absehbarer Zukunft im Angebot haben werden.

Mit Android 4.3 kann jetzt OGL ES 3.0 verwendet werden.
Wird in mobilen Systemen in Zukunft OGL ohne ES eingesetzt werden können?

Selbst OGL_ES3.0 wird zu anspruchsvoll sein fuer die eigentlichen resourcen der ersten paar OGL_ES3.0 Architekturen. Wenn Kishonti ihren GLB3.0 veroeffentlichen wird koennen wir uns dann ueber die einstelligen Frameraten freuen.

Ja das ist es, ich frage mich allerdings, was in diesen 2-3W wirklich alles drin ist. Man kann sich alles mögliche ja "schön", also raus, rechnen...

Die Kühlabdeckung ist auch sehr groß. Leider sieht man dadurch gar nicht, wie der Speicher angebunden ist. Eventuell kommt ja direkt Mem on Package. Allein das würde die Effizienz gut steigern.


Meine originale Frage bleibt wie man fuer SFF mobile die GFLOP/W Rate zumindest verdreifacht ohne die Architektur besonders zu aendern wie Anand selber "schaetzt". Bis jetzt haben alle mobile GPU designs keine entkoppelten TMUs von den ALUs.

Wenn dem auch so sein sollte wie ich schaetze auch bei der ULP GF in Logan dann hat man erstmal geteilte resources fuer ALUs und TMUs; ergo wenn man Texturen benutzt reduziert sich die GFLOP Rate. In dem Fall ist der direkte Vergleich von Logan zu einer PS3 vollkommen in Ordnung, aber eben nicht zu einer 8800GTX, eben weil bei der letzteren dummerweise die TMUs entkoppelt sind. Und wenn ich schon daemlicherweise auf theoretischen peaks rechnen sollte warum sollte ich bitteschoen nicht die extra MUL im G80 dazurechnen? In dem Fall hab ich ein theoretisches maximum fuer GPGPU z.B. von 518GFLOPs gegen die irgendwo 375GFLOPs einer Logan GPU, wobei das letzte eben doch nicht hoeher ist als das erste.

Skysnake
2013-07-25, 12:43:32
Meine originale Frage bleibt wie man fuer SFF mobile die GFLOP/W Rate zumindest verdreifacht ohne die Architektur besonders zu aendern wie Anand selber "schaetzt". Bis jetzt haben alle mobile GPU designs keine entkoppelten TMUs von den ALUs.

GDDR5/DDR3 wegschmeisen und durch Ram aufm Package ersetzen, die Caches verkleinern, die Register verkleinern, die besseren Möglichkeiten für Placement und Routing verwenden usw usw.

Die Hauptpunkte sind halt das Speicherinterface größteils raus zu hauen, und "einfach" nur mit differenziellen Leitungspaaren an zu steuern, und eben die kleinere Komplexität für Workdistribution usw aus zu nutzen.

Gerade am Registerfile und den Caches kann man eine Menge noch raus holen, wenn man nur einen oder zwei Ports hat, also weniger


Wenn dem auch so sein sollte wie ich schaetze auch bei der ULP GF in Logan dann hat man erstmal geteilte resources fuer ALUs und TMUs; ergo wenn man Texturen benutzt reduziert sich die GFLOP Rate. In dem Fall ist der direkte Vergleich von Logan zu einer PS3 vollkommen in Ordnung, aber eben nicht zu einer 8800GTX, eben weil bei der letzteren dummerweise die TMUs entkoppelt sind. Und wenn ich schon daemlicherweise auf theoretischen peaks rechnen sollte warum sollte ich bitteschoen nicht die extra MUL im G80 dazurechnen? In dem Fall hab ich ein theoretisches maximum fuer GPGPU z.B. von 518GFLOPs gegen die irgendwo 375GFLOPs einer Logan GPU, wobei das letzte eben doch nicht hoeher ist als das erste.
Das macht man nicht, weil man dann ja nicht ne tolle Grafik hätte ;D

robbitop
2013-07-25, 12:50:54
Was meinst du mit entkoppelten TMUs? Ist Logan noch CineFX wo man entweder TEX oder ALU durchschieben konnte? Ich kann nicht ganz folgen.

Ailuros
2013-07-25, 12:57:49
GDDR5/DDR3 wegschmeisen und durch Ram aufm Package ersetzen, die Caches verkleinern, die Register verkleinern, die besseren Möglichkeiten für Placement und Routing verwenden usw usw.

Die Hauptpunkte sind halt das Speicherinterface größteils raus zu hauen, und "einfach" nur mit differenziellen Leitungspaaren an zu steuern, und eben die kleinere Komplexität für Workdistribution usw aus zu nutzen.

Gerade am Registerfile und den Caches kann man eine Menge noch raus holen, wenn man nur einen oder zwei Ports hat, also weniger.

Ja aber wenn ich jetzt ploetzlich nur noch eine oder sagen wir mal zwei ROPs habe fuer die ULP GF, alles verkleinere und im schlimmsten Fall sogar die TMUs an die ALUs selbst im geringsten koppeln muss u.a. dann ist das Resultat in meinem Buch eben kein Kepler mehr sondern ein Ableger mit (fast) gleicher Funktionalitaet (die FP64 Einheiten erwarte ich auch dass sie sie entfernt haben). Ja es sind dann schon die GFLOPs eines einzelnen clusters mit OGL4.4 Komplianz aber alles danach bzw. darunter die Sintflut.

Und nein so etwas wurde auch nicht mit Legosteinen in ein paar Monaten zusammengesteckt. Unter normalen Umstaenden duerften sie locker gute 2 Jahre Entwicklungszeit in das Ding gesteckt haben welches sogar konservativ klingt.

Was meinst du mit entkoppelten TMUs? Ist Logan noch CineFX wo man entweder TEX oder ALU durchschieben konnte? Ich kann nicht ganz folgen.

Es sind alle mobilen GPUs so (wo nur der Grad der Koppelung sich unterscheidet zwischen Architekturen) um Strom zu sparen. Kann durchaus sein dass NV nicht so weit gegangen ist in Logan, aber in bisherigen ULP GFs ist es auch afaik so. Coda hat einen Mali ALUs thread im Technologie-forum; schau Dir die Diagramme mal an.

robbitop
2013-07-25, 13:00:55
Es sind alle mobilen GPUs so (wo nur der Grad der Koppelung sich unterscheidet zwischen Architekturen) um Strom zu sparen. Kann durchaus sein dass NV nicht so weit gegangen ist in Logan, aber in bisherigen ULP GFs ist es auch afaik so. Coda hat einen Mali ALUs thread im Technologie-forum; schau Dir die Diagramme mal an.
Bei den alten ULPs kann ich mir das gut vorstellen. Aber bei einem Kepler Abkömmling würde mich das stark wundern. Eigentlich bei jeder modernen Post DX9 GPU.

Ailuros
2013-07-25, 13:10:05
Bei den alten ULPs kann ich mir das gut vorstellen. Aber bei einem Kepler Abkömmling würde mich das stark wundern. Eigentlich bei jeder modernen Post DX9 GPU.

Du bist nicht im desktop; wenn Du hunderte von GFLOPs in smartphones haben willst musst Du eben auf jeder moeglichen Ebene sparen.

robbitop
2013-07-25, 13:14:10
Ist es denn bestätigt, ob Logan das tut? Ich wäre da sehr skeptisch. Das passt kaum zu einer modernen NV Architektur. Da müsste man sicherlich sehr vieles umstricken. Was nicht heißt, dass ich es ablehne. Aber zumindest für Logan bin ich skeptisch. Bei anderen SFF Architekturen, die speziell von Grund auf dafür ausgelegt worden sind, kann ich das schon eher glauben.

Andererseits investiert man in "1D-ALUs" und in FP64 ALUs (Mali). Das ergibt halt wenig Sinn, wenn man ständig die Pipelines stallen würde.

Ailuros
2013-07-25, 13:23:25
Ist es denn bestätigt, ob Logan das tut? Ich wäre da sehr skeptisch. Das passt kaum zu einer modernen NV Architektur. Da müsste man sicherlich sehr vieles umstricken. Was nicht heißt, dass ich es ablehne. Aber zumindest für Logan bin ich skeptisch. Bei anderen SFF Architekturen, die speziell von Grund auf dafür ausgelegt worden sind, kann ich das schon eher glauben.

Wenn die Logan GPU nicht fuer SFF mobile speziell ausgelegt wurde dann musst Du mir erstmal die moegliche Verdreifachung der GFLOPs/W im Vergleich zum GK110 erstmal erklaeren. Wenn Du schon zum gruebeln kommen solltest dann denk auch noch mal schnell an die area und wieviel NV wirklich diesmal fuer eine solche GPU unter hoechstwahrscheinlichem 28nm genau opfern koennte. Mehr als 20mm2 und ja dann wie viel genau?

Andererseits investiert man in "1D-ALUs" und in FP64 ALUs (Mali). Das ergibt halt wenig Sinn, wenn man ständig die Pipelines stallen würde.

Ich hab nie erwaehnt dass FP64 schon Sinn macht in dem Markt; der Punkt hier ist so viel wie moeglich Daten-leitungen u.a. zu entfernen um N power und die area Ziel zu erreichen.

Skysnake
2013-07-25, 13:40:36
Bzgl Kepler und GK110. Da geht es ja mehr oder weniger erstmal nur um das Featureset.

Soweit ich das verstehe wollen Sie aber halt z.B. nur 1 SMX verbauen, und allein dadurch lässt sich unglaublich viel an Logik einsparen.

Da kann man auch relativ einfach das fertige Design nehmen, und fröhlich anfangen den ganzen unnötigen Krempel raus zu schmeisen, den man für Workdistribution usw usw braucht.

Da lässt sich wirklich viel einsparen, ohne das man grundlegend etwas ändern muss.

Wir gehen ja davon aus, das es sich um ein synthetisches Design handelt.

Ailuros
2013-07-25, 14:00:57
Bzgl Kepler und GK110. Da geht es ja mehr oder weniger erstmal nur um das Featureset.

Soweit ich das verstehe wollen Sie aber halt z.B. nur 1 SMX verbauen, und allein dadurch lässt sich unglaublich viel an Logik einsparen.

Da kann man auch relativ einfach das fertige Design nehmen, und fröhlich anfangen den ganzen unnötigen Krempel raus zu schmeisen, den man für Workdistribution usw usw braucht.

Da lässt sich wirklich viel einsparen, ohne das man grundlegend etwas ändern muss.

Wir gehen ja davon aus, das es sich um ein synthetisches Design handelt.

Uebrigens soll GK208 nur ueber 8 TMUs verfuegen; eigentlich der idealste Kandidat fuer einen mobilen Ableger.

AnarchX
2013-07-25, 14:10:45
Uebrigens soll GK208 nur ueber 8 TMUs verfuegen; eigentlich der idealste Kandidat fuer einen mobilen Ableger.
Wohl 8 pro SMX.


Soweit ich das verstehe wollen Sie aber halt z.B. nur 1 SMX verbauen, und allein dadurch lässt sich unglaublich viel an Logik einsparen.

GK208 hat aber auch nur 2 SMX und ein 64-Bit SI. Mit 900MHz und DDR3 erreicht man 25W TDP. Dagegen sind die 2-3W inkl. A15-Cores immernoch eine ganz andere Verbrauchsklasse. Aber wenn es auf die von Ailuros' genannten 200-250MHz bei dauerhafter Belastung hinausläuft, wirkt das ganze natürlich etwas realistischer.

Ailuros
2013-07-25, 14:28:01
Wohl 8 pro SMX.

Ja tschuldigung; so war's gemeint. Logan soll ja zumindest nach Anand einen einzelnen SMX haben.

GK208 hat aber auch nur 2 SMX und ein 64-Bit SI. Mit 900MHz und DDR3 erreicht man 25W TDP. Dagegen sind die 2-3W inkl. A15-Cores immernoch eine ganz andere Verbrauchsklasse. Aber wenn es auf die von Ailuros' genannten 200-250MHz bei dauerhafter Belastung hinausläuft, wirkt das ganze natürlich etwas realistischer.

Anand erwaehnt irgendwo 1/5 auf der zweiten Seite des Artikels. 975MHz peak theoretisch fuer 374 GFLOPs; bei 200MHz dann eben 76.8 GFLOPs (welches ein "logischer" score fuer "skalare" ALUs in GLB2.7 ist). 900+mW fuer 200MHz bei 975MHz wohl ~5W fuer die GPU? Macht Sinn und wird auch ULP Haswell ziemlich stark die Brust zeigen wenn es zu GPU Leistung kommt.

mczak
2013-07-25, 19:21:32
Also wenn man da "vernünftige" Frequenzen erreicht bei Tablet TDP wäre das schon ziemlich gut - ich spreche jetzt nicht von 1Ghz sondern so um die 500Mhz. AMD kommt ja mit Temash bei 128 ALU-Lanes nur auf 225Mhz beim 3.9W Modell, wäre Logan da etwa im selben TDP-Bereich wäre man (bei 500Mhz) wohl so um den Faktor 3 schneller, auch wenn der Logan-Kepler stärker umgebaut wäre gegenüber dem Desktop-Kepler als das bei der Temash-GPU der Fall ist. Wobei Logan ist wohl 28nm HPm und Temash möglicherweise was billigeres (LP)?

Ailuros
2013-07-25, 19:33:17
NV braucht einen smartphone Verkaufsschlager mit sehr hohen Volumen; ultra high end tablets bzw. windows schoen und gut aber irgendwelchen sehenswerten Marktanteil gewinnt man mit den Dingern immer noch nicht.

Bei sagen wir mal 300MHz haben sie wohl einen ausgezeichneten Nachfolger fuer Grey, obwohl ich fuer diesen lieber keine A15 cores sehen wuerde.

mczak
2013-07-26, 02:48:04
Bei sagen wir mal 300MHz haben sie wohl einen ausgezeichneten Nachfolger fuer Grey, obwohl ich fuer diesen lieber keine A15 cores sehen wuerde.
Was wäre denn die Alternative? Cortex-A12 kam leider zu spät, sowas wie Project Denver ist natürlich auch noch nicht fertig. Nochmals eine neuere A9-Revision? Damit würde man aber selbst gegen (dannzumal schon uralte...) Chips wie Snapdragon 800 bzgl. CPU-Performance nicht mithalten. Gut ob das mit den dauerthrottelnden, batterievernichtenden A15 in der Praxis wirklich gelingt ist natürlich eine andere Frage. Aber der A15 hat ja vielleicht auch noch ein paar Stromspartricks gelernt oder sonstwie perf/w verbessert (könnte jedenfalls auch eine neuere Revision sein).

Ailuros
2013-07-26, 11:31:38
Was wäre denn die Alternative? Cortex-A12 kam leider zu spät, sowas wie Project Denver ist natürlich auch noch nicht fertig. Nochmals eine neuere A9-Revision? Damit würde man aber selbst gegen (dannzumal schon uralte...) Chips wie Snapdragon 800 bzgl. CPU-Performance nicht mithalten. Gut ob das mit den dauerthrottelnden, batterievernichtenden A15 in der Praxis wirklich gelingt ist natürlich eine andere Frage. Aber der A15 hat ja vielleicht auch noch ein paar Stromspartricks gelernt oder sonstwie perf/w verbessert (könnte jedenfalls auch eine neuere Revision sein).

Keine Ahnung; aber mein Bauchgefuehl sagt mir dass Samsung fuer das S4 beim S800 bleiben wird und der Exynos5420 eher ein tablet Nexus10 aehnlichem Nachfolger dienen wird. Die GPU im 5420 ist zwar um einiges staerker als im Nexus10 aber gegen das S800 ein eher schlechter Vergleich so wie es aussieht.

Fuer A15 - big.LITTLE - A7 haette ich auch nichts einzuwenden, aber A15 im 4+1 Aufbau bei NV macht mir fuer smartphones schon sorgen, egal ob der companion core im T4 auf bis zu 50+MHz runtertaktet.

mboeller
2013-07-29, 10:40:29
Kann sein. Ich hab das "4 CPU" als 4 x (big.little) interpretiert. Muss aber nicht sein. :)


Also doch 2 + 2 ...und trotzdem ein Quadcore.

http://www.engadget.com/2013/07/29/mediatek-mt8135-biglittle-mp-powervr-series6-g6200/

Sind das die ersten Rogue-Benchmarks?

deekey777
2013-07-31, 22:30:41
http://www.anandtech.com/show/7190/nvidia-shield-review-tegra-4-crossroads-pc-mobile-gaming
Tegra 4 features the fastest ARM CPU configuration of any device we've ever tested. There are four Cortex A15 cores inside running at up to 1.9GHz. Note that 1.9GHz is the max CPU frequency even with all four cores active. Tegra 4 is an absolute beast. Do keep in mind that the Tegra 4 is actively cooled via a fan inside Shield, which does give it a bit more thermal flexibility than what we'd normally find in an Android tablet.
Aber auch auf der GPU-Seite ist die Shield sehr stark. Eins darf man nicht vergessen: Shield kann es sich leisten, so stark getaktet zu sein.

Hugo78
2013-08-01, 06:59:13
Interessanter Punkt allgemein.
the Krait 400s have to be clocked at 2.3GHz to equal the performance of the 1.9GHz Cortex A15s.

robbitop
2013-08-01, 09:03:57
Bei Shield ist wohl die GPU auch ziemlich hoch getaktet. Sie hält immerhin mit Adreon 330 mit. Und das bei 80 sqmm!! (dafür veraltetes Featureset)

Wenn Logan das leistet, was bei Anand steht, dann muss man wirklich den Hut ziehen. Das Ding gepaart mit 4x Silvermont...

Interessanter Punkt allgemein.

Dass Krait ~20 % weniger IPC hat als A15 war doch vorher schon bekannt.

Ailuros
2013-08-01, 09:37:21
Bei Shield ist wohl die GPU auch ziemlich hoch getaktet. Sie hält immerhin mit Adreon 330 mit. Und das bei 80 sqmm!! (dafür veraltetes Featureset)

ULP GF@672MHz wo immer ein heatsink/fan eingebaut ist bis jetzt (sonst in allen bisherigen Implementierungen bei 605MHz) gegen "nur" 450MHz beim Adreno330. Die quadrat-Millimeter kann man sich schnell an den Hut stecken wenn niemand weiss wieviel Strom A oder B verbraucht.

Wenn Logan das leistet, was bei Anand steht, dann muss man wirklich den Hut ziehen. Das Ding gepaart mit 4x Silvermont...

Dann zieh mal auf einem Adreno330 das voltage bzw. Frequenz so weit runter bis es von heutigen smartphone 26+fps peak auf die 18fps runterkommt um es gegen die gemessenen von NV 900mW nur fuer die GPU rail zu stellen. So und jetzt ueberzeug mich dass wenn es ueberhaupt Unterschiede gibt es irgendwelche sehenswerte sein werden. Ach ja die ULP GF in Logan ist OGL4.4; Du wirst entschuldigen aber ich erwarte in 2014 keine schlechtere perf/mW ratios mit dem DX11.x Adreno420. Smartphones leisten schon heute mit einem SoC TDP von 2.5W um ca. 45% mehr als Logan in GLB2.7.

Wenn Du den Artikel von Anand vorsichtiger durchliest schaetzt er selber dass die Logan GPU zu 1/5 der peak Frequenz (975MHz) reduziert wurde; ergo lief die GPU mit aller Wahrscheinlichkeit auf ~195MHz. Scharf nachgedacht ist es nichts mehr besonderes im Angesicht dass Logan hoechstwahrscheinlich nicht vor H2 2014 in Geraeten erscheinen wird. Zu dem Zeitpunkt wird es schon GalaxyS5 und iPhone6 geben.

Dass Krait ~20 % weniger IPC hat als A15 war doch vorher schon bekannt.

Es bleibt nach wie vor perf/mW am wichtigsten. Dass Krait/Swift einen niedrigeren IPC hat ist eben gerade der Vorteil fuer die cores fuer smartphones.

robbitop
2013-08-01, 09:59:02
Ailuros - du bist (wie immer) wirklich schwer zu begeistern. Da kommt eine neue CPU Generation von Intel und eine neue GPU Generation von NV, die im SFF wirklich deutliche Sprünge ggü. ihren Vorgängern machen und der Grieche ist trotzdem nur am Herummäkeln. :D

ULP GF@672MHz wo immer ein heatsink/fan eingebaut ist bis jetzt (sonst in allen bisherigen Implementierungen bei 605MHz) gegen "nur" 450MHz beim Adreno330. Die quadrat-Millimeter kann man sich schnell an den Hut stecken wenn niemand weiss wieviel Strom A oder B verbraucht.
Hoch takten ist immer fatal für den Stromverbrauch. Fülle ich Tegra 4 mit so viel Einheiten auf, wie die Kernflächendifferenz zwischen Tegra 4 und Snapdragon 800 ist, geht der Qualcomm Chip unter. Da bekommt man ca 2-2,5x so viele einheiten rein wie bei Tegra 4.
Was den Stromverbrauch angeht, müsste man die GPU Rails vergleichen.



Dann zieh mal auf einem Adreno330 das voltage bzw. Frequenz so weit runter bis es von heutigen smartphone 26+fps peak auf die 18fps runterkommt um es gegen die gemessenen von NV 900mW nur fuer die GPU rail zu stellen.
Ich habe keine Messungen vorliegen. Du etwa? Ich würde darauf tippen, dass Adreno 330 bei gleicher Leistung wie A6X etwas besseren Verbrauch hat. Aber ob er auf die 900 mW von Logan kommt? Zwischen A6X und Logan klafft immerhin Faktor 2,88 im Verbrauch bei gleicher Leistung. Ich kann mir kaum vorstellen, dass Adreno da deutlich besser ist als A6X. Die Akkulaufzeiten wären ansonsten völlig andere. Aber genau weiß man das nur, wenn man mal nachmißt. Adreno 330 hat den Vorteil ggü A6x, dass sie 28 nm haben. Logan ebenfalls.

Logan wird sich allerdings gegen A7X (Rogue) und Adreno 420 messen müssen. Die werden deutlich besser sein als ihre Vorgänger.


Smartphones leisten schon heute mit einem SoC TDP von 2.5W um ca. 45% mehr als Logan in GLB2.7.
Ich beobachte, dass TDPs auch überschritten werden. Man müsste wirklich die GPU Rail nachmessen, um vergleichen zu können.


Wenn Du den Artikel von Anand vorsichtiger durchliest schaetzt er selber dass die Logan GPU zu 1/5 der peak Frequenz (975MHz) reduziert wurde; ergo lief die GPU mit aller Wahrscheinlichkeit auf ~195MHz. Scharf nachgedacht ist es nichts mehr besonderes im Angesicht dass Logan hoechstwahrscheinlich nicht vor H2 2014 in Geraeten erscheinen wird. Zu dem Zeitpunkt wird es schon GalaxyS5 und iPhone6 geben.
Volle Zustimmung.



Es bleibt nach wie vor perf/mW am wichtigsten. Dass Krait/Swift einen niedrigeren IPC hat ist eben gerade der Vorteil fuer die cores fuer smartphones.
Absolut. Wobei Krait auch wieder höher getaktet werden muss. @2,3 GHz ist der wohl auch nicht mehr wesentlich sparsamer als ein A15 @1,9 GHz. Beide SoCs des Samsung S4 sind ähnlich leistungsfähig und sind in der gleichen Plattform. Der Snapdragon ist sicher ein µ besser hinsichtlich CPU Perf/W. Aber nicht wesentlich.

Ailuros
2013-08-01, 10:58:43
Ailuros - du bist (wie immer) wirklich schwer zu begeistern. Da kommt eine neue CPU Generation von Intel und eine neue GPU Generation von NV, die im SFF wirklich deutliche Sprünge ggü. ihren Vorgängern machen und der Grieche ist trotzdem nur am Herummäkeln. :D

Was soll mich an 18fps in GLB2.7 bei ~900mW genau begeistern wenn schon heute ein smartphone Adreno330 womoeglich gleich so viel oder sogar weniger verbraucht?

Hoch takten ist immer fatal für den Stromverbrauch. Fülle ich Tegra 4 mit so viel Einheiten auf, wie die Kernflächendifferenz zwischen Tegra 4 und Snapdragon 800 ist, geht der Qualcomm Chip unter.

Ohne die Packdichte zu beruecksichtigen ist der obrige Satz fuer die Muelltonne. ULP GF@T4 hat nicht nur eine sehr hohe Frequenz aber womoeglich auch eine verdammt hohe Packdichte was auch nicht besonders gut jeglichem Stromverbrauch schmeckt.

Da bekommt man ca 2-2,5x so viele einheiten rein wie bei Tegra 4.
Was den Stromverbrauch angeht, müsste man die GPU Rails vergleichen.

Siehe oben.

Ich habe keine Messungen vorliegen. Du etwa? Ich würde darauf tippen, dass Adreno 330 bei gleicher Leistung wie A6X etwas besseren Verbrauch hat. Aber ob er auf die 900 mW von Logan kommt?

Warum hat NV denn nicht gleich Logan mit S800 verglichen wobei es gleich 28nm gegen 28nm gewesen waere? Es ist eben ziemlich "praktisch" mit 32nm hw zu vergleichen. Ist doch alles Duenschiss in Realitaet da sich Logan mit aller Wahrscheinlichkeit mit iPad6 ergo 2 iPad Generationen nach dem iPad4 schlagen wird.

Und ja ich bin zuversichtlich dass wenn man einen 330 von seinen 26fps auf 18fps normalisiert der Stromverbrauch durchaus vergleichbar sein wird.

Zwischen A6X und Logan klafft immerhin Faktor 2,88 im Verbrauch bei gleicher Leistung. Ich kann mir kaum vorstellen, dass Adreno da deutlich besser ist als A6X. Die Akkulaufzeiten wären ansonsten völlig andere. Aber genau weiß man das nur, wenn man mal nachmißt. Adreno 330 hat den Vorteil ggü A6x, dass sie 28 nm haben. Logan ebenfalls.

Klar. Siehe oben.

Logan wird sich allerdings gegen A7X (Rogue) und Adreno 420 messen müssen. Die werden deutlich besser sein als ihre Vorgänger.

Mhmmm...


Absolut. Wobei Krait auch wieder höher getaktet werden muss. @2,3 GHz ist der wohl auch nicht mehr wesentlich sparsamer als ein A15 @1,9 GHz. Beide SoCs des Samsung S4 sind ähnlich leistungsfähig und sind in der gleichen Plattform. Der Snapdragon ist sicher ein µ besser hinsichtlich CPU Perf/W. Aber nicht wesentlich.

Mich wundert bei all dem obrigen eigentlich eher was CPU maessig im Grey Nachfolger stecken wird. Von jeglicher A15-Option bin ich offensichtlich nicht begeistert; da waere mir persoenlich sogar ein noch hoeher getaktetes A9R4 Gespann mit deutlich mehr SoC Bandbreite (dual channel) um einiges lieber.

robbitop
2013-08-01, 11:19:12
Was soll mich an 18fps in GLB2.7 bei ~900mW genau begeistern wenn schon heute ein smartphone Adreno330 womoeglich gleich so viel oder sogar weniger verbraucht?
Was zu beweisen wäre.


Ohne die Packdichte zu beruecksichtigen ist der obrige Satz fuer die Muelltonne. ULP GF@T4 hat nicht nur eine sehr hohe Frequenz aber womoeglich auch eine verdammt hohe Packdichte was auch nicht besonders gut jeglichem Stromverbrauch schmeckt.
Wie kommst du darauf? Beide nutzen AFAIK den gleichen TSMC Prozess. So viel besser packen, wie Kernflächendifferenz vorhanden ist, kann man gar nicht. Vieleicht sind beide Packdichten einfach identisch?
Die Ursache, warum die ULP von T4 so wenig Platz pro Performance braucht, liegt doch auf der Hand: Techlevel. Das kostet eben richtig Transistoren.


Warum hat NV denn nicht gleich Logan mit S800 verglichen wobei es gleich 28nm gegen 28nm gewesen waere? Es ist eben ziemlich "praktisch" mit 32nm hw zu vergleichen. Ist doch alles Duenschiss in Realitaet da sich Logan mit aller Wahrscheinlichkeit mit iPad6 ergo 2 iPad Generationen nach dem iPad4 schlagen wird.
Vieleicht hat NV ja auch nicht die richtige Rail beim SoC gefunden - ich kann mir schwer vorstellen, dass die GPU im A6X nur wegen einem halfnode shrink so viel schlechter sein soll als beim Adreno.


Mich wundert bei all dem obrigen eigentlich eher was CPU maessig im Grey Nachfolger stecken wird. Von jeglicher A15-Option bin ich offensichtlich nicht begeistert; da waere mir persoenlich sogar ein noch hoeher getaktetes A9R4 Gespann mit deutlich mehr SoC Bandbreite (dual channel) um einiges lieber.
Frei lizensierbar im Zeitraum sind A7, A9 und A15. A12, A53 und A57 sind vermutlich ein wenig später dran. Einen custom Core hat NV vermutlich nicht (wobei wir von Apple ja auch überrascht worden sind).

Entweder trennt man wieder zwischen Smartphone und und Tablet SoC (A9/A15) oder man implementiert big.LITTLE.

Ailuros
2013-08-01, 12:15:49
Was zu beweisen wäre.

Moment ich hab ein reales kaufbares Geraet mit einem 2.5W SoC TDP dass um 44% mehr leistet gegen ein marketing demo von noch nicht finaler hw und ich soll was beweisen wollen? Ich behaupte jetzt mal frei aus der Luft gegriffen dass der Adreno330 in GLB2.7 nur als GPU um die 1.5W verbraucht; jetzt zieh mir Du den 44% Ueberschuss ab um 18fps zu erreichen. Es gibt hier nichts um den Brei zu tanzen, schon gar nicht wenn jemand wie Du geehrter Herr robbitop vor einiger Zeit nicht verdauen konnte dass N FLOPs bzw. Leistung von SFF GPUs in smartphones moeglich sein wird. Aber es wird natuerlich von NV behauptet ergo ist es ein Ereignis, waehrend die Rest der Konkurrenz nur auf ihren Ohren sitzt.

Wie kommst du darauf? Beide nutzen AFAIK den gleichen TSMC Prozess. So viel besser packen, wie Kernflächendifferenz vorhanden ist, kann man gar nicht. Vieleicht sind beide Packdichten einfach identisch?
Die Ursache, warum die ULP von T4 so wenig Platz pro Performance braucht, liegt doch auf der Hand: Techlevel. Das kostet eben richtig Transistoren.

Ach und weil beide theoretisch den gleichen Prozess benutzen koennten ist es irgendwo eine Indizie was GPU Block die area bzw. Packdichte von diesem angeht? Nein sie sind eben nicht identisch; und den techlevel kannste auch gleich wegstecken da Adreno330 8 TMUs hat gegen 4 im ULP.

Vieleicht hat NV ja auch nicht die richtige Rail beim SoC gefunden - ich kann mir schwer vorstellen, dass die GPU im A6X nur wegen einem halfnode shrink so viel schlechter sein soll als beim Adreno.

Ach peinliche "Unfaelle" passieren in letzter Zeit bei Tegra technical marketing konstant; es interessiert auch keinen. Wie gesagt T5 wird sich mit iPad6 vergleichen muessen; das sind zwei ganze tablet Generationen fuer Apple. Und was wenn Apple in H2 2014 mit 20nm antanzt? Soll ich dann den gleichen Apfel/Birnen Vergleich segnen falls jemand iPad6@20nm gegen Tegra5@28nm vergleichen sollte?


Entweder trennt man wieder zwischen Smartphone und und Tablet SoC (A9/A15) oder man implementiert big.LITTLE.

Bis jetzt hat NV big.LITTLE nicht implementiert um Lizenzgebuehren zu sparen.

fondness
2013-08-01, 12:22:36
Bei Shield ist wohl die GPU auch ziemlich hoch getaktet. Sie hält immerhin mit Adreon 330 mit. Und das bei 80 sqmm!! (dafür veraltetes Featureset)


Bei den unterlegenen Features und dem hohen Takt ist das wahrlich kein Wunder. In dem Markt zählt allerdings Perf/Watt und da sieht es düster aus, das bringt braucht eine aktive Kühlung, also deutlich über 5W.

Hugo78
2013-08-01, 12:34:08
Warum hat NV denn nicht gleich Logan mit S800 verglichen wobei es gleich 28nm gegen 28nm gewesen waere?

1. Adreno 330 kann man nicht lizensieren, PowerVR aus dem iPad schon.
So ein Vergleich soll doch potentielle Kunden anlocken.

2. Und wieviele S800 Geräte sind schon verfügbar und seit wann?
Hätte man hier ne Chance gehab, die Teile lang genug einem Reverse Engineering zuunterziehen,
damit man sich auch 100% sicher sein kann, richtige Werte zuerhalten?!

Ailuros
2013-08-01, 12:45:09
1. Adreno 330 kann man nicht lizensieren, PowerVR aus dem iPad schon.
So ein Vergleich soll doch potentielle Kunden anlocken.

Ergo sollten wird dann die ULP GF im Logan gegen Rogue@iPadx/2014 vergleichen.

2. Und wieviele S800 Geräte sind schon verfügbar und seit wann?
Hätte man hier ne Chance gehab, die Teile lang genug einem Reverse Engineering zuunterziehen,
damit man sich auch 100% sicher sein kann, richtige Werte zuerhalten?!


Samsung SHV-E330s Galaxy S4
Samsung SHV-E470S
Samsung SM-N900 Galaxy Note III
Sony C6833 Xperia Z Ultra
Sony C6802 Xperia Z Ultra
Sony C6903
LG D801
Vega IM-A880S
Samsung SM-N9005

Gibt es annaehernd irgendwelche Hoffnung dass T4's insgesamtes Verkaufsvolumen selbst das Volumen von nur einem grossen S800 design win ueberschreitet?

Und schau her ein Galaxy S4 smartphone leistet um 54% mehr in GLB2.7 als das momentan schnellste Hewlett Packard T4 tablet (26.4 vs. 17.1 fps). Es steckt eben keine aktive Kuehlung in den bisherigen T4 tablets.

Hugo78
2013-08-01, 13:24:09
Ergo sollten wird dann die ULP GF im Logan gegen Rogue@iPadx/2014 vergleichen.
Nvidia soll jetzt bis 2014 warten, wenn sie jetzt schon lauffähige Chips haben und heute schon Lizenzen verkaufen wollen?

Samsung SHV-E330s Galaxy S4
Samsung SHV-E470S
Samsung SM-N900 Galaxy Note III
Sony C6833 Xperia Z Ultra
Sony C6802 Xperia Z Ultra
Sony C6903
LG D801
Vega IM-A880S
Samsung SM-N9005
Fehlt noch die Frage ab wann das erste dieser Geräte verfügbar war/ist,
denn der Zeitraum für fehlerfreies Reverse Engineering ist hier entscheidend.

Ailuros
2013-08-01, 13:39:47
Nvidia soll jetzt bis 2014 warten, wenn sie jetzt schon lauffähige Chips haben und heute schon Lizenzen verkaufen wollen?

Ein Lizenz Verkauf macht ja soooooo viel Sinn fuer NV's business model. Selbst wenn heute jemand lizenzieren sollte dauert es gute 2 Jahre bis es auf Regalen erscheint und das ist sogar laenger als dass Logan in echten Geraeten als SoC Hersteller vorstellen kann. Was willst Du mir genau sagen?

Wo steht dass Logan selbst annaehernd Produktionsreif ist?

Fehlt noch die Frage ab wann das erste dieser Geräte verfügbar war/ist,
denn der Zeitraum für fehlerfreies Reverse Engineering ist hier entscheidend.

Wenn alles nach Plan laeuft in 2014 rund um den Zeitraum ergo entweder am Ausklang von H1 oder Anfang H2.

robbitop
2013-08-01, 13:50:52
Moment ich hab ein reales kaufbares Geraet mit einem 2.5W SoC TDP dass um 44% mehr leistet gegen ein marketing demo von noch nicht finaler hw und ich soll was beweisen wollen?
Am besten misst man isoliert die GPU Rail. Wir haben oft genug gesehen, dass SFF SoCs:

- TDPs überschreiten
- Kerne schlafenlegen/throtteln um anderen Einheiten TDP abzugeben

In einem grafiklastigen Bereich mit mittelmäßiger Parallelisierung kannst du der GPU das TDP Budget von 2 Kernen geben etc pp.

Wenn schon, denn schon. (isolierte Messung)

Ich behaupte jetzt mal frei aus der Luft gegriffen dass der Adreno330 in GLB2.7 nur als GPU um die 1.5W verbraucht; jetzt zieh mir Du den 44% Ueberschuss ab um 18fps zu erreichen.
Sind dann 1050 mW. 150 mW mehr als Logan. Aber da wir hier herumraten und schätzen ist die Differenz nicht genau genug determinierbar.


Es gibt hier nichts um den Brei zu tanzen, schon gar nicht wenn jemand wie Du geehrter Herr robbitop vor einiger Zeit nicht verdauen konnte dass N FLOPs bzw. Leistung von SFF GPUs in smartphones moeglich sein wird. Aber es wird natuerlich von NV behauptet ergo ist es ein Ereignis, waehrend die Rest der Konkurrenz nur auf ihren Ohren sitzt.

1. Ich empfehle einen sachlicheren Diskussionston. (ich verstehe deine aggressive Haltung mir gegenüber nicht wirklich - PN?)
2. Wann habe ich was genau behauptet?
3. Ich behaupte nicht, dass andere nichts tun. Ich fand es lediglich erstaunlich, was NV aus ihrer PC Architektur herausgepresst bekommt an Perf/W.



Ach und weil beide theoretisch den gleichen Prozess benutzen koennten ist es irgendwo eine Indizie was GPU Block die area bzw. Packdichte von diesem angeht?
Ich sehe nichts, was darauf hindeutet. Vieleicht hast du ja so einen Hinweis bekommen. Aber auch bei Packdichten sind nur moderate Unterschiede möglich bei Logiktransistoren.


Nein sie sind eben nicht identisch; und den techlevel kannste auch gleich wegstecken da Adreno330 8 TMUs hat gegen 4 im ULP.
Der Techlevel ist mit Sicherheit nicht irrelevant für die Größe.



Ach peinliche "Unfaelle" passieren in letzter Zeit bei Tegra technical marketing konstant; es interessiert auch keinen. Wie gesagt T5 wird sich mit iPad6 vergleichen muessen; das sind zwei ganze tablet Generationen fuer Apple. Und was wenn Apple in H2 2014 mit 20nm antanzt? Soll ich dann den gleichen Apfel/Birnen Vergleich segnen falls jemand iPad6@20nm gegen Tegra5@28nm vergleichen sollte?
Ich bin selbstverständlich auch gegen Apfel-Birnen Vergleiche.



Bis jetzt hat NV big.LITTLE nicht implementiert um Lizenzgebuehren zu sparen.
Wer weiß, ob das so bleibt?

Ein Lizenz Verkauf macht ja soooooo viel Sinn fuer NV's business model. Selbst wenn heute jemand lizenzieren sollte dauert es gute 2 Jahre bis es auf Regalen erscheint und das ist sogar laenger als dass Logan in echten Geraeten als SoC Hersteller vorstellen kann. Was willst Du mir genau sagen?


Publicity ist niemals schlecht. Vieleicht entscheidet sich jemand, die Nachfolger (oder Nach-nachfolger) Generation zu lizensieren.

NV hat sich offenbar nicht ohne Grund für die Lizensierung entschieden. Seit sie im PC Markt nur noch Grafikkarten verkaufen, versuchen sie überall wo es geht, etwas zu verkaufen.
Das torpediert dann natürlich die Tegra Reihe. Die lief aber IIRC nie besonders gut vom finanziellen Erfolg. Wer weiß schon, was NV plant?

Ailuros
2013-08-01, 14:11:58
Am besten misst man isoliert die GPU Rail. Wir haben oft genug gesehen, dass SFF SoCs:

- TDPs überschreiten
- Kerne schlafenlegen/throtteln um anderen Einheiten TDP abzugeben

In einem grafiklastigen Bereich mit mittelmäßiger Parallelisierung kannst du der GPU das TDP Budget von 2 Kernen geben etc pp.

Wenn schon, denn schon. (isolierte Messung)

Am besten waeren unabhaengige Messungen von dritten bei finalen Produkten; momentan hab ich nur NV's eigene Messungen.

Sind dann 1050 mW. 150 mW mehr als Logan. Aber da wir hier herumraten und schätzen ist die Differenz nicht genau genug determinierbar.

Wenn ein smartphone SoC insgesamt nicht mehr als 2.5W verbraucht, dann ist eine 1.5W Schaetzung schon verdammt uebertrieben fuer nur die GPU eines solchen SoCs.

1. Ich empfehle einen sachlicheren Diskussionston. (ich verstehe deine aggressive Haltung mir gegenüber nicht wirklich - PN?)
2. Wann habe ich was genau behauptet?
3. Ich behaupte nicht, dass andere nichts tun. Ich fand es lediglich erstaunlich, was NV aus ihrer PC Architektur herausgepresst bekommt an Perf/W.

Es steht kein Flecken an beleidigendem Material im vorigen Paragraph; sonst kannst Du die Datenbank selber aufsuchen wie oft Du u.a. daran gezweifelt habt dass etliche hundert GFLOPs in smartphones bald moeglich sein werden.

Ich sehe nichts, was darauf hindeutet. Vieleicht hast du ja so einen Hinweis bekommen. Aber auch bei Packdichten sind nur moderate Unterschiede möglich bei Logiktransistoren.

Es ist NV selber dass behauptet dass die ULP GF im T4 nur rund um die 10mm2 wiegen soll. Soll ich NV jetzt glauben oder nicht?

Der Techlevel ist mit Sicherheit nicht irrelevant für die Größe.

ULP GF bis zu T4 fehlt zwar OGL_ES3.0 Komplianz aber keinen Berg an features; Du willst mir doch nicht weiss machen dass der relativ kleine Unterschied sich gegen doppelt so viele TMUs messen kann?



Publicity ist niemals schlecht. Vieleicht entscheidet sich jemand, die Nachfolger (oder Nach-nachfolger) Generation zu lizensieren.

NV hat sich offenbar nicht ohne Grund für die Lizensierung entschieden. Seit sie im PC Markt nur noch Grafikkarten verkaufen, versuchen sie überall wo es geht, etwas zu verkaufen.
Das torpediert dann natürlich die Tegra Reihe. Die lief aber IIRC nie besonders gut vom finanziellen Erfolg. Wer weiß schon, was NV plant?

Ich sag Dir was NV plant und die NV fanboys koennen mich stets dafuer lynchen: kauft mich; so lange Jensen CEO sein darf wird es auch kein Problem sein :D

robbitop
2013-08-01, 14:53:44
Es steht kein Flecken an beleidigendem Material im vorigen Paragraph; sonst kannst Du die Datenbank selber aufsuchen wie oft Du u.a. daran gezweifelt habt dass etliche hundert GFLOPs in smartphones bald moeglich sein werden.

Dann muss es aber schon eine Weile her sein. Jeder kann auch mal seine Meinung ändern. Alles andere wäre stur. Welchen Sinn ergibt es für dich, auf kaltem Kaffe von Vor-vorgestern herumzutanzen? :|



Es ist NV selber dass behauptet dass die ULP GF im T4 nur rund um die 10mm2 wiegen soll. Soll ich NV jetzt glauben oder nicht?
Das heißt erstmal nur, dass die ULP klein ist. Das muss aber nicht heißen, dass die Packdichte hoch ist. Das Ding schluckt ggf. auch einfach kaum Transistoren.



ULP GF bis zu T4 fehlt zwar OGL_ES3.0 Komplianz aber keinen Berg an features; Du willst mir doch nicht weiss machen dass der relativ kleine Unterschied sich gegen doppelt so viele TMUs messen kann?
Ich würde den Unterschied zwischen Tegra 4 Techlevel und SGX/Adreno mal analog zu G70 -> G80 setzen. Vieleicht ist man auch leicht drunter (eventuell auch R400 -> C1). Aber dennoch: 1D ALUs, Unified Shader, entkoppelte TMUs (halte ich für wahrscheinlich), mehr Register, aufwändigeres Dispatching etc pp.


Ich sag Dir was NV plant und die NV fanboys koennen mich stets dafuer lynchen: kauft mich; so lange Jensen CEO sein darf wird es auch kein Problem sein :D
Ich nehme ihn als sehr guten CEO wahr. Er versucht wirklich alle möglichen Märkte aufzureißen, um neue Standbeine für NV zu gewinnen. Ich möchte mal eine andere Firma sehen, die sich so sehr und in vielen verschiedenen Sparten abstrampelt wie NV.

ATI ist mittlerweile zur kleinen GPU Schmiede von AMD verschrumpelt.

mboeller
2013-08-01, 15:08:23
Fehlt noch die Frage ab wann das erste dieser Geräte verfügbar war/ist,
denn der Zeitraum für fehlerfreies Reverse Engineering ist hier entscheidend.

Das Galaxy S4 mit dem S800 sollte man in Korea schon kaufen können.

In dem link unten steht zumindest das es in Korea schon verkauft wird (bisher 150000 Stück) und auch zu uns kommt:

http://www.tabtech.de/android-bzw-google-tablet-pc-news/samsung-galaxy-s4-lte-a-gt-i9506-mit-snapdragon-800-erscheint-auch-in-deutschland

zweiter Link vom 15.7. :
http://www.gsmarena.com/samsung_ships_150k_galaxy_s4_ltea_units_in_korea-news-6381.php

Verkaufsstart "2 weeks ago"; also spätestens zum 1.7. S800-Handys sind also seit ca. 1 Monat auf dem Markt. Damit hat Qualcomm das "Rennen" gegen Nvidia eindeutig gewonnen. :)

Ailuros
2013-08-01, 15:12:48
Dann muss es aber schon eine Weile her sein. Jeder kann auch mal seine Meinung ändern. Alles andere wäre stur. Welchen Sinn ergibt es für dich, auf kaltem Kaffe von Vor-vorgestern herumzutanzen? :|

Es ging von folgendem los:

Ailuros - du bist (wie immer) wirklich schwer zu begeistern. Da kommt eine neue CPU Generation von Intel und eine neue GPU Generation von NV, die im SFF wirklich deutliche Sprünge ggü. ihren Vorgängern machen und der Grieche ist trotzdem nur am Herummäkeln

Natuerlich nicht boese gemeint, aber andere Antworten solltest unter solchen Bedingungen auch nicht erwarten.


Das heißt erstmal nur, dass die ULP klein ist. Das muss aber nicht heißen, dass die Packdichte hoch ist. Das Ding schluckt ggf. auch einfach kaum Transistoren.

Oh doch wenn Du es gegen vorige Generationen vergleichst; hol Dir mal einen Tegra2 die shot zur Hand wo man die GPU deutlich sehen kann. Wie gross das Ding unter 40nm war ist bekannt und bedenke 1 Vec4 PS + 1 Vec4 VS + 2 TMUs und rechne es dann auch die ULP GF in T4 hoch waehrend Du natuerlich schaetzungsweise auch die 40 zu 28nm Unterschiede in Betracht nehmen muss. Trisetup, raster und z/stencil sind ja sowieso gleich, nur die Z Praezision ging seit Tegra3 auf 24bit hoch was sowieso schon da war aber auf 16bit reduziert wurde um Leistung zu sparen. Sonst grab Dir die T4 Praesentationen aus, da steht die T4 die area fuer dessen GPU klipp und klar drin.

Ich würde den Unterschied zwischen Tegra 4 Techlevel und SGX/Adreno mal analog zu G70 -> G80 setzen. Vieleicht ist man auch leicht drunter (eventuell auch R400 -> C1). Aber dennoch: 1D ALUs, Unified Shader, entkoppelte TMUs (halte ich für wahrscheinlich), mehr Register, aufwändigeres Dispatching etc pp.

Nein. Weder SGX noch Adreno haben entkopellte TMUs und auch nicht wirklich genuegend register files um sie wirklich 1D ALUs zu nennen. Mali400 ist am letzten um einiges naeher dran dank ziemlich grosszuegigen Mengen an register file Groessen.

G7x ist die ULP GF auch nicht; eher eine Mischung aus NV3x und NV4x wobei natuerlich die FP20 pixel shader Praezision einzigartig ist.


Ich nehme ihn als sehr guten CEO wahr. Er versucht wirklich alle möglichen Märkte aufzureißen, um neue Standbeine für NV zu gewinnen. Ich möchte mal eine andere Firma sehen, die sich so sehr und in vielen verschiedenen Sparten abstrampelt wie NV.

ATI ist mittlerweile zur kleinen GPU Schmiede von AMD verschrumpelt.

AMD hat wohl bald die Relevanz fuer SFF gleich ganz verloren; nichtdestominder hat Jensen die SFF Notwendigkeit zwar rechtzeitig erkannt aber es wurden von Anfang so viele daemliche strategische Entscheidungen getroffen dass es einfach zu nichts kam. Fuer Tegra und Denver hat das obere Management von NV bisher so viele daemliche Entscheidungen getroffen dass es nicht mehr schoen ist. Und in solch einem Fall sind jegliche Entscheidungen einem jeglichem CEO bewusst und auch seine Verantwortung.

Von mir aus koennt Ihr Teer und Federn fuer mich und meine Tegra Kritik bereistellen, aber vorher muss mir irgend jemand erstmal erklaeren wo und wieso es bisher irgendwelche Indizien von jeglichem Erfolg gab. Ja wir sind NV und machen dies und das im desktop ist in dem Markt scheissegal. Runter vom hohen Ross und greift verdammt noch Mal den SFF von ganz ganz ganz unten an. Was hat Mediatek besonderes dass sie den einen design nach dem anderem kassieren? Aber nein NV muss mit high end Quark antanzen weil sie auch wirklich den Durchbruch im Markt haben es irgendwie durchzusetzen. Hallo man gewinnt Marktanteile mit low end Kram.

robbitop
2013-08-01, 16:41:28
Es ging von folgendem los:

Ailuros - du bist (wie immer) wirklich schwer zu begeistern. Da kommt eine neue CPU Generation von Intel und eine neue GPU Generation von NV, die im SFF wirklich deutliche Sprünge ggü. ihren Vorgängern machen und der Grieche ist trotzdem nur am Herummäkeln

Natuerlich nicht boese gemeint, aber andere Antworten solltest unter solchen Bedingungen auch nicht erwarten.

Den Smiley dahinter hast du aber gesehen, oder? ;)



Oh doch wenn Du es gegen vorige Generationen vergleichst; hol Dir mal einen Tegra2 die shot zur Hand wo man die GPU deutlich sehen kann. Wie gross das Ding unter 40nm war ist bekannt und bedenke 1 Vec4 PS + 1 Vec4 VS + 2 TMUs und rechne es dann auch die ULP GF in T4 hoch waehrend Du natuerlich schaetzungsweise auch die 40 zu 28nm Unterschiede in Betracht nehmen muss. Trisetup, raster und z/stencil sind ja sowieso gleich, nur die Z Praezision ging seit Tegra3 auf 24bit hoch was sowieso schon da war aber auf 16bit reduziert wurde um Leistung zu sparen. Sonst grab Dir die T4 Praesentationen aus, da steht die T4 die area fuer dessen GPU klipp und klar drin.
Sieht mir hier aber nicht nach 10 sqmm aus:
http://indroid.info/wp-content/uploads/2013/01/Tegra-4-icera-i500-die-shot.jpg

Ohne es zu messen sieht es eher nach ~1/3 aus. Also eher 26 sqmm. Aber es kann sein, dass das kein echter Die-Shot war sondern eher so ein PR Ding. Kannst du mir die Präsentation geben, die 10 sqmm für ULP besagt?


Nein. Weder SGX noch Adreno haben entkopellte TMUs
Bist du dir da sicher?


und auch nicht wirklich genuegend register files um sie wirklich 1D ALUs zu nennen.
Die Anzahl der Register hat nicht direkt etwas damit zu tun, wie ich die ALUs füttere. Du hast doch IIRC irgendwo mal gepostet, dass neuere SFF GPUs "skalare ALUs" haben.

G7x ist die ULP GF auch nicht; eher eine Mischung aus NV3x und NV4x wobei natuerlich die FP20 pixel shader Praezision einzigartig ist.
War auch nur eine Analogie. Offenbar ist ULP bis dato ein Oldschool SM3 non-USC Design. Andere Designs sind da wesentlich moderner.




AMD hat wohl bald die Relevanz fuer SFF gleich ganz verloren; nichtdestominder hat Jensen die SFF Notwendigkeit zwar rechtzeitig erkannt aber es wurden von Anfang so viele daemliche strategische Entscheidungen getroffen dass es einfach zu nichts kam. Fuer Tegra und Denver hat das obere Management von NV bisher so viele daemliche Entscheidungen getroffen dass es nicht mehr schoen ist. Und in solch einem Fall sind jegliche Entscheidungen einem jeglichem CEO bewusst und auch seine Verantwortung.
Aber immerhin kamen bis dato 4 Generationen Tegras. Und jeder deutlich besser als sein Vorgänger. Das Potenzial ist jedenfalls da, um sich besser zu positionieren.

Von mir aus koennt Ihr Teer und Federn fuer mich und meine Tegra Kritik bereistellen, aber vorher muss mir irgend jemand erstmal erklaeren wo und wieso es bisher irgendwelche Indizien von jeglichem Erfolg gab. Ja wir sind NV und machen dies und das im desktop ist in dem Markt scheissegal. Runter vom hohen Ross und greift verdammt noch Mal den SFF von ganz ganz ganz unten an. Was hat Mediatek besonderes dass sie den einen design nach dem anderem kassieren? Aber nein NV muss mit high end Quark antanzen weil sie auch wirklich den Durchbruch im Markt haben es irgendwie durchzusetzen. Hallo man gewinnt Marktanteile mit low end Kram.
So war NV aber schon immer. ;) Eventuell muss man sogar beides haben. High End für die Presse und die Enthusiastanwender und Low Cost für die Masse.
Mit einem sehr guten SoC kann man eventuell so dastehen wie Qualcomm. Die haben doch mit Snapdragon 600 und 800 alles abgeräumt dieses Jahr.

Man braucht eine moderne GPU -> kommt mit Logan.
Man braucht ein integriertes Modem -> ist NV da nicht auch dran?
Man braucht gute Preise -> daran muss NV noch arbeiten.
Man braucht eine gute CPU (perf/W) -> Vieleicht hat NV ja ebenfalls ein Custom ARM Design in der Mache, was in den nächsten Jahren kommt? Ansonsten sind die Standard ARM Designs auch nicht schlecht. A7+A15 ist sicher nicht soo schlecht. Bald kommen A12 und A53 + A57. Die sind allesamt sicher ein guter Fortschritt.

-/\-CruNcher-/\-
2013-08-01, 17:30:25
Steht Nvidia wirklich so gut dar das man Mali vollkommen ignoriert oder nicht als konkurenz mit einbezieht ich würde sagen nein ?
zumal Nvidia jedes mal ihre versprechen nicht halten konnte und Mali sich in Asien excelent verkauft an der seite von SGX :)
Und in Preis Leistung ist Adreno einfach noch nicht konkurenzfähig

lumines
2013-08-01, 17:40:55
Steht Nvidia wirklich so gut dar das man Mali vollkommen ignoriert oder nicht als konkurenz mit einbezieht ich würde sagen nein ?
zumal Nvidia jedes mal ihre versprechen nicht halten konnte und Mali sich in Asien excelent verkauft an der seite von SGX :)
Und in Preis Leistung ist Adreno einfach noch nicht konkurenzfähig

Du tust gerade so, als sei die GPU unabhängig vom SoC.

-/\-CruNcher-/\-
2013-08-01, 17:48:59
Danach gesehen hat ARM mit Mali doch die aller besten Vorausetzungen ;)

Hugo78
2013-08-01, 18:07:10
Das Galaxy S4 mit dem S800 sollte man in Korea schon kaufen können.

In dem link unten steht zumindest das es in Korea schon verkauft wird (bisher 150000 Stück) und auch zu uns kommt:

http://www.tabtech.de/android-bzw-google-tablet-pc-news/samsung-galaxy-s4-lte-a-gt-i9506-mit-snapdragon-800-erscheint-auch-in-deutschland

zweiter Link vom 15.7. :
http://www.gsmarena.com/samsung_ships_150k_galaxy_s4_ltea_units_in_korea-news-6381.php

Verkaufsstart "2 weeks ago"; also spätestens zum 1.7. S800-Handys sind also seit ca. 1 Monat auf dem Markt. Damit hat Qualcomm das "Rennen" gegen Nvidia eindeutig gewonnen. :)

Das Qualcomm dieses Jahr alle Designwins vom Mittelklasse bis Highend Segment, für sich beanspruchen kann und alle anderen inkl. Nvidia dagegen alt aussehen, steht ausser Frage.

Nur darum ging es nicht.

Ailuros hat die Frage gestellt, warum Nvidia ihre 28nm Logan-Kepler GPU gegen eine 32nm PowerVR (iPad 4) testet, wo doch QCOM mit dem S800 auch eine schnelle(re) 28nm GPU hat.

Mein Punkt u.a. dazu ist, dass es auch erst seit kurzem S800 Geräte zukaufen gibt und man dann auch etwas Zeit braucht,
das gleiche Vergleichssetup aufzubauen, weil QCom einem freiwillig nicht sagen wird, wo genau Nvidia jetzt messen kann, um zuzeigen das sie (womöglich) besser sind.

Ailuros
2013-08-01, 18:50:16
Sieht mir hier aber nicht nach 10 sqmm aus:
http://indroid.info/wp-content/uploads/2013/01/Tegra-4-icera-i500-die-shot.jpg

Ich sagte Tegra2 welches der letzte echte die shot von einem Tegra war der oeffentlich kursierte; Du willst Schlussfolgerungen ziehen aus dem nachgemalten Bloedsinn von NVIDIA?

Ohne es zu messen sieht es eher nach ~1/3 aus. Also eher 26 sqmm. Aber es kann sein, dass das kein echter Die-Shot war sondern eher so ein PR Ding. Kannst du mir die Präsentation geben, die 10 sqmm für ULP besagt?

Seite 15:

http://www.nvidia.com/docs/IO/116757/Tegra_4_GPU_Whitepaper_FINALv2.pdf

10.5mm2 um ganz genau zu sein. Dass die Mehrzahl vom Rest auch nicht stimmt lassen wir mal weg dass es nicht zu peinlich wird.

Tegra2 ja echter die shot:

http://www.anandtech.com/show/5072/nvidias-tegra-3-launched-architecture-revealed

Um die 8.5mm2@40nm aus den insgesamten 40mm2 ergo ca. 1/5 vom insgesamten die estate, Frequenz bei 333MHz.

Von 1 Vec4 PS ALU werden es 12 Vec4 im Tegra4
von 1 Vec4 VS ALU werden es 6 Vec4 im Tegra4
aus den 2 TMUs werden 4 im Tegra4

das ganze ensemble von 40 auf 28mm von 333 auf 672MHz und die area steigt nur marginal oder anders von 1/5 in T2 wird es zu 1/8 in T4. Soll ich Dir nochmal den slide auf Seite 15 Punkt fuer Punkt in Stuecke zerreissen da Du anscheinend die Affaeren noch den thread hier zu verfolgen scheinst? Einfaches Beispiel wieviel GFLOPs werden fuer T604 im slide angegeben? Ohne die skalaren Einheiten mitberechnet sind es 68 GFLOPs bei 533MHz mit diesen sind es 72 GFLOPs.

Bist du dir da sicher?

Ja und ich bin mir zu faul ein SGX floorplan auszubuddeln.


Die Anzahl der Register hat nicht direkt etwas damit zu tun, wie ich die ALUs füttere. Du hast doch IIRC irgendwo mal gepostet, dass neuere SFF GPUs "skalare ALUs" haben.

Stimmt fuer Adreno und Rogue; fuer Mali T6xx lag ich leider falsch und es sind komischerweise immer noch vector ALUs. Adreno hat pro SIMD 2 SFUs wenn ich mich nicht irre, Rogue eine Unzahl.

War auch nur eine Analogie. Offenbar ist ULP bis dato ein Oldschool SM3 non-USC Design. Andere Designs sind da wesentlich moderner.

Ein sehr merkwuerdiges Mischtier aber; es ist lediglich DX9L1 kompliant.

Aber immerhin kamen bis dato 4 Generationen Tegras. Und jeder deutlich besser als sein Vorgänger. Das Potenzial ist jedenfalls da, um sich besser zu positionieren.

Siehst Du irgend eine deutliche Wachstumsrate die ich verpasse? NV sagt selber dass sie dieses Jahr "flatt" liegen werden; na kein Wunder wenn man schon mit Logan details rausrueckt ist wohl jedem T4 scheissegal. Macht man normalerweise kein IHV; T4 erscheint jetzt erst auf Regalen.

So war NV aber schon immer. ;) Eventuell muss man sogar beides haben. High End für die Presse und die Enthusiastanwender und Low Cost für die Masse.
Mit einem sehr guten SoC kann man eventuell so dastehen wie Qualcomm. Die haben doch mit Snapdragon 600 und 800 alles abgeräumt dieses Jahr.

Glaub mir die Chinesen wuerden fuer einen Billig-SoC von NV wie die Wilden fallen.

Man braucht eine moderne GPU -> kommt mit Logan.
Man braucht ein integriertes Modem -> ist NV da nicht auch dran?
Man braucht gute Preise -> daran muss NV noch arbeiten.
Man braucht eine gute CPU (perf/W) -> Vieleicht hat NV ja ebenfalls ein Custom ARM Design in der Mache, was in den nächsten Jahren kommt? Ansonsten sind die Standard ARM Designs auch nicht schlecht. A7+A15 ist sicher nicht soo schlecht. Bald kommen A12 und A53 + A57. Die sind allesamt sicher ein guter Fortschritt.

3x Mal tabula rasa fuer Denver und wie war es noch mit der Schnappsidee von x86 Emulation genau? Erzaehl mir gerne was NV richtig gemacht habe und ich mach Dir eine 3x Mal so lange Liste was sie falsch gemacht haben; stets IMHO.


Ailuros hat die Frage gestellt, warum Nvidia ihre 28nm Logan-Kepler GPU gegen eine 32nm PowerVR (iPad 4) testet, wo doch QCOM mit dem S800 auch eine schnelle(re) 28nm GPU hat.

Mein Punkt u.a. dazu ist, dass es auch erst seit kurzem S800 Geräte zukaufen gibt und man dann auch etwas Zeit braucht,
das gleiche Vergleichssetup aufzubauen, weil QCom einem freiwillig nicht sagen wird, wo genau Nvidia jetzt messen kann, um zuzeigen das sie (womöglich) besser sind.

Die Antwort ist woanders. Qualcomm ist kein potentieller Kunde fuer NVIDIA fuer GPU IP, Apple dann aber schon. Ausserdem gilt so oder so dass Apple generell als der SFF GPU Vergleich gilt generell.

Sie wuerden auch gegen einen S800 leicht verlieren und dort die Realitaet zu verdrehen wird nicht mehr so leicht sein.

Schau Du Dir auch den slide oben an auf Seite 15; ein A6X ist selbst unter 32nm nicht 37mm2 gross und NV behauptet sogar dass die Werte auf 28nm normalisiert wurden.

Wenn sie das nicht richtig hinbekommen angenommen auf "Versehen" oder aus purer "Unwissenheit" werde ich auch nicht so leicht irgendwelchen Messungen trauen. Wenn Du von Seite 15 nach unten liesst wird auch u.a. mit S800 verglichen (basierend auf QCOM"s marketing Behauptungen nach NV selber, nur hat sich wohl QCOM brutal "unterschaetzt" am Ende). Nicht dass die Vergleiche in ihrer Mehrzahl hier auch stimmen aber wen soll es scheren am Ende? :P

Hugo78
2013-08-01, 19:03:29
Die Antwort ist woanders. Qualcomm ist kein potentieller Kunde fuer NVIDIA fuer GPU IP, Apple dann aber schon. Ausserdem gilt so oder so dass Apple generell als der SFF GPU Vergleich gilt generell.
An dem Punkt waren wir auch schon. ;)
1. Adreno 330 kann man nicht lizensieren, PowerVR aus dem iPad schon.
So ein Vergleich soll doch potentielle Kunden anlocken.
Natürlich wird grade Apple der Wunschkandidat Nr. 1 als Kunde für eine Logan Kepler Lizenz sein.
Auch wenn Apple die Preise auf +/- Null drücken wird.

Ansonst,... PR Paper und ein Realtime-Versuchsaufbau sind halt zwei paar Schuh.
PR Paper kann man jedem Hersteller mal mehr, mal weniger um die Ohren hauen.

Ailuros
2013-08-01, 19:09:27
PR Paper kann man jedem Hersteller mal mehr, mal weniger um die Ohren hauen.

Wenn Du einem Partner heutzutage eine Lizenz verkaufen willst kannst Du einfache Papierfranzen gleich vergessen. Potentielle Lizenznehmer wollen praesentable hw sehen. Sonst Vorsicht mit Apple sie sind skrupelloser mit Verhandlungen als sich viele vorstellen koennen. Das neueste hin und her mit foundries und Samsung ist das beste Beispiel dafuer.

Sonst sollte Samsung NVIDIA aufkaufen; unter den Fluegeln von Samsung wuerde NV tatsaechlich jeglichen Markt sturmartig ueberholen. Sie muessen eben nur Jensen zum CEO machen :D

Skysnake
2013-08-01, 19:18:59
Vor allem wenn der partner nicht gerade für Zuverlässigkeit bzw Pünktlichkeit bekannt ist.

Hugo78
2013-08-01, 19:49:39
Sonst sollte Samsung NVIDIA aufkaufen; unter den Fluegeln von Samsung wuerde NV tatsaechlich jeglichen Markt sturmartig ueberholen. Sie muessen eben nur Jensen zum CEO machen :D

Samsung ist wie die Borg, also pragmatisch genug genau diesen Stunt hinzulegen.
Natürlich nicht als CEO des Gesamtkonzerns, aber bei "Samsung Electronics", wenn Nvidia ein Teil davon würde, ja klar why not.
Glaub nicht das Jensen das will, aber Samsung hätte damit sicherlich weniger ein Problem. Ist aber auch nur meine bescheidene Ansicht.

Allerdings passt mMn. AMD besser zu Samsung, zumal Samsung ja auch ne eigene CPU anstrebt nach den letzten Meldungen.
Intel wiederum würde in diesem Fall eine realistische Option auf Nvidia haben.

Aber genug vom OT und für die Akten - Shield in seine Teile zerlegt:
http://www.computerbase.de/news/2013-08/nvidia-shield-in-seine-einzelteile-zerlegt/

Ailuros
2013-08-01, 20:22:29
Samsung ist wie die Borg, also pragmatisch genug genau diesen Stunt hinzulegen.
Natürlich nicht als CEO des Gesamtkonzerns, aber bei "Samsung Electronics", wenn Nvidia ein Teil davon würde, ja klar why not.
Glaub nicht das Jensen das will, aber Samsung hätte damit sicherlich weniger ein Problem. Ist aber auch nur meine bescheidene Ansicht.

Allerdings passt mMn. AMD besser zu Samsung, zumal Samsung ja auch ne eigene CPU anstrebt nach den letzten Meldungen.
Intel wiederum würde in diesem Fall eine realistische Option auf Nvidia haben.

Samsung will eine custom CPU basierend auf ARM ISA entwickeln afaik und nicht zu 100% eine CPU selber.


Aber genug vom OT und für die Akten - Shield in seine Teile zerlegt:
http://www.computerbase.de/news/2013-08/nvidia-shield-in-seine-einzelteile-zerlegt/

Hab's schon bei ifixit schnell durchgelesen. Wird wohl hoffentlich bald jemand versuchen den SoC selber unter die Lupe zu nehmen.

Skysnake
2013-08-01, 22:00:32
Ja, und man sieht wie groß der kühler als auch der Lüfter ist. Der Vergleich mit smartphones und tablets ist echt nicht gerechtfertigt. Die Kühlung ist einfach ein ganz anderes Kaliber.

Undertaker
2013-08-05, 17:46:05
http://www.notebookcheck.com/Test-Toshiba-eXcite-Pro-AT10LE-A-108-Tablet.98288.0.html

Schnell, aber heiß.

Ailuros
2013-08-05, 20:15:27
http://www.notebookcheck.com/Test-Toshiba-eXcite-Pro-AT10LE-A-108-Tablet.98288.0.html

Schnell, aber heiß.

Toshiba hatte auch in der Vergangenheit Probleme mit vorigen Tegras und tablets; es wird wohl nicht so schwer sein ein anstaendiges Geraet auf den Markt zu bringen oder?

Skysnake
2013-08-05, 20:54:40
Über 40°C gehen mal gar nicht. Das ist doch total bekloppt :ugly:


Nach knapp 10 Durchläufen des aktuellen 3DMarks ist unser anfänglicher Score von 7.948 Punken auf nur noch 3.627 Punkte gefallen, was einem Rückgang von mehr als 50 Prozent entspricht. Zugegebenermaßen: Die Testbedingungen waren mit über 25 °C Umgebungstemperatur nicht unbedingt die besten, doch auch dafür muss ein Tablet ausgelegt sein. Als subjektiv deutlich weniger dramatisch haben wir den Leistungsverlust in Spielen empfunden, wohl auch weil selbst ein gedrosselter Tegra 4 hier noch immer extrem schnell unterwegs ist.

50% Leistungsabfall öhm... ja ne is klar. Die bei Toshiba haben doch nen Knall! So heis, und dann drosselt das Ding trotzdem noch wie bekloppt. Haben die nen Heizelement unabsichtlich verbaut, weil Sie dachten das Ding soll als Speiseplatte dienen???


Absolut inakzeptabel sind die Stabilitätsprobleme, die uns im Laufe des Tests in verschiedenen Anwendungen begegneten. Gleich mehrfach fror der Bildschirm während 3D-Benchmarks, aber auch beim normalen Browsen ein, und das System war nur durch einen harten Neustart reaktivierbar – wir stehen im Kontakt mit Toshiba, was die Ursache dieses Verhaltens betrifft.

Meint ihr die Stabilitätsprobleme könnten an zu hohen Temps des Chips liegen?

fondness
2013-08-05, 21:03:56
Tegra 4 verbraucht selbst für Tablets zu viel Strom, wie soll man sowas in ein Smartphone stecken? Aktive Kühlung wie bei SHIELD ist für ein ultra Mobile Device völlig witzlos. Man sieht schon an den Laufzeiten und dem Stromverbauch im Vergleich zur Konkurrenz wieviel der Chip schlucken muss, kein Wunder das sich NV auf Tegra 4i konzentriert.

Dural
2013-08-06, 09:35:26
ihr seit mal wieder komisch, welcher high-end soc trosselt schon nicht und das thoshiba schon exakt die selben probleme bei anderen tablet hatte wird von den meisten verschwiegen, ich würde mal sagen abwarten. 40°C ist übrigens nichts, schon mal ein high-end smartphone unter volllast angefasst?!?


von der leistung her sieht das doch gar nicht mal schlecht aus, mit logan und kepler gpu dürfte das ziemlich abgehen.

selbst die gpu hat ziemlich viel power.

Skysnake
2013-08-06, 10:10:02
Smartphone <-> Tablet bedacht?

Die Kühlung eines Tablets sollte deutlich unproblematischer sein als die eines Smartphones.

Vor allem wurde der T4 ja hier immer wieder gern mit Samsung Galaxy S3/4 usw verglichen, also Smartphone, aber auch mit Tabletchips.

Wenn da aber 50% Leistungseinbruch nach kurzer Zeit kommen, ist es mit der ach so tollen Leistung nicht mehr weit her... Und das habe ich schon vor Monaten angesprochen, als die ersten "Ergebnisse" kamen. Da muss man in dem Bereich einfach extrem aufpassen, das man die Sachen überhaupt vergleichen kann. (Und ja, Samsungs gecheate ist mir bekannt und scheise!)

T4 scheint einfach viel zu viel aus den Akkus zu nuckeln.

Wenn sich das Bild vom Toshiba bestätigt, und dafür will ich wirklich noch mehr direkte Vergleiche zwischen Geräten sehen, dann ist es kein Wunder, das T4 ein Ladenhüter ist.

Die Frage ist nur, schafft nVidia mit T5 die Wende oder nicht?

iFanatiker
2013-08-06, 10:21:16
ihr seit mal wieder komisch, welcher high-end soc trosselt schon nicht und das thoshiba schon exakt die selben probleme bei anderen tablet hatte wird von den meisten verschwiegen, ich würde mal sagen abwarten. 40°C ist übrigens nichts, schon mal ein high-end smartphone unter volllast angefasst?!?

Das Toshiba drosselt schon wenn Chrome verwendet und der SoC wird brutal heiß. Man kann die Stelle kaum anfassen. Wohlgemerkt nochmal: ich spreche vom Surfen von bisschen aufwendigeren Seiten. :freak:

Das iPad 4 oder Nexus 7 2-gen drosseln übrigens bei ähnlicher GPÜ Leistung in spielen nicht und werden auch nicht annähernd so heiß.

Das Problem liegt aber auch nicht bei nVidia. Quad A15 Referenzimplementation + leistungsstarke GPU sind bei momentan Fertigungsverfahren nicht zu bändigeno ohne entwender eine massive passive Kühlung oder eine aktive Kühlung wie im Shield.

Toshiba hatte auch in der Vergangenheit Probleme mit vorigen Tegras und tablets; es wird wohl nicht so schwer sein ein anstaendiges Geraet auf den Markt zu bringen oder?

Was meinst du wieso wohl das HP Tegra 4 Tablet wohl anscheinend fette passive Kühlelemente hat?

Ailuros
2013-08-06, 10:28:14
ihr seit mal wieder komisch, welcher high-end soc trosselt schon nicht und das thoshiba schon exakt die selben probleme bei anderen tablet hatte wird von den meisten verschwiegen, ich würde mal sagen abwarten. 40°C ist übrigens nichts, schon mal ein high-end smartphone unter volllast angefasst?!?

Also mir wurde bis jetzt noch kein high end smartphone unter Vollast bemerkbar warm in der Hand. Die Temperatur ist im gegebenen Fall nicht das Problem sondern der sehr hohe Leistungsabfall.

von der leistung her sieht das doch gar nicht mal schlecht aus, mit logan und kepler gpu dürfte das ziemlich abgehen.

Ich aendere meine Meinung fuer SFF SoCs zwar nicht, aber ich haette vor einiger Zeit schwoeren koennen dass CPUs das alpha und omega in solchen SoCs waren. Es ist schoen zu sehen wie schnell sich solche "Einzelheiten" aendern koennen, denn einen besonderen Zusatz wenn es zu CPU kommt wird Logan im Vergleich zu Wayne nicht unbedingt haben.

Die Logan ULP GF ist zwar featuremaessig endlich mehr als konkurrenzfaehig im Vergleich zur Konkurrenz, aber dank fehlender Vergleiche zu perf/mW fuer's zweite Halbjahr 2014 zu anderen Loesungen fehlt der wichtigste Anteil der ganzen Geschichte.


Was meinst du wieso wohl das HP Tegra 4 Tablet wohl anscheinend fette passive Kühlelemente hat anscheinend?

NV brauchte wohl Shield um weiter oben in der Kishonti Datenbank zu platzieren.

Eggcake
2013-08-06, 10:39:41
@Ailuros
Also sowohl One X als auch z.B. ein One S werden warm in der Hand (beim One X sogar ziemlich krass). Das ist bei anderen Geräten genauso der Fall...

mboeller
2013-08-06, 10:49:06
Smartphone <-> Tablet bedacht?

(Und ja, Samsungs gecheate ist mir bekannt und scheise!)



Aber doch "nur" beim S4 mit 5410 SoC und nicht auch bei S4 mit S600 od. S800 Soc, oder?

Ailuros
2013-08-06, 10:52:10
@Ailuros
Also sowohl One X als auch z.B. ein One S werden warm in der Hand (beim One X sogar ziemlich krass). Das ist bei anderen Geräten genauso der Fall...

Welches One X genau? :D

mboeller
2013-08-06, 11:10:44
Das Problem liegt aber auch nicht bei nVidia. Quad A15 Referenzimplementation + leistungsstarke GPU sind bei momentan Fertigungsverfahren nicht zu bändigeno ohne entwender eine massive passive Kühlung oder eine aktive Kühlung wie im Shield.


Das Problem hat aber Nvidia jetzt doch. Ihr Tegra4 braucht viel zu viel Energie und generiert zuviel Abwärme. Ich wundere mich aber schon ein wenig, warum sie das nicht viel früher erkannt haben. ARM hat ja nicht umsonst das Big:Little Konzept entwickelt und alle anderen SoC-Hersteller benutzen es ja auch für die A15-Quadcores (gibt aber nur Samsung, oder? ;) ). Warum nicht auch Nvidia?

Ailuros
2013-08-06, 11:15:29
Nein Samsung ist nicht der einzige SoC Hersteller die big.LITTLE benutzen; um aber big.LITTLE zu benutzen braucht man eine A15 und eine A7 Lizenz. Im Fall von NV's 4+1 benutzen sie NUR A15 cores und bezahlen natuerlich royalties fuer 5 und nicht 8 cores (4+4 im big.LITTLE).

Skysnake
2013-08-06, 12:30:31
Und das ist wohl ein Schuss in den Ofen gewesen...

Irgendwie werd ich das Gefühl nicht los, das nVidia einfach viel zu wenig Erfahrung in dem Bereich hat, und nicht so wirklich checkt, das SFF != Desktop/Mobile GPU ist. Die ziehen ihr Ding einfach durch wie es scheint, und wundern sich dann, warum Sie auf die Nase fliegen.

Zumindest mit T4i und T5 bleibt zu hoffen, dass Sie endlich mal aufgewacht sind...

robbitop
2013-08-06, 12:30:42
Zahlt man eigentlich pro Core? Oder zahlt man pro Nutzung einer Architektur (du zahlst 1x für A15 pro SoC und kannst davon so viele verbauen, wie du willst)?

Ailuros
2013-08-06, 12:44:26
Zahlt man eigentlich pro Core? Oder zahlt man pro Nutzung einer Architektur (du zahlst 1x für A15 pro SoC und kannst davon so viele verbauen, wie du willst)?

Waere ziemlich absurd wenn dem so waere; wenn dem so waere koennte man auch eine einzige Axx Lizenz kaufen und Server mit einer Unzahl von cores (sprich "sea of cores" :D ) ausstatten.

AnarchX
2013-08-06, 12:44:56
Interessant wäre wohl, wie sich Tegra 4 schlagen würde, wenn man ihn auf 5W Maximallast konfiguriert. Die fast 10W scheinen für Tablets mit einfacher Kühlung offensichtlich nicht praktikabel.

Ein Single-Thread-Boost sollte das Powermanagement doch auch nicht vor Herrausforderungen stellen?

Ailuros
2013-08-06, 12:46:48
Interessant wäre wohl, wie sich Tegra 4 schlagen würde, wenn man ihn auf 5W Maximallast konfiguriert. Die fast 10W scheinen für Tablets mit einfacher Kühlung offensichtlich nicht praktikabel.

Ein Single-Thread-Boost sollte das Powermanagement doch auch nicht vor Herrausforderungen stellen?

Ich hab's 3x Mal durchgelesen aber nur Bahnhof verstanden. Was meinst Du genau?

Hugo78
2013-08-06, 12:57:37
Der notebookcheck.com-Test sagt nichts genaues über den Leistungshunger vom Tegra 4 aus, solang man nicht den Verbrauch des Display vermessen kann.
Man kann das auch nicht an den Temperaturen festmachen, denn...


Das iPad 4 oder Nexus 7 2-gen ... werden auch nicht annähernd so heiß.

... das Toshiba ist hier keine besondere Ausnahme mit max. 41,2°C.

iPad 4 = 40°C
http://www.notebookcheck.com/Test-Apple-iPad-4-Tablet.83847.0.html

Google Nexus 10 = 41.3°C
http://www.notebookcheck.com/Test-Google-Nexus-10-Tablet.85166.0.html

Samsung Galaxy Tab 3 7.0 SM-T210 = 43,2°C
http://www.notebookcheck.com/Test-Samsung-Galaxy-Tab-3-7-0-SM-T210-Tablet.97650.0.html

TSamsung Galaxy Tab 3 8.0 SM-T310 = 42,6°C
http://www.notebookcheck.com/Test-Samsung-Galaxy-Tab-3-8-0-SM-T310-Tablet.97588.0.html

Ich finde die seitliche Anordnung des Toshiba Hotspots sogar sehr gut gelöst, den egal ob Links oder Rechtshänder,
man dreht das Tablet einfach im Fall der Fälle und kann so dem Hotspot entgehen.
Bei zentralen Hotspots hat man diese Möglichkeit nicht.

iFanatiker
2013-08-06, 12:58:32
Das Problem hat aber Nvidia jetzt doch. Ihr Tegra4 braucht viel zu viel Energie und generiert zuviel Abwärme. Ich wundere mich aber schon ein wenig, warum sie das nicht viel früher erkannt haben. ARM hat ja nicht umsonst das Big:Little Konzept entwickelt und alle anderen SoC-Hersteller benutzen es ja auch für die A15-Quadcores (gibt aber nur Samsung, oder? ;) ). Warum nicht auch Nvidia?

Na....schau doch mal wie es Samsung mit dem 5410-er ergangen ist. Wobei dort nicht klar ist wer die "Schuld" trägt (also ob Samsung LSI es verbockt oder ARM bzgl. der Cache Kohärenz Probleme und wer am beschießen Yield für ein SFF Schuld ist -> leider hüllen sich beide massiv in schweigen). :biggrin: Somit steht nVidia nicht ganz alleine da. :biggrin:

Im Prinzip hätte der Markt längst mit A15 SoCs in allen Preislagen überflutet sein sollen. Aktuell herrscht auf den Markt absolute Flaute und Qualcomm lacht sich einen kaputt. :biggrin: Selbst bei Custom Implementation von A15 Designs in der Industrie für Spezialaufgaben kriegt man nur Probleme mit (Dafür ist aber A7 Design wirklich hervorragend). :biggrin:

AnarchX
2013-08-06, 13:00:15
Der notebookcheck.com-Test sagt nichts genaues über den Leistungshunger vom Tegra 4 aus, solang man nicht den Verbrauch des Display vermessen kann.

Im Idle sollte das Powermanagement doch den SoC auf wenige 100mW drücken können, sodass die Differenz Idle/Last hier dem SoC-Verbrauch entsprechen sollte.

Ich hab's 3x Mal durchgelesen aber nur Bahnhof verstanden. Was meinst Du genau?
Das man untersuchen sollte, wie schnell Tegra 4 noch ist wenn man sein TDP-Budget von ~10W auf 5W reduziert, sei es als feste Konfig oder einen GUI-Schalter im OS. Das wäre wohl ein praktikabler Verbrauchswert für einfachere Tablet-Designs.

disap.ed
2013-08-06, 13:02:47
Ich hab's 3x Mal durchgelesen aber nur Bahnhof verstanden. Was meinst Du genau?
Er meint wohl dass man die Frequenzen runterdreht bis man auf eine ansprechende Verlustleistung kommt und dafür einen Turbo-Mode für Singlecore-Betrieb macht.

EDIT: Ninja'd

Ailuros
2013-08-06, 13:04:31
Das man untersuchen sollte, wie schnell Tegra 4 noch ist wenn man sein TDP-Budget von ~10W auf 5W reduziert, sei es als feste Konfig oder einen GUI-Schalter im OS. Das wäre wohl ein praktikabler Verbrauchswert für einfachere Tablet-Designs.

Wo steht dass Tegra4 einen 10W TDP hat um erstmal damit anzufangen? NV hat selber irgendwo angegeben dass T4 bei 5W liegt und T4i bei 2.5W. Nicht dass ich generell den TDP Werten traue von jeglichem IHV aber 10W ist schon verdammt viel.

Er meint wohl dass man die Frequenzen runterdreht bis man auf eine ansprechende Verlustleistung kommt und dafür einen Turbo-Mode für Singlecore-Betrieb macht.

EDIT: Ninja'd

Wenn NV's 4+1 irgend einen Stromverbrauchs-Haken hat IMHO dann hat es eher mit multi- anstatt single-threading zu tun. Wenn ich bei big.LITTLE zwei bescheidene parallele threads habe schalten mal schnell 2*A7 ein und gut ist es. Bei Tegras und dem 4+1 wird zwangsmaessig der companion core mit einem weiterem A15 einschalten muessen.

fondness
2013-08-06, 13:13:43
Wo steht dass Tegra4 einen 10W TDP hat um erstmal damit anzufangen? NV hat selber irgendwo angegeben dass T4 bei 5W liegt und T4i bei 2.5W. Nicht dass ich generell den TDP Werten traue von jeglichem IHV aber 10W ist schon verdammt viel.


NV hat gesagt das Tegar 4 "5, 6, 7 Watt" verbaucht, genaue Angaben gibt es nicht. Wenn man sich den Test des Toshiba Tablets idle zu Last-Verbrauch ansieht sind es offenbar ~10Watt bis gedrosselt wird.

Ailuros
2013-08-06, 13:20:02
NV hat gesagt das Tegar 4 "5, 6, 7 Watt" verbaucht, genaue Angaben gibt es nicht. Wenn man sich den Test des Toshiba Tablets idle zu Last-Verbrauch ansieht sind es offenbar ~10Watt bis gedrosselt wird.

Auf welchem vergleichbaren Geraet wird denn nicht gedrosselt? Sonst gibt es immer noch einen ziemlich GROSSEN Unterschied zwischen 7 und 10W.

Undertaker
2013-08-06, 13:58:26
NV hat gesagt das Tegar 4 "5, 6, 7 Watt" verbaucht, genaue Angaben gibt es nicht. Wenn man sich den Test des Toshiba Tablets idle zu Last-Verbrauch ansieht sind es offenbar ~10Watt bis gedrosselt wird.

Idle Maximum: 6,1 Watt
Last Maximum: 13,2 Watt

= 7,1 Watt, abzüglicher von Wandlern etc. also höchstens 6 Watt. Mehr lässt sich wie man sieht passiv einfach nicht abführen. Wo eine reale TDP ohne Throttling liegen würde? Schwer zu sagen. Aber wie Ailuros schon sagte, gedrosselt wird überall. Natürlich unterscheidet sich das Ausmaß.

fondness
2013-08-06, 14:11:39
Idle Maximum: 6,1 Watt
Last Maximum: 13,2 Watt

= 7,1 Watt, abzüglicher von Wandlern etc. also höchstens 6 Watt.

Stimmt, da habe ich mich verschaut. Allerdings wird der Chip auch idle bei aktivem Display nicht 0W verbrauchen, und Wandler sind in einem solche ultra mobile Device bei der geringen Leistungsaufnahme äußerst effizient. Wäre ja noch schöner wenn da >1W dafür drauf geht^^. Ich denke 7W kann man durchaus für den SoC rechnen bis gedrosselt wird und es wird offenbar nicht gerade wenig gedrosselt.

Ailuros
2013-08-06, 14:35:27
Je mehr man throttelt desto schlechter wird die reale Echtzeit-Leistung. Fuer ein smartphone klingt mir ein T4 ueberhaupt im Vergleich zum T4i als eine komplette Schnappsidee.

Undertaker
2013-08-06, 14:45:52
Stimmt, da habe ich mich verschaut. Allerdings wird der Chip auch idle bei aktivem Display nicht 0W verbrauchen, und Wandler sind in einem solche ultra mobile Device bei der geringen Leistungsaufnahme äußerst effizient. Wäre ja noch schöner wenn da >1W dafür drauf geht^^. Ich denke 7W kann man durchaus für den SoC rechnen bis gedrosselt wird und es wird offenbar nicht gerade wenig gedrosselt.

Idle auf dem Desktop dürfte ziemlich wenig fließen, 1080p Playback liegt laut Nvidia bei unter einem Watt. Unter Last kommt zusätzlich zum SoC vor allem durch den Speicher noch einiges dazu, da würde ich bei bei DDR3L-1600 durchaus ~1 Watt erwarten. Ist aber letztlich auch egal, ob wir nun von 6 oder 7 Watt reden. ;) Um auf dauerhaft verträgliche <=5 Watt zu kommen, müssen die Taktraten auf jeden Fall deutlich runter. Wie verhält sich da eigentlich das Galaxy S4 mit Exynos 5410?

Ailuros
2013-08-06, 14:53:53
Im normalem oder cheat mode? :freak:

AffenJack
2013-08-06, 15:23:48
Bei beidem dürfte runtergetaktet werden. Den 5250 im Nexus 10 kriegt man ja schon zum runtertakten, wenn man CPU und GPU gleichzeitig auslastet. Im "Cheatmode" dauerts vll etwas länger, aber dann wird auch runtergetaktet um das Gerät zu retten. Mit A15 ist nen SoC ohne runtertakten wohl erst mit 20nm möglich.

Undertaker
2013-08-06, 15:25:56
Im normalem oder cheat mode? :freak:

Macht der bei temperaturbedingtem Throttling noch einen Unterschied? Mir ging es aber auch vor allem um die A15-Kerne; ich glaube nicht, dass sich die 1,6 GHz auch nur annähernd konstant halten lassen. Sowas testet nur leider keiner ausführlich...

Xmas
2013-08-06, 15:27:40
Wenn NV's 4+1 irgend einen Stromverbrauchs-Haken hat IMHO dann hat es eher mit multi- anstatt single-threading zu tun. Wenn ich bei big.LITTLE zwei bescheidene parallele threads habe schalten mal schnell 2*A7 ein und gut ist es. Bei Tegras und dem 4+1 wird zwangsmaessig der companion core mit einem weiterem A15 einschalten muessen.
Zwei (oder gar mehr) tatsächlich "bescheidene" Threads werden den Companion Core (oder auch einen A7) nicht auslasten.

Ailuros
2013-08-06, 15:38:46
Zwei (oder gar mehr) tatsächlich "bescheidene" Threads werden den Companion Core (oder auch einen A7) nicht auslasten.

Den companion core nicht; nur muss 4+1 fuer den zweiten thread im gegeben Fall einen weiteren A15 einschalten, waehrend bei big.LITTLE eben nur theoretisch 2 cores vom A7 cluster einschalten.

Skysnake
2013-08-06, 16:25:48
Auf welchem vergleichbaren Geraet wird denn nicht gedrosselt? Sonst gibt es immer noch einen ziemlich GROSSEN Unterschied zwischen 7 und 10W.
Das gethotteled wird ist ja nicht DAS Thema. Das Ausmaß der Throttelns empfinde ich als heftig.

Und da kommt dann eben doch! wieder die TDP ins Spiel. Kurzfristig liegt man wohl deutlich über 5W TDP. Ich denke eben die 7-10W.

Das gibt schöne Benchmarkbalken usw, aber real haben tut man davon nicht viel...

Da ist jedweder Hersteller auch nen elendiger Lügner. Da werden wild die Bedingungen gemischt, unter denen Leistungsaufnahme und Leistung und Perf/W gemessen werden... Hauptsache man steht auf dem Papier möglichst gut da.

Daher gebe ich auf die ganzen Herstellerangaben im SFF Markt bzgl Perf/W mal rein gar nichts. Das ist nur die derbste Verarsche, die man da abbekommt. Perf/W ist da halt DAS nonplusultra Argument.... entsprechend harte Bandagen werden verwendet.

iFanatiker
2013-08-06, 17:24:52
Macht der bei temperaturbedingtem Throttling noch einen Unterschied? Mir ging es aber auch vor allem um die A15-Kerne; ich glaube nicht, dass sich die 1,6 GHz auch nur annähernd konstant halten lassen. Sowas testet nur leider keiner ausführlich...

Kann er auch nicht. Sobald GPU + CPU gefordert sind pendelt er sich entweder auf den 1,2 GHz Step manchmal auch auf den 1 GHz und wird dabei noch brutal warm.

Undertaker
2013-08-06, 20:01:14
Den companion core nicht; nur muss 4+1 fuer den zweiten thread im gegeben Fall einen weiteren A15 einschalten, waehrend bei big.LITTLE eben nur theoretisch 2 cores vom A7 cluster einschalten.

Bist du dir da sicher? Es spricht ja nichts dagegen, zwei Threads parallel auf einem Kern auszuführen, wenn dessen Rechenleistung dafür reicht. Ich weiß nur nicht, ob die Logik das beherrscht.

Ailuros
2013-08-06, 21:25:02
Bist du dir da sicher? Es spricht ja nichts dagegen, zwei Threads parallel auf einem Kern auszuführen, wenn dessen Rechenleistung dafür reicht. Ich weiß nur nicht, ob die Logik das beherrscht.

Ich lass mich gerne eines besseren belehren aber afaik kann man bisher nur 1 thread/core auf ARM CPUs benutzen. Beim Exynos5410 dank hw bugs nur 4 cores/4 threads simultan und dann ab 5420 8 cores/8 threads simultan.

Ausserdem kann man A15/A7 und A53/57 afaik pro cluster nur bis zu 4 cores skalieren.

=Floi=
2013-08-06, 21:34:45
da könnte apple sehr extrem in diese kerbe schlage und die produkte der konkurrenz da leicht niedermachen. eventuell stand apple auch vor so einem problem und hat deshalb keinen quad gebracht.

AnarchX
2013-08-07, 07:53:40
Bist du dir da sicher? Es spricht ja nichts dagegen, zwei Threads parallel auf einem Kern auszuführen, wenn dessen Rechenleistung dafür reicht. Ich weiß nur nicht, ob die Logik das beherrscht.
Ich lass mich gerne eines besseren belehren aber afaik kann man bisher nur 1 thread/core auf ARM CPUs benutzen. Beim Exynos5410 dank hw bugs nur 4 cores/4 threads simultan und dann ab 5420 8 cores/8 threads simultan.

Ausserdem kann man A15/A7 und A53/57 afaik pro cluster nur bis zu 4 cores skalieren.
SMT gibt es natürlich noch keins, aber so ein ARM-Core kann sequentiell zig Threads gleichzeitig ausführen. Immerhin läuft ein Android-OS auch auf mikrigen ARM11-Cores, wo der A15-Companion um ein vielfaches schneller ist.

big.LITTLE ist dann wieder eine andere Baustelle und wenn der Sheduler bei Tegra 4 nicht gut arbeitet, kann es wohl durchaus vorkommen, dass ein Thread mit geringer Last, dass Quadcore-Cluster startet.

robbitop
2013-08-07, 08:31:26
@Ail

Na klar kann ein ARM Core und sonst wass für Cores mehr als ein Thread gleichzeitig ausführen. Was meinst du, wie viele Threads generell parallel laufen? Auch zu Single Core Zeiten schon.
Schlimm wird's nur, wenn du mehrere intensive und zeitkritische Threads hast.

IMO eine Schwäche von big.LITTLE im Moment: man kann entweder 4x Kerne (A7/15) einschalten oder ganzheitlich ausschalten. Aber nur einen einzelnen Kern hinzuschalten geht nicht. Ich kann mir vorstellen, dass da noch einiges an Potenzial für Einsparungen an Leistungsaufnahme besteht.

Ailuros
2013-08-07, 09:02:14
LOL unter gewissen Bedingungen und wenn alle Sterne ideal positioniert sind dann schon; zumindest lese ich von den beiden letzten Posts nichts anderes raus.

robbi,

Dass man einzelne cores innerhalb eines clusters nicht ein-/ausschalten kann waere mir neu. Ich weiss lediglich dass innerhalb eines clusters zwangsmaessig alle aktiven cores die gleiche Frequenz haben muessen.

da könnte apple sehr extrem in diese kerbe schlage und die produkte der konkurrenz da leicht niedermachen. eventuell stand apple auch vor so einem problem und hat deshalb keinen quad gebracht.

Ich sehe in meiner ziemlich trueben Glaskugel bei den kommenden SoCs eine schwammige 4 ;) Spass beiseite ich schaetze dass Apple einfach asynchrone Frequenzen benutzen koennte; wenn ja ist es nicht relevant.

fondness
2013-08-07, 09:19:02
@Ail

Na klar kann ein ARM Core und sonst wass für Cores mehr als ein Thread gleichzeitig ausführen. Was meinst du, wie viele Threads generell parallel laufen? Auch zu Single Core Zeiten schon.
Schlimm wird's nur, wenn du mehrere intensive und zeitkritische Threads hast.


Du kannst Threads pro Core natürlich nur hintereinander ausführen, nicht "gleichzeitig", aber das erledigt der Scheduler des OS. Für jeden Thread-Wechsel braucht es einen Context Switch.

robbitop
2013-08-07, 09:38:06
Du kannst Threads pro Core natürlich nur hintereinander ausführen, nicht "gleichzeitig", aber das erledigt der Scheduler des OS. Für jeden Thread-Wechsel braucht es einen Context Switch.
Thank you Cpt. Obvious. ;) Dass jedem klar ist, wie ein Sheduler funktioniert, habe ich vorausgesetzt.

robbitop
2013-08-07, 09:42:32
robbi,

Dass man einzelne cores innerhalb eines clusters nicht ein-/ausschalten kann waere mir neu. Ich weiss lediglich dass innerhalb eines clusters zwangsmaessig alle aktiven cores die gleiche Frequenz haben muessen.

Nennt sich Cluster Migration und entspricht offenbar der aktuellen Umsetzung von big.LITTLE


The specific implementation of big.LITTLE on Exynos 5410 is known as Cluster Migration; either the four Cortex A15 cores or four Cortex A7 cores can be active, but not both and not an arbitrary combination of cores from each island.
http://anandtech.com/show/7164/samsung-exynos-5-octa-5420-switches-back-to-arm-gpu

Ailuros
2013-08-07, 10:03:54
Bist Du sicher dass Anand es zu 100% richtig hinbekommen hat? Ausser ich hab die ersten Alzheimer Symptome kann ich mich noch sehr gut ans video von Samsung erinnern wo sie vorzeigten wie die cores ein- bzw. umschalten in verschiedenen Faellen und ich koennte schwoeren dass es auch ein paar Faelle gab wo man einen einzelnen core z.B. aus einem cluster aktiv hatte.

robbitop
2013-08-07, 10:09:56
Keine Ahnung - Brian Klug und Anand haben idR sehr gute Quellen in der Industrie. Wenn man schon explizit so ein Detail erwähnt, gehe ich davon aus, dass es stimmt.

http://www.arm.com/files/pdf/Advances_in_big.LITTLE_Technology_for_Power_and_Energy_Savings.pdf

Es gibt Cluster Migration, was offenbar in den ersten Produkten zum Einsatz kommt und es gibt CPU Migration, welches dann einzelne Kerne aktivieren kann. Das kommt offenbar in späteren Implementationen zum Einsatz.

Ailuros
2013-08-07, 10:36:12
Keine Ahnung - Brian Klug und Anand haben idR sehr gute Quellen in der Industrie. Wenn man schon explizit so ein Detail erwähnt, gehe ich davon aus, dass es stimmt.

http://www.arm.com/files/pdf/Advances_in_big.LITTLE_Technology_for_Power_and_Energy_Savings.pdf

Ja und wenn beide NIE Fehler in ihren Artikeln bis jetzt hatten (und nein keine einfache typos) koennte ich es auch als de facto akzeptieren.

Es gibt Cluster Migration, was offenbar in den ersten Produkten zum Einsatz kommt und es gibt CPU Migration, welches dann einzelne Kerne aktivieren kann. Das kommt offenbar in späteren Implementationen zum Einsatz.

Der 5410 ist mir ziemlich gleichgueltig als Beispiel da Samsung wohl alles falsch gemacht hat was sie gerade falsch machen konnten mit dem Ding. Wenn man in solchen Faellen nicht wahlweise CPU cores innerhalb von clusters ein-/ausschalten kann dann ist es schlicht und einfach eine daemliche Implementierung.

Auf Seite 6 im pdf wird das ganze aber so beschrieben wie ich es mir bisher vorstelle:

Whether a big processor needs to be powered on is determined by performance requirements of tasks currently executing. If there are demanding tasks, then a big processor can be powered on to execute them. Low demand tasks can execute on a LITTLE processor. Finally, any processors that are not being used can be powered down. This ensures that cores, big or LITTLE, are only active when they are needed, and that the appropriate core is used to execute any given workload.

robbitop
2013-08-07, 10:43:46
Die Frage ist, ob das bei aktuellen Implementationen bereits funktioniert.

iFanatiker
2013-08-07, 10:51:06
Aktuell geht nur Cluster Migration bzw. auch diese funktioniert ja beim 5410-er noch nicht richtig wie ursprünglich geplant weil immer wider die Cache Kohärenz nicht sichergestellt ist falls der Cache Interconnector die Cache Migration durchführt -> somit permanentes Cache Trashing. Somit funktioniert es zur Zeit so beim S4: stellt man in Android den Energiespar Modus ein wird nur der A7 Cluster verwendet. Ansonsten läuft alles die größte Teil der Zeit auf den A15 Cluster.

Der nächste Ausbau der bigLITTLE Technik (In Kernel Switcher) wären die "virtuellen" CPU wo ein Hypervisior in der Regel einen kleinen und einen großen Kern transparent gegenüber dem OS vereint und anhand der angeforderten Powertarget eben die Task hin oder her schiebt. Also sowas ähnliches was aktuell nVidia bei Tegra macht (nur halt quasi am besten pro "Kern") mit allen Vor- und Nachteilen. Sollte mit der Veröffentlichung von Kernel 3.10 (der cpufreq Treiber brauchte hier unter anderen paar Änderungen) nun auch public sein:

http://git.kernel.org/cgit/linux/kernel/git/torvalds/linux.git/commit/?id=8a67f0ef2b684b34162d39e8f436fe39e9635a19

Das ist auch schon Grundlage für den "letzten" Schritt:

Bist Du sicher dass Anand es zu 100% richtig hinbekommen hat? Ausser ich hab die ersten Alzheimer Symptome kann ich mich noch sehr gut ans video von Samsung erinnern wo sie vorzeigten wie die cores ein- bzw. umschalten in verschiedenen Faellen und ich koennte schwoeren dass es auch ein paar Faelle gab wo man einen einzelnen core z.B. aus einem cluster aktiv hatte.

Das lief auf irgendeinen Linaro Release. Natürlich kann man die einzelnen Kerne ansprechen....das ist ja auch kein Problem...aber welcher Entwickler möchte wieder auf so einer Ebene optimieren? Das Ziel ist hier halt, dass der kernel mit einer "ASMP" Architektur (sprich SMP wo die Core nicht gleichartig bezüglich ihrer Leistung/Energie sind) Architektur klar kommt. Hier gibt es halt noch bisschen "Streit" welche die richtige Richtung ist. Ursprüglich sollte ein entsprechender Scheduler jetzt kommen mit 3.11, wird sich aber wohl bisschen verschieben.

Ailuros
2013-08-07, 10:53:10
Die Frage ist, ob das bei aktuellen Implementationen bereits funktioniert.

Wie immer muessen wir uns im Kreis herumdrehen....ausser dem problematischem 5410 gibt es momentan keine andere verfuegbare big.LITTLE Implementierung und nein es gibt keinen einzigen Grund dass andere Hersteller big.LITTLE genauso tragisch abvoegeln wie Samsung LSI. Wenn jetzt auf dem 5410 neben dem kaputten CCI, neben der albernen Frequenzpfuscherei jetzt auch DVFS und power gating nicht richtig implementiert ist, dann ist das Ding noch beschissener als ich mir bisher vorstellen konnte.

Skysnake
2013-08-07, 10:53:58
@Ailuros:
/sign ich bin mir auch sehr sehr sehr sicher, das man auch einzelne Cores aktivieren kann bei "Big.Little"
Die Frage ist, ob das bei aktuellen Implementationen bereits funktioniert.
Die Frage ist wohl eher: "Es gibt es DIE Big.Little Implementierung?"

Also gibt es nur eine Umsetzung, die immer gleich funktioniert, oder gibt es unterschiedliche? Soweit ich das verstanden habe, unterscheidet sich die Big.Little Implementierung von Samsung teils von denen der anderen. Ob die wiederum Unterschiede haben kann ich nicht sagen, aber 0815 ist das nicht.

Und selbst dann bleibt die Frage noch bestehen, ob das Big.Little-Konzept dann auch immer! richtig in den Chip gegossen wurde, oder bei einzelnen Chips eben auch "Fehler" enthalten sind, oder man auch eventuell einfach beides mal testen wollte, um im realen Einsatz zu sehen, ob sich der Aufwand lohnt oder nicht.

Die ganzen ARM Hersteller betreten ja in vielen Bereichen für sich immer wieder Neuland. Da muss noch viel getestet werden. Intel und AMD packen ja auch immer auf ihre Chips noch ne Menge an Testzeug drauf, das für den Normaluser nie aktiviert wird, sondern nur intern verwendet wird.

iFanatiker
2013-08-07, 11:21:16
Wenn jetzt auf dem 5410 neben dem kaputten CCI, neben der albernen Frequenzpfuscherei jetzt auch DVFS und power gating nicht richtig implementiert ist, dann ist das Ding noch beschissener als ich mir bisher vorstellen konnte.

Der A15 Cluster und A7 Cluster beherrschen für sich natürlich DVFS und Gating auch beim 5410-er. Cluster Migration bedeutet ja hier bei nur, dass entweder transparent der die Aufgaben halt nun auf diesen Cluster verteilt werden und dieser intern natürlich Gating usw. kann. Das ist ja komplett unabhängig davon. DVFS und Gating werden ja eher in den beiden anderen Szenarien "komplexer".

YfOrU
2013-08-07, 11:35:33
Für die Kerne innerhalb eines Clusters (egal ob Big.Little oder nicht) gilt folgendes:
Powergating Ja, unabhängige Frequenz und Spannung pro Kern Nein.

Alle Kerne eines Clusters befinden sich in einer Powerdomain. L2 etc. stellt eine eigene Powerdomain da.
Cluster Migration ist deshalb alles andere als optimal denn in der Praxis wird es zwangsläufig häufig zu aktiven A15 Kernen führen welche trotz geringer Last mit unnötig hoher Frequenz und Spannung laufen. Vorgegeben durch den Kern mit der höchsten Last.

Aus dem Grund gibt es Core Migration. Statt einen weiteren A15 aufzuwecken ist es hier möglich einen A7 (anderes Cluster und somit eigene Frequenz und Powerdomain) anzuwerfen. Beim 5410 ist daraus aber nichts geworden. Im Endeffekt ist das Konzept einer unabhängigen Skalierung von Frequenz und Spannung pro Kern nicht so unähnlich. Wobei ich mir nicht so sicher bin ob dieser vergleichsweise hohe Aufwand (Implementierung) gegenüber unabhängiger Skalierung (Beispiel: Qualcomm) wirklich große Vorteile bringt. Klar, die MP Variante gibt es auch noch aber 8 Kerne bei einem ultra-mobile Device vernünftig auszulasten ist eher unrealistisch und sowas wie ein TDP Limit gibt es ja auch noch. Sinnvoll wäre die vermutlich nur bei zukünftigen Low-Cost Lösungen mit 2*A15 und 2*A7.

Ailuros
2013-08-07, 11:47:10
iFanatiker danke.

Für die Kerne innerhalb eines Clusters (egal ob Big.Little oder nicht) gilt folgendes:
Powergating Ja, unabhängige Frequenz und Spannung pro Kern Nein.

Ergo hab ich es schon richtig in Erinnerung.

Alle Kerne eines Clusters befinden sich in einer Powerdomain. L2 etc. stellt eine eigene Powerdomain da.
Cluster Migration ist deshalb alles andere als optimal denn in der Praxis wird es zwangsläufig häufig zu aktiven A15 Kernen führen welche trotz geringer Last mit unnötig hoher Frequenz und Spannung laufen. Vorgegeben durch den Kern mit der höchsten Last.

Aus dem Grund gibt es Core Migration. Statt einen weiteren A15 aufzuwecken ist es hier möglich einen A7 (anderes Cluster und somit eigene Frequenz und Powerdomain) anzuwerfen. Beim 5410 ist daraus aber nichts geworden.

Bei den 5410 Problemen und so wie ich sie bisher verstanden habe wuerde es mich verdammt ueberraschen wenn core migration halbwegs anstaendig funktionieren wuerde. Ohne ernsthafte hickups klingt es mir unmoeglich auf dem 5410.

iFanatiker
2013-08-07, 12:09:39
Für die Kerne innerhalb eines Clusters (egal ob Big.Little oder nicht) gilt folgendes:
Powergating Ja, unabhängige Frequenz und Spannung pro Kern Nein.


Stimmt. Hatte ich ja vergessen. War gerade beim Frühstück. :biggrin: Wobei auch eben die In Kernel Switch auch einen Worst Case Nachteil ja mitbringt: beide Cluster sind aktiv...vermutlich sogar die ganze Zeit.


Bei den 5410 Problemen und so wie ich sie bisher verstanden habe wuerde es mich verdammt ueberraschen wenn core migration halbwegs anstaendig funktionieren wuerde. Ohne ernsthafte hickups klingt es mir unmoeglich auf dem 5410.

Der In Kernel Switch ist ja eine "Software" Lösung. Bisher fehlte eben im Kernel der Support und der entsprechende "Treiber" war nicht stable. Das Problem ist auch hier wieder der kaputte CCI weil damit der virtuelle Kern schnell zwischen A7 und A15 umschalten kann muss ja die Cache Kohärenz sichergestellt werden und dies soll ja der CCI sicherstellen welcher beim 5410 kaputt ist.

boxleitnerb
2013-08-08, 15:45:28
Tablet mit Tegra 5 in Q1 2014:
http://www.fudzilla.com/home/item/32173-nvidia%E2%80%99s-own-high-end-tablet-coming-in-q1-2014

Ein günstigeres Tablet mit Tegra 4 soll auch in Arbeit sein, weiß nicht ob das schon hier gepostet wurde:
http://www.fudzilla.com/home/item/32124-nvidia-might-be-working-on-phablet-or-tablet

Undertaker
2013-08-08, 16:28:59
Tablet mit Tegra 5 in Q1 2014:
http://www.fudzilla.com/home/item/32173-nvidia%E2%80%99s-own-high-end-tablet-coming-in-q1-2014

Das wäre ja was... T5 schon 6-9 Monate nach Tegra 4 im Laden? Das wäre eine wirklich kurze Lebenserwartung.

fondness
2013-08-08, 16:50:23
Tablet mit Tegra 5 in Q1 2014:
http://www.fudzilla.com/home/item/32173-nvidia%E2%80%99s-own-high-end-tablet-coming-in-q1-2014

Ein günstigeres Tablet mit Tegra 4 soll auch in Arbeit sein, weiß nicht ob das schon hier gepostet wurde:
http://www.fudzilla.com/home/item/32124-nvidia-might-be-working-on-phablet-or-tablet

Will NV in Zukunft als Endgerätehersteller auftreten? Oder sind damit nur Referenzgeräte gemeint?

boxleitnerb
2013-08-08, 16:53:46
Ersteres, steht ja auch mit "own brand" drin.

Nightspider
2013-08-08, 18:06:18
Ein zeitiger T5 wäre wichtiger als ein später T4.
Allerdings könnte die Lieferbarkeit ein Problem werden falls T5 schon vor März kommt in 20nm und die Kokurrenz weit hinterher hinkt.

Ist bei QualComm schon etwas Neues für 1H14 angekündigt?

Ailuros
2013-08-08, 20:09:05
Ein zeitiger T5 wäre wichtiger als ein später T4.
Allerdings könnte die Lieferbarkeit ein Problem werden falls T5 schon vor März kommt in 20nm und die Kokurrenz weit hinterher hinkt.

Ist bei QualComm schon etwas Neues für 1H14 angekündigt?

Logan ist 28nm und dank diesem wird es wohl auch keinen fruehen performance Maxwell geben.

Sonst hat QCOM einen DX11.1 Adreno420 auf ihrer roadmap fuer 2014 aber keine Ahnung fuer welches Halbjahr genau.

Nightspider
2013-08-08, 21:14:07
Ganz sicher?
Soweit ich mich erinnere sind die bisherigen Logan Plattformen nur 28nm Def-Boards und der finale Logan (T5) SoC wird in 20nm gefertigt.
T5 wäre sonst das dritte Tegra SoC in 28nm.

Und selbst wenn die Kepler GPU einen riesigen Effizienzsprung bei NVs SoCs bringt würden deren SoCs gegen die 20nm Armada nichts entgegensetzen können was annähernd im CPU Bereich entgegenhalten könnte.
Sicherlich werden spätestens Ende des ersten Halbjahres 2014 die ersten 20nm SoCs auf den Markt geschwemmt, also mit Pech kurz nach T5.
Und Intel mischt ab dem Jahreswechsel auch mit "perverser" CPU Power mit. ARM SoCs in 20nm werden rund 3 Ghz schaffen. Wie will NV da mit 1,8Ghz A15 Kernen mithalten?

Zumindest erachte ich die CPU Power mittlerweile als wichtiger. Die GPU Power reicht spätestens seit dem SnapDragon S800 schon lange für die Beschleunigung des UIs, selbst unter 1080p.

Würde T5 tatsächlich in 28nm auf den Markt kommen, wenn die 20nm Fabriken schon laufen, wäre ich enttäuscht.
Habe gerade beim Googlen auch nur widersprüchliche Meldungen gefunden seit dem ketzten Monat und letztes Jahr wurde T5 noch in 20nm erwartet.

fondness
2013-08-08, 21:28:47
20nm kannst du vor H2/2014 vergessen, erst recht bei den Volumen die QCOM benötigt. NVs größter Erfolg war bisher Tegra 3, und der kam auch im alten 40nm Prozess. Zumal ohnehin das Design deutlich wichtiger ist wie der Prozess, der Snapdragon 800 hat "the way to go" ja deutlich gezeigt.

Nightspider
2013-08-08, 22:36:01
T3 wurde sehr schnell abgelöst. Von Erfolg würde ich da noch nicht sprechen.
QualComm hatte auch als Erster 28nm Chips auf dem Markt.

Ein S800 geshrinkt auf 20nm wäre effizienter, höher taktbar und würde stromsparender sein als 28nm Chips bei kleiner Diefläche.
Zudem muss QC ja nicht den gesamten Markt auf einmal bedienen. Um NV aus dem Rampenlicht zu drängen bedarf es keiner Abdeckung des gesamten Marktes auf einmal.

robbitop
2013-08-09, 08:00:58
Wieso dritter Tegra mit 28 nm? Tegra 4 und 5 sind 2x Tegragenerationen. Oder zählst du T4i mit?

20 nm kommt eh erst frühestens H2 nächsten Jahres.

Nightspider
2013-08-09, 09:27:29
Wenn die Massenproduktion von 20nm zwischen Ende Dezember und spätestens Februar anläuft erscheinen erste 20nm Produkte deutlich vor 2H14

Ailuros
2013-08-09, 11:14:22
Ganz sicher?
Soweit ich mich erinnere sind die bisherigen Logan Plattformen nur 28nm Def-Boards und der finale Logan (T5) SoC wird in 20nm gefertigt.
T5 wäre sonst das dritte Tegra SoC in 28nm.

Link? Quelle?

Und selbst wenn die Kepler GPU einen riesigen Effizienzsprung bei NVs SoCs bringt würden deren SoCs gegen die 20nm Armada nichts entgegensetzen können was annähernd im CPU Bereich entgegenhalten könnte.
Sicherlich werden spätestens Ende des ersten Halbjahres 2014 die ersten 20nm SoCs auf den Markt geschwemmt, also mit Pech kurz nach T5.
Und Intel mischt ab dem Jahreswechsel auch mit "perverser" CPU Power mit. ARM SoCs in 20nm werden rund 3 Ghz schaffen. Wie will NV da mit 1,8Ghz A15 Kernen mithalten?

Die 3GHz ARM CPUs will ich erstmal sehen im Zeitraum den Du projezierst bevor an solche Maerchen erstmal glaube.


Würde T5 tatsächlich in 28nm auf den Markt kommen, wenn die 20nm Fabriken schon laufen, wäre ich enttäuscht.
Habe gerade beim Googlen auch nur widersprüchliche Meldungen gefunden seit dem ketzten Monat und letztes Jahr wurde T5 noch in 20nm erwartet.

20nm waere logischer gewesen wenn Logan noch nicht schon vorgestellt wurde.

Wenn die Massenproduktion von 20nm zwischen Ende Dezember und spätestens Februar anläuft erscheinen erste 20nm Produkte deutlich vor 2H14

Wenn ueberhaupt dann auf jeden Fall nichts so kompliziertes wie ein SoC oder GPU chip.

robbitop
2013-08-09, 11:18:37
Wenn die Massenproduktion von 20nm zwischen Ende Dezember und spätestens Februar anläuft erscheinen erste 20nm Produkte deutlich vor 2H14
TSMC sagt IIRC selbst, dass erst ab H2 2014 20 nm in Massen auch verfügbar ist. Du bist ein wenig optimistisch.

AffenJack
2013-08-09, 11:26:25
Wenn die Massenproduktion von 20nm zwischen Ende Dezember und spätestens Februar anläuft erscheinen erste 20nm Produkte deutlich vor 2H14

Das ist schon möglich, aber trotzdem ist 20 nm kein so großer Vorteil. 20 nm wird am Anfang arg teuer und soweit man bisher überall hört nen ziemlich schlechter Prozess der die kleinsten Steigerungen seit Jahren zulässt. Deine 3ghz ARM-Cores kannst du dir eher abschminken. Erst mit Einführung von FinFets 2015 wird sich das wohl erst wirklich ändern, denn ohne die ist 20 nm fast sinnlos. Deshalb steigen sie wohl auch erst mit T6 um, wenn Finfets da sind. Sowieso wird Nvidia mit 20 nm Kapazitätsengpässe schon bei den Gpus bekommen, wozu die Kapazitäten noch mehr verringern indem man noch SoCs von Anfang an darauf bringt. Jetzt mit Apple bei TSMC wird sich jeder, auch Qualcomm umsehen müssen, damit er am Anfang halbwegs was von 20 nm abbekommt.

Ailuros
2013-08-09, 11:33:09
http://www.fudzilla.com/home/item/32181-nvidia-tegra-tab-7-leaked

Keine Ahnung was der Kerl raucht, aber es ist ein T4 Geraet mit 1800/605 Frequenzen wie alle andere. Es gab ein paar Tage Resultate von dem Ding bei Kishonti die in der Zwischenzeit wieder verschwunden sind.

AffenJack
2013-08-09, 11:51:18
Er hat einfach noch keine Ahnung, was da fürn SoC drin steckt oder was stört dich so an seiner News?

Nightspider
2013-08-09, 12:11:39
Vom aktuellen Standpunkt aus betrachtet könnte es sein das AMD den ersten 20nm Grafikchip schon Ende September vorstellt.
Wieso sollten da viel kleinere SoCs nicht schon ein halbes Jahr später wenigstens für ein Teil des Smartphone Marktes zu Verfügung stehen?

Für 20nm sind 30% mehr Leistung (2,3 Ghz *30% ~3Ghz) und ein 20% niedrigerer Stromverbrauch prognostiziert.

Selbst wenn es im März nur in 3 verschiedenen Smartphones ein 20nm SoC gibt könnte dieser von der Leistung und Effizienz ein T5 alt aussehen lassen, falls T5 nur in 28nn kommt.
Ein riesiger 28nm Chipnist auch sehr teuer.

Die ersten 28nm SoCs mit schnell getaktetem DualCore, guter Effizienz und guter IPC waren auch beliebter als die Tegra3 SoCs in alter Technik.
Und schon hat sich kaum mehr ein Schwein für T3 interessiert, obwohl T3 noch neu war.

Wie lang soll denn T5 bis zu NVs erstem 20nm SoC überbrücken? Parker (T6) ist erst für 2015 angekündigt.

Und die Effizienz der A15 Cores in 28nm ist auch schlecht im Gegensatz zu QualComms Krait 300 & 400 Kernen.
Da wären die alten A15 Stromschleudern in 28nm im Vergleich zu 20nm Kernen von QualComm die sicherlich mit mindestens 2,5 Ghz aufwarten für die Tonne.

Und wenn man bei google "Nvidia Logan 20nm" eingibt findet man auch ein paar alte und neue Treffer über deren Glaubwürdigkeit ich aber nicht zu urteilen erlaube.

Ich persöhnlich halte T5 in 28nm einfach für Selbstmord. Das ist nur meine Meinung.

robbitop
2013-08-09, 12:13:47
Die neue AMD wird eher 28 nm.

Undertaker
2013-08-09, 12:19:08
Design-Win für zweites Surface?

http://www.computerbase.de/news/2013-08/nvidia-ceo-bestaetigt-arbeiten-an-zweiter-surface-generation/

Nightspider
2013-08-09, 12:22:31
Die neue AMD wird eher 28 nm.

Das muss sich erst noch zeigen. TSMCs 20nm läuft besser als erwartet und startet eher als geplant.
Kleine 20nm SoCs in- 2H14 zu verbannen halte ich da für weit übertrieben.

Hugo78
2013-08-09, 12:34:12
Design-Win für zweites Surface?

http://www.computerbase.de/news/2013-08/nvidia-ceo-bestaetigt-arbeiten-an-zweiter-surface-generation/

Spannend, nachdem alle Welt einen S800 im Surface 2 erwartet hatte.

Ailuros
2013-08-09, 12:51:27
Er hat einfach noch keine Ahnung, was da fürn SoC drin steckt oder was stört dich so an seiner News?

Weil die Antwort so verdammt offensichtlich ist obwohl er selber sagt dass T4 overkill fuer es sein wuerde; T4 ist auch verdammt overkill (sogar noch mehr) in einem smartphone dennoch kommen Xiaomi und ZTE damit an.

Was sollte mich anderes daran stoeren als schlampiger moechtegern Journalismus?

Vom aktuellen Standpunkt aus betrachtet könnte es sein das AMD den ersten 20nm Grafikchip schon Ende September vorstellt.
Wieso sollten da viel kleinere SoCs nicht schon ein halbes Jahr später wenigstens für ein Teil des Smartphone Marktes zu Verfügung stehen?

Für 20nm sind 30% mehr Leistung (2,3 Ghz *30% ~3Ghz) und ein 20% niedrigerer Stromverbrauch prognostiziert.

Selbst wenn es im März nur in 3 verschiedenen Smartphones ein 20nm SoC gibt könnte dieser von der Leistung und Effizienz ein T5 alt aussehen lassen, falls T5 nur in 28nn kommt.
Ein riesiger 28nm Chipnist auch sehr teuer.

Die ersten 28nm SoCs mit schnell getaktetem DualCore, guter Effizienz und guter IPC waren auch beliebter als die Tegra3 SoCs in alter Technik.
Und schon hat sich kaum mehr ein Schwein für T3 interessiert, obwohl T3 noch neu war.

Wie lang soll denn T5 bis zu NVs erstem 20nm SoC überbrücken? Parker (T6) ist erst für 2015 angekündigt.

Und die Effizienz der A15 Cores in 28nm ist auch schlecht im Gegensatz zu QualComms Krait 300 & 400 Kernen.
Da wären die alten A15 Stromschleudern in 28nm im Vergleich zu 20nm Kernen von QualComm die sicherlich mit mindestens 2,5 Ghz aufwarten für die Tonne.

Und wenn man bei google "Nvidia Logan 20nm" eingibt findet man auch ein paar alte und neue Treffer über deren Glaubwürdigkeit ich aber nicht zu urteilen erlaube.

Ich persöhnlich halte T5 in 28nm einfach für Selbstmord. Das ist nur meine Meinung.


Auf 28nm zu setzen ist alles andere als eine schlechte Design-Entscheidung wenn man schon etwas praesentables in hw haben will in H1 2014. NV wird ja selber ein tablet entwickeln bzw. veroeffentlichen eben um so frueh wie moeglich benutzbare Logan hw verbreiten zu koennen; ist ueberhaupt eine Notwendigkeit wenn man Lizenzen anlozen will, wobei aber wiederrum die Frage bleibt warum sie nicht gleich z.B. Hardkernel fuer eine dev Platform engagiert haben.

Sonst generell mehr zum Thema hier: http://forum.beyond3d.com/showthread.php?p=1768503#post1768503

...achte auf Dave Baumann's (AMD) Aussage zum Thema obwohl es nicht auf Anhieb klar sein sollte.

Sonst auf der naechsten Seite wird erwaehnt dass womoeglich in ausgesuchten (HPC?) Maxwell Varianten Denver cores erscheinen koennten aber ich bezweifle es momentan noch. Mir klingt Denver eher momentan nach <20nm.

Spannend, nachdem alle Welt einen S800 im Surface 2 erwartet hatte.

Da ich so oder so fuer die giftigsten Tegra relevanten Kommentare bekannt bin: ueber den design win hat sich sicher keiner der grossen Hersteller boxen wollen. Bei den bisherigen Microsoft Verkaufszahlen wuerde ich sogar wetten dass NV der einzige interessierte war :D

***edit: http://www.brightsideofnews.com/news/2013/8/8/nvidia-earnings-for-2q-2013---gpu-strong2c-tegra-murdered.aspx

=Floi=
2013-08-09, 13:31:17
tegra steht weiterhin schlecht bei den aktuellen zahlen da. ich denke nv wird deshalb so früh wie möglich auf t5 umsteigen wollen. nur so haben sie eine chance und bisher scheint t4 ein stromschlucker zu sein.

Ailuros
2013-08-09, 13:37:24
tegra steht weiterhin schlecht bei den aktuellen zahlen da. ich denke nv wird deshalb so früh wie möglich auf t5 umsteigen wollen. nur so haben sie eine chance und bisher scheint t4 ein stromschlucker zu sein.

Nach NV's eigener Logan Praesentation sieht die Logan GPU auch nicht gerade als stromsparendes Ereignis aus bei voller Frequenz; wenn das Ding tatsaechlich bei angenommen 195MHz schon um die 900mW verbraucht, dann sieht es bei theoretisch maximalen 975MHz nicht gerade bescheiden aus. Natuerlich koennte NV durchaus low end Haswell SoCs damit anzielen, aber mit der Logik ist Tegra4/Shield mit seiner aktiven Kuehlung und relativ grossen Batterie nicht gerade 5W TDP tablet Material.

Hugo78
2013-08-09, 14:10:49
Da ich so oder so fuer die giftigsten Tegra relevanten Kommentare bekannt bin: ueber den design win hat sich sicher keiner der grossen Hersteller boxen wollen. Bei den bisherigen Microsoft Verkaufszahlen wuerde ich sogar wetten dass NV der einzige interessierte war :D

***edit: http://www.brightsideofnews.com/news/2013/8/8/nvidia-earnings-for-2q-2013---gpu-strong2c-tegra-murdered.aspx

Am ende kann QCOM nicht genug S800 liefern oder ihre WinRT Treiber sind immernoch eher lau, oder MS will nach dem Kinect-bashing nicht auch noch Prügel für Spyware im Surface 2 beziehen.
Denn das S800 hat ja eine "Allways On Lauschengine" in Hardware, besser als die Softwarelösung vom Motorola Moto X.

Ailuros
2013-08-09, 14:41:38
Am ende kann QCOM nicht genug S800 liefern

Ein paar wafer mehr macht doch keinen Unterschied :D

oder ihre WinRT Treiber sind immernoch eher lau, oder MS will nach dem Kinect-bashing nicht auch noch Prügel für Spyware im Surface 2 beziehen.
Denn das S800 hat ja eine "Allways On Lauschengine" in Hardware, besser als die Softwarelösung vom Motorola Moto X.

Jetzt mal Spass und jegliche Bevorzugungen zur Seite; wem wuerdest Du zwischen NV und QCOM fuer so ein Geraet eher vertrauen?