PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

Gipsel
2011-11-18, 17:49:00
Ach komm, das ist echt nur vorgeschben. Das Verfahren benötigt nur die Informationen über das Panel. Alles andere läuft auf einem Vergleich mit dem Orginal-Frame hinaus. Ein Panel-Hersteller ist dafür genauso gut oder schlecht geeignet wie jede Drittfirma. Am Ende sind die Informationen aufgrund der Kalibrierung des Displays sowieso in der Firmware abgespeichert.
Sitzt es im Panel, schickst Du das Bild dahin, wie Du es haben willst, das Panel macht den Rest und der Panelhersteller kann sich beliebig austoben (die Firmware des Panels bietet lediglich eine Schnittstelle, über die man das Powerlevel und die Stromsparanforderungen definiert). Dieses funktioniert für alle Panels und auch für jegliche Paneltyp-abhängigen Algos, die man da vielleicht drüberlaufen lassen will, auch mit dem von Dir angesprochenen Bearbeitungsverfahren für OLEDs.
Das ist einfach das sauberere Prinzip.

Soll das dagegen im SoC gemacht werden, darfst Du Informationen über die Kennlinien der Displays, über das Layout der Subpixelmaske usw. usf. austauschen. Dafür benötigt es neue (noch nicht existierende) Schnittstellen und es kann auch vieles schiefgehen, wenn der benutzte Algorithmus nicht optimal auf das verbaute Panel paßt.
Ich meinte nicht DIESES Verfahren.Also ist DyDim beim Einsatz von OLED-Displays vollkommen nutzlos?

LovesuckZ
2011-11-18, 17:51:22
Also ist DyDim beim Einsatz von OLED-Displays vollkommen nutzlos?

Ich geh davon aus. Es gibt zwar keine weiteren Informationen, aber das ganze ist doch nur eine Backlight-Senkungs-Maßnahme. Ich stell es mir jedenfalls schwer vor, dies ohne Backlight ala LCD zu realisieren.

Gipsel
2011-11-18, 17:57:49
Also ist DyDim beim Einsatz von OLED-Displays vollkommen nutzlos?Ich geh davon aus. Es gibt zwar keine weiteren Informationen, aber das ganze ist doch nur eine Backlight-Senkungs-Maßnahme. Ich stell es mir jedenfalls schwer vor, dies ohne Backlight ala LCD zu realisieren.
Danke, daß Du mir jetzt bei dieser schon in meinem ersten Posting dazu geäußerten Aussage (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9040190#post9040190) zustimmst. ;)
Wie das funktioniert, habe ich Dir schon vor einiger Zeit gesagt (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8996368#post8996368).

Im Übrigen bin ich immer noch der Meinung, daß sowas eigentlich besser im Panel-Controller aufgehoben ist als im SoC. Bei Panels mit Area-LED-Backlight sitzt sowas in der Art wie gesagt sowieso schon dort drin. Und setzen sich (O)LEDs irgendwann mal durch, ist das im SoC komplett für die Katz'. Das ganze ist prinzipiell panel-spezifisch.

CrazyIvan
2011-11-18, 18:22:59
überspitzt formuliert klingt das für mich so, als würde man ABS und ESP ins Handy auslagern, weil es solche Funktionen unter Preisgabe der richtigen Informationen über Fahrwerk etc. ja AUCH übernehmen könnte ;)

Ailuros
2011-11-18, 18:27:33
Das subventionierte 200€ Tab wird in Europa erstmal keine Rolle spielen,da Amazon und co erstmal das Ökosystem an den Start bringen müssen,damit sich das ganze finanzieren lässt.Bei den ganzen verschiedenen Märkten in der EU und den zig Film,Musik Studios mit denen für jedes Land extra verhandelt werden muss vergeht da noch viel Zeit.Ziehmlich unwahrscheinlich das Acer da in näster Zeit,Samsung und Asus das Feld überlässt.

Amazon gibt keine offiziellen Verkaufszahlen aus. Nach einer anonymen Quelle soll Amazon in 2010 um die 8 Mio Kindle verkauft haben und ich stimme Dir auch mit dem Europa Punkt zu. Wenn's stimmt ist es trotzdem keine Anzahl die man so leicht uebersehen kann. Tablets sind IMHO hauptsaechlich fuer Leute die viel reisen (auch u.a. von und zu der Arbeit) und anstatt zich Zeitungen bzw. Magazine unter der Schulter zu schleppen ist ein tablet praktischer und billiger am Ende. Hierbei ist das Kindle fire fast schon eine Kategorie fuer sich da es mehr ein e-book reader ist als alles andere.

Je billiger tablets insgesamt werden, desto groesser die Chancen dass ein breiteres Publikum angesprochen wird. Aber einer der treibende Faktoren fuer quasi abgekapselte Maerkte wie der von Amazon ist dann schon content. Eben gerade der Punkt wo Du mit dem Durchdrang vom Kindle Fire in Europa als Beispiel eben recht hast.

LovesuckZ
2011-11-18, 18:38:05
Sitzt es im Panel, schickst Du das Bild dahin, wie Du es haben willst, das Panel macht den Rest und der Panelhersteller kann sich beliebig austoben (die Firmware des Panels bietet lediglich eine Schnittstelle, über die man das Powerlevel und die Stromsparanforderungen definiert). Dieses funktioniert für alle Panels und auch für jegliche Paneltyp-abhängigen Algos, die man da vielleicht drüberlaufen lassen will, auch mit dem von Dir angesprochenen Bearbeitungsverfahren für OLEDs.
Das ist einfach das sauberere Prinzip.

Soll das dagegen im SoC gemacht werden, darfst Du Informationen über die Kennlinien der Displays, über das Layout der Subpixelmaske usw. usf. austauschen. Dafür benötigt es neue (noch nicht existierende) Schnittstellen und es kann auch vieles schiefgehen, wenn der benutzte Algorithmus nicht optimal auf das verbaute Panel paßt.
Also ist DyDim beim Einsatz von OLED-Displays vollkommen nutzlos?

Für den Vorgang ist doch die Kalibrierung des Displays am Ende vollkommen belanglos. Die eigentlichen Bildinformationen befinden sich im Frame. Dazu gibt es einen Helligkeitswert für die Hintergrundbeleuchtung für das Frame. Basierend auf diesen Informationen wird die Analyse durchgeführt. Die neuen Frameinformationen + der neue Helligkeitswert werden dann an das Ausgabegerät gesendet. Der vermurkst es mit der aktuellen Kalibierung und am Ende entsteht ein Bild, dass eben genauso aussehen soll wie es auch ohne DiDim täte.

überspitzt formuliert klingt das für mich so, als würde man ABS und ESP ins Handy auslagern, weil es solche Funktionen unter Preisgabe der richtigen Informationen über Fahrwerk etc. ja AUCH übernehmen könnte ;)

Das ist nicht vergleichbar, weil das Ausgabegerät am Ende der Kette hängt. Die Informationen kommen von Festplatte, zur GPU / zum Signalprozessor und werden dann zum Display geschickt.

Gipsel
2011-11-18, 18:57:58
Für den Vorgang ist doch die Kalibrierung des Displays am Ende vollkommen belanglos.DyDim macht nichts anderes, als gegen diese Kalibrierung anzuarbeiten bei gleichzeitiger Modulation des Backlights. Warum überläßt man es nicht gleich dem Panel selber?
Die eigentlichen Bildinformationen befinden sich im Frame. Dazu gibt es einen Helligkeitswert für die Hintergrundbeleuchtung für das Frame. Basierend auf diesen Informationen wird die Analyse durchgeführt. Die neuen Frameinformationen + der neue Helligkeitswert werden dann an das Ausgabegerät gesendet. Der vermurkst es mit der aktuellen Kalibierung und am Ende entsteht ein Bild, dass eben genauso aussehen soll wie es auch ohne DiDim täte.Nochmal, warum schickt man nicht die Originaldaten zum Panel, das "vermurkst" es mit der Kalibrierung und berechnet auch die optimale Hintergundbeleuchtungsstärke selber (wie das das Area-LED Backlights sowieso schon gemacht wird um die Hintergrundbeleuchtung in unterschiedlichen Teilen des Panels mit unterschiedlicher Intensität anzusteuern)? Jetzt duplizierst Du im Zweifelsfall die Funktionalität sowohl im Panel-Controller als auch im SoC bzw. liegt die im SoC bei OLED-Displays brach und das Panel muß sowieso eine entsprechende Funktionalität selber mitbringen.
Das ist nicht vergleichbar, weil das Ausgabegerät am Ende der Kette hängt. Die Informationen kommen von Festplatte, zur GPU / zum Signalprozessor und werden dann zum Display geschickt.
Und beim ABS/ESP/ASR kommen die Kommandos vom Fahrer, gehen über ein elektronisch gesteuertes Motormanagement/eine elektronisch gesteuerte Hydraulik an die Bremszylinder, wobei die Elektronik die Daten von Sensoren auswertet, um die vom Fahrer gegebenen Kommandos gegebenenfalls zu modifizieren, um optimale Ergebnisse zu erhalten. Wenn Du zur Abwechslung mal ein anderes Auto fährst, nimmst Du die Fahrzeug-Elektronik mit? Oder vertraust Du lieber darauf, daß das Auto eines anderen Herstellers eine eigene Elektronik mitbringt, die möglichst optimal auf den Motor/das Fahrwerk/das Bremssystem abgestimmt sind?
So, ich hoffe das war es mit abstrusen Autovergleichen. :D

LovesuckZ
2011-11-18, 19:16:56
DyDim macht nichts anderes, als gegen diese Kalibrierung anzuarbeiten bei gleichzeitiger Modulation des Backlights. Warum überläßt man es nicht gleich dem Panel selber?

Nein, macht es eben nicht.
Zu dem Zeitpunkt, wo DiDim angewendet wird, weiß nVidia doch garnicht, wie die Kalibrierung aussieht. Hier hattest du recht mit den Schnittstellen. Um gegen die Kalibrierung ankämpfen zu können, müssten die Information des Displays zur Verfügung stehen.


Nochmal, warum schickt man nicht die Originaldaten zum Panel, das "vermurkst" es mit der Kalibrierung und berechnet auch die optimale Hintergundbeleuchtungsstärke selber (wie das das Area-LED Backlights sowieso schon gemacht wird um die Hintergrundbeleuchtung in unterschiedlichen Teilen des Panels mit unterschiedlicher Intensität anzusteuern)? Jetzt duplizierst Du im Zweifelsfall die Funktionalität sowohl im Panel-Controller als auch im SoC (bzw. liegt die im SoC bei OLED-Displays brach).

Es ist doch 1. vollkommen belanglos, wo es geschieht, da es keine Vermischung mit der Kalibrierungseinstellung des Displays gibt*. Es wird nichts anderes getan als das Ausgangsmaterial zu verändern. Wie das Ausgangsmaterial auf dem Displays auszusehen hat, legt der Ersteller fest. Und die Kalibrierung soll dafür sorgen, dass genau das Bild in der gewünschten Form dargestellt wird. Was hier passiert, ist keine Kalibrierungsänderung sondern einfach nur eine Veränderung der Informationen, dass am Ende bei selber Kalibrierung das gleiche Ergebnis rauskommt.
Dem Display ist es egal, dass nVidia die Farbwerte erhöht und die Hintergrundbeleuchtung senkt, weil es die Informationen nur dumm mit seiner Kalibrierung stumpf umzusetzen hat. nVidia ist es egal, ob das Display die Informationen mit einem Rotstich darstellen wird, weil sie nur basierend aus dem Ausgangsmaterial die Analyse durchführen.


Und beim ABS/ESP/ASR kommen die Kommandos vom Fahrer, gehen über eine elektronisch gesteuertes Motormanagement/elektronisch gesteuerte Hydraulik an die Bremszylinder, wobei die Elektronik die Daten von Sensoren auswertet, um die vom Fahrer gegebenen Kommandos gegebenenfalls zu modifizieren, um optimale Ergebnisse zu erhalten. Wenn Du zur Abwechslung mal ein anderes Auto fährst, nimmst Du die Fahrzeug-Elektronik mit? Oder vertraust Du lieber darauf, daß das Auto eines anderen Herstellers eine eigene Elektronik mitbringt, die möglichst optimal auf den Motor/das Fahrwerk/das Bremssystem abgestimmt sind?
So, ich hoffe das war es mit abstrusen Autovergleichen. :D

In diesem Fall wird etwas an der "Kalibrierung" des Displays geändert. Das geschieht aber hier nicht.

*Man sollte hier jedoch ein paar Dinge nicht ignorieren: Tablets und Smartphones haben keinen Platz, dass man noch irgendwelche Prozessoren an's Display klebt und sie verkabelt. Ein weiterer Prozessor auf der Platine muss mit dem Hauptprozessor oder dem Speichersystem verbunden werden. Auch weiß man nicht, wie leistungsfähig die externen Prozessoren sind. Was bringt einem das, wenn es für Toucheingaben unbrauchbar ist, da der Lag sehr hoch ausfallen wird aufgrund des "Berechnungsvorgang". Es ist also nicht so simpel einfach zu sagen: Soll's der Panelhersteller machen.

Gipsel
2011-11-18, 21:26:57
Nein, macht es eben nicht.
Zu dem Zeitpunkt, wo DiDim angewendet wird, weiß nVidia doch garnicht, wie die Kalibrierung aussieht. Hier hattest du recht mit den Schnittstellen. Um gegen die Kalibrierung ankämpfen zu können, müssten die Information des Displays zur Verfügung stehen.Andersrum wird eher ein Schuh draus. Wenn Du die Hintergrundbeleuchtung änderst, ist im Prinzip die Kalibrierung (die bei diesen Geräten ja gar nicht durchgeführt wird) im Eimer. Woher willst Du im SoC denn überhaupt so genau wissen, wie weit Du die Farbwerte verdrehen mußt, um ein bestimmte Absenkung der Backlight-Helligkeit zu kompensieren? Die Logik, die das macht, muß also die Eigenarten des Panels und ds verwendeten Backlights kennen, damit das ordentlich funktioniert, sonst kommt sich das im Zweifelsfall in die Quere.
Es ist doch 1. vollkommen belanglos, wo es geschieht, da es keine Vermischung mit der Kalibrierungseinstellung des Displays gibt*. Es wird nichts anderes getan als das Ausgangsmaterial zu verändern. Wie das Ausgangsmaterial auf dem Displays auszusehen hat, legt der Ersteller fest. Und die Kalibrierung soll dafür sorgen, dass genau das Bild in der gewünschten Form dargestellt wird. Was hier passiert, ist keine Kalibrierungsänderung sondern einfach nur eine Veränderung der Informationen, dass am Ende bei selber Kalibrierung das gleiche Ergebnis rauskommt.Und gerade das kann man ohne Kenntnis der Eigenarten des Displays nicht optimal machen.
Dem Display ist es egal, dass nVidia die Farbwerte erhöht und die Hintergrundbeleuchtung senkt, weil es die Informationen nur dumm mit seiner Kalibrierung stumpf umzusetzen hat. nVidia ist es egal, ob das Display die Informationen mit einem Rotstich darstellen wird, weil sie nur basierend aus dem Ausgangsmaterial die Analyse durchführen.Ist dann halt blöd, wenn das Bild hinterher doch nicht mehr ganz so aussieht, wie gedacht. Wenn man die Eigenarten des Displays beim Vrschieben der Farbwerte ausführlich berücksichtigt, kann man natürlich bessere Ergebnisse erzielen.
In diesem Fall wird etwas an der "Kalibrierung" des Displays geändert. Das geschieht aber hier nicht.Dann denke Dir einfach mal den gleichen SoC in zwei verschiedenen Geräten mit unterschiedlichen Panels.
Man sollte hier jedoch ein paar Dinge nicht ignorieren: Tablets und Smartphones haben keinen Platz, dass man noch irgendwelche Prozessoren an's Display klebt und sie verkabelt. Ein weiterer Prozessor auf der Platine muss mit dem Hauptprozessor oder dem Speichersystem verbunden werden.Das ist der einzige Grund, der eventuell dagegen sprechen könnte. Wobei man aber sagen muß, daß der Panel-Controller nicht an den Hauptspeicher angeschlossen werden muß, der arbeitet natürlich ausschließlich mit dem Datenstrom, der von der GPU kommt (irgendwie wollen die Bilddaten ja zum Display ;)). Und den Panel-Controller gibt es sowieso schon, irgendwie müssen ja die von der GPU kommenden Daten dekodiert und entsprechend der Charakteristik des Displays als einzelne Spannungswerte (da erfolgt also sowieso schon eine Datenbearbeitung/Umrechnung, warum nicht noch ein wenig mehr?) an die die LCD-Subpixel steuernden Transistoren verteilt werden (oder bei OLEDs and die kleinen LEDs selber).
Vorteil: Das Panel funktioniert mit jedem SoC optimal und der Panel-Hersteller kann mit dem niedrigerem Stromverbrauch bzw. der einfacheren Integration in das System punkten (weil man nicht den im SoC benutzen Algo mit den Panelcharakteristiken anpassen muß). Panel-Hersteller haben also durchaus auch ein Interesse daran, daß zu integrieren. Und um mich zu wiederholen macht der Panelcontroller das bei Panels deren Backlight Local-Dimming unterstützt sowieso schon (okay, das sind meistens noch etwas größere, aber der Fortschritt schreitet fort ;)), das scheint also nicht soo aufwendig zu sein (sonst würde nv das auch nicht in Tegra3 integrieren ;)).

Mancko
2011-11-18, 21:48:43
Der richtige Tablet Boom steht eh erst noch bevor, nämlich dann wenn die ganzen Unternehmen anfangen solche Dinger reihenweise zu ordern. Bei Smartphones wird da auch nochmal ein richtiger Boom kommen.

Ich war heute bei der SAP und die haben sich 60.000 Ipads und Iphones in Summe bestellt für Ihre Mitareiter zum Testen und kennenlernen. Wenn mal die Infrastruktur soweit ist und vernünftige und vor allem sichere Enterprise Apps da sind, wird der Boom nochmal so richtig losgehen. Momentan scheitert es dort an allgemeingültigen Standards, Anwendungen und vor allem dem Thema Sicherheit. Das Interesse bei den Kunden ist aber da. Ich bin aktuell bei mehreren Konzernen unterwegs und überall wird das Thema nachgefragt. Aktuell rate ich allerdings jedem Kunden zu warten, da das Thema Sicherheit nicht hinreichend gelöst ist.

LovesuckZ
2011-11-18, 22:09:32
Gipsel,
ich verstehe die Diskussion nicht. Die Smartphones/Tablets/Co werden einmal kalibriert und dann ausgeliefert. Dahinter liegt eine Hintergrundbeleuchtung, die manuell oder automatisch an andere (Licht-)Verhältnisse angepasst werden kann. Das bedeutet also schon, dass eine "contentrichtige" Kalibrierung sowieso nur schwer möglich ist.

nVidia wird nichts anderes machen als das aktuelle Frame mit dem aktuellen Hintergrundwert zu analysieren, den neuen Hintergrundlichtwert und den Colorboost berechnen, die Farben anheben, die Hintergrundbeleuchtung anpassen und dann einen Soll-Ist-Vergleich durchführen. Sollte die Differenz größer sein als ein bestimmter Schwellwert, wird der Vorgang bis zum Erfolg wiederholt. Der ganze Vorgang muss eben so schnell sein, dass kein Lag entsteht. Der Wert für das Backlight lässt sich einfach durch Testen ermitteln oder als Informationen vom Panelhersteller erhalten.

Das, was du hier erzählst, ist für Smartphones und Tablets nicht durchführbar und ein komplett anderes vorgehen.

Das stammt aus einer Arbeit von Leuten, die selbst ein Dynamic Backlight Scaling Algo geschrieben haben:
The overall goal of a DBS transformation is to dim the backlight while at the same time scaling the pixel transmittance in order to re-equilibrate the target pixel luminance.
http://www.google.de/url?sa=t&rct=j&q=dynamic%20backlight%20luminance%20scaling%20smartphone&source=web&cd=21&ved=0CB8QFjAAOBQ&url=http%3A%2F%2Famsdottorato.cib.unibo.it%2F3558%2F1%2Fbartolini_andrea_tesi.pd f&ei=C8zGTtqmFcjOswalrb2IBw&usg=AFQjCNFa2-y9kzF92pEi8A8MtERk_CPMZA&sig2=p1USmvZsg87OToCX4_0TDw&cad=rja - Seite 31.

Dural
2011-11-19, 09:47:38
Gegenüber verschiedenen Journalisten erklärte er, dass mit Tegra 3 ausgestattete Tablets dann auf etwa 299 US-Dollar fallen würden.

http://www.computerbase.de/news/2011-11/nvidia-chef-erwartet-deutlichen-preisverfall-bei-tablets/

Gipsel
2011-11-19, 14:12:25
Gipsel,
ich verstehe die Diskussion nicht.Da würde ich Dir zustimmen wollen.
Das bedeutet also schon, dass eine "contentrichtige" Kalibrierung sowieso nur schwer möglich ist.

nVidia wird nichts anderes machen als das aktuelle Frame mit dem aktuellen Hintergrundwert zu analysieren, den neuen Hintergrundlichtwert und den Colorboost berechnen, die Farben anheben, die Hintergrundbeleuchtung anpassen und dann einen Soll-Ist-Vergleich durchführen. Sollte die Differenz größer sein als ein bestimmter Schwellwert, wird der Vorgang bis zum Erfolg wiederholt.
Man wird zwar versuchen, daß nicht iterativ sondern in einem One-Pass-Verfahren hinzukriegen (vorhersagbarer Aufwand), aber von nichts anderem rede ich.

Übrigens ist das ganze Ziel der Analyse des Bildinhalts doch gerade, D"eine contentrichtige Kalibrierung" hinzukriegen, ansonsten bräuchte man ja wohl den Bildinhalt nicht analysieren, oder? ;)
Das, was du hier erzählst, ist für Smartphones und Tablets nicht durchführbar und ein komplett anderes vorgehen.Nein, es ist praktisch das gleiche Vorgehen, nur an einer m.M nach sinnvolleren Stelle lokalisiert.
Das stammt aus einer Arbeit von Leuten, die selbst ein Dynamic Backlight Scaling Algo geschrieben haben:

http://www.google.de/url?sa=t&rct=j&q=dynamic%20backlight%20luminance%20scaling%20smartphone&source=web&cd=21&ved=0CB8QFjAAOBQ&url=http%3A%2F%2Famsdottorato.cib.unibo.it%2F3558%2F1%2Fbartolini_andrea_tesi.pd f&ei=C8zGTtqmFcjOswalrb2IBw&usg=AFQjCNFa2-y9kzF92pEi8A8MtERk_CPMZA&sig2=p1USmvZsg87OToCX4_0TDw&cad=rja - Seite 31.Und?

Übrigens, wenn man das mal überfliegt, dann findet man z.B in Abschnitt 2.3 auch Aussagen über die zukünftige Entwicklung von Backlights bei TFTs. So wird gesagt, daß man zukünftig keine weißen LEDs als Backlight benutzen wird, sondern Kombination aus roten, grünen und blauen LEDs. Dies erhöht den Farbumfang des Displays und schafft weitere Stromparmöglichkeiten. Glaubst Du, eine im SoC integrierte Logik kommt mit solchen (oder aauch anderen, noch weitergehenden) Fortschritten klar? Hier also dem unabhängigen Dimmen der rot/grün/blau-Anteils des Backlights mitsamt der Anpassung der Farbwerte. Das geht ja in eine ähnliche Richtung wie mit den OLEDs.
Wie gesagt muß der benutzte Algo immer von den konkreten Paneleigenschaften abhängen. Deswegen würde ich den am besten auch dort integrieren (und der Panelcontroller übersetzt die ans Panel geschickten Farbwerte jetzt sowieso schon, wäre also nur eine Erweiterung), weil der eben zum Panel gehört und notgedrungen auf dieses optimiert ist.

LovesuckZ
2011-11-19, 15:47:52
:facepalm:

Mehr fällt mir nicht ein ohne mich wieder zu wiederholen. Les die Arbeit, dann wirst du verstehen, mit welchen Daten gearbeitet wird und wieso es egal, ob der SoC mit dem Image Processor oder ein dedizierter Image Processor es durchführt. Für mich ist hier EoD.

=Floi=
2011-11-19, 16:13:08
wie groß ist denn im mittel die einsparung? die gpu braucht dafür ja auch rechenleistung.
ich könnte mir vorstellen, dass diese technologie nur bei den menüs und dem GUI zum einsatz kommen wird.


ihr zwei solltet auch endlich heiraten.

Windi
2011-11-19, 17:45:48
Gegenüber verschiedenen Journalisten erklärte er, dass mit Tegra 3 ausgestattete Tablets dann auf etwa 299 US-Dollar fallen würden.

Und Recht hat er wahrscheinlich.
Den Leuten reicht die Leistung der aktuellen Top-Tablets halt.
Die Hersteller müssen bald anfangen über den Preis zu kämpfen.
Das Design, die Hardware und die Software sind halt bei allen Herstellern recht ähnlich. Es gibt kaum Unterscheidungsmöglichkeiten zwischen den einzelnen Herstellern. Das wird dann so enden wie bei den PCs, Notebooks und seid kurzem auch bei den Smartphones. Bei besonders guten und innovativen Geräten werden sie dann noch gutes Geld verlangen können. (Falls der Hersteller halt innovativ ist)
Für die Standard Tablets wird das aber wohl nicht gelten.
Tablets mit ARM-Prozessor, Android-Betriebssystem und brauchbaren Touchscreen wird es in Zukunft wie Sand am Meer geben.

Gipsel
2011-11-19, 20:15:28
wie groß ist denn im mittel die einsparung? die gpu braucht dafür ja auch rechenleistung.
ich könnte mir vorstellen, dass diese technologie nur bei den menüs und dem GUI zum einsatz kommen wird.
Du kannst wohl (je nachdem, wieviel Bildqualitätseinbußen Du zu akzeptieren bereit bist und wie der Bildschirminhalt gerade aussieht, ist also eine über den Daumen gepeilte Zahl) mal so eben 20% des Stromverbrauchs eines Tablets sparen (des gesamten Tablets, nicht des Panels, da ist es sogar mehr, die eigentliche Bildbearbeitung kostet nicht so viel Strom, wenn es durch spezialisierte Logik erledigt wird). Die Einsparung ist schon merklich.

Und das Ganze ist natürlich immer aktiv, auch wenn Du einen Film schaust oder ein Spiel spielst.

LovesuckZ
2011-11-20, 00:07:48
Und Recht hat er wahrscheinlich.


Ich finde es erstaunlich, wieviele Leute vergessen, dass der SoC gerademal 10-15% der Kosten ausmacht. Es ist also überhaupt kein Problem ein Tegra 3 mit z.B. $25 in ein $299 Tablet zu verbauen. Diese Aussage von Huang bezieht nicht darauf, dass Tablets in Zukunft alle bei $299 landen werden. Siehe doch auch heute, wo man Tegra 2 Tablets für 180€, 380€ oder 580€ bekommt.

YfOrU
2011-11-20, 04:31:31
Bezogen ist die Aussage aber trotzdem darauf das die heutigen 450 bis 550€ Android Tabletts in eben diesen Preisbereich von 300€ kommen müssen.

Dazu gibt es mittelfristig keine Alternative und Amazon hat den Anfang bereits gemacht. Mehr als diese 300€ wird auch die 10 Zoll Variante kaum kosten. Die große Konkurrenz ist damit nicht mehr Apple sondern kommt praktisch aus den eigenen Reihen.
Das hinter Android (mit Google) stehende Lizenzmodell kritisiere ich seit Ewigkeiten denn ohne eine Beteiligung der Produzenten an den Umsätzen ist es zum scheitern verurteilt. Neben Google selbst (über Motorola) ist es nur Amazon möglich Geräte anzubieten ohne dabei direkt Gewinne erwirtschaften zu müssen. Was das für einen Großteil der Hersteller bedeuten wird sollte klar sein - aussteigen oder primär auf eine andere (OS) Plattform mit akzeptablen Margen setzen.

Botcruscher
2011-11-20, 10:23:25
Als ob die armen Hersteller nicht auch mit der Hardware Geld verdienen könnten. :rolleyes:

YfOrU
2011-11-20, 16:36:12
Als ob die armen Hersteller nicht auch mit der Hardware Geld verdienen könnten. :rolleyes:

Solange die Gegebenheiten ähnlich sind wie im Bereich der Consumer PCs & Notebooks ist das bei entsprechenden Stückzahlen möglich. Trotzdem hat auch in diesem Markt eine umfangreiche Konsolidierung stattgefunden denn die Margen sind nun mal vergleichsweise gering.

Allerdings haben diese Hersteller alle ein gemeinsames, vitales Interesse: Kapital über den Verkauf der Hardware zu erwirtschaften und das diktiert schlussendlich auch den Verkaufspreis aller Anbieter.
Amazon, Google, Apple etc sind Content Provider. Die Hardware ist also Mittel zum Zweck und muss deshalb im Verkauf selbst keine Gewinne erwirtschaften.

Wie das Beispiel Amazon zeigt ist das keine Zukunftsvision sondern bereits heute Realität. Die Verkaufszahlen sprechen für sich und dabei gibt es aktuell gerade mal das 7 Zoll Modell ohne 3G. Mit der von Amazon angesetzten Preisstruktur kann kein Konkurrent vergleichbare, Android basierte Produkte wirtschaftlich anbieten. Genau so ist die durchgehende Begeisterung der Hersteller für Windows 8 zu verstehen ;)

Der Markt der Android Smartphones wird sich in nicht all zu ferner Zukunft ebenfalls in ähnliche Richtungen entwickeln.

LovesuckZ
2011-11-20, 20:48:31
So ein Quatsch. Solche Produkte werden nie "Standard" werden, weil sie vollkommen zugedongelt werden müssen. Denn der Verlust durch die Subvention muss über den Verkauf von Content reingeholt werden. Und Content wird es nur Online geben. Die Möglichkeiten Sachen auf dem Gerät lokal zu speichern, muss daher sehr eingeschränkt werden. Man spricht also in diesem Fall sowieso nur eine bestimmte Käuferschicht an.

Außerdem kann sich Amazon nicht erlauben ihren Content zu kapseln. Ich kann auch mit einem freien Transformer Prime mir Serien, Filme, Bücher etc. von Amazon kaufen/leihen.

Und hier Aussagen von Asus und Dell über den Digitimes-Bericht:

"As usual, the rumors and reports from Digitimes are incorrect," said Asus spokesman Gary Key. "Asus is not exiting the Android tablet business."

Likewise, a Dell spokesman said the company doesn't have any plans to exit the business either.
http://news.cnet.com/8301-1035_3-57327777-94/asus-dell-were-not-exiting-the-android-tablet-business/

Vorallem Asus ist sehr deutlich.

YfOrU
2011-11-20, 23:40:14
So ein Quatsch. Solche Produkte werden nie "Standard" werden, weil sie vollkommen zugedongelt werden müssen. Denn der Verlust durch die Subvention muss über den Verkauf von Content reingeholt werden. Und Content wird es nur Online geben. Die Möglichkeiten Sachen auf dem Gerät lokal zu speichern, muss daher sehr eingeschränkt werden. Man spricht also in diesem Fall sowieso nur eine bestimmte Käuferschicht an

Weder die Amazon Tabletts, noch die eBook Reader sind ernsthaft verdongelt und der interne Speicher ist auch für eigene Inhalte nutzbar. Die sind also offener als Apple Produkte und bei denen wird zwar ab und zu gemeckert, die Verkaufszahlen sprechen aber eine klare Sprache. Ein Hindernis ist es also nicht. Zu den Fakten:

You can transfer a variety of content types to your Kindle Fire via its micro-USB connector, including music, videos, photos, and documents. Please note that personal content transferred to your Kindle Fire is only stored on your device and not archived in the cloud
http://kindle.s3.amazonaws.com/Kindle_Fire_Users_Guide.pdf

Im übrigen sind die von Amazon pro Gerät getätigten Subventionen nicht der Rede Wert. Es sind heute vermutlich ein paar $ Verlust welcher über den Produktionszeitraum (Komponenten werden günstiger) gegen null tendiert. Was ist daran also Quatsch ? Es ist ein ernsthafter und für andere Marktteilnehmer brutaler Ansatz der Erfolg garantiert.



Außerdem kann sich Amazon nicht erlauben ihren Content zu kapseln. Ich kann auch mit einem freien Transformer Prime mir Serien, Filme, Bücher etc. von Amazon kaufen/leihen.

Natürlich kannst du das und es ist auch im Interesse von Amazon. Deren Fokus liegt rein auf dem maximalen Absatz von Inhalten welcher auf eigenen Geräten schlichtweg deutlich höher ist. Genau deshalb werden die Amazon Produkte nur unwesentlich oberhalb der Produktionskosten vertrieben.


Und hier Aussagen von Asus und Dell über den Digitimes-Bericht:

http://news.cnet.com/8301-1035_3-57327777-94/asus-dell-were-not-exiting-the-android-tablet-business/

Vorallem Asus ist sehr deutlich.

Aktuelles Beispiel, 7 Zoll IPS Panel, Dual A9

Amazon Fire 200$
Samsung Tab 7.0 Plus 399$

Der doppelte Preis für kaum mehr als zwei Kameras und 16 statt 8GB Flash ist nicht zu rechtfertigen. Da können die Marketingabteilungen der Hersteller erzählen was sie wollen, ohne eigenes Ökosystem im Umfang von Google, Amazon oder Apple kann auf dieser Ebene nichts entgegen gesetzt werden.

Hinzu kommt noch das sich bei den Preisen ganz andere Stückzahlen absetzen lassen was sich wieder direkt auf die Produktionskosten auswirkt. Dementsprechend werden wohl bereits 2012 (halbwegs frühe Verfügbarkeit eines 10 Zoll Modells vorausgesetzt) knapp die Hälfte aller Android Tabletts von Amazon kommen. Wer das für unrealistisch hält sollte sich die ersten Verkaufszahlen genau anschauen und im Hinterkopf behalten wie begehrt das HP Touchpad zum Ende seiner Laufbahn war - oder auch einfach die 3DC Umfrage welcher Betrag für ein Tablett angemessen ist ;)

Der Smartphone SoC von Nvidia der von dir als Low End Lösung behandelt wird ist in Wirklichkeit eine Notwendigkeit um sich breiter aufzustellen denn der Tablett Markt ist kurzlebig und heftigeren Schwankungen unterworfen. Mit Amazon werden die Karten neu gemischt und daher kommt auch das gestiegene Interesse an Microsoft basierten Produkten (auf der Seite der Hersteller). Den von Amazon beanspruchten Teil der Android Tabletts kann kein noch so großes Wachstum für die Konkurrenten kompensieren.

Hugo78
2011-11-21, 01:22:58
Nach dem "Edge" Smartphone, kommt mit dem "Quattro" ein T3 Tablet von HTC.
http://pocketnow.com/android/htc-quattro-quad-core-tablet-fully-revealed-image

LovesuckZ
2011-11-21, 13:00:09
Weder die Amazon Tabletts, noch die eBook Reader sind ernsthaft verdongelt und der interne Speicher ist auch für eigene Inhalte nutzbar. Die sind also offener als Apple Produkte und bei denen wird zwar ab und zu gemeckert, die Verkaufszahlen sprechen aber eine klare Sprache. Ein Hindernis ist es also nicht. Zu den Fakten:
http://kindle.s3.amazonaws.com/Kindle_Fire_Users_Guide.pdf

Es sind 6 GB für das Kindle Fire - kein MicroSD Slot, kein USB. Auch kein HDMI-Mini Anschluss. Kein Google-Market und der Fire Marktet bietet weniger Auswahl als der Amazon-Store. Ich las, dass Amazon den Opera Browser aus dem Fire Market entfernt hätte...


Im übrigen sind die von Amazon pro Gerät getätigten Subventionen nicht der Rede Wert. Es sind heute vermutlich ein paar $ Verlust welcher über den Produktionszeitraum (Komponenten werden günstiger) gegen null tendiert. Was ist daran also Quatsch ? Es ist ein ernsthafter und für andere Marktteilnehmer brutaler Ansatz der Erfolg garantiert.

Die Komponenten werden nicht billiger, da entweder alles schon kostengünstig gefertigt wird oder rar ist (LCD Display). Dazu kommen zusätzliche Kosten wie Marketing, kostenloser Versand, der kostenlose angebotene Content(!), Softwareentwicklung. All das muss sich über den Verkauf von zusätzlichem Content refinanzieren.

Firmen wie Asus wissen, dass sie mit jedem verkauften Gerät Gewinn machen. Sie müssen also nur die Geräte verkaufen. Sie müssen keine Millionen vorstrecken und hoffen, dass die Leute Content kaufen. Deswegen können sie an Apps auch alles anbieten sowie die Geräte vollkommen öffnen - Mehr Speicher, mehr Anschlüsse.

Amazon-Tablet konkurriert mit den billigen Chinesendinger und nicht mit Honeycomb-Geräte. Das sind zwei vollkommen unterschiedliche Geräteklassen. Ansonsten zeigt z.B. Engagdet.com sehr schön, dass die Leute für Qualität auch Geld ausgeben würden. Knapp 1800 Kommentare gab es für das Transformer Prime bei der Vorstellung. Hype sowie Interesse ist da; Premium eben.


Der Smartphone SoC von Nvidia der von dir als Low End Lösung behandelt wird ist in Wirklichkeit eine Notwendigkeit um sich breiter aufzustellen denn der Tablett Markt ist kurzlebig und heftigeren Schwankungen unterworfen. Mit Amazon werden die Karten neu gemischt und daher kommt auch das gestiegene Interesse an Microsoft basierten Produkten (auf der Seite der Hersteller). Den von Amazon beanspruchten Teil der Android Tabletts kann kein noch so großes Wachstum für die Konkurrenten kompensieren.

Ach Gottchen, wieder dabei vollkommen unsinnige Behauptungen aufzustellen? :freak:
Asus interessiert sich für Windows, weil man damit Geld verdienen kann. Deswegen bieten sie auch heute schon ein Win7 Tablet an. Asus wird auch Android nicht verlassen, weil man hier mit den Geräten Geld verdient.
Ob Amazon in Zukunft weiter Android verwenden wird, ist dagegen fragwürdig. Es kann genau sein, dass sie in ein anderes OS investieren, weil sie eben keinen Personal Computer anbieten wollen.
Deine Aussagen sind einfach fernab der Realität. Würden sie stimmen, könnte auch Apple dicht machen. Oder wieso sollte sich jemand ein iPad kaufen, wenn er für $300 weniger ein Kindle Fire erhält? :rolleyes:

YfOrU
2011-11-21, 14:19:16
Es sind 6 GB für das Kindle Fire - kein MicroSD Slot, kein USB. Auch kein HDMI-Mini Anschluss. Kein Google-Market und der Fire Marktet bietet weniger Auswahl als der Amazon-Store. Ich las, dass Amazon den Opera Browser aus dem Fire Market entfernt hätte...

Dafür steht auf dem Preisschild auch 199$. Und nur mal nebenbei: Das B&N Tablet mit 16GB und SD liegt bei 249$. Übrigens auch mit IPS und Dual A9 - ist ansonsten sehr ähnlich aufgestellt auch wenn es in Europa kaum Relevanz hat.



Die Komponenten werden nicht billiger, da entweder alles schon kostengünstig gefertigt wird oder rar ist (LCD Display).

Komponenten und Produktion werden über die Zeit und mit steigenden Stückzahlen im EK immer günstiger. Das ist schlicht Marktwirtschaft.


Dazu kommen zusätzliche Kosten wie Marketing, kostenloser Versand, der kostenlose angebotene Content(!), Softwareentwicklung. All das muss sich über den Verkauf von zusätzlichem Content refinanzieren.

Amazon verkauft etwas mehr als nur digitalen Content. Es ist eins der erfolgreichsten Logistik Unternehmen überhaupt. Das Tablet ist die Verlängerung des gesamten Shop Systems. Die haben unter anderen auch meine Waschmaschine geliefert ;)


Firmen wie Asus wissen, dass sie mit jedem verkauften Gerät Gewinn machen. Sie müssen also nur die Geräte verkaufen. Sie müssen keine Millionen vorstrecken und hoffen, dass die Leute Content kaufen. Deswegen können sie an Apps auch alles anbieten sowie die Geräte vollkommen öffnen - Mehr Speicher, mehr Anschlüsse.

Der Satz müsste lauten:
Firmen wie Asus wissen, dass sie mit jedem verkauften Gerät Gewinn machen müssen.

Mehr Anschlüsse haben den Android Tabletts bisher wenig Erfolg beschert.


Amazon-Tablet konkurriert mit den billigen Chinesendinger und nicht mit Honeycomb-Geräte. Das sind zwei vollkommen unterschiedliche Geräteklassen.

Die billigen China Tabs haben TN Panels und meist lahme SoCs. Amazon und B&N liefern Produkte mit IPS und Omap4.


Ansonsten zeigt z.B. Engagdet.com sehr schön, dass die Leute für Qualität auch Geld ausgeben würden. Knapp 1800 Kommentare gab es für das Transformer Prime bei der Vorstellung. Hype sowie Interesse ist da; Premium eben.

Also anhand von Kommentaren den Produkterfolg festzumachen ist sehr optimistisch. In Zahlen: Kindle Fire über 250k in der ersten Woche. Das vollkommen überhypte Motorola Xoom hat dafür vier Wochen benötigt.


Asus interessiert sich für Windows, weil man damit Geld verdienen kann.

Richtig denn die Luft bei den Android basierten Produkten wird durch den Einstieg von Amazon recht dünn. Die Preise müssen mehr als 100$ runter um halbwegs attraktiv zu bleiben. Aber selbst dann erzielt man keine Absatzrekorde.


Ob Amazon in Zukunft weiter Android verwenden wird, ist dagegen fragwürdig. Es kann genau sein, dass sie in ein anderes OS investieren, weil sie eben keinen Personal Computer anbieten wollen.

Amazon liefert ein auf den Konsum von Inhalten ausgerichtetes Tab und der Grund dafür ist das die Kunden primär genau das haben wollen.


Deine Aussagen sind einfach fernab der Realität. Würden sie stimmen, könnte auch Apple dicht machen. Oder wieso sollte sich jemand ein iPad kaufen, wenn er für $300 weniger ein Kindle Fire erhält? :rolleyes:

Das die Kunden bereit sind tendenziell für ein Apple Produkt erheblich mehr Geld auszugeben ist ein Faktum. Auf Android trifft das nicht zu denn ansonsten hätte bei den Tabs längst eine starke Verschiebung der Marktanteile eingesetzt. Auch die MacBooks spielen was den Preis betrifft in der oberen Liga und verkaufen sich trotzdem sehr gut.

Damit bin ich alles andere als fernab der Realität. Es gibt nun mal einen Premium Sektor und in dem ist Apple extrem erfolgreich. Genau das kann von Herstellern wie Samsung oder Asus nun wirklich nicht behauptet werden. Natürlich wird sich aber auch Apple beim Einstiegsmodell nach unten orientieren müssen. Allerdings nie so weit wie die Anbieter von Android Produkten. Beim erscheinen des Nachfolgers wird es das kleine iPad 2 Wifi für 300 bis 350$ geben und die Sache ist gegessen.
Apple ist dazu ein Content Provider mit derart hohen Stückzahlen, da müsste im direkten Vergleich wenn dann Amazon zu machen ;)
Das Thema Apple solltest du besser gleich wieder streichen denn das ist ein Markt der vergleichsweise unabhängig ist. Um es auf den Punkt zu bringen:
Apple kann die Geräte zum Selbstkostenpreis verkaufen, muss es aber nicht. Amazon kann und macht es. Alle anderen abseits von Google selbst können es nicht, müssen aber mit Produkten auf diesem Preisniveau konkurrieren. Damit ist die Bewertung der Marktsituation für alle Teilnehmer derart einfach das es dazu recht wenig zu diskutieren gibt.

LovesuckZ
2011-11-21, 15:31:38
Komponenten und Produktion werden über die Zeit und mit steigenden Stückzahlen im EK immer günstiger. Das ist schlicht Marktwirtschaft.

Ja, vielleicht in der ehemaligen DDR. :freak:
Komponenten werden aufgrund veränderter Rahmenbedingungen billiger. Aber nicht, weil man über die Zeit einkauft. Lieferverträge sind langfristig und haben einen bestimmten Wert.


Amazon verkauft etwas mehr als nur digitalen Content. Es ist eins der erfolgreichsten Logistik Unternehmen überhaupt. Das Tablet ist die Verlängerung des gesamten Shop Systems. Die haben unter anderen auch meine Waschmaschine geliefert ;)

Und Amazon liefert auch andere Tablets aus. Keine Ahnung, was das mit dem Kindle Fire zu tun haben soll, aber es muss ja nicht alles ein Sinn ergeben. Das Kindle Fire macht in der jetzigen Form nur Sinn, wenn man auch den Content von Amazon will. Ansonsten sind die Beschränkungen sehr weitreichend. Und Root ist erstmal für das Geschäftsmodell von Amazon nicht von relevanz.


Der Satz müsste lauten:
Firmen wie Asus wissen, dass sie mit jedem verkauften Gerät Gewinn machen müssen.

Und Amazon muss nicht nur mit dem Content gewinn machen, nein, sie müssen mit dem Content auch erstmal die Herstellungskosten sowie indirekte Kosten decken. Asus hat also im allgemeinen das weitaus besseres Geschäftsmodell.


Mehr Anschlüsse haben den Android Tabletts bisher wenig Erfolg beschert.

Stimmt. Wer würde auch schon ein Android-Tablet mit Anschlüssen kaufen, wenn neben das selbe Gerät ohne rumsteht. Habe ich vergessen, mein Fehler.


Also anhand von Kommentaren den Produkterfolg festzumachen ist sehr optimistisch. In Zahlen: Kindle Fire über 250k in der ersten Woche. Das vollkommen überhypte Motorola Xoom hat dafür vier Wochen benötigt.

Das "vollkommen überhypte Xoom" hat auch 3,5x soviel gekostet.
Asus shippt und verkauft knapp 100k Transformer pro Woche. Bei einem Gewinn von $100 sind das $10 Millionen sowie der Gewinn aus dem Tastatur-Dock. Bei einer Rate von 20% und einem Gewinn von $50 pro Dock macht das nochmal zusätzlich $1 Millionen, also alleine pro Woche $11 Millionen Gewinn für Asus. Das billigere Geräte sind meistens öfters verkaufen, ist auch keine Überraschung. Nur heißt es noch lange nicht, dass dies für den Verkäufer auch lohnend ist. Und Asus hat sich klar dazugeäußert, dass sie Premium-Tablets als lohnend ansehen.


Richtig denn die Luft bei den Android basierten Produkten wird durch den Einstieg von Amazon recht dünn. Die Preise müssen mehr als 100$ runter um halbwegs attraktiv zu bleiben.

Tja und Asus hat das Prime gleichmal $100 teurer für den Einstieg gemacht und es wurde Asus nichtmal negativ ausgelegt, da die Leute anscheinend das Gefühl haben, sie erhalten Qualität und Mehrwert für den Preis.
Vielleicht hat Amazon auch nur das Gefühl, dass ein Kindle Fire deswegen so billig verkauft werden muss, weil niemand wirklich sich zudongeln lassen will? ;)


Das die Kunden bereit sind tendenziell für ein Apple Produkt erheblich mehr Geld auszugeben ist ein Faktum. Auf Android trifft das nicht zu denn ansonsten hätte bei den Tabs längst eine Verschiebung der Marktanteile eingesetzt. Auch die MacBooks spielen was den Preis betrifft in der oberen Liga und verkaufen sich trotzdem sehr gut.

Soetwas nennt man Mindshare und aggressives Marketing. Vorallem Mindshare hat sich Apple verdient. Der Android-Tablet-Markt muss dagegen erstmal annährend soetwas aufbauen. Und Asus ist fast die einzige firma, die sich klar zum Android-Tablet-Markt erklärt hat. Ihre Update-Politik ist hervorragend, sie bieten 24 Monate Garantie und sind sehr schnell dabei Hardwareprobleme zu beheben. Deswegen freuen sich die Leute auch so dermaßen auf das Prime, weil Asus in den letzten 6 Monaten gezeigt hat, dass sie mit Apple mithalten können. Mindshare eben.


Damit bin ich alles andere als fernab der Realität. Es gibt nun mal einen Premium Sektor und in dem ist Apple extrem erfolgreich. Genau das kann von Herstellern wie Samsung oder Asus nun wirklich nicht behauptet werden. Natürlich wird sich aber auch Apple beim Einstiegsmodell nach unten orientieren müssen. Allerdings nie so weit wie die Anbieter von Android Produkten. Beim erscheinen des Nachfolgers wird es das kleine iPad 2 Wifi für 300 bis 350€ geben und die Sache ist gegessen.

So, wieso ist Asus mit ihren Tablets nicht erfolgreich? Der Anteil am Umsatz wird ca. 8-10% in Q4 ausmachen. Davon kommen ca. 85% vom Transformer, 10% vom Slider und irgendwas um 5% vom Win7 Tablet.
Das Prime wird ein Premium Produkt, das direkt gegen Apple geht. Auch wenn man mit 32gb mehr Speicher bietet, ist es der Einstiegspunkt in Amerika von $499, der zeigt, dass Asus sehr vom Produkt überzeugt ist. Sie müssen also keine Preise senken, denn sie erreichen ihre eigenen Ziele. Das scheinen aber Leute wie du nicht zu begreifen: Asus ist nicht abhängig vom Tablet-Markt. Sie müssen also nicht Unmengen von Geräten verkaufen. Langsames Wachstum und sich eine Marktposition erarbeiten, die weiteres Wachstum ermöglicht. Und im Gegensatz zu Motorola ist dies ihnen geglückt.



Apple ist dazu ein Content Provider mit derart hohen Stückzahlen, da müsste im direkten Vergleich wenn dann Amazon zu machen ;)

Macht null sinn. Entweder DRM und verdongelter Content ist wichtig, dann ist das Tablet nur Mittel zum Zweck oder die Leute wollen "freien" Content genießen und kaufen sich dafür das für sie bestens geeignete Gerät. Daher ist deine Meinung auch realitätsfern, weil beim ersten auch Apple dichtmachen kann, da niemand sich mehr ein iPad kaufen würde. Wozu auch, wenn man Content mit einem $300 billigeren Gerät genauso konsumieren könnte? Vorallem in Zusammenhang mit dem

Dafür steht auf dem Preisschild auch 199$. Und nur mal nebenbei: Das B&N Tablet mit 16GB und SD liegt bei 249$. Übrigens auch mit IPS und Dual A9 - ist ansonsten sehr ähnlich aufgestellt auch wenn es in Europa kaum Relevanz hat.

solltest du anfangen mal realistische Aussagen zu treffen.


Das Thema Apple solltest du besser gleich wieder streichen denn das ist ein Markt der vergleichsweise unabhängig ist. Um es auf den Punkt zu bringen:
Apple kann die Geräte zum Selbstkostenpreis verkaufen, muss es aber nicht. Amazon kann und macht es. Alle anderen abseits von Google selbst können es nicht, müssen aber mit Produkten auf diesem Preisniveau konkurrieren. Damit ist die Bewertung der Marktsituation für alle Teilnehmer derart einfach das es dazu recht wenig zu diskutieren gibt.

Oh Gott, dass tut jetzt schon richtig weh. Das Amazon ihren Kindle Fire so billig verkaufen muss, liegt einfach daran, dass deren Content einen "geringeren" Wert besitzt als der Content von Apple angeboten über iTunes. Wieso sonst sollte eine Firma subventionierte Hardware verkaufen, wenn eine andere Firma mit dem selben Konzept eine unglaubliche Menge an Geld verdient? Apple kann es sich eben nicht leisten ihre Geräte zum Selbstkostenpreis zu verkaufen, weil der meiste Umsatz und Gewinn mit den Geräten und nicht dem iTunes-Content gemacht wird (iTunes beträgt glaube ich <10% vom Umsatz).

Und das führt uns wiederrum dazu, dass nur die Leute sich den Beschränkungen vom Fire aussetzen, die entweder wissen, wie man rootet oder die nur den Amazon-Content wollen, aber nicht viel Geld ausgeben wollen. Alle anderen werden sich ein "freies" Android-Tablet kaufen und dann sich aus vielen, verschiedenen Quellen den Content besorgen.

YfOrU
2011-11-21, 17:59:22
Komponenten werden aufgrund veränderter Rahmenbedingungen billiger. Aber nicht, weil man über die Zeit einkauft. Lieferverträge sind langfristig und haben einen bestimmten Wert.

Lieferverträge von unendlicher Dauer über unendliche Stückzahlen ;) Entweder festes Volumen und Neuverhandlung oder Staffelung für erreichte Abnahmeziele.


Und Amazon liefert auch andere Tablets aus. Keine Ahnung, was das mit dem Kindle Fire zu tun haben soll, aber es muss ja nicht alles ein Sinn ergeben.

Genau hier hast du das Konzept von Amazon vermutlich nicht ganz überrissen. Das Fire ist das Endgerät des Amazon Shops und zwar gleichgültig ob die Produkte digital oder materiell sind.


Das Kindle Fire macht in der jetzigen Form nur Sinn, wenn man auch den Content von Amazon will. Ansonsten sind die Beschränkungen sehr weitreichend. Und Root ist erstmal für das Geschäftsmodell von Amazon nicht von Relevanz.

Warum sind die Beschränkungen weitreichend ? Kamera, HDMI, Speicherplatz sind für die meisten Nutzer bezogen auf die eigentliche Tabletfunktion keine KO Argumente. Eigene Inhalte lassen sich per USB aufspielen.

Ja, das Angebot an Apps ist momentan geringer aber wenn man darauf wirklich angewiesen ist führt an iOS nur selten ein Weg vorbei.
Das Fire hat keinen gelockten Bootloader, Root gibt es und eher früher als später wird es auch Custom Roms geben. Für Amazon spielt das keine Rolle denn die Personen stellen schon immer eine Minderheit da. Der Begriff verdongelt ist in Bezug auf das Fire deplatziert denn APKs lassen sich ebenfalls einspielen.


Und Amazon muss nicht nur mit dem Content gewinn machen, nein, sie müssen mit dem Content auch erstmal die Herstellungskosten sowie indirekte Kosten decken.

Siehst du, auch hier ist dein Fehler wieder offensichtlich denn Amazon verkauft deutlich mehr handfeste Waren als digitale Inhalte. Das Fire ist eine Schnittstelle zum gesamten Angebot.


Asus hat also im allgemeinen das weitaus besseres Geschäftsmodell.

Asus verkauft ein Produkt mit dem Gewinn erwirtschaftet werden muss. Amazon gibt einen elektronischen Katalog mit Bestellsystem in Form von Hardware zum Selbstkostenpreis ab.

Vielleicht sind dir die alten Quelle Kataloge für 10 DM noch bekannt - nichts anderes macht Amazon nur subtiler und besser. Der Kunde erhält so im Gegenzug ein sehr günstiges Tablet. Was man hier macht ist eine sehr effektive Form der Kundenbindung an das eigene Shopsystem denn ein nicht unwesentlicher Teil der Menschheit ist prinzipiell faul. Ein paar Klicks auf dem Tab und schon kommt die Waschmaschine - darauf wollte ich hinaus.


Stimmt. Wer würde auch schon ein Android-Tablet mit Anschlüssen kaufen, wenn neben das selbe Gerät ohne rumsteht. Habe ich vergessen, mein Fehler.

Wenn zum gleichen Preis daneben ein iOS Produkt steht sieht es in mindestens 2/3 der Fällen schlecht für das Android Produkt aus. Stehen zwei Android Produkte nebeneinander und eins kostet nur die Hälfte wird die Entscheidung ähnlich ausfallen - zu Gunsten des günstigeren Gerätes. Vorausgesetzt natürlich beide haben ein ordentliches Display und die Performance ist ähnlich. Deshalb auch mein Verweis zu IPS und Dual A9.


Das "vollkommen überhypte Xoom" hat auch 3,5x soviel gekostet.

Ähnlich wie das iPad aber das Thema hatten wir schon.


Asus shippt und verkauft knapp 100k Transformer pro Woche. Bei einem Gewinn von $100 sind das $10 Millionen sowie der Gewinn aus dem Tastatur-Dock. Bei einer Rate von 20% und einem Gewinn von $50 pro Dock macht das nochmal zusätzlich $1 Millionen, also alleine pro Woche $11 Millionen Gewinn für Asus. Das billigere Geräte sind meistens öfters verkaufen, ist auch keine Überraschung. Nur heißt es noch lange nicht, dass dies für den Verkäufer auch lohnend ist. Und Asus hat sich klar dazugeäußert, dass sie Premium-Tablets als lohnend ansehen.

Unter der Voraussetzung das man langfristig Erfolg hat. Ich stimm dir durchaus zu das Asus respektable und durchdachte Produkte auf den Markt bringt und im Gegensatz zur Masse auch ordentlichen Support liefert. Trotzdem hat man in diesem Segment mit Android einen schweren Stand denn was in dieser Betrachtung nicht mit einkalkuliert ist:
Bisher war die Preisdifferenz zwischen brauchbaren und günstigen Android Tabs zu Premium Android Produkten sehr klein. Je größer der Abstand desto mehr Kunden werden sich für eine günstigere Variante entscheiden.

Da wären wir wieder bei der Nachfrage und die tendiert gerade bei Android zu deutlich niedrigeren Preisen.

LovesuckZ
2011-11-21, 18:22:06
Lieferverträge von unendlicher Dauer über unendliche Stückzahlen ;) Entweder festes Volumen und Neuverhandlung oder Staffelung für erreichte Abnahmeziele.

Tja und Displayhersteller können sich heute ihre Partner auszusuchen. Das kann also dazu führen, dass bei der nächsten Verhandlungsrunde plötzliche das Display teurer wird. Hm.


Genau hier hast du das Konzept von Amazon vermutlich nicht ganz überrissen. Das Fire ist das Endgerät des Amazon Shops und zwar gleichgültig ob die Produkte digital oder materiell sind.


Amazon bietet ihren Content auch für andere Plattformen an. Welchen Sinn macht es also ein Stück Hardware auf den Markt zubringen, dass man subventionieren muss? Warte, keinen. Da stellt sich mir dann die Frage, welchen Wert hat Amazons Content überhaupt...


Warum sind die Beschränkungen weitreichend ? Kamera, HDMI, Speicherplatz sind für die meisten Nutzer bezogen auf die eigentliche Tabletfunktion keine KO Argumente. Eigene Inhalte lassen sich per USB aufspielen.

Ach und dies hast du per Selbstuntersuchung herausgefunden? Natürlich sind das Funktionen eines Tablets, die Sinn ergeben und die auch den Wert eines Gerätes beschreiben.


Siehst du, auch hier ist dein Fehler wieder offensichtlich denn Amazon verkauft deutlich mehr handfeste Waren als digitale Inhalte. Das Fire ist eine Schnittstelle zum gesamten Angebot.

Hä? Was interessiert uns Amazon's Warengeschäft in der Diskussion um's Kindle Fire?


Asus verkauft ein Produkt mit dem Gewinn erwirtschaftet werden muss. Amazon gibt einen elektronischen Katalog mit Bestellsystem in Form von Hardware zum Selbstkostenpreis ab.

Vielleicht sind dir die alten Quelle Kataloge für 10 DM noch bekannt - nichts anderes macht Amazon nur subtiler und besser. Der Kunde erhält so im Gegenzug ein sehr günstiges Tablet. Was man hier macht ist eine sehr effektive Form der Kundenbindung an das eigene Shopsystem denn ein nicht unwesentlicher Teil der Menschheit ist prinzipiell faul. Ein paar Klicks auf dem Tab und schon kommt die Waschmaschine - darauf wollte ich hinaus.

Die ist schon klar, dass das Kataloggeschäft ausgestorben ist? Im Zeiten vom Internet macht es nämlich null Sinn Werbungskosten in Kataloge zu investieren. Amazon bieten ihren Content für jeden auf jeder Plattform an. Ich muss also nicht mir erst einen teuren und beschränkten Tablet-Kataloge kaufen, sondern benutze einfach die angebotenen Apps und den Internetauftritt auf dem teurem, aber deutlich besserem Konkurrenzprodukt.


Wenn zum gleichen Preis daneben ein iOS Produkt steht sieht es in mindestens 2/3 der Fällen schlecht für das Android Produkt aus. Stehen zwei Android Produkte nebeneinander und eins kostet nur die Hälfte wird die Entscheidung ähnlich ausfallen - zu Gunsten des günstigeren Gerätes. Vorausgesetzt natürlich beide haben ein ordentliches Display und die Performance ist ähnlich. Deshalb auch mein Verweis zu IPS und Dual A9.

Nö, nur wenn beide "identisch". Das ist mitnichten in diesem Fall gegeben.


Unter der Voraussetzung das man langfristig Erfolg hat. Ich stimm dir durchaus zu das Asus respektable und durchdachte Produkte auf den Markt bringt und im Gegensatz zur Masse auch ordentlichen Support liefert. Trotzdem hat man in diesem Segment mit Android einen schweren Stand denn was in dieser Betrachtung nicht mit einkalkuliert ist:
Bisher war die Preisdifferenz zwischen brauchbaren und günstigen Android Tabs zu Premium Android Produkten sehr klein. Je größer der Abstand desto mehr Kunden werden sich für eine günstigere Variante entscheiden.

Du hast immer noch nicht den Markt verstanden, oder? Das Kindle Fire ist ein Produkt, dass deutliche Schwächen hat: Sei es Betriebssystem, Speicherausstattung, Display (nur 7", nichtmal HD), Marketbeschränkung, Anschlussausstattung, sonstige Ausstattung, zur Zeit fehlende Optionen etc.
Nur weil es günstig ist, heißt es nicht, dass es besser wäre oder einen Einfluss auf die generelle Android-Welt hat. Aber das ist etwas, wie beim diskreten GPU-Markt: Manche verstehen nicht die Komplexität des Marktes und denken "Hey, weil jetzt meine CPU so'ne GPU hat, verschwindet erstmal 90% des diskreten GPU Marktes". Das selbe passiert auch hier.


Da wären wir wieder bei der Nachfrage und die tendiert gerade bei Android zu deutlich niedrigeren Preisen.

Das ist leider falsch. Wie man am Prime sehen kann, ist Preis immer eine Sache von Mindshare.

YfOrU
2011-11-21, 20:45:28
Tja und Displayhersteller können sich heute ihre Partner auszusuchen. Das kann also dazu führen, dass bei der nächsten Verhandlungsrunde plötzliche das Display teurer wird. Hm.

Das ist eine überzogene Momentaufnahme denn den Panel Herstellern geht es in der Realität eher mies. Deshalb werden zur Zeit Kapazitäten verlagert -> Fernseher zu Smartphones und Tabletts. Die Preise werden also auch hier mittelfristig abnehmen.


Amazon bietet ihren Content auch für andere Plattformen an. Welchen Sinn macht es also ein Stück Hardware auf den Markt zubringen, dass man subventionieren muss? Warte, keinen. Da stellt sich mir dann die Frage, welchen Wert hat Amazons Content überhaupt...

Wie hoch sind die Umsätze von HTC etc. mit ihren eigenen Implementierungen welche neben dem Google Market existieren ? Den großen Teil vom Kuchen bekommen nur die Anbieter mit eigenem Ökosystem und Hardware.

Wenn du dich ein bisschen ernsthaft mit Amazon beschäftigst wird dir auffallen das Amazon im Bereich der digitale Medien schon lange besser aufgestellt ist als Google. Nach Apple und Amazon kommt genau genommen ganz lange nichts.


Hä? Was interessiert uns Amazon's Warengeschäft in der Diskussion um's Kindle Fire?

Das Warengeschäft ist genauso ein Bestandteil des Fire Konzeptes wie die digitalen Inhalte.


Die ist schon klar, dass das Kataloggeschäft ausgestorben ist? Im Zeiten vom Internet macht es nämlich null Sinn Werbungskosten in Kataloge zu investieren.

Der Kunde kauft ein Tablet. Amazon verkauft einen interaktiven Katalog des gesamten Warenbestandes.

Beide sind glücklich.

Du hast keinen Blick für die Genialität des Konzepts und warst wohl nie im eCommerce tätig. Neben der Problematik Einkäufe zu erfolgreichen Abschlüssen zu bringen (Warenkorb -> Checkout) ist ein praktisch noch größeres Problem die Kundenbindung. Genau das lässt sich in dem Maße nur über Hardware realisieren.


Amazon bieten ihren Content für jeden auf jeder Plattform an. Ich muss also nicht mir erst einen teuren und beschränkten Tablet-Kataloge kaufen, sondern benutze einfach die angebotenen Apps und den Internetauftritt auf dem teurem, aber deutlich besserem Konkurrenzprodukt.

Wenn 199$ für ein Produkt mit einem Großteil der Funktionen eines 400$ Produktes für dich teuer ist lass ich dir deine Meinung gerne denn ich weiß das du damit ziemlich alleine bist.

Es stehen im übrigen in Zukunft noch größere Tab Varianten an und der nächste, logische Schritt sind Smartphones. Der Bezug zu Nvidia ist übrigens direkt vorhanden. Huang fordert seit geraumer Zeit niedrigere Preise für Tablets. Genau das tritt jetzt ein, allerdings nicht so wie gewünscht.
http://www.digitimes.com/news/a20111121pd200.html

Während die Konkurrenz in vielen Fällen auf Halde produziert und die Lager entsprechend voll sind kann Amazon die Nachfrage kaum abdecken:
http://www.digitimes.com/news/a20111109PD212.html

Abhängig von der Analyse liegt der Preis der Fire Komponenten im übrigen bei 185 respektive 143$. Wenn man hier die Mitte nimmt ergibt das pro Gerät höchstens Subventionen die im einstelligen Dollar Bereich liegen - eher keine denn selbst das Playbook liegt etwas unter 200$.

Dural
2011-11-22, 17:06:01
... Ich gehe sogar so weit und behaupte das man als PC Hersteller DUMM wäre jetzt aus dem Tablet Markt auszusteigen! ...



sehen die Hersteller derzeit wohl ähnlich ;)

„Wie gewöhnlich sind die Gerüchte und Berichte von DigiTimes nicht korrekt. Asus gibt das Geschäft mit Android-Tablets nicht auf.“,


Inzwischen hat auch Acer Deutschland die Gerüchte dementiert. In einem Telefonat betonte man, dass man sich nicht aus dem Tablet-Geschöft zurückziehen werde. Neue Geräte könne man zum derzeitigen Zeitpunkt aber nicht offiziell ankündigen.


http://www.computerbase.de/news/2011-11/tablet-hersteller-widersprechen-ausstiegsgeruechten/

LovesuckZ
2011-11-22, 17:26:34
ICS läuft 2 Tage nach der Veröffentlichung des Source Codes auf dem Prime - soviel zur Referenzplattform: http://blogs.nvidia.com/2011/11/tegra-3-powers-%E2%80%98ice-cream-sandwich%E2%80%99-on-asus-transformer-prime/

Ailuros
2011-12-01, 16:56:12
http://www.anandtech.com/show/5163/asus-eee-pad-transformer-prime-nvidia-tegra-3-review

Anandtech's Asus Eee Pad Transformer Prime review.

Dural
2011-12-01, 17:14:41
ist es überhaupt realistisch das ein SGX 543MP2 4x schneller ist als ein SGX 540? Oder kommt da iOS noch zu gute?

LovesuckZ
2011-12-01, 17:15:27
Die Basemark-Ergebnisse zeigen die deutlich gesteigerte Rechenleistung. Die Texturleistung ist beim GLBenchmark auch 3x höher.
Je rechenaufwendiger Spiele werden, umso stärker wird Tegra 3. Da limitiert dann auch das Speicherinterface nicht mehr.

Ailuros
2011-12-01, 17:39:56
ist es überhaupt realistisch das ein SGX 543MP2 4x schneller ist als ein SGX 540? Oder kommt da iOS noch zu gute?

Das Amazon Kindle Fire ist auch nicht das beste Beispiel. Das Google Galaxy Nexus liefert 29.3 fps (SGX540@304MHz, 2*A9@1.2GHz) bei offscreen 720p, welches auch normal ist im Vergleich zu den 17,5 fps im Galaxy Nexus S (SGX540@200MHz, A8@1GHz). Im Fall vom Nexus Prime ist das SGX543MP2 um 3x Mal schneller welches ziemlich normal klingt, da jeder 543 core clock for clock um 50% schneller ist als ein 540. Schaetzungsweise ~20% Zusatz dank iOs duerfte aber schon drinstecken, da der MP2 auf nur 250MHz taktet.

Tiamat
2011-12-01, 17:50:00
Ok sieht aber ehrlich gesagt nicht so berauschend aus.

Im Linpack ist das Ipad2 um einiges schneller, bei anderen kann sich Tegra 3 nicht so richtig absetzen.
Bei GLBenchmarks steht noch dabei : Tegra(2,3) benutzt fp16, während der sgx fp24 verwendet =)
Also wo ist da eigentlich die Handbremse ?

LovesuckZ
2011-12-01, 17:53:07
Ok sieht aber ehrlich gesagt nicht so berauschend aus.

Im Linpack ist das Ipad2 um einiges schneller, bei anderen kann sich Tegra 3 nicht so richtig absetzen.

Das ist Linpack für Android. Unter iOS wird NEON verwendet.
Bei den anderen Test kommt es auf Software (Javascript etc.) und Single- bis DualThread-Leistung an.

Das schreibt PCMAG.com über den Leistungsunterschied in der Photoshop Touch App Android zwischen Tegra 2 und Tegra 3:

Adobe's new PS Touch - an Android version of Photoshop - is another great example (and a potential killer app.) PS Touch lets you do very powerful, complex, multilayered transformations on images. Combine it with Autodesk's Sketchbook Pro, and you have a terrific tablet for artists. The quad-core processor greatly speeds up PS Touch: a filter that makes a photo look like an acrylic painting took 1.4 seconds as opposed to 5.3 on the dual-core Samsung Galaxy Tab 10.1.
http://www.pcmag.com/article2/0,2817,2397083,00.asp


Bei GLBenchmarks steht noch dabei : Tegra(2,3) benutzt fp16, während der sgx fp24 verwendet =)
Also wo ist da eigentlich die Handbremse ?

Die ULP Geforce unterstützt FP20 in den Pixelshadern und ich glaube FP32 im Vertexshader.

Hugo78
2011-12-01, 17:54:41
@Taimat
Apple kann ebend deutlich besser ihre Software auf HW optimieren.
Kommt ebend alles aus einer Hand.

Btw... wer ist jetzt eigentlich Ref.Plattform für ICS?

LovesuckZ
2011-12-01, 17:57:05
Für Smartphone ist es Samsung mit OMAP, laut Anandtech.com ist es das Prime mit Tegra 3 für Tablets.

Ailuros
2011-12-01, 18:26:01
Ok sieht aber ehrlich gesagt nicht so berauschend aus.

Im Linpack ist das Ipad2 um einiges schneller, bei anderen kann sich Tegra 3 nicht so richtig absetzen.
Bei GLBenchmarks steht noch dabei : Tegra(2,3) benutzt fp16, während der sgx fp24 verwendet =)
Also wo ist da eigentlich die Handbremse ?

Nicht GLBenchmark sondern Basemark ES2.0:

Note that the BaseMark ES2.0 tests run at FP16 on Tegra 2 and 3 vs. FP24 on the PowerVR SGX 543MP2

Wie LZ schon sagte in der ULP GeForce sind die PS ALUs FP20 (80bits RGBA) und die VS ALU bei FP32. Ich bezweifle dass generell USC ALUs eine Leistungssteigerung sehen wuerden mit FP16 (theoretisch). Ob es jetzt beim output einen Unterschied macht keine Ahnung; ich wuerde aber denken dass FP16 nur auf pixel shader begrenzt ist im benchmark, denn bei vertex shading durchgehend FP16 zu benutzen waere eine ziemlich schlechte Idee.

Xmas
2011-12-02, 15:02:38
Das Problem ist eher die Limitierung auf 16-Bit Z-Buffer-Präzision. Was man in diesen Tests (sowohl Basemark als auch GLBenchmark) übrigens deutlich sehen kann.

Ailuros
2011-12-02, 15:08:22
Das Problem ist eher die Limitierung auf 16-Bit Z-Buffer-Präzision. Was man in diesen Tests (sowohl Basemark als auch GLBenchmark) übrigens deutlich sehen kann.

z-aliasing?

----------------------------------------------------------------------

http://forum.beyond3d.com/showpost.php?p=1602943&postcount=447

Correct: peak 3D clock in T30 is 520 MHz, whereas peak in AP30 is 416 MHz.

Ergo smart-phone Tegra3 (AP30) wird fuer die GPU um 20% langsamer sein als die tablet Varianten (T30).

---------------------------------------------------------------------------------------------------

http://www.forbes.com/sites/ericsavitz/2011/11/30/nvidia-wins-processor-slot-in-next-kindle-fire-analyst-says/

Um es klarer zu machen: egal was NV indirekt links und rechts erzaehlt, Amazon hat noch keine Entscheidung getroffen. Sie untersuchen momentan Optionen von zich Seiten.

Duplex
2011-12-05, 15:27:47
Von wegen der x86 Markt wird wegen Win8 aka ARM oder Tegra schrumpfen
http://www.pcgameshardware.de/aid,857954/Windows-8-Intel-zeigt-sich-angetan-und-widerspricht-einer-ARM-Bedrohung-erste-Atom-Smartphones-bis-Mitte-2012/Windows/News/
Das wars dann mit hoffen auf "mit ARM können wir was reißen" :D

Ailuros
2011-12-05, 15:44:18
Von wegen der x86 Markt wird wegen Win8 aka ARM oder Tegra schrumpfen
http://www.pcgameshardware.de/aid,857954/Windows-8-Intel-zeigt-sich-angetan-und-widerspricht-einer-ARM-Bedrohung-erste-Atom-Smartphones-bis-Mitte-2012/Windows/News/
Das wars dann mit hoffen auf "mit ARM können wir was reißen" :D

Sarkasmus? Denn Intel hat bisher noch gar nichts gerissen was den embedded Bereich betrifft; ja wir lesen konstant ueber bunte Behauptungen seitens Intel diesbezueglich aber es gibt noch kein einziges smart-phone mit einem Intel SoC.

LovesuckZ
2011-12-05, 15:46:28
Ja - existierende Anwendungen, die nicht ausgelegt auf eine Touchsteuerung sind, auf einem Chip, dessen Leistungsfähigkeit noch unter der von ARM-SoCs liegen wird.
Jap, Win8 bringt großes Potential für Intel. :lol:

Vorallem: Läuft eigentlich Windows Phone schon auf x86? Android soll auch noch keine Bäume ausreizen.

dildo4u
2011-12-05, 15:50:02
Von wegen der x86 Markt wird wegen Win8 aka ARM oder Tegra schrumpfen
http://www.pcgameshardware.de/aid,857954/Windows-8-Intel-zeigt-sich-angetan-und-widerspricht-einer-ARM-Bedrohung-erste-Atom-Smartphones-bis-Mitte-2012/Windows/News/

Shipping Smartphones mit einem 2012 Produckt vergleichen reines Marketing halt,bis Medflied im Markt ist gibt's auch Tegra 3 Phones.Und das der X86 Markt nicht mehr signifikant zulegt ARM hingegen schon ist nunmal Tatsache.

Ailuros
2011-12-05, 16:04:10
Zwar ebenso OT wie der Intel relevante Beitrag aber: http://www.fudzilla.com/notebooks/item/25098-kindle-fire-second-only-to-ipad

Anders wenn die Analysten recht haben nimmt Amazon den zweiten Platz hinter iPad ein fuer Tablet-Verkaufszahlen 4Q 2011. NV konkurriert immer noch mit fuer den Kindle Fire Nachfolger.

boxleitnerb
2011-12-06, 14:30:15
Tegra fliegt vielleicht zum Mond :D
http://vr-zone.com/articles/nvidia-goes-to-the-moon-with-cuda-and-tegra-3/14146.html

Ailuros
2011-12-16, 19:48:34
http://www.fudzilla.com/processors/item/25228-qualcomm-unimpressed-by-tegra-3

Hugo78
2011-12-16, 20:23:18
Ich über leg grad wann eine Firma A mal meinte, dass Produkt XY von Firma B sei besser.
Selbst AMD vermarktet den Bulli als bessere Alternative zu SB. :anonym:

Ailuros
2011-12-16, 20:48:50
Ich über leg grad wann eine Firma A mal meinte, dass Produkt XY von Firma B sei besser.
Selbst AMD vermarktet den Bulli als bessere Alternative zu SB. :anonym:

Ob besser oder schlechter wird sich schon zeigen. Es gibt aber keinen besonderen Zweifel an der sehr hohen Anzahl an smart-phone design wins fuer Qualcomm.

Es ist aber dann auch nicht so dass sich Qualcomm doch nicht irgendwie bedroht fuehlt; sonst wuerden sie sich auch ueberhaupt nicht darueber aeussern.

LovesuckZ
2011-12-16, 20:50:47
Klappern gehört zum Handwerk.

Erstmal muss Qualcomm zeigen, was Krait kann. Vorallem die GPU-Seite in der ersten Version sieht nicht konkurrenzfähig aus.

Ailuros
2011-12-16, 21:09:59
Klappern gehört zum Handwerk.

Erstmal muss Qualcomm zeigen, was Krait kann. Vorallem die GPU-Seite in der ersten Version sieht nicht konkurrenzfähig aus.

Die geleakten Testresultate eines Krait@900+MHz mit einer Adreno220 sind leider wieder verschwunden aus der Kishonti Datenbank. Wenn man darauf noch 50% drauf rechnet welches Qualcomm behauptet (ist sogar wenig wenn man doppelt so viel ALUs bei 400 anstatt 260MHz bedenkt) ist das Resultat etwa einen Schnitt unter tablet T30.

ULP GF T30 taktet auf 520MHz und AP30 smart-phones auf 416MHz.

LovesuckZ
2011-12-24, 13:21:16
Tegra 3 hat exakt 50% mehr Takt als Tegra 2. Pixelshader-Test hat 18 statt 6 FPS ergeben.

Ailuros
2011-12-24, 16:49:57
Tegra 3 hat exakt 50% mehr Takt als Tegra 2. Pixelshader-Test hat 18 statt 6 FPS ergeben.

http://forum.beyond3d.com/showpost.php?p=1602943&postcount=447

Correct: peak 3D clock in T30 is 520 MHz, whereas peak in AP30 is 416 MHz.

Das muss nicht heissen dass jeder tablet Hersteller T30 auch wirklich bei 520MHz takten wird. Im Lenovo Le Pad K2 wird es aber schon bei 520MHz liegen.

LovesuckZ
2011-12-24, 16:58:29
Ich habe hier ein transformer Prime. Die Tablet-Version wird wohl durchgängig so hoch liegen.

Und so wie es aussieht, hat nVidia auch die Textureineinheiten verdoppelt oder deutlich verstärkt.

Ailuros
2011-12-24, 17:28:04
Ich habe hier ein transformer Prime. Die Tablet-Version wird wohl durchgängig so hoch liegen.

Und so wie es aussieht, hat nVidia auch die Textureineinheiten verdoppelt oder deutlich verstärkt.

Angenommen im Prime taktet die ULP GF bei 500MHz gegen 333MHz im TF101, sind es 50% Taktunterschied.

http://www.glbenchmark.com/compare.jsp?benchmark=glpro21&showhide=true&certified_only=1&D1=Asus%20Transformer%20TF201&D2=Asus%20Eee%20Pad%20Transformer%20TF101

Hier sind es 53% Unterschied im fill test.

narto3311
2012-01-11, 18:49:50
hatte frage leute also im ces 2012 hatten sie ja gezeigt wie sie skyrim auf asus transformer prime gespielt haben meine frage ist hbaben sies direkt im tablet gespielt oder lief das ganze auf einem rechner ab wo sie einfach so ein ähnlichen programm wie teamviewer benutzt haben??

Blediator16
2012-01-11, 19:04:13
Wurde gestreamt. Merkwürdig, dass das viele nicht gemerkt haben. Ob das Nvs Absicht war?:D

AnarchX
2012-01-11, 19:04:52
hatte frage leute also im ces 2012 hatten sie ja gezeigt wie sie skyrim auf asus transformer prime gespielt haben meine frage ist hbaben sies direkt im tablet gespielt oder lief das ganze auf einem rechner ab wo sie einfach so ein ähnlichen programm wie teamviewer benutzt haben??
Damit wurde es gestreamt: http://www.splashtop.com/

Hugo78
2012-01-11, 19:04:59
@narto3311

NVIDIA Press Conference @ CES 2012 - Splashtop THD Virtual Desktop Demo
http://www.youtube.com/watch?v=6nyg2kZfF5A&list=PL0B3102B05F59B05C&index=7&feature=plpp_video&hd=1

Wurde gestreamt. Merkwürdig, dass das viele nicht gemerkt haben. Ob das Nvs Absicht war?:D

Jensen und sogar Fatal1ty erzählen gefühlt alle 10s das es ein Streaming ist, also wer das nicht checkt, der geht auch bei Rot über die Ampel, nur weils seine Lieblingsfarbe ist. :D

narto3311
2012-01-11, 23:34:21
achso danke leute hatte es mir schon gedacht^^

Bucklew
2012-01-11, 23:44:23
NVIDIA Press Conference @ CES 2012 - Splashtop THD Virtual Desktop Demo
http://www.youtube.com/watch?v=6nyg2kZfF5A&list=PL0B3102B05F59B05C&index=7&feature=plpp_video&hd=1
Kurz: Geil.

Das ganze noch über Internetleitung mit sagen wir mal 1 MBit/s zumindest für Powerpoint und das Zueg (also keine Videos/Spiele) und ich wäre glücklich. VNC suckt leider zu oft.

Blediator16
2012-01-11, 23:58:47
Funktioniert das nur mit Tegra?

AnarchX
2012-01-12, 00:04:08
Kurz: Geil.

Das ganze noch über Internetleitung mit sagen wir mal 1 MBit/s zumindest für Powerpoint und das Zueg (also keine Videos/Spiele) und ich wäre glücklich. VNC suckt leider zu oft.
OnLive bietet wohl demnächst komplette Windows 7 Systeme in der Cloud an.

Funktioniert das nur mit Tegra?
Sollte mit jedem halbwegs modernem SoC funktionieren.

Hugo78
2012-01-12, 00:19:45
OnLive bietet wohl demnächst komplette Windows 7 Systeme in der Cloud an.

Na ja, das Zeug auf meinem Rechner gehört mir, nicht der "Cloud". ;)

Nightspider
2012-01-12, 06:55:38
Die Demonstration sollte wahrscheinlich zeigen, das die Eingabe extrem schnell ging, trotz sicherlich guter Auslastung des SoCs.
Immerhin wird wohl die Touchscreen eingabe hardware beschleunigt mit dem Companion Core.
Keine Ahnung ob Apple oder Samsung SoCs in solchen Fällen so Latenzfrei sind aber ich glaube es nicht.
Schließlich kackt die Eingabe beim Ipad1 auch gern ab, bei Vollauslastung.

YeahYeah
2012-01-17, 10:26:46
Würde mal sagen, dass die Zukunft von nVidia am "Tegra-Faden" hängt.

Dural
2012-01-17, 11:21:58
jep, in 2 jahren kauft kein mensch mehr eine GPU, für was auch es geht ja alles über die IGP :rolleyes:

Deinorius
2012-01-17, 11:41:39
Würde mal sagen, dass die Zukunft von nVidia am "Tegra-Faden" hängt.


Ich finde es immer wieder interessant, wie einseitig manche denken. Und die Grafikentwicklung bleibt dann wo hängen? Bei Tablets und im besten Fall bei Konsolen? :uexplode:
Wenn dann in Zukunft wirklich mehr Spiele-Streaming Angebote entstehen. Was für Grafikchips sollen die dann haben? Intel CPUs mit IGP-Grafik? Und das ist jetzt nur ein Beispiel.

YfOrU
2012-01-17, 11:50:40
jep, in 2 jahren kauft kein mensch mehr eine GPU, für was auch es geht ja alles über die IGP :rolleyes:

Die aktuellen mobilen LowEnd & Mainstream GPUs bekommen auf absehbare Zeit keine 28nm Nachfolger und das gilt somit auch für deren Desktop Derivate. Ob hier überhaupt noch etwas neues kommt ist fraglich und dabei handelt es sich hierbei um einen großen Teil des Marktes.
Gleichzeitig bewegt sich der x86 Bereich in großen Schritten auf das SoC Format zu. Mit zwei Jahren liegst du für den Massenmarkt damit auch absolut richtig. Sowohl Haswell als auch Kaveri sind für 2013 in den Roadmaps gelistet und diese sind praktisch echte SoCs. Der Fokus liegt dabei nicht nur auf der Integration des Chipsatzes sondern vor allen auch auf der GPU Leistung.

Für Chips unterhalb der Kategorie Juniper/GF116 ist damit in Zukunft kaum noch Raum vorhanden. Gerade diese Produkte sind aber verlässliche und wichtige Geldpressen da die Herstellung/Entwicklung günstig ist und die Absatzzahlen entsprechend hoch sind.

Genau deshalb will Nvidia mit aller Kraft schlussendlich eine potente ARM SoC Plattform als Konkurrenz zu x86 etablieren. Die GPU IP muss langfristig weiter in Massenprodukten Verwertung finden ansonsten wird es schwierig die nötigen Ressourcen dauerhaft unter wirtschaftlichen Gesichtspunkten aufzubringen (nicht zu vergessen das der eigene GPU Marktanteil automatisch deutlich zurückgehen wird und damit auch der reale Einfluss auf den Markt und dessen Entwicklung). Das HPC Geschäft alleine (Tesla) wird das alleine kaum tragen können, vor allen sind hier bei jeder Generation Unsummen an Investitionen nötig die immer mit enorm hohen Risiken behaftet sind.

Ich finde es immer wieder interessant, wie einseitig manche denken. Und die Grafikentwicklung bleibt dann wo hängen? Bei Tablets und im besten Fall bei Konsolen? :uexplode:
Wenn dann in Zukunft wirklich mehr Spiele-Streaming Angebote entstehen. Was für Grafikchips sollen die dann haben? Intel CPUs mit IGP-Grafik? Und das ist jetzt nur ein Beispiel.

Es sind sich inzwischen praktisch alle einig das die kommende Konsolengeneration die letzte dieser Art sein wird. Alles danach läuft über Mobilgeräte, Fernseher und Settop Boxen.
Ergo SoCs mit halbwegs potenter GPU. Die hauptsächliche (CPU) Last trägt dabei der Server des Anbieters und die Berechnung der Graphik übernimmt der SoC. Der Streaming Gedanke ist zwar nett aber in der Praxis global nicht umsetzbar. Ist damit also für den Massenmarkt nur in kleinen Teilen geeignet.
Die Graphikentwicklung für Massenprodukte wird in Zukunft deshalb definitiv durch die GPU Leistung der SoCs bestimmt. So wie heute eben durch die Konsolen.

Deinorius
2012-01-17, 13:04:03
@YfOrU
Die ursprüngliche Aussage war, dass nvidia hauptsächlich durch Tegra profitieren wird. Das ist aber Unsinn, wenn nvidia nebenbei nicht nur GPUs anbietet und entwickelt. Denver selber ist kein Tegra z.B.!

Gleichzeitig bewegt sich der x86 Bereich in großen Schritten auf das SoC Format zu. Mit zwei Jahren liegst du für den Massenmarkt damit auch absolut richtig. Sowohl Haswell als auch Kaveri sind für 2013 in den Roadmaps gelistet und diese sind praktisch echte SoCs. Der Fokus liegt dabei nicht nur auf der Integration des Chipsatzes sondern vor allen auch auf der GPU Leistung.


Äpfel und Birnen? Die Low-End GPUs werden mit einer hohen Wahrscheinlichkeit kaum Absatz mehr finden, aber das heißt nicht, dass höherpreisige Produkte nicht mehr verkauft werden würden, besonders wenn diese unterschiedliche Nutzungszwecke erfüllen, als nur das Rendering von Spielen. Die höhere Integration von IGPs hat mehrere Gründe, von denen sogar diskrete GPUs profitieren können, indem diese in Zukunft z.B. selber keine so ausgereiften Stromsparmechanismen mehr benötigen würde, weil der Idle-Zustand über die IGP läuft.

Es sind sich inzwischen praktisch alle einig das die kommende Konsolengeneration die letzte dieser Art sein wird.


Die Diskussion ist mir bekannt, mich würde viel mehr interessieren, wie du auf "praktisch alle einig" kommst? :|
Ich finde die Diskussion berechtigt, aber deine Aussage nicht. Außer du meinst jetzt hoffentlich nur den Nintendo 3DS bzw. PSV, dann würde ich an deiner Stelle deine Aussage dennoch etwas relativieren.

YfOrU
2012-01-17, 15:17:10
@YfOrU
Die ursprüngliche Aussage war, dass nvidia hauptsächlich durch Tegra profitieren wird. Das ist aber Unsinn, wenn nvidia nebenbei nicht nur GPUs anbietet und entwickelt. Denver selber ist kein Tegra z.B.!

Denver ist ein ARM SoC mit Fokussierung auf die GPU. Wie das dann von der überkreativen Marketingabteilung bezeichnet wird spielt doch keine Rolle.

Was den ARM Part dabei betrifft will man bei Nvidia den gleichen Weg wie Qualcomm beschreiten. Also eigene, zur ISA kompatible Designs statt stupider Lizenzbau.


Äpfel und Birnen? Die Low-End GPUs werden mit einer hohen Wahrscheinlichkeit kaum Absatz mehr finden, aber das heißt nicht, dass höherpreisige Produkte nicht mehr verkauft werden würden, besonders wenn diese unterschiedliche Nutzungszwecke erfüllen, als nur das Rendering von Spielen. Die höhere Integration von IGPs hat mehrere Gründe, von denen sogar diskrete GPUs profitieren können, indem diese in Zukunft z.B. selber keine so ausgereiften Stromsparmechanismen mehr benötigen würde, weil der Idle-Zustand über die IGP läuft.

Wo werden Performance und Highend GPUs verbaut ? Die Performance Chips lassen sich wenigstens in Notebooks unterbringen aber Highend ist nun mal ein absoluter Nischenmarkt der zusätzlich was den PC Spielebereich betrifft an Bedeutung verliert. Der Überschuss an verfügbarer 3D Leistung ist so groß das entsprechende Preise kaum mehr zu rechtfertigen sind denn es fehlt inzwischen häufig der praktische Nutzen. ->HPC. Am Desktop ein nettes Spielzeug aber macht nur noch in absoluten Ausnahmefällen wirklich Sinn.


Die Diskussion ist mir bekannt, mich würde viel mehr interessieren, wie du auf "praktisch alle einig" kommst? :|
Ich finde die Diskussion berechtigt, aber deine Aussage nicht. Außer du meinst jetzt hoffentlich nur den Nintendo 3DS bzw. PSV, dann würde ich an deiner Stelle deine Aussage dennoch etwas relativieren.

Nintendo hat den Anfang gemacht. Weder Microsoft, noch Sony werden bei der kommenden Konsolengeneration an die Limits gehen denn das war für beide Unternehmen ein schlechtes Geschäft. Dementsprechend wird auch der Sprung kleiner ausfallen als sich manche wünschen. Im Umkehrschluss wirkt sich das aber natürlich wieder auf die Multi-Plattform PC Titel aus.
Microsoft und Sony haben beide ein starkes Interesse daran ihre jeweiligen Plattformen mit den übrigen eigenen Angeboten zu verschmelzen und dabei passen bis ans Limit getriebene Konsolen kaum ins Konzept. Damit lässt sich die breite Masse aufgrund der Preise ähnlich schlecht ansprechen wie mit teuren Tablets. Das Ziel ist heute möglichst viele Nutzer in das eigene Ökosystem zu bekommen und ihnen hierüber kostenpflichtige Dienste (dazu zählt auch Unterhaltung wie Spiele) anzubieten.

Ailuros
2012-01-17, 17:24:38
@YfOrU
Die ursprüngliche Aussage war, dass nvidia hauptsächlich durch Tegra profitieren wird. Das ist aber Unsinn, wenn nvidia nebenbei nicht nur GPUs anbietet und entwickelt. Denver selber ist kein Tegra z.B.!

Wenn ein IHV wie NVIDIA in der Zukunft sowohl desktop/notebook als auch small form factor SoCs herstellt und da es in beiden Faellen als SoC Entwickler/Verkaeufer fungiert kann man Denver und Tegra sehr wohl in den gleichen Topf werfen wenn man an "Sparte" bzw. Umsatz pro Sparte denkt.

Wenn in der Zukunft alles nach Plan laufen sollte und sowohl Tegra als auch Denver haben zum groessten Teil den erwarteten Erfolg kann es durchaus sein dass die vorerwaehnten fast gleich so viel Umsatz machen koennten als die reine GPU Sparte.

Geht bloss nicht davon aus dass NVIDIA's GPUs in Tegras auch in der Zukunft so relativ bescheiden sein werden (was das featureset betrifft) wie bis heute. So lange sich NVIDIA ausschliesslich bis jetzt im Android Feld bewegt koennen sie sich durchaus nur ca. auf OGL_ES API Vorraussetzungen bewegen (obwohl mir wie ich schon oft gesagt habe es mir persoenlich lieber waere wenn sie etwas Druck im Bereich OpenCL/GPGPU angestellt haetten bis jetzt). Sobald win8 ins Rennen kommt, sieht es eher nach einer Einbahnstrasse aus. Am Anfang werden alle win8 small form factor SoCs sowieso nur DX9L3 sein und dafuer duerfte selbst T3 ausreichen. Sobald aber DX11 embedded GPUs unter win8 ins rennen kommen kann keiner den Zug so leicht verpassen. Egal ob man jetzt Qualcomm, NVIDIA oder sonst noch ist.

Am Rand und der tragischen Ironie zu Liebe habt Ihr alle einem Spammer geantwortet der schon 2 Mal dafuer gesperrt wurde. Der erste kam von mir; drei mal darfst Du raten was passiert wenn es mit ihm so weitergeht.

dildo4u
2012-02-15, 15:02:21
LG's Tegra 3 phone specifications leak, benchmark tests cower in fear


http://www.engadget.com/2012/02/15/lg-tegra-3-phone-specification-leak-tegra3-quadcore/

Dural
2012-02-21, 12:54:08
He Shiyou, Executive Vice President Head of the Terminal Division bei ZTE, äußerte sich erwartungsgemäß positiv. Der verbaute Tegra2-Prozessor und Nvidias Icera-Modem würden „eine große Rolle in der Entwicklung des mobilen Gerätemarktes spielen“. Man gehe davon aus, dass der Tegra-Prozessor in den kommenden Monaten und Jahren immensen Einfluss auf die mobile Kommunikation habe. Bei ZTE habe man sehr eng mit Nvidia zusammengearbeitet, um das Gerät rechtzeitig zu einem bedeutenden Event wie dem Mobile World Congress vorzustellen.


http://www.computerbase.de/news/2012-02/zte-mimosa-x-mit-tegra2-und-nvidia-modem-angekuendigt/


hört sich irgend wie eingekauft an ;)

Hugo78
2012-02-21, 13:28:33
Klappern gehört halt zum Geschäft.
Nvidia macht zwar noch keine Milliardenumsätze mit Tegra, aber die knapp 600 Mio. USD Umsatz aus dem letzten Jahresbericht,
sind nach eigenen Angaben eine Steigerung von fast 200% zum Vorjahr.

aylano
2012-02-28, 01:13:50
http://seekingalpha.com/article/370311-nvidia-s-ceo-discusses-q4-2012-results-earnings-call-transcript
Tegra this year was $360 million, and we expect it to grow at least 50%.
Nur "mit Glück" wird Nvidia erst nächstes Jahr die 600 Mio. $ erreichen.

----------

Vom Gefühl her hätte ich mir einen größeren Tegra-Wachstum erwartet, da selbst Android 3.0 etwas Problematisch war und etliche Verspätungen brachte und heuer vom Gefühl her viel mehr fertige Tegra-Produkte gibt.
Damit ist das IMO nur "50%"-Wachstum nicht schwach, sondern trotzdem ein sehr gutes Ergebnis.

Grundsätzlich ist die Frage, wie lange das Wachstum andauert.
IMO gibt es zwei (weitere) Firmen, die Nvidias Ergebnis entscheidend beeinflussen können.
ZTE sowie HUAWEI haben IMO großes Potential den Smartphone-Markt durchzumischen.
Während ZTE mit Nvidia als großen Lieferant zum angesehen Smartphone-Hersteller werden kann, könnte HUAWEI zum großen Nvidia-Konkurrenten im Billig-&-Mainstream-Tablet-Markt werden.
(Qualcomm ist IMO ein Starker Nvidia-KOnkurrent im Performance-&-High-End-Tablet-Markt)

Denn HUAWEI bietet mittlerweile auch einen eigenen Quad-A9 an und bringt seine
http://www.computerbase.de/news/2012-02/mediapad-10-fhd-huawei-stellt-quad-core-tablet-vor/
Im Unterschied zu Nvidia hat HUAWEI deutlich mehr Funk-Erfahrung und AFAIK wie Snapdragon S4 den LTE schon integriert.

http://geizhals.at/eu/679689
Grundsätzlich dürfte HUAWEI ziemliche kampfpreise anbieten und so agressiv in den Markt einsteigen. Denn ein Tablet mit 7",IPS, (1280x800) und 3G um 320 Euro finde ich ziemlich stark.

Hugo78
2012-02-28, 01:48:29
Insgesamt schließt Nvidia das Geschäftsjahr 2012 aber mit einem deutlichen Plus in allen Bereichen gegenüber dem vorangegangenen Jahr ab. Der Umsatz stieg um 12,8 Prozent auf knapp 4 Milliarden US-Dollar, dank der Steigerung der Marge von 39,8 auf 51,4 Prozent wuchs der Gewinn deutlich von 253,1 auf 581,1 Millionen US-Dollar an. Wachstumsmotoren waren dabei insbesondere das Tegra-Geschäft (plus 199 Prozent auf 591,2 Mio. US-Dollar)
- http://www.computerbase.de/news/2012-02/nvidia-vermeldet-gemischten-jahresabschluss/

HUAWEIs ominöses A9 Quad das ohne extra Stromsparfunktionen, wie ein ARM BIG.litte oder Nvidias 4+1 daher kommt, soll sich erstmal in unabhänigen Tests beweisen.
Der große 2500mAh Akku des Ascend D quad spricht nicht dafür, dass das SoC sonderlich sparsam ist.

Was die Kampfpreise angeht, die können sie sich natürlich erlauben.
China stützt HUAWEI und ZTE mit übermässig großen Krediten, bei dem der Staat das Ausfallrisiko übernimmt.

http://www.golem.de/1102/81183.html
http://blog.nci-net.de/2010/04/27/was-huawei-uber-china-erzahlt/

dildo4u
2012-02-28, 01:55:26
Android Tablets sind eh ein winziger Markt im Vergleich zu den Smartphone's.12 von 300mio.http://www.androider.de/andy-rubin-850-000-android-aktivierungen-pro-tag/93914760/
Für Nvidia wird's imo erst jetzt interessant wo z.b LG,HTC für ihre High-End Modelle Tegra 3 nutzen.Die China Newcomer haben zumindest im Westen erstmal ein Image Problem,da kann die Hardware noch so gut sein.

Nightspider
2012-02-28, 02:51:51
- http://www.computerbase.de/news/2012-02/nvidia-vermeldet-gemischten-jahresabschluss/

HUAWEIs ominöses A9 Quad das ohne extra Stromsparfunktionen, wie ein ARM BIG.litte oder Nvidias 4+1 daher kommt, soll sich erstmal in unabhänigen Tests beweisen.
Der große 2500mAh Akku des Ascend D quad spricht nicht dafür, dass das SoC sonderlich sparsam ist.

Was die Kampfpreise angeht, die können sie sich natürlich erlauben.
China stützt HUAWEI und ZTE mit übermässig großen Krediten, bei dem der Staat das Ausfallrisiko übernimmt.

http://www.golem.de/1102/81183.html
http://blog.nci-net.de/2010/04/27/was-huawei-uber-china-erzahlt/

Es wird 2 Varianten des Ascend d geben, mit kleinerem und größerem Akku, welcher vor allem wegen LTE benötigt wird. Da würde ich jetzt nicht zuviel mit dem SoC Stromverbrauch hineininterpretieren.

Soul
2012-02-28, 08:00:36
ASUS wechselt mit dem neuen Transformer Infinity von Tegra 3 (Prime) auf Qualcomms Krait. Wenn das viele nVidia Kunden machen, dann siehts mit dem Umsatz und Verkauf in diesem Jahr eher schlecht aus.

Mancko
2012-02-28, 08:43:47
Wurde aber schon angesprochen. Das ist das Premium Segment bei den Tablets. Tegra 3 gibt es bereits länger als Krait. Neuere Chips sind selbstverständlich schneller. Hier wird Nvidia mit KalEl+ aber auch wieder nachlegen. Einen größeren Schub erwarte ich mir mit Tegra4. Eventuell ist dann Icera LTE Technik schon im SoC. Das ist bis jetzt noch ein Nachteil für Nvidia.

Trotzdem kann man optimistisch sein. Vor allem die SmartPhone DesignWins werden ordentlich zum Umsatzwachstum beitragen. Es wurde ja bereits erwähnt, dass wir hier von ganz anderen Stückzahlen reden als bei Tablets und hier ist auch Apple nicht so stark. Im SmartPhone Bereich hat Apple bei weitem nicht die Stellung wie bei Tablets. In dem SmartPhone von ZTE ist übrigens schon ein Icera LTE Modem dabei, allerdings noch als separater Chip.

600$ Mio in 2012 halte ich für realistisch. Das wäre schon ein ordentlicher Batzen.

Hugo78
2012-02-28, 08:55:26
Es wird 2 Varianten des Ascend d geben, mit kleinerem und größerem Akku, welcher vor allem wegen LTE benötigt wird.

Die kleine Version wird auch nur mit 1,2GHz betrieben.

Dural
2012-02-28, 09:41:48
Denn HUAWEI bietet mittlerweile auch einen eigenen Quad-A9 an




der ist doch erst im Q3 lieferbar?!? hab das gestern bei einer News von einem neuen Handy gelesen und das vorläufig sogar erst nur in China.

wenn das so ist, ist das ja schon fast ein Jahr nach Tegra 3 !!!

NV hat einen erstaunlichen vorsprung derzeit, obwohl sie quasi von nichts in den markt eingestigen sind.

Edit:
OK Tablet schon in Q2, ein halbes Jahr nach Tegra 3

Edit2:
Werden wir überhaupt noch einen T3+ sehen? nach den problemen mit 28nm glaub ich das eher weniger, T4 ist ja auf ende Jahr gesetzt.

YfOrU
2012-02-28, 10:27:33
Die kleine Version wird auch nur mit 1,2GHz betrieben.

Die marginale Differenz spielt sowas von keine ernsthafte Rolle was den Verbrauch betrifft -> Abgrenzung für das Marketing.

LTE ist da ein ganz anderes Kaliber. Siehe Razr Max.

Hugo78
2012-02-28, 11:47:10
Die marginale Differenz spielt sowas von keine ernsthafte Rolle was den Verbrauch betrifft

LTE wird sicher einen großen Anteil fressen, doch gibt es einen Unterschied zwischen T3 und dem Chinadings.

Nvidia nutzt 40nm LPG für die 4 Last Kerne und kommt hier mit weniger Spannung auf die 1,5GHz.
Natürlich wenn die 4 Lastkerne nicht auslastet werden, also weniger Takt anliegt, hat man ggü. gleichen Kernen in 40nm LP ein schlechteres Verhältnis zur aufkommenden Leakage.

Aber für lowpower hat Nvidia ja ebend ihren 5. Companion Core.

Von einer marginale Differenz 1,2 auf 1,5 Ghz wird man beim Chinadings also nicht reden können, weil die alles in 40nm LP fertigen.
Die Leakage steigt viel stärker an.

aylano
2012-02-28, 12:58:59
-
Wachstumsmotoren waren dabei insbesondere das Tegra-Geschäft (plus 199 Prozent auf 591,2 Mio. US-Dollar)
http://www.computerbase.de/news/2012-02/nvidia-vermeldet-gemischten-jahresabschluss/
Ich konnte schon letztens zeigen, dass Computerbase kein Händchen für Geschäftsberichte hat, wo 3 von 5 Massiven Verlusten in Wirklichkeit gute Gewinne sind.


der ist doch erst im Q3 lieferbar?!? hab das gestern bei einer News von einem neuen Handy gelesen und das vorläufig sogar erst nur in China.
wenn das so ist, ist das ja schon fast ein Jahr nach Tegra 3 !!!
NV hat einen erstaunlichen vorsprung derzeit, obwohl sie quasi von nichts in den markt eingestigen sind.

Das Jahr 2012 ist das letzte Jahr, wo Nvidia noch "einen Vorsprung" haben kann.
Im Tegra-Markt sehe ich die 28nm-Probleme (Yield & Kapazitäten) als Vorteil für Nvidia, die klugerweise noch auf den Bewährten 40nm setzten und somit verstärkt auf Verfügbarkeit bei Quad-Core setzen können.
IMO der Grund für Möglichkeit den ASP von Tegra zu steigern.

Ich wüsste nicht, was nach einem 28nm-Quad-Core mit Integriertem LTE noch für großartige Chips-Verbesserungen kommen sollte.
Mit dem Hochfahren von 28nm beginnt IMO dann der Verdrängungskampf im Tablet-Markt.
Und da wird es für Nvidia nicht leicht, vorallem wenn Tegra bzw. CPB bisher (letzte bekannte Zahlen 3Q 2011 -45Mio. $) nicht unerheblich defizitär war.

dildo4u
2012-02-28, 14:12:27
[QUOTE=Hugo78;9186581]-


Ich wüsste nicht, was nach einem 28nm-Quad-Core mit Integriertem LTE noch für großartige Chips-Verbesserungen kommen sollte.

DX11 support für Win 8 Tablets bis dahin ist es noch ein weiter weg vieleicht erst in 20nm machbar bei unter 1Watt.

YfOrU
2012-02-28, 15:00:00
Von einer marginale Differenz 1,2 auf 1,5 Ghz wird man beim Chinadings also nicht reden können, weil die alles in 40nm LP fertigen.
Die Leakage steigt viel stärker an.

Erstens liegt die maximale Taktstufe im Betrieb nur selten sowie praktisch nie durchgehend an (das regelt unter Android der Governor) und zweitens waren maximale APP Frequenzen um 1Ghz schon mit 65nm LP machbar. Übrigens ohne ernsthafte Auswirkungen auf die Laufzeit im Alltag und dabei war der Sprung hier ausgehend von Frequenzen um 600Mhz wesentlich größer ;)

Da kannst du mir wirklich nicht erzählen das sich eine Steigerung der maximalen Frequenz um 300Mhz ernsthaft auswirkt.

Dural
2012-02-28, 15:53:19
offensichtlich schon, sonst wäre NV ja nicht von den 1,5GHz auf 1,3GHz runter gegangen ;) und hat die Handy Version sogar nicht noch mal weniger Takt?!?


@aylano

8 Core... mir ist selbst ein Tegra 3 zulangsam, ein Dual Core wie zb. im Note ist mir deutlich zu langsam! man kann nie genug leistung haben! zudem wird mit der zeit natürlich auch die Handy Software anspruchsvoller.
Und gerade auch in sachen GPU sind wir noch nirgends (Leistung, Cuda fähig, DX11 usw.)

aylano
2012-02-28, 16:03:06
DX11 support für Win 8 Tablets bis dahin ist es noch ein weiter weg vieleicht erst in 20nm machbar bei unter 1Watt.
Aber dieser Sprung wird im Vergleich zu anderen Sprünge nicht der Rede wert sein, was höher Preise rechtfertigt.

(1. Sprung ... irgendwas Betriebssystem auf nutzbare (Apple-)Betriebssystem)
2. Sprung ... ARM9/11 & A8-Single-Core auf A9-Dual-Core-Android 3.0
3. Sprung ... A9-Dual-Core-Normalo-Display auf A9/A15-"Quad"-Retina-Display

Win8 bringt ja nicht automatisch eine höheren Nutzungs-Mehrwert.
Und ich wüsste nicht, was DX11 jetzt für einen großartigen Mehrwert in Tablets bringen soll, wofür ich dann so um 150-250$ mehr zahlen sollte.

Solange es keinen beachtlichen Mehrwert gibt, sind die Leute auch nicht mehr bereit beim Nachfolger überteure Preise auszugeben, was dann automatisch ein Preiskampf unter den Hersteller bedeutet.

Hugo78
2012-02-28, 17:40:23
Da kannst du mir wirklich nicht erzählen das sich eine Steigerung der maximalen Frequenz um 300Mhz ernsthaft auswirkt.

Ok gut, aber warum haben dann alle nicht gleich 2GHz?

Coda
2012-02-28, 18:05:15
Da kannst du mir wirklich nicht erzählen das sich eine Steigerung der maximalen Frequenz um 300Mhz ernsthaft auswirkt.
Wenn du die Spannung dafür erhöhen musst ist das sehr wohl ziemlich deutlich.

YfOrU
2012-02-28, 18:57:57
Ok gut, aber warum haben dann alle nicht gleich 2GHz?

Mit zunehmender Frequenz finden sich natürlich weniger Chips die hierfür geeignet sind. Gerade bei SoCs gibt es hier teils recht krasse Schwankungen und darum ist die Spannung der APPs bei Massenprodukten wie Smartphones praktisch immer konservativ (also spürbar höher als nötig) gewählt.

Wenn du die Spannung dafür erhöhen musst ist das sehr wohl ziemlich deutlich.

Bei den APPs ist meistens ohne Spannungserhöhung noch richtig viel Luft nach oben und selbst wenn man ein paar mV rauf geht betrifft das nur die oberste Stufe da auch hier jede mit eigener Spannung konfiguriert wird. Betrifft damit so oder so nur Vollast und das hat in der Praxis kaum spürbaren Auswirkungen auf die Laufzeit der Geräte. In dem Zustand befindet sich ein Smartphone oder Tablett eher selten für länger Zeit. Im Schnitt sind die Auswirkungen des Displays(Helligkeit) und UMTS/LTE wesentlich gravierender.

Hugo78
2012-03-01, 15:15:49
@YfOrU

Und wenn man sein Handy als PS Vita benutzt, spielt es ebend doch eine Rolle.

Passend dazu.
Aktuelle Tegra 3 Games:
http://www.youtube.com/watch?v=lBl-goBrWno&hd=1

Ailuros
2012-03-09, 19:50:34
http://www.glbenchmark.com/phonedetails.jsp?D=HTC+One+X&benchmark=glpro21

AnarchX
2012-03-24, 11:36:45
Today is just the beginning of Kepler. Because of its super energy-efficient architecture, we will extend GPUs into datacenters, to super thin notebooks, to superphones.
http://www.anandtech.com/show/5703/jenhsuns-email-to-nvidia-employees-on-a-successful-kepler-launch

Eine Kepler-SMX in Tegra 5 wäre wohl die passende Antwort auf IMGTecs Series 600. :D

Ailuros
2012-03-24, 12:38:04
http://www.anandtech.com/show/5703/jenhsuns-email-to-nvidia-employees-on-a-successful-kepler-launch

Eine Kepler-SMX in Tegra 5 wäre wohl die passende Antwort auf IMGTecs Series 600. :D

Dynamische Frequenzen sind wohl auch nichts Neues im small form factor Markt; da Stromverbrauch der wichtigste Aspekt ueberhaupt ist liegen die Einheiten hier sogar technisch eher im Vorsprung im Vergleich zu desktop.

Sonst ist Logan wohl eher 20HP (aber nicht unbedingt TSMC :biggrin: ), ergo irgendwo spaet 2014 im besten Fall. Warten wir erstmal auf Wayne/28nm ab, dass momentan der groesste Unbekannte ist und vielleicht noch dieses Jahr vorgestellt wird.

Mancko
2012-03-24, 15:36:10
Was ist eigentlich au KalEl+ (Tegra 3 @28nm) geworden? Bringen die den noch oder lassen sie ihn auf Grund der 28nm Problematik gleich weg und gehen zu Tegra 4 über?

Hugo78
2012-03-24, 17:14:31
Tegra 3+ wird sicher kommen, selbst wenn Tegra 4 weniger als ein Halbjahr weg sein sollte.
Dafür ist der mobile Markt einfach zu schnelllebig als das man sich hier Leerlauf leisten könnte.

Mancko
2012-03-24, 20:43:34
Tegra 3+ wird sicher kommen, selbst wenn Tegra 4 weniger als ein Halbjahr weg sein sollte.
Dafür ist der mobile Markt einfach zu schnelllebig als das man sich hier Leerlauf leisten könnte.

Dazu muss aber auch genügend Kapazität da sein. Nvidia hat nicht umsonst Tegra3 bisher auf 40nm gefertigt. Anders als die Konkurenz muss man sich da nicht mit TSMCs beschränkten 28nm Kapazitäten und Yields derzeit rumschlagen. 40nm reicht noch weit in das Jahr 2012 hinein.

Hugo78
2012-03-25, 18:28:13
Da wir keine genauen Zahlen zu den Kapazitäten haben, ist es unsinnig hier weiter ins Blaue zudeuten.
Ich glaub jedenfalls nicht, dass man erst bis Tegra 4 wartet,
wenn man schon fertige T3+ 28nm Designs hat und nur auf Grund der mässigen Yield/Kapazitäten, T3 in 40nm nicht komplett ablösen kann.

Man kann T3+ ja als etwas teureres, zusätzliches Update verkaufen und den "alten" T3 weiterlaufen lassen.
Ein SoC ist ja sowieso nicht der alles entscheidene Posten, da ist das Display, der Akku und Speicher idR teurer.

Dural
2012-03-27, 22:13:39
Diese unterscheiden sich, den als gesichert geltenden Spekulationen zufolge, nur in der Anzahl der Stream-Prozessoren der Grafikeinheit sowie der Taktrate der vier CPU-Kerne vom Typ ARM Cortex A15.



Denn Nvidia will beim Tegra 4 verstärkt auf GPGPU-Computing setzen, was allerdings entsprechende Software voraussetzt. In Summe soll der in 28 Nanometern gefertigte Tegra 4 dann je nach Ausführung zwischen 32 und 64 CUDA-Kerne enthalten.



http://www.computerbase.de/news/2012-03/kepler-haelt-einzug-in-tegra-4/

Ailuros
2012-03-28, 10:50:30
http://www.computerbase.de/news/2012-03/kepler-haelt-einzug-in-tegra-4/

64SPs gibt es schon heute in tablet SoCs; da von Anfang 2013 die Rede ist Novathor A9600 koennte Anfang 2013 sogar 160SPs haben. Falls es sich tatsaechlich um einen Kepler Ableger handelt, dann nur 1 SIMD fuer die kleinere Variante (1*32) und 2 SIMDs fuer die groessere (2*32). Schon ein paar Meilen entfernt von den 192SPs von AnarchX weiter oben ;)

Sonst ist A15 auch keine besondere Ueberraschung; Pech hatten lediglich die anderen SoC Konkurrenten die als Eagle lead partner ihren Vorsprung dank 28LP Verspaetungen verpasst haben.

Der groessere Wayne ist hauptsaechlich fuer clamshells und co gedacht und die kleinere Variante fuer superphones. Smartphones werden mit Grey bedient.

Auf jeden Fall war derjenige der die Tegra roadmap entwickelt hat bei NVIDIA besoffen; denn es klang ziemlich laecherlich dass Wayne nur insgesamt 2x Mal so schnell sein wird als Kal-El. Dafuer duerften nur 2*A15@2.0GHz ausreichen und kein so heftiger GPU upgrade eher im Feature-set Bereich als in der Anzahl der eigentlichen Einheiten, da es diesmal offensichtlich USC ALUs sein werden fuer Wayne.

Nightspider
2012-03-31, 15:53:33
@YfOrU

Und wenn man sein Handy als PS Vita benutzt, spielt es ebend doch eine Rolle.

Passend dazu.
Aktuelle Tegra 3 Games:
http://www.youtube.com/watch?v=lBl-goBrWno&hd=1

Die Grafik ist für ""Handys"" schon ziemlich beeindruckend in einigen Spielen. Vor allem wenn man bedenkt, dass das SoC 720p Displays befeuern muss.

2013 werden wir sicherlich PS360 Grafik auf den HighEnd Smartphones bestaunen dürfen. Erst recht wenn schon die Kepler Architektur bei Tegra 4 verbaut wird, wie viele Gerüchte behaupten.

Ailuros
2012-04-02, 19:07:28
2013 werden wir sicherlich PS360 Grafik auf den HighEnd Smartphones bestaunen dürfen. Erst recht wenn schon die Kepler Architektur bei Tegra 4 verbaut wird, wie viele Gerüchte behaupten.

Kepler small form factor SoC Ableger != Kepler desktop.

Hugo
2012-04-02, 20:36:19
kann man einen Tegra SOC mit Kepler GPU, schon zum Projekt Denver zählen?

Ailuros
2012-04-03, 19:43:31
kann man einen Tegra SOC mit Kepler GPU, schon zum Projekt Denver zählen?

Denver ist eine CPU fuer notebook/PC SoCs. Tegra SoCs hingegen sind small form factor SoCs ergo eine ganz andere Kategorie fuer sich. Denver ist fuer 20HP/TSMC vorgesehen ergo waere es eine brutale Enttaeuschung wenn notebook/PC SoCs mit Denver SoCs keine Maxwell GPU integriert haben wird.

AnarchX
2012-04-03, 21:51:15
64SPs gibt es schon heute in tablet SoCs; da von Anfang 2013 die Rede ist Novathor A9600 koennte Anfang 2013 sogar 160SPs haben. Falls es sich tatsaechlich um einen Kepler Ableger handelt, dann nur 1 SIMD fuer die kleinere Variante (1*32) und 2 SIMDs fuer die groessere (2*32). Schon ein paar Meilen entfernt von den 192SPs von AnarchX weiter oben ;)

Warum sollte NV nicht in der Lage sein ein ähnliches Leistungsniveau wie Serie 6 zu bieten?
Mit LP-Transistoren und <=500MHz könnte wohl eine Kepler SMX in ganz andere Verbrauchsregionen wechseln.

Ailuros
2012-04-04, 19:09:28
Warum sollte NV nicht in der Lage sein ein ähnliches Leistungsniveau wie Serie 6 zu bieten?

Wenn Bandbreite und Stromverbrauch egal sind, gibt es keine besondere Grenze fuers obrige.

Mit LP-Transistoren und <=500MHz könnte wohl eine Kepler SMX in ganz andere Verbrauchsregionen wechseln.

Und hier liegt eben die Gefahr einer falschen Einschaetzung. Ein Kepler SMX so wie ihn Du meinst ist fuer eine performance desktop GPU ausgelegt und hier spielen ganz andere Latenzen mit, brutal hoher Stromverbrauch und dedizierte Bandbreite fuer die GPU etc. Anders kein halbwegs logischer IHV wird so einen cluster nehmen und ihn selbst kastriert in einen small form factor SoC einfach nur so einbauen. Dass es Gemeinsamkeiten geben kann zwischen Kepler und zukuenftigen GPU blocks fuer small form factor SoCs ist wohl kein Problem zu glauben. NVs engineers sind alles andere als so verrueckt nicht einen speziellen angepassten design fuer small form factor SoCs zu entwickeln.

Uebrigens wird mit aller Wahrscheinlichkeit selbst Rogue bei nicht nur 500MHz unter 28LP takten sondern um einiges hoeher.

AnarchX
2012-04-04, 19:24:20
Ich bin wirklich gespannt in welcher Vebrauchsklasse letztendlich der 200GFLOPs SGX aufschlagen wird. ;)

Ailuros
2012-04-04, 20:02:25
Ich bin wirklich gespannt in welcher Vebrauchsklasse letztendlich der 200GFLOPs SGX aufschlagen wird. ;)

Wenn's ein SGX waere wuerde es duester aussehen was den Stromverbrauch betrifft, denn man braeuchte 16 cores um so viel zu erreichen. Da selbst PS Vita nur einen SGX543 MP4@200MHz unter 45nm enthaelt und es eine handheld Konsole ist, waeren 16 cores selbst unter 28nm Wahnsinn fuer tablets bzw. smart-phones.

Rogue GC6400 ist hingegen ein 4 cluster single core, es gibt den GC6200 mit 2 clusters und wird wohl in absehbarer Zukunft Varianten mit weniger und mehr clusters geben. IP Entwicklung hat keine Grenzen diesbezueglich da der SoC manufacturer sich von der existieren Pallette aussucht was er fuer welchen Markt genau braucht.

NVIDIA's Wayne (Tegra4) ist ja nicht nur fuer tablets maximal geplant, sondern wird wohl auch in clamshells und co. reichen. Es ist die Geruechtekueche die jeweils von 32 bzw. 64 "cuda cores" spricht. Wenn Du mich jetzt ueberreden kannst dass Wayne genauso viel SPs haben soll als NV's lowest end Kepler standalone GPU (GK108) dann gerne. Denn mir persoenlich fehlt leider irgendwo der Zusammenhang.

Projekt Denver ist dann natuerlich fuer die weitere Zukunft ein ganz anderes Kapitel.

Hugo
2012-04-04, 20:37:07
Denver ist eine CPU fuer notebook/PC SoCs. Tegra SoCs hingegen sind small form factor SoCs ergo eine ganz andere Kategorie fuer sich. Denver ist fuer 20HP/TSMC vorgesehen ergo waere es eine brutale Enttaeuschung wenn notebook/PC SoCs mit Denver SoCs keine Maxwell GPU integriert haben wird.

da hätte ja Denver schon mal nen aktuellen GPU-Teil
Die Frage ist wie leistungsfähig der CPU-Part wird

btw: ich seh grad falscher thread sind hier im Tegra-thread

Ist es schon gesichert, dass Tegra4 die A15 Kerne haben wird?

Ailuros
2012-04-04, 20:39:43
Ist es schon gesichert, dass Tegra4 die A15 Kerne haben wird?

Gesichert nicht, aber nach quad A9 macht wohl nichts anderes Sinn.

Hugo
2012-04-04, 20:41:25
da hast Recht.
Dual A15 oder Quad A15?

AffenJack
2012-04-04, 20:48:50
Denver ist eine CPU fuer notebook/PC SoCs. Tegra SoCs hingegen sind small form factor SoCs ergo eine ganz andere Kategorie fuer sich. Denver ist fuer 20HP/TSMC vorgesehen ergo waere es eine brutale Enttaeuschung wenn notebook/PC SoCs mit Denver SoCs keine Maxwell GPU integriert haben wird.

Kommt drauf an wann Denver denn wirklich erscheinen soll. Wenn er etwa zeitgleich mit Maxwell erscheinen sollte, dann müsste die Maxwell-Architektur schon sehr früh fertig werden, damit Denver diese bekommt. Das bezweifle ich dann eher. Cpus brauchen nunmal mehr zeit für Validierung, weshalb Amds Apus ja auch immer eine Generation hinterherhinken.

Ailuros
2012-04-05, 15:56:43
Kommt drauf an wann Denver denn wirklich erscheinen soll. Wenn er etwa zeitgleich mit Maxwell erscheinen sollte, dann müsste die Maxwell-Architektur schon sehr früh fertig werden, damit Denver diese bekommt. Das bezweifle ich dann eher. Cpus brauchen nunmal mehr zeit für Validierung, weshalb Amds Apus ja auch immer eine Generation hinterherhinken.

Ausser NV wechselt fuer SoCs zu einer anderen foundry, kamen bisher ihre small form factor SoCs alle von TSMC und entweder quasi zeitgleich in die Produktion als desktop chips oder um einiges spaeter. Denver ist fuer 20nm angeschlagen genauso wie Maxwell und wenn es so weitergeht wie bis heute mit den neuesten Herstellungsprozessen koennte es sogar in 2014 zu knapp werden mit Maxwell.

Ich hab um ehrlich zu sein auch irgendwie den Ball verloren mit Denver; bei so vielen roadmap Aenderungen kann sich wohl keiner mehr sicher sein ob NV jetzt nur ein instruction set von ARM oder fertiges CPU IP vom letzten lizenziert hat. Besondere Wunder wuerde ich von dem Ding so oder so nicht erwarten. Ich kann mir schlecht vorstellen dass die CPU Seite eines solchen SoCs irgendwelche deutliche Vorteile gegen Intel's SoCs der Zukunft haben wird.

Ailuros
2012-04-08, 10:50:34
http://forum.beyond3d.com/showpost.php?p=1635067&postcount=321

I'm pretty sure they must have improved their ALU precision to FP24 and their depth buffer support from 16-bit to 24-bit. Although they don't expose 24-bit depth in OpenGL ES which is probably because it will have a noticeable performance hit (full +50% depth bandwidth since they don't support framebuffer compression AFAICT). Every time I do performance analysis on Tegra at work my eyes bleed at all the depth fighting artifacts... (although it's not as bad in games/benchmarks that set their zmin/zmax intelligently it's still fairly bad).

Leistung ist eine Sache und eine andere wie man diese genau erreicht. Bei z 16bit only und dem unendlichem Z-aliasing ist es auch nicht viel besser, aber eben Hauptsache fps.

Obviously these are all trade-offs and I understand some of the reasons why they made them, but I think at a basic level NVIDIA designed the original Tegra GPU in an era where they thought handheld GPU performance wouldn't increase anywhere nearly as fast as it has, and more importantly they thought they'd be more limited by area than they actually could be at this point (leading to things like no framebuffer compression). It will be interesting to see how aggressive they are with handheld Kepler (and how similar it is to PC Kepler) once that comes to market although it remains to be seen when that actually is and what the competition will be at that point...

Nur so nebenbei...

Ailuros
2012-04-09, 10:38:24
http://www.engadget.com/2012/04/07/reported-tegra-4-roadmap-hints-at-lte-q1-2013-release/

Projektionen:

Wayne

T43 Q2 2013 (clamshell und co.) quad A15@2.0GHz
T40 Q1 2013 (tablets und co.) quad A15@1.8GHz
AP40 Q3 2013 (superphones und co.) quad A15@1.2-1.8GHz

Grey

SP3X Q3 2013 (smartphones und co.) quad A9@1.2-2.0GHz

Nightspider
2012-04-09, 12:11:02
Ich versteh nicht den Sinn der ARM9 Version nicht.

Ailuros
2012-04-09, 12:25:35
Ich versteh nicht den Sinn der ARM9 Version nicht.

Mainstream smart-phones. Billigere SoCs fuer billigere smart-phones was soll daran so schwer zu verstehen sein? Wenn SoC nicht rechtzeitig dafuer sorgen dass sie bescheideneres Zeug im Angebot haben, ist der chinesische Markt als Beispiel ziemlich schnell vom Fenster weg.

Als das Thema "Grey" zum ersten Mal hier im Thread aufkam wollten es die meisten nichtmal glauben dass es sich um einen quasi T3 Ableger unter 28nm handeln wird. Manche erwarteten eher einen 2*A9. Ob engadget jetzt wirklich recht hat keine Ahnung, aber ein T3 Ableger macht mehr Sinn eben wegen seiner besseren Stromspar-funktionen fuer die CPUs.

http://www.pcmag.com/article2/0,2817,2392816,00.asp

http://www8.pcmag.com/media/images/317015-nvidia-tegra-roadmap.jpg?thumb=y

Wayne (T4x/AP4x) reicht von clamshells bis zu superphones und Grey etwas in die lower end superphones und mainstream smartphones (je nach Takt).

Coda
2012-04-09, 13:17:47
Ich versteh nicht den Sinn der ARM9 Version nicht.
ARM9 ist etwas ganz anderes als Cortex A9. Bitte nicht durcheinander bringen.

Nightspider
2012-04-09, 13:35:31
Ja aber ist der A15 nicht wesentlich effizienter bei ähnlichem Die Space?

Dann könnte man den Mainstream Bereich doch mit 600-800Mhz A15 SoCs füttern und hätte längere Laufzeiten bei fast gleichen Produtkionskosten.

Oder übersehe ich da etwas?

Deinorius
2012-04-09, 13:49:55
Der A9 benötigt (deutlich?) weniger DIE Space als der A15 und ist somit billiger. Es muss auch einen billigeren SoC geben. Es geht nicht nur um die Effizienz, ich würde mich eher fragen, ob der A15 für die Nutzung in einem Mainstream-Smartphone wirklich effizienter ist.

Gibts denn überhaupt schon irgendwelche Effizienz-Benchmarks zum A15?

Nightspider
2012-04-09, 13:56:51
Achso, ich dachte der A15 wäre vllt nur 20% größer.

Deinorius
2012-04-09, 14:16:13
Der A15 soll doch 40 % schneller sein, ich nehme mal an, dass sich diese Angabe auf die IPC bezieht und in dem Fall glaube ich nicht, dass die DIE Size auch nur 40 % größer wird.

Weiß da jemand genaueres? So richtig nützliches find ich über den noch immer nicht.

Ailuros
2012-04-09, 14:33:54
Der A15 soll doch 40 % schneller sein, ich nehme mal an, dass sich diese Angabe auf die IPC bezieht und in dem Fall glaube ich nicht, dass die DIE Size auch nur 40 % größer wird.

Weiß da jemand genaueres? So richtig nützliches find ich über den noch immer nicht.

Ich hab's schlecht in Erinnerung; wenn der Zuschuss in die area nicht bei ca. 50% liegen sollte ist er auf jeden Fall wohl schwer kleiner als 40%. Der Unterschied ist eben dass unter 28nm der Unterschied ziemlich schnell verschluckt wird und A15 auch um einiges Taktungs-freudiger ist maximal als A9.

40% mehr Leistung ist auch nur Takt fuer Takt; wenn man jetzt z.B. 4*A9@1.5GHz gegen 4*A15@2.0GHz vergleicht sind es wohl nicht mehr nur 40% Unterschied sondern um einiges mehr und nicht unbedingt bei mehr Stromverbrauch.

Deinorius
2012-04-09, 14:50:40
Na sag ich ja, 40 % mehr IPC.

Meinst du den Vergleich jetzt eigentlich A9/40 nm gegen A15/28 nm? Denn wenn man beides unter 28 nm vergleicht, verbraucht der A9 wieder (deutlich) weniger und hat Vorteile bei Smartphones, die eine längere Akkulaufzeit bieten sollen.

Ailuros
2012-04-09, 15:14:29
Na sag ich ja, 40 % mehr IPC.

Meinst du den Vergleich jetzt eigentlich A9/40 nm gegen A15/28 nm?

Im obrigen Sinn ja.

Denn wenn man beides unter 28 nm vergleicht, verbraucht der A9 wieder (deutlich) weniger und hat Vorteile bei Smartphones, die eine längere Akkulaufzeit bieten sollen.

Bist Du Dir SEHR sicher dass Du unter 28nm z.B. einen quad A9 im Vergleich zu einem dual A15 (selbst bei leicht niedrigeren Frequenz beim letzten) bevorzuegen wuerdest?

Nakai
2012-04-09, 17:39:46
Bist Du Dir SEHR sicher dass Du unter 28nm z.B. einen quad A9 im Vergleich zu einem dual A15 (selbst bei leicht niedrigeren Frequenz beim letzten) bevorzuegen wuerdest?

Freescale macht das sogar mit ihrem iMX6, natürlich nur beim Web Browsing. Aber Freescale ist sowieso ein Sonderfall unter den SOC-Herstellern.

Ailuros
2012-04-10, 18:58:53
Freescale macht das sogar mit ihrem iMX6, natürlich nur beim Web Browsing. Aber Freescale ist sowieso ein Sonderfall unter den SOC-Herstellern.

Meine Frage war offensichtlich nicht was Freescale oder sonst wer heute macht, sondern was er persoenlich fuer ein mainstream smart-phone fuer Ende 2013 als besser haelt.

Deinorius
2012-04-10, 21:19:13
Jetzt hätte ich doch fast vergessen, auf deine Frage zu antworten.

Ich wollte nie einen Quad A9 mit einem Dual A15 vergleichen. Wir müssen nicht darüber diskutieren, welches System für ein Smartphone/Tablet leistungsfähiger ist. IPC geht über alles und auch im Mainstream-Desktop Markt sind mehr als 4 Kerne mehr als fragwürdig.

Während man jedoch im Desktop-Markt ein Plus an Leistung zu bezahlbaren Preise immer gern annimmt, kommen, wie dir ja besser als mir bekannt ist, mehr Faktoren hinzu.
Wenn ein A15 50 % größer ist und ein A9 in einem normalen Workaround weniger Strom verbraucht (obwohl die Arbeit etwas länger zur Vollendung benötigt), dann zahlt sich der Einsatz sicher aus. Alles nur auf DualCore bezogen.
Wenn ein Dual A15 bei niedriger Taktfrequenz billiger herzustellen wäre und durch die höhere IPC auch weniger Strom verbrauchen würde, bitte. Aber dafür bräuchte es erstmals Benchmarks, damit ich das glauben kann.

Mir persönlich ist die Leistung auf einem Smarphone nicht so wichtig, derzeit empfinde ich diese als ausreichend. Wenn eine höhere Leistung dafür sorgt, dass die Effizienz steigt und somit die Akkulaufzeit besser wird, dann bitte gerne. Ich empfinde es als störender, alle 1-2 Tage aufladen zumüssen, als kaum merkbar darauf zu warten, bis eine Seite geladen ist. Die Companion Cores (wie Cortex M3/4) sorgen wenigstens für die Akkulaufzeit, aber es kommen insgesamt ja noch die Produktionskosten hinzu.

Hugo78
2012-04-17, 12:39:53
Nvidias 28-nm-Produkte in Zukunft auch von Samsung?
http://www.computerbase.de/news/2012-04/nvidias-28-nm-produkte-in-zukunft-auch-von-samsung/

YfOrU
2012-04-17, 13:22:42
Die Frage ist ob Nvidia das wirklich machen will den Samsung Semi versucht selbst seit längeren externe Abnehmer für die eigenen SoCs zu gewinnen.
Siehe auch: http://www.electronista.com/articles/12/04/15/meizu.mx.quad.core.ups.ante/

Hugo78
2012-04-17, 14:09:04
Die Beziehung Samsung - Apple ist da viel kritischer, als das Samsung sich Nvidia verweigern wollte, bzw Nvidia einen Bogen um Samsung machen müsste. ;)

YfOrU
2012-04-17, 14:11:00
Nicht auf dieser Ebene denn Samsung Semi ist eine eigenständige Sparte und steht zu Apple in absolut keiner Konkurrenz. Wenn deren selbst entwickelte SoCs (mit eigener Baseband) aus eigener Fertigung aber auf dem globalen Markt angeboten werden steht das in direkter Konkurrenz zu Nvidia.

Ein typisches Beispiel für die vergleichsweise große Unabhängigkeit der einzelnen Samsung Sparten ist die Vielfalt an unterschiedlichen SoCs in Smartphones und Tablets (Samsung Mobile). Diese kommen recht häufig nicht aus eigener Fertigung.

Samsung arbeitet nicht nach dem altbekannten und miserablen Siemens Schema (alles was intern im Unternehmen verfügbar ist wird ohne Rücksicht verbaut) sondern klar unter marktwirtschaftlichen Aspekten. Hat ein externes Unternehmen eine bessere bzw. deutlich kostengünstigere Komponente wird diese der intern verfügbaren vorgezogen.
Die konsequente Umsetzung einer großen Unabhängigkeit der einzelnen Sparten ist die einzige Möglichkeit einen Multikonzern langfristig dynamisch zu halten. Alles andere führt mit der Zeit zu extremen Versteifungen und krassen Fehlentwicklungen. Jede Sparte muss sich in erster Linie dem international Wettbewerb stellen. Das steigert die Konkurrenzfähigkeit des gesamten Unternehmens und macht reale Synergieeffekte erst dauerhaft möglich.

Hugo78
2012-04-17, 16:54:37
Nvidia hat doch garnicht die Volumen um Samsung hier ernsthaft zugefährden.
Qualcomm oder Ti wäre ne andere Nummer.

Ausserdem, was passiert wenn Apple irgendwann mal weniger bei Samsung Semi einkauft?!
Apple hat sich so oft schon von Partnern getrennt bzw. Neue gesucht, dass ist nicht in Stein gehauen, dass ein A6 oder A7 dann auch wieder zu 100% bei Samsung gefertigt wird.

Qualcomm oder Ti als nochmal x-fach größerer Konkurrent zu Samsung Semi wird diese Lücke sicher auch nicht füllen.

Hugo78
2012-04-18, 09:47:23
Nachtrag:

Nvidia has begun sampling its chips on Samsung Electronics' 28nm process technology, the sources indicated.
- http://www.digitimes.com/news/a20120416PD214.html

Mal schauen was draus wird, sollte digitimes seine Quelle richtig verstanden haben.

Ailuros
2012-04-18, 18:36:51
Jetzt hätte ich doch fast vergessen, auf deine Frage zu antworten.

Ich wollte nie einen Quad A9 mit einem Dual A15 vergleichen. Wir müssen nicht darüber diskutieren, welches System für ein Smartphone/Tablet leistungsfähiger ist. IPC geht über alles und auch im Mainstream-Desktop Markt sind mehr als 4 Kerne mehr als fragwürdig.

Während man jedoch im Desktop-Markt ein Plus an Leistung zu bezahlbaren Preise immer gern annimmt, kommen, wie dir ja besser als mir bekannt ist, mehr Faktoren hinzu.
Wenn ein A15 50 % größer ist und ein A9 in einem normalen Workaround weniger Strom verbraucht (obwohl die Arbeit etwas länger zur Vollendung benötigt), dann zahlt sich der Einsatz sicher aus. Alles nur auf DualCore bezogen.
Wenn ein Dual A15 bei niedriger Taktfrequenz billiger herzustellen wäre und durch die höhere IPC auch weniger Strom verbrauchen würde, bitte. Aber dafür bräuchte es erstmals Benchmarks, damit ich das glauben kann.

Mir persönlich ist die Leistung auf einem Smarphone nicht so wichtig, derzeit empfinde ich diese als ausreichend. Wenn eine höhere Leistung dafür sorgt, dass die Effizienz steigt und somit die Akkulaufzeit besser wird, dann bitte gerne. Ich empfinde es als störender, alle 1-2 Tage aufladen zumüssen, als kaum merkbar darauf zu warten, bis eine Seite geladen ist. Die Companion Cores (wie Cortex M3/4) sorgen wenigstens für die Akkulaufzeit, aber es kommen insgesamt ja noch die Produktionskosten hinzu.

Ich hab lediglich mit einer Frage auf Deinen vorigen Satz geantwortet. Die Anzahl der jeweiligen cores ist nebenwichtig im Vergleich zur eigentlichen Effizienz pro core wenn man zwei verschiedene Generationen vergleicht.

Was jetzt generell die unendliche Debatte betrifft wie viele CPU cores egal fuer welchen Nutzen braucht ich vereinfache es mal so: es ist nicht so dass heutige sw egal wo nur single bzw. dual-threading benutzt, aber es ist nicht auch so dass quad (oder mehr threading) die Mehrzahl der Faelle darstellt. Wo immer single threading ein Problem ist stockt es bei mir auf dem PC (win7, quad core CPU) genauso wie bei frueheren Faellen mit weniger CPU cores und/oder winXP und nein die Loesung ist hier nicht die Frequenz zur Decke hochzujagen sondern dass sw endlich dementsprechend angepasst wird. Von der anderen Seite IMHO in den eher wenigen Faellen wo man quad (oder mehr) threading wirklich braucht, braucht man es wirklich.

Sonst zurueck zum Thema; seit Arun bei IMG arbeitet hat er dank internen Analysen Zugang zu allen existierenden Platformen:

http://forum.beyond3d.com/showpost.php?p=1637550&postcount=104

NVIDIA PerfHUD ES (which is very simple to setup on a Transformer Prime but harder on any other device AFAIK) gives you the cycle count and register count for the VS and PS when you click on a program. The results are somewhat confusing (look like scalar on first sight but actually isn't) and don't match either a traditional Vec4 (ala NV30) or a pure scalar SIMT (ala G80) and I probably shouldn't get into what additional tests I ran and what my exact conclusions were, but I think it's fair to say the efficiency is much better than a Vec4 architecture but worse than a pure scalar SIMT ala G80.

Keep in mind they don't support dynamic branching at all in the PS (predication only) so that might have lead them to some unusual trade-offs compared to modern architectures. I'm still somewhat amazed (not in a good way) that they can get away with no pixel shader branching or 24-bit depth buffers but heh...

Was ich links und rechts hinter den Kulissen zugesteckt bekomme, ist dass NV ein paar sehr kluge Tricks (sowohl auf sw als auch hw Ebene) eingelegt hat fuer die ULP GF in Tegras. Die heutige Effizienz ist eine Tatsache; bleibt abzusehen was die Konkurrenz und NV fuer die naechste Generation (OGL_ES3.0/Halti/=/>DX10) genau entwickelt hat. Vector ALUs klingen mir persoenlich egal von wem nach einer Schnappsidee. Bei sogenannten "skalaren" ALUs hat NV zwar den Vorteil endlich GPGPU benutzen zu koennen und sie werden auch ihre diesbezuegliche Erfahrung ausspielen koennen, aber aenliche Tricks wie bisher werden wohl nicht moeglich sein da es erstmal keinen besonderen Leistungsgewinn mehr bringt.

Sonst bin ich neugierig was NV fuer den Bereich framebuffer compression vorhat, da es nichts diesbezuegliches auf bisherigen ULP GFs gibt und auch der eigentliche Grund fuer diverse "workarounds" eigentlich ist. Wenn man architektur-bedingt nicht mehr besonders viel von niedrigerer Praezision in mehreren Stellen dazugewinnen kann, muss man schon an etwas denken dass mit der so oder so kargen SoC Bandbreite sparsamer umgeht.

AnarchX
2012-04-20, 13:59:27
Ob das wohl auf TegraSoCs bezogen ist?

http://www.anandtech.com/show/5762/nvidia-plots-mobile-soc-gpu-performance-surpassing-xbox-360-by-2014

Damit dürfte der 2013er Tegra-SoC die Leistung einer XBox360/PS3 erreichen, was wohl 200-300GFLOPs entspricht => 192-256SPs.

Deinorius
2012-04-21, 16:47:13
Mit 2013 ist wohl 28 nm gemeint. IMO etwas zu optimistisch. Mit 20 nm glaub ich's eher. Falls diese Prozessgeneration 2013 überhaupt verfügbar sein wird.

mboeller
2012-04-21, 20:12:21
der neue Tegra3 scheint ja pro MHz sogar langsamer zu sein als der alte Tegra2. Hat jemand eine Idee warum das so sein könnte? Das einzige was mir einfällt ist der Speicher die Bandbreite bzw. Taktrate des Speichers.

Link: http://www.itkrauts.de/?p=707

Ailuros
2012-04-23, 03:21:57
der neue Tegra3 scheint ja pro MHz sogar langsamer zu sein als der alte Tegra2. Hat jemand eine Idee warum das so sein könnte? Das einzige was mir einfällt ist der Speicher die Bandbreite bzw. Taktrate des Speichers.

Link: http://www.itkrauts.de/?p=707

Ein weiterer alberner Bumsvergleich. Erstens takten die CPU Kerne auf T3 "dynamischer" als auf T2 und zweitens entweder man uebertaktet beide Vergleichsgeraete oder man laesst den Unsinn bleiben.

Bei default Frequenzen ist T3 leicht schneller als T2 (bei vergleichbarem Stromverbrauch). Mit einer 50% Uebertaktung auf T2 ist nicht nur der Stromverbrauch hoeher sondern es takten beide A9 stur auf 1.5GHz, waerend auf T3 eben NICHT alle cores in solchen Faellen auf 1.5GHz laufen sondern dynamisch je nach Notwendigkeit.

Ob das wohl auf TegraSoCs bezogen ist?

http://www.anandtech.com/show/5762/nvidia-plots-mobile-soc-gpu-performance-surpassing-xbox-360-by-2014

Damit dürfte der 2013er Tegra-SoC die Leistung einer XBox360/PS3 erreichen, was wohl 200-300GFLOPs entspricht => 192-256SPs.

Weil roadmaps/Einschaetzungen ueberhaupt bei NV stets korrekt sind? Anand setzt mit Absicht in seinem Titel erst auf 2014 und man braucht nicht unbedingt 192 SPs um die 200 GFLOPs zu erreichen. Quasi XBox360 FLOPs werden sie schon in dem Zeitraum erreichen, was den Rest betrifft hab ich aber noch so manchen Zweifel.

Man kann von dem Graph uebrigens auch eingeschaetzte Wayne/T4 Grafik-Leistung ablesen. 64 SPs bei >600MHz duerften dafuer reichen.

Wo waren Kepler bzw. Maxwell vor einiger Zeit noch angeschlagen?

Dural
2012-04-23, 09:29:49
der neue Tegra3 scheint ja pro MHz sogar langsamer zu sein als der alte Tegra2. Hat jemand eine Idee warum das so sein könnte? Das einzige was mir einfällt ist der Speicher die Bandbreite bzw. Taktrate des Speichers.

Link: http://www.itkrauts.de/?p=707

das dürfte wohl mehr ein software problem sein, zudem T30 bei belastung die kerne doch nur bis max 1,3GHz takten lässt.

zudem ist T30 auf energie effizients ausgelegt, kann gut sein das die einzelne kerne je dach dem geringer takten als es noch beim T20 der fall war.

Ailuros
2012-04-23, 21:53:54
das dürfte wohl mehr ein software problem sein, zudem T30 bei belastung die kerne doch nur bis max 1,3GHz takten lässt.

zudem ist T30 auf energie effizients ausgelegt, kann gut sein das die einzelne kerne je dach dem geringer takten als es noch beim T20 der fall war.

Wenn Du T20 auf 1.2GHz uebertaktest z.B. dann laufen beiden CPU cores auf bis zu 1.2GHz je nach Fall. Auf Tegra2 war es eben nicht moeglich die CPU cores unabhaengig zu takten.

Bei quad A9 T30 wird die Sache komplizierter da alle 4 cores (je nach workload) unabhaengig von einander takten. Im Otto-Normalverbrauch verbraucht unter normalen Umstaenden T30 tatsaechlich etwas weniger als T20; nur wenn z.B. unter 3D alle 4 CPU cores auf dem ersten voll ausgelastet werden, haut es ziemlich auf den Stromverbrauch aber im Vergleich zur Leistung bzw. Effizienz ist ein T20 im Vergleich um einige Meilen entfernt.

Ein sw Problem ist es nicht, eher ein bloeder Author der Aepfel mit Birnen vergleicht.

Ailuros
2012-05-31, 13:31:33
http://www.fudzilla.com/home/item/27373-tegra-could-be-nvidias-leading-product

Kein Wunder; so manche empfinden Jensen's Behauptung dass Tegra langfristig bis zu 50% ihres insgesamten Umsatzes in der Zukunft betragen wird immer noch als einen Witz. Natuerlich meinte Jensen nicht nur small form factor, aber fuer solche Faelle muss man auch wirklich nicht all zu genau sein ;)

Dural
2012-06-04, 09:05:53
Tegra 4 ?

http://www.computerbase.de/news/2012-06/acer-iconia-w510-und-w800-mit-windows-8-vorgestellt/

Frucht-Tiger
2012-06-04, 09:17:21
Tegra 4 ?

http://www.computerbase.de/news/2012-06/acer-iconia-w510-und-w800-mit-windows-8-vorgestellt/

Nein, beides Core-i http://www.heise.de/newsticker/meldung/Acer-zeigt-zwei-Tablets-fuer-Windows-8-1589701.html

Mancko
2012-06-10, 17:00:56
weiteres "Project Kai" Tablet:

http://www.computerbase.de/news/2012-06/asus-nexus-7-wird-ende-juni-vorgestellt/

Tegra3 scheint in immer mehr Tablets zu wandern - vor allem im preissensitiven Bereich. Dazu einige SmartPhones wie das HTC OneX. Die Sparte dürfte auch weiter im Bereich Umsatz ordentlich wachsen. Verfügbarkeit scheint ja - anders als bei anderen SoCs - kein Problem zu sein.

Ailuros
2012-06-11, 12:15:57
weiteres "Project Kai" Tablet:

http://www.computerbase.de/news/2012-06/asus-nexus-7-wird-ende-juni-vorgestellt/

Tegra3 scheint in immer mehr Tablets zu wandern - vor allem im preissensitiven Bereich. Dazu einige SmartPhones wie das HTC OneX. Die Sparte dürfte auch weiter im Bereich Umsatz ordentlich wachsen. Verfügbarkeit scheint ja - anders als bei anderen SoCs - kein Problem zu sein.

Nicht alle HTC OneX basieren auf T3; eher eine gemischte Tuete mit zwei verschiedenen SoCs je nach Markt. Ist bei Samsung Galaxy S3 (ARM Mali GPU) auch nicht anders: http://www.xbitlabs.com/news/mobile/display/20120607121519_Samsung_Drops_Quad_Core_System_on_Chip_from_U_S_Version_of_Galaxy _S_III.html

NV braucht dringend LTE, da es momentan eines der grossen Trumpfkarten von Qualcomm ist.

Mancko
2012-06-11, 13:03:17
Nicht alle HTC OneX basieren auf T3; eher eine gemischte Tuete mit zwei verschiedenen SoCs je nach Markt. Ist bei Samsung Galaxy S3 (ARM Mali GPU) auch nicht anders: http://www.xbitlabs.com/news/mobile/display/20120607121519_Samsung_Drops_Quad_Core_System_on_Chip_from_U_S_Version_of_Galaxy _S_III.html

NV braucht dringend LTE, da es momentan eines der grossen Trumpfkarten von Qualcomm ist.

Da gebe ich Dir Recht. LTE ist zwingend erforderlich. Aber daran arbeiten sie ja. Der nächste Tegra dürfte dort einen Schritt nach vorn machen. Genau dafür haben sie ja Icera gekauft.

Ansonsten muss ich aber sagen, waren 40nm für Nvidia die optimale Wahl. Verfügbarkeit ist sehr gut und Produktionskosten gering dank kleinem SoC und bewährtem und sehr gut verfügbarem Fertigungsverfahren. In den letzten Wochen sind eine Reihe neuer Tablets mit Tegra 3 angekündigt worden unter anderem auch einige die strikt auf Kosten getrimmt sind. Bei den Phones ist ZTE mit seinem "billig" SmartPhone noch dabei neben dem OneX. Die Sparte wird m.E. weiter zweistellig pro Quartal wachsen und müsste das Chipsatzsgeschäft bereits überholt haben. Dafür das sie diese Sparte aus dem nichts gestampft haben ist das mehr als ordentlich. Bei zukünftigen Tegras werden sie m.E. jetzt den Schwerpunkt auf die Schwachstellen (GPU und LTE) legen. Bei den CPU Kernen sind sie bereits sehr gut unterwegs.

Ailuros
2012-06-11, 17:05:42
Fuer CPUs brauchen sie auch nichts besonderes anrichten, da sie CPU IP von ARM lizenzieren.

Und ja sowohl LTE als auch staerkere GPUs stehen wohl auf der roadmap. NV's grosser Vorteil der sich womoeglich erst ab win8 abspielen wird ist dass sie eine bombastische Erfahrung im compiler und Treiber Feld dank desktop haben.

iFanatiker
2012-06-11, 17:36:52
Und ja sowohl LTE als auch staerkere GPUs stehen wohl auf der roadmap. NV's grosser Vorteil der sich womoeglich erst ab win8 abspielen wird ist dass sie eine bombastische Erfahrung im compiler und Treiber Feld dank desktop haben.

Nach meinen Erfahrungen mit Cedar Trail würde ich dir vollkommen zustimmen. Zumindest bei Windows 8 ARM Geräten wird nVidia jedes Ausschreibung gewinnen. ;D Gerade die Tatsache, dass nVidia vermutlich sehr Runde Windows Treibern liefern kann wird hier ein unglaublicher Wettbewerbsvorteil sein. Bei 10" Tablets kann man sowieso zusätzliches LTE Modem auch in 40nm verbauen.

Wie steht eigentlich die Geschichte bei der Mali IP? Liefer da ARM generische Windows Treiber oder muss jeder Lizenznehmer selber lostigern? :freak:;D

Mancko
2012-06-12, 08:50:28
Fuer CPUs brauchen sie auch nichts besonderes anrichten, da sie CPU IP von ARM lizenzieren.


Klar lizensieren sie aber trotzdem hatten sie ja vorher 0 Erfahrung mit sowas. Das finde ich schon beeindruckend wie schnell die hier reagiert haben. Da agiert AMD viel viel langsamer. Auch die Sache mit dem 5. Companion Core war doch richtig clever in Anbetracht der Limitierungen beim Fertigungsverfahren.


Und ja sowohl LTE als auch staerkere GPUs stehen wohl auf der roadmap. NV's grosser Vorteil der sich womoeglich erst ab win8 abspielen wird ist dass sie eine bombastische Erfahrung im compiler und Treiber Feld dank desktop haben.

Das ist wohl war. Hier sehe ich auch einen gewissen Vorteil, vor allem wenn es darum geht irgendwelche Entwicklungstools etc. zu bauen. Das unterscheidet sie m.E. recht klar von anderen SoC Herstellern.

Dural
2012-06-12, 11:00:03
Tegra 4 wird aber ohne LTE kommen, das dürfte erst im Tegra 5 intergiert sein.

Vorher wird es im Low-Cost Tegra SoC einzughalten (Dual Core, 2013)

Ailuros
2012-06-12, 11:49:53
Klar lizensieren sie aber trotzdem hatten sie ja vorher 0 Erfahrung mit sowas.

Wie schwer soll es genau fuer erfahrene engineers sein fertige CPU IP zu integrieren? Klar ist es kein Kinderspiel, aber weder NV noch irgend ein anderer SoC Hersteller entwickeln in solchen Faellen nicht das IP.

Das finde ich schon beeindruckend wie schnell die hier reagiert haben. Da agiert AMD viel viel langsamer.

AMD hat bis jetzt noch kein besonderes Interesse an small form factor gezeigt und wird sich wohl weiter noch dafuer Zeit lassen. Ihre momentane hauptsaechliche Konzentration faellt auf Fusion sprich netbooks bis PC/laptop SoCs, ein Feld bei dem NV erst ab Maxwell/20nm mit Project Denver nachtragen wird. Beides auf einen Schlag ist einfach zu viel. Der Vorteil in diesem Fall ist dass die Volumen im smart-phone Markt um einiges groesser sind und weiterhin steigen werden als in PC/notebook Maerkten, kommt aber auch natuerlich auf den Marktanteil von jeglichem SoC Hersteller an. Fuer smartphone SoCs hat Qualcomm momentan den absoluten Loewen-anteil und sie haben auch in letzter Zeit ziemlich stark aufgeholt:

http://www.glbenchmark.com/phonedetails.jsp?D=LG+LS970&benchmark=glpro21

Smartphone SoC und nur einen Atem unter iPad3 Leistung.

Auch die Sache mit dem 5. Companion Core war doch richtig clever in Anbetracht der Limitierungen beim Fertigungsverfahren.

Nichts besonders Neues im Vergleich zu big.LITTLE fuer ARM cores.


Wie steht eigentlich die Geschichte bei der Mali IP? Liefer da ARM generische Windows Treiber oder muss jeder Lizenznehmer selber lostigern? :freak:;D

Es wird wohl kein einziger GPU IP Lieferant so bloed sein und nicht windows Treiber liefern fuer Platformen die windows als Ziel haben.

Blediator16
2012-06-17, 03:31:51
Passt irgendwie hier rein :D

http://www.youtube.com/watch?v=MShbP3OpASA&feature=youtu.be&t=49m45s

Sir Integral Wingate Hellsing
2012-06-18, 07:40:31
Passt irgendwie hier rein :D

http://www.youtube.com/watch?v=MShbP3OpASA&feature=youtu.be&t=49m45s

http://www.heise.de/newsticker/meldung/Torvalds-zeigt-Nvidia-den-Stinkefinger-1619616.html

der Heise-Artikel dazu^^

Hugo78
2012-06-18, 08:39:44
Wie haben dazu schon ein Thema:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=529038

AnarchX
2012-06-23, 17:39:11
Tegra 4 Wayne mit 64 Kepler CUDA-Cores @520MHz?

http://news.mydrivers.com/1/232/232173.htm

... und wohl laut Laboranalysen 6-mal soviel Shaderleistung wie ein Adreno 320 im APQ8064 und wohl 4-mal soviel wie ein SGX544MP2 im OMAP5?

Nakai
2012-06-23, 17:55:07
Interessant, aber irgendwie komisch.

Wieviele SIMDs hat Adreno320?
Bzw. wie sieht Adreno320 genau aus?

Ansonsten wird mir nicht klar, was mit Shaderleistung gemeint ist. Reine GFLOPs?
Mit 64GFLOPs wird man mit Wayne schwer die 6fache Shaderleistung eines Adreno320 haben, wo doch Adreno225 bereits dieses Level hat. Adreno320 schätze ich eher bei um die ~50GFLOPs ein.

Deswegen wieder: Wie sieht Adreno320 eigentlich aus?

san.salvador
2012-06-23, 17:55:39
Tegra 4 Wayne mit 64 Kepler CUDA-Cores @520MHz?

http://news.mydrivers.com/1/232/232173.htm

... und wohl laut Laboranalysen 6-mal soviel Shaderleistung wie ein Adreno 320 im APQ8064 und wohl 4-mal soviel wie ein SGX544MP2 im OMAP5?
Ohne Angabe des Stromverbrauchs höchst unbeeindruckend.

Nightspider
2012-06-23, 18:00:46
Chipfläche wäre auch interessant. Wenn das Ding 2-4 mal soviel Fläche braucht, wie die Konkurenz wäre das am Ende auch nur halb so wild.

Da aber schon Tegra 3 sehr heiß wurde und scheinbar, trotz Companion-Core, nicht zu den sparsamsten SoCs gehört, wäre es für Tegra 4 umso wichtiger effizient zu sein.

Hugo78
2012-06-23, 20:09:53
Da aber schon Tegra 3 sehr heiß wurde

Quelle?

Nightspider
2012-06-23, 21:26:35
Useraussagen hier im Forum, das beim Spielen die Rückseite des HTC One X unangenehm warm/heiß wird.
Im normalen Alltag weniger aber ist ja klar das Spiele deutlich mehr Power verbraten.

Mancko
2012-06-23, 21:31:51
Useraussagen hier im Forum, das beim Spielen die Rückseite des HTC One X unangenehm warm/heiß wird.
Im normalen Alltag weniger aber ist ja klar das Spiele deutlich mehr Power verbraten.

Das liegt aber wenn überhaupt am Fertigungsverfahren und nicht am Tegra3. Das neue iPad wird bei sowas auch hübsch warm. Das ist der Nachteil der 40nm Fertigung. Dafür ist diese günstig und massig verfügbar anders als die derzeit noch sehr limitierte 28nm Fertigung. Es nützt halt nix, wenn man tolle 28nm SoCs hat, diese aber nicht genügend liefern kann.

Nightspider
2012-06-23, 21:48:02
Naja der A5 im iPhone 4S ist deutlich schneller und kühler als ein Tegra 3 bei gleicher Fertigung wenn ich mich nicht irre. Zumindest unter voller Grafiklast.

dildo4u
2012-06-23, 22:02:18
Naja der A5 im iPhone 4S ist deutlich schneller und kühler als ein Tegra 3 bei gleicher Fertigung wenn ich mich nicht irre. Zumindest unter voller Grafiklast.
Du kannst nicht ein Quad mit einem Dual-Core vergleichen nur weil die GPU dort schneller ist,gerade die Tegra 3 Games nutzt alles Cores aus.

http://youtu.be/eBvaDtshLY8?hd=1

Logisch das er mehr Hitze erzeugt zudem ist der Takt höher als beim 4S trotz 4 Cores.

Ailuros
2012-06-23, 22:49:02
Tegra 4 Wayne mit 64 Kepler CUDA-Cores @520MHz?

http://news.mydrivers.com/1/232/232173.htm

... und wohl laut Laboranalysen 6-mal soviel Shaderleistung wie ein Adreno 320 im APQ8064 und wohl 4-mal soviel wie ein SGX544MP2 im OMAP5?

Frequenz zur Seite es wuerde mich sehr ueberraschen wenn 320 weniger SPs hat insgesamt. Zwar wuerde ich nicht bezweifeln dass NV schon aus sw/compiler Gruenden diesem mit Wayne ein gutes Stueck voraus liegt, aber gleich 6x Mal ist schon ein fetter Batzen es so einfach zu glauben.

Sonst soll nach TI OMAP5430 in GLBenchmark2.5 46fps in 1080p liefern; sollte die obrige Behauptung stimmen duerfte Wayne in diesem 184 fps erreichen :rolleyes:

Interessant, aber irgendwie komisch.

Wieviele SIMDs hat Adreno320?
Bzw. wie sieht Adreno320 genau aus?

Ansonsten wird mir nicht klar, was mit Shaderleistung gemeint ist. Reine GFLOPs?
Mit 64GFLOPs wird man mit Wayne schwer die 6fache Shaderleistung eines Adreno320 haben, wo doch Adreno225 bereits dieses Level hat. Adreno320 schätze ich eher bei um die ~50GFLOPs ein.

Deswegen wieder: Wie sieht Adreno320 eigentlich aus?

Ehrlich gesagt keine Ahnung; ich bin mir lediglich sicher dass 320 4 TMUs hat und duerfte aus 4 single TMU core/clusters (Adreno305?) bestehen. Adreno225 hat 8Vec4 ALUs/2 TMUs, ergo 32SPs. Adreno305 ist zwar schwaecher als der Adreno225 aber es laesst sich spekulativ leicht erklaeren falls der 305 aus einer TMU bzw. 16 "skalaren" SPs besteht. Wie oben erwaehnt Qualcomm hat zwar beschissene compiler bzw. Treiber, aber unter 300MHz taktet der 320 wohl nicht und die 6x Mal Unterschied kann ich nicht so leicht schlucken. Ich will hoffen dass die angegebenen Resultate auf Spiele-Leistung bzw. unabhaengigen synthetischen benchmark Resultate basieren.

Eines ist wohl klar: Wayne ist wohl definitiv nicht nur 2x Mal schneller als SoC im Vergleich zu Kal-El.

Sonst sollte man daran erinnern dass Wayne nicht nur smart-phones als Ziel hat sondern von "superphones" (halb so viele SPs) wie sie NV nennt bis auf netbooks/clamshells ( doppelt so viele SPs) rangieren wird. 64SPs@520MHz entsprechen uebrigens 66.6 GFLOPs...ooops tschuldigung "Ultra" GigaFLOPs ;)

***edit: ok Bullshitmeter steht wieder auf rot: http://forum.beyond3d.com/showpost.php?p=1652397&postcount=140 ....ach auf den BullShitNews Geruechten basiert der sich immer wiederholende Quark? Uebrigens Kepler ALUs my ass...

Nakai
2012-06-24, 15:40:05
***edit: ok Bullshitmeter steht wieder auf rot: http://forum.beyond3d.com/showpost.php?p=1652397&postcount=140 ....ach auf den BullShitNews Geruechten basiert der sich immer wiederholende Quark? Uebrigens Kepler ALUs my ass...


Gut, dann hat sich das auch geklärt.

Ich vermute Adreno320 wird wohl doppelt soviele SPs wie Adreno 225 haben. Dazu einen höheren Takt, bessere Treiber und eine verbesserte Architektur und schon stimmen die 3 bis 4 fache Leistung eines Adreno225.

Ailuros
2012-06-25, 12:10:25
Gut, dann hat sich das auch geklärt.

Ich vermute Adreno320 wird wohl doppelt soviele SPs wie Adreno 225 haben. Dazu einen höheren Takt, bessere Treiber und eine verbesserte Architektur und schon stimmen die 3 bis 4 fache Leistung eines Adreno225.

Ueber einen hoeheren Takt fuer 320 bin ich mir gar nicht so sicher; mein Bauchgefuehl liegt eher in Richtung 300-350MHz (4 SIMD16 oder 64SPs?, 4 TMUs), sonst bei hoeherer Frequenz muesste der 320 schon das SGX543MP4@250MHz im iPad3 schlagen (32 Vec4 oder 128SPs, 8 TMUs).

Es wird wohl schon ein merkwuerdiges plus/minus zwischen Adreno320 und anderen heutigen SFF GPUs geben (einfacherer compiler, bessere ALU utilization, mieser Treiber, schlechte Effizienz etc.), aber wie ich schon im Qualcomm Thread sagte falls 320 tatsaechlich auf >400MHz taktet, dann ist die Effizienz noch ehlendiger als ich mir vorstellen kann.

Um aufs Thema zurueck zu kommen, falls die Geruecht-spinnerei sich auf einen Wayne vs. Adreno225 Vergleich bezieht (und hier einfach jemand weitergesponnen hat...), dann ja kann ich Wayne = 6x Adreno225 problemlos glauben.

Dural
2012-06-26, 09:13:27
ist da schon der T3+ verbaut?

der takt mit 1,6GHz ist ja ziemlich hoch :confused:

http://www.computerbase.de/news/2012-06/asus-transformer-pad-infinity-ab-juli-im-handel/

Hugo78
2012-06-26, 10:05:28
Das verbaute T33 ist ein besseres Stepping noch in 40nm.
T3+ wird T35 bzw. T37 heißen.
Für den Tegra 3 (Codename Kal-El) alias T30/T30S/T30SL kommen erst einmal Varianten (T33, T33S und T33SL) mit etwas höherer Taktfrequenz (bis zu 1,7 GHz statt ursprünglich 1,3 GHz im Einkern-Turbo-Modus). Ebenfalls noch in diesem Jahr will Nvidia unter dem Codenamen "Kal-El+" den Fertigungsprozess von 40- auf 28-nm-Strukturen umstellen. Der Chip dürfte dann erst einmal T35 heißen und gegen Ende des Jahres als T37 (oder auch AP37) noch einmal ein paar zusätzliche Megahertz spendiert bekommen. Spekuliert wird über 1,7 GHz.
http://www.heise.de/ct/meldung/Nvidia-CPUs-Tegra-4-vermutlich-mit-neuen-ARM-Kernen-1519570.html

dildo4u
2012-06-26, 10:42:59
Denke mal die 1.7 der 28nm Version sind da nur der Anfang je besser das Stepping wird man Richtung 2Ghz gehen.

Dural
2012-06-26, 10:51:05
ok, wusste gar nicht das NV noch ein zwischen ding neben T3+ bringt :)

Edit:
Mal drüber nach gedacht, bis 1,7GHz ist schon noch heftig für ein 40nm Quad Core, das erreicht ja nicht mal jeder Dual Core. T3 scheint wirklich sehr sparsam zu sein.

Ailuros
2012-06-26, 11:05:51
ok, wusste gar nicht das NV noch ein zwischen ding neben T3+ bringt :)

Edit:
Mal drüber nach gedacht, bis 1,7GHz ist schon noch heftig für ein 40nm Quad Core, das erreicht ja nicht mal jeder Dual Core. T3 scheint wirklich sehr sparsam zu sein.

Wenn man bedenkt wie selten auf einem quad core config alle oder nur ein core auf die maximale Frequenz hochfaehrt ist es keine besondere Ueberraschung. Worueber ich mir nicht sicher bin, ist ob in T33 die GPU einen hoeheren Takt hat oder der ca. 10% Leistungsgewinn eher von der hoeheren Bandbreite des SoCs kommt. Momentan tippe ich auf den zweiten Fall auch folgend auf Anand's relevante Andeutungen.

Wie dem auch sei wenn Wayne rechtzeitig erscheint (Anfang 2013) in Geraeten und es entspricht mehr oder weniger dem was ich erwarte, dann muss sich die gesamte Konkurrenz ziemlich warm anziehen. Die obrigen Geruechte sind natuerlich nach wie vor fuer die Muelltonne.

dildo4u
2012-06-26, 11:07:23
Wenn man bedenkt wie selten auf einem quad core config alle oder nur ein core auf die maximale Frequenz hochfaehrt ist es keine besondere Ueberraschung. Worueber ich mir nicht sicher bin, ist ob in T33 die GPU einen hoeheren Takt hat oder der ca. 10% Leistungsgewinn eher von der hoeheren Bandbreite des SoCs kommt. Momentan tippe ich auf den zweiten Fall auch folgend auf Anand's relevante Andeutungen.

Wurde schon getestet die höhere Bandbreite bringt bis zu 20% GPU Takt bleibt gleich.
http://www.anandtech.com/show/6036/asus-transformer-pad-infinity-tf700t-review/4

Ailuros
2012-06-26, 11:47:17
Wurde schon getestet die höhere Bandbreite bringt bis zu 20% GPU Takt bleibt gleich.
http://www.anandtech.com/show/6036/asus-transformer-pad-infinity-tf700t-review/4

Egypt offscreen = + 11%; PRO ist immer noch OGL_ES1.1. Sonst laeuft offscreen in 720p, waehrend das Geraet eine native Aufloesung von 1080p hat, wie Anand auch selber betont.

Ailuros
2012-06-28, 14:04:47
Google Nexus Tablet 7 reviews:

http://www.fudzilla.com/home/item/27713-nexus-7-gets-positive-initial-reviews

Mal sehen wer fuer diese Runde den groessten $199 tablet Deal schnappen wird.

Dural
2012-06-28, 14:26:42
etwas grosses gehäuse, die technische daten überzeugen für den preis aber doch recht gut.

übrigens mit einer "low-cost" tegra3 version mit "nur" 1,2GHz, NV scheint dank dieser ziemlich schön selektieren zu können, deswegen wahrscheinlich auch dieser sehr hohe takt mit bis zu 1,7GHz :)

Ailuros
2012-06-29, 12:33:53
Jelly Bean Referenz Produkt ist ein ziemlich grosser Erfolg. Bleibt die Frage ob der grosse low cost Android tablet Fisch darauf eingebissen hat.

Hugo
2012-07-01, 14:22:01
Wie dem auch sei wenn Wayne rechtzeitig erscheint (Anfang 2013) in Geraeten und es entspricht mehr oder weniger dem was ich erwarte, dann muss sich die gesamte Konkurrenz ziemlich warm anziehen. Die obrigen Geruechte sind natuerlich nach wie vor fuer die Muelltonne.


Wird Tegra 4 Anfang 2013 erst vorgestellt oder kann man ihn dann schon in fertigen Geräten finden?

Ailuros
2012-07-02, 11:59:49
Wird Tegra 4 Anfang 2013 erst vorgestellt oder kann man ihn dann schon in fertigen Geräten finden?

Es kann so vieles schief gehen mit einem SoC dass es heutzutage eher selten ist dass alles nach Plan laeuft.

Dural
2012-07-02, 12:40:18
Q1 2013 wäre ja genau genommen schon eine leichte verspätung, NV hat ja gesagt das sie jedes jahr was neues bringen und Tegra 3 gibt es seit Q4 2011 im Handel.

daher hoffe ich mal sehr das es im Q1 geräte zu kaufen gibt.

Ailuros
2012-07-02, 16:34:44
Q1 2013 wäre ja genau genommen schon eine leichte verspätung, NV hat ja gesagt das sie jedes jahr was neues bringen und Tegra 3 gibt es seit Q4 2011 im Handel.

daher hoffe ich mal sehr das es im Q1 geräte zu kaufen gibt.

T30 hatte eine leichte Verspaetung und AP30 eine relativ groessere von den originalen Projektionen. T33 ist quasi auch etwas neues und wenn NV es eben nicht schaffen sollte Wayne innerhalb 2012 auf die Regale zu bringen, dann ist auch nichts daran "gelogen". Als ob es wirklich in den Haenden eines jeglichem SoC Hersteller liegt wenn sich etwas verspaetet.

Hugo
2012-07-02, 18:39:51
wenn Wayne vorgestellt wird dauert es ja meißtens noch ne Weile bis Produkte damit kaufbar sind. Da frag ich mich, wird er gleich mit Produkten vorgestellt oder erstmal nur der SoC?

Dural
2012-07-03, 10:08:30
betreffend Nexus 7, bei allen vier kernen sind es sogar nur 1,15GHz, bei einem bis 1,3GHz

das interessante ist aber dass das Nexus trotzdem schneller als ein Asus Prime ist, wurde da der GPU takt gleich gelassen oder sogar leicht erhöht, mehr Bandbreite oder ist die Software einfach besser Optimiert?!?

http://www.theverge.com/2012/6/29/3125396/google-nexus-7-review

Ailuros
2012-07-03, 10:23:28
betreffend Nexus 7, bei allen vier kernen sind es sogar nur 1,15GHz, bei einem bis 1,3GHz

das interessante ist aber dass das Nexus trotzdem schneller als ein Asus Prime ist, wurde da der GPU takt gleich gelassen oder sogar leicht erhöht, mehr Bandbreite oder ist die Software einfach besser Optimiert?!?

http://www.theverge.com/2012/6/29/3125396/google-nexus-7-review

Nach Anand (wofuer ich keine Zweifel habe das es stimmt da er es von NV direkt hat) mehr Bandbreite bei gleichem Takt.

wenn Wayne vorgestellt wird dauert es ja meißtens noch ne Weile bis Produkte damit kaufbar sind. Da frag ich mich, wird er gleich mit Produkten vorgestellt oder erstmal nur der SoC?

So ist es auch gemeint; es wuerde mich kein bisschen wundern wenn NV Wayne innerhalb 2012 vorstellt. Wann dann ihre Kunden Geraete damit auf Regalen haben werden ist offensichtlich ein anderes Kapitel und ausserhalb NV's oder jedem anderem SoC Hersteller's Kontrolle.

Uebrigens am Rand: falls Wayne eine quad A15 CPU haben sollte und tatsaechlich Anfang 13' damit in Geraeten erscheint, wird die Konkurrenz ziemlich bloed dastehen da NV kein A15 key partner war :D

Hugo78
2012-07-06, 12:37:20
Tegra 3 kostet $42?
http://ht4u.net/news/25751_googles_nexus_7_angeblich_nicht_gewinnbringend_-_fertigungskosten_sind_zu_hoch/

Relic
2012-07-06, 12:50:38
Tegra 3 kostet $42?
http://ht4u.net/news/25751_googles_nexus_7_angeblich_nicht_gewinnbringend_-_fertigungskosten_sind_zu_hoch/

Nie im Leben bezahlt Google so viel für den Tegra3...

Hugo78
2012-07-06, 12:53:01
42 klingt auch so, als hätten die Anal.ysten nur die Antwort bekommen,
die man immer auf Fragen hört die keiner beantworten will. ;)

dildo4u
2012-07-06, 12:56:02
Der Preis wird schon hoch sein da es immer noch keine andere Alternative gibt für einen Quad.Alles was in der Richtung von der Konkurrenz kommt ist 28/32nm und noch teurer zur Zeit bzw wäre nich in hoher Stückzahl lieferbar.

Hugo78
2012-07-06, 13:22:19
Mit Blick auf 40nm GPUs gleicher Größe, dürften es aber max. $25 sein.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=522430

GF106 ist etwas größer und kostet $30.

Ailuros
2012-07-06, 14:59:49
42 klingt auch so, als hätten die Anal.ysten nur die Antwort bekommen,
die man immer auf Fragen hört die keiner beantworten will. ;)

LOL so in etwa schon. Noch dazu kommt wie heiss ein SoC Hersteller auf einen jeglichen Deal genau ist. Tegra3 als sozusagen Jelly bean Referenz ist alles andere als ein kleiner Brocken; mag sein dass Google keine Uebermenge von dem Ding verkaufen wird, aber mit dem Referenz-Siegel haben es andere Hersteller um einiges leichter T3 zu integrieren/benutzen.

Ich wuerde eher sagen dass NV Google ein sehr gutes Angebot gemacht hat um T3 in's Nexus7 reinquetschen zu koennen egal ob Google wenig oder keinen Gewinn von den Dingern macht. Sonst verkauft jeglicher SoC Hersteller mit einem N Startpreis und je hoeher das Volumen desto besser das Angebot und ergo der finale Preis/SoC.

Mag sein dass wenn ein 0815 Hersteller 100000 T3 bestellt der Preis so hoch sein koennte, aber Du kannst beruhigt Gift drauf nehmen dass bei den Verhandlungen fuer das naechste Kindle Fire NV Amazon eben nicht so einen verrueckten Preis angeboten hat; wohl eher das radikal moeglichste Gegenteil ;)

Dural
2012-07-06, 15:21:52
max 20.- US Dollar, mehr wird das ding in grösseren stückzahlen sicher nicht kosten.

zudem handelt es sich beim Nexus um die "spar" T3 version, da könnte ich mir sogar 15.- US Dollar vorstellen.

Relic
2012-07-06, 16:45:43
max 20.- US Dollar, mehr wird das ding in grösseren stückzahlen sicher nicht kosten.

zudem handelt es sich beim Nexus um die "spar" T3 version, da könnte ich mir sogar 15.- US Dollar vorstellen.

Ja sowas könnte ich mir auch vorstellen auch in Hinsicht was man früher gehört hat, was Arm SOCs gekostet haben.

Ailuros
2012-07-07, 08:35:35
max 20.- US Dollar, mehr wird das ding in grösseren stückzahlen sicher nicht kosten.

zudem handelt es sich beim Nexus um die "spar" T3 version, da könnte ich mir sogar 15.- US Dollar vorstellen.

>$10 und <$15.

=Floi=
2012-07-08, 14:41:58
warum shrinkt man diese chips nicht?

YfOrU
2012-07-08, 15:09:27
Ungenügende Produktionskapazitäten und dadurch wird das Endprodukt wenn eine halbwegs ausreichende Verfügbarkeit gewährleistet sein soll teurer als mit alten 40nm SoCs & Basebands.

Hugo78
2012-07-12, 12:04:04
Tegra 3 kostet $42?
http://ht4u.net/news/25751_googles_nexus_7_angeblich_nicht_gewinnbringend_-_fertigungskosten_sind_zu_hoch/

IHS iSuppli meint $21.
http://www.computerbase.de/news/2012-07/neue-materialkostenaufschluesselung-fuer-das-google-nexus-7/

Dural
2012-07-12, 12:19:37
würde mich auch überraschen wenn nur ein hersteller wirklich für jedes verkauft produkt geld verlieren würde.

auch bei konsolen wird da oft übertrieben, meistens gehts halt 1:1 raus. die regulären "gewinne" von 50% und mehr auf hardware gegenüber dem verkaufs und produktions / preis sind bei solchen produkten aber natürlich nicht vorhanden.

übrigens kann bei 160.- US Doller sicher nicht von einem gewinn für google gesprochen werden, keine ahnung wie die darauf kommen...

Ailuros
2012-07-12, 12:53:22
Es gibt mehr als nur ein Geruecht dass Google das Nexus7 sehr nahe am Herstellungspreis verkauft und das schon seit der Vorstellung.

Hugo78
2012-07-12, 23:05:26
Aus Sicht von NV, wären 21 USD ja kein schlechter Preispunkt.
Nicht ganz das Optimum, wenn ich das mit GF106 vergleiche in Bezug auf die vermutete Größe, aber T3 wird ja auch nur in 40nm LP, statt HP gefertigt.
Ich bilde mir ein, dass hier noch etwas Spielraum bei der ausgereiften Massenproduktion in 40nm LP, vorhanden sein müsste, zumal man nur 1,2 GHz fährt.

Also sollten die 21 USD stimmen, ist das Nexus 7 für Google nicht notwendigerweise ein Gewinn, rein vom Verkauf der HW her.
Für NV aber sollte genug hängen bleiben.

Ailuros
2012-07-13, 11:29:12
Aus Sicht von NV, wären 21 USD ja kein schlechter Preispunkt.
Nicht ganz das Optimum, wenn ich das mit GF106 vergleiche in Bezug auf die vermutete Größe, aber T3 wird ja auch nur in 40nm LP, statt HP gefertigt.

Du wirst wohl einsehen koenne dass es total albern ist einen GPU chip mit einem SoC zu vergleichen.

Ich bilde mir ein, dass hier noch etwas Spielraum bei der ausgereiften Massenproduktion in 40nm LP, vorhanden sein müsste, zumal man nur 1,2 GHz fährt.

T3 ist zu seiner Mehrzahl unter 40LP aber eben doch nicht der ganze SoC.

Also sollten die 21 USD stimmen, ist das Nexus 7 für Google nicht notwendigerweise ein Gewinn, rein vom Verkauf der HW her.
Für NV aber sollte genug hängen bleiben.

Selbst wenn finanziell es wenig oder gar nichts bringen sollte, ist der eigentliche Gewinn die tablet Referenz Platform fuer Google zu erreichen um einiges wichtiger.

Hugo78
2012-07-16, 22:34:16
@Ailuros
NV wird schon noch paar Dollar mit dem Google Deal verdienen, da mach ich mir keine Sorgen. :)

Was anderes:
Kontron KTT30 für $199

http://www10.pic-upload.de/thumb/16.07.12/ujmpo252l3z.jpg (http://www.pic-upload.de/view-15155426/kontron-ktt30-tegra-3.jpg.html)

Thin-Mini-ITX-Mainboard mit Nvidia Tegra 3
http://www.computerbase.de/news/2012-07/thin-mini-itx-mainboard-mit-nvidia-tegra-3/

Kontron preps first Tegra 3-based Mini-ITX board, homebrew gets an ARMful
http://www.engadget.com/2012/07/15/kontron-preps-first-tegra-3-based-mini-itx-board/
______________

Der Preis ist sicher kein "Sweet Spot" für sowenig Technik,
aber als Ausblick auf das was mit T4 und Win8 recht bald möglich sein könnte in Sachen HTPC / Fileserver, ist es nicht verkehrt.

Ailuros
2012-07-17, 08:41:09
@Ailuros
NV wird schon noch paar Dollar mit dem Google Deal verdienen, da mach ich mir keine Sorgen. :)

Es war so gemeint dass NV vielleicht vom google deal wenig oder maessig direkt verdient, aber indirekt dann vielleicht schon gewaltig. Wie etliche Male erwaehnt: tablet reference fuer jelly bean ist nicht so unwichtig wie es insgesamt klingen mag.

Mancko
2012-07-21, 10:53:36
http://www.computerbase.de/news/2012-07/qualcomm-erneuert-bedenken-wegen-28-nm-knappheit/

Dürfte für Nvidia sicherlich nicht nachteilig sein.

dildo4u
2012-07-21, 11:37:25
http://www.computerbase.de/news/2012-07/qualcomm-erneuert-bedenken-wegen-28-nm-knappheit/

Dürfte für Nvidia sicherlich nicht nachteilig sein.
Nvidia wird genau so Probleme bekommen es sollte eigentlich noch 2012 ein Tegra 3+ kommen in 28nm.

http://www.tomshardware.de/Nvidia-Tegra3-Tegra4-ARM-SoC-28nm,news-247328.html

Mancko
2012-07-21, 16:19:26
Nvidia wird genau so Probleme bekommen es sollte eigentlich noch 2012 ein Tegra 3+ kommen in 28nm.

http://www.tomshardware.de/Nvidia-Tegra3-Tegra4-ARM-SoC-28nm,news-247328.html

Sehe ich nicht so. Sie können abwarten und schauen wie sich das ganze mit 28nm entwickelt. Sollten sie den 28nm SoC herausbringen und Lieferschwierigkeiten haben, gibt es eben immer noch den 40nm Tegra3 als Fallback. Sie können aber genauso gut abwarten und den 28nm SoC bringen, wenn 28nm Kapazitäten breiter verfügbar sind.

Aktuell würde ich sagen gewinnen sie in diesem Segment Marktanteile eben genau weil alle anderen nicht liefern können. Das ist doch optimal für sie.

Screemer
2012-07-21, 17:08:38
die qualcomm, samsung, etc. socs in 40nm sind wohl nix gegen t3 oder wie?

Hugo78
2012-07-21, 17:16:06
die qualcomm, samsung, etc. socs in 40nm

Als Quadcore gibts es diese nicht.
Samungs Exynos 4412 kommt mit 32nm.

Das Teil von Huawei war ein PR Gag, und alle anderen Quads sind für 28nm angekündigt.

edit: Apples kommendes Quadcore SoC dürfe natürlich auch in 32nm kommen...

dildo4u
2012-07-21, 17:51:01
Sehe ich nicht so. Sie können abwarten und schauen wie sich das ganze mit 28nm entwickelt. Sollten sie den 28nm SoC herausbringen und Lieferschwierigkeiten haben, gibt es eben immer noch den 40nm Tegra3 als Fallback. Sie können aber genauso gut abwarten und den 28nm SoC bringen, wenn 28nm Kapazitäten breiter verfügbar sind.

Aktuell würde ich sagen gewinnen sie in diesem Segment Marktanteile eben genau weil alle anderen nicht liefern können. Das ist doch optimal für sie.
Nope Nvidia hat mit den 40nm Quad keine Chance auf dem wichtigeren US Smartphone Markt,weil der keine Kombination mit einem LTE Modem erlaubt.(Braucht zu viel Storm).Das HTC One X z.b wird in den USA mit einem S4 Dualcore + LTE verkauft.Android Tabelt's sind immer noch Nische,bei den Smartphone's sieht's anders aus.

Dural
2012-07-21, 20:23:02
Hmm wird das neue asus eventuell schon mit t3+ ausgeliefert?! Ich finde den takt immer noch extrem hoch für einen 40nm quat core

Mancko
2012-07-21, 23:23:08
Nope Nvidia hat mit den 40nm Quad keine Chance auf dem wichtigeren US Smartphone Markt,weil der keine Kombination mit einem LTE Modem erlaubt.(Braucht zu viel Storm).Das HTC One X z.b wird in den USA mit einem S4 Dualcore + LTE verkauft.Android Tabelt's sind immer noch Nische,bei den Smartphone's sieht's anders aus.

Müssen sie ja auch nicht. Die Smartphone Wins die sie haben sind Verluste für alle anderen - sprich -> Marktanteile steigen. Noch viel deutlicher ist das bei Tablets. Dort ist Tegra3 der SoC der Wahl im "non" Apple Umfeld. Das Google Nexus wird sich sehr ordentlich verkaufen bzw. verkauft sich bereits sehr ordentlich und das bedeutet steigende Marktanteile für Nvidia. Sprich 40nm war die optimale Wahl egal wie du es drehst. Nvidia wächst und das eben weil andere nicht liefern können, ansonsten hätte das Google Nexus eben keinen Tegra 3 drinne. Daneben ist für sie auch ein Erfolg das das HTC OneX in Teilen auch Tegra 3 hat und das ZTE Phone in China ebenfalls und das obwohl sie eben kein LTE haben. Auf Grund der Stärke von Nvidia in der Treiber und Tool Entwicklung werden sich alle anderen sehr warm anziehen können, sobald es die ersten Tegras mit gepimpter Grafik und vor allem LTE Funktionalität gibt.

Ailuros
2012-07-23, 15:03:32
Müssen sie ja auch nicht. Die Smartphone Wins die sie haben sind Verluste für alle anderen - sprich -> Marktanteile steigen. Noch viel deutlicher ist das bei Tablets. Dort ist Tegra3 der SoC der Wahl im "non" Apple Umfeld. Das Google Nexus wird sich sehr ordentlich verkaufen bzw. verkauft sich bereits sehr ordentlich und das bedeutet steigende Marktanteile für Nvidia. Sprich 40nm war die optimale Wahl egal wie du es drehst. Nvidia wächst und das eben weil andere nicht liefern können, ansonsten hätte das Google Nexus eben keinen Tegra 3 drinne. Daneben ist für sie auch ein Erfolg das das HTC OneX in Teilen auch Tegra 3 hat und das ZTE Phone in China ebenfalls und das obwohl sie eben kein LTE haben. Auf Grund der Stärke von Nvidia in der Treiber und Tool Entwicklung werden sich alle anderen sehr warm anziehen können, sobald es die ersten Tegras mit gepimpter Grafik und vor allem LTE Funktionalität gibt.

Es hat aber immer noch wenig bis gar nichts mit Deinem originalen Qualcomm Zitat fuer 28nm Knappheiten zu tun. Erstens betrifft diese alle SoC Hersteller und nicht nur einen, zweitens wird T3 zum SoC der Wahl ausserhalb von Apple nur wenn NV den Amazon Kindle Fire 2 deal gewonnen hat und drittens hat Qualcomm jaehrlich konstant ueber 300 smartphone SoC design wins und wenn man hier die eigentlichen Volumen betrachtet sind ein paar Mio extra verkaufte tablets auch nicht gerade der Messias.

Klar steigt NV's Markanteil zunehmend und es waere auch verdammt ueberraschend wenn dem nicht so waere, aber ein Kuckuck bringt eben nicht den Fruehling. Projektionen fuer Asus sprechen davon dass sie es versuchen werden mit dem Nexus7 knapp 6 Mio Einheiten zu erreichen, waehrend Analysten ihre forecasts fuer das heutige Kindle Fire von 14Mio auf 12Mio fuer 2012 reduziert haben. Ergo liegt der eigentliche Loewen-anteil steril was verkaufte android tablets betrifft wo anders. Und ja falls NV den Amazon deal gewonnen hat, dann haben sie tatsaechlich diesmal gross gelandet. Bis zu Ende Juli wo Amazon vielleicht ankuendigen wird, sitzen wir leider noch im Dunkeln.

Kurz: dildo hat leider recht. Die Volumen-Unterschiede zwischen smartphone und tablet SoCs sind nach wie vor brutal gross.

Hugo78
2012-07-30, 19:01:10
Ouya mit Tegra 3?
http://crunchedd.com/2012/07/27/ouya-specifications/


Tegra3 quad-core processor
1GB RAM
8GB of internal flash storage
HDMI connection to the TV, with support for up to 1080p HD
WiFi 802.11 b/g/n
Bluetooth LE 4.0
USB 2.0 (one)
Wireless controller with standard controls (two analog sticks, d-pad, eight action buttons, a system button), a touchpad
Android 4.0

Deinorius
2012-07-30, 20:23:26
Warum nicht?

Was mich deutlich mehr stört, wäre z.B., dass nur Android 4.0 steht. Wenn die Konsole erst nächstes Jahr rauskommt, dann sollte 4.1 das Minimum sein.

Nur ein USB-Port erscheint mir etwas wenig. Zwei würden aber auch schon reichen.

Hugo78
2012-07-30, 23:18:49
Ich fänds natürlich gut, mich wundert nur, sollte es stimmen, dass es noch keinen Hinweiß seitens NV geben hat.
Und im finalen Produkt anno 2013, sollte dann eigentlich auch Tegra 4 stecken.
Anderfalls verschenkt man bei Ouya relativ viel Leistung.

Deinorius
2012-07-31, 07:58:17
Es wurde in Artikeln vermerkt, dass sie mit nvidia zusammenarbeiten würden.

Hugo78
2012-07-31, 08:14:24
Ich seh grad auf kickstarter stehts ja auch nochmal.
Dann wirds ja stimmen.
http://www.kickstarter.com/projects/ouya/ouya-a-new-kind-of-video-game-console?ref=live

dildo4u
2012-07-31, 13:57:09
Tegra 4 ist nicht fertig man kann nicht einfach ins blaue programieren,ist halt ne Konsole,die Entwickler brauchen jetzt ne feste Größe und nicht 2013.Ansonsten hat man nix gescheites direkt zum Launch fertig.

Ailuros
2012-07-31, 14:03:29
Tegra 4 ist nicht fertig man kann nicht einfach ins blaue programieren,ist halt ne Konsole,die Entwickler brauchen jetzt ne feste Größe und nicht 2013.

Das Ding ist spottbillig, ergo wird es vielleicht schon gute Verkaeufe landen. Um den Preis so niedrig wie moeglich zu gestalten steckt die light Version des SoCs drin. Um Entwickler anzulozen ist es keine schlechte Idee, aber ISVs sind auch wiederrum eher in hohen Volumen interessiert.

dildo4u
2012-07-31, 14:08:29
Das kommt dazu sie peilen 99€ mit Kontroller an.

Ailuros
2012-07-31, 14:28:24
Das kommt dazu sie peilen 99€ mit Kontroller an.

Archos scheint eine aehnliche Initiative mit dem LUDOG10 zu planen; bleibt abzusehen wie das finale Angebot aussehen wird. Beide klingen mir momentan nicht nach irgendwelchem Uebererfolg, aber ich lass mich gerne angenehm ueberraschen.

Ailuros
2012-08-01, 12:29:43
http://www.fudzilla.com/home/item/28159-nvidia-hopes-to-make-good-on-icera-acquisition

"Expect our upcoming Wayne chip next year to provide double the Tegra 3 performance, and Stark a few years from now should provide up to twenty five times the Tegra 3 performance," said Stam.

Wenn NV die Leistungs-steigerungen wie bis jetzt zaehlt und die obrige wiederholte Aussage keine "Luege" ist um Verwirrung zu stiften, klingt Wayne wie in der Vergangenheit auf den originalen roadmaps eher nach einer Enttaeschung. Irgendwie will mir das Ganze einfach nicht richtig sitzen und es faellt mir verdammt schwer es zu glauben. Fuer 2x Tegra3 reicht fuer Tegra4 ein einfacher shrink unter 28nm mit hoeheren Frequenzen aus.

Hugo78
2012-08-01, 13:43:30
Tegra 3 war laut PR (Bullshit-bingo), auch schon "bis zu" fünf mal schneller als Tegra 2 (3x CPU + 2x GPU = 5mal schneller *hust*) und vor Stark ist doch erst noch Wayne und Logan dran.

Man müsste SoC Geschwindigkeit halt mit getrennten Werten für CPU und GPU Part angeben, dann klingt das wieder alles machbar.

Ich sag Wayne kommt mit doppelt so schnellem CPU und 4 mal schnellerem GPU Teil ggü. T3.
Stark dann mit 6-8x CPU und 16-20x GPU Part (ggü. T3) = ~ 25mal mehr in PR Sprech.

Ailuros
2012-08-01, 14:24:28
Tegra 3 war laut PR (Bullshit-bingo), auch schon "bis zu" fünf mal schneller als Tegra 2 (3x CPU + 2x GPU = 5mal schneller *hust*) und vor Stark ist doch erst noch Wayne und Logan dran.

Das dumme ist eben dass unter maximal theoretischen Werten das Ganze nicht gelogen ist.

Man müsste SoC Geschwindigkeit halt mit getrennten Werten für CPU und GPU Part angeben, dann klingt das wieder alles machbar.

Macht doch NV bis jetzt und ebenso Du oben. Es ist normal dass NV als SoC Hersteller eine theoretisch maximale Leistungs-steigerung pro SoC angibt und nicht pro diversen Einheiten.

Ich sag Wayne kommt mit doppelt so schnellem CPU und 4 mal schnellerem GPU Teil ggü. T3.
Stark dann mit 6-8x CPU und 16-20x GPU Part (ggü. T3) = ~ 25mal mehr in PR Sprech.

Wie gesagt wenn NV seit Wayne eine andere Logik fuer die Leistungs-steigerung benutzt dann koennte das obrige innerhalb Grenzen stimmen. In jeglichem Gegenfall wo NV zwischen T3 und T4 mit dem gleichen Marketing-gefusel wie bis jetzt zaehlt kann es sich eher um einen 28nm shrink mit hoeheren Frequenzen handeln.

Was Stam hier behauptet ist lediglich eine Wiederholung was auf der vergangenen roadmap angezeigt wurde. Ausser ich soll mir vorstellen dass T2 vs. T3 "bis zu" 5x Mal schneller sein soll, nur Wayne als einzige Aussnahme auf der gesamten roadmap 2x Mal schneller im Durchschnitt und dann wieder Stark "bis zu" 25x Mal schneller. Albener geht's gar nicht.

Hugo78
2012-08-01, 16:39:04
Das dumme ist eben dass unter maximal theoretischen Werten das Ganze nicht gelogen ist.

Gut natürlich wenn Anwendung XY auf beiden Teilen gleich gut skaliert.
Ganz gelogen ist das dann nicht, aber die Erwartungshaltung die man weckt, ist mMn. eher kontraproduktiv.
Einfache Naturen malen sich ja dann aus, dass ebend zb. Stark den Level eines 3GHz Ivy Bridge Quadcore erreicht, wenn man von 25mal mehr ggü. T3 spricht.

Letztes Jahr wurde Stark noch mit 75x ggü. T2 auf einem pauschalen 1-100 Performance Index projiziert.
Da schießt man sich irgendwann ins eigene Bein, ohne Not.

Ailuros
2012-08-02, 10:50:36
Gut natürlich wenn Anwendung XY auf beiden Teilen gleich gut skaliert.
Ganz gelogen ist das dann nicht, aber die Erwartungshaltung die man weckt, ist mMn. eher kontraproduktiv.
Einfache Naturen malen sich ja dann aus, dass ebend zb. Stark den Level eines 3GHz Ivy Bridge Quadcore erreicht, wenn man von 25mal mehr ggü. T3 spricht.

Letztes Jahr wurde Stark noch mit 75x ggü. T2 auf einem pauschalen 1-100 Performance Index projiziert.
Da schießt man sich irgendwann ins eigene Bein, ohne Not.

Dummerweise kursierte im Netz ein slide das zeigte dass Wayne was shader performance betrifft um die 4x Mal schneller ist als ein SGX544MP2@300MHz. Dabei geben die moechtegern Quellen 64SPs@500MHz fuer die Wayne GPU an.

Wie Du es auch drehen willst wenn das obrige stimmt, dann ist die Wayne GPU um bis zu > 5x Mal schneller als die ULP GF/T30 und im Durchschnitt wohl keinesfalls weniger als 3x Mal so viel NUR von der GPU. So und jetzt erklaer mir in welches Bild genau dieses 2x Mal Unterschied zwischen T3 und T4 genau passen soll.

Du wuerdest Dir sogar fast den 2x Mal Unterschied schon mit einer quad A15 einkaufen, ergo stinkt etwas an der Geschichte mit dem 2x Mal Humbug.

Nightspider
2012-08-02, 11:29:38
Wird Tegra 4 von der GPU Power schneller als das iPad 3?

Und wo dazwischen ordnen sich die Samsung SoCs der 5er Generation (mit A15 Cores) ein?
Diese sollen ja Auflösungen bis 2560 bewältigen können. Ein Tablet mit ~11,6" und dieser Auflösung soll ja schon in Arbeit sein.

Ailuros
2012-08-02, 12:16:55
Wird Tegra 4 von der GPU Power schneller als das iPad 3?

Wenn alles so weit mehr oder weniger stimmt ja und sogar um ein gutes Stueck (vielleicht sogar >2x). Bleibt eben die idiotische Behauptung dass T4 nur 2x Mal schneller sein wird als T3, mit der ich momentan nichts anfangen kann.

Und wo dazwischen ordnen sich die Samsung SoCs der 5er Generation (mit A15 Cores) ein?
Diese sollen ja Auflösungen bis 2560 bewältigen können. Ein Tablet mit ~11,6" und dieser Auflösung soll ja schon in Arbeit sein.

Exynos5 mit MaliT604@500MHz duerfte sich von der GPU Seite irgendwo in der Region bewegen, wenn die Wayne GPU aus 64SPs@500MHz (auch 4 TMUs wie der T604) sein sollte. Es werden aber nicht die einzigen SoCs sein die Samsung selber herstellen und verkaufen wird.

Nebenbei wenn Wayne tatsaechlich zwischen clamshells und superphones rangieren soll, sind 64SPs bzw. 64 GFLOPs fuer den groessten Design fuer einen clamshell Design ziemlich wenig, wenn die Konkurrenz zumindest auf Papier fuer smartphone designs schon hoehere Werte erreicht.

Hugo78
2012-10-03, 20:59:40
HTC One X+
Mit AP37 - 1,7 GHz

So stehen im BrowserMark gut 173.000 Punkte zu Buche, in SunSpider 995 Millisekunden. Zum Vergleich: Das One X kommt in ersterem Test auf rund 86.000 Punkte, in letzterem auf knapp über 1.800 Millisekunden. Sollten sich diese Werte im Test bestätigen, läge das One X+ vor dem großen Konkurrenten Samsung Galaxy S III (ComputerBase-Test).
- http://www.computerbase.de/news/2012-10/htc-kuendigt-one-x-plus-an/

- http://www.chip.de/news/HTC-One-X-Neues-Quadcore-Handy-im-Praxis-Check_57478605.html

http://www.chip.de/ii/1/6/5/7/4/8/2/2/DSC_0049-8f1c8dcd4c18f414.JPG

Nightspider
2012-10-03, 21:07:44
Hä? Von dem geringen Taktzuwachs kann doch nicht so ein großer Sprung kommen?

Dass das Speicherinterface so große Auswirkungen hat kann ich mir auch kaum vorstellen.

Nakai
2012-10-03, 21:34:56
Eigentlich ist nur der grüne Balken seeehr stark gewachsen...was sagt dieser aus?

HarryHirsch
2012-10-03, 21:40:56
Eigentlich ist nur der grüne Balken seeehr stark gewachsen...was sagt dieser aus?

das ist der input/output bench. ist auch beim letzten update für das hox über das doppelte gestiegen.

http://www.abload.de/img/screenshot_2012-08-114tuow.jpg (http://www.abload.de/image.php?img=screenshot_2012-08-114tuow.jpg)

das + ist aber immer noch um einiges schneller.

Zergra
2012-10-03, 21:46:42
Ja aber soviel schneller ist es dann auch nicht mehr. Wäre nur cool wenn man die Details unten auch vom Plus sehen könnte denn dann wäre das noch leicher zu vergleichen aber nein -.-

Marty98
2012-10-03, 23:11:52
Also ist nur dar Flashspeicher deutlich schneller, der Rest minimal besser wegen 1,7 Ghz.

dildo4u
2012-10-03, 23:15:38
Die Browserbenches sind auch deutlich besser ca auf Iphone 5 Level,der Flashspeicher scheint das ganze System zu limitieren.


http://www.anandtech.com/show/6309/iphone-5a6-sunspider-performance

Eggcake
2012-10-03, 23:19:25
Wie bereits gesagt wurde hat das Ganze nur mit der Software zu tun. Die Differenzen zwischen X und X+ in Quadrant sind nach dem Update eigentlich nur noch durch die höhere Taktung der CPU und GPU (welche sich, nebenbei bemerkt, auch unlocken lässt wenn man gerootet hat) zu begründen.

Sunspider ist mit dem One X mit JB auch auf etwa 1100ms gesunken. Zum Vergleich: vorhin lag der Wert (mal bei Anand nachgeguckt) bei etwa 1700ms für das One X mit T3.

JB und sonstige Optimierungen machen halt schon was aus :)

dildo4u
2012-10-03, 23:29:51
Mal auf Tests mit Akkuverbrauch warten,wär schon ne Leistung von Nvidia wenn sie auf einem Level mit dem 32nm Quad von Samsung liegen.Lässt sich sehr gut vergleichen das GS3 hat auch ein 2100 mAh Akku und bekommt bald das 4.1 Update.

HarryHirsch
2012-10-03, 23:31:01
die 5800 punkte im quadrant sind mit 4.0.4 und htc sense 4.1 gebencht worden.
also nix mit jb. ;)

wie läuft das mit dem unlocken? hast du einen link dazu?

Eggcake
2012-10-03, 23:33:05
Ah, wusste ich nicht.

http://i85.photobucket.com/albums/k46/gavdeeimages/Screenshot_2012-10-03-15-21-41.png

Ist mit dem aktuellen JB Release (verteilt an HTC elevate Mitglieder).

GPU "unlock" bezieht sich eigentlich nur darauf, dass man mit root die GPU auf die volle Taktung hochschrauben kann, afaik ohne grössere Probleme (= äquivalent zum X+).

Edit: Wobei das wohl noch ein geringer Score ist - andere berichten von 6800+...

Ailuros
2012-10-04, 08:37:27
Mal auf Tests mit Akkuverbrauch warten,wär schon ne Leistung von Nvidia wenn sie auf einem Level mit dem 32nm Quad von Samsung liegen.Lässt sich sehr gut vergleichen das GS3 hat auch ein 2100 mAh Akku und bekommt bald das 4.1 Update.

Will ich ernsthaft bezweifeln; die neueste 32nm Exynos Revision duerfte etwas mehr verbrauchen da sowohl die CPU als auch die GPU hoeher takten als im GSIII, aber das letzte ist schon so im Vorteil gegen das HTC OneX was den Stromverbrauch betrifft und nicht gerade um wenig; kommt aber auch natuerlich darauf an fuer was man jedes Geraet genau benutzt.

Nebenbei haben T3's in letzter Zeit durch Treiber-Optimierungen etwas zugelegt; das TF700T ist um ca 200 frames gestiegen im GLBenchmark2.5.

Momentan:

HTC OneX = 1267 frames
Asus TF700T = 1459 frames
Galaxy SIII = 1732 frames
Galaxy Note2 = 1964 frames

Die GPU im OneX taktet bei 416MHz, waehrend sie im OneX+ auf die gleichen 520MHz takten wird wie im TF700T.

Fraglicher Test da die Helligkeit sich zu stark zwischen Geraeten unterscheidet aber GSIII vs. HTC OneX:

http://www.glbenchmark.com/compare.jsp?benchmark=glpro25&showhide=true&certified_only=1&D1=Samsung%20GT-I9300%20Galaxy%20S%20III&D2=HTC%20One%20X%20(EndeavorU)

iFanatiker
2012-10-04, 13:02:33
HTC One X+
Mit AP37 - 1,7 GHz


Sunspider und Browsermark sind vor allem Benchmarks der Browser und der entsprechenden Browser Komponenten. Solange dort nicht absolut identische OS - Versionen und Browser Versionen laufen, machen diese Vergleiche kaum einen Sinn um Vergleiche bzgl. der SoC Geschwindigkeit zu treffen...außer man möchte die Browser vergleichen.

Will ich ernsthaft bezweifeln; die neueste 32nm Exynos Revision duerfte etwas mehr verbrauchen da sowohl die CPU als auch die GPU hoeher takten als im GSIII, aber das letzte ist schon so im Vorteil gegen das HTC OneX was den Stromverbrauch betrifft und nicht gerade um wenig; kommt aber auch natuerlich darauf an fuer was man jedes Geraet genau benutzt.

Interessant wird ob beim One X+ der T3 wieder throttelt. Das S3 throttelt nur wenn der Akku zeitgleich aufgeladen wird. Beim One X geht es in einen Sommertag auch so problemlos das Throttling zu reproduzieren wenn man aufwendigere Spiele wie Nova mal bisschen länger spielt. :biggrin:

dildo4u
2012-10-04, 13:06:48
Will ich ernsthaft bezweifeln; die neueste 32nm Exynos Revision duerfte etwas mehr verbrauchen da sowohl die CPU als auch die GPU hoeher takten als im GSIII, aber das letzte ist schon so im Vorteil gegen das HTC OneX was den Stromverbrauch betrifft und nicht gerade um wenig; kommt aber auch natuerlich darauf an fuer was man jedes Geraet genau benutzt.
[/url]

Ich meinte Verbrauch und CPU Leistung,Akkutests werden selten mit 3D Games gemacht.Meistens läuft ein Video oder ein Browser lädt im Loop Webseiten.

Dural
2012-10-04, 13:27:01
T3+ wurde doch aber in 28nm angekündigt?

haben wir da jetzt noch 40nm oder schon 28nm?

Ailuros
2012-10-04, 13:31:37
Ich meinte Verbrauch und CPU Leistung,Akkutests werden selten mit 3D Games gemacht.Meistens läuft ein Video oder ein Browser lädt im Loop Webseiten.

In solchen Faellen wird eine quad core CPU viel zu wenig ausgelastet.

T3+ wurde doch aber in 28nm angekündigt?

haben wir da jetzt noch 40nm oder schon 28nm?

Das T33 fuer 28nm angeblich angeschlagen war ist mir neu. Waere auch ziemlicher Schwachsinn ueberhaupt wenn man sieht wie problematisch 28nm Prozesse generell sind. Da sich der Stromverbrauch in logischen Grenzen haelt mit T30/AP30@40G wird ein T33/AP3x refresh (chip spin) nicht den Stromverbrauch besonders beinflussen.

HTC spinnt nur leicht mit dem One X+ weil sie eigentlich einen smart-phone SoC auf tablet SoC Frequenzen takten und ist eher eine Ausnahme. Das Ding wird vergleichbare Leistung mit dem Asus TF700T tablet haben, ergo sollte man sich nicht wundern dass die OneX+ Batterie groesser ist als auf dem OneX und es auch ziemlich den Stromverbrauch beinflussen koennte wenn man das Geraet auch durch einen Stresstest jagt und nicht gerade mal ein Bums-video abspielt wo sowieso die Mehrzahl der Last von der CPU vom fixed function video decoder aufgenommen wird.

The move from Tegra 3 AP33 in the international One X to AP37 affords a jump in maximum single-core CPU clock from 1.5 GHz to 1.7 GHz, and a jump in the GeForce ULP GPU clock from 416 MHz to 520 MHz. Otherwise this is the same 40nm LPG Tegra 3 with four ARM Cortex A9s and a fifth 'shadow core' A9 for hotplugging in idle states. HTC reports an increase in performance of 27 percent over the previous One X (T3) and 37 percent more talk time battery life.

http://www.anandtech.com/show/6348

dildo4u
2012-11-09, 14:29:54
Erntezeit.

Nvidia reports a third of its business is now 'non-PC,' doubles tablet shipments from a year ago

http://www.theverge.com/2012/11/9/3621708/nvidia-q3-2012-earnings-tegra-growth

Schon erstaunlich wo sie überall T3 unterbringen konnten.