PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

LovesuckZ
2011-01-26, 18:21:40
Das ist keine zutreffende Beschreibung für Power Gating.

Was hier beschrieben wird ist die dynamische Anpassung von Frequenzen und Spannungen je nach Auslastung.
Power Gating -> der betreffende Funktionsblock ist ohne Spannung, also komplett aus.

Dann sollte man Clock-gating umbenennen...
Danke für den Hinweiß.


Wenn man das so betrachtet ist selbst das Energiemanagement bei AMDs Bobcat komplexer (Power Gating ist weit schwieriger zu implementieren).

Link zu dem Mechanismen?

/edit: Laut dem (http://www.nvidia.com/content/PDF/tegra_white_papers/Benefits-of-Multi-core-CPUs-in-Mobile-Devices_Ver1.2.pdf) kann "Tegra2" einen unbenutzen Core ausschalten (Seite 13).

/edit2:
TI über nVidia und dem Vorteil vor der Konkurrenz auf dem Markt zu sein:
Responding to a question from a financial analyst, TI Investor Relations VP Ron Slaymaker reportedly stated, "Nvidia, to their credit, was the first out with a dual-core applications processor. I believe they had a couple of months, maybe a quarter lead on our OMAP 4 product." He went on to say, "And again, them being first for customers that are trying to get out with tablet programs right away, especially some that are based upon the Android operating system, they're the player, they were the first player out so there is a natural alignment there."
http://techreport.com/discussions.x/20296

Orginalquelle: http://news.cnet.com/8301-13924_3-20029421-64.html?part=rss&subj=news&tag=2547-1_3-0-20

YfOrU
2011-01-26, 22:04:21
Wenn das Abschalten über Power Gating realisiert wird wäre es mit Sicherheit auch so bezeichnet.

Der Kern steht zwar nicht mehr zur Verfügung, ist aber nicht von der Spannung getrennt. Deshalb auch turned off und nicht powered off.

http://en.wikipedia.org/wiki/Power_gating
Bei Zeiten such ich ein kostenloses PDF - zu solchen speziellen Themen gibt es fast nur kostenpflichtige Literatur.

Mancko
2011-01-27, 00:43:57
Intel bringt im 2H/2011 den 32nm Atom-Nachfolger, AMD ebenfalls noch 2011 den 28nm Nachfolger des gerade vorgestellten Bobcats. Beider zielen ausdrücklich auf den Tablet-Markt ab. Ich würde x86 nicht so schnell abschreiben, denn damit sollte man auch bei der Leistungsaufnahme an ARM dran sein, ARM muss es erstmal schaffen die Leistung auf das Niveau von Intel/AMD zu hieven.

Die Leistung wird auf einem Tablet nicht gebraucht. Das ist der Punkt. Und vor allem will keiner das beknackte Windows. Die aktuelle Entwicklung ist perfekt! Hauptsache Windows und x86 bleiben draußen. Beste Aussichten, dass 2 Monopolisten ihre Macht langfristig verlieren.

Ailuros
2011-01-27, 07:36:13
Der Mark interessiert fakten: 28nm / Quad Core 1.5GHz / vernünftige GPU

= Viel Absatz da es so bald sonst niemand anderes bieten kann/wird.

Gerade für Tabletts wird T3 neue Massstäbe setzen und dank endlich vernünftiger CPU Power auch komplett neue Zielgruppen ansprechen.

Das erste Tablet hat Apple veroeffentlicht und obwohl es auch hier einige Stellen gibt die man durchaus kritisieren kann, dauert es nicht mehr all zu lange bis sie ihr iPad2 veroeffentlichen. Ich werde jetzt nicht so grosskotzig sein und behaupte dass Apple im tablet Markt irgendwelche "Massstaebe" gesetzt hat (obwohl es im smart-phone Markt durchaus legitim waere), aber nichtdestotrotz verkauften sie mit dem originalen iPad so viele Einheiten wie alle anderen zusammen. Und das was weiter unten folgt nennt sich Dokumentation von Statistiken. Steht auch unten: to steal from one source is plagiarism, to steal from many research.

Und ich gehe sehr stark davon aus das sich die Einführung von T3 sich nicht so stark verzögert wie noch bei T2, die Software Basis sollte dank T2 schon da sein/bald kommen.

Es gibt keinen Markt wo Software ueber Nacht von single auf quad-threading optimiert werden koennen. Fuer uebertriebenes multi-tasking hilft es durchaus, stampft aber dann auch ziemlich heftig auf den Stromverbrauch. Wobei es aber auch natuerlich darauf ankommt, was man fuer Applikationen gleichzeitig hochladet.

Und um alle zu beruhigen, NV wird nach den Quad Core CPU im T3 mit dem T4 sicher eher in die GPU investieren, was auch ein völlig logischer schritt wäre.

Gut dass Du einen so guten Einblick in NV's Tegra road-map hast, denn ich hab komischerweise schon vor geraumer Zeit erwaehnt dass T3 wahrscheinlich eine quad-core CPU haben wird. Ich wartete lediglich wie ueblich dass jemand etwas nach aussen leaked um es zu bestaetigen. T3 wird uebrigens auf 28LPG (auch LPT genannt) hergestellt.

Das dumme ist eben dass "andere" schon dieses Jahr zumindest gleich so schnelle GPUs haben werden und es im naechsten Jahr nochmal weiterhin skalieren wird. NV macht quasi ARM momentan mehr einen Gefallen als sich selber. 3D und GPGPU sind ihre zweifellosen Staerken.

Uebrigens sollten sie mal damit anfangen an eine hoehere als 16bit Z Praezision zu denken, denn das stellenweise z fighting sticht wirklich uebel ins Auge.

Intel bringt im 2H/2011 den 32nm Atom-Nachfolger, AMD ebenfalls noch 2011 den 28nm Nachfolger des gerade vorgestellten Bobcats. Beider zielen ausdrücklich auf den Tablet-Markt ab. Ich würde x86 nicht so schnell abschreiben, denn damit sollte man auch bei der Leistungsaufnahme an ARM dran sein, ARM muss es erstmal schaffen die Leistung auf das Niveau von Intel/AMD zu hieven.

Weder Intel und schon gar nicht AMD momentan haben einen anstaendigen Durchbruch im embedded/mobilen Markt. Intel versucht ja schon seit Jahren vergebens in den smart-phone Markt einzudringen. Eventuell werden die beiden irgendwann schon aggressiver mitspielen koennen, aber dass diejenigen Semis bzw. OEM Hersteller die momentan den Markt kapitulieren auf x86 wechseln werden will ich bezweifeln.

http://www.brightsideofnews.com/news/2011/1/14/tablets-everywhere-third-screen-enters-the-facets-of-life.aspx?pageid=2

http://www.brightsideofnews.com/Data/2011_1_14/Tablet-mania-analysis/Chart%202.png

Wie schnell kann sich denn solch eine Landschaft aendern?

The big consideration for users will be a closed garden operating system (iOS) and open OS (Android). The big difference though is that the applications you select for the iOS environment will most certainly work, even though you are "captive" in the environment. The open apps should work as advertised, but they will be run on different levels of hardware that will shape the user experience – good and/or bad. By 2014, analysts expect 1.07 billion portable devices to be sold (pretty impressive). But the product mix won't favor tablets.

Projektion fuer 2014:

http://www.brightsideofnews.com/Data/2011_1_14/Tablet-mania-analysis/Chart%203.png

Kein Wunder Intel will in den smart-phone Markt eindringen. Aber es muss erstmal einen sehenswerten Anfang dafuer geben. AMD liegt hier noch einige Jahre weiter hinten momentan.

http://www.brightsideofnews.com/news/2011/1/14/tablets-everywhere-third-screen-enters-the-facets-of-life.aspx?pageid=4

http://www.brightsideofnews.com/Data/2011_1_14/Tablet-mania-analysis/Chart%204.png

AnarchX
2011-01-27, 09:40:23
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=38614&stc=1&d=1296117594

2 Data collected on NVIDIA Tegra 2 Dev Platform and Samsung GalaxyS phone at 800x480 resolution, Android 2.2

http://www.nvidia.com/content/PDF/tegra_white_papers/Bringing_High-End_Graphics_to_Handheld_Devices.pdf

Laut Whitepaper soll die AF-Qualität auf Fermi-Niveau liegen:
The GeForce GPU in NVIDIA Tegra 2 processor employs a very sophisticated Anisotropic Filtering technique that delivers texture quality enhancement similar to that on high end NVIDIA Fermi GPU architecture-based desktop GPU cards.

Dural
2011-01-27, 10:02:16
tja immer wider interessant wie doch die arg unterlegen T2 GPU (was nichts anderes als eine T1 GPU ist) mithalten kann ;)

Ailuros
2011-01-27, 10:18:35
tja immer wider interessant wie doch die arg unterlegen T2 GPU (was nichts anderes als eine T1 GPU ist) mithalten kann ;)

Frueher oder spaeter wirst Du den Kommentar einstecken muessen, denn es optimiert nicht nur ein IHV seinen compiler bzw. Treiber. War auch nicht anders mit der Vorfreude ueber die ersten T2 GL Benchmark 1.1 Resultaten.

Dural
2011-01-27, 10:50:17
naja was soll ich sagen, ich hab einfach mittlerweile sehr stark das Gefühl das letztes Jahr ein idealer Zeitpunkt gewesen wäre um NV Aktien zu kaufen ;)

Da ich aber nichts mit Aktien zu tun habe kann mir das auch egal sein ;)

Tegra ist ohne Zweifel ein neues Standbein bei NV und alles zeigt nach oben, der SoC Markt wächst in der nächsten zeit gewaltig und NV wird mit brauchbaren Produkten im Gegensatz zu Intel oder AMD am Markt bereit sein.
NV hätte den zeit punkt mit dem einstig in diesem Markt kaum besser wählen können :)

Ailuros
2011-01-27, 11:25:49
Wenn man etwas globaler darueber nachdenkt muessen AMD/Intel zusehen in den smart-phone/tablet Markt einzusteigen, waehrend NV zusehen muss mit SoCs langfristig in den low end notebook/PC Markt einzusteigen. Man kann nicht alles haben.

Hier sollte man sagen dass der smart-phone Markt um einiges wichtiger ist im embedded Markt da zich Male mehr Einheiten verkauft werden als mit tablets. Genau eben deshalb bekommt T3 diesmal mit einem flexiblerem AP/smart-phone SoC an. T2 hat sich zwar sehr gut fuer tablets gemustert, aber im smart-phone Bereich bringen ein paar design-wins auch nicht gerade den Fruehling.

Aktien? Ich koennte mit dem Kopf gegen die Wand rennen. Ich beschaeftige mich von Grund auf nicht mit Aktien, aber haette ich Anfang 2009 in IMG investiert, haette ich Ende 2010 mein Kapital verzehnfacht. Wer sich wirklich ernsthaft mit Aktien beschaeftigt und solch ein Risiko auch eingehen will sollte sich vielleicht momentan nach AAPL umsehen.

LovesuckZ
2011-01-27, 11:31:39
Wenn man etwas globaler darueber nachdenkt muessen AMD/Intel zusehen in den smart-phone/tablet Markt einzusteigen, waehrend NV zusehen muss mit SoCs langfristig in den low end notebook/PC Markt einzusteigen. Man kann nicht alles haben.

Im Gegensatz zu den Angeboten von Intel und AMD kann Tegra2 für Low-End eingesetzt werden. Toshiba hat's mit dem AC100 angedeutet.

T2 hat sich zwar sehr gut fuer tablets gemustert, aber im smart-phone Bereich bringen ein paar design-wins auch nicht gerade den Fruehling.


Man braucht doch garnicht soviele Design Wins. Ein Großteil des Marktes wird auf ein paar Geräte verteilt. Apple hält alleine mit 2 Geräten 25% des Marktes. Samsung verkaufte letztes Jahr mehr als 10 Millionen Galaxy S Geräte. Wenn nVidia mit den paar Wins an die 10 Millionen heranreicht, wäre es $150 - $200 Umsatz alleine durch Smartphones.

Ailuros
2011-01-27, 12:01:39
Im Gegensatz zu den Angeboten von Intel und AMD kann Tegra2 für Low-End eingesetzt werden.

Intel hat GMA600 was taktreduziert durchaus in ein smart-phone passt. Intel's Problem ist eher Platform/sw bedingt als alles andere. Und typisch Intel will man wieder mit dem Kopf durch die Wand (MeeGo ahoi).

Toshiba hat's mit dem AC100 angedeutet.

Das AC100 war so von beschissener sw bei seinem launch geplagt dass es in der UK zurueckgezogen und wieder veroeffentlicht wurde. Auch heute will keiner etwas davon wissen weil die sw wohl immer noch nicht richtig sitzt. Das mieseste Beispiel ueberhaupt fuer T2 und nein es hat natuerlich nichts mit NV zu tun.

Man braucht doch garnicht soviele Design Wins. Ein Großteil des Marktes wird auf ein paar Geräte verteilt. Apple hält alleine mit 2 Geräten 25% des Marktes. Samsung verkaufte letztes Jahr mehr als 10 Millionen Galaxy S Geräte.

Ich zaehle ueber 11 verschiedene GalaxyS basierende smart-phones momentan und dabei auch das Google NexusS und NTTDocomo smart-phones (das SGH R915 Forte ist der kleine 480*320 GalaxyS Bruder). Ich hab sicher auch noch einige verpasst. Wohl genauso schwer vergleichbar mit einem "ausgekapseltem Markt" wie Apple/iOS wie Hersteller wie LG und Motorolla die in letzter Zeit sich regelrecht durchpruegeln muessen damit ihr Marktanteil nicht weiter purzelt.

LG hat im vorigen Jahr einige ihrer grossen Koepfe purzeln lassen, eben weil die Verkaufszahlen so miserabel waren. Ihr T2 smart-phone laesst natuerlich auf besseres hoffen, aber man muss erstmal abwarten wie sich die Dinger verkaufen werden.

NV braucht groessere design wins im smart-phone Bereich. Ein Samsung T2 smart-phone Deal waere ein sehr gutes Beispiel, aber es sieht momentan danauch aus dass der Platz fuer Orion/Mali schon reserviert ist.

Wenn nVidia mit den paar Wins an die 10 Millionen heranreicht, wäre es $150 - $200 Umsatz alleine durch Smartphones.

Smart-phone SoCs sind billiger als tablet SoCs. Wenn NV einen smart-phone SoC wirklich um $15-20 verkaufen wuerde, wuerden alle zur Konkurrenz stroemen. $20 kostet momentan nichtmal ein OMAP4430 der eher fuer tablets geeignet ist.

LovesuckZ
2011-01-27, 12:28:41
Das AC100 war so von beschissener sw bei seinem launch geplagt dass es in der UK zurueckgezogen und wieder veroeffentlicht wurde. Auch heute will keiner etwas davon wissen weil die sw wohl immer noch nicht richtig sitzt. Das mieseste Beispiel ueberhaupt fuer T2 und nein es hat natuerlich nichts mit NV zu tun.

Richtig, es hat nichts mit Tegra2 zu tun. Es zeigt nur, dass Tegra2 heute schon für Low-End ausreichend ist. Das Toshiba so dämlich ist und sich hier ein riesiges Potential durch die Finger gleiten lässt, ist eine andere Baustelle.

Ich zaehle ueber 11 verschiedene GalaxyS basierende smart-phones momentan und dabei auch das Google NexusS und NTTDocomo smart-phones (das SGH R915 Forte ist der kleine 480*320 GalaxyS Bruder). Ich hab sicher auch noch einige verpasst. Wohl genauso schwer vergleichbar mit einem "ausgekapseltem Markt" wie Apple/iOS wie Hersteller wie LG und Motorolla die in letzter Zeit sich regelrecht durchpruegeln muessen damit ihr Marktanteil nicht weiter purzelt.

Der Großteil kam erst zum Ende des Jahres auf den Markt.


NV braucht groessere design wins im smart-phone Bereich. Ein Samsung T2 smart-phone Deal waere ein sehr gutes Beispiel, aber es sieht momentan danauch aus dass der Platz fuer Orion/Mali schon reserviert ist.


Sie brauchen Designs, die eine Wirkung auf den Markt haben. Apple ist doch das perfekte Beispiel: 2 Telefone und 25% Marktanteile. Natürlich kann man auch über die Masse gehen. Aber sehe ich nicht, dass der Markt soviel potential für mehrere Anbieter im (High-End) Smartphonebereich aufweist.


Smart-phone SoCs sind billiger als tablet SoCs. Wenn NV einen smart-phone SoC wirklich um $15-20 verkaufen wuerde, wuerden alle zur Konkurrenz stroemen. $20 kostet momentan nichtmal ein OMAP4430 der eher fuer tablets geeignet ist.

Wir hatten das schon: Tegra2 ist das einzige, erhältliche DualCore Design seit Monaten. Selbst TI gibt es zu. Und sie sprechen zZ auch nur von "einem Kunden", der deren Produkt zum Markt bringen will.

Wenn das Abschalten über Power Gating realisiert wird wäre es mit Sicherheit auch so bezeichnet.

Der Kern steht zwar nicht mehr zur Verfügung, ist aber nicht von der Spannung getrennt. Deshalb auch turned off und nicht powered off.

http://en.wikipedia.org/wiki/Power_gating
Bei Zeiten such ich ein kostenloses PDF - zu solchen speziellen Themen gibt es fast nur kostenpflichtige Literatur.

TI unterstützt auch kein Power-Gating mit ihren SoCs: http://focus.ti.com/general/docs/wtbu/wtbugencontent.tsp?templateId=6123&navigationId=12032&contentId=4609

Das höchste der Gefühle ist ein "Stand-By" Modus.

Ailuros
2011-01-27, 13:40:24
Richtig, es hat nichts mit Tegra2 zu tun. Es zeigt nur, dass Tegra2 heute schon für Low-End ausreichend ist. Das Toshiba so dämlich ist und sich hier ein riesiges Potential durch die Finger gleiten lässt, ist eine andere Baustelle.

Netbooks werden sich in absehbarer Zeit naeher an notebooks platzieren, wenn sie sich nicht sogar langfristig irgendwo quasi verschmeltzen.

Der Großteil kam erst zum Ende des Jahres auf den Markt.

Weisst Du ueberhaupt in welchen Mengen ein Semi wie Samsung smart-phone SoCs fuer so etwas herstellt?

Sie brauchen Designs, die eine Wirkung auf den Markt haben. Apple ist doch das perfekte Beispiel: 2 Telefone und 25% Marktanteile. Natürlich kann man auch über die Masse gehen. Aber sehe ich nicht, dass der Markt soviel potential für mehrere Anbieter im (High-End) Smartphonebereich aufweist.

Hergott was genau hat Apple genau mit jemand mit LG gemeinsam? Apple wird an ihrer road-map nichts aendern und wenn wirklich grosse Hersteller wie SONY als Beispiel versuchen werden gegen sie anzutreten, darfst Du drei Mal raten wer mit wem fuer was fuer die Zukunft schon unter Verhandlungen steht. Microsoft waere auch ein "moechtegern"-Kandidat aber ich kann sie dank windows leider immer noch nicht ernst-nehmen.

Wir hatten das schon: Tegra2 ist das einzige, erhältliche DualCore Design seit Monaten. Selbst TI gibt es zu. Und sie sprechen zZ auch nur von "einem Kunden", der deren Produkt zum Markt bringen will.

Wieso sollte TI bekannt geben was fuer ihr OMAP4 noch alles unter Entwicklung liegt? Es gibt fuer OMAP3 heute um die 15 verschiedene SoCs. Darunter smart-phones von NOKIA, Motorola, Samsung, Sony Erricsson, HTC, Palm, Archos und weiss der Geier was noch.

Nochmal die meisten Hersteller kaufen stets von mehreren Quellen ein und nur weil NOKIA jetzt ein Atom based smart-phone veroeffentlichen will heisst es nicht dass die Zusammenarbeit mit TI als Beispiel ein Ende genommen hat.

TI ist einer der grossen semis und sie verkaufen SoC wie auch Qualcolmm und alle anderen mehr oder weniger auf dem gleichen Nivaeu.

Keiner wuerde NV ein so hohes premium bezahlen bei so breitem Angebot, das ist die Zwischenzeit nicht mehr wert fuer einen Hersteller der ohnehin dank feister Konkurrenz unter konstantem Herstellungs-kosten-druck liegt.

Wenn ein Besteller so bloed waere stur ein 100.000 minimum Volumen zu verlangen, dann ja koennte es moeglich sein dass NV einen so hohen Preis verlangt. Machen dann andere semis auch nicht anders. Solche Faelle gibt es aber auch nicht normalerweise. Nur Intel kann sich solche Albernheiten leisten, denn wenn ihr Zeug dann auf den Regalen Spinnenweben sammelt ist es ihnen auch ziemlich wurscht. Wenn man Milliarden-hohe Summen fuer Projekte wie LRB wegstecken kann, ist ein SoC der man sogar in seiner eigenen Bude herstellt nur noch Kleinzeug. Und das gilt lediglich fuer GMA600 der immer noch auf sich warten laesst, aber sie verlieren an dem Zeug garantiert nichts. Wird dann halt fuer CEs verscherpelt. Allein was Sodaville in Sony Bravia Internet TVs verkauft, reicht schon jegliche Kosten aufzusaugen.

NV kann sich so etwas nicht leisten; vor allem weil die Herstellungskosten bei TSMC noch dazu kommen.

Und ja natuerlich kann man kinderleicht glauben dass T2 der einzige oder unter den wenigen verfuegbaren dual A9 SoC ist. Da hier ist natuerlich nur eine Illusion: http://www.ambarella.com/news/23/74/Ambarella-iOne-Camera-Applications-Processor-Enables-a-New-Class-of-Android--Based-Smart-Cameras.htm

http://www.linuxfordevices.com/images/stories/ambarella_ione_block.jpg

Jetzt frag nach welche Hersteller deren Zeug benutzen; glaubst Du dass jeder wirklich weiss was in jeglicher TV-Roehre, cam-corder oder weiss der Geier was noch fuer elektronische Geraete drinsteckt? Macht auch keinen Unterschied aber ich koennte mir die Finger wundtippen mit Beispielen wieso T2 nicht die einzige Loesung dort draussen ist und es wuerde immer noch nichts bringen.

LovesuckZ
2011-01-27, 14:34:09
Netbooks werden sich in absehbarer Zeit naeher an notebooks platzieren, wenn sie sich nicht sogar langfristig irgendwo quasi verschmeltzen.

Das kommt immer darauf an, was man haben will. Ein AC100 ist federleicht, hat keinen Lüfter, profuziert kaum wärme, hält 7h mit Wlan und über 12h ohne Wlan. Wer eine "digitale Schreibmaschine" mit Internetmöglichkeit sucht, würde in diesem Bereich besser bedient. Ich jedenfalls bin vom Prinzip begeistert.



Weisst Du ueberhaupt in welchen Mengen ein Semi wie Samsung smart-phone SoCs fuer so etwas herstellt?

Hä? In jedem verkauft Gerät befindet sich ein SoC. Samsung hat in diesem Monat die Meldung (http://www.notebookjournal.de/news/samsung-nennt--galaxy-s--verkaufszahlen-2691) veröffentlicht, dass vom Galaxy S wie gesagt 10 Millionen innerhalb von 7 Monaten verkauft wurden seien. Es geht einfach darum, dass zum Großteil nicht die Anzahl der Design wichtig ist, sondern der Erfolg dieser.

Hergott was genau hat Apple genau mit jemand mit LG gemeinsam? Apple wird an ihrer road-map nichts aendern und wenn wirklich grosse Hersteller wie SONY als Beispiel versuchen werden gegen sie anzutreten, darfst Du drei Mal raten wer mit wem fuer was fuer die Zukunft schon unter Verhandlungen steht. Microsoft waere auch ein "moechtegern"-Kandidat aber ich kann sie dank windows leider immer noch nicht ernst-nehmen.

Ich rede vom Erfolg eines Designs. Apple hält mit 2 Geräten 25% des Marktes. Es zählt nicht die Masse, sondern die Qualität.


Wieso sollte TI bekannt geben was fuer ihr OMAP4 noch alles unter Entwicklung liegt? Es gibt fuer OMAP3 heute um die 15 verschiedene SoCs. Darunter smart-phones von NOKIA, Motorola, Samsung, Sony Erricsson, HTC, Palm, Archos und weiss der Geier was noch.

Weil sie unter Druck stehen? Sie haben auf die Nachfrage nur mit "einem Kunden" geantwortet. Dagegen stehen fast 10 auf nVidia-Seite, die Designs marktreif oder schon im Markt haben. Ich sehe daher nicht, dass soviele zur Konkurrenz von nVidia laufen.


Und ja natuerlich kann man kinderleicht glauben dass T2 der einzige oder unter den wenigen verfuegbaren dual A9 SoC ist. Da hier ist natuerlich nur eine Illusion: http://www.ambarella.com/news/23/74/Ambarella-iOne-Camera-Applications-Processor-Enables-a-New-Class-of-Android--Based-Smart-Cameras.htm

http://www.linuxfordevices.com/images/stories/ambarella_ione_block.jpg

Es wurden schon letztes Jahr auf der CES mehr T2 Prototypen gezeigt als dieses Jahr andere Konkurrenzprodukte. nVidia hat einen riesigen zeitlichen Vorsprung, weil sie sofort auf DualCore A9 gegangen sind. Das zahlt sich JETZT aus. Nächtes Jahr kann dies wieder komplett anders aussehen.


Jetzt frag nach welche Hersteller deren Zeug benutzen; glaubst Du dass jeder wirklich weiss was in jeglicher TV-Roehre, cam-corder oder weiss der Geier was noch fuer elektronische Geraete drinsteckt? Macht auch keinen Unterschied aber ich koennte mir die Finger wundtippen mit Beispielen wieso T2 nicht die einzige Loesung dort draussen ist und es wuerde immer noch nichts bringen.

Ich rede doch garnicht vom ganzen Markt. Ich rede von dem Markt indem ein DualCore Design reinpasst. Das T2 nicht jedem Gerät zu finden sein wird, ist doch logisch.

stickedy
2011-01-27, 17:24:33
Hä? In jedem verkauft Gerät befindet sich ein SoC. Samsung hat in diesem Monat die Meldung (http://www.notebookjournal.de/news/samsung-nennt--galaxy-s--verkaufszahlen-2691) veröffentlicht, dass vom Galaxy S wie gesagt 10 Millionen innerhalb von 7 Monaten verkauft wurden seien. Es geht einfach darum, dass zum Großteil nicht die Anzahl der Design wichtig ist, sondern der Erfolg dieser.

Ich rede vom Erfolg eines Designs. Apple hält mit 2 Geräten 25% des Marktes. Es zählt nicht die Masse, sondern die Qualität.
Weil sie unter Druck stehen? Sie haben auf die Nachfrage nur mit "einem Kunden" geantwortet. Dagegen stehen fast 10 auf nVidia-Seite, die Designs marktreif oder schon im Markt haben. Ich sehe daher nicht, dass soviele zur Konkurrenz von nVidia laufen.
Und? Wie Du doch selber sagst, ist es mehr oder weniger völlig egal wie viele Design-Wins man hat, wichtig sind vor allem die Stückzahlen. Was Du ja am Apple-Beispiel auch eindrucksvoll belegst.
Die Frage ist doch welches dieser T2-Tablet einen signifikanten Marktanteil erreichen soll? Letztlich werden doch höchstwahrscheinlich das NextGen-iPad und das NextGen-GalaxyTab und wahrscheinlich das Playbook von RIM signifikante Verkaufszahlen erreichen, sprich den Markt beherrschen. Und in keinem der drei steckt nVidia-Technik...

Und das diese T2-Handy von LG irgendeine Rolle auf dem Markt spielen wird, glaubst Du doch selbst nicht, oder?

Ailuros
2011-01-27, 17:35:43
Hä? In jedem verkauft Gerät befindet sich ein SoC. Samsung hat in diesem Monat die Meldung (http://www.notebookjournal.de/news/samsung-nennt--galaxy-s--verkaufszahlen-2691) veröffentlicht, dass vom Galaxy S wie gesagt 10 Millionen innerhalb von 7 Monaten verkauft wurden seien. Es geht einfach darum, dass zum Großteil nicht die Anzahl der Design wichtig ist, sondern der Erfolg dieser.

Du wirst wohl eine einfache Frage beantworten koennen oder? Ich mach es Dir einfacher wenn SAMSUNG von ihren eigenen SoCs smart-phones baut da ist das insgesamt geplante Herstellungs-volumen um zich Male hoeher als bei LG oder sonst wo.

Ich rede vom Erfolg eines Designs. Apple hält mit 2 Geräten 25% des Marktes. Es zählt nicht die Masse, sondern die Qualität.

Nur basiert die Qualitaet hier auf der Kombination von sw und hw. NV entwickelt kein OS sondern ist auf Android angewiesen. Es sind uebrigens stets 4 Geraete von Apple die auf dem gleichem SoC basieren aber das ist hier nebenwichtig.

Weil sie unter Druck stehen? Sie haben auf die Nachfrage nur mit "einem Kunden" geantwortet. Dagegen stehen fast 10 auf nVidia-Seite, die Designs marktreif oder schon im Markt haben. Ich sehe daher nicht, dass soviele zur Konkurrenz von nVidia laufen.

Ja und? Andere Konkurrenten haben zich Mal mehr. Die eigentliche Wahrheit ist dass sie es nicht so verzweifelnd noetig haben mit irgend etwas zu werben. Was sollen mir 10 Designs genau sagen? ROFL :D Wo sind denn die versprochenen 50 design wins von NV? 100 T&L games oooops nein 100 T2 optimierte games soon....

Es wurden schon letztes Jahr auf der CES mehr T2 Prototypen gezeigt als dieses Jahr andere Konkurrenzprodukte. nVidia hat einen riesigen zeitlichen Vorsprung, weil sie sofort auf DualCore A9 gegangen sind. Das zahlt sich JETZT aus. Nächtes Jahr kann dies wieder komplett anders aussehen.

Jetzt fettgedruckt und schoen gross (und warum auch nicht mit blinkendem Strass an der Seite...) heisst genau die begrenzte Menge die NV sich eigentlich erhofft zu verkaufen.

Ich rede doch garnicht vom ganzen Markt. Ich rede von dem Markt indem ein DualCore Design reinpasst. Das T2 nicht jedem Gerät zu finden sein wird, ist doch logisch.

Ein SoC der in cameras reingesteckt wird mit einem 1GHz 2*A9 gehoert sehr wohl dazu wie auch viele andere.

Was heisst "jedes" Geraet denn ueberhaupt? Von so einem Punkt ist NV noch meilenweit entfernt. T2 im naechsten Galaxy tab2 waere dann tatsaechlich ein ernsthafter design-Gewinn mit dem sie tatsaechlich fett verkaufen koennten. Das waere dann fuer SAMSUNG insgesamt eine Vorbestellung von 15-20M SoCs. Jetzt stell Dir wie es fuer ein smartphone aussehen koennte.

Dural
2011-01-27, 17:38:59
für welche Geräte genau hat Samsung eigentlich die T2 bestellt, weis das einer?



Interessante Neuigkeiten von Samsung: Der Elektronikriese hat Informationen des Wirtschaftsmagazins Barrons zufolge eine große Zahl an Tegra 2-Prozessoren von Nvidia geordert. Die Bestellung der Dual-Core-CPUs kommt überraschend, da Samsung bereits seinen eigenen Zweikerner „Orion“ vorgestellt hatte.
Die genaue Wortlaut der Meldung liest sich wie folgt:

„[Samsung has] placed a sizeable order with Nvidia for Tegra 2 chips in the first half of 2011, geared for both tablets and smartphones.“

Der Wert des Auftrages soll zwischen 250 und 350 Millionen US-Dollar liegen, was das gesamte Jahresvolumen dessen übersteigt, was Tegra 2 eigentlich hätte leisten sollen – Umsätze von etwa 275 Millionen US-Dollar. Da Samsung bereits seinen eigenen Dual-Core-Prozessor namens Orion präsentiert hatte, kommt diese Meldung nun mehr als überraschend.

Der Grund könnte in Googles neuester Android-Version 3.0 Honeycomb liegen. Wie wir berichteten, gehören die Tegra 2-Chips zum Referenzdesign für Honeycomb, insbesondere für Tablets, für die Honeycomb optimiert sein wird. Da auch Samsung fleißig an den Nachfolgern vom Galaxy Tab arbeitet, scheint das Tegra 2-Chipset nun wohl die beste Wahl zu sein.



Laut Engadget, Akihabaranews und deren Quellen wird Samsung das nächste Samsung Galaxy Tab mit der Tegra Plattform ausstatten. Leider geht man nicht weiter auf das “Tab” ein. Es ist also nicht klar, ob nur eines der Galaxy Tabs (7 Zoll Modell mit Orion Plattform und 10 Zoll Modell mit Tegra 2 Plattform (s.u.)) oder beide Varianten mit dem Nvidia Chipsatz ausgeliefert werden. Die Entscheidung, mindestens ein Tablet mit dem Tegra 2 Chipsatz zu bestücken (obwohl man ja einen hauseigenen fast gleichstarken Konkurrenten besitzt (“Orion”)), liegt wahrscheinlich daran, dass der Chipsatz von Nividia das neue Referenzdesign, also “Vorzeigemodell”, für Android Honeycomb wird.

Die Digitimes veröffentlichte heute einen neuen Artikel zu der Popularität von Tegra basierten Tablets. So könnten nächstes Jahr 50% der ARM basierten Tablets auf die Tegra Plattform von Nvidia setzen. Kein Wunder, so bietet diese viel Leistung, aber gleichzeitig benötigt diese wenig Strom. Einige Hersteller wurden im Artikel aufgelistet, darunter sind Acer, Asus, Toshiba und Samsung. Ungewöhnlich ist die Auflistung von Samsung, denn dieser Hersteller hat mit der hauseigenen Orion Plattform einen ähnlichen, wenn auch nicht ganz so starken Konkurrenten zur Tegra Plattform veröffentlicht.

LovesuckZ
2011-01-27, 17:41:31
Und? Wie Du doch selber sagst, ist es mehr oder weniger völlig egal wie viele Design-Wins man hat, wichtig sind vor allem die Stückzahlen. Was Du ja am Apple-Beispiel auch eindrucksvoll belegst.

Nicht alles durcheinander werfen. Bzgl. der Design Wins ging es einzig und allein nur aufzuzeigen, dass es kaum Ankündigungen eines DualCore Design abseits von Tegra2 gibt und ich daher nicht sehe, dass die Leute in Scharen zur Konkurrenz laufen.


Die Frage ist doch welches dieser T2-Tablet einen signifikanten Marktanteil erreichen soll? Letztlich werden doch höchstwahrscheinlich das NextGen-iPad und das NextGen-GalaxyTab und wahrscheinlich das Playbook von RIM signifikante Verkaufszahlen erreichen, sprich den Markt beherrschen. Und in keinem der drei steckt nVidia-Technik...

Ich würde das Playbook rausnehmen, da es frühsten Ende Q2 auf den Markt kommen soll und es dort anscheinend mit Tegra2 zwei Stück von Asus, das neue Toshiba, Motorola's XooM sowie die Tablets von Dell und Asus schon zu kaufen geben wird. Auch muss man bei Galaxy abwarten. Es verkauft sich zZ auch nur so gut, weil es neben des iPad das einzig vernünftige ist. Das kann sich schnell ändern und dann ist es nur ein Android-Tablet unter vielen.

Ailuros
2011-01-27, 17:56:12
für welche Geräte genau hat Samsung eigentlich die T2 bestellt, weis das einer?

Galaxy2 tab angeblich. Wenn aber Samsung bei der MWC etwas total anderes ankuendigen sollte dann wird's heikel fuer den Analysten.

Kein ernsthafter Analyst gibt uebrigens Summen an bei solchen Projektionen.

Nicht alles durcheinander werfen. Bzgl. der Design Wins ging es einzig und allein nur aufzuzeigen, dass es kaum Ankündigungen eines DualCore Design abseits von Tegra2 gibt und ich daher nicht sehe, dass die Leute in Scharen zur Konkurrenz laufen.

Wieherhole es so oft wie Du willst aber die Konkurrenz macht sich keine Sorgen. Sie wissen alle das der Markt groesser wird und daher der Umsatz zwar steigen wird aber nicht unbedingt der Marktanteil.

Wann hat denn TI oder Qualcolmm usw. je in den Medien so fett geprotzt wie NV dieses Jahr obwohl sie stets eine Unzahl mehr an design wins hatten?


Ich würde das Playbook rausnehmen, da es frühsten Ende Q2 auf den Markt kommen soll und es dort anscheinend mit Tegra2 zwei Stück von Asus, das neue Toshiba, Motorola's XooM sowie die Tablets von Dell und Asus schon zu kaufen geben wird. Auch muss man bei Galaxy abwarten. Es verkauft sich zZ auch nur so gut, weil es neben des iPad das einzig vernünftige ist. Das kann sich schnell ändern und dann ist es nur ein Android-Tablet unter vielen.


Nochmal da Du es wohl uebersehen hast:

http://www.brightsideofnews.com/Data/2011_1_14/Tablet-mania-analysis/Chart%202.png

iPad2 kommt relativ bald, ergo haben wir eine Projektion von ~28% vom tablet-Markt fuer Android fuer 2011. Du mir wohl nicht weissmachen wollen dass NV die Mehrzahl von diesen 28% kapitulieren wird oder? Der Sitz ist naemlich schon seit langem von Qualcolmm reserviert und dabei halt ich von derem Adreno-Zeug so oder so nicht besonders viel.

fondness
2011-01-27, 18:01:56
Ich würde das Playbook rausnehmen, da es frühsten Ende Q2 auf den Markt kommen soll und es dort anscheinend mit Tegra2 zwei Stück von Asus, das neue Toshiba, Motorola's XooM sowie die Tablets von Dell und Asus schon zu kaufen geben wird.

RIM hat wie Apple ein eigenes Betriebssystem, alleine schon deshalb werden sie ihre Fans finden, wie die Blackberrys auch. NV darf sich mit einem Haufen anderen im Android-Markt herumschlagen.

LovesuckZ
2011-01-27, 18:06:41
Mich interessiert ein Forecast in keinster Weise. Der Markt ist so schnellebig und unberechenbar.
Dazu kommt, dass niemand hier weiß, wie stark das Interesse an Tablets in diesem Jahr ansteigen wird und wie sich die Marktteilnehmer verhalten werden.

Ich würde niemanden mehr ein Single-Core Android-Device empfehlen, wenn man zum selben Preis ein DualCore-device erhält. Und da sehe ich den großen Vorteil von nVidia: Es werden unzählige Devices noch vor der Konkurrenz in jedem Marktsegment anzutreffen sein. Schon heute kann man sich mit dem Folio 100 und dem Mobii von PoV so ein Tablet kaufen. Die Nachfolger bzw. die Konkurrenz werden auch hier wieder vertreten sein.

RIM hat wie Apple ein eigenes Betriebssystem, alleine schon deshalb werden sie ihre Fans finden, wie die Blackberrys auch. NV darf sich mit einem Haufen anderen im Android-Markt herumschlagen.

Hä? Das interessiert mal niemanden. Wenn das Playbook eine Enttäuschung sein sollte, dann wird es vom Markt abgelehnt. Vollkommen unabhängig davon, dass es ein spezielles OS hat.

Ailuros
2011-01-27, 18:22:10
Mich interessiert ein Forecast in keinster Weise. Der Markt ist so schnellebig und unberechenbar.

Macht mir auch keinen besonderen Eindruck da von dem was NV verspricht bzw. vorhersieht fuer den embedded Markt sowieso nie mehr als die Haelfte hinhaut.

Dazu kommt, dass niemand hier weiß, wie stark das Interesse an Tablets in diesem Jahr ansteigen wird und wie sich die Marktteilnehmer verhalten werden.

Ich würde niemanden mehr ein Single-Core Android-Device empfehlen, wenn man zum selben Preis ein DualCore-device erhält. Und da sehe ich den großen Vorteil von nVidia: Es werden unzählige Devices noch vor der Konkurrenz in jedem Marktsegment anzutreffen sein. Schon heute kann man sich mit dem Folio 100 und dem Mobii von PoV so ein Tablet kaufen. Die Nachfolger bzw. die Konkurrenz werden auch hier wieder vertreten sein.

Gut dann koennen auch alle Benutzer beruhigt dieses Jahr doch noch auf's iTab2 steigen da ein 2*A9 mit seinem Zauberstab alles auf einmal loesen kann. Denn die unterliegende Platform bzw. das generelle Verhalten der sw spielt ja NIE eine besondere Rolle.

Xmas
2011-01-27, 19:19:33
Ich würde das Playbook rausnehmen, da es frühsten Ende Q2 auf den Markt kommen soll
Ziel für das Playbook ist immer noch Q1. Das Playbook 4G kommt dann im Sommer.

Dural
2011-01-28, 09:00:26
Nochmal da Du es wohl uebersehen hast:

http://www.brightsideofnews.com/Data/2011_1_14/Tablet-mania-analysis/Chart%202.png

iPad2 kommt relativ bald, ergo haben wir eine Projektion von ~28% vom tablet-Markt fuer Android fuer 2011. Du mir wohl nicht weissmachen wollen dass NV die Mehrzahl von diesen 28% kapitulieren wird oder? Der Sitz ist naemlich schon seit langem von Qualcolmm reserviert und dabei halt ich von derem Adreno-Zeug so oder so nicht besonders viel.


50% von 28% sind immer noch 14% des gesamten Marktes und das ist für NV sicher mehr als sie für das Jahr 2011 überhaupt erwartet haben... Dann kommen noch die anderen einsatz gebiete wo NV mit Tegra auch noch vertreten ist.

Mehr kann NV auch gar nicht mit ihrem erst zweiten SoC erwarten und es ist auch nur logisch das man mit einem "High End" SoC der um die 30.- US Doller kostet nicht den Massenmarkt überfluten kann...

Ailuros
2011-01-28, 09:33:21
50% von 28% sind immer noch 14% des gesamten Marktes und das ist für NV sicher mehr als sie für das Jahr 2011 überhaupt erwartet haben... Dann kommen noch die anderen einsatz gebiete wo NV mit Tegra auch noch vertreten ist.

NV hat offensichtlich ihre originalen Projektionen vor dem eigentlichen launch um einiges reduzieren muessen. 50% vom Android Markt ist uebrigens verdammt viel und wuerde Qualcolmm sofort auf Platz 2 verstossen, welches aber nicht der Fall sein wird.

http://www.brightsideofnews.com/news/2011/1/26/qualcomm-rakes-in-a-record-1q-2011-and-raises-2011-expectations.aspx

As far as shipments go, Qualcomm shipped approximately 118 million units of their popular MSM chipsets [for handsets and tablets] which translated to an increase of 28% year over year and 6% sequentially.

Also, Qualcomm appears to have fairly conservative outlooks basically putting 2Q 2011’s earnings expectations at effectively the same level of this quarter’s even though we expect them to beat those estimates. After our roundtable with Qualcomm, our expectations were reaffirmed and we are confident that Qualcomm has a solid lineup of products coming in 2011. The only remaining question is… when can we expect a quad-core processor to compete with Nvidia’s Tegra 3 chipset? Nvidia’s new competition with Qualcomm in the same segment is likely to cut into Qualcomm’s revenue if they do not remain competitive. While we do not expect Nvidia to significantly cut into Qualcomm’s revenue or market share in 2011, there is a good chance that could steadily change from quarter to quarter. This could especially hurt Qualcomm in the long run if they allow the perception of their leadership to change as a result of Nvidia's products and strong marketing. At this point, we wish to remain cautiously optimistic that there is new competition which spurs better products and innovation because in the end, that benefits everyone.



Es gibt eine Unzahl an diversen SoCs die in mehreren Maerkten vertreten sind, in dem Fall hat T2 keinen besonderen Vorsprung. Noch schlimmer wie viele Varianten vom gleichen SoC kann NV denn ueberhaupt herstellen? Wie schon oben erwaehnt andere Semis stellen zich angepasste SoC von der gleichen Generation her, eben genau um hoehere Flexibilitaet zu garantieren.

Mehr kann NV auch gar nicht mit ihrem erst zweiten SoC erwarten und es ist auch nur logisch das man mit einem "High End" SoC der um die 30.- US Doller kostet nicht den Massenmarkt überfluten kann...

Mir kommt jedesmal ein uebles Grinsen ins Gesicht wenn ich solche Preise fuer T2 lesen muss. Wieviel muss dann SONY fuer jeglichen NGP SoC bezahlen? :D

Dural
2011-01-28, 10:28:28
Du kommt mir echt langsam rüber wie charlie... Permanentes um reden und verweigern von Fakten! :rolleyes:

Wenn der Samsung deal stimmt und bis jetzt haben ja auch so gut wie alle anderen Tablet Hersteller T2 zeugs im Programm, auf der CES hat es nur so von T2 Tablets gewimmelt!
Zudem gehört der T2 zur Offiziellen Android 3.0 Referenzplattform und das System wurde auf T2 abgestimmt! Und hinter Android steckt wie wir alle wissen Google, meinst du echt die machen irgendwelche halben sachen!?
Die 50% hat NV wohl schon so gut wie erreicht, mit dem Samsung deal sogar ziemlich sicher und wenn sogar schon Samsung mit eigenen Dual Core SoC auf T2 setzt, sagt das schon ziemlich alles aus!

Dein ach so geliebtes Qualcomm und PowerVR zeug wird wohl oder übel Marktanteile verlieren.
Übrigens die Tegra Preise wurden schon mehrfach erwähnt, sogar schon direkt von NV selber, aber interessant das DU die Preise wohl sogar besser kennst als die Firma die sie verkauft...

Aber deine GTX595 mit GF114 und 256Bit wird schon noch kommen, musst nur ganz fest dran glauben ;D du hast dir in letzterzeit ziemlich grobe schnitzer erlaubt, ich würde mal deine "Quellen" überprüfen... ;)

Ailuros
2011-01-28, 12:36:16
Du kommt mir echt langsam rüber wie charlie... Permanentes um reden und verweigern von Fakten! :rolleyes:

Deine eigenen Rekorde diesbezueglich werde ich wohl schwer brechen koennen und dazu nicht mit einen einzigen Schimmer an Dokumentation.

Wenn der Samsung deal stimmt und bis jetzt haben ja auch so gut wie alle anderen Tablet Hersteller T2 zeugs im Programm, auf der CES hat es nur so von T2 Tablets gewimmelt!

Zwar bestehen gute Chancen fuer den Samsung deal, aber bis Samsung ihr naechstes Tablet bei MWC ankuendigt will ich mir sicher sein das es auch stimmt. Sonst wird es im Laufe des Jahres noch ziemlich viele andere Ankuendigungen geben. MWC/Barcelona Februar ist die eine Stelle und dann kommt die GDC 2011 Ende Februar Anfang Maerz. Ganz zu schweigen von Apple's Ankuendigung in absehbarer Zeit und dann noch alle H2 Ankuendigungen.

Zudem gehört der T2 zur Offiziellen Android 3.0 Referenzplattform und das System wurde auf T2 abgestimmt!

Wenn Du keine Ahnung hast was Referenz-platform fuer Google's interne Entwicklung bedeutet lass die Finger davon.

Und hinter Android steckt wie wir alle wissen Google, meinst du echt die machen irgendwelche halben sachen!?

Wenn Du so naiv bist und denkst dass Google irgendwelche Interesse hat ihr OS bevorzugend fuer einen Hersteller hinzubiegen, lebst Du hinterm Mond. Honeycomb hat dual-core CPU Unterstuetzung weil eben die Mehrzahl der SoCs in 2011 einen solchen haben werden. Was hat die Mehrzahl gemeinsam wenn es zu dual core CPUs kommt? ARM CPU IP. Google hat und wird nicht Snapdragon oder MIPS oder jeglichen anderen Konkurrenten benachteiligen aus verstaendlichen Gruenden die bei Dir woll nicht sitzen wollen.

Die 50% hat NV wohl schon so gut wie erreicht, mit dem Samsung deal sogar ziemlich sicher und wenn sogar schon Samsung mit eigenen Dual Core SoC auf T2 setzt, sagt das schon ziemlich alles aus!

Ich will den Samsung deal erstmal angekuendigt sehen und von da ab geht es weiter. Qualcolmm ist trotz allem nicht zu uebersehen. Und nein Google hat auch nichts fuer Snapdragon zusammengeschustert obwohl Qualcolmm's SoCs Referenz-Platformen fuer 2 und 2.1 waren.

Dein ach so geliebtes Qualcomm und PowerVR zeug wird wohl oder übel Marktanteile verlieren.

Ein Link einer ziemlich anstaendigen Analyse (oben verlinkt) gegen Dein Wort. Was jetzt IMG betrifft ich hab es mehrere Male in der Vergangenheit erwaehnt dass sie ihre projezierten Ziele sogar uebertreffen werden. Abgesehen davon hatten sie einen ca. 80% hohen Markt-anteil im 3D mobilen Markt und sie projezieren selber dass es dank hohem Konkurrenz-druck von allen Richtungen auf 50% fallen wird. Wenn sie in absehbarer Zeit von 200 auf 500M Einheiten steigen ist der Martanteil auch ziemlich wurscht (500M Einheiten nur fuer PowerVR IP; sonst haben sie die 500M insgesamt schon erreicht).

Und wenn Du schon sticheln willst, guten Appetit am SONY NXP deal. Du kannst Dir gerne vorstellen wie viele Einheiten SONY davon fuer die naechsten paar Jahre verkaufen wird und zeig mir dann wo NINTENDO Tegra2 genau NVIDIA hingesteckt hat. Zu guter letzt verkauft IMG IP und ist kein direkter Konkurrent fuer NVIDIA.

Übrigens die Tegra Preise wurden schon mehrfach erwähnt, sogar schon direkt von NV selber, aber interessant das DU die Preise wohl sogar besser kennst als die Firma die sie verkauft...

NV verkauft nicht hoeher als $15 im besten Fall. Je groesser die Menge desto mehr Rabbatt machen sie auch und das macht jeder SoC Hersteller dort draussen und es ist auch eine ziemlich logische Business-Strategie. Und ja ich fragte direkt nach als der 2010 forecast auf $125Mio reduziert wurde im letzten Jahr. Irgendwo da sind sie auch angekommen und da sie nach ihnen selber fuer 2010 ca. 10Mio Einheiten verkauft haben liegt bei meiner Laien-Mathe der Durchschnitt bei $12.5.

Aber deine GTX595 mit GF114 und 256Bit wird schon noch kommen, musst nur ganz fest dran glauben ;D du hast dir in letzterzeit ziemlich grobe schnitzer erlaubt, ich würde mal deine "Quellen" überprüfen... ;)

Ich hab stets behauptet dass 114 kein schlechter Kandidat waere mit Aussnahme fuer die Speichermenge die bei 114 pro chip/frame im Nachteil zu GF110 liegt. Es gibt einige Gedanken betreffend Frequenzen/Stromverbrauch , verbrauchter die area pro chip usw usw die ich von Zeit zu Zeit erwaehnte, aber ich hab es nie als zweifellosen Fakt praesentiert. Es hat uebrigens gar nichts mit dem Thema hier zu tun und jegliche weitere Referenz zu diesem kannst Du entweder in den demenstprechenden Threads erwaehnen oder mich privat ansprechen.

Was hast Du denn zum Thema Tegra hier genau beigetragen? Lies Dir den verdammten Thread hier von Anfang nochmal durch und es ist leicht zu sehen ob ich Einzelheiten darueber zu Verfuegung habe die man eben nicht im Netz normalerweise finden kann. Und ja Fehler gibt es stets, deshalb liegt der Thread auch hier im Spekulationsforum.

***edit: uebrigens um mich selber nochmal zu korrigieren T1/2 GPU PS ALUs sind FP20 und nicht FP24.

|MatMan|
2011-01-28, 12:48:45
um mal was zum Thema beizutragen: bei Anandtech (http://www.anandtech.com/show/4140/this-just-in-lg-optimus-2x) gibt es ein paar vorab CPU-Benches mit LGs Optimus 2x. Bei den Browserbenchmarks ist man teilweise schon deutlich vorn, aber das war auch zu erwarten...

Ailuros
2011-01-28, 13:08:30
um mal was zum Thema beizutragen: bei Anandtech (http://www.anandtech.com/show/4140/this-just-in-lg-optimus-2x) gibt es ein paar vorab CPU-Benches mit LGs Optimus 2x. Bei den Browserbenchmarks ist man teilweise schon deutlich vorn, aber das war auch zu erwarten...

Ich wuerde sagen dass der Vorteil von dual core CPUs verstaendlicherweise unter Honeycomb noch deutlicher sein duerfte.

Linpack von der anderen Seite sieht eher danach aus als ob nur ein core mitspielt, koennte mich aber irren.

Sisaya
2011-01-29, 11:38:38
Irgendwie finde ich es erstaunlich Ailuros. Hier erwähnst du, daß die PSP 2 ~65 Millionen absetzen könnte in ihrer Lebenszeit und gleichzeitig redest du sie im PSP 2 Thread quasi schon tot.

Ailuros
2011-01-29, 16:11:07
Irgendwie finde ich es erstaunlich Ailuros. Hier erwähnst du, daß die PSP 2 ~65 Millionen absetzen könnte in ihrer Lebenszeit und gleichzeitig redest du sie im PSP 2 Thread quasi schon tot.

Es geht im anderen Thread um eine moegliche "Konvergenz" zwischen den beiden Welten in weniger absehbarer Zukunft.

Jemand scheint es doch verstanden zu haben: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8536915&postcount=496

Tu mir den Gefallen und sprich mich privat fuer solche Fragen an.

Mancko
2011-01-31, 11:10:37
Sieht wohl so aus, dass Samsungs Galaxy 2 Tablet den Tegra 2 Chipsatz nutzt:
http://aroundthe.net/hardware/samsungs-galaxy-tab-2-will-have-nvidia-tegra-2/#

Launch soll 13. Februar sein.

Ailuros
2011-01-31, 11:22:21
Sieht wohl so aus, dass Samsungs Galaxy 2 Tablet den Tegra 2 Chipsatz nutzt:
http://aroundthe.net/hardware/samsungs-galaxy-tab-2-will-have-nvidia-tegra-2/#

Launch soll 13. Februar sein.

Es ist sicher dass SAMSUNG bei der MWC in Barcelona ihr neues Tab ankuendigen wird. Ich wuerde 90-10 Chancen geben dass es ein T2 ist; die "10" waeren eben fuer die Faelle die darauf vehement bestehen dass es nicht der Fall ist.

Mancko
2011-01-31, 12:50:00
Es ist sicher dass SAMSUNG bei der MWC in Barcelona ihr neues Tab ankuendigen wird. Ich wuerde 90-10 Chancen geben dass es ein T2 ist; die "10" waeren eben fuer die Faelle die darauf vehement bestehen dass es nicht der Fall ist.

Das wäre doch mal was. Der Deal alleine dürfte reichen um das Tegra Segment in Richtung +-0 zu bringen. Alles andere ist dann oben drauf und das ist ne ganze Menge. So richtig sehen wird man es erst zur Q2/Q3 wende.

AffenJack
2011-01-31, 12:52:33
Samsung wäre auf jeden fall nen großer deal, aber ist orion noch soweit weg? Ich hatte mit dem schon in 2,3 monaten gerechnet und eigentlich fest damit gerechnet, dass auch das galaxy pad 2 mit dem kommt?

Ailuros
2011-01-31, 13:27:55
Das wäre doch mal was. Der Deal alleine dürfte reichen um das Tegra Segment in Richtung +-0 zu bringen. Alles andere ist dann oben drauf und das ist ne ganze Menge. So richtig sehen wird man es erst zur Q2/Q3 wende.

Kommt drauf an wie gross der Deal wirklich ist so verstrickt wie die diversen Divisionen von Samsung am Ende sind (Samsung semiconductor und smartphone Division sind ziemlich unabhaengig). Best case scenario waere irgendwo um die 15-20Mio Einheiten die ich schon erwaehnt habe.

Das GalaxyS tab hat von October 2010 bis heute ueber 2Mio Einheiten verkauft.

Hier erstmal eine halbwegs logische Erklaerung warum Samsung hoechstwahrscheinlich erstmal zu dritten SoCs greift: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8538071&postcount=24

Samsung wäre auf jeden fall nen großer deal, aber ist orion noch soweit weg? Ich hatte mit dem schon in 2,3 monaten gerechnet und eigentlich fest damit gerechnet, dass auch das galaxy pad 2 mit dem kommt?

Orion ist fuer Ende 2011 angelegt ergo viel zu spaet. Bis dahin braucht Samsung dringend eine dual core CPU Bruecke. Fuer smart-phones werden sie wohl bis Ende des Jahres den 1.2GHz Hummingbird benutzen.

LovesuckZ
2011-02-03, 00:18:20
Heute kündigten auch LG und Asrock Tablets mit Tegra2 an. Damit wächst die Liste immer weiter.

Und bzgl. das Samsung-Tab-Gerücht: Müsste Tegra2 nicht auch ins neue GalaxyPhone wandern? Ich glaube nicht, dass Samsung jetzt noch ein Single-Core Design nehmen würde. Und wenn sie schon über ein DualCore verfügen, müsste die Produktion ziemlich langsam verlaufen.

Ailuros
2011-02-03, 07:09:49
Und bzgl. das Samsung-Tab-Gerücht: Müsste Tegra2 nicht auch ins neue GalaxyPhone wandern? Ich glaube nicht, dass Samsung jetzt noch ein Single-Core Design nehmen würde. Und wenn sie schon über ein DualCore verfügen, müsste die Produktion ziemlich langsam verlaufen.

Wenn etwas am SAMSUNG deal liegt wird es sich hoechstwahrscheinlich nur um einen design win handeln. Du hast natuerlich recht, aber Samsung ist wie gesagt auch ziemlich kompliziert mit ihren diversen Abteilungen.

Sieht eher danach aus als ob sie erstmal den Hummingbird SoC bis zum geht nicht mehr ausmelken: http://www.anandtech.com/show/4096/samsung-infuse-4g-announced

1.2GHz A8, 250MHz SGX540

Das chinesische Meizu9 (moechtegerniPhone) das gerade erst erscheint hat einen vergleichbaren SoC wie der 1GHz Hummingbird.

Bei einem groesserem Schirm wie auf tablets (7-10") macht momentan eine dual core CPU auch Sinn.

Spaeter werden sie dann halt Orion vorstellen. Mit Geometrie hat die GPU zwar nichts besonderes an sich aber die 1.6GPixels/s Fuell-rate decken multimedia Schnickschnack in sehr hohen Aufloesungen ziemlich gut ab sowohl fuer smart-phones als auch fuer tablets.

Dural
2011-02-03, 09:09:37
Samsung gibt „Sneak Preview“ zu Galaxy S 2

Ebenso gesichert ist der Einsatz einer Dual-Core-CPU, hier handelt es sich höchstwahrscheinlich um Nvidias Tegra 2. Denkbar wäre aber auch der Einsatz der SoC-Eigenentwicklung „Orion“.


http://www.computerbase.de/news/consumer-electronics/kommunikation/smartphones/2011/februar/samsung-gibt-sneak-preview-zu-galaxy-s-2/


würde mich überraschen wenn da wirklich ein T2 drin ist...

Mancko
2011-02-03, 09:18:32
http://www.computerbase.de/news/consumer-electronics/kommunikation/smartphones/2011/februar/samsung-gibt-sneak-preview-zu-galaxy-s-2/


würde mich überraschen wenn da wirklich ein T2 drin ist...

Wenn da ein Tegra2 drinn ist geht Nvidia's Aktie durch die Decke.

Ailuros
2011-02-03, 11:29:51
Hier geht es weiter mit dem ARM/Mali relevanten Material: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=495671&page=2

Avalox
2011-02-03, 12:16:02
Sag mal hast Du irgendeinen Tick fuer uebertriebene Generalisierungen fuer die Du nichtmal den Anstand hast sie zu belegen, oder tippst Du nur wird rein was Dir gerade einfaellt? Es wurde lediglich das Toshiba AC100 netbook zurueckgezogen dank sw Problemen und damit hatte NV gar nichts zu tun.


:biggrin: Danke. Das mit dem AC100 kannte ich z.B. noch gar nicht. Passt aber vollkommen ins Bild.

Ein Softwareproblem. Da ja der Tegra2 auch gar nichts mit der Softwareausführung am Hut hat?


Das folgende meinte ich. (dachte dieses wäre dir/allgemein bekannt)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8476874&postcount=2136

Ailuros
2011-02-03, 12:38:12
:biggrin: Danke. Das mit dem AC100 kannte ich z.B. noch gar nicht. Passt aber vollkommen ins Bild.

Das netbook wurde zuerst in der UK veroeffentlicht und schnell zurueckgezogen. Erstes T2 Geraet ueberhaupt aber NV hatte damit nichts ma Hut.

Ein Softwareproblem. Da ja die der Tegra2 auch gar nichts mit der Softwareausführung am Hut hat?

Aus dem Link:

Apparently there were an exceptionally large number of returns and customer complaints on a number of different issues. According to other comments sluggish performance - despite the dual-core CPU running Android 2.2 - poor build quality, a lacklustre screen and the absence of both Flash and the Android Marketplace - both of which were promised at launch - were the most commonly cited problems.

Schlechte Leistung ist NV's Problem in dem Fall so lange der Hersteller nicht Scheiss gebaut hat bei der firmware.

http://forum.beyond3d.com/showpost.php?p=1516006&postcount=457

However, I do know that people at xda-developers have done a wonderful job in updating and tweaking\hacking the Folio's firmware and the device now lives up to its hardware. The bad screen and casing persists, though.

Das meinte ich. (dachte dieses wäre dir bekannt)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8476874&postcount=2136

Viewsonic Rueckruf hoere ich zum ersten Mal.

Aus dem Link:

In einem ersten Test fiel vor allem die starke Blickwinkelabhängigkeit des Displays negativ auf – ob dies allerdings der Grund für den Rückruf ist, wissen wir nicht.

Wenn der Bildschirm k.o. ist ist es dann auch die Verantwortung des SoC Herstellers? Ich weiss es nicht aber ich brauch etwas mehr als das bisherige um ueberzeugt zu werden.

Avalox
2011-02-03, 12:48:58
Aus dem Link:
Schlechte Leistung ist NV's Problem in dem Fall so lange der Hersteller nicht Scheiss gebaut hat bei der firmware.



Du meinst, weil nVidia nicht die Software schreibt, ist nVidia nicht verantwortlich?

Doch sind sie es in letzter Konsequenz.

nVidia geht schlicht einen "anderen" Weg und ein "anderer" Weg benötigt "andere" Software.

Damit werden automatisch Fehler und Inkompatibilitäten provoziert.

Welche ja dann auch sofort zugeschlagen haben, es ist ja mitnichten ein abstraktes Problem.

Ich sage ja nicht, dass das Problem des Tegra2 ist, dass er defekt wäre, ich sage das Problem des Tegra2 ist, dass er "anders" ist.


Viewsonic Rueckruf hoere ich zum ersten Mal.

Wenn der Bildschirm k.o. ist ist es dann auch die Verantwortung des SoC Herstellers? Ich weiss es nicht aber ich brauch etwas mehr als das bisherige um ueberzeugt zu werden.


Es waren Softwarefehler verantwortlich. Auch für den Viewsonic Tegra2 Rückruf.


ViewSonic G-Tablet mit Tegra 2: Software-Macken sind Grund für “Rückruf” (http://www.netbooknews.de/29799/viewsonic-g-tablet-mit-tegra-2-software-probleme-sind-grund-fur-ruckruf-googles-schuld/)

LovesuckZ
2011-02-03, 12:59:27
Was kann nVidia dafür, dass Firmen Produkte auf den Markt bringen, die halbherzig sind?
Sie bieten den Chipsatz. Den Rest überlassen sie dem Hersteller. Es ist eben ein anderer Markt, wo es keine ausgewachsene Infrastruktur gibt. Man sollte auch beachten, dass Tegra2 noch der schnellste Chipsatz am Markt ist und diese Produkte besondere Aufmerksamkeit erhalten.

Avalox
2011-02-03, 13:03:18
Was kann nVidia dafür, dass Firmen Produkte auf den Markt bringen, die halbherzig sind?


Um mal ganz platt zu werden..

Wenn Daimler Benz Automotoren für Kerosin einbauen würde, dann würde sich niemand wundern, wenn es an der Tanke Probleme geben würde.

Weshalb wird sich also gewundert, wenn ein Hersteller eine Tegra2 Motor einbaut, dieser Probleme an der "Software-Tanke" hat?

Dem Kunden ist es doch völlig wurscht wer Schuld in der Herstellerkette daran ist, dass etwas nicht funktioniert. Ein nicht funktionieren welches in dem Fall durch eine "abweichende" Konzeption begründet liegt und diese Abweichung hat natürlich nVidia als Hersteller des Systems(!) vorgegeben.

LovesuckZ
2011-02-03, 13:14:40
Um mal ganz platt zu werden..

Wenn Daimler Benz Automotoren für Kerosin einbauen würde, dann würde sich niemand wundern, wenn es an der Tanke Probleme geben würde?

Weshalb wird sich also gewundert, wenn ein Hersteller eine Tegra2 Motor einbaut, dieser Probleme an der "Software-Tanke" hat?

Neben Softwareproblemen kommen auch Hardwareunzulänglichkeiten dazu, die nichts mit Tegra2 zu tun haben. Wie erklärst du dir diese?


Dem Kunden ist es doch völlig wurscht wer Schuld in der Herstellerkette daran ist, dass etwas nicht funktioniert. Ein nicht funktionieren welches in dem Fall durch eine "abweichende" Konzeption begründet liegt und diese Abweichung hat natürlich nVidia als Hersteller des Systems(!) vorgegeben.

Was? Mein AC100 läuft mit 2.1. Das hat nVidia bestimmt nicht vorgegeben. Mein AC100 hat ein ziemlich bescheidenes Display. Das war bestimmt auch keine Vorgabe von nVidia. Mein AC100 hat ein Wlan-Problem. nVidia schuld? Mitnichten. Fehlender Marketzugang, fehlendes Flash... alles Probleme, die jedem Chipsatz betreffen würden.
Was komischerweise die meisten Problemtablets gemein haben: Ein OS, dass nicht für den Betrieb außerhalb von Smartphones ausgelegt ist. Aber diese Schlussfolgerung wäre dann wohl doch zu einfach...

Avalox
2011-02-03, 13:25:05
Neben Softwareproblemen kommen auch Hardwareunzulänglichkeiten dazu, die nichts mit Tegra2 zu tun haben. Wie erklärst du dir diese?



Das Systeme von sich aus schon hinreichend Komplex sind und für den Hersteller eine Herausforderung bedeuten. Auch ohne zusätzliche Architekturunterschiede.



Was? Mein AC100 läuft mit 2.1.

Erstmal läuft es ja nicht mit "dem" Android 2.1. Sondern mit einem Android 2.1 und zusätzlich noch mit diversen Herstellerunterbau.

So ist dieses nun mal. Es ist alles kein PC. Das muss man sich immer wieder deutlich machen.

Auch die hier im Segment an den Tag gelegten Geschäftsmodelle verraten ja viel über die Firmen.

Es gibt

ARM (die Cleveren)
nVidia (die Gierigen)
Intel (die selten Dämlichen)
AMD/ATI (die völlig Verpeilten)

Und diese Rollen werden sie ja vollkommen gerecht.

Interessant ist es wie es letztendlich zwischen den cleveren Leute bei ARM (und ihrer Alliierten) und den gierigen Fresssack nVidia ausgehen wird.

LovesuckZ
2011-02-03, 13:31:46
Das Systeme von sich aus schon hinreichend Komplex sind und für den Hersteller eine Herausforderung bedeuten. Auch ohne zusätzliche Architekturunterschied.

Aha. Also sollte es garkeine Differenzierung auf dem Markt geben, ja?


Auch die hier im Segment an den Tag gelegten Geschäftsmodelle verraten ja viel über die Firmen.

Es gibt

ARM (die Cleveren)
nVidia (die Gierigen)
Intel (die selten Dämlichen)
AMD/ATI (die völlig Verpeilten)

Und diese Rollen werden sie ja vollkommen gerecht.

Interessant ist es wie es letztendlich zwischen die cleveren Leute bei ARM (und ihrer Alliierten) und den gierigen Fresssack nVidia ausgehen wird.

Hast du eigentlich auch nur die geringste Ahnung, über was du redest? Der "gierige Fressack" nVidia hat ARM-IP lizenziert. Ich mein, nur so nebenbei: Du weißt schon, was Tegra2 ist?!

Avalox
2011-02-03, 13:40:41
Aha. Also sollte es garkeine Differenzierung auf dem Markt geben, ja?


Doch, auf jedem Fall. Nur sollte der Kunde wissen, worauf er sich einlässt.


Ich mein, nur so nebenbei: Du weißt schon, was Tegra2 ist?!


Ja Tegra2, ein Produkt einer Firma welche ihre Produkt Vision ungefähr so umschreibt:

"Von uns aus soll jeder einen ARM SoC nutzen, wenn er denn von nVidia stammt"

und für diesen Zweck ihr KnowHow im GPU Bereich als Totschlagargument verwendet.

Das ist nämlich genau der Grund, weshalb nVidia nicht ihren GPU Kern an Dritte lizenziert, sondern diesen ausschliesslich selbst ARM gebündelt als eigenes Produkt verkauft. nVidia ist so gierig, dass diese sich höher in der Wertschöpfungskette einsortieren wollen, mit anderen Worten sie wollen ein größeres Stück vom Kuchen fressen.


Denkst du ARM hat Lust mittelfristig Architektur Hoflieferant eines einzigen Anbieters zu werden (und in letzter Konsequenz dann von diesen vielleicht sogar noch gekauft zu werden)?

Weil aber eben genau die Gefahr für ARM mittelfristig drohte, eben dass ein Hersteller über einen wichtigen Processing-Zusatz an einem ARM SoC zu einer Dominanz anzuwachen (und Grafik hat genau dieses Potential dazu), hat ARM dieses frühzeitig mit dem MALI unterbunden.

MALI ist vielmehr als eine zusätzliche Produktivierungsmaßnahme für ARM. MALI ist ein Killer für gierige SoC Hersteller-Ideen mit Grafik KnowHow.

Ailuros
2011-02-03, 13:51:00
Du meinst, weil nVidia nicht die Software schreibt, ist nVidia nicht verantwortlich?

Kommt drauf an was fuer sw es genau ist. Fuer diejenige die nicht von NV kommt sind sie auch nicht verantwortlich und dieses gilt fuer jeglichen IHV dort draussen.

Doch sind sie es in letzter Konsequenz.

Nur in Deiner eigenen verblendeten Welt.

nVidia geht schlicht einen "anderen" Weg und ein "anderer" Weg benötigt "andere" Software.

Damit werden automatisch Fehler und Inkompatibilitäten provoziert.

Welche ja dann auch sofort zugeschlagen haben, es ist ja mitnichten ein abstraktes Problem.

Dann streng Dich mal an und erlaeutere was der "andere Weg" genau ist. Ich bin stets fuer absurdes Material gut aufgelegt.

Es waren Softwarefehler verantwortlich. Auch für den Viewsonic Tegra2 Rückruf.
ViewSonic G-Tablet mit Tegra 2: Software-Macken sind Grund für “Rückruf” (http://www.netbooknews.de/29799/viewsonic-g-tablet-mit-tegra-2-software-probleme-sind-grund-fur-ruckruf-googles-schuld/)

Ich lese hier eher ueber OS bedingte Probleme. So oder so ist es peinlich fuer Viewsonic zuerst und dann fuer NV indirekt. weil....

Dem Kunden ist es doch völlig wurscht wer Schuld in der Herstellerkette daran ist, dass etwas nicht funktioniert. Ein nicht funktionieren welches in dem Fall durch eine "abweichende" Konzeption begründet liegt und diese Abweichung hat natürlich nVidia als Hersteller des Systems(!) vorgegeben.

NV ist der Hersteller des SoCs und nicht vom System. Und nein es weiss nicht jeder Kunde dass ein T2 drinsteckt.

Erstmal läuft es ja nicht mit "dem" Android 2.1. Sondern mit einem Android 2.1 und zusätzlich noch mit diversen Herstellerunterbau.

Ich hab nicht die geringste Ahnung ob NVIDIA in solchen Faellen die Integrierung mit dem finalen Hersteller bis zum Ende ueberwacht. Wenn ja haben sie natuerlich einen moeglichen Anteil an der Verantwortung.

ARM (die Cleveren)
nVidia (die Gierigen)
Intel (die selten Dämlichen)
AMD/ATI (die völlig Verpeilten)

Tut mir leid aber ich kann den oberen Abschnitt bei bestem Willen nicht ernst nehmen.


MALI ist vielmehr als eine zusätzliche Produktivierungsmaßnahme für ARM. MALI ist ein Killer für gierige SoC Hersteller-Ideen mit Grafik KnowHow.

Ein Killer ist Mali nur in seiner bisherigen fehlenden Existenz.

Avalox
2011-02-03, 14:02:34
NV ist der Hersteller des SoCs und nicht vom System.

SoC - System on a Chip, oder auch ein Ein-Chip-System und deren Hersteller ist nun mal nVidia, bzw. ein von nVidia beauftragter Hersteller.


Und nein es weiss nicht jeder Kunde dass ein T2 drinsteckt.


Ja. Aber dieses ist ja nun traurig. Ein deregulierter Markt setzt immer einen Überblick des Kunden voraus. Entgegen dem "PC Markt" mit dem Regulator "PC Standard" ist der SoC Markt völlig dynamisch.

Da kann man nur noch mal an Kunden appellieren, die PC Idee ganz schnell zu vergessen.

Ailuros
2011-02-03, 14:31:25
SoC - System on a Chip, oder auch ein Ein-Chip-System und deren Hersteller ist nun mal nVidia, bzw. ein von nVidia beauftragter Hersteller.

Stimmt schon nur will ich trotz allem wissen woran es in diesen Faellen gehapert hat. Ich hab nichtmal eine Ahnung ob NV die OS Integrierung bis zum Ende ueberwacht (obwohl es eigentlich der Fall sein sollte) und ob der Hersteller es umsonst im Kaufspaket bekommt oder dafuer noch dazu bezahlen muss. Sinn wuerde nur ein voller OS Integrierungs-support machen.

Ja. Aber dieses ist ja nun traurig. Ein deregulierter Markt setzt immer einen Überblick des Kunden voraus. Entgegen dem "PC Markt" mit dem Regulator "PC Standard" ist der SoC Markt völlig dynamisch.

Da kann man nur noch mal an Kunden appellieren, die PC Idee ganz schnell zu vergessen.

Es interessiert hauptsaechlich die tech-freaks und fanboys ob in Geraet X,Y oder Z drinsteckt aber nicht den Otto-Normalverbraucher. Wozu auch? Ausser den "early adopters" kann sich ein jeder Verbraucher ueber die eigentlichen Echtzeit Vor- und Nachteile eines Geraets informieren und im Fall von Handys oder tablets als Beispiel kann man sich oefters eins ausleihen und damit herumspielen.

Ich hab selber kein iPhone als Beispiel, hab aber schon mit allen Varianten herumgespielt und ich kann Dich versichern dass sich der positive Eindruck den mir die sw Platform jedesmal hinterlassen hat sich nicht geaendert haette wenn Bums GPU IP drinstecken wuerde. Es waere von Grund auf laecherlich wenn Apple auf ihren smart-phones/tablets neben dem Apfel noch ein IMG logo als Beispiel schmieren wuerde.

Dabei ist Apple aber auch traditionell die grosse Ausnahme. Grosse Hersteller kaufen Technologie und SoCs oefters von mehreren Quellen ein hauptsaechlich um so unabhaengig wie moeglich zu sein. In solch einem Fall wenn NOKIA eine Produkt-familie mit zich diverser Technologie von oben nach unten hat, waere es eher kontra-productiv fuer sie selber wenn sie alles erwaehnen wuerden.

Und da wir schon dabei sind, bevor man ueber Tegra2 laestert oder Schadenfreude fuer Missgeschicke zeigt, waere es eine angebrachtere Idee ein solches Geraet mal in Echtzeit auszuprobieren. Sie sind alles andere als miserabel eher das grobe Gegenteil.

Wenn ich stellenweise ueber NV laestere ist es eher damit verbunden dass ich von ihnen auf GPU Nivaeu mehr erwartete und erwarte. Das sind aber zweierlei Schuhe.

Avalox
2011-02-03, 14:45:17
Und da wir schon dabei sind, bevor man ueber Tegra2 laestert oder Schadenfreude fuer Missgeschicke zeigt, waere es eine angebrachtere Idee ein solches Geraet mal in Echtzeit auszuprobieren. Sie sind alles andere als miserabel eher das grobe Gegenteil.



Ich lästere doch überhaupt nicht, noch bin ich irgendwo schadenfroh. Ganz im Gegenteil.
Ich finde es Schade, weil solche Rückschläge natürlich das Vertrauen an Varianz gefährden, welch ich für grundsätzlich nötig halte. Der betroffene Kunde tut mir dabei leid.


Wenn ich von einem nVidia als gierigen Fresssack spreche, dann ist dieses nicht negativ gemeint. Eine Unternehmung welche mit Anlegergeldern umgeht, hat gefälligst ein gieriger Fresssack zu sein. Das ist doch die Rolle des Unternehmens.

AMD und Intel kann man nach wie vor zugute halten, eben effektiv zu Werke zu gehen und den SoC Markt damit nicht, oder eben inkonsequent zu bedienen.
Wie sich dieses mal zukünftig auswirken wird ist spekulativ.

Insofern ist dieses wirklich nicht negativ gemeint gewesen.


Ich würde mir auch sofort ein Tegra2 Gerät kaufen, wenn es mich anspricht. Dass es gut sein kann, steht dabei ausser Frage.
Bin ja schliesslich Kunde.

Hatte mir auch gerade erst z.B. die Boxee Box zugelegt, trotz ein Intel SoC drin werkelt. Hätte diese auch gekauft, wenn ein Tegra2 drin gesteckt hätte.
Da bin ich völlig leidenschaftslos.

Interessieren tut mich eher die "Veränderung" als solches. Unabhängig von Herstellern, oder Systemen. Erst Recht ist Performance im Sinne von Rechenleistung völlig nebensächlich, diese ist höchstens hinreichend, oder nicht hinreichend für einen Zweck.

Naiv ist es aber anzunehmen, dass bei einer Veränderung alles beim alten bleibt, nur eben etwas anders.


Diese Veränderungen sind doch gerade mächtig abzusehen und sehr interessant. (nach jahrelanger langweiligster Stagnation).

Sehe dir doch nur mal die Geschäftsmodelle von Google, oder auch einer Unternehmung ARM an.


Ein Android ist ein Betriebssystem welches für Systeme gedacht ist, welche preislich so positioniert sind, dass es einen fundamentalen Unterschied macht, ob diese nun 20$ mehr oder weniger für eine Betriebssystem Lizenz kosten. Mit Geräten dieser Kostenkategorie sind auch vorzüglich die heutigen Wachstumsmärkte zu bedienen.

In kurzer Zeit, wird niemand mehr, mehr als 100$ für ein Smartphone bezahlen, wenn dieses nicht ganz exotisch ausgezeichnete Vorteile bieten wird. In diese Welt passt ein Hersteller nVidia nicht hinein. Das weiß nVidia auch ganz genau. Deshalb wollen sie halt mit Gewalt sich dieses Stück Kuchen schnappen und genau deshalb ist der Tegra2 auch nicht die Spitzen-GPU Lösung sondern die günstig Lösung. Es ist die Lösung für den Fuß in der Tür einer Strategie mittelfristig und sukzessiv mehr Einfluss in diesen Markt zu bekommen und diesen passen zu verändern. Natürlich mit dem Ziel einer Marktführerschaft, denn mit was anderen wird sich nVidia dort nicht zufrieden geben.

Ailuros
2011-02-03, 15:43:57
Es wird nichts mit irgendwelcher Marktfuererschaft so lange der embedded/mobile Markt hauptsaechlich mit IP operiert. Noch schlimmer es ist nicht nur ein AMD der gegen NV als Konkurrent ansteht sondern eine sehr grosse Anzahl an riesigen Semi Hertellern.

Eins muss ich aber NV trotz allem lassen; langfristig sieht es eher danach aus dass die grossen semis sich womoeglich gezwungen werden sehen eine agressivere SoC road-map aufzulegen. Das ist eben das schoene an ansteigender Konkurrenz und ja natuerlich bedeutet auch groessere Konkurrenz auch niedrigere Preise.

Dural
2011-02-03, 16:27:38
ARM (die Cleveren)
nVidia (die Gierigen)
Intel (die selten Dämlichen)
AMD/ATI (die völlig Verpeilten)



haha passt sehr gut ;D

=Floi=
2011-02-03, 17:00:36
Es wird nichts mit irgendwelcher Marktfuererschaft so lange der embedded/mobile Markt hauptsaechlich mit IP operiert. Noch schlimmer es ist nicht nur ein AMD der gegen NV als Konkurrent ansteht sondern eine sehr grosse Anzahl an riesigen Semi Hertellern.

Eins muss ich aber NV trotz allem lassen; langfristig sieht es eher danach aus dass die grossen semis sich womoeglich gezwungen werden sehen eine agressivere SoC road-map aufzulegen. Das ist eben das schoene an ansteigender Konkurrenz und ja natuerlich bedeutet auch groessere Konkurrenz auch niedrigere Preise.

wenn die kosten aus dem ruder laufen, dann profitiert der kunde nicht davon. man sieht doch sehr schön am aktuellen trend, dass der preis eines telefons eher gegen 1000€ als nach unten geht.
ein apple A4 mit 1,3ghz und kleinerem prozess wäre wohl sinniger wie eine A5 mit doppelter leistung bei der cpu und bei der gpu. man neigt bei so viel power auch zum übertreiben und es wird nicht mehr so optimiert wie es eigentlich sein sollte.


ich freue mich natürlich auch über einen tegra 2 oder A5, aber eine preisgünstige lösung ist das nicht. Bei mehr konkurrenz sinken auch die stückzahlen und das R&D muß durch einen höheren preis reingeholt werden. Die chips dürften auch noch sehr wachsen.

N0Thing
2011-02-03, 17:15:58
wenn die kosten aus dem ruder laufen, dann profitiert der kunde nicht davon. man sieht doch sehr schön am aktuellen trend, dass der preis eines telefons eher gegen 1000€ als nach unten geht.

Naja, das IPhone 4 geht mit 32MB Speicher für unter 800€ über die Theke, alle anderen Telefone sind eher im Bereich 500€ und niedriger angesiedelt. Allein der Prozessor ist nicht für den Preis verantwortlich. Link (http://geizhals.at/deutschland/?pg=5&cat=umtsover&sort=p&bpmax=&asuch=&v=l&plz=&dist=&bl1_id=30&xf=)

mboeller
2011-02-03, 19:13:45
wenn die kosten aus dem ruder laufen, dann profitiert der kunde nicht davon. man sieht doch sehr schön am aktuellen trend, dass der preis eines telefons eher gegen 1000€ als nach unten geht.



Bei Apple liegt es aber eher daran:

http://www.asymco.com/wp-content/uploads/2011/02/Screen-shot-2011-02-01-at-2-1-7.30.42-PM-620x276.png

Hab ich gerade im Beyond3D-Forum gesehen und natürlich gleich ge...äh...liehen. ;D

Quelle: http://www.asymco.com/2011/02/02/making-it-up-in-volume-how-profit-and-volumes-traded-off-in-the-fourth-quarter/

Ailuros
2011-02-03, 20:20:58
wenn die kosten aus dem ruder laufen, dann profitiert der kunde nicht davon. man sieht doch sehr schön am aktuellen trend, dass der preis eines telefons eher gegen 1000€ als nach unten geht.

High end smart-phones haben als eigenstaendige Geraete stets bis zu 700 Euro gekostet.

ein apple A4 mit 1,3ghz und kleinerem prozess wäre wohl sinniger wie eine A5 mit doppelter leistung bei der cpu und bei der gpu. man neigt bei so viel power auch zum übertreiben und es wird nicht mehr so optimiert wie es eigentlich sein sollte.

Hat Apple beim iPhone4 weniger verlangt als beim iPhone3GS am Anfang? Was genau Apple damit anstellen wird bleibt abzusehen.

Uebrigens verbraucht ein dual Cortex A9 bei 1GHz insgesamt weniger als ein einzelner A8 bei 1.3GHz. Hoeherer Parallelismus mit niedrigerer Frequenz gewinnt stets gegen niedrigerem Parallelismus mit hoeherer Frequenz. Ich dachte dass wir solche Konzepte heutzutage von den GPUs gelernt haben.

ich freue mich natürlich auch über einen tegra 2 oder A5, aber eine preisgünstige lösung ist das nicht. Bei mehr konkurrenz sinken auch die stückzahlen und das R&D muß durch einen höheren preis reingeholt werden. Die chips dürften auch noch sehr wachsen.

Wo sollen die Stueckzahlen sinken? Im Gegensatz werden die Volumen weiterhin radikal steigen was fuer die meisten Konkurrenten noch hoeheren Umsatz bedeuten wird, aber eventuell eine kleineren Markanteil wegen mehr Konkurrenten. Beispiel ein IHV hat 10% von 100M heute, und 5% von 400M morgen. Im ersten Fall sind es 10Mio Einheiten und im zweiten Fall 20Mio. Anders der Kuchen wird neu aufgeteilt aber bei um einiges hoeheren Mengen.

Wuerdest Du als IHV im obrigen rein erfundenen Beispiel den Marktanteil vor der Anzahl der Einheiten bevorzugen? Ich denke nicht.

Je groesser das Volumen desto mehr die Chancen dass die Preise fallen. Angenommen ich bin ein Hersteller und bestelle im einen Fall 20Mio SoCs und in einem anderen 50Mio SoCs, in welchem Fall bekomm ich einen hoeheren Rabatt? Und hier denkt auch sofort jemand an Kapazitaeten womoeglich. Groessere wafers bis zu dem Zeitpunt und mehr foundries.

Naja, das IPhone 4 geht mit 32MB Speicher für unter 800€ über die Theke, alle anderen Telefone sind eher im Bereich 500€ und niedriger angesiedelt. Allein der Prozessor ist nicht für den Preis verantwortlich. Link (http://geizhals.at/deutschland/?pg=5&cat=umtsover&sort=p&bpmax=&asuch=&v=l&plz=&dist=&bl1_id=30&xf=)

Moment ist der einzige Unterschied zwischen dem iPhone4 32GB schwarz und weiss lediglich die Gehaeuse-farbe? Wenn ja und nichts verpasse verwendet Apple aber verdammt teuren Lack auf dem weissen Ding dass es 310 Euro Unterschied macht. Aber da es wohl eher Damen kaufen werden damit es mit ihrer Handtasche passt, ist der Unterschied auch sehr wohl gerechtfertigt :D

=Floi=
2011-02-03, 22:31:29
High end smart-phones haben als eigenstaendige Geraete stets bis zu 700 Euro gekostet.



Hat Apple beim iPhone4 weniger verlangt als beim iPhone3GS am Anfang? Was genau Apple damit anstellen wird bleibt abzusehen.

Uebrigens verbraucht ein dual Cortex A9 bei 1GHz insgesamt weniger als ein einzelner A8 bei 1.3GHz. Hoeherer Parallelismus mit niedrigerer Frequenz gewinnt stets gegen niedrigerem Parallelismus mit hoeherer Frequenz. Ich dachte dass wir solche Konzepte heutzutage von den GPUs gelernt haben.



Wo sollen die Stueckzahlen sinken? Im Gegensatz werden die Volumen weiterhin radikal steigen was fuer die meisten Konkurrenten noch hoeheren Umsatz bedeuten wird, aber eventuell eine kleineren Markanteil wegen mehr Konkurrenten. Beispiel ein IHV hat 10% von 100M heute, und 5% von 400M morgen. Im ersten Fall sind es 10Mio Einheiten und im zweiten Fall 20Mio. Anders der Kuchen wird neu aufgeteilt aber bei um einiges hoeheren Mengen.

Wuerdest Du als IHV im obrigen rein erfundenen Beispiel den Marktanteil vor der Anzahl der Einheiten bevorzugen? Ich denke nicht.

Je groesser das Volumen desto mehr die Chancen dass die Preise fallen. Angenommen ich bin ein Hersteller und bestelle im einen Fall 20Mio SoCs und in einem anderen 50Mio SoCs, in welchem Fall bekomm ich einen hoeheren Rabatt? Und hier denkt auch sofort jemand an Kapazitaeten womoeglich. Groessere wafers bis zu dem Zeitpunt und mehr foundries.



ich ging von einer steigerung des preises pro iphone generation um ~100€ aus?! ihr redet von längerfristigen entwicklungen und das geht beim mir über ~5 jahre. :rolleyes:
wie hat sich der markt die letzten 5 jahre entwickelt? vom 20€ monatsvertrag zum 50€ vertrag...

ich habe bewusst nur 1,3ghz angesetzt und das ist keine so krasse steigerung. Es ging einfach darum, dass da auch niemand weinen müsste.
Eine verdopplung der rechenleistung bei gpu und cpu ist bestimmt NICHT sparsamer bei voller nutzung und irgendwo schlägt tegra 2 in die gleiche kerbe. wenn die leistung habe, dann will ich sie auch nutzen. Ich kenne die nv folien und das mag ja so auch stimmen, aber die brachliegende leistung ist gleich genutzt und dann zieht das teil einfach schneller den akku leer wie ein optimiertes design.

alle sehen nur blind die 400mio stückzahlen. deine 20mio zu erreichen muß man erst einmal schaffen und bei einer 10x höheren komplexität des chips sehe ich da keine so tollen aussichten. Man sieht es ja auch an den GPUs recht schön, wo man da vor 5 jahren stand und wo man heute ist. ich denke auch, dass die entwicklingskosten hier den preisvorteil auffressen werden. Selbst wenn mehrere chips in einer fabrik gefertigt werden, wird man hier den preisvorteil nicht an den kunden weitergeben wollen/können.



---
persönlich finde ich den weg von apple die qualität des gehäuses und der oberflächen mal richtig zu steigern wirklich genial. genau auf so etwas habe ich gewartet. nicht das bilige plastik...

steve.it
2011-02-03, 22:39:57
Moment ist der einzige Unterschied zwischen dem iPhone4 32GB schwarz und weiss lediglich die Gehaeuse-farbe? Wenn ja und nichts verpasse verwendet Apple aber verdammt teuren Lack auf dem weissen Ding dass es 310 Euro Unterschied macht.
Es gibt kein weißes iPhone 4 von Apple (http://www.apple.com/de/iphone/design/)!
Das was als weißes iPhone verkauft wird sind "umgebaute" schwarze iPhones ohne den Segen von Apple.

Xmas
2011-02-04, 02:37:29
Würde mich gar nicht wundern, wenn nVidia irgendwann eine MALI Lizenz erwirbt und auf dessen Basis erweiterte Produkte als Tegra3/4/5 auf den Markt bringen würde.
Dann hast du Nvidias Geschäftskonzept nicht verstanden.

Denn solches sieht ja ARM ausdrücklich vor.
Wirklich?

Ailuros
2011-02-04, 07:52:37
ich ging von einer steigerung des preises pro iphone generation um ~100€ aus?! ihr redet von längerfristigen entwicklungen und das geht beim mir über ~5 jahre. :rolleyes:
wie hat sich der markt die letzten 5 jahre entwickelt? vom 20€ monatsvertrag zum 50€ vertrag...

Das ist ausschliesslich Apple's Angelegenheit; dass sie einen Riesen-gewinn aus dem i-Geschaeft machen ist nichts Neues. Es ist ja auch keiner gezwungen ein iPhone oder iPad zu kaufen, da Apple bei weitem kein Monopol im Markt hat.

ich habe bewusst nur 1,3ghz angesetzt und das ist keine so krasse steigerung. Es ging einfach darum, dass da auch niemand weinen müsste.

Fuer den Stromverbrauch schon. Zwar ein ziemlich doofes Beispiel aber angenommen Du hast einen workload der bei einem A8@max1.3GHz 1.2GHz erreicht kann aber auf die 2 cores in einem 2*A9@max1GHz verteilt werden bei nur 600MHz/core. Welcher der beiden gewinnt was den Stromverbrauch betrifft?

Eine verdopplung der rechenleistung bei gpu und cpu ist bestimmt NICHT sparsamer bei voller nutzung und irgendwo schlägt tegra 2 in die gleiche kerbe.

Alle SoCs haben sowohl clock gating als auch power gating; T2 hat lediglich den Nachteil dass man die 2 CPU cores nicht so flexibel verwalten kann wie beim dual core Snapdragon. Clock gating passt die Frequenz dem workload an und power gating schaltet diejenigen Einheiten aus die nicht gebraucht werden.

Eine multi-core GPU profitiert hier noch mehr erstmal weil jeder core pro Takt um einiges effizienter ist als SGX535 im A4 und zweitens weil es zwei cores sind. Bei einfachen non 3D Aufgaben wo die GPU beschaeftigt wird kommt man zum genau gleichen Ziel mit um einiges weniger Frequenz.

wenn die leistung habe, dann will ich sie auch nutzen. Ich kenne die nv folien und das mag ja so auch stimmen, aber die brachliegende leistung ist gleich genutzt und dann zieht das teil einfach schneller den akku leer wie ein optimiertes design.

Wenn eine jegliche embedded GPU bei Normalverbrauch des smart-phones (telefonieren, text messaging usw.) nur am GUI als Beispiel mitrendert brauchst Du keine extravaganten Leistungen, selbst wenn die Aufloesung steigt.

alle sehen nur blind die 400mio stückzahlen. deine 20mio zu erreichen muß man erst einmal schaffen und bei einer 10x höheren komplexität des chips sehe ich da keine so tollen aussichten.

Da wir im Tegra thread sind, es wuerde mich nicht ueberraschen wenn NV tatsaechlich fuer 2010 schon 10Mio Einheiten verkauft hat. Es war aber trotz allem ein generelles Beispiel mit frei erfundenen Zahlen und nicht auf irgend einen spezifischen IHV gerichtet.

Hier ein forecast von Gartner in $Mrd fuer die naechsten Jahre und den gesamten embedded/mobilen Markt:

http://www.imgtec.com/corporate/presentations/Interim10/Slide26.jpg

Es zeigt dass es erstmal wieder zum Aufschwung in 2010 gekommen ist.

Man sieht es ja auch an den GPUs recht schön, wo man da vor 5 jahren stand und wo man heute ist. ich denke auch, dass die entwicklingskosten hier den preisvorteil auffressen werden. Selbst wenn mehrere chips in einer fabrik gefertigt werden, wird man hier den preisvorteil nicht an den kunden weitergeben wollen/können.

Ist das jetzt auf Apple bezogen? SGX535 hat Apple ueber zwei SoCs gezogen und in solchen Faellen gibt es bei "repeat-licensing" einen dicken Rabatt. Was Apple in dem Fall macht ist zwar deren Angelegenheit, aber wie gesagt so viel Gewinn wie sie macht keiner. Frag Dich mal ernsthaft woher dieser links und rechts zustande kommt.

Der eigentliche Punkt hier ist dass Apple weiterhin von der gesamten Konkurrenz steigend aggressiver angegrifffen werden wird. In 2010 gab es das iPad und ein paar mehr tablets. In 2011 werden es um einiges mehr werden und die Anzahl an konkurrierenden Geraeten wird weiterhin wachsen.

Noch feister wird es im smart-phone Bereich werden wobei die Projektion dass dieser langfristig ca. 50% vom insgesamten embedded Markt sein wird gar nicht so verkehrt ist. Am Anfang von 3D in smart-phones gab es fuer diese PowerVR IP und errrr PowerVR IP. Heute gibt es neben diesem ARM Mali GPU IP, Vivante GPU IP, Broadcom GPU IP und auf SoC Nivaeu sind dynamisch Qualcolmm, NVIDIA und jetzt seit neuestem AMD in den ganzen Teufelskreis eingetreten (kann sein dass ich jemand vergessen habe) und SONY plant auch noch bald dynamischer einzutreten.

Es bleibt dabei dass je hoeher das Angebot fuer X desto besser die Chancen fuer bessere Preise. Und ja natuerlich ist ein Preiskampf durchaus moeglich ueberhaupt wenn man versuchen will mit den ziemlich teueren Apple smart-phones als einfaches Beispiel zu konkurrieren.

Motorola Atrix 4G mit einem launch-Preis von $199 ohne accessories; bleibt abzusehen ob es auch das liefert was es verspricht:

http://www.semiaccurate.com/2011/02/03/motorola-atrix-4g-launching-march-6th/

Aber wenn es schon um R&D Kosten geht:

http://img810.imageshack.us/img810/3108/nokrdspend.jpg

http://digitaldaily.allthingsd.com/20110203/not-seeing-much-return-on-that-massive-rd-spend-are-you-nokia/?mod=ATD_rss

Der riesige Gewinnbalken von Apple im Vergleich zu anderen wurde ja schon hier gepostet.

Es gibt kein weißes iPhone 4 von Apple (http://www.apple.com/de/iphone/design/)!
Das was als weißes iPhone verkauft wird sind "umgebaute" schwarze iPhones ohne den Segen von Apple.

Danke fuer die Aufklaerung. Mir geht es aber nur darum ob der einzige Unterschied die Gehaeuse-farbe ist, denn dafuer >300 Euro mehr zu verlangen ist laecherlich. Warum auch nicht dann mit animal print fuer 500 Euro mehr?.....

Avalox
2011-02-04, 09:31:09
Dann hast du Nvidias Geschäftskonzept nicht verstanden.


Gut getroffen mit der Bezeichnung "Geschäftskonzept", denn ein Geschäft ist es ja noch nicht.

Einen SoC zu veröffentlichen ohne, dass es dafür ein passendes Zielplattform Betriebssystem gibt ist schon ein ganz verwegenes Konzept.

Für den Tegra2 existiert ein Telefon OS, aber leider hat bis heute niemand den Tegra2 in ein Telefon am Markt verbaut, noch ist ein Telefon überhaupt die Zielplattform für diesen.

Konzepte kann man ändern, wenn sie nicht aufgehen...

Screemer
2011-02-04, 10:27:34
The laptop dock on its own will set you back $499.99 and of course doesn't include the handset.für den preis bekommt man ein komplett ausgestattetes notebook. auf dem ich, wenn ich lustig bin, auch android installieren kann. ich zweifel da am erfolg.

Ailuros
2011-02-04, 10:44:44
für den preis bekommt man ein komplett ausgestattetes notebook. auf dem ich, wenn ich lustig bin, auch android installieren kann. ich zweifel da am erfolg.

Stimmt natuerlich. Ich erwaehnte lediglich den Preis fuer das Handy selber. Das dock muss man ja nicht kaufen.

Ailuros
2011-02-04, 10:55:34
Gut getroffen mit der Bezeichnung "Geschäftskonzept", denn ein Geschäft ist es ja noch nicht.

Einen SoC zu veröffentlichen ohne, dass es dafür ein passendes Zielplattform Betriebssystem gibt ist schon ein ganz verwegenes Konzept.

Für den Tegra2 existiert ein Telefon OS, aber leider hat bis heute niemand den Tegra2 in ein Telefon am Markt verbaut, noch ist ein Telefon überhaupt die Zielplattform für diesen.

Samsung hat ihr GalaxyS tab auch nicht mit Honeycomb veroeffentlicht; erstens ist dieses kein Handy und zweitens entfaellt auch die Beschreibung "Telefon OS".

Was jetzt Tegra2 in Handys betrifft:

LG Optimus 2X http://www.anandtech.com/show/4140/this-just-in-lg-optimus-2x

Motorola Atrix 4G http://www.anandtech.com/show/4112/anand-goes-hands-on-with-motorolas-atrix-4g-webtop

Motorola Droid Bionic http://www.anandtech.com/show/4102/hands-on-with-motorolas-tegra-2-atrix-4g-webtop

Nicht viel aber auf jeden Fall nicht niemand.

Avalox
2011-02-04, 11:06:51
Samsung hat ihr GalaxyS tab auch nicht mit Honeycomb veroeffentlicht; erstens ist dieses kein Handy und zweitens entfaellt auch die Beschreibung "Telefon OS".


Na klar ist dieses ein Telefon OS. Das ist die Aussage (http://www.zdnet.de/news/mobile_wirtschaft_google_android_ist_noch_nicht_bereit_fuer_tablets_story-39002365-41537693-1.htm) von Google selbst für ihr System.

Nur in der Panik, ein solch lukrativen Geschäftsbereich zu verpassen, verleitet doch die Hersteller dieses für diesen Zweck untaugliche OS in alle möglichen Geräte zu stecken, um einen Apple auch nur ein paar % des PAD Marktes abzujagen.

Der Hammer ist aber das Android 2.x in ein Netbook(!) zu stecken. Ein primär für Touchscreen Telefone entwickeltes OS, kommt in ein Tastatur/Maus versehenes Netbook ...

Eine Linux Unterstützung für den Tegra2 ist unter aller Kanone und faktisch bis heute völlig unbrauchbar.

Um es mal mit den Worten von nVidia zu schreiben, als der Tegra2 im vorletzten(!) Jahr schon Herstellern präsentiert wurde, als vor über einen Jahr auf der CES schon Geräte mit Tegra2 gezeigt wurden. "Tablet-PCs, Slates, Netbooks, e-Reader und Boxen für Internet-TV sowie die neuesten Lösungen für Sicherheit im Auto und für Entertainment zu steuern" nVidia spricht in keiner Silbe von einem Telefon als Zielmarkt für diesen SoC.

Es gibt aber heute noch kein OS welches für den Tegra2 im Zielfeld bestimmt wäre.

Der Baustein stammt aus dem vorletzten(!) Jahr und bis heute gibt es noch nicht mal auch nur sowas wie ein passendes OS. Das kann man nur so bezeichnen wie es ist, nämlich sehr schlecht.
Wenn man dieses nicht als konzeptionelles Versagen bezeichnen kann, dann weiss ich nicht was sonst.



Was jetzt Tegra2 in Handys betrifft:

LG Optimus 2X http://www.anandtech.com/show/4140/this-just-in-lg-optimus-2x

Motorola Atrix 4G http://www.anandtech.com/show/4112/anand-goes-hands-on-with-motorolas-atrix-4g-webtop

Motorola Droid Bionic http://www.anandtech.com/show/4102/hands-on-with-motorolas-tegra-2-atrix-4g-webtop

Nicht viel aber auf jeden Fall nicht niemand.


Hat den davon schon irgendetwas einen Markt gesehen?

Ailuros
2011-02-04, 11:22:08
Na klar ist dieses ein Telefon OS. Das ist die Aussage von Google selbst für ihr System.

Nur in der Panik, ein solch lukrativen Geschäftsbereich zu verpassen, verleitet doch die Hersteller dieses in alle möglichen Geräte zu stecken, um einen Apple ein paar % des PAD Marktes abzujagen.

Der Hammer ist aber das Android 2.x in ein Netbook(!) zu stecken. Ein primär für Touchscreen Telefone entwickeltes OS, kommt in ein Tastatur/Maus versehenes Netbook ...

Eine Linux Unterstützung für den Tegra2 ist unter aller Kanone und faktisch bis heute völlig unbrauchbar.

Um es mal mit den Worten von nVidia zu schreiben, als der Tegra2 im vorletzten(!) Jahr schon Herstellern präsentiert wurde, als vor über einen Jahr auf der CES schon Geräte mit Tegra2 gezeigt wurden. "Tablet-PCs, Slates, Netbooks, e-Reader und Boxen für Internet-TV sowie die neuesten Lösungen für Sicherheit im Auto und für Entertainment zu steuern" nVidia spricht in keiner Silbe von einem Telefon als Zielmarkt für diesen SoC.

Muss der Grund sein warum es fuer T2 verschiedene SoC Varianten fuer smart-phones und tablets gibt:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8526305&postcount=473

Die Unterschiede dueften momentan nicht besonders sehenswert sein (erst bei AP30 wo es die Wahl zwischen 2* und 4*A9 geben wird) und T2 ist dank Stromvebrauch selbst als AP20H nicht das gelbste vom Ei aber das hat auch nichts mit dem Thema hier zu tun.

Es gibt aber heute noch kein OS welches für den Tegra2 bestimmt wäre.

Android 2.x kann man sehr wohl fuer tablets benutzen. Honeycomb (3.0) hat wenn ich es richtig verstanden habe wichtige dual core CPU Optimierungen. Hierbei sind eben 10" tablets mit dual core CPUs und Honeycomb zwar besser angelegt, aber weder ist dual core CPU und/oder Honeycomb eine Vorraussetzung.


Hat den davon schon irgendetwas einen Markt gesehen?

Jetzt wird mir es aber langsam zu bunt. Ich will hoffen dass Du wenigstens Deinen eigenen Text verstehen kannst:

Für den Tegra2 existiert ein Telefon OS, aber leider hat bis heute niemand den Tegra2 in ein Telefon am Markt verbaut, noch ist ein Telefon überhaupt die Zielplattform für diesen.

Ich hab auf's "niemand verbaut" geantwortet und niemand entspricht eben momentan nicht der Realitaet.

So und jetzt muss ich zusehen dass die OT Posts von uns allen wieder in den richtigen Thread verschiebe.

-----------------------------------------------------------------------------------------------------------------

***edit: uebrigens am Rand da wohl nicht jeder alle Threads lesen wird: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8547977&postcount=522 Indizien haeufen sich auf dass Samsung nicht nur Knappheiten fuer displays hat sondern auch bei der Herstellung ihrer eigenen SoCs. Ein TI OMAP3630 im Galaxy SL ist ziemlich merkwuerdig.

Avalox
2011-02-04, 11:36:45
Android 2.x kann man sehr wohl fuer tablets benutzen.


Was heiß den kann?

Natürlich kann man technisch es irgendwie zum laufen bringen. Aber es ist nicht für ein PAD gemacht, ausgelegt oder auch nur geeignet.

Deshalb sagt ein Google auch klar "Google: Android ist noch nicht bereit für Tablets (http://www.zdnet.de/news/mobile_wirtschaft_google_android_ist_noch_nicht_bereit_fuer_tablets_story-39002365-41537693-1.htm)". Wenn der allein verantwortliche Hersteller es so sagt, wieso sollte man es dann nicht berücksichtigen?

Sehe dir mal nur allein die Grafikauflösungen an, für welche ein Android 2.x gedacht ist. Es ist nicht für Pads vorgesehen, es ist gezielt nicht für Pads gemacht.

Der Hersteller, welcher Android 2.x auf ein Pad betreibt, betreibt dieses System ausserhalb seines Anwendungsfelds und damit der Spezifikationen. Woraus sich auch wieder die gesamten Unzulänglichkeiten dieser missbrauchten Pads heute erklären




Jetzt wird mir es aber langsam zu bunt. Ich will hoffen dass Du wenigstens Deinen eigenen Text verstehen kannst:


Am Markt ist am Markt. Ich habe völlig bewusst und absichtlich den "Markt" hinein geschrieben, weil mir bekannt ist, dass auf Messen schon alles mögliche seit Jahren rund um Tegra2 angekündigt und gezeigt wird. Alle haben eines gemeinsam, kaufen kann man diese Geräte nicht. Es existiert bis heute kein Tegra2 Gerät überhaupt, welches man ansatzweise konzeptionell rund bezeichnen kann. Egal ob Smartphone, oder eigentlich vom Hersteller vorgesehenes Anwendungsfeld.


Für den Tegra2 existiert ein Telefon OS, aber leider hat bis heute niemand den Tegra2 in ein Telefon am Markt verbaut, noch ist ein Telefon überhaupt die Zielplattform für diesen.



Wirklich interessant ist doch die Frage, wie es sich nVidia eigentlich mit dem Betriebssystem für ihren Tegra2 mal tatsächlich gedacht hatte, als sie 2009 diesen an Unternehmen verteilt haben?


Man hatte doch ganz sicher irgend welche Geräte mit Hersteller eigenen Lösungen im Sinn. Also sowas wie eine mobile Spielkonsole von Nintendo, oder ein Apple mit ihren Mobil- und Streaminggeräten, oder ein MS Zune.

Screemer
2011-02-04, 11:54:35
@Avalox: Ich glaube es wäre der Diskussion zuträglich, wenn du deine Zitate mit Quellen hinterlegen würdest. Ich persönlich kenne die Aussagen, aber es soll auch andere geben.

Ich persönlich halte Android 2.2/3 auch nicht für ein prädestiniertes Tablet-OS. Vom Bedienkomfort ist es meilenweit von iOS auf dem, mir nicht sehr sympatischen, iPad entfernt. Ich kann mich an eine Aussage von Google erinnern die davon sprach, dass es in Android 3.0 viele/massive Optimierungen für die Tabletbedienung geben wird.

Avalox
2011-02-04, 12:06:26
@Avalox: Ich glaube es wäre der Diskussion zuträglich, wenn du deine Zitate mit Quellen hinterlegen würdest. Ich persönlich kenne die Aussagen, aber es soll auch andere geben.


Habe es geändert und nochmal verlinkt.



Ich persönlich halte Android 2.2/3 auch nicht für ein prädestiniertes Tablet-OS.


Es wird ja nicht nur auf alle möglichen Pads verwendet, es wird ja sogar auf dem Netbook, bzw. sogar TV Boxen (mit Knöppe Fernbedienung) u.ä. als einziges OS primär verwendet. Ziemlich unglaublich.
Ist halt OpenSource und der Gerätehersteller darf es überall drauf semmeln, wo er es irgendwie zum laufen bekommt.



.. in Android 3.0 viele/massive Optimierungen für die Tabletbedienung geben wird.

Android 3.0 ist ja ein System für Pads und auch nicht für Telefone gedacht.


Google hat sich bestimmt keinen Gefallen getan ihr PAD System auch Android zu nennen und nur die Versionsnummer zu ändern. Das wird noch ein heilloses Durcheinander geben.

Android 2.x für Telefone und
Android 3.x für Pads, so ist dieses gedacht.

Aber Android 3 ist ja auch noch nicht fertig und vor allen ist es das erste OS des Herstellers für Pads und damit wird bestimmt auch noch die ein oder andere Mauke drinstecken (was ja auch legitim ist).

Screemer
2011-02-04, 12:08:53
ich gehe ehrlichgesagt nicht davon aus, dass android in telefon- und tablet-zweig aufgespalten wird. moderne smartphones können auch massiv von bedienkonzepten aus der tabletwelt profitieren. in meinen augen wäre das eine dummheit. aber da scheiden sich wohl die geister.

Avalox
2011-02-04, 12:20:47
ich gehe ehrlichgesagt nicht davon aus, dass android in telefon- und tablet-zweig aufgespalten wird. moderne smartphones können auch massiv von bedienkonzepten aus der tabletwelt profitieren. in meinen augen wäre das eine dummheit. aber da scheiden sich wohl die geister.

Der Anwendungsbereich ist schon verschieden, wie auch die Geräte.

Ein Telefon ist hochmobil für unterwegs, ein Pad ist dagegen eher nomadisch zu benutzen.

Die Unterscheidung kommt aber direkt vom Hersteller Google.

Android 3.0 "Buildt entirely for tablets (http://www.guardian.co.uk/technology/blog/2011/feb/02/android-honeycomb-tablets-coming-ipad)"


m.M. hat es tatsächlich großen Sinn und Google hat es richtig gemacht.


Aber du kannst gewissentich davon ausgehen, dass auch bald die ersten Telefone mit Android 3 erscheinen werden. Auch wenn es völliger Quatsch ist, nur eben um die Versionsnummer auf die Featureliste drucken zu können...

dildo4u
2011-02-04, 12:29:55
Aber du kannst gewissentich davon ausgehen, dass auch bald die ersten Telefone mit Android 3 erscheinen werden. Auch wenn es völliger Quatsch ist, nur eben um die Versionsnummer auf die Featureliste drucken zu können...
Es ist nicht totaler Qutasch 3.0 führt Hardwarebeschleunigung für das UI ein auch Handys haben GPUs.

Avalox
2011-02-04, 12:43:44
Es ist nicht totaler Qutasch 3.0 führt Hardwarebeschleunigung für das UI ein auch Handys haben GPUs.

Ich sage ja nicht, dass die Features Quatsch sind.

Auch Android 2.x wird ja weiter entwickelt und es werden neue Versionen erscheinen. Warum soll dort keine mit beschleunigter GUI für Telefone erscheinen?

Screemer
2011-02-04, 12:44:48
ice cream cup (2.4) wird das aber sicherlich auch mitbringen. sonst wäre das splitten der telefon- und tablet-sektion noch schwachsinniger.

Xmas
2011-02-04, 14:10:59
Einen SoC zu veröffentlichen ohne, dass es dafür ein passendes Zielplattform Betriebssystem gibt ist schon ein ganz verwegenes Konzept.

Für den Tegra2 existiert ein Telefon OS, aber leider hat bis heute niemand den Tegra2 in ein Telefon am Markt verbaut, noch ist ein Telefon überhaupt die Zielplattform für diesen.

Konzepte kann man ändern, wenn sie nicht aufgehen...
Ich würde Nvidia sicher keinen gut ausgeführten Einstieg in den SoC-Markt bescheinigen, aber genau das haben sie getan: Sie sind auf Android umgestiegen, unter anderem weil absehbar war dass Android auch für Tablets kommt. Indes, Nvidia ist kein Apple und kann kein OS aus dem Boden stampfen und selbst für die Verbreitung sorgen.

Aber was hat das Betriebssystem mit der verwendeten GPU zu tun? Es wäre auch schön wenn du die andere Frage noch beantworten könntest.

Wirklich interessant ist doch die Frage, wie es sich nVidia eigentlich mit dem Betriebssystem für ihren Tegra2 mal tatsächlich gedacht hatte, als sie 2009 diesen an Unternehmen verteilt haben?
Windows Mobile/CE.

Ailuros
2011-02-04, 16:14:55
Was heiß den kann?

Natürlich kann man technisch es irgendwie zum laufen bringen. Aber es ist nicht für ein PAD gemacht, ausgelegt oder auch nur geeignet.

Deshalb sagt ein Google auch klar "Google: Android ist noch nicht bereit für Tablets (http://www.zdnet.de/news/mobile_wirtschaft_google_android_ist_noch_nicht_bereit_fuer_tablets_story-39002365-41537693-1.htm)". Wenn der allein verantwortliche Hersteller es so sagt, wieso sollte man es dann nicht berücksichtigen?

Sehe dir mal nur allein die Grafikauflösungen an, für welche ein Android 2.x gedacht ist. Es ist nicht für Pads vorgesehen, es ist gezielt nicht für Pads gemacht.

Der Hersteller, welcher Android 2.x auf ein Pad betreibt, betreibt dieses System ausserhalb seines Anwendungsfelds und damit der Spezifikationen. Woraus sich auch wieder die gesamten Unzulänglichkeiten dieser missbrauchten Pads heute erklären.

Und das Galaxy Pad ist also mit seinem 7" display kein tablet, wobei es ironischerweise fast die gleiche Aufloesung wie ein iPad hat?

Natuerlich wird 3.0 um einiges besser oder idealer fuer tablets sein, aber den Bloedsinn dass man unter 2.x kein tablet unter Android auf die Beine bringen kann, kann ich nicht schlucken. Es hat aber so oder so nichts mit dem eigentlichen Thema zu tun, da die T2 tablets eigentlich Honeycomb als Ziel haben.


Am Markt ist am Markt. Ich habe völlig bewusst und absichtlich den "Markt" hinein geschrieben, weil mir bekannt ist, dass auf Messen schon alles mögliche seit Jahren rund um Tegra2 angekündigt und gezeigt wird. Alle haben eines gemeinsam, kaufen kann man diese Geräte nicht. Es existiert bis heute kein Tegra2 Gerät überhaupt, welches man ansatzweise konzeptionell rund bezeichnen kann. Egal ob Smartphone, oder eigentlich vom Hersteller vorgesehenes Anwendungsfeld.

Die smart-phones wurden nicht als Prototypen vorgezeigt, ergo kannst Du von mir aus lange versuchen Dich auszureden.

Wirklich interessant ist doch die Frage, wie es sich nVidia eigentlich mit dem Betriebssystem für ihren Tegra2 mal tatsächlich gedacht hatte, als sie 2009 diesen an Unternehmen verteilt haben?

Darauf hat Dir Xmas schon geantwortet.

Man hatte doch ganz sicher irgend welche Geräte mit Hersteller eigenen Lösungen im Sinn. Also sowas wie eine mobile Spielkonsole von Nintendo, oder ein Apple mit ihren Mobil- und Streaminggeräten, oder ein MS Zune.

Nintendo waere schoen bloed gewesen wenn sie anstatt IP zu lizenzieren und einen Hersteller zu beauftragen sich von jemand wie NVIDIA einen fertigen SoC haetten verkaufen lassen. Ich weigere mich immer noch die Geschichte zu erzaehlen wie ich sie weiss aber die Verhandlungen haben vor etlichen Jahren zuerst auf IP Basis angefangen. Bis NV den eigentlichen Mittelmann zu Nintendo elegant abgevoegelt hat und dieser den Verhandlungstisch verlassen hat. Fuer Nintendo waere der BOM eines T2 tatsaechlich zu hoch gewesen und auch der Stromverbrauch; das komische ist eben warum Nintendo NV eine ziemlich lange Zeit im "dunkeln" ueber ihre eigentlichen Plaene gelassen hat.

Charlie behauptet ja auch vehement dass im "gesagt" wurde dass auch SONY angeblich Prototypen vor einiger Zeit mit Tegra2 gebaut haben soll und mit diesen herumgespielt. Ergo klingt es eher danach dass irgend jemand immer und immer wieder von einem handheld deal getraeumt hat als dass es je zu irgend einer Verhandlung zwischen Sony und NV fuer NGP gab. Sony hat sich nie IMO nach was anderem umgesehen und es waere auch ziemlich absurd wenn man die T2 GPU mit einem SGX543 MP4+ vergleicht.

Avalox
2011-02-04, 17:06:59
Und das Galaxy Pad ist also mit seinem 7" display kein tablet, wobei es ironischerweise fast die gleiche Aufloesung wie ein iPad hat?


Doch ist es ein Pad. Aber eben ein Pad mit einem OS, welches nicht für Pads gedacht ist.

Die Auflösung ist doch das beste Beispiel. Für die Auflösung und Displaygröße des Galaxy Pads ist das Android (2.2) gar nicht gemacht, noch erdacht worden.

Quelle:
Googles: Android 2.2 Compatibility Definition (source.android.com/compatibility/android-2.2-cdd.pdf)


Android 2.2 - Standard Zielauflösungen



Diagonal Length Screen Density
Screen Type Width (Pixels) Height (Pixels) Screen Size Group
Range (inches) Group
QVGA 240 320 2.6 - 3.0 Small Low
WQVGA 240 400 3.2 - 3.5 Normal Low
FWQVGA 240 432 3.5 - 3.8 Normal Low
HVGA 320 480 3.0 - 3.5 Normal Medium
WVGA 480 800 3.3 - 4.0 Normal High
FWVGA 480 854 3.5 - 4.0 Normal High
WVGA 480 800 4.8 - 5.5 Large Medium
FWVGA 480 854 5.0 - 5.8 Large Medium



Keine 1024x600 Pixel Auflösung, keine 7' Displays.


Natürlich kann ein Gerätehersteller mit Android 2.2 fast alles machen was er will, ist ja schliesslich OpenSource und ausdrücklich von Google auch so formuliert. Aber gedacht, oder gemacht ist Android für den Einsatz auf dem Pad nicht und erst Recht nicht, wenn es auch noch völlig ausserhalb der Spezifikationen betrieben wird. Verursacht natürlich die bekannten Probleme und Nachteile. (Vermutlich auch der Grund für den abnormen Preissturz des Gerätes)



Android auf die Beine bringen kann, kann ich nicht schlucken.

Das kommt direkt vom Hersteller des Systems. (Google: Android ist noch nicht bereit für Tablet (http://www.zdnet.de/news/mobile_wirtschaft_google_android_ist_noch_nicht_bereit_fuer_tablets_story-39002365-41537693-1.htm)s) Dem sollte man es wohl schon abnehmen dürfen.



Die smart-phones wurden nicht als Prototypen vorgezeigt, ergo kannst Du von mir aus lange versuchen Dich auszureden.


Zeig mal wo man ein Tegra2 Telefon kaufen kann.



Darauf hat Dir Xmas schon geantwortet.



Wo ist den das Windows Tegra2 CE?



Aber was hat das Betriebssystem mit der verwendeten GPU zu tun?


In dem Fall das beschworene Geschäftskonzept.


Es wäre auch schön wenn du die andere Frage noch beantworten könntest.


ARM verkauft Verilog Source Lizenzen. Natürlich ist es Bestandteil, dass Lizenznehmer eben genau umbauen, anbauen, oder sonst welche Veränderungen vornehmen dürfen.


Windows Mobile/CE.

Na, Plan gescheitert kann man da wohl nur sagen.

Xmas
2011-02-04, 21:02:44
In dem Fall das beschworene Geschäftskonzept.
Erklärung bitte. Ich sehe da keinen Zusammenhang.

ARM verkauft Verilog Source Lizenzen. Natürlich ist es Bestandteil, dass Lizenznehmer eben genau umbauen, anbauen, oder sonst welche Veränderungen vornehmen dürfen.
Woher nimmst du die Information, dass ARM bei GPUs Veränderungen erlaubt?

Na, Plan gescheitert kann man da wohl nur sagen.
Kommt vor. Da kann man Nvidia meiner Ansicht nach nicht einmal groß etwas vorwerfen.

Ailuros
2011-02-05, 10:40:24
Doch ist es ein Pad. Aber eben ein Pad mit einem OS, welches nicht für Pads gedacht ist.

Es ist und bleibt ein tablet. Samsung hat bis zu neuestem 2Mio Einheiten davon verkauft, waehrend Apple im gleichen Zeitraum 7.3Mio Einheiten verkaufte.

Die Auflösung ist doch das beste Beispiel. Für die Auflösung und Displaygröße des Galaxy Pads ist das Android (2.2) gar nicht gemacht, noch erdacht worden.

Quelle:
Googles: Android 2.2 Compatibility Definition (source.android.com/compatibility/android-2.2-cdd.pdf)

Keine 1024x600 Pixel Auflösung, keine 7' Displays.


Natürlich kann ein Gerätehersteller mit Android 2.2 fast alles machen was er will, ist ja schliesslich OpenSource und ausdrücklich von Google auch so formuliert. Aber gedacht, oder gemacht ist Android für den Einsatz auf dem Pad nicht und erst Recht nicht, wenn es auch noch völlig ausserhalb der Spezifikationen betrieben wird. Verursacht natürlich die bekannten Probleme und Nachteile. (Vermutlich auch der Grund für den abnormen Preissturz des Gerätes)

Es ist und bleibt lediglich eine Vermutung dass jegliche moeglichen Probleme auf dem Galaxy tab dank dem OS selber und der fehlenden Kompatibilitaet fuer 1024/7" ist. Kann natuerlich moeglich sein dass es der Grund oder Anteil des Grundes ist, kann man aber wohl momentan nicht beweisen.

Das kommt direkt vom Hersteller des Systems. (Google: Android ist noch nicht bereit für Tablet (http://www.zdnet.de/news/mobile_wirtschaft_google_android_ist_noch_nicht_bereit_fuer_tablets_story-39002365-41537693-1.htm)s) Dem sollte man es wohl schon abnehmen dürfen.

Nochmal das Galaxy tab ist ein tablet unter 2.x.

Zeig mal wo man ein Tegra2 Telefon kaufen kann.

Ab Mitte Maerz erhaeltlich als Beispiel: http://geizhals.at/deutschland/a605840.html

Wo ist den das Windows Tegra2 CE?

Tegra1 war dummerweise afaik auf winCE gezielt. T2 hat als primaeres Ziel Android.

steve.it
2011-02-05, 11:52:16
Es ist und bleibt ein tablet. Samsung hat bis zu neuestem 2Mio Einheiten davon verkauft, waehrend Apple im gleichen Zeitraum 7.3Mio Einheiten verkaufte.

Dazu gab es in letzter Zeit einige Meldungen, dass die Zahlen evtl. nicht stimmen und Samsung enttäuscht ist. Auch sollen die Zahl der Rückgaben recht hoch sein.
Aber manches ist dann wieder dementiert worden und ich kenne nicht den aktuellen Stand bzw. was denn jetzt wirklich stimmt.


Es ist und bleibt lediglich eine Vermutung dass jegliche moeglichen Probleme auf dem Galaxy tab dank dem OS selber und der fehlenden Kompatibilitaet fuer 1024/7" ist. Kann natuerlich moeglich sein dass es der Grund oder Anteil des Grundes ist, kann man aber wohl momentan nicht beweisen.
[...]
Nochmal das Galaxy tab ist ein tablet unter 2.x.

Ich habe es mal als aufgeblasenes Handy bezeichnet. Es kann nur oberflächlich mit dem iPad mithalten, wegen dem wenig geeigneten Android 2.x für Tablets.
Echte Tablet-Anwendungen sind nicht nur einfach hochskalierte Handy-Anwendungen. Echte Tablet-Anwendungen machen Gebrauch vom größerem Display - auch bei der Möglichkeit der Eingabemethoden. Und da sollte es klar sein, dass man auf einem 3,7" Display nicht die Möglichkeiten wie mit einem 10" Display hat und entsprechend die Anwendungen für Handys an ein kleines Display anpasst.
Beim Samsung Galaxy Tab ist meines Wissens bis auf wenige Anpassungen, die Samsung bei der mitgelieferten Software getätigt hat, alles noch Handy-Software, die dann eben aufgeblasen wird. Nutzt man überwiegend nur den Browser, fällt das wohl nicht so auf. Nutzt man aber z.B. mal ein Pages (oder eine andere iPad-App) auf dem iPad und dann zum Vergleich ein Android-Handy-App auf großem Display, sollte man ziemlich schnell den Unterschied merken (den Unterschied sind sich viele nicht bewusst bzw. denken gar nicht so weit). iPhone-Apps laufen auf dem iPad zwar auch im Emulator aber das ist auch nur als Krücke gedacht, damit die Entwickler ihre Apps auf das Tablet anpassen und von dessen Möglichkeiten gebrauch machen.
Mit Android 3 scheint sich das ja auch bei Android zu ändern.
Von daher verstehe ich, was Avalox sagen möchte (habe allerdings jetzt nicht seine kompletten Postings gelesen).

Dural
2011-02-05, 21:57:21
Jonney Shih, Chef von Asus, wird in einem Interview mit den Worten zitiert, dass man bereits einige wichtige Details der Hardware-Ausstattung des iPad 2 kenne, zum Beispiel die verwendete CPU und andere Dinge. Darauf will man direkt reagieren und nimmt sich dazu den aktuell wohl potentesten verfügbaren Prozessor für mobile Geräte an: Nvidias Tegra 2. Dieser SoC von Nvidia wird laut den Worten Shihs Apples verbautem Modell in der CPU-Leistung gehörig Konkurrenz machen, in der Grafikleistung darüber hinaus aber wohl deutlich besser abschneiden.



http://www.computerbase.de/news/consumer-electronics/tablet-pcs/2011/februar/asus-mit-geheimwaffe-gegen-apples-ipad-2/

Hugo78
2011-02-06, 00:11:22
Ist ja auch nicht so schwer.
Samsung und PowerVR sind ja nun nicht die Gegner für Nvidia, wenn es um Grafik geht.

Allerdings, was braucht das iPad 2 überhaupt mehr als das iPad 1?
Meiner Meinung nach nur 1080p Unterstützung und per HDMI übertragen auf den Fernseher.

Denn, dass das iPad kein Flash kann und nur 720p mit niediriger Bitrate, ist schon echt enttäuschend.

Ailuros
2011-02-06, 16:43:56
Ist ja auch nicht so schwer.
Samsung und PowerVR sind ja nun nicht die Gegner für Nvidia, wenn es um Grafik geht.

Allerdings, was braucht das iPad 2 überhaupt mehr als das iPad 1?
Meiner Meinung nach nur 1080p Unterstützung und per HDMI übertagen auf den Fehrseher.

Denn, dass das iPad kein Flash kann und nur 720p mit niediriger Bitrate, ist schon echt enttäuschend.

Falls Samsung tatsaechlich so viele Herstellungskapazitaeten fuer Apple entwickelt hat, erklaeren sich so manche von Samsung's Entscheidungen fuer dieses Jahr. Logischerweise muss alles was sie selber herstellen relativ billig sein sonst wird sich diese merkwuerdige Geschaefts-masche auch nicht lohnen. Bald werden wir etwas mehr darueber wissen.

Dazu gab es in letzter Zeit einige Meldungen, dass die Zahlen evtl. nicht stimmen und Samsung enttäuscht ist. Auch sollen die Zahl der Rückgaben recht hoch sein.
Aber manches ist dann wieder dementiert worden und ich kenne nicht den aktuellen Stand bzw. was denn jetzt wirklich stimmt.

Es hilft eben nicht wenn man nicht die eigentlichen wahren Gruende weiss.


Ich habe es mal als aufgeblasenes Handy bezeichnet. Es kann nur oberflächlich mit dem iPad mithalten, wegen dem wenig geeigneten Android 2.x für Tablets.
Echte Tablet-Anwendungen sind nicht nur einfach hochskalierte Handy-Anwendungen. Echte Tablet-Anwendungen machen Gebrauch vom größerem Display - auch bei der Möglichkeit der Eingabemethoden. Und da sollte es klar sein, dass man auf einem 3,7" Display nicht die Möglichkeiten wie mit einem 10" Display hat und entsprechend die Anwendungen für Handys an ein kleines Display anpasst.
Beim Samsung Galaxy Tab ist meines Wissens bis auf wenige Anpassungen, die Samsung bei der mitgelieferten Software getätigt hat, alles noch Handy-Software, die dann eben aufgeblasen wird. Nutzt man überwiegend nur den Browser, fällt das wohl nicht so auf. Nutzt man aber z.B. mal ein Pages (oder eine andere iPad-App) auf dem iPad und dann zum Vergleich ein Android-Handy-App auf großem Display, sollte man ziemlich schnell den Unterschied merken (den Unterschied sind sich viele nicht bewusst bzw. denken gar nicht so weit). iPhone-Apps laufen auf dem iPad zwar auch im Emulator aber das ist auch nur als Krücke gedacht, damit die Entwickler ihre Apps auf das Tablet anpassen und von dessen Möglichkeiten gebrauch machen.
Mit Android 3 scheint sich das ja auch bei Android zu ändern.
Von daher verstehe ich, was Avalox sagen möchte (habe allerdings jetzt nicht seine kompletten Postings gelesen).

Wenn Apple auch noch im Bereich der eigentlichen Anpassung ihres OS fuer tablets ist, sollte es wundern dass andere Platformen weiter sein wuerden ueberhaupt wenn das iPad um einiges frueher entwickelt wurde?

Tegra2 wurde mit Honeycomb als Ziel entwickelt. Was auch immer mit dieser OS Variante passiert (Verspaetungen oder weiss der Geier was noch) ist eben Google's Verantwortung und nicht NVIDIA's oder jeglichem anderen Hersteller. Und so etwas wuerde ich von jemand wie Avalox erwarten dass er es versteht.

http://www.computerbase.de/news/consumer-electronics/tablet-pcs/2011/februar/asus-mit-geheimwaffe-gegen-apples-ipad-2/

Originaler quote:

"We already know some of the details of [Apple iPad 2], such as what kind of processor they chose. We very carefully chose our tablet processor, the Nvidia Tegra 2, and to really compete it will take [Apple] some time. You know, [Nvidia] is well known for graphics. Also, we will try to provide a 'secret weapon', something we have not shown at this time but closer to the launch time we will show,"

http://www.xbitlabs.com/news/mobile/display/20110204111456_Asustek_We_Have_Secret_Weapon_Against_Apple_iPad_2.html

Falls der Herr sich nur ueber den CPU block von iPad2's SoC informiert sein sollte (wie es auch klingt) nimmt er sich einen ziemlich fetten Brocken ins Maul. Mehr nach der Apple Ankuendigung und was auch immer Asus "tolles" zu vermarkten hat.

The chairman of one of the world's largest makers of electronics noted "personal cloud computing" as one of the most important trends in 2011. Perhaps, Asus plans to offer certain cloud-based services, in addition to its remote storage service, that will make its Eee-branded tablets and netbooks more attractive to consumers.

*grunz*

Avalox
2011-02-06, 22:41:00
Erklärung bitte. Ich sehe da keinen Zusammenhang.

Na nVidia wird sich doch vor Veröffentlichung des Tegra2 im Jahre 2009 irgend eine Idee gehabt haben, unter welchen OS dieser mal laufen soll.

War er für Windows CE, für das frische Android, oder gar irgend welche Hersteller propritären Embedded Systeme gedacht gewesen?

Die GPU auf dem SoC legt ja die Marschrichtung der Geräte ziemlich fest, also sollte man vermuten, dass auch irgend ein OS in Verwendung kommen sollte, welche auf Geräten betrieben wird, mit denen ein User direkt in Berührung kommt.

Es gibt bis heute kein passendes OS für den Tegra2 auf dem Markt. Seit weit über einen Jahr.

Interessant sind ja mal wieder die Messegeräte. z.B. die Telefone mit Tegra2.

Unter welchen OS sollen diese Telefone denn praktischer Weise betrieben werden?

Android 2.2/2.3? Keine Dualcore Untersützung, keine GPU Unterstützung der GUI. Dafür ein Telefon OS.

Android 3.0? Leider kein Telefon OS. 'built entirely for tablet' (http://www.guardian.co.uk/technology/blog/2011/feb/02/android-honeycomb-tablets-coming-ipad)


Woher nimmst du die Information, dass ARM bei GPUs Veränderungen erlaubt?

Ich habe es gelesen und natürlich nicht favorisiert.
Es ist aber auch ohne Bookmark nachvollziehbar, da das MALI und ARM Kern Design in der selben Sourcelizenz gebundelt verkauft wird.

Kommt vor. Da kann man Nvidia meiner Ansicht nach nicht einmal groß etwas vorwerfen.

Es geht doch gar nicht darum nVidia etwas vorzuwerfen. Es hat sich halt anders entwickelt und jetzt wird Schadensbegrenzung und Neuausrichtung betrieben.


Tegra2 wurde mit Honeycomb als Ziel entwickelt. Was auch immer mit dieser OS Variante passiert (Verspaetungen oder weiss der Geier was noch) ist eben Google's Verantwortung und nicht NVIDIA's oder jeglichem anderen Hersteller. Und so etwas wuerde ich von jemand wie Avalox erwarten dass er es versteht.


Das ich nicht lache. Tegra2 ist für die Gerätehersteller seit 2009 zu bekommen.

Android 3.0 Honeycomb ist weder heute erhältlich und zudem auch noch der erste Google-Versuch eines Pad Systems. Android 3.0 ist weder ist es für Netbooks, noch für Mediaclients, oder Autoradios. Dieses waren aber die Zielangaben von nVidia zum Tegra2, wie soll dieser also für ein Honeycomb entwickelt worden sein?

Wie soll denn der Tegra2 für ein Android entwickelt worden sein, welches erst im nächsten Jahrzehnt nach dem Tegra2 dann erscheint? Zumal für eine Geräteklasse, welche die Welt niemals und Google erst Recht nicht erwartet hat.

Es ist ja nicht so, dass die Welt auf dem Tegra2 gewartet hat.
Vielmehr sucht nVidia verzweifelt einen Anwendungszweck für den vorhandenen Tegra2.

Ailuros
2011-02-07, 07:54:27
Das ich nicht lache. Tegra2 ist für die Gerätehersteller seit 2009 zu bekommen.

Massenproduktion fing in 1Q2010 unter 40G/TSMC an. NV verkauft kein IP sondern fertige SoCs. Mir ist hier ein wenig schleierhaft was Du damit meinst.

Android 3.0 Honeycomb ist weder heute erhältlich und zudem auch noch der erste Google-Versuch eines Pad Systems. Android 3.0 ist weder ist es für Netbooks, noch für Mediaclients, oder Autoradios. Dieses waren aber die Zielangaben von nVidia zum Tegra2, wie soll dieser also für ein Honeycomb entwickelt worden sein?

Wie soll denn der Tegra2 für ein Android entwickelt worden sein, welches erst im nächsten Jahrzehnt nach dem Tegra2 dann erscheint? Zumal für eine Geräteklasse, welche die Welt niemals und Google erst Recht nicht erwartet hat.

Welches naechste Jahrzehnt?

Es ist ja nicht so, dass die Welt auf dem Tegra2 gewartet hat.
Vielmehr sucht nVidia verzweifelt einen Anwendungszweck für den vorhandenen Tegra2.

Macht jeder IHV fuer seine hardware bzw. IP. Tegra2 haette als fertiger SoC auf was alternativ setzen sollen? iOS? Es gibt zwar noch keine dementsprechende Ankuendigung aber es wuerde mich nicht wundern wenn sie schon Serie6 lizenziert haben (da IMG schon Lizenzen von lead partners erwaehnt). Symbian/MeeGo? Hier steckt NOKIA mit Intel im Bett, ergo wohl auch keine Alternative.

Die einzige Alternative die ich sehen koennte fuer NVIDIA waere vielleicht gewesen zu versuchen GPU IP zu verkaufen. Sie haetten zwar nur einen winzigen Bruchteil vom heutigen Umsatz von der Tegra Sparte gemacht, aber das Risiko waere auch diametrisch kleiner gewesen. Das dumme ist dann eben dass es dann wieder nicht virtuell an die Projekt Denver in irgend einer Art koppeln kann und gerade das scheint indirekt NVIDIA vorzuhaben.

Das Thema IP haben wir ja hier schon mal besprochen. Und ja natuerlich passt es nicht in NV Geschaefts-strategien, aber Konsolen GPU IP dann auch nicht. Ich sag es nochmal: man passt sich einem Markt an unter normalen Umstaenden und versucht nicht den Markt seinen Massen anzupassen ueberhaupt wenn man mit so vielen grossen Firmen zu konkurrieren hat. Der mobile/embedded/handheld Markt operiert hauptsaechlich mit IP.

Am Rand ist ein weiterer Vorteil von IP Entwicklung dass man sich nicht nur auf eine einzige GPU Variante begrenzen muss. ARM, IMG, Vivante haben alle eine ziemlich breite Pallette an Produkt-Varianten und erreichen via multi-processing eine sehr gute Skalierung die von einem mainstream Handy bis zu low end notebook/PC skalieren kann zumindest auf Papier.

Die wichtigere Frage ist was genau NVIDIA in der Zukunft insgesamt mit SoCs vorhat. Und hier genau eben kommt das zukuenftige Denver in den Brei. Sie werden es garantiert nicht leicht haben und ja natuerlich ist das Risiko fuer so ein ambitionsreiches Projekt langfristig nicht gering, aber irgendwo sieht sich NV von Intel, AMD auch gedraengt zu so einer Loesung. Denn nur mit standalone GPUs werden sie schwer als Firma weiterhin wachsen koennen, ueberhaupt da der mobile Markt konstant weiterwachsen wird, eine Tendenz die man dem GPU Markt wohl nicht so leicht zusprechen kann fuer die Zukunft.

So oder so wird es bei solchen Turnereien immer Faktoren geben die ausserhalb NV's Kontrolle liegen werden.

Google Android 3.0 (Honeycomb) war eben nicht fuer's naechste halbe Jahrzehnt vorgesehen sondern es war fuer Anfang 2011 vorgesehen (wenn dieses nicht auch schon eine Verspaetung fuer Google bedeutet):

http://www.techradar.com/news/phone-and-communications/mobile-phones/android-3-0-rumours-and-latest-updates-706243

Honeycomb wurde schon offiziell vorgestellt: http://www.anandtech.com/show/4150/googles-android-event-analysis/1

Ich habe es gelesen und natürlich nicht favorisiert.
Es ist aber auch ohne Bookmark nachvollziehbar, da das MALI und ARM Kern Design in der selben Sourcelizenz gebundelt verkauft wird.

Es koennte auch morgen ein Artikel erscheinen der behauptet dass Elephanten fliegen koennen. Dass ARM beide gebundelt verkaufen kann beweisst gar nichts. Das einzige was es mir momentan sagen koennte wenn alle Indizien fuer Samsung momentan stimmen, ist dass Samsung fuer alles das durch 2011 produziert wird die billigsten moeglichen Loesungen engagiert hat um fuer Apple's SoC Prodution ohne Schaden Platz zu machen. Und dieses gilt natuerlich auch dafuer falls T2 tatsaechlich in ihrem naechsten Tab stecken sollte. Wenn ja hat hier Samsung SoCs nur unter heftigem Preisdruck gekauft. Gehoert zwar wieder in den ARM Thread, aber es ist so langsam unmoeglich Tegra und Mali relevantes Zeug auseinander zu halten.

Hier geht es damit weiter: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8553016#post8553016

AnarchX
2011-02-07, 10:36:32
NVIDIA Tegra 2 T20 1GHz 333MHz Now
NVIDIA Tegra 2 AP20H 1GHz 300MHz Now
NVIDIA Tegra 2 3D T25 1GHz 400MHz Q2 2011
NVIDIA Tegra 2 3D AP25 1GHz 400MHz Q2 2011
http://www.anandtech.com/show/4144/lg-optimus-2x-nvidia-tegra-2-review-the-first-dual-core-smartphone/4

Da hat Nvidia den GPU-Takt wohl noch mal ordentlich gesteigert, gegenüber der Ankündigung in 2009.

Ailuros
2011-02-07, 11:52:23
NVIDIA Tegra 2 T20 1GHz 333MHz Now
NVIDIA Tegra 2 AP20H 1GHz 300MHz Now
NVIDIA Tegra 2 3D T25 1GHz 400MHz Q2 2011
NVIDIA Tegra 2 3D AP25 1GHz 400MHz Q2 2011
http://www.anandtech.com/show/4144/lg-optimus-2x-nvidia-tegra-2-review-the-first-dual-core-smartphone/4

Da hat Nvidia den GPU-Takt wohl noch mal ordentlich gesteigert, gegenüber der Ankündigung in 2009.

Ein GPU Takt bei 300MHz fuer smart-phones und 333MHz fuer tablet SoCs erklaert schon einige Resultate besser als die bisherigen 240MHz auf die wir setzten.

Anand kommt auch gerechtfertigt auf seine Schlussfolgerungen auf der Benchmark-Seite seines Artikels. Dass es gerade NVIDIA an Optimierungen fuer etwas wie Quake3 fehlt klingt mir ziemlich laecherlich. Bei Q3A und 800*480 ist IMO das ganze hauptsaechlich Fuell-raten limitiert als alles andere. Dass hier ein TBDR bei 200MHz und 2 TMUs gegen einen IMR bei 300MHz und 2 TMUs mit nur relativ kleinem Abstand gewinnt macht mir keinen besonderen Eindruck.

Was GLBenchmark2.0 jetzt betrifft geben alle SGX530/540 Geraete merkwuerdige Resultate ab im Vergleich zu den low lewel Resultaten und auch die PRO Benchmark Resultate des 2.0 Tests (eigentlich ein OGL_ES1.1 Test afaik) sind viel zu niedrig im Vergleich zu den GL Benchmark 1.1 dieser. Kann Anand aber nicht wissen und nur wenn sich dort endlich etwas aendert wird er auch ein besseres Bild haben.

GLBenchmark 2.0 LG Star vs. i9000 Galaxy S:

http://www.glbenchmark.com/compare.jsp?benchmark=glpro20&showhide=true&certified_only=1&D1=LG%20Star&D2=Samsung%20i9000%20Galaxy%20S

GLBenchmark 1.1 Compal NAZ 10 vs. i9000 Galaxy S:

http://www.glbenchmark.com/compare.jsp?benchmark=glpro11&showhide=true&certified_only=1&D1=Compal%20NAZ-10&D2=Samsung%20i9000%20Galaxy%20S

Selbst aber das zur Seite bei solchen Frequenzen ist es wirklich kein Wunder mehr. Hier waeren eher OMAP4430 (SGX540@310MHz) und OMAP4440 (SGX540@380MHz) um einiges interessanter (ein RIM Playbook -4430 wird er wohl noch nicht zur Verfuegung haben).

With a 4+4 setup, the GeForce ULV should have the same peak pixel or vertex shader throughput as the PowerVR SGX 540. It’s only in situations where there’s mixed pixel/vertex shader code coming down the pipe that NVIDIA has the advantage. As a result we should see scenarios where the GeForce ULV is faster than the PowerVR SGX and vice versa.

http://www.anandtech.com/show/4144/lg-optimus-2x-nvidia-tegra-2-review-the-first-dual-core-smartphone/5

Nein zum ersten und abermals nein zum zweiten. http://www.nvidia.com/object/IO_37100.html Seite24 und der Quark ist schon 5 Jahre alt.

Dural
2011-02-07, 12:05:04
tja NV setzt halt hier auch mal wider die masslatte, ich habe es dir ja immer wider gesagt ;)

Ich freu mich ja schon auf T3, das ding wird die Konkurenz ziemlich alt ausehen lassen... ;D ich hoffe einfach das es NV nicht zu sehr übertreibt, an erstestelle steht bei mir bei solchen CHips der stromverbrauch, erst danach kommt die leistung!

fondness
2011-02-07, 12:08:51
Ich freu mich ja schon auf T3, das ding wird die Konkurenz ziemlich alt ausehen lassen... ;D

Wie soll das gehen wenn sie nur ARM-Technologie lizenzieren?

Dural
2011-02-07, 12:10:38
Wie soll das gehen wenn sie nur ARM-Technologie lizenzieren?


T2 gibt es schon seit H1 2010, wo bleiben die Dual Core der mitbewerber......

Ailuros
2011-02-07, 12:29:58
tja NV setzt halt hier auch mal wider die masslatte, ich habe es dir ja immer wider gesagt ;)

Natuerlich liesst Du wieder was Du auch wirklich lesen willst. Bei 300MHz ist ein SGX540 nach den obrigen Resultaten um gute 33% schneller. Deshalb sage ich auch dass erst mit OMAP4 Vergleichen interessant werden wird und nicht mit den momentanen 200MHz im GalaxyS.

300MHz auf AP20 sprechen nicht fuer die T2 GPU sondern eher dagegen, aber gerade erst:

And it just so happens that 300/333/400MHz are the exact maximum memory frequencies for AP20/T20/T25 iirc. Anand's article is very nice, but there are tons of minor technical mistakes, so you'll have to excuse me if I don't quite believe this just yet.

http://forum.beyond3d.com/showpost.php?p=1521304&postcount=460

Ich freu mich ja schon auf T3, das ding wird die Konkurenz ziemlich alt ausehen lassen... ;D ich hoffe einfach das es NV nicht zu sehr übertreibt, an erstestelle steht bei mir bei solchen CHips der stromverbrauch, erst danach kommt die leistung!

Zuerst werden wird durch dieses Jahr einige SGX543 MP2 Loesungen sehen. T3 braucht eine GPU mit 8 skalaren USC ALUs bei ~=/>700MHz und core Frequenz bei 400MHz um einem solchen MP2 bei nur 200MHz gleichzustehen. Mehr im April im relevanten Apple Thread dann.

T2 gibt es schon seit H1 2010, wo bleiben die Dual Core der mitbewerber......

Siehe oben. Ausser Du willst nur Dir selber weissmachen dass T2 bzw. NVIDIA irgendwelche Chancen hat mehr als Apple in 2011 zu verkaufen.

Uebrigens ging T2 in Q1 2010 in Massenproduktion. Erhaeltliche T2 Geraete gibt es so langsam erst in diesem Quartal und im Lauf von 2011.

Xmas
2011-02-07, 23:23:37
Die GPU auf dem SoC legt ja die Marschrichtung der Geräte ziemlich fest, also sollte man vermuten, dass auch irgend ein OS in Verwendung kommen sollte, welche auf Geräten betrieben wird, mit denen ein User direkt in Berührung kommt.
Ich antwortete ursprünglich auf deine Spekulation hin dass Nvidia Mali-IP lizensieren könnte, dass du Nvidias Geschäftskonzept nicht verstanden hättest. Nun scheint es sogar so, dass du fast der gesamten SoC-Branche Planlosigkeit vorwirfst.

Aber selbst wenn wir einmal annehmen dass die alle keinen Plan haben, da es ja kein passendes OS für die entsprechenden SoCs gibt: Inwiefern würde das Lizensieren von Mali-IP dann Nvidias Geschäftskonzept verbessern?

Avalox
2011-02-08, 00:06:24
Nun scheint es sogar so, dass du fast der gesamten SoC-Branche Planlosigkeit vorwirfst.

Ach quatsch. Es betrifft den Tegra2. Andere SoCs für den Betrieb in Consumergeräten und 3D Unterstützung fahren ja durchaus eine Palette an passenden Standard OS auf.
Es reicht vom proprietären Systemen wie Windows Phone 7 und geht über viele Schritte bis zum ausführlich dokumentierten OpenSource Treiber für alle mögliche Linux Varianten.

Es trifft sehr direkt den Tegra2. Der faktisch bis heute leidlich "nur" von einem Android 2.x unterstützt wird. Einem Telefon OS, dabei waren Telefone niemals eine Zielplattform des Tegra2.

Ändert sich mit einem Android 3.0 vielleicht. Welches dann in Zukunft allerdings mehr als ein Jahr nach dem Tegra2 auf den Markt kommen wird und dessen Leistungsfähigkeit und Funktionalität noch in den Sternen steht.

Das Geschäftsmodell des Tegra2 lässt dort an Nachhaltigkeit zu wünschen übrig.


Aber selbst wenn wir einmal annehmen dass die alle keinen Plan haben, da es ja kein passendes OS für die entsprechenden SoCs gibt: Inwiefern würde das Lizensieren von Mali-IP dann Nvidias Geschäftskonzept verbessern?

Das war eine sarkastische Äusserung. Feststellen lässt sich, dass die MALI Grafik weit erfolgreicher ist, weit umfangreicher unterstützt wird und eine bei weiten breitere Produktpalette stellt. Es gibt auch eine weit größere Entwicklergemeinde. Die MALI Produkte sind tatsächlich deutlich attraktiver und haben deshalb eine höhere Marktakzeptanz erzielt.

Xmas
2011-02-08, 01:02:30
Das war eine sarkastische Äusserung. Feststellen lässt sich, dass die MALI Grafik weit erfolgreicher ist, weit umfangreicher unterstützt wird und eine bei weiten breitere Produktpalette stellt. Es gibt auch eine weit größere Entwicklergemeinde. Die MALI Produkte sind tatsächlich deutlich attraktiver und haben deshalb eine höhere Marktakzeptanz erzielt.
Du antwortest dir selbst im anderen Thread:
Weißt du genau dieses ist doch Marketing Bullshit.


Die Anzahl angekündigter Geräte interessieren überhaupt niemanden.
Die Anzahl von verschiedenen Modellen ist überhaupt nicht wichtig.

Die Anzahl von Geräten auf dem Markt ist wichtig.

Ailuros
2011-02-12, 18:51:57
Da es wohl gesichert ist dass Samsung's neues smart-phone und tablet (GalaxyS2) auf Orion basieren moechte ich erstmal Teer und Federn fuer den moechtegern Analysten bereitstellen. Mal sehen wie es die NV Aktie beeinflussen koennte.

Alles andere als anstaendig fuer wen immer dafuer verantwortlich ist.

Nakai
2011-02-12, 19:16:33
Da es wohl gesichert ist dass Samsung's neues smart-phone und tablet (GalaxyS2) auf Orion basieren moechte ich erstmal Teer und Federn fuer den moechtegern Analysten bereitstellen. Mal sehen wie es die NV Aktie beeinflussen koennte.

Übel, wenn man bedenkt, dass NV schon seit übern Jahr mit T2 rumprahlt und jetzt wo er langsam rauskommt, ist die Konkurrenz auch schon am Start.
Zum Glück ist es kein komplettes Desaster, aber es zeigt einfach, dass NV keine Ahnung vom SOC-Markt hat. PR und Marketing sind hier deutlich weniger gefragt. Man hätte mehr Zeit und Geld in die Evaluierung und Entwickling des Chips stecken sollen und man hätte Partner besser überzeugen sollen.

Naja wenigstens hat man einige Überzeugen können. Da hat NV schon einiges gelernt.

Nun wird T3 richtig interessant werden.
Ich erwarte Cortex A15 Quadcore und eine Grafikeinheiten mit mindestens 4 facher Rechenleistung.^^
Und man sollte hier auch mal auf die Modulisierung gucken.


mfg

Deinorius
2011-02-12, 20:11:14
Ich erwarte Cortex A15 Quadcore


Da finde ich aber TIs Weg mit dem OMAP5, wo sie nur zwei Cortex A15 und dazu zwei Cortex M4 einbauen, wesentlich besser. DualCore ist im Grunde noch nichtmal wirklich draußen. Da find ich diesen Zwischenweg (gerade für die Akkulaufzeit) vernünftiger.
Es mag ja sein, dass nvidia mit 4 Cortex A15 lieber in Richtung Tablet High-End gehen möchte, aber dann sollte auch die Grafikleistung passen.

LovesuckZ
2011-02-12, 22:32:10
Übel, wenn man bedenkt, dass NV schon seit übern Jahr mit T2 rumprahlt und jetzt wo er langsam rauskommt, ist die Konkurrenz auch schon am Start.
Zum Glück ist es kein komplettes Desaster, aber es zeigt einfach, dass NV keine Ahnung vom SOC-Markt hat. PR und Marketing sind hier deutlich weniger gefragt. Man hätte mehr Zeit und Geld in die Evaluierung und Entwickling des Chips stecken sollen und man hätte Partner besser überzeugen sollen.
mfg

Wenn die Software nicht so weit ist, bringt es nichts.

Abgesehen von der Software-Seite: Es gibt haufenweise Partner, die Tegra2 einsetzen: LG, Motorola, Toshiba, Dell, Asus, ASRock, T-Mobile USA. Dazu kommen Autohersteller (Audi, BMW, Roadster). Es wird nicht nur mehr kaufbare Produkte mit Tegra2 geben, sie werden auch von deutlich mehr Partner angeboten werden.
Und zu Samsung: Die sind nicht Apple. Die unterliegen einen dauernden Konkurrenzkampf mit anderen Android-Produkten. Und die legen zZ vor: LG's und Motorola's Tegra2 Smartphones kommen bald in den Handel und die Tablets sind auch nicht mehr weit entfernt.

Zu Behaupten, nVidia verstünde nichts vom SoC Markt, ist in anbetracht der Tatsache, dass die Steigerung von Tegra1 zu Tegra2 riesig ist, doch sehr komisch.

Ailuros
2011-02-13, 12:16:17
Nun wird T3 richtig interessant werden.
Ich erwarte Cortex A15 Quadcore und eine Grafikeinheiten mit mindestens 4 facher Rechenleistung.^^
Und man sollte hier auch mal auf die Modulisierung gucken.


mfg

T3 = quad A9

Wenn die Software nicht so weit ist, bringt es nichts.

Abgesehen von der Software-Seite: Es gibt haufenweise Partner, die Tegra2 einsetzen: LG, Motorola, Toshiba, Dell, Asus, ASRock, T-Mobile USA. Dazu kommen Autohersteller (Audi, BMW, Roadster). Es wird nicht nur mehr kaufbare Produkte mit Tegra2 geben, sie werden auch von deutlich mehr Partner angeboten werden.
Und zu Samsung: Die sind nicht Apple. Die unterliegen einen dauernden Konkurrenzkampf mit anderen Android-Produkten. Und die legen zZ vor: LG's und Motorola's Tegra2 Smartphones kommen bald in den Handel und die Tablets sind auch nicht mehr weit entfernt.

Ich hab stets ein sehr grosses Problem entweder hier oder im ARM Thread wenn ich von "haufenweise" lese.

Von dem abgesehen ist und bleibt die Analysten Behauptung dass Samsung einen Riesen-deal mit NV abgeschlossen hat eine Schweinerei.

Zu Behaupten, nVidia verstünde nichts vom SoC Markt, ist in anbetracht der Tatsache, dass die Steigerung von Tegra1 zu Tegra2 riesig ist, doch sehr komisch.

Von fast gar nichts (T1) ist fast jeglicher Erfolg bei T2 dann eben "riesig". Haetten sie mit T1 auf ein anderes OS gesetzt haetten sie zumindest genauso viel wie T2 von Anfang an verkaufen koennen. Ohne den Samsung deal kann NV froh sein wenn sie fuer 2011 irgendwo um die 20Mio Einheiten verkaufen koennen insgesamt. Und ja es ist sehr gut fuer NV, aber auch keine Markt-kapitulation.

fondness
2011-02-13, 12:53:21
Abgesehen von der Software-Seite: Es gibt haufenweise Partner, die Tegra2 einsetzen: LG, Motorola, Toshiba, Dell, Asus, ASRock, T-Mobile USA. Dazu kommen Autohersteller (Audi, BMW, Roadster). Es wird nicht nur mehr kaufbare Produkte mit Tegra2 geben, sie werden auch von deutlich mehr Partner angeboten werden.


Die Stückzahlen in den Oberklasselimosinen sind lächerlich gering. Minimum 90% des Tabletmarktes werden sich zudem Apple, Samsung und RIM teilen. Im Handymarkt ist es ähnlich, nur kommt da noch Nokia dazu. Nirgends davon ist NV vertreten. Designs von unbedeutenden Herstellern werden nicht viel bringen, man bräuchte nur ein "high potential design". Der Samsung-Deal wäre mehr wert gewesen als alles anderen zusammen, ich bin auch gespannt wie die NV-Aktie reagiert, nach der Behauptung des Analysten das man den Samsung-Deal hätte ist die Aktie ja regelrecht explodiert.

fondness
2011-02-13, 12:59:31
Da es wohl gesichert ist dass Samsung's neues smart-phone und tablet (GalaxyS2) auf Orion basieren moechte ich erstmal Teer und Federn fuer den moechtegern Analysten bereitstellen. Mal sehen wie es die NV Aktie beeinflussen koennte.

Alles andere als anstaendig fuer wen immer dafuer verantwortlich ist.

Der hat sich wohl einen netten Gewinn gesichert. Es war klar das die Aktie explodiert wenn die Mehrheit der Marktteilnehmer daran glaubt.

Nakai
2011-02-13, 14:47:15
Da finde ich aber TIs Weg mit dem OMAP5, wo sie nur zwei Cortex A15 und dazu zwei Cortex M4 einbauen, wesentlich besser. DualCore ist im Grunde noch nichtmal wirklich draußen. Da find ich diesen Zwischenweg (gerade für die Akkulaufzeit) vernünftiger.

Die Cortex M4 sind doch eher dafür da um bestimmte IO- und Kontrollerfunktionalität zu gewährleistet. Die Cortex M4-Serie ist auch eher dafür ausgelegt, als auf Rechenleistung.

Deinorius
2011-02-13, 15:57:36
Die Cortex M4 sind doch eher dafür da um bestimmte IO- und Kontrollerfunktionalität zu gewährleistet. Die Cortex M4-Serie ist auch eher dafür ausgelegt, als auf Rechenleistung.


Eben darauf wollte ich hinaus. ;)
Ich stelle mir primär die Frage, wie viel QuadCore die kommenden Jahre bringen wird. Da sind mir zwei Kerne mit höherer IPC (und vielleicht sogar höherem Takt) lieber als vier A9. Aber ich kann es nvidia nicht wirklich vorwerfen, dass T3 erstmal nur A9 statt A15 verwenden wird.

Nakai
2011-02-13, 16:10:40
Eben darauf wollte ich hinaus. ;)
Ich stelle mir primär die Frage, wie viel QuadCore die kommenden Jahre bringen wird. Da sind mir zwei Kerne mit höherer IPC (und vielleicht sogar höherem Takt) lieber als vier A9. Aber ich kann es nvidia nicht wirklich vorwerfen, dass T3 erstmal nur A9 statt A15 verwenden wird.

A15 ist schon ein gutes Stück stärker als jeglicher A9. Bringt man den T3 zügig auf den Markt, dann wird sich das nicht als Nachteil herausstellen. T2 ist ja kein schlechtes Ding. Nur es ist bald nicht mehr was besonderes.


mfg

Deinorius
2011-02-13, 16:37:29
Bis zu 5mal leistungsfähiger als A9, was so gesehen der Wahnsinn ist. Ich wüsst nur gern, wie das genau verglichen wurde. :rolleyes:

AffenJack
2011-02-13, 16:41:00
Woher hast du die 5mal? ich les immer von 50% schnelller.

Deinorius
2011-02-13, 16:47:21
Aus dem englischen Wiki. *hust* Die 50 % höhere IPC (es ist doch die IPC gemeint, oder?) glaub ich umso mehr.

Ich glaube mich aber auch daran zu erinnern, dass ich auch schon anderswo von einer 5fachen Leistungssteigerung gelesen hab. Aber um ehrlich zu sein, hab ich das auch schon vom Wechsel von A8 zu A9. :ugly:

Gibts Infos darüber, wie groß ein A15 Core ohne Cache ist? Vom A9 weiß ich nur, dass der mit dem 40G Prozess 1,5 mm² groß sein soll.

Ailuros
2011-02-13, 18:47:47
LG Optimus Pad ein weiterer Design-win fuer T2:

http://www.anandtech.com/show/4166/mwc-2011-lg-optimus-3d-and-optimus-pad-announced

LG Optimus 2X: Tegra2
LG Optimus Pad: Tegra2
LG Optimus 3D: OMAP4430

HP (formerly Palm) just dumped TI for Snapdragon across the board, but everyone else has a combination of the three vendors, feeling out the direction of the SoC market. So I suspect that we'll be seeing quite a lot of mixed SoC announcements in the coming days.

Label
2011-02-13, 18:53:46
...ein weiterer Design-win fuer T2:

...und noch eine (http://www.engadget.com/2011/02/13/samsung-galaxy-tab-10-1-official-tegra-2-honeycomb-dual-camer/)r:
Samsung Galaxy Tab 10.1 official: Tegra 2...

Edit: weitere Quelle (http://www.slashgear.com/samsung-galaxy-tab-10-1-official-tegra-2-and-honeycomb-13133051/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+slashgear+%28SlashGear%29)

Ailuros
2011-02-13, 18:59:33
...und noch eine (http://www.engadget.com/2011/02/13/samsung-galaxy-tab-10-1-official-tegra-2-honeycomb-dual-camer/)r:
Samsung Galaxy Tab 10.1 official: Tegra 2...

Ok also doch, daher muss ich dementsprechend alle meine Kommentare fuer den Analysten zurueckziehen.

stickedy
2011-02-13, 19:01:55
Ok also doch, daher muss ich dementsprechend alle meine Kommentare fuer den Analysten zurueckziehen.
Also offiziell ist es (noch) nicht, Samsung spricht nur von einem "1 GHz Dual Core application processor"

Hugo
2011-02-13, 19:05:50
das LG Optimus 3D hat keinen Tegra2-3D? das verwundert mich ein wenig

Ailuros
2011-02-13, 19:07:53
Also offiziell ist es (noch) nicht, Samsung spricht nur von einem "1 GHz Dual Core application processor"

Bei der Batterie klingt T2 am wahrscheinlichsten :P

das LG Optimus 3D hat keinen Tegra2-3D? das verwundert mich ein wenig

Gewoehnt es Euch an dass die meisten Hersteller von mehr als nur einer Quelle einkaufen. Manchmal hat es sogar gar nichts mit der hw zu tun sondern damit ein Hersteller hauptsaechlich nicht zu abhaengig von einem Lieferanten wird.

Hugo
2011-02-13, 19:10:23
Gewoehnt es Euch an dass die meisten Hersteller von mehr als nur einer Quelle einkaufen. Manchmal hat es sogar gar nichts mit der hw zu tun sondern damit ein Hersteller hauptsaechlich nicht zu abhaengig von einem Lieferanten wird.

kann ich verstehn :)
Ich dacht nur, dass der Tegra2-3D da das Zugpferd sein würde und hätte in einem anderen Gerät einen OMAP erwartet

Ailuros
2011-02-13, 19:14:14
kann ich verstehn :)
Ich dacht nur, dass der Tegra2-3D da das Zugpferd sein würde und hätte in einem anderen Gerät einen OMAP erwartet

T2/3D bietet nichts hw-maessig an was andere heutige SoCs nicht haben. "3D" laesst sich eben besser verkaufen wenn man die Frequenz um 20% erhoehen will.

Hugo
2011-02-13, 19:17:09
T2/3D bietet nichts hw-maessig an was andere heutige SoCs nicht haben. "3D" laesst sich eben besser verkaufen wenn man die Frequenz um 20% erhoehen will.


aso alles klar, ich dacht da steckt bessere HW drin ;)

Dural
2011-02-13, 20:37:41
Also offiziell ist es (noch) nicht, Samsung spricht nur von einem "1 GHz Dual Core application processor"


Naja, das kann man schon fast als offiziel sehen, den sonst würde Samsung garantiert ihre eigene SoC erwähnen und nicht nur was von Dual Core CPU schreiben...

das LG Optimus 3D hat keinen Tegra2-3D? das verwundert mich ein wenig


für was willst du in einem Handy einen Tegra 2 3D?!? da wäre mir der Akku lieber und wichtiger!


Eben darauf wollte ich hinaus. ;)
Ich stelle mir primär die Frage, wie viel QuadCore die kommenden Jahre bringen wird. Da sind mir zwei Kerne mit höherer IPC (und vielleicht sogar höherem Takt) lieber als vier A9. Aber ich kann es nvidia nicht wirklich vorwerfen, dass T3 erstmal nur A9 statt A15 verwenden wird.


wer sagt den das ein T3 mehr verbraucht als ein T2?!? 40nm vs 28nm ;)

zudem dürfte ein Quad Core mit inteligenter spar technik sogar deutlich effizienter arbeiten als ein Dual Core CPU

stickedy
2011-02-13, 22:47:52
Naja, das kann man schon fast als offiziel sehen, den sonst würde Samsung garantiert ihre eigene SoC erwähnen und nicht nur was von Dual Core CPU schreiben...
Es hätte ja auch ein TI OMAP4430 sein können...

Aber in der verlinkten Pressemitteilung steht ja Tegra 2. Wobei sich diese Pressemitteilung obwohl auf heute datiert weder bei Samsung noch bei nVidia finden lässt...

dildo4u
2011-02-13, 22:52:35
"NVIDIA and Samsung Partner to Deliver the Galaxy Tab 10.1 Honeycomb Tablet

GALAXY Tab’s Successor Powered by Tegra 2, Featuring a Dual-Core CPU plus an NVIDIA GeForce GPU That Enable Full Use of Android 3.0"


http://www.slashgear.com/samsung-galaxy-tab-10-1-official-tegra-2-and-honeycomb-13133051/

Ailuros
2011-02-14, 07:15:24
Es hätte ja auch ein TI OMAP4430 sein können...

Aber in der verlinkten Pressemitteilung steht ja Tegra 2. Wobei sich diese Pressemitteilung obwohl auf heute datiert weder bei Samsung noch bei nVidia finden lässt...

Link oben von dildo bestaetigt dass Galaxy 10.1 mit T2 ausgestattet ist.

Uebrigens auch:

The companies are also partnering to bring a new Android-based super phone with a dual-core CPU to consumers, for never-before-seen experiences.

Ergo koennte der insgesamte Deal tatsaechlich zumindest $250Mio schwer sein und insgesamt der erste grosse Design-win fuer NV Tegra2.

http://www.anandtech.com/show/4169/hands-on-with-the-samsung-galaxy-s-ii-galaxy-tab-101

The weight is comfortable, especially coming from an iPad. The OS is responsive however I get the impression that Honeycomb is still a bit early. Despite GPU acceleration everywhere I noticed some choppy scrolling and laggy transitions. The unit I was playing with even managed to reboot in the middle of me messing with the camera. These are all issues you'd expect from pre-release software so I'm not too concerned.

I think it's still too early to tell how well these Honeycomb tablets will do in the market. I need to see final software to get a better idea. Soon enough I hope...

Overall the Galaxy S II felt like a slightly faster, slightly smoother Atrix 4G. We'll have to get one in house to really pit it up against NVIDIA's flagship. The Gingerbread advantage is undeniable though.


für was willst du in einem Handy einen Tegra 2 3D?!? da wäre mir der Akku lieber und wichtiger!

Tegra2 3D gibt es sowohl fuer tablets (T25 SoC) als auch fuer smart-phones (A25 SoC). Abgesehen davon dass der SoC gerade erst hergestellt wird, ist das obrige irgend ein indirektes Zugestaendnis dass ein A25 mehr verbrauchen wird als ein OMAP4430? :D

wer sagt den das ein T3 mehr verbraucht als ein T2?!? 40nm vs 28nm ;)

Der Herstellungsprozess von sich selber (28nm) sagt gar nichts aus wenn man nicht weiss wieviel die area fuer T3 benutzt wird. Momentan ist lediglich bekannt dass T3 im Vergleich zum T2 zwei mehr A9 GPU cores haben wird mit bis zu 50% hoeherer Frequenz. Dazu kommt noch der GPU upgrade und alles andere was noch dazukommen muss. Zusaetzliche Leistung ueberhaupt bei so grossen Aenderungen ist nie umsonst, eher das Gegenteil und da es auch bei anderen SoC Herstellern nicht anders sein wird, sollte man daran denken dass Batterien auch zunehmend groesser werden und billiger fuer ihre relative Groesse. Was man mit Sicherheit sagen kann ist dass ein jeglicher zukuenftiger 28nm SoC eben unter 40/45nm nicht sinnvoll realisierbar ist, ausser man gibt dem Verbraucher einen Batterie-Ruecksack. Sonst gibt es keine Regel dass weil unter 28nm produziert wird dass der Stromverbrauch bei N Leistungssteigerung gleich oder sogar weniger sein wird als mit 40G.

Uebrigens nochmal T2/T2 3D werden unter TSMC 40G hergestellt, waehrend Tegra3 unter 28LPG. Um diese Einzelheit zu verstehen muss man ein bisschen nachlesen.

zudem dürfte ein Quad Core mit inteligenter spar technik sogar deutlich effizienter arbeiten als ein Dual Core CPU

Ein Nachteil von T2 ist dass man die CPU cores (im Vergleich z.B. mit dual core Snapdragon) die Frequenzen nicht unabhaengig pro core verwalten kann. Bei T3 bin ich mir zuversichtlich dass es nicht mehr der Fall sein wird; jedoch bleibt es beim obrigen.

dildo4u
2011-02-16, 01:26:12
NVIDIA announces quad-core Kal-El SOC, promises it in tablets by August + Video

http://www.blogcdn.com/www.engadget.com/media/2011/02/11x021563d800.jpg

http://www.blogcdn.com/www.engadget.com/media/2011/02/110215nv034933.jpg

http://www.blogcdn.com/www.engadget.com/media/2011/02/11x021563f.jpg

http://www.engadget.com/2011/02/15/nvidia-announces-quad-core-kal-el-soc-promises-it-in-tablets-by/

Die Codenamen.*g*

Ailuros
2011-02-16, 08:10:29
On the GPU side, Kal-El implements a larger/faster version of the ULP GeForce GPU used in Tegra 2. It's still not a unified shader architecture, but NVIDIA has upped the core count from 8 to 12. Note that in Tegra 2 the 8 cores refer to 4 vertex shaders and 4 pixel shaders. It's not clear how the 12 will be divided in Kal-El but it may not be an equal scaling to 6+6.

The GPU clock will also be increased, although it's unclear to what level.

T2 ist nicht wirklich 4+4 aber es ist auch nicht so wichtig. Lediglich mehr ULP GF Einheiten und hoeherer Takt. Ergo wieder kein CUDA. Da das Ding nun doch auf 40(LP?) hergestellt wird klingt es eher nach einer Aenderung der road-map und T3 (eigentlich "T2.5" was die GPU Seite betrifft) eher ein Zwischenschieber da wohl T2 3D nichts besonderes angerichtet haette.

The combination of the larger GPU and the four, larger A9 cores (MPE is not an insignificant impact on die area) results in an obviously larger SoC. NVIDIA measures the package of the AP30 (the smartphone version of Kal-El) at 14mm x 14mm. The die size is somewhere around 80mm^2, up from ~49mm^2 with Tegra 2.

80mm2@40nm ist kein Beinbruch. Irgendwo in der >70-80mm2 Region erwarte ich auch den kommenden Apple "A5" SoC; mit dem einzigen Unterschied dass der MP2 hier um einiges mehr Dampf liefern wird.

http://www.anandtech.com/show/4181/nvidias-project-kalel-quadcore-a9s-coming-to-smartphonestablets-this-year/2

Dural
2011-02-16, 08:53:14
naja doch noch 40nm... hätte mich auch stark verwundert wenn die schon dieses jahr mit 28nm auf den markt gekommen wäre... ob das so schlau ist so eine SoC in 40nm...




Samsung ordert angeblich 1,5 Mio. Tegra 2 von Nvidia

Nvidia dürfte die vielfältige Vorstellung von Tablets und Smartphones auf Basis des Tegra 2 freuen, große und feste Bestellungen dürfte jedoch noch weitaus mehr wert sein. An der Börse wird der Auftritt von Nvidia in Bezug zum mobilen Geschäft in den letzten Wochen durchweg honoriert. Seit dem Beginn der CES Anfang Januar 2011 und den ersten Erscheinungen der neuen Geräte hat sich der Kurs der Aktie bis heute um mehr als 50 Prozent gesteigert, für den kompletten letzten Dreimonatszeitraum steht man gar 75 Prozent im Plus.


http://www.computerbase.de/news/wirtschaft/unternehmen/2011/februar/samsung-ordert-angeblich-1.5-mio.-tegra-2-von-nvidia/

Ailuros
2011-02-16, 09:04:39
naja doch noch 40nm... hätte mich auch stark verwundert wenn die schon dieses jahr mit 28nm auf den markt gekommen wäre... ob das so schlau ist so eine SoC in 40nm...

Siehe letzten Paragraph in meinem vorigen Post. Natuerlich sind die Gewinn-margen bei einem ausgekapseltem Fall wie Apple schwer zu vergleichen, aber ich 80mm2 unter 40nm sind IMO immer noch kein Beinbruch.

http://www.computerbase.de/news/wirtschaft/unternehmen/2011/februar/samsung-ordert-angeblich-1.5-mio.-tegra-2-von-nvidia/

Sieht aber nach verdammt wenig aus. Ausser Samsung gibt 10.1 eine sehr kurze Lebenszeit und liefert spaeter irgend eine Eigen-entwicklung z.B. nach. GalaxyS tab hat von Oktober bis Januar ueber 2Mio Einheiten verkauft. Wenn's kein Tippfehler ist wird Samsung den SoC auch wohl nicht an andere Hersteller verkaufen wie es mit S5PC11x der Fall war.

mboeller
2011-02-16, 09:54:07
Sieht aber nach verdammt wenig aus. Ausser Samsung gibt 10.1 eine sehr kurze Lebenszeit und liefert spaeter irgend eine Eigen-entwicklung z.B. nach. GalaxyS tab hat von Oktober bis Januar ueber 2Mio Einheiten verkauft. Wenn's kein Tippfehler ist wird Samsung den SoC auch wohl nicht an andere Hersteller verkaufen wie es mit S5PC11x der Fall war.

Da hatte ich also nicht als einziger diesen Eindruck. :)
Tegra2 scheint nur ein Lückenfüller zu sein. Da wird Samsung wohl schon auf der Computex den Nachfolger des 10.1 präsentieren.

Deinorius
2011-02-16, 10:05:42
Dann könnte dieser den Namen Galaxy Tab 2 bekommen. Was eine Erklärung dafür wäre, dass das Tegra 2 Gerät den Suffix "10.1" bekommen hat.

iFanatiker
2011-02-16, 10:45:12
Da hatte ich also nicht als einziger diesen Eindruck. :)
Tegra2 scheint nur ein Lückenfüller zu sein. Da wird Samsung wohl schon auf der Computex den Nachfolger des 10.1 präsentieren.

1. Samsung scheint einen sehr dicken Contract mit Apple gezogen zu haben und wir wohl etliches an eigener Fertigungskapazität für Apple buchen in nächster Zeit.

2. Das Tab lief eher schlecht (Tja...und ich wurde in anderen Thread angegiftet als sich meinte: Abwarten wie große der Markt für Tabelts wirklich ist) während sich die Galaxy S Familie sehr gut verkaufte. Entsprechend priosiert hier den eigenen SoC für die Galaxy S II Familie, die von Stückzahlen in einer anderen Welt verweilt.

3. Tegra 2 ist "Referenzplattform" von Google. Die Entwicklungsdauer und -kosten werden also mit der Verwendung von Tegra 2 minimiert.

Achja:

http://images.anandtech.com/graphs/graph4179/35418.png

:biggrin::biggrin::biggrin:

Und bei "Tegra 2.5" steht das Verhältnis aus CPU Leistung und GPU Leistung in einen totalen Mißverhältniss ebenso wie "Mehrleistung/Energieverbrauch".

Ailuros
2011-02-16, 10:59:49
Affenjack: Deinen Post und meine Antwort darauf hab ich in den PowerVR Thread verschoben.

1. Samsung scheint einen sehr dicken Contract mit Apple gezogen zu haben und wir wohl etliches an eigener Fertigungskapazität für Apple buchen in nächster Zeit.

2. Das Tab lief eher schlecht (Tja...und ich wurde in anderen Thread angegiftet als sich meinte: Abwarten wie große der Markt für Tabelts wirklich ist) während sich die Galaxy S Familie sehr gut verkaufte. Entsprechend priosiert hier den eigenen SoC für die Galaxy S II Familie, die von Stückzahlen in einer anderen Welt verweilt.

3. Tegra 2 ist "Referenzplattform" von Google. Die Entwicklungsdauer und -kosten werden also mit der Verwendung von Tegra 2 minimiert.

Achja:



Und bei "Tegra 2.5" steht das Verhältnis aus CPU Leistung und GPU Leistung in einen totalen Mißverhältniss ebenso wie "Mehrleistung/Energieverbrauch".

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8570971&postcount=561

Unterm Strich. Mit den ersten "kleinen" Aenderungen (mehr werden folgen) liegt das NexuS jetzt bei 46.5 fps in GL Benchmark 2.0 PRO. Egypt ist uebrigens eine weit bessere Referenz als PRO da ES2.0 fuer's erste und ES1.1 fuers zweite.

Nakai
2011-02-16, 11:58:01
Tegra 2.5? Interessante und sinnvolle Entscheidung. Die Lebensdauer eines SOCs ist ja auch nicht so lang, wie es die meisten Hersteller wollten. Mittlerweile dauert es nicht mehr so lang (6 Monate bis 1 Jahr) bis ein Nachfolger-SOC erscheint. Damit kann es nur besser für NV werden, wenn sie es schaffen ihre Produkte flexibler und zeitiger rauszubringen. Die Roadmap verspricht dies ja auch. Damit könnte man auch gegen die schneller SOC-Produktion anderer Hersteller ankommen.

Tegra2 scheint nur ein Lückenfüller zu sein. Da wird Samsung wohl schon auf der Computex den Nachfolger des 10.1 präsentieren.

Mhh, ein Lückenfüller? Würd ich nicht sagen, jedenfalls nicht unbedingt.
T2 gehört derzeit zur kleinen Riege der CortexA9MP2-Liega. Das macht ihn ungemein attraktiv. Ausgehend von der relativ kurzen Halbwertszeit einiger SOCs ist es nicht verwunderlich, wenn T2 baldig wieder ersetzt wird.


mfg

mboeller
2011-02-16, 12:13:09
Tegra 2.5? Interessante und sinnvolle Entscheidung. D

Wirklich?

Da der Kal-El auch in 40nm gefertigt wird, so wie der Tegra2 gibt es die 5x höhere Leistung nicht umsonst. Der Verbrauch wird massiv ansteigen. Damit ist Kal-El eigentlich nur mehr für Tablets geeignet und wird selbst dort nicht gar so lange Laufzeiten ermöglichen. Wie sie es fertig bringen wollen, den SoC auch in smartphones zu bringen??? Vielleicht gibt es aber ein 28nm Update bis Ende des Jahres.

Ailuros
2011-02-16, 12:13:33
Tegra 2.5? Interessante und sinnvolle Entscheidung. Die Lebensdauer eines SOCs ist ja auch nicht so lang, wie es die meisten Hersteller wollten. Mittlerweile dauert es nicht mehr so lang (6 Monate bis 1 Jahr) bis ein Nachfolger-SOC erscheint. Damit kann es nur besser für NV werden, wenn sie es schaffen ihre Produkte flexibler und zeitiger rauszubringen. Die Roadmap verspricht dies ja auch. Damit könnte man auch gegen die schneller SOC-Produktion anderer Hersteller ankommen.

Ein 6-Monate Zyklus ist mir zu gewagt. Es handelt sich hier nicht um desktop GPUs und selbst hier gibt es keine 6-Monate Zyklus mehr. Apple updated bis jetzt pro Jahr und hier aber auch in einer "tick tock" Art (tick fuer neu, tock fuer refresh). 1 Jahr ist wohl eher die Norm, refresh SoCs mitberechnet. Kauft sich die breiteste Masse jedes Jahr ein neues Handy und/oder tablet?

TI hat als Gegenbeispiel mit dem 4440 noch nicht ausgesungen.

Mhh, ein Lückenfüller? Würd ich nicht sagen, jedenfalls nicht unbedingt.
T2 gehört derzeit zur kleinen Riege der CortexA9MP2-Liega. Das macht ihn ungemein attraktiv. Ausgehend von der relativ kurzen Halbwertszeit einiger SOCs ist es nicht verwunderlich, wenn T2 baldig wieder ersetzt wird.


mfg

Entweder ein Eigen-design oder auch dann gleich eine T3 Bestellung fuer Samsung (oder auch von irgend einer anderen Quelle). Die Lebenszeit vom 10.1 erscheint aber trotz allem viel zu kurz. Oder Samsung ist einfach vorsichtig und machte eine erste Bestellung und bestellt spaeter nach.

Wirklich?

Da der Kal-El auch in 40nm gefertigt wird, so wie der Tegra2 gibt es die 5x höhere Leistung nicht umsonst. Der Verbrauch wird massiv ansteigen. Damit ist Kal-El eigentlich nur mehr für Tablets geeignet und wird selbst dort nicht gar so lange Laufzeiten ermöglichen. Wie sie es fertig bringen wollen, den SoC auch in smartphones zu bringen??? Vielleicht gibt es aber ein 28nm Update bis Ende des Jahres.

5x Mal hoehere Leistung wo? Nach all den Jahren koennen wir wohl alle solchen Marketing-bums problemlos interpretieren. Ja der Verbrauch wird ansteigen und nein eben nicht massiv, weil sie eben wie sie selber zugestehen von T2 dazugelernt haben. Als ich aber vor einiger Zeit erwaehnte dass der Stromverbrauch alles andere als ideal ist bei T2 wurde ich fast gelyncht von den NV-Juengern. Ja es wird auch AP30 geben, dann aber nicht unbedingt mit quad core A9 sondern entweder dual oder quad A9 je nach Wahl.

Die A9 cores sind so oder so winzig im Vergleich zu anderen Einheiten (Teufel sogar deren video decoder ist groesser als ein A9) und da sie mit dem clock und power gating der CPU in T2 ein bisschen Mist gebaut haben, werden sie es jetzt wohl korrigiert haben.

Ailuros
2011-02-16, 13:27:34
Samsung T2 Superphone: http://www.anandtech.com/show/4182/samsungs-tegra-2-superphone-the-gti9103

Gleiche Leistung im Vergleich zu anderen T2 smart-phones.

Dural
2011-02-16, 18:50:33
wenn man 1,5milion stück bestellt heist das noch lange nicht, das man zu einem späteren zeit punkt nicht noch mal bestellt und dann noch einmal und noch einmal....


http://images.anandtech.com/graphs/graph4179/35418.png

immer wider überaschend wie lahhmmmm T2 doch ist hahaha es ist schon traurig das NV mit dem T2 scho seit ca. einem jahr die Messlate stellt und die anderen noch heute nicht wirklich übetreffen! und da ist der T2 3D ja noch nicht mal dabei.... und im August gibt es 3x mehr GPU leistung mit Tegra3 :P

@Ailuros willst du nicht mal deine meinung ändern, ich glaube nur du sieht das so obwohl ich bis heute noch NIE einen benchmark gsehen habe der belegt wie auch so schlecht die T2 GPU ist... ;)

Nakai
2011-02-16, 20:17:33
immer wider überaschend wie lahhmmmm T2 doch ist hahaha es ist schon traurig das NV mit dem T2 scho seit ca. einem jahr die Messlate stellt und die anderen noch heute nicht wirklich übetreffen! und da ist der T2 3D ja noch nicht mal dabei.... und im August gibt es 3x mehr GPU leistung mit Tegra3


@Ailuros willst du nicht mal deine meinung ändern, ich glaube nur du sieht das so obwohl ich bis heute noch NIE einen benchmark gsehen habe der belegt wie auch so schlecht die T2 GPU ist...


Lies den Test durch, denk nach, dann lies ihn nochmal durch und dann denk nochmal drüber nach.

Aber ich geb dir nen Tipp: T2 ist nicht wegen der Geforce ULP so toll.

Und noch was:
Wie kann etwas seit einem Jahr die Messlatte stellen, wenn jetzt erst Produkte und Benchmarks erscheinen.;D

LovesuckZ
2011-02-16, 20:22:19
Wenn es danach geht, ist Tegra2 immer noch konkurrenzlos.
Die Konkurrenz schafft es nichtmal, die zweite Generation an Tegra2 Geräte einzufangen. Es ist zZ kein Android 3.0 Gerät ohne Tegra2 angekündigt worden.

Und sollte im August wirklich schon erste Tegra3 Produkte zum Kaufen geben, dann heißt der Konkurrent nicht mehr Tegra2.

YfOrU
2011-02-16, 20:32:42
Android 3.0 ist ein Tablett OS und Tegra 2 die Referenzplattform.

Nur solltest du dir mal ansehen wie die Tablett Absatzzahlen aussehen. Apple und dann sehr sehr lange nichts. Nur weil es jetzt eine größere Anzahl an Android Tabletts gibt bedeutet das noch lange nicht das im gleichen Maße die Verkaufszahlen zu nehmen.

Jetzt wieder oben lesen. Warum setzen die Hersteller denn alle auf die Referenzplattform ? Weil es günstiger ist und weil man beim Absatz skeptisch ist.
Und um mal realistisch zu bleiben, sehr viele Tabletts, vor allem iPads werden in Unternehmen eingesetzt. Da bekommt man aber auch mit Android 3.0 kein Fuß in die Tür. Professionelle Clients für Verwaltungs und Planungssoftware sind praktisch nur für iOS verfügbar. Beispiele wären Lager, Inventar, Vermietung, Planung etc.

Smartphones mit Tegra 2 kann und wird man mit der Lupe suchen müssen. Im Endeffekt bleibt da im besten Fall ein kleiner, einstelliger Bereich. Insgesamt ist es zwar durchaus ein Erfolg, aber keinesfalls der Durchbruch der es hätte sein sollen.

Hugo78
2011-02-16, 22:09:44
Das ist halt der Vorteil, wenn man Systemanbieter ist, man kann sein eigenes Ökosystem bereitstellen.

Google und Microsoft sind hier gefordert, bessere Ökosysteme bereitzustellen, dann verkauft sich die HW auch besser.

LovesuckZ
2011-02-16, 22:55:10
Android 3.0 ist ein Tablett OS und Tegra 2 die Referenzplattform.

Nur solltest du dir mal ansehen wie die Tablett Absatzzahlen aussehen. Apple und dann sehr sehr lange nichts. Nur weil es jetzt eine größere Anzahl an Android Tabletts gibt bedeutet das noch lange nicht das im gleichen Maße die Verkaufszahlen zu nehmen.

Mehr Auswahl bedeutet mehr Konkurrenz und mehr Interesse für den Kunden. Heutzutage gibt es doch nur drei Möglichkeiten: Low-End Android Produkt ala Archos, Tegra2 (PoV, Toshiba) oder Galaxy Tab 1 oder iPad.
Es gibt nichtmal genug vernünftige Produkte auf dem Markt, um soetwas wie Konkurrenz starten zu lassen.


Jetzt wieder oben lesen. Warum setzen die Hersteller denn alle auf die Referenzplattform ? Weil es günstiger ist und weil man beim Absatz skeptisch ist.

Das war doch mit Snapdragon (oder wie der SoC hieß) und 2.x genauso. Deswegen fängt auch der frühe Vogel den Wurm. ;)


Und um mal realistisch zu bleiben, sehr viele Tabletts, vor allem iPads werden in Unternehmen eingesetzt. Da bekommt man aber auch mit Android 3.0 kein Fuß in die Tür. Professionelle Clients für Verwaltungs und Planungssoftware sind praktisch nur für iOS verfügbar. Beispiele wären Lager, Inventar, Vermietung, Planung etc.

Und das hat genau WAS mit Tegra2 zu tun? Das betrifft genauso auch alle anderen nicht iOS Anbieter.


Smartphones mit Tegra 2 kann und wird man mit der Lupe suchen müssen. Im Endeffekt bleibt da im besten Fall ein kleiner, einstelliger Bereich. Insgesamt ist es zwar durchaus ein Erfolg, aber keinesfalls der Durchbruch der es hätte sein sollen.

Smartphones mit anderen DualCore SoCs sind genauso mangelware. LG, Samsung und dann? Es gibt drei Smartphones, die Tegra2 einsetzen: Atrix, Droid und LG. Und sollte Samsung Tegra2 ebenfalls miteinbeziehen, dann sind es vier High-End Smartphones. Das ist eine ganze Menge.

Screemer
2011-02-16, 23:50:48
die ersten snapdragon smartphones waren winmob geräte (hd2 von htc und von tg01 toshiba), wenn ich mich recht erinnere. da war android noch nicht wirklich in aller munde. nur so nebenbei.

YfOrU
2011-02-17, 00:35:07
Mehr Auswahl bedeutet mehr Konkurrenz und mehr Interesse für den Kunden. Heutzutage gibt es doch nur drei Möglichkeiten: Low-End Android Produkt ala Archos, Tegra2 (PoV, Toshiba) oder Galaxy Tab 1 oder iPad.
Es gibt nichtmal genug vernünftige Produkte auf dem Markt, um soetwas wie Konkurrenz starten zu lassen.

Es gibt keine große Nachfrage solange Preise von 500€ und mehr für ein halbwegs gutes Tablett zu bezahlen sind. Selbst das iPad ist günstiger als einige Android Tabletts. Da die 3.0 Produkte alle auf die gleiche Plattform setzen ist mit einem großen Preiskampf kaum zu rechnen.

Wobei da noch nicht mal erwähnt ist das Android nun mal bei praktisch Null anfängt, also kaum Software und das eher magere Ökosystem (Content) für Tabletts ein viel größerer Nachteil ist als bei Smartphones. Auch daran hat die erste Generation zu leiden. Tegra 2 Produkte.


Das war doch mit Snapdragon (oder wie der SoC hieß) und 2.x genauso. Deswegen fängt auch der frühe Vogel den Wurm. ;)

Omap3 war ebenfalls sehr früh verfügbar. Wie oben schon erwähnt hatten die Hersteller großteils WM Produkte mit Snapdragon SoCs in der Entwicklung. Das war bereits die etablierte Plattform vor Android.



Und das hat genau WAS mit Tegra2 zu tun? Das betrifft genauso auch alle anderen nicht iOS Anbieter.

Die Tabletts sind mit Tegra 2 bestückt und das ist auch der primäre Markt für diesen SoC. Deshalb betrifft es praktisch nur diesen.


Smartphones mit anderen DualCore SoCs sind genauso mangelware. LG, Samsung und dann? Es gibt drei Smartphones, die Tegra2 einsetzen: Atrix, Droid und LG. Und sollte Samsung Tegra2 ebenfalls miteinbeziehen, dann sind es vier High-End Smartphones. Das ist eine ganze Menge.

Eben, ein paar Premium Produkte. Sehr viel mehr Tegra 2 Smartphones als jetzt werden kaum kommen. Die große Masse an (DualCore) Geräten erhält Qualcomm, Samsung, TI..
Dafür genügt übrigens eine sehr simple Logik. Was jetzt noch nicht reif für die Markteinführung ist hat mit sehr hoher Wahrscheinlichkeit keinen Tegra 2.

Fakt ist nun mal das man bei Nvidia zwar den SoC verdammt früh fertig hatte, durch die Verzögerungen bei der OS Entwicklung davon aber sehr viel wieder verloren hat. Und für Smartphones hat man eben nicht so ganz das optimale Produkt.

LovesuckZ
2011-02-17, 00:46:44
Es gibt keine große Nachfrage solange Preise von 500€ und mehr für ein halbwegs gutes Tablett zu bezahlen sind. Selbst das iPad ist günstiger als so einige Android Tabletts.

Das ist ziemlich paradox. Der Smartphone-Markt ist auch hochpreisig und lebt bestens.


Da die 3.0 Produkte alle auf die gleiche Plattform setzen ist mit einem großen Preiskampf kaum zu rechnen.

Gerade deswegen wird es einen Konkurrenz geben. Der Preis ist eine Differenzierungsmaßnahme. Und da nicht jedes Produkt gleichoft verkauft wird, wird irgendwer die Spirale in Gang setzen.

Die Tabletts sind mit Tegra 2 bestückt und das ist auch der primäre Markt für diesen SoC. Deshalb betrifft es praktisch nur diesen.

Klar. Weil die Unternehmen auch statt Android eher Meego, WebOS oder RIM-OS einsetzen würden...
Es spielt überhaupt keine Rolle, wer die Android-Tablets beliefert. Das ist auch kein nVidia-Problem, sondern betrifft, wie erwähnt, alle nicht iOS Produkte.

Eben, ein paar Premium Produkte. Sehr viel mehr Tegra 2 Smartphones als jetzt werden kaum kommen. Die große Masse an (DualCore) Geräten erhält Qualcomm, Samsung, TI.
Dafür genügt übrigens eine sehr simple Logik. Was jetzt noch nicht reif für die Markteinführung ist hat mit sehr hoher Wahrscheinlichkeit keinen Tegra 2.

Hm, die Logik ist irgendwie komisch. Wer heute kein fertiges Design hat, wird von Tegra2 und Konsorten abgehängt werden. Laut nVidia könnten Quad-Core Phones Ende 2011 in den Markt kommen. Wer sein DualCore erst im zweiten Halbjahr vorstellt, wird es verdammt schwer haben, irgendwelche Argumente zu finden. Daher sollte man erstmal abwarten, wieviele DualCore-Designs es am Ende werden.

YfOrU
2011-02-17, 01:08:22
Das ist ziemlich paradox. Der Smartphone-Markt ist auch hochpreisig und lebt bestens.

Paradox ist das treffende Wort. Ohne den Blick einen Millimeter über den Tellerrand zu heben klappt es halt nicht.

1. Smartphones werden großteils über Verträge verkauft.
2. Ein Tablett ersetzt kein Smartphone
3. Anzunehmen das sich jemand einen 2. kompletten Vertrag für ein Tablett holt ist nicht realistisch. Ergo kostet das Tablett weiter einen deutlich spürbaren Betrag aus der Portokasse.


Gerade deswegen wird es einen Konkurrenz geben. Der Preis ist eine Differenzierungsmaßnahme. Und da nicht jedes Produkt gleichoft verkauft wird, wird irgendwer die Spirale in Gang setzen.

Nur komisch das es bei Premium Smartphones nicht funktioniert. Genau in der Liga spielen T2 Tabletts. Hinzu kommt das der wichtigste Vertriebskanal für die Hersteller Mobilfunkprovider heißen wird. Da ist dann Konkurrenzkampf eher ein Fremdwort was die Gerätepreise betrifft.


Klar. Weil die Unternehmen auch statt Android eher Meego, WebOS oder RIM-OS einsetzen würden...
Es spielt überhaupt keine Rolle, wer die Android-Tablets beliefert. Das ist auch kein nVidia-Problem, sondern betrifft, wie erwähnt, alle nicht iOS Produkte.


Das ist Nvidias Marktvolumen und damit sehr wohl ein großes Problem.


Hm, die Logik ist irgendwie komisch. Wer heute kein fertiges Design hat, wird von Tegra2 und Konsorten abgehängt werden. Laut nVidia könnten Quad-Core Phones Ende 2011 in den Markt kommen. Wer sein DualCore erst im zweiten Halbjahr vorstellt, wird es verdammt schwer haben, irgendwelche Argumente zu finden. Daher sollte man erstmal abwarten, wieviele DualCore-Designs es am Ende werden.

Die DC SoCs sind längst vorgestellt. Laut Nvidia können Quad-Core Phones kommen. Vor 28nm kommt da aber in Smartphones realistisch betrachtet nicht wirklich etwas mit messbaren Marktanteil.

Ach ja, die typische Produktserie einer neuen Generation hat pro Hersteller meist um die 4 Geräte (basierend auf einer Plattform). Welches momentan vorgestellte Smartphone mit T2 passt in so eine Serie? Im besten Fall ein einziges.
Die neuen Geräteserien kommen Ende Q2 - Q3. Deshalb war auf der MWC auch nicht viel zu sehen. Prognostiziert sind deshalb auch nur 15% Marktanteil der DC Smartphones für 2011.

Ailuros
2011-02-17, 07:35:29
wenn man 1,5milion stück bestellt heist das noch lange nicht, das man zu einem späteren zeit punkt nicht noch mal bestellt und dann noch einmal und noch einmal....


http://images.anandtech.com/graphs/graph4179/35418.png

immer wider überaschend wie lahhmmmm T2 doch ist hahaha es ist schon traurig das NV mit dem T2 scho seit ca. einem jahr die Messlate stellt und die anderen noch heute nicht wirklich übetreffen! und da ist der T2 3D ja noch nicht mal dabei.... und im August gibt es 3x mehr GPU leistung mit Tegra3 :P

@Ailuros willst du nicht mal deine meinung ändern, ich glaube nur du sieht das so obwohl ich bis heute noch NIE einen benchmark gsehen habe der belegt wie auch so schlecht die T2 GPU ist... ;)

Das dumme mit Dir ist dass Du jedesmal mit Deinen Sticheleien so platt auf die Nase faellst dass es irgendwann mal schon weh tuhen sollte. Ich hab in der Vergangenheit gesagt dass SGX530/540 noch ein fetter Batzen an Leistung steckt in den Treibern.

http://forum.beyond3d.com/showpost.php?p=1524884&postcount=51

Der SGX540@200MHz liegt heute bei 26.8 fps im NexusS in Egypt und bei 46.5 fps in PRO und nicht mehr bei 41.9 fps wie Anand im slide hat da Anand mit dem neuen update noch nicht gebencht hat.

http://images.anandtech.com/graphs/graph4179/35417.png

Hier zum nachschlagen:

http://www.glbenchmark.com/phonedetails.jsp?D=Google+Nexus+S&benchmark=glpro20

Und es liegen noch ca. 30% zusaetzliche Leistung drin die mit dem naechsten DDK update kommen werden. Momentan steckt nur wenig von den Treiber-optimierungen in den heutigen Resultaten und ich sehe OMAP4430/SGX540 an der Spitze von dem Graph. Die GPU im 4440 ist um 25% nochmal schneller getaktet und es wird noch radikaler mit der Frequenz im noch nicht angekuendigten (weiteren) OMAP4.

Wenn auf die heutigen NexusS Egypt 26.8fps noch 30% draufstecke bekomm ich was genau? Und das bei lediglich 200MHz. OMAP4430 ist bei 307MHz und OMAP4440 bei 384MHz.

Das duerfte erstmal reichen fuer die absehbare Zukunft fuer ein Necken an Necken Rennen zwischen SGX540 und ULP GeForce (auch in T3). Die Apple Ankuendigung wird noch im Fruehling kommen mit dem SGX543 MP2. Pro Core und pro Takt ist der 543 zumindest um 50% effizienter als ein 540 und der ganze Spass x2.

Uebrigens nochmal GL Benchmark PRO ist ein ES_1.1 benchmark und Egypt ein ES_2.0 benchmark; dass Orion/Mali400MP4 so brutal im zweiten abkackt liegt vielleicht an der Unmenge an Geometrie die in Egypt benutzt wird.

http://www.anandtech.com/show/4179/ti-omap4-and-lg-optimus-3d-tested

Hier gibt es uebrigens auch ein video vom LG Optimus 3D in GLBenchmark2.0. Nimm mal ein T2 Geraet zur Hand und lass es GLBenchmark2.0 laufen; das erste was ins Auge sticht ist das unendliche z-fighting dass man auch auf Adrenos sehen kann.

Ailuros
2011-02-17, 08:44:53
http://www.xbitlabs.com/news/mobile/display/20110214233422_Asus_Aims_to_Ship_Up_to_Two_Million_Tablet_PCs_This_Year.html

YfOrU
2011-02-17, 13:41:39
http://www.xbitlabs.com/news/mobile/display/20110214233422_Asus_Aims_to_Ship_Up_to_Two_Million_Tablet_PCs_This_Year.html

Das entspricht ungefähr den Zahlen von denen ich ausgehe. 15 - 20 Millionen (non Apple) Tabletts und davon 10 - 15 mit Android 3.0. Mit Blick auf die Verkaufszahlen des (alten) Galaxy Tabs könnte es unter Umständen sogar weniger werden.

Ailuros
2011-02-17, 14:04:58
Das entspricht ungefähr den Zahlen von denen ich ausgehe. 15 - 20 Millionen (non Apple) Tabletts und davon 10 - 15 mit Android 3.0. Mit Blick auf die Verkaufszahlen des (alten) Galaxy Tabs könnte es unter Umständen sogar weniger werden.

Asus tablets sind nicht alle fuer Honeycomb vorgesehen. Das EeeSlate EP121 ist win7, wird aber zugegeben auch am wenigsten von allen 4 Asus tablets verkaufen schon vom Preis her. Von den uebrigen 3 ist es ein tablet mit Qualcomm SoC und 2 mit Tegra2.

YfOrU
2011-02-17, 15:19:56
Stimmt schon, ändert aber nichts daran das praktisch alle mit recht geringen Absätzen kalkulieren.
Die Mehrzahl der Hersteller beschränkt sich auf Android 3.0 (Referenz) und damit fast komplett auf Tegra 2.

Gibt natürlich noch RIM, HP und ein paar Win7 Produkte aber mehr als einstellige Marktanteile sind für diese 2011 recht utopisch.

Wirkliches vertrauen in den "neuen" Markt scheint nicht vorhanden zu sein. Mitmischen will zwar praktisch jeder aber eine überzeugte Produktoffensive sieht anders aus.
Ansonsten würde man deutlich mehr Designs aus eigener Entwicklung sehen und nicht das inovationsarme kopieren der Referenzplattform.

Hugo78
2011-02-17, 15:25:47
Google müsste dafür auch mehr Marketing betreiben, damit dem ØDAU klar wird wo Android 3.0 jetzt besser ist als der Platzhirsch iOS.
Software verkauft HW...

Oder besser noch MS soll sich mal beeilen mit Win8.

fondness
2011-02-17, 15:58:52
Wirkliches vertrauen in den "neuen" Markt scheint nicht vorhanden zu sein. Mitmischen will zwar praktisch jeder aber eine überzeugte Produktoffensive sieht anders aus.
Ansonsten würde man deutlich mehr Designs aus eigener Entwicklung sehen und nicht das inovationsarme kopieren der Referenzplattform.

Wundert mich nicht wirklich. Wer will schon ein Smartphone, wo man damit wirbt das es groß ist? Mehr ist ein solches Tablet im Endeffekt nicht. Klar, Apple kann aus Scheiße Gold machen, aber ansonsten muss sich erstmal zeigen ob es wirklich einen breiten Markt für solche Dinger gibt. IMO sind da so manche Analystenschätzungen deutlich zu optimistisch. Wenn ich mir ein Gerät kaufe, das ich nicht mehr ohne weiteres in der Hosentasche herumtragen kann, dann will ich auch eine ordentliche Tastatur, ergo ein Netbook. So zumindest meine Meinung. Solche Netbooks sind ironischerweise zum Teil auch noch deutlich preiswerter. Man wird sehen wie sich das entwickelt, aber Analysten hätten sich nicht zum ersten male geirrt.

Ich denke auch das Nvidia hier eine taktischen Fehler macht, indem sie zu stark auf Leistung gehen. Ich meine T3 soll als Quad-Core in 40nm kommen - schön, aber wo will man denn den verbauen? In Smartphones wohl kaum mehr, dafür dürfte der Stromverbrauch endgültig zu hoch sein. Wenn der Tabletmarkt nicht die gewünschten Stückzahlen erreicht, kann man nur noch hoffen das man im Notebookmarkt Fuß fasst, da hat man aber erst recht ein Softwareproblem.

Nakai
2011-02-17, 16:45:22
Wirkliches vertrauen in den "neuen" Markt scheint nicht vorhanden zu sein. Mitmischen will zwar praktisch jeder aber eine überzeugte Produktoffensive sieht anders aus.
Ansonsten würde man deutlich mehr Designs aus eigener Entwicklung sehen und nicht das inovationsarme kopieren der Referenzplattform.

Naja, das liegt auch eher an der falschen Ausrichtung der Konkurrenz. Als Apple den Markt betreten hat, war man der Erste. Die Konkurrenz war geschockt, dass der Preis des IPads nicht sooo hoch war, wie angenommen.
Somit war die Erste Gen der Tablets ein totaler Reinfall, da diese für ein ganz anderes Segment ausgerichtet war.
Alle wollen einen Ipad-Ersatz hinlegen, aber keiner hats bis jetzt geschafft.
IMO werden nur RIM und HP(webOS) eine geeignete IPad-Konkurrenz liefern, vor allem aber wegen Android.
Android liefert einfach kein Exklusivitätsfaktor in diesem Markt.

Somit muss die Konkurrenz endlich mal versuchen sich unterm und übern Ipad zu stellen. Eine direkte Konkurrenz kann man nur mit eigener Exklusivität erreichen.


mfg

aylano
2011-02-17, 20:15:31
Wirkliches vertrauen in den "neuen" Markt scheint nicht vorhanden zu sein. Mitmischen will zwar praktisch jeder aber eine überzeugte Produktoffensive sieht anders aus.
Ansonsten würde man deutlich mehr Designs aus eigener Entwicklung sehen und nicht das inovationsarme kopieren der Referenzplattform.
Meiner Meinung nach, läge die Stärke von Android, wenn viele Hersteller am Anfang mit einer Android 3.0 & Tegra 2 Referenz-Plattform den Marktfluten würden um den Preis zu senken.

Android & Tegra 2 würde ich als Mindest-Anforderung sein.

Sich direkt gegen Apple & iPad zu stellen, wäre ein Fehler, da man mit Kundenfreundlichkeit & Kult nicht so schnell rankommt.

So wie es Nakai sagte. Sie sollten sie drüber oder darunter (im Preis) positionieren.
Wobei drüber würde ich (langfristig) nicht viele Marktchancen sehen. Weil wenn man viel Geld ausgibt, dann kann man gleich ein Apple kaufen.
Und die zusätzliche Mehr-Performance ist jetzt/bald eh schon schwer zu nutzen, da ein Tegra 2 - Android ja eh schon kaum/keine Schwächen hat.
(Vergleiche Netbook-Entwicklung)

Im Grunde kann ein jetzig gutes Tablet das, was ein Atom-Netbook nicht kann und vielleicht deshalb momentan so "extrem" beliebt. Und zwar gute Video-&-Multimedia-&-Flash-Fähigkeiten und AFAIK schnelles OS-Booten.
Zusätzlich sind Netbooks IMO momentan auch noch zu schwer um jeden Tag nebenbei/zusätzlich zum Üblichen ohne großen Aufwand mitzunehmen. Da ist ein Gewicht von 800-900g, so wie es Tablets jetzt haben, genau das Richtige Gewicht dafür.

Ich würde den Tablet-Markt noch etwas abwarten, wenn sich der Netbook-Markt wegen Tablet und mit Atom-32nm&Ontario neu positioniert sowie das Tablet von neuen nettem aufregendem Gerät dann zum Alltag wird.

Die Zukunft vom Massen-Tablet würde ich zwischen 150-300 Euro sehen, weil mir schon einige Nutzungsmöglichkeiten einfallen, aber es nicht so wichtig ist um 100 oder 200 Euro auszugeben.

YfOrU
2011-02-17, 20:44:11
Meiner Meinung nach, läge die Stärke von Android, wenn viele Hersteller am Anfang mit einer Android 3.0 & Tegra 2 Referenz-Plattform den Marktfluten würden um den Preis zu senken.

Android & Tegra 2 würde ich als Mindest-Anforderung sein.

Sich direkt gegen Apple & iPad zu stellen, wäre ein Fehler, da man mit Kundenfreundlichkeit & Kult nicht so schnell rankommt.

Eben das wird vorerst nicht passieren. Praktisch alle Hersteller haben Preisbereiche von gut 500€ (wifi) bis rund 700€ (3G) angepeilt.

Ist auch meine Meinung, mit Android Produkten kann man momentan nicht in diesem Preisbereich konkurieren.


Im Grunde kann ein jetzig gutes Tablet das, was ein Atom-Netbook nicht kann und vielleicht deshalb momentan so "extrem" beliebt. Und zwar gute Video-&-Multimedia-&-Flash-Fähigkeiten und AFAIK schnelles OS-Booten.
Zusätzlich sind Netbooks IMO momentan auch noch zu schwer um jeden Tag nebenbei/zusätzlich zum Üblichen ohne großen Aufwand mitzunehmen. Da ist ein Gewicht von 800-900g, so wie es Tablets jetzt haben, genau das Richtige Gewicht dafür.


Jain. Vom Funktionsumfang sieht es ganz ordentlich aus aber es gibt immer noch Schwachstellen. Es fehlt an Office Software für ARM und die Performance ist noch nicht auf Augenhöhe. Wirklich bemerkbar macht sich das zum Beispiel beim Seitenaufbau im Browser. Das schafft auch ein Atom spürbar schneller. Der ist aber auch nicht mehr die Referenz sondern das sind AMD APUs.
Mit knapp 1.2kg im 10.1" ist das keine so unpraktische Lösung (Netbook Beispiel: Toshiba NB550D ab 330€).


Die Zukunft vom Massen-Tablet würde ich zwischen 150-300 Euro sehen, weil mir schon einige Nutzungsmöglichkeiten einfallen, aber es nicht so wichtig ist um 100 oder 200 Euro auszugeben.

Den Preisbereich würde ich für den Massenmarkt sogar eher bis auf 200€ eingrenzen. Also auf etwa 50€ mehr als ein E-Book Reader.

Ungefähr diese Produktform halte ich dann auch fur Massenmarktkompatibel:
http://www.barnesandnoble.com/nookcolor/index.asp
Gibt es natürlich wieder nicht bei uns aber ist eine interessante Umsetzungen auf Basis von Android.

aylano
2011-02-17, 22:59:41
Eben das wird vorerst nicht passieren. Praktisch alle Hersteller haben Preisbereiche von gut 500€ (wifi) bis rund 700€ (3G) angepeilt.

IMO liegt das daran, weil der Massen-Andriod 3.0 & Tegra 2 (oder ARM-äquivalentes) noch nicht angelaufen ist.
Die Produkt-Entwicklungkosten müssen dann ja auch noch auf jedes Geräte aufgelegt werden und wenn man nur wenig Stück verkaufen kann bzw. rechnet, dann sind die Tablets eben etwas teuerer.

http://geizhals.at/eu/a613860.html
Es gibts schon 3G-10,2"-Tegra2-Tablets ab 400$.

Grundsätzlich darf man nicht vergessen, dass es vor einem Jahr noch keinen Tablet & iPAD-Hype gab und die Nachfrage damals noch nicht sah.
Somit sind die ganzen Fertigungsstraßen auch nicht so wirklich auf dieses Produkt ausgerichtet.
Wobei das jetzt kompensiert wurde, weil sich Andriod 3.0 lange verzögert.


Jain. Vom Funktionsumfang sieht es ganz ordentlich aus aber es gibt immer noch Schwachstellen. Es fehlt an Office Software für ARM und die Performance ist noch nicht auf Augenhöhe. Wirklich bemerkbar macht sich das zum Beispiel beim Seitenaufbau im Browser. Das schafft auch ein Atom spürbar schneller. Der ist aber auch nicht mehr die Referenz sondern das sind AMD APUs.

Das bei einem Android 3.0 & Tegra2?

Schlimmer sind K.0. Kriterium, wenn das Video ruckelt oder wenn beim Sürfen der Flash massiv stört.
Für mich waren die Netbook-Anfang-Idle-Akkuzeiten im Schnitt mit 2-4 Stunden viel zu gering. Tablet haltet da AFAIK jetzt viel länger.

Mag sein, dass die Office-Sorftware fehlt. Aber wenn es sie mal gibt, dann brauche ich jetzt nicht ein neues Geräte.

Mehr Performance ist immer net, aber z.B beim Internet-Surfen wird der Performance durch Funkt (W-Lan, HSDPA --> LTE), Festplatte (HDD,SSD) und CPU beschränkt.
D.h. eine schnellere CPU bedeutet nicht automatisch, dass die ganze Mehrperformance im Alltag umgesetzt werden kann. Man glaubt es nicht wie langsam ein Internet sein kann, wenn man eine sehr langsame SSD drin hat.

Ich denke, in meinem Netbook-Fall ist es (abgesehen von Flash & Video) das HSDPA (Ping sowie Laden in höheren Geschwindigkeiten) was ich am meisten Spüre. Zwar merke ich auch, wie bei optimalen Funkverbindungen die CPU limitiert, aber das liegt an der schnellen SSD mit 250mb/s.
Deshalb warte ich mindestens bis LTE und bis dahin gibt es schon die nächste Atom & Ontario Generation.


Mit knapp 1.2kg im 10.1" ist das keine so unpraktische Lösung (Netbook Beispiel: Toshiba NB550D ab 330€).

Meins ist 1,15 kg und noch zu schwer um es im Alltag bedenkenlos jeden Tag mitzunehmen.
Dazu braucht man auch meistens den Stromanschluss.

Meinen 600g Taschenrechner nahm ich damals jeden Tag bedenkenlos mit.
Das optimale liegt oft in der Mitte.

Ailuros
2011-02-18, 08:25:44
Google müsste dafür auch mehr Marketing betreiben, damit dem ØDAU klar wird wo Android 3.0 jetzt besser ist als der Platzhirsch iOS.
Software verkauft HW...

Oder besser noch MS soll sich mal beeilen mit Win8.

YfOrU hat aber schon recht dass das Ganze erst am Anfang ist mit Android und der ganzen Tablet-Geschichte.

Natuerlich verkauft sw die hw so wie Du es meinst, aber der Endverbraucher der dann vor seinem Verkauf ein iOS gegen ein Honeycomb Geraet ausprobiert muss dann auch ueberzeugt werden dass das zweite rundum auch mehr Vorteile hat.

Was jetzt Microsoft betrifft mir persoenlich waere es lieber wenn sie die Finger so viel wie moeglich aus dem embedded Markt lassen.

Wundert mich nicht wirklich. Wer will schon ein Smartphone, wo man damit wirbt das es groß ist? Mehr ist ein solches Tablet im Endeffekt nicht. Klar, Apple kann aus Scheiße Gold machen, aber ansonsten muss sich erstmal zeigen ob es wirklich einen breiten Markt für solche Dinger gibt. IMO sind da so manche Analystenschätzungen deutlich zu optimistisch. Wenn ich mir ein Gerät kaufe, das ich nicht mehr ohne weiteres in der Hosentasche herumtragen kann, dann will ich auch eine ordentliche Tastatur, ergo ein Netbook. So zumindest meine Meinung. Solche Netbooks sind ironischerweise zum Teil auch noch deutlich preiswerter. Man wird sehen wie sich das entwickelt, aber Analysten hätten sich nicht zum ersten male geirrt.

Ich koennte mich persoenlich durchaus vorstellen auf dem Wohnzimmer Sofa mit einem tablet gelegentlich zu browsen als jedesmal zum PC zu rennen. Ja natuerlich ist in dem Sinn ein Luxus, aber ich haette von dem Ding mehr als 500-700 Euro fuer ein high end smart-phone zu bezahlen dass ich persoenlich so oder so nur zum telefonieren und/oder text-messaging brauche und es ist auch ziemlich umstaendlich fuer gelegentliches web-browsing. Weniger umstaendlich als ein smart-phone aber wohl doch immer noch umstaendlicher als alles =/>netbook. Aber genau aus diesem Grund erwarte ich auch dass sich tablets zwischen smart-phones und netbooks platzieren werden.

Ich denke auch das Nvidia hier eine taktischen Fehler macht, indem sie zu stark auf Leistung gehen. Ich meine T3 soll als Quad-Core in 40nm kommen - schön, aber wo will man denn den verbauen? In Smartphones wohl kaum mehr, dafür dürfte der Stromverbrauch endgültig zu hoch sein. Wenn der Tabletmarkt nicht die gewünschten Stückzahlen erreicht, kann man nur noch hoffen das man im Notebookmarkt Fuß fasst, da hat man aber erst recht ein Softwareproblem.

Dass die Leistung auf mobilen Geraeten skaliert ist nicht NV's Verantwortung. Wie jeder andere Konkurrent in diesem Markt folgen sie eigentlich Markt-Tendenzen als dass sie selber ansetzen. In =/>2013 werden sowohl smart-phones als auch tablets auf solche Nivaeus skalieren koennen dass es heute schon fast als ein marketing-technisches Maerchen erscheint.

Der embedded/mobile Markt hat groessere Steigerungs-tendenzen als viele andere Maerkte. Tablets sind noch ziemlich jung als Geraete. Wie dem auch sei erwarte ich persoenlich dass netbooks zunehmend in den notebook Bereich rutschen koennten und tablets sich einfach zwischen smart-phones und netbooks platzieren.

Ich kann durchaus verstehen dass fuer viele ein tablet als fragliche Investition erscheint. Aber unter der Logik koennte ich genauso sagen dass ein netbook dann eine fragliche Investition im Vergleich zu einem notebook ist. Der Endverbraucher der ein high end smart-phone, ein tablet, ein netbook, ein notebook und einen PC hat, uebertreibt auch dann irgendwo mit seiner ziemlich breiten "gadget Sammlung". Der eigentliche Sinn ist dann eben ob man mit X Geraeten das anstellen kann was man wirklich braucht, mit um einiges weniger Geraete.

NVIDIA macht IMO nicht den Fehler die Leistung zu skalieren; am Ende werden sie es vielleicht sogar schaffen dass ihre Konkurrenten mehr Dampf in ihre road-maps legen was man ohnehin schon sehen kann. Mein einziger Einwand ist dass sich NV zu viel auf die CPU Seite und zu wenig auf die GPU Seite ihrer SoCs konzentriert. Schon dass hoechstwahrscheinlich auf T3 wieder kein GPGPU moeglich sein wird, ueberlasst der Konkurrenz eine laengere freie Laufbahn das Ganze zum kickstart zu bringen.

***edit: uebrigens http://www.xbitlabs.com/news/other/display/20110217170315_Nvidia_28nm_Process_Tech_Not_Available_This_Year.html

Dural
2011-02-18, 10:38:47
wie ich schon mal erwähnt habe wäre für mich als neu einsteiger in diesem markt auch viel wichtiger den ersten Dual Core... den ersten Quad Core... auf den Markt zu bringen, das war von NV eine logische und wie man mittlerweilen weis sehr kluge entscheidung. NV hat sich damit eindrucksvoll in dem markt bemerkbar gemacht, mit einer schnelleren GPU wäre dies für NV wohl kaum so möglich gewessen...

und sei mal ehrlich, eine vernüftige CPU basis ist um einiges wichtiger als eine "high end" GPU in einer SoC!

NV wird sich jetzt von Tegra zu Tegra auch gerade bei der GPU steigern, wie ich das schon mal erwähnt habe und siehe da Tegra 3 kommt jetzt mit 2x CPU UND 3x GPU Leistung, also eine höhere steigerung der GPU im vergleich zur CPU Leistung!


NV ist bis jetzt mit Tegra auf einem guten weg, das einzige was mich überrascht ist doch das so ein Tegra 3 noch in 40nm kommt, ich habe da echte zweifel ob das für den Akku gut ist... Dann kommen die ganzen Kidis und mekern das die NV produkte zu viel verbrauchen und sind zu dumm um zu begreifen das leistung nicht aus dem nichts kommt... :rolleyes:

Nakai
2011-02-18, 13:43:55
Tegra "Kal El" system-on-chip is based on four Cortex-A9 application cores, will feature a GeForce graphics processor with twelve stream processors and will have a new display and video engines capable of supporting Blu-ray disc video playback and stereo-3D graphics output. Other capabilities, clock-speeds, power consumption and die size of the novelty are not known previously.

Die Zählweise der "stream processors" finde ich höchst interessant. Wie viele von denen hat den T2, laut deren Zählweise?
T2 hat ja 2 Vertexshader und 2 Pixelshader.

NV ist bis jetzt mit Tegra auf einem guten weg, das einzige was mich überrascht ist doch das so ein Tegra 3 noch in 40nm kommt, ich habe da echte zweifel ob das für den Akku gut ist... Dann kommen die ganzen Kidis und mekern das die NV produkte zu viel verbrauchen und sind zu dumm um zu begreifen das leistung nicht aus dem nichts kommt...

Damit wäre "T3" kaum noch für Smartphones einsetzbar. Für Tablets würde es ohne Probleme funktionieren, aber noch ist der Tabletmarkt(außerhalb vom Applebereich) erst noch am wachsen.
T3 könnte auch gut in Smartbooks eingesetzt werden.
Aber mal abwarten...


mfg

Ailuros
2011-02-18, 14:13:44
Die Zählweise der "stream processors" finde ich höchst interessant. Wie viele von denen hat den T2, laut deren Zählweise?
T2 hat ja 2 Vertexshader und 2 Pixelshader.

T2 = 8
T3 = 12

Ergo 50% mehr bei hoeherer Frequenz.

Das Problem hier ist eigentlich dass 4+4 im T2 auch keinen besonderen Sinn machen. Ich hab den Durchblick hier verloren mit dem Marketing-Mist. Bis jetzt wusste ich dass ULP/T2 aus 2 Vec4 PS und 2 Vec4 VS besteht. So wie es NV anzeigt macht ein einzelner Vec4 VS ueberhaupt keinen Sinn, davon mal abgesehen dass 1 Vec4 PS nur laecherliche 1.92GFLOPs/s bedeutet.

Bei 12 wird es noch heikler da 6+6 einen ziemlich merkwuerigen setup bedeuten. Eine alternative These waere 8 PS + 4 VS, aber mit in so einem Fall koennte pixel shading problematisch werden bei grossen Dreiecken.

Insgesamt klingt das Ganze nach Marketing-gefusel das mit Absicht so verwirrend praesentiert wird. Ich halte mich nur daran dass ULP/T3 im Vergleich zu ULP/T2 50% mehr Einheiten hat.

wie ich schon mal erwähnt habe wäre für mich als neu einsteiger in diesem markt auch viel wichtiger den ersten Dual Core... den ersten Quad Core... auf den Markt zu bringen, das war von NV eine logische und wie man mittlerweilen weis sehr kluge entscheidung. NV hat sich damit eindrucksvoll in dem markt bemerkbar gemacht, mit einer schnelleren GPU wäre dies für NV wohl kaum so möglich gewessen...

Tja von Deiner Perspektive sicher. Selbst wenn es um 180 Grad anders waere wuerdest Du es immer noch als eine "tolle Idee" empfinden.

und sei mal ehrlich, eine vernüftige CPU basis ist um einiges wichtiger als eine "high end" GPU in einer SoC!

Kommt ganz drauf worauf die sw bzw. das OS seine Resourcen verteilt. Kann sein dass Du es verpasst hast, aber schau Dir mal etwas genauer an was Honeycomb genau mit sich bringt.

Von GPGPU schon gar nicht die Rede. Und nein ich werde das gleiche Zeug nicht ewig wiederkauen.

NV wird sich jetzt von Tegra zu Tegra auch gerade bei der GPU steigern, wie ich das schon mal erwähnt habe und siehe da Tegra 3 kommt jetzt mit 2x CPU UND 3x GPU Leistung, also eine höhere steigerung der GPU im vergleich zur CPU Leistung!

Wenn sie die ULP GF auf 400MHz takten dann schon. Es ist aber trotz allem eben nicht gut genug wenn bei den meisten anderen konkurrierenden Loesung ein zumindest 5x Mal so grosser Leistungszuschuss von der GPU Seite alleine kommt. Und dieses ist sogar IHV neutral da selbst Vivante's GPU IP im iMX6 von Freescale auf solche Hoehen steigen wird.

NV ist bis jetzt mit Tegra auf einem guten weg, das einzige was mich überrascht ist doch das so ein Tegra 3 noch in 40nm kommt, ich habe da echte zweifel ob das für den Akku gut ist... Dann kommen die ganzen Kidis und mekern das die NV produkte zu viel verbrauchen und sind zu dumm um zu begreifen das leistung nicht aus dem nichts kommt... :rolleyes:

Ich hoffe Du behaelst den Zusammenhang zwischen dem was Du in jedem Post schreibst denn der vorige zu diesem Paragraph hat schon so manchen Wiederspruch. Anstatt den gleichen ausgelatschten Mist nochmal aufzublaehen waere eben eine effizientere Architektur als dass was sich von den NV slides verdaechtigen laesst nicht nur angebrachter sondern haette auch um einiges weniger Strom verdonnert bei mehr Leistung. Die pixel shader pipeline mag zwar ueber branching faehig sein, aber mit ihrer FP20 Praezision liegt sie gerade noch ein Stueck ueber NV3x. Wie haetten im Gegensatz skalare USC ALUs a la G8x/9x ausgesehen und noch besser auf hot clock?

Und ja natuerlich werde ich wie stets den Anstand haben mich oeffentlich zu korrigieren falls sie doch etwas radikal an der GPU pipeline geaendert haben, aber weder der Zeitdruck noch ihre eigenen Kal El slides deuten darauf. Im Gegenfall haetten sie auch damit herumtrompetiert oder zumindest Anand korrigiert.

40nm heisst Zeitdruck und eine schnelle Aenderung der roadmap innerhalb der zeitlichen Moeglichkeiten und ist auch ein indirektes Zugestaendnis fuer 28nm generell dass es mit diesem sowieso nicht besonders viel dieses Jahr wird egal was TSMC bloedes versprochen hat:

http://www.xbitlabs.com/news/other/display/20110217170315_Nvidia_28nm_Process_Tech_Not_Available_This_Year.html

Nakai
2011-02-18, 14:37:04
T2 = 8
T3 = 12


Dann kann man davon ausgehen, dass Kal'el doppelt soviele TMUs und Pixelshader hat.

as Problem hier ist eigentlich dass 4+4 im T2 auch keinen besonderen Sinn machen. Ich hab den Durchblick hier verloren mit dem Marketing-Mist. Bis jetzt wusste ich dass ULP/T2 aus 2 Vec4 PS und 2 Vec4 VS besteht. So wie es NV anzeigt macht ein einzelner Vec4 VS ueberhaupt keinen Sinn, davon mal abgesehen dass 1 Vec4 PS nur laecherliche 1.92GFLOPs/s bedeutet.

Falls die Einheiten zu 2+2 oder 3+1 splittbar wären, dann könnte man diese Zählweise irgendwie nachzuvollziehen.

T1 hatte nur einen VS und zwei PS. Ist nur das doppelte bei höherem Takt.

T Kal'el wird ein interessanter Zwischenschritt zum wahren T3. T3 wird dann wohl nur eine GPU-Aufwertung haben, außer es hat sich deutlich mehr in der Pipeline geändert(CortexA15?).

Wenn sie die ULP GF auf 400MHz takten dann schon. Es ist aber trotz allem eben nicht gut genug wenn bei den meisten anderen konkurrierenden Loesung ein zumindest 5x Mal so grosser Leistungszuschuss von der GPU Seite alleine kommt. Und dieses ist sogar IHV neutral da selbst Vivante's GPU IP im iMX6 von Freescale auf solche Hoehen steigen wird.

Naja so schlecht ist die Geforce ULP im T2 auch wieder nicht. Für einen Neueinsteiger (solang is NV auch noch nicht auf den Markt) schlägt man sich nicht schlecht. Aber NV die Lorbeeren wegen der starken CPU-Leistung zu geben ist sehr gewagt, sie haben ja nichtmal wirklich Hand an der CPU angelegt. Da wo NV als Grafikspezialist eigentlich auftrumpfen sollte, hat man es nicht geschafft das eigene KnowHow richtig umzusetzen. Das muss sich in Zukunft ändern.

T2 ist aber dennoch kein Fail.



mfg

Ailuros
2011-02-18, 14:59:34
Dann kann man davon ausgehen, dass Kal'el doppelt soviele TMUs und Pixelshader hat.

Ist auch nicht garantiert. Beim naechsten Schub an embedded GPUs sollte Dich eine 4:1 ALU:TMU Relation nicht ueberraschen.

Falls die Einheiten zu 2+2 oder 3+1 splittbar wären, dann könnte man diese Zählweise irgendwie nachzuvollziehen.

T1 hatte nur einen VS und zwei PS. Ist nur das doppelte bei höherem Takt.

Der Unterschied zwischen der T1 und T2 ULP ist lediglich die Frequenz (doppelt so hoch in T2).

T Kal'el wird ein interessanter Zwischenschritt zum wahren T3. T3 wird dann wohl nur eine GPU-Aufwertung haben, außer es hat sich deutlich mehr in der Pipeline geändert(CortexA15?).

Nein T3 ist 4*A9.

Naja so schlecht ist die Geforce ULP im T2 auch wieder nicht. Für einen Neueinsteiger (solang is NV auch noch nicht auf den Markt) schlägt man sich nicht schlecht. Aber NV die Lorbeeren wegen der starken CPU-Leistung zu geben ist sehr gewagt, sie haben ja nichtmal wirklich Hand an der CPU angelegt. Da wo NV als Grafikspezialist eigentlich auftrumpfen sollte, hat man es nicht geschafft das eigene KnowHow richtig umzusetzen. Das muss sich in Zukunft ändern.

T2 ist aber dennoch kein Fail.
mfg

Von einem Fail war nie die Rede. Wenn Du Mali400MP4 im GalaxyS2 gegen T2 vergleichst in GLBenchmark2.0 Egypt bricht der erste ziemlich radikal ein. Ich gehe immer noch von 2VS auf T2 aus und da steht eben 2*240MHz gegen 1*275MHz (Mali400) da. Noch kommt dazu dass der ULP GeForce ein Riesen-cache zur Verfuegung steht und es nicht allzu schwer sein sollte es ueber diese in einer CPU Einheit teilweise auszulagern. Solche Turnereien sind alles andere als neu fuer jemand wie NVIDIA und da fehlt eben wohl anderen wie Mali die Erfahrung dazu. Und ja es ist nicht nur ein "Verdacht" aber ich stelle es auch nicht als eine Fakte in den Raum, da es nur von einem Entwickler kommt.

Aber wenn man schon daran denken muss dass man X Datenstrom vielleicht auf der CPU auslagern koennte anstatt alles auf der GPU zu behalten und auch noch mitberechnet wo man heutzutage auf OSs wie Honeycomb eine GPU benutzen koennte (oder generell jegliches andere computing orientierte OS) wird das Ganz noch fraglicher.

Eine CPU hat stets niedrigen Parallelismus und hohe Frequenzen; fuer die Aufgaben wo es wirklich ein sinnvolles Dilemma zwischen CPU und GPU gibt, ist der Stromverbrauch im zweiten Fall radikal niedriger.

Label
2011-02-18, 17:28:28
Der Unterschied zwischen der T1 und T2 ULP ist lediglich die Frequenz (doppelt so hoch in T2).
Wieviele Kerne hatte eigentlich der ARM11 (http://en.wikipedia.org/wiki/Tegra#Tegra_APX_series) des Tegra 1 ?

Ailuros
2011-02-18, 20:10:41
Wieviele Kerne hatte eigentlich der ARM11 (http://en.wikipedia.org/wiki/Tegra#Tegra_APX_series) des Tegra 1 ?

Einen CPU core. Hat aber nichts mit dem Zitat oben zu tun da ich die GPU (ULP GF) meinte.

***edit: der Trottel der nach der neuen roadmap die zukuenftigen Tegras hinzugefuegt hat bei wikipedia, sollte wissen dass Nx Mal die SoC Leistung nichts mit Nx Mal GPU Leistung zu tun hat.

Uebrigens Fudo steht ziemlich gut zu NV:

http://www.fudzilla.com/processors/item/21870-nvidia-tegra-stark-100x-faster-than-tegra-2

Nvidia (Michael Rayfield a general manager of Tegra division) now claims the following "What on earth can be done with nearly 75x improvement in performance over Tegra 2 that Stark will provide in 2014?"

I guess that he should talk to the guys who make this graph as it indicates close to 100 times performance not 75X.

Koennen sich die Kerle innerhalb NV einig werden? :D

hell_bird
2011-02-18, 21:17:08
Koennen sich die Kerle innerhalb NV einig werden? :D
schon mal ne logarithmische Skala gesehen? Da passt 75x ganz gut zum Bild

http://www.elektronikinfo.de/techpic/audio/logpapier.gif

LovesuckZ
2011-02-18, 23:07:56
Wenn sie die ULP GF auf 400MHz takten dann schon. Es ist aber trotz allem eben nicht gut genug wenn bei den meisten anderen konkurrierenden Loesung ein zumindest 5x Mal so grosser Leistungszuschuss von der GPU Seite alleine kommt. Und dieses ist sogar IHV neutral da selbst Vivante's GPU IP im iMX6 von Freescale auf solche Hoehen steigen wird.

Welche Konkurrenz hat denn schon neue Chips für das Jahr 2011 in Planung? Sollte Tegra3 ab August in Tablets erhältlich sein, dann hat nVidia die Leistung ebenfalls deutlich gesteigert.


40nm heisst Zeitdruck und eine schnelle Aenderung der roadmap innerhalb der zeitlichen Moeglichkeiten und ist auch ein indirektes Zugestaendnis fuer 28nm generell dass es mit diesem sowieso nicht besonders viel dieses Jahr wird egal was TSMC bloedes versprochen hat:


Zeitdruck? Hä? 28nm war nicht fertig. Statt also auf 28nm zu warten, wird man nun einen weiteren 40nm Chip bringen. Damit wird man wohl noch vor Sonys NGP auf dem Markt sein. Die Konkurrenz wird zu selben zeit nur DualCore anbieten können, die neben der CPU-Leistung auch bzgl. der GPU im Nachteil sein könnten.
nVidia ist hier sehr aggressiv. Das ist kein "Zeitdruck". Auf der MWC schon lauffähige Samples zu zeigen, ist viel mehr zuversicht.

/edit: Sony im Herbst mit einem Tegra2-Tablet? (http://www.engadget.com/2011/02/16/exclusive-sony-s1-brings-qriocity-to-9-4-inch-honeycomb-table/)

Label
2011-02-18, 23:14:06
schon mal ne logarithmische Skala gesehen? Da passt 75x ganz gut zum Bild

http://www.elektronikinfo.de/techpic/audio/logpapier.gif

Das Ding mit der logarithmische Skala überleg ich mir auch schon ne Weile, denn die Einordnung sagt, dass Kal-El nur 3x so schnell wie Tegra 2 ist...
Die korrekte Einordnung hätte aber wohl in der Marketing-Folie nicht so gut ausgesehen...

@Ailuros
Einen CPU core
Danke, war ja eine ernst gemeinte Frage. MPCore klingt nach mehr als einen Kern...

Ailuros
2011-02-19, 09:30:19
Welche Konkurrenz hat denn schon neue Chips für das Jahr 2011 in Planung? Sollte Tegra3 ab August in Tablets erhältlich sein, dann hat nVidia die Leistung ebenfalls deutlich gesteigert.

Apple "A5" und nicht in Planung sondern fast am Ende der Produktion der SoCs (2*A9, SGX543 MP2)

TI OMAP4440 (1.5GHz 2*A9m SGX540@385MHz)

Intel Medfield....

soll ich weitermachen? Allein Apple A5 deckt die Antwort schon.

Zeitdruck? Hä? 28nm war nicht fertig. Statt also auf 28nm zu warten, wird man nun einen weiteren 40nm Chip bringen. Damit wird man wohl noch vor Sonys NGP auf dem Markt sein. Die Konkurrenz wird zu selben zeit nur DualCore anbieten können, die neben der CPU-Leistung auch bzgl. der GPU im Nachteil sein könnten.
nVidia ist hier sehr aggressiv. Das ist kein "Zeitdruck". Auf der MWC schon lauffähige Samples zu zeigen, ist viel mehr zuversicht.

Ich bin mir relativ sicher dass ein Aenderung der roadmap gab da T3 nicht mit einem ULP GF/T2 revamp geplant war sondern mit skalaren GF9 aehnlichen ALUs.

Ob die GPUs im Nachteil sein werden siehe oben. Mit 50% mehr Einheiten und hoeheren Frequenzen sollte T3 ULP GF froh sein wenn sie sich selbst OMAP4430 langfristig die Brust bieten kann.

Und was soll der alberne Vergleich mit SONY NGP ueberhaupt? Erstens ist NGP ein handheld Design und hat so oder so einen Vorsprung dank low level API und zweitens denk mal nach wie viele T3 ULP GFs man aufeinander pappen muesste um die SGX543 MP4+ Leistung zu erreichen.

/edit: Sony im Herbst mit einem Tegra2-Tablet? (http://www.engadget.com/2011/02/16/exclusive-sony-s1-brings-qriocity-to-9-4-inch-honeycomb-table/)

Ja zumindest von dem was ich hoerte. Aber riecht seitens SONY nach einem weiteren low level deal wie bei Samsung. Wenn die Hintergruend-geruechte stimmen sollte sind SONY's Plaene um einiges komplizierter als sich viele vorstellen koennten.

Wie dem auch sei es wird dabei bleiben dass alle grossen Hersteller stets von mehr als nur einer Quelle SoCs einkaufen werden.

In der Zwischenzeit food for thought: http://www.xbitlabs.com/news/mobile/display/20110217101912_Tablets_Need_to_Get_into_200_250_Range_to_Get_Popular_Analyst.htm l

fondness
2011-02-19, 10:11:09
Die Konkurrenz wird zu selben zeit nur DualCore anbieten können, die neben der CPU-Leistung auch bzgl. der GPU im Nachteil sein könnten.


Adreno is basically the Imageon mobile GPU, previously owned by ATI (AMD) and acquired by Qualcomm for a lousy $65 million. Adreno, or Imageon is something that will help Qualcomm to stay in the graphics game.

Qualcomm claims that its soon to ship dual-core Scorpion CPU powered by Adreno 220 graphics offers about two times more GPU performance than Tegra 2. Adreno 220 powered dual-core Scorpion chips should end up in 60 devices in the first half of 2011, something that will put a lot of pressure of Nvidia’s graphically slower Tegra 2.

http://www.fudzilla.com/processors/item/21879-adreno-220-is-2x-faster-than-tegra

Ailuros
2011-02-19, 10:29:17
http://www.fudzilla.com/processors/item/21879-adreno-220-is-2x-faster-than-tegra

Jein zum 2x Mal; eher wohl bis zu 2x Mal und dann eher im reinen arithmetischen Bereich da 220 ein 2 TMU Design ist.

Mancko
2011-02-19, 14:44:48
naja doch noch 40nm... hätte mich auch stark verwundert wenn die schon dieses jahr mit 28nm auf den markt gekommen wäre... ob das so schlau ist so eine SoC in 40nm...


Warum nicht? 40nm hat einen guten Reifegrad. Ich bezweifel das 28nm den von Anfang an hat. Da wird es vielmehr auch wieder Probleme geben. Shrinken kann Nvidia dann ja immer noch. Fährt man halt zweigleisig. Das wird auch in 40nm gehen und ich denke, dass sie in der Architektur auch noch Potential haben um Strom zu sparen. Da gibt es sicher noch einige technische Möglichkeiten. Im Endeffekt haben alle anderen das Fertigungsproblem ja auch. Insofern erstmal kein Nachteil. Denen wird wichtiger sein als erster den Markteintritt hinzubekommen und ansonsten werden sie sicher auch noch Tegra2 weiterverkaufen.

Ailuros
2011-02-19, 14:54:22
http://techreport.com/discussions.x/20451

LovesuckZ
2011-02-19, 15:06:34
Warum nicht? 40nm hat einen guten Reifegrad. Ich bezweifel das 28nm den von Anfang an hat. Da wird es vielmehr auch wieder Probleme geben. Shrinken kann Nvidia dann ja immer noch. Fährt man halt zweigleisig. Das wird auch in 40nm gehen und ich denke, dass sie in der Architektur auch noch Potential haben um Strom zu sparen. Da gibt es sicher noch einige technische Möglichkeiten. Im Endeffekt haben alle anderen das Fertigungsproblem ja auch. Insofern erstmal kein Nachteil. Denen wird wichtiger sein als erster den Markteintritt hinzubekommen und ansonsten werden sie sicher auch noch Tegra2 weiterverkaufen.

Siehe dazu auch Huang:


Well, 28 nanometer is not available yet, so it's not an option this year. On the other hand, 40 nanometers is actually more economical than 28 nanometers this year and we’ll likely expect it to be so until about first half, maybe even the midpoint of next year. So 40 nanometers, absolutely the right approach. It is the most mature, and we can go into very, very high production, very, very quickly because the yields are so great.
http://seekingalpha.com/article/253357-nvidia-s-ceo-discusses-q4-2011-results-earnings-call-transcript?part=qanda

Dazu kommt, dass nVidia schon angekündigt hat, dass Tegra3 deutlich aggressiver bei dem Stromspartechniken vorgehen wird.

Ailuros
2011-02-19, 15:58:37
Dazu kommt, dass nVidia schon angekündigt hat, dass Tegra3 deutlich aggressiver bei dem Stromspartechniken vorgehen wird.

Es heisst wohl eher dass sie das dazugefuegt haben welches ihnen im Vergleich zur Konkurrenz fehlte.

dildo4u
2011-02-19, 16:07:10
http://techreport.com/discussions.x/20451
Immernoch der Hammer imo damit lässt man jetzt schon Atom weit hinter sich.
Könnte das ca Fusion Level sein bei wesentlich weniger Stromverbrauch?

fondness
2011-02-19, 16:24:48
Immernoch der Hammer imo damit lässt man jetzt schon Atom weit hinter sich.
Könnte das ca Fusion Level sein bei wesentlich weniger Stromverbrauch?

Wenn man sich etwas schön reden will, indem man vier gegen zwei Kerne bei massivem Multithreading vergleicht, noch dazu bei einem wenig aussagekräftigem Coremark-Wert, vielleicht. In der Realität nicht mal annähernd.

Ailuros
2011-02-19, 16:28:29
Immernoch der Hammer imo damit lässt man jetzt schon Atom weit hinter sich.

Intel hat kein Problem mit ihrer hw per se. Ich stimme zwar mit vielem im folgenden nicht ueberein aber Charlie hat selten so viele gute Punkte in einen einzigen Artikel geschafft:

http://www.semiaccurate.com/2011/02/15/atom-dead-strangled-slowly-intel/

Könnte das ca Fusion Level sein bei wesentlich weniger Stromverbrauch?

Fusion ist kein guter Vergleich da diese nie fuer embedded ausgelegt waren. Wenn es aber einen C50 geben wuerden der miliWatts und nicht Watts verbrauchen wuerde, waeren die CPUs womoeglich vergleichbar und die GPU wuerde T3 ULP/GF ziemlich schoen den Hintern versohlen.

C50/GPU@280MHz wird in einigen Stellen ueberhohlt vom SGX543 MP4+@200MHz des NGP. Beide haben 8 TMUs, das erste 80 und das zweite 64 SPs.

Apple kommt im April mit quasi der Haelfte vom letzteren, oder etwas dass sich in <DX11 Spielen mit einem hypothetischen APU mit einer 40SP GPU/4TMU von AMD sich schlagen koennte.

Die T3 ULP/GF soll insgesamt 12 Einheiten haben fuer PS und VS und hier werden natuerlich die lanes von den Vec4 ALUs gezaehlt und nicht ALUs als ALUs. Anders entweder 6 oder 8 "SPs" obwohl die Dinger sowieso nicht den Titel "stream prozessoren" verdienen.

Ausser Du willst nicht SoC gegen SoC vergleichen sondern nur CPU gegen CPU. Im Gegenfall liegt der kleinste Fusion insgesamt schon ein paar Jahre auf NV's roadmap im voraus.

dildo4u
2011-02-19, 16:38:41
Intel hat kein Problem mit ihrer hw per se. Ich stimme zwar mit vielem im folgenden nicht ueberein aber Charlie hat selten so viele gute Punkte in einen einzigen Artikel geschafft:

http://www.semiaccurate.com/2011/02/15/atom-dead-strangled-slowly-intel/



Fusion ist kein guter Vergleich da diese nie fuer embedded ausgelegt waren. Wenn es aber einen C50 geben wuerden der miliWatts und nicht Watts verbrauchen wuerde, waeren die CPUs womoeglich vergleichbar und die GPU wuerde T3 ULP/GF ziemlich schoen den Hintern versohlen.

C50/GPU@280MHz wird in einigen Stellen ueberhohlt vom SGX543 MP4+@200MHz des NGP. Beide haben 8 TMUs, das erste 80 und das zweite 64 SPs.

Apple kommt im April mit quasi der Haelfte vom letzteren, oder etwas dass sich in <DX11 Spielen mit einem hypothetischen APU mit einer 40SP GPU/4TMU von AMD sich schlagen koennte.

Die T3 ULP/GF soll insgesamt 12 Einheiten haben fuer PS und VS und hier werden natuerlich die lanes von den Vec4 ALUs gezaehlt und nicht ALUs als ALUs. Anders entweder 6 oder 8 "SPs" obwohl die Dinger sowieso nicht den Titel "stream prozessoren" verdienen.

Ausser Du willst nicht SoC gegen SoC vergleichen sondern nur CPU gegen CPU. Im Gegenfall liegt der kleinste Fusion insgesamt schon ein paar Jahre auf NV's roadmap im voraus.
Ich hatte mir bei NV halt eher sorgen um die CPU Power gemacht,die GPU Performance wird kein Problem sein,da AMD im Bereich Smartphone/Tabelt SOC nich mitmischt.

Ailuros
2011-02-20, 11:03:08
Ich hatte mir bei NV halt eher sorgen um die CPU Power gemacht,die GPU Performance wird kein Problem sein,da AMD im Bereich Smartphone/Tabelt SOC nich mitmischt.

Ein quad A9 wird ziemlich stark sein fuer zukuenftige Tablets, aber smart-phone deals selbst fuer T3 (AP30) werden wohl eher in Richtung dual A9 sein. Wieso soll die GPU Performance kein Problem sein? Weil NVIDIA draufsteht?

TheGoD
2011-02-20, 18:43:12
Was in eurer Dislussion bezüglich der aktuellen und zukünftigen SOC's bisher komplett unterging ist die deutlich überlegene Flashperformance von Tegra 2. Diese dürfte für eonen Grossteil der Endkunden zur Zeit deutlich relevanter sein als die 3d-Leistung oder theoretische Werte unter massiv multithreaded Benchmarks!

Grade auf einem Tablet möchte man sicherlich nicht auf 720p-Videos aus Flashquellen verzichten wollen.

dildo4u
2011-02-20, 18:56:08
Ein quad A9 wird ziemlich stark sein fuer zukuenftige Tablets, aber smart-phone deals selbst fuer T3 (AP30) werden wohl eher in Richtung dual A9 sein. Wieso soll die GPU Performance kein Problem sein? Weil NVIDIA draufsteht?
T3 wird wohl 2011 nich überboten und ich glaube das wenn NV auf 28nm geht, die GPU auf eine Unified Shader Architektur umgestellt wird,DX10.1 oder DX11 untersützt wird und in dem Bereich hat die Konkurrenz keine Chance mehr und das auf Jahre.(Siehe Intel's IGP)

LovesuckZ
2011-02-20, 19:19:30
Was in eurer Dislussion bezüglich der aktuellen und zukünftigen SOC's bisher komplett unterging ist die deutlich überlegene Flashperformance von Tegra 2. Diese dürfte für eonen Grossteil der Endkunden zur Zeit deutlich relevanter sein als die 3d-Leistung oder theoretische Werte unter massiv multithreaded Benchmarks!

Grade auf einem Tablet möchte man sicherlich nicht auf 720p-Videos aus Flashquellen verzichten wollen.

Ich gehe noch viel weiter und behaupte: Grafikleistung spielt nur eine untergeordnete Rolle.
Klar, man kann sie für Marketing verwenden, aber aufgrund der eingeschränkten Bedienungsmöglichkeiten sind doch eher Casual-Games gefragt. Und dort spielt es kaum eine Rolle, wieviele Lichter und Dreiecke pro Sekunde gerendert werden können.
Viel wichtiger ist die Prozessor-, Bildaufnahme- und Videoleistung. Wer hier stark auftritt, wird auch einen realen Vorteil haben.

fondness
2011-02-20, 20:43:56
Ich gehe noch viel weiter und behaupte: Grafikleistung spielt nur eine untergeordnete Rolle.
Klar, man kann sie für Marketing verwenden, aber aufgrund der eingeschränkten Bedienungsmöglichkeiten sind doch eher Casual-Games gefragt. Und dort spielt es kaum eine Rolle, wieviele Lichter und Dreiecke pro Sekunde gerendert werden können.
Viel wichtiger ist die Prozessor-, Bildaufnahme- und Videoleistung. Wer hier stark auftritt, wird auch einen realen Vorteil haben.

Sehe ich auch so. Für mich wäre die Spieleleistung völlig gleichgültig, wenn man daraus nicht gerade eine Spielekonsole baut. Wer spielt schon auf dem Handy?

=Floi=
2011-02-20, 21:39:16
ich halte dsgegen. nicht umsonst steigt der grafikteil ebenfalls rasannt und beim ip4 sieht man ja den erforg an der strategie.
es gibt noch genug anwendungen, welche auch eine hohe grafikleistung brauchen. google maps zB.

Nakai
2011-02-20, 22:51:44
T3 wird wohl 2011 nich überboten und ich glaube das wenn NV auf 28nm geht, die GPU auf eine Unified Shader Architektur umgestellt wird,DX10.1 oder DX11 untersützt wird und in dem Bereich hat die Konkurrenz keine Chance mehr und das auf Jahre.(Siehe Intel's IGP)

Falls er 2011 noch auf dem Markt kommt. Bei SOCs ist das immer so eine Sache. Der Erste Snapdragon zum Beispiel ging H4 2008 in die Produktion. Bis die ersten Smartphones mit Snapdragon auf den Markt schlugen wars schon Ende 2009.
Produktion != Markteinführung

ich halte dsgegen. nicht umsonst steigt der grafikteil ebenfalls rasannt und beim ip4 sieht man ja den erforg an der strategie.
es gibt noch genug anwendungen, welche auch eine hohe grafikleistung brauchen. google maps zB.

Ja und Nein.
3D-Grafikleistung wird in Zukunft bestimmt nicht weniger wichtig werden. Es wäre für einen Hersteller fatal eine veraltete und langsam Grafiklösung in ihren SOC zu implementieren.


mfg

LovesuckZ
2011-02-20, 22:58:04
Falls er 2011 noch auf dem Markt kommt. Bei SOCs ist das immer so eine Sache. Der Erste Snapdragon zum Beispiel ging H4 2008 in die Produktion. Bis die ersten Smartphones mit Snapdragon auf den Markt schlugen wars schon Ende 2009.
Produktion != Markteinführung

nVidia erwartet Tablets ab August und Smartphones zum Ende des Jahres. Das wurde so auch nochmal ausdrücklich in der CC erwähnt.

Nakai
2011-02-20, 23:26:10
nVidia erwartet Tablets ab August und Smartphones zum Ende des Jahres. Das wurde so auch nochmal ausdrücklich in der CC erwähnt.

Es ist schwierig Prognosen von Herstellern zu bewerten.

Ich hoffe, dass man die Probleme die T2 hatte, nicht bei Kal-El haben wird(da bin ich relativ optimistisch). Damit würde man, bei zeitiger Auslieferung, mit 4 Cortex A9 das absolute Highend stellen.

Also bis Aufgust+ abwarten.



mfg

Ailuros
2011-02-21, 07:31:20
T3 wird wohl 2011 nich überboten und ich glaube das wenn NV auf 28nm geht, die GPU auf eine Unified Shader Architektur umgestellt wird,DX10.1 oder DX11 untersützt wird und in dem Bereich hat die Konkurrenz keine Chance mehr und das auf Jahre.(Siehe Intel's IGP)

Nimm bloss kein Gift drauf, ausser natuerlich Deine Perspektive ist dass die CPU das alpha und omega in einem SoC ist. Natuerlich bringt NV USC ALUs in T4 (die eigentlich schon fuer T3 angeschlagen war) nur wird sie sich nicht ueberhalb dem GF9 Nivaeu bewegen.

Weiter unten ein TI Werbungs-video fuer den 28nm OMAP5. Wenn TI OMAP4430 (SGX540@307MHz) als Massstab nimmt sind die 5x Mal so viel Grafikleistung keine besondere Uebertreibung, da OMAP5 einen SGX543 MP4 enthaelt; pro core und pro Takt ist ein 543 um die 50% effizienter und das Ganze mal 4x cores. In SPs umgerechnet entspricht solch ein Gespann 64SPs die mit zero overhead sowohl 3D als auch GPGPU parallel bearbeiten koennen und der ganze Spass mit 8 TMUs. Hier gibt es dann "normale" Fuellraten und S3D Fuellraten die typisch der Haelfte der normalen entsprechen.

Ich gehe noch viel weiter und behaupte: Grafikleistung spielt nur eine untergeordnete Rolle.
Klar, man kann sie für Marketing verwenden, aber aufgrund der eingeschränkten Bedienungsmöglichkeiten sind doch eher Casual-Games gefragt. Und dort spielt es kaum eine Rolle, wieviele Lichter und Dreiecke pro Sekunde gerendert werden können.
Viel wichtiger ist die Prozessor-, Bildaufnahme- und Videoleistung. Wer hier stark auftritt, wird auch einen realen Vorteil haben.

http://www.youtube.com/watch?v=wo0qpQxdL3k

Der Mythos dass man eine GPU nur fuer 3D braucht in heutigen (=/>Honeycomb) mobilen OSs duerfte so langsam sterben. Das video ist zwar deutlich Marketing-Material aber es zeigt nichtdestominder warum eine feine Balance aller SoC Prozessoren (und nicht nur CPU oder nicht nur GPU oder nicht nur GPU+CPU) eine Vorraussetzung ist.

Videoleistung kommt so oder so vom video decoder. Das neueste decoder IP reicht auf bis zu UltraHD (4k*4k) fuer verruecktes multi-streaming oder S3D; wenn ein fixed function decoder in solch einem Fall maximal bis zu ~260MHz laeuft ist es Bloedsinn mit decoding mehr als notwendig die CPU und/oder GPU zu quaelen.

Aus der Richtung kommt dann der naechste Schritt fuer SoCs: http://www.xbitlabs.com/news/mobile/display/20110217214122_Smart_TVs_Contribute_to_Global_Installed_Base_of_Web_Enabled_CE_D evices_Analysts.html

Frag mich nochmal in der Zukunft was Apple mit AppleTV vielleicht vorhaben koennte. In der Zwischenzeit darfst Du Dich auch fragen wieso Apple's application store um 10x so viel Umsatz macht als die Konkurrenz bei diesen und was genau in seiner groben Mehrzahl heruntergeladen wird.

Dural
2011-02-21, 09:02:25
ich sehe in dem video jetzt rein gar nichts was eine "high end" GPU benötigen würde... das ist übrigens alles eher CPU lastig oder von einer normalen wie heute verwendeten GPU machbar.

zudem gerade in diesen teilen T2 doch deutliche vorteile bietet gegenüber andere SoC wie flash und full hd usw. T3 bald mit 2560er auflösung...

und noch einmal, nur DU jammerst immer über die GPU leistung des T2, alle Benchmarks die ich bis heute gesehen habe sagen was anderes aus. erst recht wenn man bedenkt das T2 schon fast ein jahr "auf" dem markt ist...



Und wenn man hier so mitliest von wegen wie viele Core eine GPU hat könnte man meinen das man im Computerbild forum ist... was um alles in der welt sag den die anzahl der Core gerade bei den GPUs über die entgültige leistung aus!?

T3 hat zwar "nur" 50% mehr Einheiten, aber das die GPU komplett überarbeitet wurde laut NV wird von dir kosequent ignoriert... 3x GPU leistung hat NV im vergleich zum T2 versprochen und so eine GPU wird diese Jahr wohl kaum eine andere SoC erreichen, wetten?

Ailuros
2011-02-21, 10:06:54
ich sehe in dem video jetzt rein gar nichts was eine "high end" GPU benötigen würde... das ist übrigens alles eher CPU lastig oder von einer normalen wie heute verwendeten GPU machbar.

Dann lass die Finger davon.

zudem gerade in diesen teilen T2 doch deutliche vorteile bietet gegenüber andere SoC wie flash und full hd usw. T3 bald mit 2560er auflösung...

SoCs haben dedizierte video decoder; es hat weder mit GPUs oder CPUs zu tun und 2560 ist auch nichts besonderes ueberhaupt wenn man nicht die bitrate weiss.

und noch einmal, nur DU jammerst immer über die GPU leistung des T2, alle Benchmarks die ich bis heute gesehen habe sagen was anderes aus. erst recht wenn man bedenkt das T2 schon fast ein jahr "auf" dem markt ist...

Ich sehe entweder andere Markt-tendenzen fuer die Zukunft oder ich bin einfach der Spinner des Dorfes hier. Frueher oder spaeter wird es sich schon zeigen. Was hat denn T2 tolles in Integrations-raten in dem einem Jahr erreicht dass wir ueberhaupt von irgend einer Influenz generell im embedded Markt reden koennten? Gut die Semis werden langfristig dazu getrieben in ihre road-maps Dampf zu legen weil NV ziemlich aggressiv ankommt, aber sonst sehe ich nichts Beinbreichendes ausser ein Haufen Rauch und Qualm.

Und wenn man hier so mitliest von wegen wie viele Core eine GPU hat könnte man meinen das man im Computerbild forum ist... was um alles in der welt sag den die anzahl der Core gerade bei den GPUs über die entgültige leistung aus!?

Gut nach NV's slides hat eine T2 ULP GF 1.92 GFLOPs jeweils vom Vec4 PS - Vec4 VS ergo insgesamt 3.84GFLOPs verteilt und 480MPixels/s.

Der OMAP5 Block hat bei gleicher Frequenz 138GFLOPs/s, 1920MPixels/s und 15.4 GPixels/s z/stencil. Es sind 4 GPU cores und nicht einer.

T3 hat zwar "nur" 50% mehr Einheiten, aber das die GPU komplett überarbeitet wurde laut NV wird von dir kosequent ignoriert... 3x GPU leistung hat NV im vergleich zum T2 versprochen und so eine GPU wird diese Jahr wohl kaum eine andere SoC erreichen, wetten?

Zeig mir wo es steht dass sie "komplett ueberarbeitet" wurde.

On the GPU side, Kal-El implements a larger/faster version of the ULP GeForce GPU used in Tegra 2. It's still not a unified shader architecture, but NVIDIA has upped the core count from 8 to 12. Note that in Tegra 2 the 8 cores refer to 4 vertex shaders and 4 pixel shaders. It's not clear how the 12 will be divided in Kal-El but it may not be an equal scaling to 6+6.

The GPU clock will also be increased, although it's unclear to what level.

http://www.anandtech.com/show/4181/nvidias-project-kalel-quadcore-a9s-coming-to-smartphonestablets-this-year/2

Du hast auf T3 4*A9 bei bis zu 1.5GHz (ergo 2x Mal so viel CPU Einheiten + 50% mehr Frequenz) und eine ULP GF mit 50% mehr Einheiten und unbekannter Frequenz. Insgesamt als SoC soll T3 bis zu 5x Mal schneller sein, ergo rechne noch mal nach wo hier die Luecke sein koennte und wieso die Core2 Duo benchmarks auch ziemlich verdreht wurden aus marketing-Gruenden.

Such Dir eine beliebige Frequenz aus fuer ULP/GF T3 aber weit ueber 400MHz aus (wenn sie diese ueberhaupt erreichen koennen) und rechne es Dir selber aus.

Wir reden nochmal darueber in ein etlichen Wochen wenn Apple ihren neuen SoC ankuendigt.

Label
2011-02-21, 14:15:49
Was in eurer Dislussion bezüglich der aktuellen und zukünftigen SOC's bisher komplett unterging ist die deutlich überlegene Flashperformance von Tegra 2.
Da scheint es wohl Probleme (http://www.engadget.com/2011/02/21/motorola-xoom-will-ship-without-flash-support-on-february-24th/) zu geben...

LovesuckZ
2011-02-21, 14:25:54
Soweit ich weiß, will Adobe eine extra 3.0 Version rausbringen. Trotzdem ist es ziemlich lächerlich, es ohne Flash auszuliefern.

mboeller
2011-02-21, 19:32:54
Der OMAP5 Block hat bei gleicher Frequenz 138GFLOPs/s, 1920MPixels/s und 15.4 GPixels/s z/stencil. Es sind 4 GPU cores und nicht einer.



138GFlops ??? :confused: ???

Ich dachte ein SGX 543MP1 hat @ 200MHz nur 6,4GFlops ???

Nakai
2011-02-21, 19:43:36
138GFlops ??? :confused: ???

Ich dachte ein SGX 543MP1 hat @ 200MHz nur 6,4GFlops ???

SGX544...*hust*

SGX544 ist ein gutes Stück stärker als SGX543.

SGX543 hat pro MP 4 Vec4+1-Einheiten. Das sind 40GFLOPs bei 1GHz.
SGX544 hat pro MP 8 VEc4+1-Einheiten, was 80GFLOPs bei 1GHz sind.

OMAP5 soll SGX544MP4 haben. Also 320 GFLOPs bei 1GHz.
Taktraten liegen dann schon eher bei 400MHz.

Nicht nur die Einheitenzahl wird bei zukünftigen SOCs steigen, sondern der Takt geht auch stark in die Höhe. Die neuen Versionen des T2 sind auch ziemlich hoch getaktet.


mfg

€: Den oberen Schmarrn vergessen. SGX554 hat 8Vec4+1 Einheiten.
Ergo müssten oben die Taktraten eher bei 800MHz sein oder MP8 verwendet werden.

€:Der OMAP5 Block hat bei gleicher Frequenz 138GFLOPs/s, 1920MPixels/s und 15.4 GPixels/s z/stencil. Es sind 4 GPU cores und nicht einer.

Wie kommst du auf die 138GFLOPs/s? Bei 240MHz mit 4MP mit je 4 VEC+1-Einheiten komm ich auf 38.4GFLOPs/s.

IVN
2011-02-21, 19:52:19
Ich hab das Gefühl, Ailuros ist ordentlich biased Richtung imgtec.

stickedy
2011-02-21, 20:08:00
Ich hab das Gefühl, Ailuros ist ordentlich biased Richtung imgtec.
Natürlich :) Aber zu recht: Die PowerVR-Technik ist nunmal gegenwärtig und in absehbarer Zukunft das Maß aller Dinge. Das liegt halt vor allem da dran, dass ein TBDR die einzige sinnvolle Lösung in dem Marktsegment ist.

Und Series 6 ist auch schon in den Startlöchern: http://www.semiaccurate.com/2011/02/18/st-ericsson-announces-soc-powervr-series6-graphics/

Mag sein, dass nVidia aktuell eine etwas stärkere CPU-Lösung als andere Semis hat, aber die anderen pennen ja nicht, sieht man ja schön an den Ankündigungen von TI, Qualcomm und anderen. In ein paar Monaten sieht das wieder ganz anders aus. Mal davon abgesehen, dass in dem Mobile-Segment neben CPU- und GPU-Leistung auch der Verbrauch eine maßgebliche Rolle spielt, sowohl unter Last als auch im Idle-Modus. Und letztlich kochen alle nur mir ARM-Wasser...

IVN
2011-02-21, 20:47:33
Natürlich :) Aber zu recht: Die PowerVR-Technik ist nunmal gegenwärtig und in absehbarer Zukunft das Maß aller Dinge. Das liegt halt vor allem da dran, dass ein TBDR die einzige sinnvolle Lösung in dem Marktsegment ist.

Und Series 6 ist auch schon in den Startlöchern: http://www.semiaccurate.com/2011/02/18/st-ericsson-announces-soc-powervr-series6-graphics/

Mag sein, dass nVidia aktuell eine etwas stärkere CPU-Lösung als andere Semis hat, aber die anderen pennen ja nicht, sieht man ja schön an den Ankündigungen von TI, Qualcomm und anderen. In ein paar Monaten sieht das wieder ganz anders aus. Mal davon abgesehen, dass in dem Mobile-Segment neben CPU- und GPU-Leistung auch der Verbrauch eine maßgebliche Rolle spielt, sowohl unter Last als auch im Idle-Modus. Und letztlich kochen alle nur mir ARM-Wasser...

Wenn ich ehrlich bin, denke ich das imgtech wenig draufhaben, und jetzt nur deswegen einen Vorteil haben, weil sie schon eeeeeewig diesen Markt bedienen (Pioneer's Advantage). Sie gelten als gut in dieser Branche, weil sie bis vor kurzem 0 Konkurrenz gehabt hatten. Aber wenn man sich an ihr Desktop-Experiment errinert, so sind sie damit hart auf die Nase gefallen.

Was das Know-How und die Leute betrifft, so denke ich das die Großen (Nv und AMD) da einfach um Lichtjahre vor so einer Microschmiede sind.

Ich bin der Meinung, das es nur eine Frage der Zeit ist, bis Nv imgtech gnadenlos überholt.

Screemer
2011-02-21, 20:57:14
also ich hab die beiden kyro modelle eigentlich als recht ansprechende chips in erinnerung. leider war aber nur wirklich hercules hier bei uns bereit die dinger zu verbasteln, wenn ich mich richtig erinnere.

wenn amd/ati um lichtjahre voraus gewesen wäre und pc-grafik-knowhow einfach auf den ultra-mobile-markt adaptierbar wäre, dann hätten sie ihre adreno-ip nicht an qualcomm verschachern müssen. und wäre meine tante grün gestrichen, dann wäre sie ein vogelhaus. wird bei nvidia nicht anders sein.

stickedy
2011-02-21, 21:15:17
Wenn ich ehrlich bin, denke ich das imgtech wenig draufhaben, und jetzt nur deswegen einen Vorteil haben, weil sie schon eeeeeewig diesen Markt bedienen (Pioneer's Advantage). Sie gelten als gut in dieser Branche, weil sie bis vor kurzem 0 Konkurrenz gehabt hatten.
Konkurrenz hatte ImgTec in dem Bereich schon immer, nur wollte deren Lösungen so gut wie niemand haben, da die Leistungsfähigkeit mehr als zu wünschen übrig lies. Die "Konkurrenzlosigkeit" von ImgTec lag also weniger an der fehlenden Konkurrenz sondern vielmehr an der absoluten Überlegenheit der Lösungen von ImgTec.


Aber wenn man sich an ihr Desktop-Experiment errinert, so sind sie damit hart auf die Nase gefallen.
Was das Know-How und die Leute betrifft, so denke ich das die Großen (Nv und AMD) da einfach um Lichtjahre vor so einer Microschmiede sind.
Öh? Du meinst die Kyro-Chips? ImgTec hat daran mit Sicherheit nicht schlecht verdient. Vor allem weil die Series 3 ja Grundlage für PowerVR MBX war... Auf die Nase ist damals vor allem ST Micro gefallen (das war der Lizenznehmer und Hersteller der Kyro-Chips), da hat es sich einfach gerächt, dass ST das ganze nicht wirklich sehr ernsthaft angegangen ist und man dann eben als es dem Unternehmen nicht mehr gut ging, die Bremse gezogen hat. Um im Desktop-Grafikchip-Bereich langfristig erfolgreich und profitabel zu agieren, muss man halt auch einiges investieren. Wie schwierig das ist, sieht man ja da dran, dass in dem Bereich mittlerweile außer AMD, nVidia und Intel nur noch VIA / S3 Graphics ein bißchen und SiS so gut wie nicht mehr existieren. Wenn man sich mal überlegt, wie viele Firmen sich da vor 15 Jahren im Marktsegment getummelt haben, dann lag deren scheitern mit Sicherheit nicht hauptsächlich am fehlenden Know-How, sondern vielmehr an fehlenden finanziellen Möglichkeiten.

Mal davon abgesehen, dass ImgTec keine "Microschmiede" ist. Nur weil sie die ganze Zeit unter deinem Horizont agiert haben und Du sie erst jetzt wahr nimmst, sind sie noch lange keine Microschmiede :)


Ich bin der Meinung, das es nur eine Frage der Zeit ist, bis Nv imgtech gnadenlos überholt.
Naja, in die ferne Zukunft sehen kann niemand. Nach den aktuell bekannten Roadmaps von nVidia und ImgTec bzw. deren Lizenznehmern dürfte das aber mit Sicherheit nicht im zeitlichen Kontext dieser Roadmaps geschehen. Sprich weder Tegra 3 noch 4 (oder wie die Chips auch immer heißen mögen) werden ImgTecs Lösungen überlegen sein. Eher im Gegenteil: Denn wie Du ja selbst erkannt hast, sind ImgTecs aktuelle Lösungen, also Series5, schon lange am Markt. und mit Series 6 wird was neues und dann auch wieder fortschrittlicheres kommen ^^

IVN
2011-02-21, 21:58:38
Stickedy, na schau mal, Nv schafft es schon mit der 1. Lösung einige, wobei kleine Milestones, zu verzeichnen. Mit der 2. sind sie schon als "bigger Player" bekannt. Das ist vor allem deswegen so beeindruckend, weil es die Mehrheit aller Firmen nicht schafft, in eine neue Produktkategorie einzudringen. Die Regel ist Scheitern und im schlimmsten Fall Insolvenz. Nicht so bei Nv.

Und was das Know-How betrifft: Nv ist imstande 100 so große und komplexe GPUs zu entwerfen und herzustellen, und sollen an so einer Micro-GPU scheitern? Nein, das glaube ich nicht. Eher glaube ich, das von den Großen, die bisher (wie ATI) eine armseelig geführte Abteilung für den Markt hatten, niemand diese ernst genommen und die nötigen Mittel bereitgestellt hat. Niemand, bis eben Nv jetzt. Viel mehr denke ich, das je mehr Zeit verstreicht, umso offensichtlicher es werden wird, wie schwach die Architekturen von imgtech waren. Man wird sich in ein Paar Jahren fragen, wie konnten diese Typen überhaupt so lange den Markt dominieren, mit ihren schwachen Lösungen.

stickedy
2011-02-21, 22:41:49
Stickedy, na schau mal, Nv schafft es schon mit der 1. Lösung einige, wobei kleine Milestones, zu verzeichnen. Mit der 2. sind sie schon als "bigger Player" bekannt. Das ist vor allem deswegen so beeindruckend, weil es die Mehrheit aller Firmen nicht schafft, in eine neue Produktkategorie einzudringen. Die Regel ist Scheitern und im schlimmsten Fall Insolvenz. Nicht so bei Nv.
Äh, nVidia versucht seit Jahren, um genau zu sein seit dem 23. September 2003 (http://www.nvidia.de/object/IO_8847.html), einen Fuss in die Tür zu diesem Markt zu bekommen. Sämtliche Versuche (GoForce) in den vergangenen 7,5 Jahren inkl. Tegra APX und Tegra 1 waren ein grandioser Fehlschlag.

Nachdem man es Jahrelang mit standalone "GPUs" (eher Grafikchip) versucht hat, hat man dann irgendwann begriffen, das man für diesen Markt als SoC-Anbieter auftreten muss, um Kunden zu gewinnen. Also hat man dann ARM-Technik lizenziert und mit der GoForce 6100 den ersten SoC entwickelt. Kennt nur niemand... Warum wohl? Tegra APX und Tegra 1 wollte auch niemand haben. Soweit auch zur überlegenen Technik im Vergleich zu ImgTec...

Das ist also mitnichten der 2. Versuch, sondern vielmehr der x-te Versuch. Davor wurde nur Geld verbrannt, mittlerweile dürften zumindest ein paar Einnahmen generiert worden sein...

nVidia hat momentan einen Vorteil, das liegt aber hauptsächlich da dran, dass sich die meistens SoC-Anbieter momentan in einer Übergangsphase sowohl zu ARM CortexA15-Prozessorkernen (nVidia hat ja aktuell und in absehbarer Zukunft nur die jetzt an sich schon veralteten CortexA9-Prozessorkerne - wenn auch sehr viele davon) als auch zu PowerVR 544MPx-GPU-Technik (tw. schon zu Series 6) bzw. anderen GPU-Techniken (z.B. Mali bei Samsung) befinden. Da haben sie also einfach mal eine Lücke erwischt. In 6 bis 9 Monaten dürfte sich die Lücke geschlossen haben, dann schauen wir mal weiter würde ich sagen.

nVidia is also wirklich kein Überflieger, sondern hat es vielmehr nach x Fehlschlägen endlich mal geschafft dank momentan überlegener CPU-Technik einige Design-Wins zu erlangen. Die GPU-Technik ist auch jetzt nicht wirklich konkurrenzfähig...

Der Rest der momentanen scheinbaren Überlegenheit ist Marketing, dass nVidia in einem Maße betreibt, dass allen anderen SoC-Anbietern einfach fremd ist, schlicht weil es zumindest in der Vergangenheit und vermutlich auch in der Zukunft unnötig ist bzw. war. Geräte-Hersteller und damit die unmittelbaren Kunden beeindruckt man i.d.R. nicht mit Marketing-Geblubber, sondern vor allem mit real existierenden Produkten. nVidia versucht momentan über das Marketing eine Endkunden-Nachfrage zu generieren und hofft so, bei den Geräte-Herstellern entsprechende Bestellungen zu bekommen. Das kann klappen, aber anhand der anscheinend sehr vorsichtigen Bestellungen z.B. von Samsung scheint das eher nicht der Fall zu sein. Den wenigsten Endkunden in dem Segment interessiert es, was im Gerät steckt, sondern vielmehr was sie damit machen können. Und da hat nVidia kein Alleinstellungsmerkmal. Imho momentan eher ein Sturm im Wasserglas.

nVidia wird vermutlich auch in Zukunft einen gewissen Marktanteil haben, aber das dürfte vor allem daran liegen, dass man in Zukunft sein Heil im Prozessormarkt sucht. SoCs sind da eine logische Konsequenz.


Und was das Know-How betrifft: Nv ist imstande 100 so große und komplexe GPUs zu entwerfen und herzustellen, und sollen an so einer Micro-GPU scheitern? Nein, das glaube ich nicht. Eher glaube ich, das von den Großen, die bisher (wie ATI) eine armseelig geführte Abteilung für den Markt hatten, niemand diese ernst genommen und die nötigen Mittel bereitgestellt hat. Niemand, bis eben Nv jetzt. Viel mehr denke ich, das je mehr Zeit verstreicht, umso offensichtlicher es werden wird, wie schwach die Architekturen von imgtech waren. Man wird sich in ein Paar Jahren fragen, wie konnten diese Typen überhaupt so lange den Markt dominieren, mit ihren schwachen Lösungen.
Schau dir doch einfach mal Intel an: Die sind auch problemlos imstande 100x so große und komplexe CPU zu entwickeln und zu produzieren und schaffen es trotzdem nicht, etwas ansprechendes für das Mobile-Segment zu entwickeln. Und das liegt wohl weder an fehlendem Willen oder finanziellen Möglichkeiten, sondern wohl eher am Know-How bzw. Limitierungen der Technologie. Und genau das gleiche Problem hat nVidia beim Versuch aktuelle GPU-Technik zu shrinken auch.

LovesuckZ
2011-02-21, 22:47:48
nVidia's Vorteil ist doch ganz klar, dass sie ein eigener SoC Hersteller sind. Sie können wesentlich schneller mit neuen Produkten auf den Markt kommen als Lizenzgeber wie ImgTech. Was nützt es ihnen, wenn deren GPU-Kerne besser sind, wenn die Partner die Entwicklungsgeschwindigkeit von nVidia nicht mitgehen können? Mit Tegra2 hat nVidia zZ den kompletten High-End Android Markt in fester Hand. Glaubt hier jemand, dass sich ImgTech freut, dass das LG 3D einen besseren GPU-Chip hat? Bestimmt nicht.
Ab August sollen Produkte mit Tegra3 auf dem Markt kommen - mit konkurrenzfähiger GPU-Leistung und überlegender CPU-Leistung. Das schwächt natürlich auch die Position von ImgTech und Konsorten, dessen Einnahmequellen abhängig von der Konkurrenzfähigkeit der Lizenznehmer sind.

Deinorius
2011-02-21, 22:49:23
Das ist vor allem deswegen so beeindruckend, weil es die Mehrheit aller Firmen nicht schafft, in eine neue Produktkategorie einzudringen. Die Regel ist Scheitern und im schlimmsten Fall Insolvenz. Nicht so bei Nv.


Ich würde noch abwarten, wie es sich für nvidia weiter entwickeln wird. Sie haben gewissermaßen das Glück, dass sie als erste DualCore anbieten können und somit für Honeycomb die Referenzplattform darstellen. Ansonsten würde es weniger gut aussehen.

Viel mehr denke ich, das je mehr Zeit verstreicht, umso offensichtlicher es werden wird, wie schwach die Architekturen von imgtech waren. Man wird sich in ein Paar Jahren fragen, wie konnten diese Typen überhaupt so lange den Markt dominieren, mit ihren schwachen Lösungen.


Schwach? In welcher Art? nvidia muss die GPU-Architektur stromsparend und platzsparend optimieren. Sie können nicht die gleiche Strategie wie im Desktop-Markt gehen. Imgtec wissen, wie sie sich in dem Markt behaupten müssen und sie ruhen sich ja nicht aus. Series6 kommt ja auch noch.

Edit:
Mit Tegra2 hat nVidia zZ den kompletten High-End Android Markt in fester Hand. Glaubt hier jemand, dass sich ImgTech freut, dass das LG 3D einen besseren GPU-Chip hat? Bestimmt nicht.


Ich hoffe doch, dass du den nicht nicht wirklich existenten Android 3.0 Markt meinst, wenn du dich nicht komplett lächerlich machen willst. Außer natürlich, du findest eine Definition von "in der Hand haben", die sich von der allgemeinen differenziert.
Und warten wir erstmal ab, wie sich das Optimus 3D überhaupt verkaufen wird.

LovesuckZ
2011-02-21, 23:04:07
Äh, nVidia versucht seit Jahren, um genau zu sein seit dem 23. September 2003 (http://www.nvidia.de/object/IO_8847.html), einen Fuss in die Tür zu diesem Markt zu bekommen. Sämtliche Versuche (GoForce) in den vergangenen 7,5 Jahren inkl. Tegra APX und Tegra 1 waren ein grandioser Fehlschlag.

Das sind die ersten Schritte immer.
Weil nVidia als SoC-Hersteller auftritt, benötigen sie natürlich andere Vorraussetzungen.


Das ist also mitnichten der 2. Versuch, sondern vielmehr der x-te Versuch. Davor wurde nur Geld verbrannt, mittlerweile dürften zumindest ein paar Einnahmen generiert worden sein...

Ohne das Geldverbrennen gibt es keine Entwicklung. Fehlschläge gehören nunmal dazu.


nVidia hat momentan einen Vorteil, das liegt aber hauptsächlich da dran, dass sich die meistens SoC-Anbieter momentan in einer Übergangsphase sowohl zu ARM CortexA15-Prozessorkernen (nVidia hat ja aktuell und in absehbarer Zukunft nur die jetzt an sich schon veralteten CortexA9-Prozessorkerne - wenn auch sehr viele davon) als auch zu PowerVR 544MPx-GPU-Technik (tw. schon zu Series 6) bzw. anderen GPU-Techniken (z.B. Mali bei Samsung) befinden. Da haben sie also einfach mal eine Lücke erwischt. In 6 bis 9 Monaten dürfte sich die Lücke geschlossen haben, dann schauen wir mal weiter würde ich sagen.

nVidia's Vorteil liegt bzw. lag im radikalen Schritt von Tegra1 zu Tegra2. Das hat nichts mit einer Transistion zu A15 zu tun. SoCs mit diesem Prozessor gibt es auch frühsten Mitte 2012. Selbst Sony wird nur A9 bei der NGP verwenden. Und nVidia ist ebenfalls Lizenznehmer für A15.


nVidia is also wirklich kein Überflieger, sondern hat es vielmehr nach x Fehlschlägen endlich mal geschafft dank momentan überlegener CPU-Technik einige Design-Wins zu erlangen. Die GPU-Technik ist auch jetzt nicht wirklich konkurrenzfähig...

Huch? Wieviele SoCs kennst du denn, die eine bessere GPU-Leistung liefern und käuflich zu erwerben sind?

Und genau das gleiche Problem hat nVidia beim Versuch aktuelle GPU-Technik zu shrinken auch.

Der Unterschied zwischen Intel und nVidia ist riesig. nVidia hat konkurrenzfähige GPU-Technik in Tegra2. Von Intel gibt es kein konkurrenzfähiges SoC, dass es mit ARM aufnehmen kann.


Ich hoffe doch, dass du den nicht nicht wirklich existenten Android 3.0 Markt meinst, wenn du dich nicht komplett lächerlich machen willst. Außer natürlich, du findest eine Definition von "in der Hand haben", die sich von der allgemeinen differenziert.

Du kannst ja gerne mal die anderen 3.0 Produkte aufzählen, die nicht über Tegra2 verfügen. Mir fällt auf die schnelle keine ein.
Aber du kannst ja gerne mit 2.x kommen. Das wird bestimmt viele Anhänger finden, wenn selbst Google vor dem Einsatz auf einem Tablet abrät.


Und warten wir erstmal ab, wie sich das Optimus 3D überhaupt verkaufen wird.

Das steht hier nicht zu Debatte, was sich verkaufen wird.
Es kann jedoch angezweifel werden, dass eine Firma wie ImgTech sich an dem Umstand erfreut, dass im High-End Android Tablet Markt nicht ihre GPU-Technik für eine bestimmte Zeit anfinden wird.

stickedy
2011-02-21, 23:09:35
nVidia's Vorteil ist doch ganz klar, dass sie ein eigener SoC Hersteller sind.
nVidia ist kein SoC-Hersteller, nVidia hat keinerlei eigene Fertigung, sondern ist auf Foundries angewiesen. Nur TI, ST Micro, Samsung und Renesas haben eine eigene Fertigung. Aber das solltest Du wissen...


Sie können wesentlich schneller mit neuen Produkten auf den Markt kommen als Lizenzgeber wie ImgTech. Was nützt es ihnen, wenn deren GPU-Kerne besser sind, wenn die Partner die Entwicklungsgeschwindigkeit von nVidia nicht mitgehen können?
nVidia ist maßgeblich davon abhängig, was TSMC fertigen kann. Sieht man ja schon beim Tegra-QuadCore in 40 nm...
Alle Lizenznehmer von ImgTec und ARM haben ein Interesse daran möglichst schnell auf den Markt zu kommen. Verzögerungen kann es da immer geben. Sieht man ja auch am Beispiel Tegra 2: Fast ein Jahr hat es gedauert bis es endlich kaufbare Produkte gab... Und von den ganzen Ankündigungen der letzten Zeit ist auch nichts kaufbar bis jetzt.
Also ich sehe beim besten Willen keinen Vorteil von nVidia im Vergleich zu Qualcomm, Marvell, TI, Samsung und anderen.


Mit Tegra2 hat nVidia zZ den kompletten High-End Android Markt in fester Hand. Glaubt hier jemand, dass sich ImgTech freut, dass das LG 3D einen besseren GPU-Chip hat? Bestimmt nicht.
Meinst Du das Handy oder das Tablet? Im Handy steckt ein TI OMAP SoC... Und im Tablet ist mitnichten ein besserer GPU-Chip.

Ab August sollen Produkte mit Tegra3 auf dem Markt kommen - mit konkurrenzfähiger GPU-Leistung und überlegender CPU-Leistung.
Erstmal "sollen". Ob sie es tun werden wir dann sehen. Tegra 2 sollte auch schon vor einem Jahr kaufbar sein...
Und dann ist die GPU-Leistung von Tegra 3 vielleicht mit aktuell verfügbaren SoCs konkurrenzfähig, die Produktankündigungen sind dir aber nicht entgangen, oder?

Das schwächt natürlich auch die Position von ImgTech und Konsorten, dessen Einnahmequellen abhängig von der Konkurrenzfähigkeit der Lizenznehmer sind.
ARM-Technik nutzen sie alle. Von daher wird letztlich hauptsächlich die GPU-Performance entscheidend sein.

Deinorius
2011-02-21, 23:25:58
Du kannst ja gerne mal die anderen 3.0 Produkte aufzählen, die nicht über Tegra2 verfügen. Mir fällt auf die schnelle keine ein.
Aber du kannst ja gerne mit 2.x kommen. Das wird bestimmt viele Anhänger finden, wenn selbst Google vor dem Einsatz auf einem Tablet abrät.


OK, ich sehe, dass du meine Aussage nicht verstanden hast. Also versuche ich mal, es einfach deutlich anzusprechen.
Im Smartphone- und erst recht allgemein im Handy-Segment haben sie (praktisch) keine Bedeutung, was ich aber eigentlich nicht andeuten wollte. Deine ursprüngliche Aussage war zu ungenau. Wenn du spezifisch den Android 3.0 Markt genannt hättest, hättest du absolut Recht, was aber auch keine Überraschung ist. Stichwort: Referenzplattform
Der einzige, der das Tablet-Segment allgemein in der Hand hat, ist Apple und welche GPU ist drin? Imgtec.
Im Tablet-Segment haben sie sozusagen das Glück, die Referenzplattform darzustellen, was es den Herstellern einfacher und billiger macht, erste Tablets rauszubringen und zu schauen, wie sich dieser Markt für sie entwickelt. nvidia darf erst feiern, wenn die nächsten Tablets ebenfalls nvidia SoCs verwenden.

Das steht hier nicht zu Debatte, was sich verkaufen wird.
Es kann jedoch angezweifel werden, dass eine Firma wie ImgTech sich an dem Umstand erfreut, dass im High-End Android Tablet Markt nicht ihre GPU-Technik für eine bestimmte Zeit anfinden wird.


Imgtec werden nicht schlafen. Wie schon angedeutet, die nächste Generation der Tablets abwarten und dann urteilen. Großartig betreffen wird es Imgtec dennoch nicht.

stickedy
2011-02-21, 23:31:20
Das sind die ersten Schritte immer.
Weil nVidia als SoC-Hersteller auftritt, benötigen sie natürlich andere Vorraussetzungen.
Hä?

Ohne das Geldverbrennen gibt es keine Entwicklung. Fehlschläge gehören nunmal dazu.
Natürlich. Aber dann darf man nicht bei Tegra 2 vom "1. und 2. Versuch" mit durchschlagendem Erfolg sprechen.

nVidia's Vorteil liegt bzw. lag im radikalen Schritt von Tegra1 zu Tegra2. Das hat nichts mit einer Transistion zu A15 zu tun. SoCs mit diesem Prozessor gibt es auch frühsten Mitte 2012. Selbst Sony wird nur A9 bei der NGP verwenden. Und nVidia ist ebenfalls Lizenznehmer für A15.
Radikaler Schritt? Ein Prozessorkern mehr und eine höhere Taktfrequenz für die GPU nennst Du einen "radikalen Schritt"? OK...

Mit dem Übergang zu CortexA15 hat das natürlich nichts zu tun. Aber das und der Wechsel in der Fertigung zu 28 nm ist ein Grund, warum aktuell kein anderer SoC-Anbieter einen QuadCore-CortexA9 auf der Roadmap hat. Einen SoC zu entwickeln kostet Geld welches man dann auch wieder rein holen muss. Wenn der Markt nicht vorhanden ist, wird das schwierig... DualCore-CortexA9 wird es dieses Jahr noch wie Sand am Meer geben.


Huch? Wieviele SoCs kennst du denn, die eine bessere GPU-Leistung liefern und käuflich zu erwerben sind?
Quasi alle SoCs mit PowerVR SGX540 aufwärts.

Der Unterschied zwischen Intel und nVidia ist riesig. nVidia hat konkurrenzfähige GPU-Technik in Tegra2. Von Intel gibt es kein konkurrenzfähiges SoC, dass es mit ARM aufnehmen kann.
nVidias GPU in Tegra 2 ist technisch veraltet.

Du kannst ja gerne mal die anderen 3.0 Produkte aufzählen, die nicht über Tegra2 verfügen. Mir fällt auf die schnelle keine ein.
Aber du kannst ja gerne mit 2.x kommen. Das wird bestimmt viele Anhänger finden, wenn selbst Google vor dem Einsatz auf einem Tablet abrät.
Du glaubst doch nicht ernsthaft, dass ich dir jetzt eine seitenlange Auflistung mit Android 2.x Geräten mache, oder? Da verweise ich dich mal großzügig auf http://en.wikipedia.org/wiki/List_of_PowerVR_products#Series5XT_.28SGXMP.29
Such sie dir selber raus!

Zu Android 3.0: Die kommen schon noch, keine Sorge :)


Das steht hier nicht zu Debatte, was sich verkaufen wird.
Es kann jedoch angezweifel werden, dass eine Firma wie ImgTech sich an dem Umstand erfreut, dass im High-End Android Tablet Markt nicht ihre GPU-Technik für eine bestimmte Zeit anfinden wird.
Sicher nicht. Aber das ist ja nicht die Schuld von ImgTec. Und die bestimmte Zeit dürfte wohl eher so Q3 2011 sein. Das sind gute 6 Monate. Da schauen wir doch erstmal wieviele Tablets mit Tegra 2 bis dahin überhaupt verkauft worden sind. Bis jetzt sind es genau 0.

LovesuckZ
2011-02-21, 23:54:12
nVidia ist kein SoC-Hersteller, nVidia hat keinerlei eigene Fertigung, sondern ist auf Foundries angewiesen. Nur TI, ST Micro, Samsung und Renesas haben eine eigene Fertigung. Aber das solltest Du wissen...

nVidia ist für den kompletten Chip verantwörtlich. Es ist vollkommen egal, ob sie eigene Fertigungsanlagen haben oder es durch einen Drittanbieter erledigen lassen.


nVidia ist maßgeblich davon abhängig, was TSMC fertigen kann. Sieht man ja schon beim Tegra-QuadCore in 40 nm...

So wie die Konkurrenz. Es gibt keine 28nm Ankündigung eines QuadCores für dieses Jahr. Qualcomm sagt, dass deren QuadCore 28nm SoC frühsten im 2. Halbjahr als Produkte für den Endkunden auf dem Markt sein werden.
TSMC ist bestimmt kein Nachteil für nVidia.


Alle Lizenznehmer von ImgTec und ARM haben ein Interesse daran möglichst schnell auf den Markt zu kommen. Verzögerungen kann es da immer geben. Sieht man ja auch am Beispiel Tegra 2: Fast ein Jahr hat es gedauert bis es endlich kaufbare Produkte gab... Und von den ganzen Ankündigungen der letzten Zeit ist auch nichts kaufbar bis jetzt.
Also ich sehe beim besten Willen keinen Vorteil von nVidia im Vergleich zu Qualcomm, Marvell, TI, Samsung und anderen.

Tegra2 Produkte gibt es seit August 2010 zu kaufen. Es ist jedoch alles eine Frage der Software gewesen, dass es so lange dauerte. Man kann ja mal probieren vernünftige Android-Tablets aufzuzählen, die einigermaßen iPad Niveau erreichen. Es ist also kein Tegra2 Problem vorhandenen gewesen.


Erstmal "sollen". Ob sie es tun werden wir dann sehen. Tegra 2 sollte auch schon vor einem Jahr kaufbar sein...
Und dann ist die GPU-Leistung von Tegra 3 vielleicht mit aktuell verfügbaren SoCs konkurrenzfähig, die Produktankündigungen sind dir aber nicht engangen, oder?

Ja, "verfügbar". Irgendwelche Ankündigungen für 2012 sind doch vollkommen uninteressant.


ARM-Technik nutzen sie alle. Von daher wird letztlich hauptsächlich die GPU-Performance entscheidend sein.

Entscheiden ist die Fähigkeit mit der Konkurrenz mithalten zu können. Soetwas wie mit Tegra2 darf der Konkurrenz eben nicht nochmal passieren.


Im Tablet-Segment haben sie sozusagen das Glück, die Referenzplattform darzustellen, was es den Herstellern einfacher und billiger macht, erste Tablets rauszubringen und zu schauen, wie sich dieser Markt für sie entwickelt. nvidia darf erst feiern, wenn die nächsten Tablets ebenfalls nvidia SoCs verwenden.

Sie hatten kein Glück. Sie hatten einen zeitlichen Vorsprung. Und nVidia dürfte nicht feiern? Aus dem Nichts zur Referenzplattform ist ein gewichtiger Erfolg.
Im schlimmsten Fall bringen Partner erste Tegra3 Android 3.x Produklte zeitnah zu DualCore-Produkten in dem Markt, dass vorallem die High-End Position weiter festigen wird.
Dann zählt auch nichtmal mehr der Punkt "unterlegende GPU-Leistung" etwas.

stickedy
2011-02-22, 00:07:14
nVidia ist für den kompletten Chip verantwörtlich. Es ist vollkommen egal, ob sie eigene Fertigungsanlagen haben oder es durch einen Drittanbieter erledigen lassen.
Und was genau ist da jetzt der Vorteil von nVidia?

So wie die Konkurrenz. Es gibt keine 28nm Ankündigung eines QuadCores für dieses Jahr. Qualcomm sagt, dass deren QuadCore 28nm SoC frühsten im 2. Halbjahr als Produkte für den Endkunden auf dem Markt sein werden.
Natürlich gibt es die nicht. Weil es ja ziemlich sicher blödsinnig ist, einen Quadcore in 40 nm zu produzieren. Zumindest wenn man ihn in mobilen Geräten einsetzen will, Stichwort Stromverbrauch.
Die Quadcores in 28 nm werden außerdem wohl bereits zumindest teilweise CortexA15-Kerne haben, siehe Qualcomm und TI.

TSMC ist bestimmt kein Nachteil für nVidia.
Aber auch kein Vorteil

Tegra2 Produkte gibt es seit August 2010 zu kaufen. Es ist jedoch alles eine Frage der Software gewesen, dass es so lange dauerte. Man kann ja mal probieren vernünftige Android-Tablets aufzuzählen, die einigermaßen iPad Niveau erreichen. Es ist also kein Tegra2 Problem vorhandenen gewesen.
Und diese Pads haben alle einen PowerVR-Grafikkern. Was genau willst Du mir eigentlich sagen?

Ja, "verfügbar". Irgendwelche Ankündigungen für 2012 sind doch vollkommen uninteressant.
Tegra 3 ist genauso wenig verfügbar, wie alle anderen für 2011 angekündigten SoCs.


Entscheiden ist die Fähigkeit mit der Konkurrenz mithalten zu können. Soetwas wie mit Tegra2 darf der Konkurrenz eben nicht nochmal passieren.
Wird es vermutlich auch nicht.

aylano
2011-02-22, 00:37:54
Äh, nVidia versucht seit Jahren, um genau zu sein seit dem 23. September 2003 (http://www.nvidia.de/object/IO_8847.html), einen Fuss in die Tür zu diesem Markt zu bekommen. Sämtliche Versuche (GoForce) in den vergangenen 7,5 Jahren inkl. Tegra APX und Tegra 1 waren ein grandioser Fehlschlag.
Ich glaube, das kann man nicht vergleichen.
Nvidia hat vor paar Jahren so eine Firma gekauft, die auf ARM-Chips spezialisiert war und somit ARM-Erfahrung/Know-How mitkaufte und vielleicht schon Tegra 1 vollständig entwickelte bzw. eventuell in dieser Firma schon weit entwickelt war, wie sie gekauft wurde.

Tegra 1 war ja nicht so schlecht. Nur gabs damals "keinen" Tablet-Markt bzw. Android-Sorftware.

IMO hat Nvidia das Problem, dass sie keine Funkt-Technik-Spezialisten sind und diese Technik nicht so in die SoC-ARM einbauen können wie es die anderen Firmem mit GPS-A & HSDPA/LTE usw machen.

Intel hatte (neben dem hohen Stromverbauch) auch dieses Problem und hat sich um paar Mrd. $ das Wireless Solutions-Geschäfts (WLS) von Infineon gekauft.

Zumindestens ins Tegra 2 gut genug für den Tablet-Markt. Im Smartphone-Markt muss sich zeigen, ob sie sich halten bzw. weiterentwickeln können, wenn die Konkurrenten sich auf Nvidia eingestellt haben.

stickedy
2011-02-22, 00:52:38
Ich glaube, das kann man nicht vergleichen.
Nvidia hat vor paar Jahren so eine Firma gekauft, die auf ARM-Chips spezialisiert war und somit ARM-Erfahrung/Know-How mitkaufte und vielleicht schon Tegra 1 vollständig entwickelte bzw. eventuell in dieser Firma schon weit entwickelt war, wie sie gekauft wurde.

Tegra 1 war ja nicht so schlecht. Nur gabs damals "keinen" Tablet-Markt bzw. Android-Sorftware.
Damals? Tegra 1 wurde afair im Juni 2009 vorgestellt! Außerdem ist Tegra 2 nichts weiter als ein Tegra 1 mit einem zweiten Prozessorkern und einer höher getakteten GPU.

Und welche Firma meinst Du? MediaQ? Die haben afaik keine ARM-Prozessoren gehabt. Der GoForce 2150 war dementsprechend auch ohne Prozessor...

Übrigens auch ein Indiz was das Know-How von nVidia im Bereich GPU-Lösung für den Mobilbereich anbelangt: Statt selber etwas auf Basis der GeForce-Technologie zu entwickeln hat man lieber eine Firma übernommen um entsprechende Technik zu haben...

LovesuckZ
2011-02-22, 00:55:05
Natürlich. Aber dann darf man nicht bei Tegra 2 vom "1. und 2. Versuch" mit durchschlagendem Erfolg sprechen.

Sie haben aber erst mit Tegra ihre Bemühungen deutlich gesteigert. GoForce wurde von ihnen nie so stark beworben.

Radikaler Schritt? Ein Prozessorkern mehr und eine höhere Taktfrequenz für die GPU nennst Du einen "radikalen Schritt"? OK...

Sie gingen von Single-Core ARM11 direkt auf DualCore A9 in 40nm Fertigung.


Mit dem Übergang zu CortexA15 hat das natürlich nichts zu tun. Aber das und der Wechsel in der Fertigung zu 28 nm ist ein Grund, warum aktuell kein anderer SoC-Anbieter einen QuadCore-CortexA9 auf der Roadmap hat. Einen SoC zu entwickeln kostet Geld welches man dann auch wieder rein holen muss. Wenn der Markt nicht vorhanden ist, wird das schwierig... DualCore-CortexA9 wird es dieses Jahr noch wie Sand am Meer geben.


Das ist eine Ausrede statt einer Begründung. nVidia wird nächtes Jahr auch ihren QuadCore A15 in 28nm auf den Markt bringen. Und trotzdem bringen sie dieses Jahr einen weiteren 40nm SoC. Die Umstellung auf 28nm und A15 liegt doch wohl eher bei allem darin begründet, dass 28nm bei niemanden in diesem Jahr für die Massenproduktion zur Verfügung steht und ihre DualCore Designs erst dieses Jahr massenmarktfertig sind.

nVidias GPU in Tegra 2 ist technisch veraltet.

Und trotzdem konkurrenzfähig. Das ist der Unterschied zu Intel, die kein Fuss in dem Markt bekommen.


Sicher nicht. Aber das ist ja nicht die Schuld von ImgTec. Und die bestimmte Zeit dürfte wohl eher so Q3 2011 sein. Das sind gute 6 Monate. Da schauen wir doch erstmal wieviele Tablets mit Tegra 2 bis dahin überhaupt verkauft worden sind. Bis jetzt sind es genau 0.

Natürlich ist ImgTech nicht schuld. Nur zeigt es, dass es für nVidia kein Nachteil ist eigene Technik zu verwenden. Und die 0 gilt auch für alle anderen.

Und was genau ist da jetzt der Vorteil von nVidia?

Sie können wesentlich aggressiver ihre Technik in den Markt bringen und sich nicht auf Lizenznehmer angewiesen.


Natürlich gibt es die nicht. Weil es ja ziemlich sicher blödsinnig ist, einen Quadcore in 40 nm zu produzieren. Zumindest wenn man ihn in mobilen Geräten einsetzen will, Stichwort Stromverbrauch.
Die Quadcores in 28 nm werden außerdem wohl bereits zumindest teilweise CortexA15-Kerne haben, siehe Qualcomm und TI.

Das selbe kann man auch über DualCore sagen. Und trotzdem hat es jederman auf der Roadmap.


Und diese Pads haben alle einen PowerVR-Grafikkern. Was genau willst Du mir eigentlich sagen?

Und verkaufen sich genauso wenig bzw. es gibt bis auf das Galaxy Tab kein ernstzunehmendes Konkurrenzprodukt zum iPad. Es ist also vollkommen egal, ob Tegra die unterlegende GPU-Architektur besitzt, wenn alle im selben Softwareboot sitzen.


Tegra 3 ist genauso wenig verfügbar, wie alle anderen für 2011 angekündigten SoCs.

Tegra3 ist wesentlich realer als deine "Produktankündigungen" für Q3+. Welche sollen es denn sein, die stärker als Tegra3 werden?

stickedy
2011-02-22, 01:19:48
Sie haben aber erst mit Tegra ihre Bemühungen deutlich gesteigert. GoForce wurde von ihnen nie so stark beworben.
Ach, die haben die Produkte zum Spaß angeboten? Das ist doch lächerlich...


Sie gingen von Single-Core ARM11 direkt auf DualCore A9 in 40nm Fertigung.
OK, stimmt, der CPU-Kern wurde verbessert. Das hatte ich bis dahin übersehen. Wobei der Sprung von ARM11 auf Cortex A9 wohl nicht so dramatisch ist. An der GPU wurde dennoch nichts verändert.

Das ist eine Ausrede statt einer Begründung. nVidia wird nächtes Jahr auch ihren QuadCore A15 in 28nm auf den Markt bringen. Und trotzdem bringen sie dieses Jahr einen weiteren 40nm SoC. Die Umstellung auf 28nm und A15 liegt doch wohl eher bei allem darin begründet, dass 28nm bei niemanden in diesem Jahr für die Massenproduktion zur Verfügung steht und ihre DualCore Designs erst dieses Jahr massenmarktfertig sind.
Ist die schon mal der Gedanke gekommen, dass es keinen Bedarf für einen Quadcore in 40 nm gibt? Oder zumindest keinen ausreichenden, um die Investition zu rechtfertigen?

Und trotzdem konkurrenzfähig. Das ist der Unterschied zu Intel, die kein Fuss in dem Markt bekommen.
Nvidia ist aber nicht wegen der GPU konkurrenzfähig, sondern wegen der CPU!

Natürlich ist ImgTech nicht schuld. Nur zeigt es, dass es für nVidia kein Nachteil ist eigene Technik zu verwenden. Und die 0 gilt auch für alle anderen.
Dir sind die ca. 1,5 Millionen Samsung Galaxy Tabs entgangen? Oder alle anderen Android-basierten Tablets mit PowerVR-Kern? Von den "lächerlichen" 15 bis 20 Millionen iPads ganz zu schweigen...

Sie können wesentlich aggressiver ihre Technik in den Markt bringen und sich nicht auf Lizenznehmer angewiesen.
Du verstehst anscheinend das Geschäftsmodell einer IP-Firma nicht.

Das selbe kann man auch über DualCore sagen. Und trotzdem hat es jederman auf der Roadmap.
Das zwei Kerne weniger Strom als vier Kerne benötigen ist dir aber schon klar, oder?

Und verkaufen sich genauso wenig bzw. es gibt bis auf das Galaxy Tab kein ernstzunehmendes Konkurrenzprodukt zum iPad. Es ist also vollkommen egal, ob Tegra die unterlegende GPU-Architektur besitzt, wenn alle im selben Softwareboot sitzen.
Na, da gibt's aber schon ein paar Unterschiede, Stichwort Video-Playback und Spiele. Mal davon abgesehen, dass es ja auch einen Markt abseits von Tablets gibt, einen verdammt großen sogar. Und der ist auch nicht von Android abhängig.

Tegra3 ist wesentlich realer als deine "Produktankündigungen" für Q3+. Welche sollen es denn sein, die stärker als Tegra3 werden?
Alle mit PowerVR SGX 544MPx-Grafikkern :)

Xmas
2011-02-22, 01:28:50
OK, stimmt, der CPU-Kern wurde verbessert. Das hatte ich bis dahin übersehen. Wobei der Sprung von ARM11 auf Cortex A9 wohl nicht so dramatisch ist.
Das ist jetzt aber nicht dein Ernst?

aylano
2011-02-22, 01:34:25
Damals? Tegra 1 wurde afair im Juni 2009 vorgestellt! Außerdem ist Tegra 2 nichts weiter als ein Tegra 1 mit einem zweiten Prozessorkern und einer höher getakteten GPU.

Und welche Firma meinst Du? MediaQ? Die haben afaik keine ARM-Prozessoren gehabt. Der GoForce 2150 war dementsprechend auch ohne Prozessor...

http://de.wikipedia.org/wiki/PortalPlayer

PortalPlayer
Gekauft Ende 2006.
2 Jahre später oder etwas länger gabs Tegra 1. Da dürfte Tegra 1 vielleicht doch dann primär mit diesen Zukauf entwickelt worden sein.

Aber das es in Zukunft für Nvidia nicht leicht wird, will ich nicht abstreiten.
Zwar ist Nvidia eine starke Firma, aber die Konkurrenten kämpfen schon jahrelang im einem mit mehreren starken Konkurrenten hart umkämpften Mobilen-Markt.

stickedy
2011-02-22, 01:36:47
Das ist jetzt aber nicht dein Ernst?
Ich meine nicht die Unterschiede in der Architektur etc. sondern den Aufwand das ganze zu implementieren? Soweit ich weiss liefert ARM das Prozessordesign doch an sich fertig, oder irre ich mich da?

stickedy
2011-02-22, 01:45:33
http://de.wikipedia.org/wiki/PortalPlayer

PortalPlayer
Gekauft Ende 2006.
2 Jahre später oder etwas länger gabs Tegra 1. Da dürfte Tegra 1 vielleicht doch dann primär mit diesen Zukauf entwickelt worden sein.
Schwierig zu sagen. GoForce 6100 (der erste SoC) wurde im Februar 2007 angekündigt. Die GPU darin dürfte definitiv von nVidia stammen und an sich sollte der SoC bzw. dessen Prozessorkern da auch schon fertig designt gewesen sein, so dass die PortalPlayer-Ingenieure da eigentlich keinen Einfluss mehr gehabt haben dürften. Ich denke also eher, dass nVidia die Ingenieure einfach ins eigene (Tegra-)Team eingegliedert hat. Also eher ein Zukauf von Know-How statt eines Produktes.

Aber das es in Zukunft für Nvidia nicht leicht wird, will ich nicht abstreiten.
Zwar ist Nvidia eine starke Firma, aber die Konkurrenten kämpfen schon jahrelang im einem mit mehreren starken Konkurrenten hart umkämpften Mobilen-Markt.
So sehe ich das auch.

aylano
2011-02-22, 04:02:55
Ich denke also eher, dass nVidia die Ingenieure einfach ins eigene (Tegra-)Team eingegliedert hat. Also eher ein Zukauf von Know-How statt eines Produktes.

Also, nachdem ich mal Recherchierte, kann ich nur dir zustimmen.
Ich wusste garnicht, dass es ein GoForce gab.

Das schlimmste was Nvidia jetzt/bald passieren kann, wenn TSMC sich mit 28nm verspätet und GF mit 28nm "pünktlich" liefern kann. Vorallem, da die ersten Produkte von GF ARM-basierend bzw. non-GPUs sein sollen.

Ailuros
2011-02-22, 07:11:12
138GFlops ??? :confused: ???

Ich dachte ein SGX 543MP1 hat @ 200MHz nur 6,4GFlops ???

Tatsaechlich ein brutaler Rechenfehler meinerseits. Bei 240MHz sind es ~35GFLOPs.

Ich hab das Gefühl, Ailuros ist ordentlich biased Richtung imgtec.

Selbst wenn ich es nicht waere ist ihre Integrierungs-rate schwer zu uebersehen. 200M Einheiten nur in 2010.

http://www.itproportal.com/2011/02/14/exclusive-imagination-technologies-series6-20x-faster-series5/

Gerade weil ich so "biased" bin wie Du sagst arbeite ich im Hintergrund mit diversen grossen Seiten fuer embedded Zeug mit. Tragische Ironie hier ist dass all diese Seiten sich eher von NV's Material begeistert zeigen und IMG nur minimal erwaehnen. Und nein ich versuche auch nichts daran zu aendern, da IMG's Kundschaft nicht der Endverbraucher ist sondern grosse Semiconductor Hersteller und hier braucht man im Grund kein breites Marketing.

Ja natuerlich hab ich schon seit einer Ewigkeit eine zweifellose Schwaeche fuer TBDRs, aber auch nur bis zum Punkt wo ich selber einsehe dass DR keine Allheil-Loesung ist sondern lediglich eine Alternative mit Vor- und Nachteilen.

Genau diese "Schwaeche" hat NV dazu getrieben mich in ihre vergangene focus Gruppe einzunehmen damit ich fuer eine Ewigkeit den Stunk eines "NV shill" herumtragen musste und heute lese ich sogar stellenweise dass mir AMD eventuell checks zuschickt. Die geehrte Leserschaft sollte sich doch bitte entscheiden was ich jetzt am Ende sein soll, denn ich hab nach wie vor relativ gute Beziehungen zu allen IHVs, aber auch stets innerhalb des einfachen User-Nivaeus.

Wenn jetzt z.B. ein Author dummerweise irgendwo behauptet dass USC ALUs im Nachteil steht im vergleich zu non-USC ALUs, muss er nur lachen dass meine e-mail nur Minuten frueher ankam als der gleiche reminder dass es falsch ist von NV selber.

Wenn ich ehrlich bin, denke ich das imgtech wenig draufhaben, und jetzt nur deswegen einen Vorteil haben, weil sie schon eeeeeewig diesen Markt bedienen (Pioneer's Advantage). Sie gelten als gut in dieser Branche, weil sie bis vor kurzem 0 Konkurrenz gehabt hatten. Aber wenn man sich an ihr Desktop-Experiment errinert, so sind sie damit hart auf die Nase gefallen.

Was das Know-How und die Leute betrifft, so denke ich das die Großen (Nv und AMD) da einfach um Lichtjahre vor so einer Microschmiede sind.

Ich bin der Meinung, das es nur eine Frage der Zeit ist, bis Nv imgtech gnadenlos überholt.

Die Micro-Schmiede ist in der Zwischenzeit gewachsen. Ueber 700 Angestellte weltweit und der dritt-groesste IP Verkaeufer weltweit mit ARM natuerlich auf Nr.1.

Wie stickedy schon sagte Tegra ist eben nicht NV's erster Versuch sondern es gab noch ein paar Jahre vergebener Versuche mit GoForce vor Tegra. Erst Tegra2 ist beim richtigen Aufschwung und man sollte trotz allem stets daran denken dass NV SoC herstellt und verkauft waehrend IMG GPU, video, display, GPP IP verkauft und daher die beiden nie direkt konkurrieren werden.

Der embedded Markt operiert hauptsaechlich mit IP, sonst haette ARM CPU IP in diesem auch keinen so brutalen Durchbruch wie bis heute.

Viel mehr denke ich, das je mehr Zeit verstreicht, umso offensichtlicher es werden wird, wie schwach die Architekturen von imgtech waren. Man wird sich in ein Paar Jahren fragen, wie konnten diese Typen überhaupt so lange den Markt dominieren, mit ihren schwachen Lösungen.

Und das ist jetzt eine objektive Perspektive als Gegenbeispiel fuer mich? Es zeigt lediglich dass Du nicht die blasseste Ahnung hast, was IMG's IP Loesungen genau bis jetzt leisten sowohl auf perf/mm2 als auch auf perf/mW Nivaeu. Bei vergleichbarer die area und mW erreicht heute ein einzelner SGX um die 60fps in Q3A in 1080p waehrend Tegra2 in 1024*600 bei ~45fps schon halt macht.

Sonst sind natuerlich alle Partner von IMG naive Banausen die schon seit Jahren ihr Zeug lizenzieren und es wird wohl mehr als 7-8 Jahre dauern bis sie herausfinden dass sie die ganze Zeit zweitklassigen Mist eingekauft haben oder?

Das dumme ist eben dass ARM Mali, Vivante, Qualcomm, IMG und Vivante schon jetzt auf multi-core GPUs setzen. Wenn NV bei ab Tegra4 in eine aehnliche Richtung gehen sollte, koennten NV's GPUs konkurrenzfaehiger werden aber auch nur bis zu einem Punkt denn sie koennen nicht zich verschiedene SoCs herstellen (und genau das gleiche "Problem" hat Qualcomm auch). Die IP Verkaeufer erzeugen hier einfach einen auf MP skalierbaren GPU core und der IP Lizenznehmer kann dann beliebig von 1 bis zu 16 (rein theoretisch) cores integrieren. Den IP Verkaeufer kostet so etwas gar nichts.

SONY NGP hat 4 SGX543 cores; so und jetzt frag Dich selber um wie viele Mal schwaecher eine T2 ULP GeForce genau ist.

Sie haben aber erst mit Tegra ihre Bemühungen deutlich gesteigert. GoForce wurde von ihnen nie so stark beworben.

Der Laecherlichkeit zu Liebe haben sie mit GoForce trotz allem ziemlich guten Umsatz gemacht. Es war nur multimedia orientiertes midrange Zeug aber da die Integrierungs-rate um einiges hoeher war als mit T1 z.B. war es alles andere als ein schlechtes Geschaeft. Und nein das kommt nicht zum Widerspruch mit allem anderen; GoForce war als Geschaeft einfach zu limitiert, waehrend SoC Herstellung und Verkauf eben ganz anderen Chancen hat ueberhaupt wenn man damit vorhat in der Zukunft bis zu high end zu skalieren.

Und trotzdem konkurrenzfähig. Das ist der Unterschied zu Intel, die kein Fuss in dem Markt bekommen.

Wenn Intel weiterhin auf MeeGo beharren wird, befuerchte ich dass sie quasi den gleichen Fehler eingehen werden wie NV mit T1. Ich kann es gar nicht oft genug wiederholen dass ein balancierter SoC sowohl gute sw als auch gute hw braucht. Oefters kann die sw sogar wichtiger sein denn vergleichbare SoCs gibt es genug auf dem Markt. Schau Dir NOKIA in letzter Zeit an und sag mir was genau bei denen schiefgelaufen ist.

Ja die ULP GeForce ist konkurrenzfaehig heute. Aber NV sollte morgen nicht meckern wenn die Konkurrenz Richtlinien fuer GPGPU legen sollte die ihnen nicht passen koennten. Und ja natuerlich hat NV genug Erfahrung mit dem Zeug, aber es ist und bleibt eine Schande fuer sie selber dass sie ihre DevRel Macht auch nicht hier nicht schon ausnutzen koennen. Und konkurrenz-faehig ist auch so eine Sache fuer sich; wieso kein hand-held Deal fuer NVIDIA?

Natürlich ist ImgTech nicht schuld. Nur zeigt es, dass es für nVidia kein Nachteil ist eigene Technik zu verwenden. Und die 0 gilt auch für alle anderen.

Ich betone nochmal das IP Lizenzierung gar nichts mit SoC Herstellung zu tun hat, aber >70M iPads bis jetzt sind trotzdem eine sehenswerte Anzahl und diese wird natuerlich auch ziemlich radikal innerhalb des Jahres steigen.


Und verkaufen sich genauso wenig bzw. es gibt bis auf das Galaxy Tab kein ernstzunehmendes Konkurrenzprodukt zum iPad. Es ist also vollkommen egal, ob Tegra die unterlegende GPU-Architektur besitzt, wenn alle im selben Softwareboot sitzen.

Nur ist das dumme dass Honeycomb diesmal auf 2D/3D GPU acceleration setzt. Wie sonst koennte Honeycomb in den meisten Bereichen zur heutigen iOS Variante gleichstehen und in einigen sogar vielleicht leicht besser sein?

http://www.anandtech.com/show/4189/google-android-30-honeycomb-preview

Tegra3 ist wesentlich realer als deine "Produktankündigungen" für Q3+. Welche sollen es denn sein, die stärker als Tegra3 werden?

Apple's naechster SoC kommt frueher an. OMAP4 hat zwar nur dual A9 und "nur" SGX540 aber die GPU Frequenz macht bei 4440/385MHz noch lange nicht halt (taped out, der naechste 444x steht direkt danach mit noch hoeherer Frequenz). Dazu kommt eine Reihe von anderen SoCs die schon fertig sind wie der hier: http://www.renesas.com/press/news/2011/news20110210b.jsp

Deinorius
2011-02-22, 08:46:58
Wenn Intel weiterhin auf MeeGo beharren wird, befuerchte ich dass sie quasi den gleichen Fehler eingehen werden wie NV mit T1. Ich kann es gar nicht oft genug wiederholen dass ein balancierter SoC sowohl gute sw als auch gute hw braucht. Oefters kann die sw sogar wichtiger sein denn vergleichbare SoCs gibt es genug auf dem Markt. Schau Dir NOKIA in letzter Zeit an und sag mir was genau bei denen schiefgelaufen ist.


Die Frage hier, die sich stellt, wäre eher, was sie sonst nehmen könnten. Mir fällt nur Android auf x86 ein.

Ailuros
2011-02-22, 09:03:51
Die Frage hier, die sich stellt, wäre eher, was sie sonst nehmen könnten. Mir fällt nur Android auf x86 ein.

Android Unterstuetzung soll es ja geben, aber da Intel ja die MeeGo Entwicklung nicht aufgeben will, frage ich mich wo genau Intel's Konzentration genau sein wird. Intel hat ja auch noch das zusaetzliche Problem dass sie erstmal den Stunk von den miserablen GMA500 Treibern loswerden muessen.

Dass NOKIA sich eben wendete und auf WP7 setzte, hat wohl Intel und ST Ericsson am meisten getroffen; es wird wohl schon vielleicht Produkte von den letzten beiden geben, aber vielleicht sind es dann doch nur quasi "Eintagsfliegen".

Intel setzte eben darauf dass sie mit ihrer Co-operation mit NOKIA endlich in ein smart-phone kommen.

Avalox
2011-02-22, 11:51:29
Android Unterstuetzung soll es ja geben, aber da Intel ja die MeeGo Entwicklung nicht aufgeben will, frage ich mich wo genau Intel's Konzentration genau sein wird.

Na Android kann MeeGo nicht ersetzen.

Android ist ein System für Telefone und jetzt in Zukunft mal Pads. Es ist nichts für Tabletts, Netbooks, Nettops, Notebooks, Car PCs usw. usw.
Aber gerade diese Geräte welche etwas mehr Strom benötigen, aber auch etwas mehr an Rechenleistung mitbringen sind notgedrungen die Spielwiese von Intel.
Für diese Geräte entwickelt Google ja u.a. auch ChromeOS, welche ja nicht zufälliger Weise auf x86 Systemen in die Testphase ging, obwohl es natürlich auch für ARM Systeme gedacht ist.
Die MeeGo Telefon Schiene ist durch Nokia in das Projekt getragen worden und Intel wird garantiert MeeGo nicht wieder in Moblin zurück benennen, obwohl sie weiterhin die selben Ansprüche haben und Nokia mit MS ein zweites Truthuhn gefunden hat.

Ailuros
2011-02-22, 12:03:27
Na Android kann MeeGo nicht ersetzen.

Android ist ein System für Telefone und jetzt in Zukunft mal Pads. Es ist nichts für Tabletts, Netbooks, Nettops, Notebooks, Car PCs usw. usw.
Aber gerade diese Geräte welche etwas mehr Strom benötigen, aber auch etwas mehr an Rechenleistung mitbringen sind notgedrungen die Spielwiese von Intel.
Für diese Geräte entwickelt Google ja u.a. auch ChromeOS, welche ja nicht zufälliger Weise auf x86 Systemen in die Testphase ging, obwohl es natürlich auch für ARM Systeme gedacht ist.

Ich will hoffen dass Google langfristig den Android Laden ein bisschen uebersichtlicher macht und nicht weiterhin zweischienig was das OS betrifft entwickeln wird.

Es geht hier zeitig um Intel's bisher vergebliche Versuche in den smart-phone Markt einzudringen. Die Intel/NOKIA Co-Operation war auf MeeGo basiert und da NOKIA ihre Strategie aenderte will Intel nach oeffentlichen Aussagen MeeGo selber weiter-entwickeln.

Avalox
2011-02-22, 12:13:16
Es geht hier zeitig um Intel's bisher vergebliche Versuche in den smart-phone Markt einzudringen. Die Intel/NOKIA Co-Operation war auf MeeGo basiert und da NOKIA ihre Strategie aenderte will Intel nach oeffentlichen Aussagen MeeGo selber weiter-entwickeln.

MeeGo ist einfach ein umbenanntes Moblin, Nokia hat Maemo beigesteuert. Zudem wurde MeeGo von GTK+ auf QT umgestellt.
Maemo ist gut, QT ist gut.
Aber es ist eben Moblin geblieben, da man von Nokia eh nichts ernstes zu sehen bekommen hat.

Primär war Moblin nie für ein Mobiltelefon gedacht, sondern sollte den Netbook Markt, dort natürlich mit x86 befeuern. Einen Markt auf welche Microsoft bis heute kein passendes OS anbieten kann. Das selbe gilt für Pads und Tabletts.

Intel hat eben den Anspruch den ganzen Markt der neuen privat IT mit Geräten abzudecken und diese besteht eben aus deutlich mehr als Telefone und Pads(welche ja eh nicht im Intel Kern KnowHow stecken), deshalb wird auch MeeGo bleiben. Was auch sehr schön ist, da es sich um ein sehr gelungenes System handelt und Diversifikationen niemals schlecht sein können. Android und ChromeOS für x86 ist ja trotzdem im Fokus, bei ChromeOS sogar die eigentliche Zielplattform.


Das Pad und Telefon Android wird ja zusammen wachsen. Das Telefon als solches wird sich ja wandeln.

Ailuros
2011-02-22, 12:18:21
Zwar OT aber ein ausgezeichneter Herstellungsprozess Artikel von David Kanter:

http://www.realworldtech.com/page.cfm?ArticleID=RWT021511004545&p=1

steve.it
2011-02-22, 12:29:37
MeeGo ist einfach ein umbenanntes Moblin, Nokia hat Maemo beigesteuert. Zudem wurde MeeGo von GTK+ auf QT umgestellt.
Maemo ist gut, QT ist gut.
Aber es ist eben Moblin geblieben, da man von Nokia eh nichts ernstes zu sehen bekommen hat.
Nach meinem Kenntnisstand basiert die "Netbook-Version" von MeeGo noch nicht vollständig auf Qt.

Edit:
Meego-Projekt scheint Netbook-Oberfläche fallen zu lassen (http://www.heise.de/open/meldung/Meego-Projekt-scheint-Netbook-Oberflaeche-fallen-zu-lassen-1186424.html)

"Einer der Hauptgründe für die Einstellung des Netbook UX dürften der Unterbau des Bedienoberfläche sein, denn dort kommen Clutter und einige andere aus der GTK- und GNOME-Welt bekannten Komponenten zum Einsatz. Bei Meego ist jedoch das auch von KDE genutzte und von Nokia vorangetriebenen Qt das grafische Toolkit der der Wahl; schon bei der Meego Conference im vergangenen November hieß es daher, man müsse noch sehen, wie man die zwei Welten langfristig zusammenführe."

Avalox
2011-02-22, 12:51:11
Nach meinem Kenntnisstand basiert die "Netbook-Version" von MeeGo noch nicht vollständig auf Qt.




Die wirklich interessante Frage ist ja generell, wie es mit QT weitergehen wird. Unabhängig von MeeGo.

Das Netbooks aus dem Fokus verschwinden ist ja schon länger abzusehen. Moblin ist ja zu einer Zeit entstanden, als sich ein Intel über "nicht x86" Netbooks mit irgend einem fiktiven Google OS gegruselt hat.
Nun sind Netbooks weg vom Fenster, bzw. in Notebooks gewandelt, die "nicht x86" Geräte mit einem realen Google OS sind da und Windows ist obendrein auch für nicht x86 Geräte angekündigt. Nicht ganz so gut gelaufen für Intel, für MS aber auch nicht. Der richtige Verlierer ist Nokia und der Gewinner ein Google.

Man kann im ganzen Spiel Intel zugute halten, dass sie keine Prozessoren ohne passendes Betriebssystem bauen wollen. Dieses bekommt scheinbar nur nVidia hin. (um die Kurve zum Tegra2 wieder zu spannen).

aylano
2011-02-22, 13:23:46
Ich will hoffen dass Google langfristig den Android Laden ein bisschen uebersichtlicher macht und nicht weiterhin zweischienig was das OS betrifft entwickeln wird.

Wie soll ich das verstehen?

Ich dachte, Google führt mit Ice Cream Android 2.3/4 und Andriod 3.0 zusammen.

Ailuros
2011-02-22, 13:32:25
Wie soll ich das verstehen?

Ich dachte, Google führt mit Ice Cream Android 2.3/4 und Andriod 3.0 zusammen.

Was verstehst Du under "zusammenfuehrung" hier genau?

http://www.anandtech.com/show/4189/google-android-30-honeycomb-preview/3

As I mentioned earlier, Google’s solution to this problem is Ice Cream; the next release of Android aimed at establishing a feature set parity between tablet and phone versions of the OS. Again, we’re not exactly sure about the timelines (although Mr. Schmidt did mention a 6-month release cycle) or the exact features that will make the cut in the next release. However, we can be reasonably sure that many of the under-the-hood enhancements like an updated Dalvik VM, support for multi-core SoCs, 2D/3D hardware acceleration and compatibility with apps written for Honeycomb should make the cut.

Entweder ich hab etwas falsch verstanden oder es wird immer noch zwei getrennte OS Versionen geben, egal ob es zwischen den beiden "feature set parity" gibt. Mit "zweischienig" hatte ich eher im Hinterkopf dass es irgendwann ein einziges OS geben wird sowohl fuer tablets als auch fuer smart-phones. Nichtdestominder wird dann auch die Entwicklung fuer Google selber einfacher.

Ailuros
2011-02-22, 19:58:07
MWC2011 durch die Augen von Arun@B3D:

http://www.beyond3d.com/content/articles/112/1

Kal-El is a very impressive chip relative to the competition for 2011 tablets and smartphones, but NVIDIA also showed a roadmap that goes all the way up to 2014. Their goal was clearly to impress the press, but it had quite the opposite effect on me: if Kal-El in 2011 is a 5x boost over Tegra 2 but Wayne in 2012 is only a 2x boost despite being on 28nm, that means it's likely an even smaller architecture change. That also means the new GPU architecture, which was rumored for this generation of hardware, possibly won't come until Logan in 2013, and neither will the Cortex-A15 (which will lead to interesting comparisons between 4xA9 vs 2xA15). The good news is that would allow Wayne to be cheap enough to target much more than just the ultra-high-end market. On the other hand, the competition certainly isn't standing still with their first 28nm chips...

aylano
2011-02-22, 20:23:29
Was ist eigentlich der Unterschied zwischen Android 2.x und Android 3.x ????

Android 3.0 braucht mehr Performance.
Ist das nur wegen der höheren Auflösungen @ Tablets??

Ailuros
2011-02-22, 21:10:52
Was ist eigentlich der Unterschied zwischen Android 2.x und Android 3.x ????

Android 3.0 braucht mehr Performance.
Ist das nur wegen der höheren Auflösungen @ Tablets??

Steht doch alles drin im Anand Artikel oben. Am wichtigsten duerften Fragments, Multitasking und die Developer Features sein:

From a developer’s standpoint, Honeycomb features support for multiple cameras, multi-core processors, 2D/3D GPU acceleration across applications using the new Renderscript graphics engine, better compatibility across existing apps and so on. Also included is support for better multimedia and connectivity options like HTTP streaming, Media/Picture Transfer Protocol (MTP/PTP), a pluggable DRM framework to allow management of protected content regardless of the underlying DRM engine and API support for Bluetooth A2DP and HSP profiles. There are also some enhancements to the Enterprise feature set of the OS with policies for encrypted storage and password management.

Uebrigens es gibt kein 2.4 afaik, sondern Gingerbread 2.3.3.

Avalox
2011-02-22, 21:34:40
Was ist eigentlich der Unterschied zwischen Android 2.x und Android 3.x ????

Android 3.0 braucht mehr Performance.
Ist das nur wegen der höheren Auflösungen @ Tablets??

Auf Pads werden eben andere Anwendungen als auf einen Telefon genutzt.

So hat Android 3.0 eine neue Pad angepasste Oberfläche, die Möglichkeit eigene Widgets auf dem Homescreen einzubinden. Auch die Basisanwendungen, wie z.B. der Webbrowser sind angepasst worden.
Es wird dabei die GUI von der Hardware beschleunigt und der benutzerfreundliche Wechsel von offenen Anwendungen hat mehr Augenmerk bekommen.


Android entwickelt sich halt ständig weiter.
So kommt mit der Version 2.3 für Telefone die Dual Core Unterstützung für das OS und ab 2.3.3 (vormals 2.4 genannt) die Dual Core Unterstützung für Anwendungen dazu.

Für Android 4.0 wird eine Zusammenführung des PAD und des Telefon Androids gemunkelt.

LovesuckZ
2011-02-22, 22:39:37
Ach, die haben die Produkte zum Spaß angeboten? Das ist doch lächerlich...

Es geht darum, dass sie mit Tegra wesentlich agressiver vorgehen. Sie haben einen deutlichen Schnitt gemacht.


Ist die schon mal der Gedanke gekommen, dass es keinen Bedarf für einen Quadcore in 40 nm gibt? Oder zumindest keinen ausreichenden, um die Investition zu rechtfertigen?

Natürlich gibt es einen Bedarf. Siehe auch Sony mit ihrer NGP. Und vorallem du und deine Freunde, die so stark auf GPU-Technik rumreiten, müssten doch über QuadCore erfreut sein, weil es vorallem für Spiele von Bedeutung ist.


Nvidia ist aber nicht wegen der GPU konkurrenzfähig, sondern wegen der CPU!

Was wiederum bedeutet, dass GPU-Leistung eine untergeordnete Rolle spielt. Und für Spiele benötigt man auch eine entsprechende potente CPU-Architektur.


Dir sind die ca. 1,5 Millionen Samsung Galaxy Tabs entgangen? Oder alle anderen Android-basierten Tablets mit PowerVR-Kern? Von den "lächerlichen" 15 bis 20 Millionen iPads ganz zu schweigen...

Ich habe gelesen, dass Samsung zwar bis zu 2 Millionen ausgeliefert habe, aber nur 500k verkauft hätte.

Das zwei Kerne weniger Strom als vier Kerne benötigen ist dir aber schon klar, oder?

Und laut nVidia verbraucht Kal-El bei gleicher Last nicht mehr Strom. Und soll bei bestimmter Last - analog DualCore zu SingleCore - weniger verbrauchen.

Ailuros
2011-02-23, 07:10:19
Es geht darum, dass sie mit Tegra wesentlich agressiver vorgehen. Sie haben einen deutlichen Schnitt gemacht.

Wie deutlich dieser sein wird bleibt abzusehen, denn die Konkurrenz ist weder klein noch wird sie weiterschlafen. Eine sehenswerte Erscheinung in Geraeten von T3 werden wir so oder so erst Anfang 2012 sehen.

Natürlich gibt es einen Bedarf. Siehe auch Sony mit ihrer NGP. Und vorallem du und deine Freunde, die so stark auf GPU-Technik rumreiten, müssten doch über QuadCore erfreut sein, weil es vorallem für Spiele von Bedeutung ist.

Und eine hand-held Konsole hat genau was mit einem smart-phone oder einem tablet gemeinsam? Aber wenn es schon sein muss NGP hat mit ihrer quad core CPU und quad core GPU eine um einiges bessere processing Balance als ein Tegra2. Und der eigentliche Grund warum T2 nie in Anspruch gekommen waere, waere erstmal dass die ULP GeForce dem MP4+ um zumindest 8x Mal unterlegen ist. Ueber 2 Millionen echte Dreiecke pro Frame bei 60Hz.

Uebrigens wusste ich nicht dass es ploetzlich Fraktionen in diesem Forum gibt; vielleicht fuer Dich was mir so oder so keinen besonderen Eindruck macht.

Was wiederum bedeutet, dass GPU-Leistung eine untergeordnete Rolle spielt. Und für Spiele benötigt man auch eine entsprechende potente CPU-Architektur.

Fuer 3D braucht man eine gute Balance zwischen CPU und GPU Power. Wenn OMAP5 als Gegenbeispiel 2*A9 mit SGX544 MP4 haette dann waere es auch ein ziemliche merkwuerdiger config, da A15 != A9 pro core ist.

Ich habe gelesen, dass Samsung zwar bis zu 2 Millionen ausgeliefert habe, aber nur 500k verkauft hätte.

Es sind 2Mio.

Und laut nVidia verbraucht Kal-El bei gleicher Last nicht mehr Strom. Und soll bei bestimmter Last - analog DualCore zu SingleCore - weniger verbrauchen.

QuadA9 auf T3 wird hoechstwahrscheinlich insgesamt weniger verbrauchen bei gleichem Takt wie 2*A9 in T3, aber auch nur aus dem Grund weil in T3 die paar Verfeinerungen stecken die in T2 eben fehlen und gerade Du in diesem Thread vehement bestreiten wolltest. Ergo entscheide Dich erstmal was genau was sein soll.

Von dem abgesehen der CPU Block auf T3 wird um 50% hoeher takten als in T2 und im Fall von voller Auslastung wird der Stromverbrauch (da wieder unter 40nm) schon steigen. Die Frage ist dann eher wo und wie oft alle 4 CPU cores voll ausgelastet werden koennen; dazu muesste man aber einen ziemlich synthetischen Fall finden die mit dem tablet/smart-phone UI wenig bis gar nichts zu tun hat sonst kommt die GPU schon noch ins Schnaufen.

Und da Du wie hier parallelen zu NGP stehen willst, frag gefaelligst ausnahmsweise einen sw Entwickler wofuer low level API in einem "geschlossenen" Bereich wie einer hand-held Konsole oder auch Konsole genau steht und wieso man die vorhandenen hw resourcen in diesem Fall effizienter benutzen kann. Besonders weit braucht man da gar nicht gehen; an RSX+Cell zu erinnern reicht schon.

Ailuros
2011-02-24, 07:15:34
Motorola Xoom review: http://www.anandtech.com/show/4191/motorola-xoom-review-first-honeycomb-tablet-arrives/1

Am Rand und mit rein geschichtlichem Wert: http://www.xbitlabs.com/news/multimedia/display/20110223184656_Nintendo_3DS_Was_Not_Meant_to_Feature_Stereo_3D_Screen.html

Dural
2011-02-24, 13:48:51
heftig, da scheint Honeycomb ja noch mächtig probleme zu machen...


so was erwartet man eigentlich nicht von Google :rolleyes:

Hugo78
2011-02-24, 14:02:16
Das Fazit fällt doch positiv aus, bis auf den Preis.

Avalox
2011-02-24, 15:32:58
heftig, da scheint Honeycomb ja noch mächtig probleme zu machen...
so was erwartet man eigentlich nicht von Google :rolleyes:

Ist v. 1.0 eines Pad Systems von Google. Da wird es zwangsläufig noch die ein oder andere Ecke geben. Aber bei der Innovationsfreudigkeit von Google und ein paar Versionen weiter wird es schnell was werden.

Ailuros
2011-02-24, 15:34:45
Das Fazit fällt doch positiv aus, bis auf den Preis.

Overall I am very excited to see Honeycomb tablets hit the market. Last year was mostly a waste when it came to non-iPad tablets, but this year looks to be quite the opposite.

This conclusion is obviously unfair to Apple given the rumored impending release of the iPad 2, but if I had to buy a tablet today it’d probably be the Xoom.

If I wasn’t insane however, I’d wait to see what was being announced on March 2nd first.

Ich persoenlich wuerde den letzten Satz weglassen, aber das ist auch weniger wichtig. Ich als Kunde wuerde nach solch einem review erstmal zurueckhalten bis sich die sw besser ausbuegelt; und gerade eben deshalb halte ich den letzten Satz fuer ueberfluessig.

YfOrU
2011-02-24, 20:05:18
heftig, da scheint Honeycomb ja noch mächtig probleme zu machen...


so was erwartet man eigentlich nicht von Google :rolleyes:

Eher hätte bei Android 3.0 etwas anderes als eine zu frühe Veröffentlichung und damit übermäßig viele Problemstellen überrascht.

Von Apple abgesehen stehen alle Teilnehmer mächtig unter Druck endlich Produkte am Markt verfügbar zu haben. Im Gegensatz zu Google hat aber zum Beispiel RIM die Markteinführung (ebenfalls aus Gründen des OS) verschoben.

Seit Anfang an steht bei Googles Android die Qualität der ausgelieferten Software nicht auf dem Level das zu erwarten ist. Im Endkundenmarkt kann das teilweise toleriert werden, wer aber auch Produkte für Geschäftskunden und Unternehmen liefern will kann sich das auf Dauer nicht leisten.

Hinzu kommt halt leider wieder der Faktor das es keinen zentrale Updateprozedur gibt. Motorola and Friends sind dann auch weniger für zeitnahe Updates berühmt, nicht einmal bei "with Google" Produkten.

Produkte auf den Markt zu werfen von denen man erst mal die Finger lassen sollte kann eigentlich auch nicht Sinn der Sache sein. Wobei das durchaus schade ist denn vom Preis abgesehen ist das Xoom momentan neben dem iPad das einzige ernst zunehmende Tablett. Das was sonst verfügbar ist hat Displays in Netbookqualität - für Tabletts unbrauchbar.

Hugo
2011-02-24, 21:16:39
weiß man eigentlich schon wieviel schneller ein A15 Kern gegenüber einem A9 Kern ist?

Label
2011-02-24, 21:32:24
weiß man eigentlich schon wieviel schneller ein A15 Kern gegenüber einem A9 Kern ist?
A15 ist wohl 40% (http://www.elektroniknet.de/bauelemente/produkte/halbleiter/article/31130/0/Rechenleistung_Extrem/) schneller als A9

Hugo
2011-02-24, 21:53:05
da stellt sich mir die Frage ob nicht 2xA15 besser als 4xA9 des T3 sind.
Und die freigeworden DIE Fläche hätte man besser in GPU Power investiert

YfOrU
2011-02-25, 00:15:25
Wirklich viel Fläche wird nicht bleiben denn mit A15 will man halbwegs zum x86 Lowend aufschließen. Das kostet gegenüber A9 ordentlich Transistoren (pro Kern).

http://www.arm.com/products/processors/cortex-a/cortex-a15.php

Wobei A15 eher für Ende 2012 / Anfang 2013 ansteht. Die ersten 28nm SoCs (2012) werden wohl noch A9 MP sein.

Ailuros
2011-02-25, 08:24:13
Wirklich viel Fläche wird nicht bleiben denn mit A15 will man halbwegs zum x86 Lowend aufschließen. Das kostet gegenüber A9 ordentlich Transistoren (pro Kern).

http://www.arm.com/products/processors/cortex-a/cortex-a15.php

Wobei A15 eher für Ende 2012 / Anfang 2013 ansteht. Die ersten 28nm SoCs (2012) werden wohl noch A9 MP sein.

Das Problem der A15 lead partner ist IMO weniger die die Flaeche oder die fuer A15 projezierten Frequenzen sondern eher wann 28nm in anstaendigen Kapazitaeten ankommen kann. Ich will ernsthaft bezweifeln dass andere foundries einen Zauberstab gegenueber TSMC haben werden und Intel muss es erstmal schaffen einen ernsthaften Fuss im embedded Markt in die Tuer zu stecken.

ST und TI versprechen zwar dass ihre Nova bzw. OMAP5 SoC schon in 2011 zum tape out kommen, aber Integrierung ist stets ein anderes Kapitel.

Zumindest so wie es aussieht scheint T3 tatsaechlich gute Chancen zu haben in breiteren Volumen Anfang 2012 in finalen Geraeten zu erscheinen. Was ich als durchaus laecherlich empfand ist dass kein einziger NV Angestellte bei MWC (unter diesen auch grosse Namen) wirklich eine Ahnung hatten wie die ULP GF Einheiten aussehen. Jemand der gerade einen embedded GPU Artikel schreiben will, muss sich jetzt leider selber ueber ein T2 Geraet beugen und hoffen dass es mit ein paar Tests etwas klarer wird.

Wie dem auch sei es wird sich in kommenden Jahren vielleicht so einiges aendern denn Semis haben wohl nicht vor einzuschlafen: http://www.xbitlabs.com/news/other/display/20110223223532_Samsung_to_Initiate_Test_Production_of_20nm_Chips_in_2011.html

Hugo,

A9 cores sind relativ klein; es ist auch kein Zufall dass kein einziger A15 ARM lead partner mit diesen mit nur 2*A15 (aber bei hohen Frequenzen) damit bei >28nm erscheinen wird.

Hugo
2011-02-25, 09:04:13
mich würde mal interessieren wie groß ein A15 gegenüber A9 wäre (im gleichen Prozess versteht sich)

Ailuros
2011-02-25, 09:56:52
mich würde mal interessieren wie groß ein A15 gegenüber A9 wäre (im gleichen Prozess versteht sich)

Zusaetzliche Leistung ist nie umsonst:

If the A9 was revolutionary, the Cortex-A15 (launched in late 2010) is an even bigger evolutionary step (very big indeed at about twice the die area). The pipeline has grown to 14+ stages (5xFetch/7xDecode/Issue/1-4xExecute/Writeback) and while some of that growth is due to increased complexity, a fair bit is also due to higher clock targets as indicated by the multiplier which has increased from 3 stages in both the A8 and A9 to 4 stages in the A15. ARM claims a 40%+ performance improvement per MHz for integer code versus the A9 but interestingly the basic execution units are very similar: two simple ALUs and a multiplier. It's all about increasing their utilisation by boosting everything else (including buffer sizes and branch prediction).
http://www.beyond3d.com/content/articles/111/1

Ergo =/>40% mehr Leistung bei A15 bei gleicher Frequenz. Da aber die Frequenzen radikal steigern werden kommt noch einiges dazu. T3 wird mit quad A9 hoechstwahrscheinlich bei bis zu 1.5GHz liegen, waehrend ST Ericsson fuer Nova A9600 (um einiges spaeter) bis zu 2.5GHz fuer 2*A15 angibt. In solch einem Fall hast Du um die 40% mehr Leistung (stets nach ARM's eigenen Angaben) von der Eagle Architektur selber und nochmal >60% von der zusaetzlichen Frequenz.

Hugo
2011-02-25, 11:15:57
da könnte T3 und Nova9600 ähnlich schnell werden oder?