Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs
Dural
2010-09-23, 14:29:45
weil sich die Tegra Preise 1/2 haben? ;)
Ailuros
2010-09-23, 14:49:30
weil sich die Tegra Preise 1/2 haben? ;)
Nur war dieses im originalen forecast schon mitberechnet. Wenn man ca. $125M Umsatz im neuesten Forecast hat dann sind es mit den heutigen Preisen etwas ueber 10M Einheiten. Ausser Du willst mir weiss machen dass die frueher angegebene >50 design wins nur eine so geringe Menge ausmachen werden.
Das HTC tablet duerfte gesichert sein und ein Google/Motorola tablet haengt an einem sehr feinem Faden vor der Stornierung. Mehr kann ich momentan nicht sagen.
Tiamat
2010-09-23, 15:24:50
Tegra 3 fast gertig, an 4 wird schon gearbeitet.
http://www.heise.de/newsticker/meldung/GTC-Nvidias-Tegra-3-ist-fast-fertig-1094672.html
Selbstkritisch erklärte Huang außerdem, dass Nvidia hinsichtlich des Tegra-Bereiches rund ein Jahr hinter seinen Zielen liege. Zukünftig wolle man jedes Jahr einen neuen Tegra-Prozessor auf den Markt bringen – bei mobilen Geräten sieht das Unternehmen hohe Wachstumspotenziale. "In the future, the mobile device will be your computer device first and your mobile phone second." so Huang.
Das klingt doch ziemlich vielversprechend.
LovesuckZ
2010-09-23, 15:30:00
nVidia hat schon auf der CES 2009 angekündigt, dass sie ab Tegra 2 jedes Jahr ein neues Device bringen wollen.
Ailuros
2010-09-23, 15:35:37
Tegra 3 fast gertig, an 4 wird schon gearbeitet.
http://www.heise.de/newsticker/meldung/GTC-Nvidias-Tegra-3-ist-fast-fertig-1094672.html
Das klingt doch ziemlich vielversprechend.
Macht fast jeder grosse SoC Hersteller. NV liegt aber im Vorsprung was benutzte Prozess-Technologie betrifft im Vergleich zu Texas Instruments oder Samsung als Beispiel. Wenn da die anderen nicht in absehbarer Zeit nachholen wird NV natuerlich diesen Vorteil auch ausspielen koennen. Aussnahme ist natuerlich Intel, aber die sind auch nicht fab-less.
Huch? Seit der CES kommen doch fast monatlich neue Design-Ankündigungen dazu. Der einzige Absprung war Boxee.
Toshiba's AC100 wurde nicht auf der CES angekündigt und ist trotzdem das erste käufliche Device.
Also angekündigt wurde schon vor der ces viel, Zune kaufen gibts aber nicht wirklich was. Sowas nennt man auch vaporware.
Ailuros
2010-09-27, 12:21:33
http://news.cnet.com/8301-13924_3-20017585-64.html
Nvidia is staking a good chunk of its future--as much as half of its business--on chips based on the ARM design.
When asked at last week's Intel Developer Forum conference if Intel was de-emphasizing smartphones, Chief Executive Paul Otellini responded quickly. "Absolutely not. It's still a major focus of our investment. We're moving toward the launch window of a couple of major phones in 2011. And you've got to lock down before that and go through the interoperability testing with networks. And that's where we are. So, there's nothing really to say until those devices launch on the networks next year."
That said, Texas Instruments, Qualcomm, Samsung, Apple, Nvidia, and other ARM players will build the brains for many of these devices. But Intel and Advanced Micro Devices will too. And, to be sure, Nvidia's future in this market, considering all of the entrenched ARM competition, is probably less certain than Intel's.
http://www.dailytech.com/article.aspx?newsid=19699
Apple in the first half of 2010 sold 17 million mobile handsets. Samsung, LG, and Nokia sold 400 million handsets (this figure includes all phones, not just smartphones). And other manufacturers sold 190 million handsets. That means Apple produced roughly 2.8 percent of the mobile units sold in the first half of the year.
However, it made 39 percent of the mobile handset industry's total profit, while Samsung, Nokia, and LG posted a 32 percent cut of the total profit, and the remaining companies made a 29 percent cut.
So why is the iPhone so profitable? The answer is complex. To start, because many customers are so enamored with the phone, AT&T has reportedly given Apple an extremely lucrative contract to grow its subscribers numbers. Thus Apple makes much more pure profit per phone.
Apple also tends to feature slightly inferior hardware to its top-of-the line Android competitors. For example, it tends to have a smaller screen, lacks a microSD expansion slot, etc. And Apple is extremely aggressive in negotiating its manufacturing prices, pushing companies like Foxconn to deliver higher volumes at lower prices.
Of course, if these numbers are true, what they also mean is that Apple doesn't really need to win the smartphone war. It merely needs to hang onto its current market share and keep raking in cash from its loyal customers.
http://www.dailytech.com/article.aspx?newsid=19711
Ailuros
2010-09-28, 13:30:23
http://www.xbitlabs.com/news/cpu/display/20100927101532_Smartphones_Will_Bury_x86_Personal_Computers_Chief_Executive_of_N vidia.html
The market of personal computers will face fundamental changes in the future, according to Jen-Hsun Huang, chief executive officer of Nvidia Corp. ARM will become the most important microprocessor architecture of the future and smartphones based on ARM will bury x86-based systems.
Ich muss irgendwo irgend etwas sehr wichtiges uebersehen....
"The PC of the future will be made by new OEMs, sold through new distributors and use a new instruction-set architecture. ARM will be the most important CPU architecture of the future, and it already is the fastest growing processor architecture," said Mr. Huang in an interview with EETimes web-site.
:rolleyes:
Nvidia itself sells system-on-chip products called Tegra that integrate ARM processing cores and the company's graphics controllers. Although Nvidia Tegra has not seen a lot of success, the business is growing and as the importance of powerful smartphones will grow, so will the popularity of Tegra. However, the chances that ARM will eventually leave x86 behind are pretty thin. ARM cannot compete against x86 when it comes to performance, especially in servers. Moreover, although x86 chips are made by three companies, the forces behind x86 include loads of PC makers and software designers.
Nvidia's core business are graphics cards for personal computers that are based on x86 central processing units. As a result, it is in fact in Nvidia's interests that x86 microprocessors evolve in a timely manner and boosted demand for graphics chips.
Ich weiss im besten Sinn nicht was Jensen genau im Hinterkopf hat aber es klingt fast so als ob er irgend einen schlimmen Virus von Sweeney geerbt hat. Solche bunte und unrealistische Projektionen hoert man nur vom letzten.
Klar skaliert der embedded Markt mit einer Geschwindigkeit die groesser ist als im PC insgesamt aber auch stets innerhalb einen verdammt begrenzten power-envelope.
Und ja klar koennte ARM irgendwann in der wenig vorhersehbaren Zukunft CPU IP entwickeln dass fuer den PC und einige Meilen weiter fuer servers geeignet sein sollte, aber selbst dann sehe ich keine Garantie fuer einen massiven Erfolg von einem Tag auf den anderen. Und ja natuerlich Intel und Co werden sich in der Zwischenzeit nicht wenden wissen und werden einfach nur einer im Vergleich winzigen IP Schmiede die weisse Fane wedeln.... :freak:
Mancko
2010-10-01, 00:34:55
HTC und Motorola setzen wohl auf Tegra 2.
http://www.digitimes.com/NewsShow/NewsSearch.asp?DocID=PD000000000000000000000000016644&query=TEGRA
Tiamat
2010-10-02, 12:12:39
http://www.xbitlabs.com/news/cpu/display/20100927101532_Smartphones_Will_Bury_x86_Personal_Computers_Chief_Executive_of_N vidia.html
Ich muss irgendwo irgend etwas sehr wichtiges uebersehen....
:rolleyes:
Ich weiss im besten Sinn nicht was Jensen genau im Hinterkopf hat aber es klingt fast so als ob er irgend einen schlimmen Virus von Sweeney geerbt hat. Solche bunte und unrealistische Projektionen hoert man nur vom letzten.
Klar skaliert der embedded Markt mit einer Geschwindigkeit die groesser ist als im PC insgesamt aber auch stets innerhalb einen verdammt begrenzten power-envelope.
Und ja klar koennte ARM irgendwann in der wenig vorhersehbaren Zukunft CPU IP entwickeln dass fuer den PC und einige Meilen weiter fuer servers geeignet sein sollte, aber selbst dann sehe ich keine Garantie fuer einen massiven Erfolg von einem Tag auf den anderen. Und ja natuerlich Intel und Co werden sich in der Zwischenzeit nicht wenden wissen und werden einfach nur einer im Vergleich winzigen IP Schmiede die weisse Fane wedeln.... :freak:
Es gibt ja schon Unterschiede zwischen dem x86 und ARM Ansatz, aber es gibt vorallem Unterschiede bei der Strategie.
Intel/AMD powern im Desktopsektor seit Jahren um die Wette und CPUs aus dem Bereich sind den ARM CPUs performancemäßig um Meilen voraus.
Aber im Mobilsektor oder Embedded Sektor sieht die Strategie von Intel / AMD so aus, dass man die CPUs immer weiter kastriert, und stromsparender zu werden.
Für die ATOM Generation 3 z.B gab Intel auf der IDF an, > 3000DMIPS bei 1-2W. Hier ist das Bild :http://www.sunrainet.com/wp-content/uploads/2009/05/2.jpg
Ein Atom dieser Generation kommt bereits auf 4000DMIPS. Das heißt man hat die Leistung zugunsten des Stromverbrauch noch weiter abgesenkt.
ARM auf der anderen Seite kastriert keine CPUs, sondern da geht die Entwicklung linear weiter, natürlich stets mit dem Fokus auf möglichst wenig Stromverbrauch.
Und egal wie jetzt die Details der Realität ausschauen, es dürfte klar sein, dass ein Hersteller, der die Performance stets erhöhen möchte, jemanden irgendwann eingeholt hat, der in diesem Bereich seine CPU künstlich am untersten Limit hält.
robbitop
2010-10-02, 15:22:33
Wobei ich bei ARM seit den Cortex-CPUs eher den Eindruck habe, dass jede Nachfolgearchitektur mehr und mehr Leistungsaufnahme benötigt. ARM11@65nm kam noch mit 0,26mW/MHz aus, CortexA8@65nm brauchte schon 0,59mW/MHz. CortexA9 mit 2x superskalarer Breite + OoO und CortexA15 mit 3x superskalarer Breite + OoO gehen dort vermutlich noch weiter.
ARM pusht im Moment schon in Richtung Performance. Gerade beim Cortex A15 habe ich den Eindruck, dass man in irgendwelche Servermärkte rein will. Denn der Benefit von 2x - Superskalar auf 3x Superskalar ist relativ klein ggü. dem Einsatz.
Captain Future
2010-10-02, 16:17:14
Ist Watt pro MHz denn eine sinnvolle Bezugsgröße in diesem Segment?
robbitop
2010-10-02, 16:23:57
Naja da ähnliche Taktraten bei diesen CPUs vorkommen ja. Die MHz-Spezifische Größe wird von ARM in den Specs gegeben, damit der Hersteller sehen kann, wie sein envelope aussieht.
Im Prinzip kann man es auch auf 1 GHz oder meinetwegen 800 MHz umrechnen.
Captain Future
2010-10-02, 17:02:27
Das meinte ich nicht, entschuldige.
Aber ist es gerade in diesen meist durch zusätzliche IP cores hochspezialisierten Bereich sinnvoller, Watt pro MIPS o.ä. herzunehmen? Immerhin würden mit einer neuen Architektur eventuell wesentlich weniger MHz genügen, um die Aufgabe zu erledigen.
=Floi=
2010-10-02, 17:09:08
das geht aber nicht unbegrenzt und deshalb steigert man auch die normale cpu-leistung
Captain Future
2010-10-02, 18:47:05
Das hier ist nicht der PC-Bereich. Wenn ein SoC im Fernseher 3D-Bluray mit 24p schafft, bringt's meist nix, wenn er dann noch höher getaktet wird usw.
=Floi=
2010-10-02, 19:58:38
es geht auch eher um mobile geräte und generell um leistungssteigerung. mit mehr leistung kann man auch andere sachen machen. selbst ein fernseher bietet möglichkeiten.
bei telefonen und anderen geräten sind wir noch jahre entfernt. gleiches beim atom, welcher auch noch von normaler performance meilenweit entfernt ist.
robbitop
2010-10-02, 20:14:08
Das meinte ich nicht, entschuldige.
Aber ist es gerade in diesen meist durch zusätzliche IP cores hochspezialisierten Bereich sinnvoller, Watt pro MIPS o.ä. herzunehmen? Immerhin würden mit einer neuen Architektur eventuell wesentlich weniger MHz genügen, um die Aufgabe zu erledigen.
Das ist wohl wahr. Aber auch hier ist es IMO sehr sehr schwer eine gute Vergleichsbasis zu finden. Z.B. erhöht OoO ja den maximalen Ausführungsdurchsatz nicht sondern nur den effektiven. Je nach dem wie der Code ist, der verarbeitet werden muss. Und der effektive Gewinn durch OoO (was ja auch nicht nur da oder nicht da ist sondern auch verschieden gut implementiert werden kann) schankt dann je nach Anwendung.
Z.B müsste ein Cortex A8 den 2x Durchsatz pro MHz in der Praxis bringen, um die doppelte Leistungsaufnahme zu kaschieren. Der A9 wird vermutlich noch hungriger sein und die Skalierung wird immer mehr abfallen (Gesetz des sinkenden Grenzertrags). Aber andererseits nehme ich an, dass sie Leistung durch reine Skalierung von einfachen ARM11 Kernen und reiner Takterhöhung recht schnell nicht mehr sinnvoll erhöhen lässt, so dass die Kerne nun besser werden müssen (wie die Evolution vom 486 zum P5 (ARM11 zum A8 - superskalar) und vom P5 zum P6 (A8 zum A9 - OoO) und so weiter (2 issue - 3 issue) ....
Tiamat
2010-10-03, 11:34:30
Wobei ich bei ARM seit den Cortex-CPUs eher den Eindruck habe, dass jede Nachfolgearchitektur mehr und mehr Leistungsaufnahme benötigt. ARM11@65nm kam noch mit 0,26mW/MHz aus, CortexA8@65nm brauchte schon 0,59mW/MHz. CortexA9 mit 2x superskalarer Breite + OoO und CortexA15 mit 3x superskalarer Breite + OoO gehen dort vermutlich noch weiter.
ARM pusht im Moment schon in Richtung Performance. Gerade beim Cortex A15 habe ich den Eindruck, dass man in irgendwelche Servermärkte rein will. Denn der Benefit von 2x - Superskalar auf 3x Superskalar ist relativ klein ggü. dem Einsatz.
Ja das ist auch so. ARM11 war noch ultramobil, hatte aber auch sehr wenig Leistung. Mit der Performancesteigerungen ab Cortex waren plötzlich Tablet-PCs möglich, demnächst auch Netbooks und Server.
Bei einer geringen Leistungsaufnahme von 0.xx mW/Mhz hat man da diesbezüglich auch noch Spielraum.
Bei Intel sieht das wieder anders aus. Sobald man OoO verwendet, kommt man automatisch wieder in Wattbereiche, in sich der ULV CPUs befinden.
Das einzigste, was ich hier sehe, ist das Intel eine Möglichkeit findet, eine OoO Engine zu verbauen, die Makro-ops nicht in Mikro-ops umwandelt, sondern als solches verarbeitet werden. Das macht ja der Atom jetzt, aber halt in-Order. Aber sobald man hier wieder dekodiert und überhaupt wieder die Mikroop-engine ins Spiel bringt, wird man auf jeden Fall beim Stromverbrauch immer ein Nachsehen ggü. ARM haben.
Schon bald hat man auch Leistungsgemäß das Nachsehen, da fehlt´s zur Zeit eigentlich nur am Takt. Ein gleichgetakteter OoO A9 bläst nen Atom natürlich weg. Das Dilemma wird immer deutlicher.
Und das hat im Wesentlich nur mit einem zu tun:
x86 ist eine Architektur, die immer den Desktop-Fokus hatte und jetzt teilweise embedded sein will und ARM hatte immer den Embeddedfokus und möchte jetzt teilweise den Desktopmarkt bedienen und zwar einfach deswegen, weil mittlerweile genug performance vorhanden ist.
Ailuros
2010-10-03, 18:13:11
x86 ist eine Architektur, die immer den Desktop-Fokus hatte und jetzt teilweise embedded sein will und ARM hatte immer den Embeddedfokus und möchte jetzt teilweise den Desktopmarkt bedienen und zwar einfach deswegen, weil mittlerweile genug performance vorhanden ist.
Kein Einwand: nur passieren groessere Aenderungen nicht von heute auf morgen (eben wohl auch ein Grund warum es Intel schwer hat in den smart-phone Markt bis jetzt einzudringen) und wenn es dann so weit kommt bleibt immer noch das Fragezeichen wie gross der Durchbruch fuer ARM's CPU IP in desktop und co am Ende wirklich sein koennte.
NV koennte moeglicherweise schon irgendwie einen Ausweg finden langfristig auch desktop/notebook SoCs herzustellen nur sind sie selbst dann immer noch im Nachteil im Vergleich zu Intel und AMD. NV praesentiert das Ganze ja nicht als irgend ein "Neben-geschaeft"; wenn man von bis zu 50% von NV's Umsatz redet hat man auch wohl sehr hohe Erwartungen.
Hierbei hat es bis heute NV nichtmal geschafft sich als SoC Hersteller im embedded Markt zu etablieren. Haetten sie ihre eigenen T2 Prognosen erstmal schaffen koennen, haette man auch logischerweise ein "hoppla" Gefuehl hier ist etwas vielversprechendes im Anlauf.
http://www.xbitlabs.com/news/cpu/display/20100930224236_Intel_Has_No_Plans_to_Position_Atom_Chips_for_Servers.html
Tiamat
2010-10-03, 18:48:06
Wie groß der Durchbruch sein wird?
Je nachdem, was Firmen durch den weitaus geringeren Stromverbrauch einsparen können und je nachdem wie performant das ganze dabei wird.
Und ich denke, dass das für alle außer im Highend Bereich interessant wird.
Nvidia hat da sicher auch ne Menge dazulernen müssen. Firmen wie Samsung, Texas Instruments beschäftigen auch eine Vielfache Anzahl an Mitarbeitern im Vergleich zu NV und sind in dem Bereich schon seit X Jahren tätig. Je länger man dabei ist, desto mehr Knowhow entwickelt man.
Und wenn die Google Netbooks im 4. Quartal erscheinen, wird die Verbreitung von Tegra 2 Chips drastisch zunehmen. Und Cortex A9 Lösungen von Ti oder Qualcomm sind derzeit noch keine zu beobeachten, da hat NV sogar Vorsprung vor der Konkurrenz.
LovesuckZ
2010-10-03, 18:52:38
NV koennte moeglicherweise schon irgendwie einen Ausweg finden langfristig auch desktop/notebook SoCs herzustellen nur sind sie selbst dann immer noch im Nachteil im Vergleich zu Intel und AMD. NV praesentiert das Ganze ja nicht als irgend ein "Neben-geschaeft"; wenn man von bis zu 50% von NV's Umsatz redet hat man auch wohl sehr hohe Erwartungen.
Im Gegensatz zu Intel und AMD bietet nVidia heute schon in Zusammenarbeit mit Toshiba ein Netbook mit SoC an. Wenn es ganz blöd für AMD kommt, dann werden sie das normale x86 Geschäft an Intel abgeben müssen und im Low-End auch von ARM verdrängt. Denn gegen solch einen ARM SoC kann weder Intel noch AMD preislich mithalten.
Ailuros
2010-10-03, 20:05:56
Im Gegensatz zu Intel und AMD bietet nVidia heute schon in Zusammenarbeit mit Toshiba ein Netbook mit SoC an. Wenn es ganz blöd für AMD kommt, dann werden sie das normale x86 Geschäft an Intel abgeben müssen und im Low-End auch von ARM verdrängt. Denn gegen solch einen ARM SoC kann weder Intel noch AMD preislich mithalten.
Gott im Himmel ein netbook...soll ich jetzt den Champagne-Korken ziehen oder spaeter. Bleib mal schoen auf dem Teppich und zeig mir wo die 50 angegebenen design wins fuer T2/2010 sind die NV selber angegeben hat. Mehr als ~10Mio Einheiten erhoffen sie sich ja selber nicht. Im Vergleich zu dem was AMD in naechster Zeit allein an Fusion verkaufen wird, ist es mehr als nur laecherlich.
NV sah sich gezwungen den Preis uebrigens von anfangs $30/SoC auf die heutigen $10-12 zu reduzieren. Nur um am Ende doch ein bisschen etwas zu verkaufen denn OMAP4 liegt auf genau der gleichen Schiene wie Tegra2 preislich von Anfang an mit einem dual cortex A9 und um einiges niedrigeren Stromverbrauch. Eben fuer smartphones. In der Zwischenzeit kannst Du aufwachen und den Kaffee duften, denn bei NV selber haben sie es schon seit langem getan und wissen auch genau was sie falsch gemacht haben.
Wie groß der Durchbruch sein wird?
Je nachdem, was Firmen durch den weitaus geringeren Stromverbrauch einsparen können und je nachdem wie performant das ganze dabei wird.
Und ich denke, dass das für alle außer im Highend Bereich interessant wird.
Nvidia hat da sicher auch ne Menge dazulernen müssen. Firmen wie Samsung, Texas Instruments beschäftigen auch eine Vielfache Anzahl an Mitarbeitern im Vergleich zu NV und sind in dem Bereich schon seit X Jahren tätig. Je länger man dabei ist, desto mehr Knowhow entwickelt man.
NV ist kein gestriger IHV. Daher wuerde ich dank ihrer bisheriger Erfahrung weniger Fehler erwarten als bisher.
Und wenn die Google Netbooks im 4. Quartal erscheinen, wird die Verbreitung von Tegra 2 Chips drastisch zunehmen. Und Cortex A9 Lösungen von Ti oder Qualcomm sind derzeit noch keine zu beobeachten, da hat NV sogar Vorsprung vor der Konkurrenz.
Und wie wuerde der Vorsprung bisher ausgenutzt? Tegra2 haette technisch gesehen einige Vorteile gegenueber dem Apple A4 als Beispiel.
Wo genau liegt Apple's "Erfahrung" im embedded Markt der zu ihrem bisherigen Erfolg gefuehrt hat? Wird NV selbst die Haelfte an Einheiten verkaufen koennen in 2010 vom iPad? Und dabei ist es ziemlich egal welches Beispiel man nimmt; die eigentliche Frage ist wann NV endlich von ihrem beschissenen hohen Ross faellt und sich wie jeder andere IHV in diesem Markt verhaelt. Markting hilft hier kein bisschen und wenn man viel zu spaet zu Preis-reduktionen kommt unter vielen anderen verpasst man halt so manchen Zug. Ganz zu schweigen von all den anderen falschen Design-Entscheidungen vom SoC selber.
Tiamat
2010-10-03, 22:01:00
Gott im Himmel ein netbook...soll ich jetzt den Champagne-Korken ziehen oder spaeter. Bleib mal schoen auf dem Teppich und zeig mir wo die 50 angegebenen design wins fuer T2/2010 sind die NV selber angegeben hat. Mehr als ~10Mio Einheiten erhoffen sie sich ja selber nicht. Im Vergleich zu dem was AMD in naechster Zeit allein an Fusion verkaufen wird, ist es mehr als nur laecherlich.
NV sah sich gezwungen den Preis uebrigens von anfangs $30/SoC auf die heutigen $10-12 zu reduzieren. Nur um am Ende doch ein bisschen etwas zu verkaufen denn OMAP4 liegt auf genau der gleichen Schiene wie Tegra2 preislich von Anfang an mit einem dual cortex A9 und um einiges niedrigeren Stromverbrauch. Eben fuer smartphones. In der Zwischenzeit kannst Du aufwachen und den Kaffee duften, denn bei NV selber haben sie es schon seit langem getan und wissen auch genau was sie falsch gemacht haben.
NV ist kein gestriger IHV. Daher wuerde ich dank ihrer bisheriger Erfahrung weniger Fehler erwarten als bisher.
Und wie wuerde der Vorsprung bisher ausgenutzt? Tegra2 haette technisch gesehen einige Vorteile gegenueber dem Apple A4 als Beispiel.
Wo genau liegt Apple's "Erfahrung" im embedded Markt der zu ihrem bisherigen Erfolg gefuehrt hat? Wird NV selbst die Haelfte an Einheiten verkaufen koennen in 2010 vom iPad? Und dabei ist es ziemlich egal welches Beispiel man nimmt; die eigentliche Frage ist wann NV endlich von ihrem beschissenen hohen Ross faellt und sich wie jeder andere IHV in diesem Markt verhaelt. Markting hilft hier kein bisschen und wenn man viel zu spaet zu Preis-reduktionen kommt unter vielen anderen verpasst man halt so manchen Zug. Ganz zu schweigen von all den anderen falschen Design-Entscheidungen vom SoC selber.
Also laut Evendi.de wurden im ersten Atom-Jahr (wie das klingt *g*) ca. 18 Mio Netbooks verbaut. Das erste Tegra 2 Gerät kam glaub ich erst Mitte des Jahres raus. Auf ein halbes Jahr gesehen sind 10M 1M mehr, als ein Halbjahr der Netbooks 2008. und hier sind noch Smartphones inbegreiffen. Klingt für mich gut kalkuliert. Nächstes Jahr steht ja schon wieder ein neuer Tegra an. Aber wenig ist das prinzipiell schon. 10M a 15$ rechtfertigen ja kaum die Entwicklungskosten.
Aufgrund der bisherigen Erfahrung ? Naja Nvidia macht ja normalerweise GPUs und keine CPUs. Der Unterschied ist der, dass CPU Produktion für NV Neuland ist und Apple Firmen aufgekauft hat, bei denen CPU-Herstellung zum Alltagsgeschäft gehört. Zuvor hat Apple selbst die Chips nur verbaut, hat aber durch die Produktion von Systemen seit Ewigkeiten know-how gesammelt.
Wie der Vorsprung ausgebaut wurde Das Jahr ist noch nicht vorbei.
Acer hat im 4. Quartal 1M Tegra Notebooks am Start, Google hat großes mit Chrome OS Netbooks vor und ich vermute, dass die Geräte von Acer bis Toshiba nur Tegra verwenden, eben deshalb weil Omap4 und co für´s Weihnachtsgeschäft zu spät kommen.
YfOrU
2010-10-04, 06:51:54
Aufgrund der bisherigen Erfahrung ? Naja Nvidia macht ja normalerweise GPUs und keine CPUs. Der Unterschied ist der, dass CPU Produktion für NV Neuland ist und Apple Firmen aufgekauft hat, bei denen CPU-Herstellung zum Alltagsgeschäft gehört. Zuvor hat Apple selbst die Chips nur verbaut, hat aber durch die Produktion von Systemen seit Ewigkeiten know-how gesammelt.
PortalPlayer http://de.wikipedia.org/wiki/PortalPlayer
Wurde von Nvidia 2007 aufgekauft und eben diese Firma war für die ARM SoCs der iPods (bis 5.) zuständig.
Was IP (bezogen auf mobile Geräte) angeht sind noch die Übernahmen von MediaQ und Hybrid Graphics hinzuzufügen.
Ailuros
2010-10-04, 09:55:19
Also laut Evendi.de wurden im ersten Atom-Jahr (wie das klingt *g*) ca. 18 Mio Netbooks verbaut. Das erste Tegra 2 Gerät kam glaub ich erst Mitte des Jahres raus. Auf ein halbes Jahr gesehen sind 10M 1M mehr, als ein Halbjahr der Netbooks 2008. und hier sind noch Smartphones inbegreiffen. Klingt für mich gut kalkuliert. Nächstes Jahr steht ja schon wieder ein neuer Tegra an. Aber wenig ist das prinzipiell schon. 10M a 15$ rechtfertigen ja kaum die Entwicklungskosten.
Es sind nichtmal $15/SoC aber das ist auch nebenwichtig. Der eigentliche Schluessel hier sind Entwicklungskosten die tatsaechlich nicht gedeckt werden koennen.
Wenn man von >130Mio Einheiten ausging vor Jahren, sind heute lediglich um die 10Mio ein paar Kruemel. Und da wohl schnell wieder seinen Einstand zum Thema bringen wird sollte er mal Entwickler fragen wieso bis zu vor ca 2 Jahren ein "TEG2" in Nintendo's device IDs erschien ;)
Mit all den Vorraussetzungen hat man die insgesamte Tegra road-map geplant jaehrliche updates inklusive und bis zum Punkt wo es mit Tegra generell aufwaerts geht wird es wohl leider nur rote Zahlen geben.
Wie man zu einem royal f**** up wie diesem genau kommt? Man denkt einfach dass wenn man NVIDIA heisst jeglichem Hersteller alles auf die Nase binden kann. Nintendo wollte IP und hat es sich auch besorgt; risiko-frei, billiger und mit um einiges niedrigerem Stromverbrauch.
In der Zwischenzeit ist IMG zwar IP Lieferant, aber sie haben sich mit dem handheld deal den sie gelandet haben die R&D Kosten der kommenden Generation langfristig finanziert. Nebenbei weiss IMG selber dass die Konkurrenz in naechster Zeit aufheizen wird und sie projezieren fuer die Zukunft dass ihre Integrations-rate von ca. 80 auf 50% fallen wird, was aber ihre projezierte Einheits-Anzahl von 200Mio fuer die absehbare Zukunft nicht beinflussen wird.
ARM Mali, Vivante, DMP und ein paar andere die keiner bisher wirklich kennt werden so langsam auch mitspielen koennen. Und natuerlich Qualcolmm die ohnehin einen fetten Marktanteil schon haben, der auch in Zukunft weiter steigen wird (mehr dazu wenn die Zeit reif ist....)
Aufgrund der bisherigen Erfahrung ? Naja Nvidia macht ja normalerweise GPUs und keine CPUs. Der Unterschied ist der, dass CPU Produktion für NV Neuland ist und Apple Firmen aufgekauft hat, bei denen CPU-Herstellung zum Alltagsgeschäft gehört. Zuvor hat Apple selbst die Chips nur verbaut, hat aber durch die Produktion von Systemen seit Ewigkeiten know-how gesammelt.
Bis zum A4 stellte Apple bei Samsung SoCs her. Dazu benutzt Apple ein wilde Mischung von ARM CPU IP, IMG GPU IP, decoder IP ein bisschen Schnickschnack von TI links und rechts usw.
NV hat ausserhalb ARM CPU IP um einiges weniger IP lizenziert als Apple.
Der eigentliche Punkt auf dem ich hinaus will liegt oben. Und irgendwann mit der Zeit werd ich die gesamte Hintergrund-Geschichte erzaehlen koennen und dann wird es auch schon offensichtlich werden wie bloed sich manche IHVs oefters verhalten koennen.
Wie der Vorsprung ausgebaut wurde Das Jahr ist noch nicht vorbei.
Acer hat im 4. Quartal 1M Tegra Notebooks am Start, Google hat großes mit Chrome OS Netbooks vor und ich vermute, dass die Geräte von Acer bis Toshiba nur Tegra verwenden, eben deshalb weil Omap4 und co für´s Weihnachtsgeschäft zu spät kommen.
OMAP4 wird sich sowieso nicht ausserhalb smart-phones bewegen. Der ganze Haken mit T2 ist einfach dass das Ding tablet/netbook Stromverbrauch hat, NV sich aber gezwungen sieht den ganzen Spass bei smart-phone SoC verkaufen zu muessen. Glaub bloss nicht dass Intel ihren GMA600 um nur $10-12 verscherpelt als Beispiel.
Uebrigens die Mengen die Du mir beschreibst fallen alle in NV's neueste ~10Mio Einheiten Projektion fuer 2010.
Tiamat
2010-10-04, 11:27:14
Ok du sagst, Nvidia hat das Unheil durch Eigenverschulden verursacht. Kann sein. Auf alle Fälle drückst du deinen Finger gerade da rein, wo die Verkaufszahlen eher schlecht sind, warte doch mal ab, wie sich das ganze entwickelt.
Wie wir wissen, muss sich NV ein zweites Standbein schaffen. Da Ati von AMD gekauft wurde, und die fröhlich ihre Kombination aus hauseigener CPU und GPU verkaufen und Intel das schon längere praktiziert, schaut man natürlich hier in die Röhre. Und gewisse Anfangsschwierigkeiten sind einfach zu erwarten.
Nintendo hat sich gerüchteweise für einen ARM11 Dualcore mit 2x266Mhz entschieden. Die wollen gar keine Leistung, die wollen abgespeckte Hardware :D
Mit nem Tegra 2 hätte man ja der Wii Konkurrenz gemacht. Das wär ein viel zu großer Sprung gewesen. Da hat man eher das Interesse, jeden kleineren Sprung gewinnbringend auszuschlachten.
Vielleicht zieht man ja im Jahr 2013 mal einen Tegra 1 in Erwägung :D
http://www.it-times.de/news/nachricht/datum/2010/09/27/nvidia-kann-sich-ueber-tegra-2-bestellungen-freuen/
Das ließt sich doch sehr gut. Wie gesagt Acer, jetzt kommen noch Asus, HTC, Motorola, MSI und Toshiba hinzu, da kommen schon einige Millionen zusammen.
... jetzt kommen noch Asus, HTC, Motorola, MSI und Toshiba hinzu,....
Wieso kommt Toshiba hinzu--> die liefern das einzige Tegra2-Gerät aus...
(Toshiba AC100)
Tiamat
2010-10-04, 11:39:50
Ja das stimmt, aber bringen noch n Tablet raus, der im Grunde jedoch baugleich ist.
Ailuros
2010-10-04, 11:45:01
Ok du sagst, Nvidia hat das Unheil durch Eigenverschulden verursacht. Kann sein. Auf alle Fälle drückst du deinen Finger gerade da rein, wo die Verkaufszahlen eher schlecht sind, warte doch mal ab, wie sich das ganze entwickelt.
Falsche strategische Entscheidungen die ein zu grosses Risiko eingehen haben auch sehr hohe Chancen zu scheitern.
Du hast z.B. das Google tablet erwaehnt; wollen wir wetten dass Intel fuer das kommende Google TV nicht nur mehr Einheiten als beim ersten schafft sondern auch um einiges mehr kassiert? CE4100 und der Booxee Verlust ist keine Eintagsfliege.
Wie wir wissen, muss sich NV ein zweites Standbein schaffen. Da Ati von AMD gekauft wurde, und die fröhlich ihre Kombination aus hauseigener CPU und GPU verkaufen und Intel das schon längere praktiziert, schaut man natürlich hier in die Röhre. Und gewisse Anfangsschwierigkeiten sind einfach zu erwarten.
Tegra2 verbratet zu viel Strom fuer smart-phones und ist fuer eine PC/notebook Loesung viel zu schwach. Was das jetzt gerade mit AMD Fusion zu tun hat dass im besten Fall bis zu netbooks nach unten skalieren wird, kann ich zwar nicht verstehen, aber so einfach geht eben alles nicht in den selben Topf.
NV reduziert im besten Fall die CPU Frequenz bei T2 und dabei ist es schon alles. Es gibt keine Mehrzahl an Varianten von GPU IP die z.B. die perf/W sowohl nach oben als nach unten skalieren koennte. AMD's Fusion ist nicht nur insgesamt fuer andere Maerkte bzw. Stromverbrauchs-hoehen gedacht hat aber auch eine ziemlich ausgetueftelte Anzahl an Varianten fuer jeglichen Zielmarkt.
Tegra2 wird wohl ingesamt hauptsaechlich im tablet und co Bereich steckenbleiben.
Was fuer Anfangs-schwierigkeiten? GoForce (obwohl die hw um einiges bescheidener war) hatte mehr Integrierung gesehen als Tegra1 und 2 bis heute zusammen. Irgendwo muss es wohl hapern oder?
Nintendo hat sich gerüchteweise für einen ARM11 Dualcore mit 2x266Mhz entschieden. Die wollen gar keine Leistung, die wollen abgespeckte Hardware :D
Mit nem Tegra 2 hätte man ja der Wii Konkurrenz gemacht. Das wär ein viel zu großer Sprung gewesen. Da hat man eher das Interesse, jeden kleineren Sprung gewinnbringend auszuschlachten.
Vielleicht zieht man ja im Jahr 2013 mal einen Tegra 1 in Erwägung :D
Ich kann Dir zwar nicht sagen mit wem Nintendo fuer die echte naechste Generation ihrer handhelds verhandeln koennte momentan, aber ich kann Dir sagen dass NV nicht in der Liste liegt. Eben weil sie den dritten Kontaktmann der ihnen die Moeglichkeit zu einem deal mit Nintendo erstmal gab, gnadenlos abgeschossen haben. Japaner sind Kamele und vergessen leider nicht so leicht ;)
http://www.it-times.de/news/nachricht/datum/2010/09/27/nvidia-kann-sich-ueber-tegra-2-bestellungen-freuen/
Das ließt sich doch sehr gut. Wie gesagt Acer, jetzt kommen noch Asus, HTC, Motorola, MSI und Toshiba hinzu, da kommen schon einige Millionen zusammen.
Nochmal: NV hat selber ihre eigene Prognosen von ca. 20Mio auf ca. 10Mio Einheiten insgesamt selber reduziert. Glaubst Du Investoren oder stock holders haben genug Humor um einen diesbezueglich ueblen Scherz schlucken zu koennen?
Uebrigens fuer diejenigen die Zweifel haben koennten: http://translate.google.co.uk/translate?u=http%3A%2F%2Fwww.nintendo3dsitalia.it%2Fspeciali%2Fesclusiva-quando-nintendo-3ds-era-ancora-tegra2&sl=it&tl=en&hl=&ie=UTF-8
Zuvor hat Apple selbst die Chips nur verbaut, hat aber durch die Produktion von Systemen seit Ewigkeiten know-how gesammelt.
Das ist nicht ganz richtig.
Apple hatte schon immer eine eigene ASIC-Abteilung für z.B die eigenen Chipsätze in PowerPC Macs.
mboeller
2010-10-25, 17:08:21
warum wurde das (von den üblichen Verdächtigen ;) ) noch nicht gepostet:
Tegra = Tegra2, soweit ich weiß
The most power hogging elements on Adam are (in decreasing order) LCD, Wi-Fi, 3G, Speakers (in full power mode) and then CPU (Tegra). I am getting from more than 2 full days to minimum of 15 hours! I am thinking of posting an interactive chart where you all can fill in details of how you will use it and then get the usage value out! Tegra consumes nothing for Open GL so it’s definitely a paradise for Gamers. I have seldom seen it crossing its 60-70mW line and touching 200mW for heavy usage.
Quelle: http://notionink.wordpress.com/2010/10/24/the-week-end-mini-special-part-v/
Ailuros
2010-10-25, 18:08:02
Tegra != Tegra2.
Im Adam Tablet steckt aber tatsaechlich ein Tegra2 SoC afaik.
YfOrU
2010-11-18, 08:28:39
Von Qualcomm gibt es endlich mal was konkretes:
Qualcomm Reveals Next-Gen Snapdragon MSM8960: 28nm, dual-core, 5x Performance Improvement
http://www.anandtech.com/show/4024/qualcomm-reveals-nextgen-snapdragon-msm8960-28nm-dualcore-5x-performance-improvement
Inside the MSM8960 are two next-generation processor cores, presumably out-of-order as Qualcomm is promising 5x the performance of the original Snapdragon chip (2x for the move to dual cores and the rest due to OoO, larger caches and other architectural tweaks perhaps?). Qualcomm isn’t disclosing clock speed at this time.
http://images.anandtech.com/reviews/SoC/Qualcomm/ng-snapdragon/8960_sm.jpg
Qualcomm has separately announced that the Adreno 3xx GPU would be used in SoCs from 2011 - 2013 on a 28nm process. This appears to be the GPU family used in the next-generation Snapdragon. Even more interesting is Qualcomm stating that Adreno 3xx will have performance similar to the Xbox 360/PS3.
http://images.anandtech.com/reviews/SoC/Qualcomm/ng-snapdragon/adreno3xx_sm.jpg
Ist auch wieder eine Single Chip Lösung inkl. LTE und sollte damit wohl wieder problemlos reißenden Absatz finden. Allerdings: Endgeräte 2012
Damit gibt es für 2011 wohl nur die aktuellen 45nm Snapdragons in DC Varianten mit leistungsfähigerer GPU (Adreno220).
Ailuros
2010-11-18, 08:39:36
Ich muesste eigentlich einen getrennten Thread fuer Qualcolmm aufmachen. Es ist nicht das erste Mal dass ich von Qualcolmm dieses "Open_GL_ES Halti" lese, aber ich kann mir nicht vorstellen fuer was es genau steht.
Das Zeug mit der 5x Mal so viel Leistung ist wohl so langsam "in" von diversen Herstellern LOL.
Dural
2010-11-18, 08:45:36
Tegra 2 und Android 3.0 ein Schwerpunkt auf der CES 2011
http://www.computerbase.de/news/consumer-electronics/kommunikation/2010/november/tegra-2-und-android-3.0-ein-schwerpunkt-auf-der-ces-2011/
mboeller
2010-11-18, 12:42:39
google suche nach Khronos.org +Halti:
PDF: http://www.khronos.org/developers/library/2007_siggraph_bof_opengles/OpenGL%20ES%20BOG%20WG%20Update%20Aug07.pdf
Auszug:
Next-Generation API (‘Halti’)
- New object model + ‘Mount Evans’ features; breaks compatibility
- Target release in 2010
Deinorius
2010-11-18, 20:52:31
Sind die Grafikvergleiche mit der Xbox360/PS3 in Richtung gleiche Grafikqualität bei deutlich niedrigerer Auflösung gemeint?
YfOrU
2010-11-18, 21:05:31
Da die (Display)Auflösung auch über die Generationen nach oben skaliert sollte es durchaus Richtung 720p gehen.
Ailuros
2010-11-18, 21:09:10
Sind die Grafikvergleiche mit der Xbox360/PS3 in Richtung gleiche Grafikqualität bei deutlich niedrigerer Auflösung gemeint?
Gott im Himmel die Graph stell maximale eingeschaetzte Grafik-leistung ein, wobei sie bei der heutigen 2x0 Generation immer noch iPhone3GS Nivaeu angeben als peak bis zu 2010.
2013 ist von heute eine geraume Zeit, wobei zu dem Zeitpunkt Qualcolmm oder jegliche andere Hersteller wohl nicht nur auf 28nm begrenzt sein werden. Und ja in 3 Jahren von heute ist es gar nicht so unmoeglich dass solche SoCs vergleichbare Leistung zu einer heutigen Konsole haben werden selbst in 720p.
Intel's heutige STBs mit einem hochgetakteten 535 schaffen schon heute 60fps in Quake3 unter 1080p.
Deinorius
2010-11-18, 21:16:47
Ich zweifle ja nicht daran, dass zukünftige Smartphones eine Leistung ähnlich der heutiger Konsolen haben werden, aber ich persönlich (mit meiner bescheidenen Schätzung) hätte das eher erst mit 22 bzw. 15 nm erwartet.
Und obwohl es ja nur Promoting ist, hab ich mich dennoch gefragt, wie ernsthaft sie das meinen.
Nakai
2010-11-18, 22:52:47
Ich zweifle ja nicht daran, dass zukünftige Smartphones eine Leistung ähnlich der heutiger Konsolen haben werden, aber ich persönlich (mit meiner bescheidenen Schätzung) hätte das eher erst mit 22 bzw. 15 nm erwartet.
Und obwohl es ja nur Promoting ist, hab ich mich dennoch gefragt, wie ernsthaft sie das meinen.
*Hust Hust*
Was ist mit Overdraw?;)
Achja der Witz ist es, dass die alles im gleichen Atemzug zu nennen. N-Gage, PSP und NDS sind gewiss nicht auf einer Stufe. Ebenso wie Xbox, PS2 und Wii.
Nur zur Info(ich denke das wird der sogenannte Vergleichsparameter werden):
Xbox360: 500Mio Polygone pro Sekunde
PS3: 250Mio Polygone pro Sekunde
Und ja ich weiß, dass diese Zahlen Schall und Rauch sind. Aber natürlich wird die Leistungsfähigkeit eines Handhelden irgendwie immer mit Polygonen pro Sekunde angegeben.
Hummingbird aká S5PC100/110 oder Adreno220 schaffen da auch schon ungefähr 80 Mio Polygone pro Sekunde. Ergo SGX543MP2 sollte da schon ausreichen um auf diese fantasievolle Stufe zu kommen.
Adreno3xx müsste auch nur etwa 3mal soviele Polygone ausspucken um auf "PS3-Niveau" zu kommen.
Soviel dazu.
Demogod
2010-11-18, 23:05:38
Bischen OT:
Wie ist das eigtl: müssen iPhone 4 Games auch 4 mal so viele Pixel berechnen? Weil 960*640 wäre ja dann schon fast das was manche X2/PS3 Games rendern. In Kombination mit der Möglichkeit ab iOS 4 mehr als 24MB Ram als VRam zu verwenden (zumindest ab 3GS) schlägt man ja zumindest ab dem 4er bei nem geschätzten OS-Memfootprint (iOS 4.2 konnte ich noch nicht testen und x360 soll doch auch so 50MB sein oder?) von sagen wir 60-100MB schon fast die XBox360 im App acessible mem wenn Apple da keine Begrenzung eingebaut hat (z.B. 256MB oder so). Aber warten wir eh mal die kommende SGX/Tegra Generation ab, die dürfte ja dann eh vermutlich durch die gröb/ßere Bank von allen verwendet werden. Dann kann man auch die Performance von Games evtl sogar mal vergleichen obwohl man dann wieder das Prob der Unterschiedlichen Auflösungen hat. Damn!!1
Ailuros
2010-11-21, 19:00:27
*Hust Hust*
Was ist mit Overdraw?;)
Achja der Witz ist es, dass die alles im gleichen Atemzug zu nennen. N-Gage, PSP und NDS sind gewiss nicht auf einer Stufe. Ebenso wie Xbox, PS2 und Wii.
Nur zur Info(ich denke das wird der sogenannte Vergleichsparameter werden):
Xbox360: 500Mio Polygone pro Sekunde
PS3: 250Mio Polygone pro Sekunde
Und ja ich weiß, dass diese Zahlen Schall und Rauch sind. Aber natürlich wird die Leistungsfähigkeit eines Handhelden irgendwie immer mit Polygonen pro Sekunde angegeben.
Weil die Herren im fernen Osten komischerweise auf wilde Dreiecksraten stehen und nein es ist kein Scherz.
Nach IMG's whitepapers liefert ein 16MP@200MHz 560M Tris. Realisiert wird es wohl nie weil die zu grosse die area fuer ein 16MP irgendwo von der kommenden Serie6 ueberschnitten wird in der Zukunft. Unter 65nm geht das ganze Ding auf bruellende 128mm2, was aber egal welchen Herstellungsprozess Du nimmst fuer die absehbare Zukunft viel zu viel ist fuer einen smart-phone SoC.
Der schnellste high end MBX bei >230MHz den es gab ist ueber 7M Tris faehig, waehrend der kleinste SGX520 bei genau 7M Tris minimal anfaengt. Irgendwie durch das kann man auch zukuenftige Generation einschaetzen.
Hummingbird aká S5PC100/110 oder Adreno220 schaffen da auch schon ungefähr 80 Mio Polygone pro Sekunde.
SGX540@200MHz im Hummingbird ist laut Samsung's eigenem whitepaper ueber 20M Tris faehig nachdem Samsung sich endlich bei IMG ueber die realistische Dreiecksrate berateten. Keine Ahnung was Qualcolmm fuer Adreno 220 angibt, aber es koennte auch sehr wohl sein dass es sich um aehnlichen Marketing-BS handelt wie seitens Samsung und den 90M Tris fuer SGX540.
Tegra2 ist ueber 70M vertices/s faehig was aber auch ein ziemlich guter Abstand zu den eventuell behaupteten 90M Tris fuer diesen sind.
Ergo SGX543MP2 sollte da schon ausreichen um auf diese fantasievolle Stufe zu kommen.
Bei 200MHz 70M Tris (35M pro core). Bei 400MHz eben doppelt so viel, aber die hoehere Frequenz kommt wohl auch nicht umsonst.
Uebrigens ist das theoretische Tri Maximum auf Xenos mit Tessellation mitberechnet; wie viel man mit dem letzterem auf der Platform anstellen kann zeigen ja die XBox360 Spiele.
Adreno3xx müsste auch nur etwa 3mal soviele Polygone ausspucken um auf "PS3-Niveau" zu kommen.
Soviel dazu.
Polygon-raten sind genauso theoretischer Mist wie FLOP Zahlen auf heutigen desktop GPUs. Ein einziger Aspekt definiert sowieso nicht die Leistung einer jeglicher GPU.
Sachen an die man sich vielleicht halten kann ist wie ein jegliches Spiel auf einem jeglichen smartphone aussehen kann: http://uk.ign.com/videos/2010/11/05/infinity-blade-official-trailer?objectid=85461
Bischen OT:
Wie ist das eigtl: müssen iPhone 4 Games auch 4 mal so viele Pixel berechnen? Weil 960*640 wäre ja dann schon fast das was manche X2/PS3 Games rendern. In Kombination mit der Möglichkeit ab iOS 4 mehr als 24MB Ram als VRam zu verwenden (zumindest ab 3GS) schlägt man ja zumindest ab dem 4er bei nem geschätzten OS-Memfootprint (iOS 4.2 konnte ich noch nicht testen und x360 soll doch auch so 50MB sein oder?) von sagen wir 60-100MB schon fast die XBox360 im App acessible mem wenn Apple da keine Begrenzung eingebaut hat (z.B. 256MB oder so). Aber warten wir eh mal die kommende SGX/Tegra Generation ab, die dürfte ja dann eh vermutlich durch die gröb/ßere Bank von allen verwendet werden. Dann kann man auch die Performance von Games evtl sogar mal vergleichen obwohl man dann wieder das Prob der Unterschiedlichen Auflösungen hat. Damn!!1
http://media.armadilloaerospace.com/misc/gpuDataPaging.htm
Uebrigens:
http://www.idsoftware.com/rage-mobile/
HD version = >700MB
YfOrU
2010-12-09, 14:22:13
First Look: Viewsonic G Tablet and Tegra 2 Performance Preview (Cortex A9 - 1Ghz)
http://www.anandtech.com/show/4054/first-look-viewsonic-gtablet-and-tegra-2-performance-preview/2
Die Leistung des A9 (multithreaded) ist schon recht beeindruckend.
stickedy
2010-12-09, 15:41:03
Und hier bekommst den Dual-Core Cortex A9 sogar mit nem vernünftigen Grafikkern: http://www.fudzilla.com/processors/item/21139-texas-instruments-details-its-omap4440-processor
AffenJack
2010-12-09, 16:02:48
Mehr benchmarks wären interessant bzgl gpu leistung, so hats kaum aussagekraft mit jeweils einem bench wo einer klar besser ist.
Micky92
2010-12-09, 16:07:34
Da die (Display)Auflösung auch über die Generationen nach oben skaliert sollte es durchaus Richtung 720p gehen.
Definitiv! Ist ja heute selbst bei den Handys der Fall!
Ailuros
2010-12-09, 20:04:53
First Look: Viewsonic G Tablet and Tegra 2 Performance Preview (Cortex A9 - 1Ghz)
http://www.anandtech.com/show/4054/first-look-viewsonic-gtablet-and-tegra-2-performance-preview/2
Die Leistung des A9 (multithreaded) ist schon recht beeindruckend.
Definitiv ein sehr gutes showcasing IMO. Komisch ist nur der Galaxy Tab Q3 score. Die Handys mit dem SoC leisten da um einiges mehr: http://www.anandtech.com/show/3957/samsung-fascinate-review-verizons-galaxy-s-smartphone/7
AffenJack
2010-12-09, 21:06:06
Die Handys haben ne kleinere Auflösung, deshalb schaffen dei da mehr. 800 × 480 ist doch was anderes als 1024x600.
YfOrU
2010-12-10, 10:13:51
Definitiv ein sehr gutes showcasing IMO. Komisch ist nur der Galaxy Tab Q3 score. Die Handys mit dem SoC leisten da um einiges mehr: http://www.anandtech.com/show/3957/samsung-fascinate-review-verizons-galaxy-s-smartphone/7
Darüber bin ich mir auch nicht ganz im klaren. Die 55.6 FPS im Neocore sind das V-Sync Limit (der Samsung AMOLED Smartphones).
Deshalb lässt sich nur schwer sagen in wie weit das Galaxy Tab unter Neocore mit 55.4 FPS aufgrund der höheren Auflösung wirklich einbricht.
Mit Hinblick auf die Leistungssteigerung von Omap 3430 zu 3630,
http://www.anandtech.com/show/3908/motorola-droid-2-review-rebooting-the-droid/8
skaliert die Leistung unter Neocore praktisch direkt mit dem höheren Takt des SGX530. Bei Quake 3 haut das schon nicht mehr hin und die Ursache dürfte (fehlende) Speicherbandbreite sein.
Noch eine Auflösungsstufe weiter oben wird dann auch dem Hummingbird einfach die Luft ausgehen denn der A9 von Nvidia hat mindestens das doppelte zur Verfügung, vermutlich sogar (da Tablett) Faktor 4 (was dann 2* 32bit wäre).
Das wäre mit unter auch eine Erklärung warum nur Samsung selbst den SGX540 mit Cortex A8 einsetzt. Apple nutzt SGX535 und TI weiter SGX530. Deutlich mehr Bandbreite (und damit auch für die GPU) gibt es erst mit A9. Auch ist A8 eher noch ein reines Smartphone Design, A9 hat insgesamt höhere Leistungsansprüche (also Tablett und damit höhere Auflösungen). Hier macht dann ein 540 / MP wirklich Sinn.
Daher dann die Aussage von Nvidia: Tegra 2 ist in theoretischen Tests langsamer aber in Real World Apps schneller, kein Wunder - ist ja momentan auch das einzige A9 Design ;)
Ailuros
2010-12-10, 18:38:39
Die Handys haben ne kleinere Auflösung, deshalb schaffen dei da mehr. 800 × 480 ist doch was anderes als 1024x600.
Wuerde sich jeder logischerweise auch sofort denken. Aber ein SGX535@400MHz schafft in 1920*1200 mit trilinear um die 60fps in Q3A. Der SGX540 im GalaxyS ist wohl nur auf 200MHz getaktet IMO aber, rechne Dir mal ob 32 fps bei 384000 pixels nicht doch etwas schaebig sind. Bei 1080p sind es 2304000 pixels oder anders 6x Mal so viel pixels wie bei 1024*600. Gegen 2x Mal so viel Frequenz auf dem SGX535/GMA600 ist der Weg wohl noch ziemlich lang. Irgend etwas stimmt hier nicht.
AffenJack
2010-12-10, 19:25:06
Woher hast du denn die 60fps in 1920x1200? Vom GMA600 oder?
Ich kann mich nur auf die beiden anand links beziehen, weil ich keine anderen kenne. Wenn du andere hast immer her damit;)
Da sieht man das das Teil im Smartphone und Tablet genau gleich getaktet ist und die FPS genau mit der Auflösung skalieren. Die Messungen stimmen also eindeutig. Entweder kann Hummingbird nicht mehr oder Android ist noch sehr unoptimiert und langsam. Wenn GMA600 soviel mehr schafft ist natürlich die frage, speicherbandbreitenlimit wie YfOrU vermutet?Da müsste man jetzt die Speicherbandbreiten von beiden wissen, vll weißt du da bescheid. Son unterscheid ist aber natürlich extrem.
Edit: Nu hab ich erst aktualisiert, jut GMA600;)
Ailuros
2010-12-10, 19:29:52
Woher hast du denn die 60fps in 1920x1200? Vom GMA600 oder?
Ich kann mich nur auf die beiden anand links beziehen, weil ich keine anderen kenne. Wenn du andere hast immer her damit;)
Ein oeffentliches demo: http://www.imgtec.com/demo_room/viewdemo.asp?DemoID=63&DemoTech=POWERVR%20Graphics&DemoDev=Imagination&#ViewPort
Quake 3 is demonstrated here running at around 60 frames per second on a commercially available SGX53x based STB platform with highest quality settings - including trilinear filtering, light maps and alpha blending - at 1080p HD resolution.
Da sieht man das das Teil im Smartphone und Tablet genau gleich getaktet ist und die FPS genau mit der Auflösung skalieren. Entweder kann Hummingbird nicht mehr oder Android ist noch sehr unoptimiert und langsam. Wenn GMA600 soviel mehr schafft ist natürlich die frage, speicherbandbreitenlimit wie YfOrU vermutet?Da müsste man jetzt die Speicherbandbreiten von beiden wissen, vll weißt du da bescheid.
Ich bezweifle dass ein GalaxyS so verwuergt ist an Bandbreite; ausschliessen kann ich es natuerlich nicht aber der Neocore score zeigt mir eher das Gegenteil. Und natuerlich ist in dem Fall Anand's Spekulation dass der Neocore benchmark auf tile based renderers zugeschnitten ist absoluter Bloedsinn. Qualcolmm's Adreno ist zwar tile based aber auch ein stinknormaler IMR. Zwischen IMG's "perfektem" tiling und bounding box tiling die fast jeder andere tile based IMR benutzt gibt es schon einige Welten an Unterschieden.
AffenJack
2010-12-10, 20:10:39
Guck dir mal den link von YfOrU an und auch den unterschied zwischen hummingbird und OMAP 3630. http://www.anandtech.com/show/3908/motorola-droid-2-review-rebooting-the-droid/8
Nen SGX540 schafft nichtmal 1.5x die Leistung vom SGX530. Beide sind glaube gleichgetaktet.
Müsste der nicht deutlich größer sein? Zumindest hatte ich das immer angenommen. Das Droid hat sogar ne leicht höhere Auflösung(854x480).
Guck dir mal den link von YfOrU an und auch den unterschied zwischen hummingbird und OMAP 3630. http://www.anandtech.com/show/3908/motorola-droid-2-review-rebooting-the-droid/8
Nen SGX540 schafft nichtmal 1.5x die Leistung vom SGX530. Beide sind glaube gleichgetaktet.
Müsste der nicht deutlich größer sein? Zumindest hatte ich das immer angenommen. Das Droid hat sogar ne leicht höhere Auflösung(854x480).
Die Galaxy-S-Modelle sind vsync-limitiert auf 55.6 fps.
YfOrU
2010-12-11, 03:42:39
Qualcomm wäre schön blöd wenn Neocore an der Bandbreite hängen würde. Sowohl Adreno als auch SGX skalieren hier recht nahe am theoretischen Maximum.
Das der Einbruch bei 1024*600 nicht ganz unrealistisch ist zeigt auch der Durchschnittswert des Hummingbird unter 800*480 (Quake3). Im Gegensatz zu Neocore ist das schon leicht unter der V-Snyc Limitierung.
Ailuros
2010-12-11, 11:14:03
Qualcomm wäre schön blöd wenn Neocore an der Bandbreite hängen würde. Sowohl Adreno als auch SGX skalieren hier recht nahe am theoretischen Maximum.
Das der Einbruch bei 1024*600 nicht ganz unrealistisch ist zeigt auch der Durchschnittswert des Hummingbird unter 800*480 (Quake3). Im Gegensatz zu Neocore ist das schon leicht unter der V-Snyc Limitierung.
Wenn das Geruecht dass ich gerade gehoert habe stimmt, dann lief die eine Loesung mit texture compression und die andere ohne. Welche nun welche sein soll kannst Du Dir vorstellen.
Guck dir mal den link von YfOrU an und auch den unterschied zwischen hummingbird und OMAP 3630. http://www.anandtech.com/show/3908/motorola-droid-2-review-rebooting-the-droid/8
Nen SGX540 schafft nichtmal 1.5x die Leistung vom SGX530. Beide sind glaube gleichgetaktet.
Müsste der nicht deutlich größer sein? Zumindest hatte ich das immer angenommen. Das Droid hat sogar ne leicht höhere Auflösung(854x480).
Siehe oben.
Dural
2010-12-15, 22:21:33
erstaunlich wie schlecht der Tegra doch sein muss wenn es nach gewissen herren hier geht...
Auch Samsung setzt auf Tegra 2
http://www.computerbase.de/news/consumer-electronics/2010/dezember/auch-samsung-setzt-auf-tegra-2/
tja das sehen die hersteller wohl etwas anders auch wenn sie sogar eigene A9 CPUs haben...
Deinorius
2010-12-15, 22:36:33
Honeycomb soll auf Tegra 2 abgestimmt sein? Liegt das jetzt einfach daran, dass es derzeit noch immer keine Cortex A9 auf dem Markt gibt, mit Ausnahme von Tegra 2?
Ansonsten wundert mich die Meldung. Verzögert sich die Produktion vom Orion, dass Samsung erstmal noch Tegra 2 Chips dazwischen nehmen muss? :confused:
LovesuckZ
2010-12-15, 22:39:04
Eventuell wollen sie einfach nicht soviel in Software-R&D investieren und überlassen die Arbeit nVidia. Dann pimpen sie ein bisschen die Oberfläche und haben ein tolles Produkt.
Deinorius
2010-12-15, 22:45:13
Das hat ja durchaus Sinn, wenn sie nicht schon einen eigenen Chip hätten. Aber vielleicht versuchen sie damit auch früher als mit Orion möglich in den DualCore-Markt einsteigen zu können.
Hugo78
2010-12-15, 22:55:35
In der Meldung steht was von 250 bis 350 Millionen US-Dollar, was kostet denn ein Tegra 2 SoC?
Oder anders gefragt, welches Volumen kauft Samsung hier ein?
5-10 Mio Stück, oder mehr?
LovesuckZ
2010-12-15, 22:57:34
In der Meldung steht was von 250 bis 350 Millionen US-Dollar, was kostet denn ein Tegra 2 SoC?
Oder anders gefragt, welches Volumen kauft Samsung hier ein?
5-10 Mio Stück, oder mehr?
Zwischen $15 (Smartphones)-$30 (Tablets). Wurde auf der letzten CC von Huang auf die selbe Frage gesagt,
Hugo78
2010-12-15, 23:02:53
Ah also da es hier um Tablets geht, so um die 11 Mio Einheiten ... also vorausgesetzt, Samsung bezahlt da nicht noch Serviceleistungen oder so.
edit.
argh, es geht auch um phones ... also doch noch mehr Einheiten.
Scheint ja ein riesiger Markt zusein für Samsung.
Mancko
2010-12-16, 00:16:32
Ah also da es hier um Tablets geht, so um die 11 Mio Einheiten ... also vorausgesetzt, Samsung bezahlt da nicht noch Serviceleistungen oder so.
edit.
argh, es geht auch um phones ... also doch noch mehr Einheiten.
Scheint ja ein riesiger Markt zusein für Samsung.
Und damit auch für Nvidia :) Da ist richtig Musik drinne. Mein Tip für 2011 ist, dass Tegra 2 richtig durchstarten wird.
Sollte in jedem Fall ausreichen um das MCP Geschäft zu kompensieren und in Sachen Rechtsstreit mit Intel ist ja auch noch was offen.
Ailuros
2010-12-16, 00:26:15
erstaunlich wie schlecht der Tegra doch sein muss wenn es nach gewissen herren hier geht...
NV's letzter forecast (der wohl auch eingehalten werden wird) spricht fuer 2010 von 10Mio Einheiten. In etwa so viel wie nur das iPad alleine und nicht ueber zich Geraete verstreut.
Falls Du Informationen zum Gegenteil haben solltest, lesen es die "gewissen Herren" gerne, die auch freundlicherweise die indirekten Sticheleien mal wieder uebersehen moechten.
http://www.computerbase.de/news/consumer-electronics/2010/dezember/auch-samsung-setzt-auf-tegra-2/
tja das sehen die hersteller wohl etwas anders auch wenn sie sogar eigene A9 CPUs haben...
Es ist stinknormal dass Hersteller von mehr als einer Quelle entweder IP oder fertige SoCs einkaufen.
Zwischen "vielleicht" : http://www.rethink-wireless.com/2010/12/15/nvidia-wins-300m-tegra2-deal-samsung.htm und einen offiziell angekuendigten Deal gibt es aber trotzdem einen gewissen Abstand.
It could also put pressure on Qualcomm, traditionally Samsung's major supplier, which is now sharing processor business with various rivals, and even losing some baseband slots to competitors like Broadcom.
If Tegra2 does get into upcoming Samsung devices, it would also be a blow to the handset maker's own sister firm, Samsung Electronics, which provides its Hummingbird mobile processor for flagship products like Galaxy S and has its own multicore roadmap based on the forthcoming Orion model. The phonemaker, which has sometimes been notoriously wary about buying from its own stablemate, may be keen not to be too dependent on one supplier, especially as Samsung Electronics is also largely responsible for Apple's A4 processor. It may also see Tegra2 as being more advanced than Orion for the next round of Galaxy gadgets, since the Hummingbird successor remains somewhat shadowy.
Ich hoffe dass Du mit den paar Einzelheiten vielleicht schnallst wieso Samsung nicht direkt von Samsung Electronics einkauft. Anfang 2011 liegen iPhone5 und iPad2 an der Reihe. Ueber die Faehigkeiten von diesem SoC wuerde ich mir an Deiner Stelle eher Sorgen machen als alles andere.
Und damit auch für Nvidia :) Da ist richtig Musik drinne. Mein Tip für 2011 ist, dass Tegra 2 richtig durchstarten wird.
Es wird um einiges besser werden als in 2010 und um zich zich zich Male besser als mit Tegra1. Du darfst aber auch nicht vergessen dass T2 in 2011 zunehmende Konkurrenz sehen wird. Bis Ende 2010 gibt es keinen verfuegbaren dual A9 SoC. In 2011 geht es so langsam los mit den letzteren, ergo aendert sich sofort die Landschaft.
Sollte in jedem Fall ausreichen um das MCP Geschäft zu kompensieren und in Sachen Rechtsstreit mit Intel ist ja auch noch was offen.
Nach Gewinn riecht es immer noch nicht von der Sparte, aber NV kann es sich so oder so leisten. Intel ist zwar OT aber die beiden werden sich sicher etwas ausbuegeln langfristig dass in beider IHVs bester Interesse liegt.
Honeycomb soll auf Tegra 2 abgestimmt sein? Liegt das jetzt einfach daran, dass es derzeit noch immer keine Cortex A9 auf dem Markt gibt, mit Ausnahme von Tegra 2?
Ansonsten wundert mich die Meldung. Verzögert sich die Produktion vom Orion, dass Samsung erstmal noch Tegra 2 Chips dazwischen nehmen muss? :confused:
Siehe oben. Samsung != Samsung electronics. Verwirrt? Kein Wunder.
stickedy
2010-12-16, 02:17:23
Nun ja, die Mobiltelefone werden schon von Samsung Electronics hergestellt, nicht direkt von Samsung. Und Samsung Semiconductor ist dann eine Unterfirma von Samsung Electronics - falls Samsung Semiconductor die SoCs designt...
Anyway, sollen die neuen Samsung SoCs nicht einen Mali-Kern von ARM haben? Dann wundert es mich ehrlich gesagt nicht wirklich, dass Samsung erstmal zu Tegra 2 greift :)
Ailuros
2010-12-16, 02:43:27
Nun ja, die Mobiltelefone werden schon von Samsung Electronics hergestellt, nicht direkt von Samsung. Und Samsung Semiconductor ist dann eine Unterfirma von Samsung Electronics - falls Samsung Semiconductor die SoCs designt...
Anyway, sollen die neuen Samsung SoCs nicht einen Mali-Kern von ARM haben? Dann wundert es mich ehrlich gesagt nicht wirklich, dass Samsung erstmal zu Tegra 2 greift :)
Der Samsung Orion hat einen Mali400 4MP@400MHz afaik. Das Ding hat zwar nur eine Geometrie-Einheit fuer alle 4 cores, aber bei 400MHz ist weder die Fuellrate noch die fragment Leistung schwaechelnd gegen Tegra2@240MHz.
Screemer
2010-12-16, 09:23:48
wann sollen denn die ersten a9 duals mit sgx 543 2mp auflschlagen und wie ist eure einschätzung der performance gegenüber einem t2 und den a9+mali ? wen haltet ihr für den wahrscheinlich ersten nutzer eines solchen socs? ist eine nutzung eines solchen in propagierten iphone5/ipad2 denkbar?
Cubitus
2010-12-16, 09:41:30
Wie ist eigentlich der Stromverbrauch bei der Tegra Plattform, leistung ok aber mit kurzer Akkudauer bei Smartphones/Tablets ziemlich witzlos..
Dural
2010-12-16, 11:09:18
Erstes Tegra-2-Handy kommt Anfang 2011
http://www.computerbase.de/news/consumer-electronics/kommunikation/smartphones/2010/dezember/erstes-tegra-2-handy-kommt-anfang-2011/
stickedy
2010-12-16, 13:41:06
Da dann werden wir ja auch bald wissen wie lange so ein Tegra2-Handy mit dem Akku lebt :)
Ailuros
2010-12-16, 17:03:46
Da dann werden wir ja auch bald wissen wie lange so ein Tegra2-Handy mit dem Akku lebt :)
Handy SoCs sollen niedrigere Frequenzen haben.
wann sollen denn die ersten a9 duals mit sgx 543 2mp auflschlagen und wie ist eure einschätzung der performance gegenüber einem t2 und den a9+mali ? wen haltet ihr für den wahrscheinlich ersten nutzer eines solchen socs? ist eine nutzung eines solchen in propagierten iphone5/ipad2 denkbar?
Mit Apple's naechstem SoC faengt es an.
AnarchX
2010-12-16, 17:45:52
Von Nvidia gibt es ja diese Aussage zum Stromverbrauch: http://www.computerbase.de/bildstrecke/31949/7/
Besitzen die aktuellen A8-SoC einen dynamischen Takt?
Ailuros
2010-12-16, 21:09:05
Von Nvidia gibt es ja diese Aussage zum Stromverbrauch: http://www.computerbase.de/bildstrecke/31949/7/
Besitzen die aktuellen A8-SoC einen dynamischen Takt?
Es kann sein dass ich mich teusche aber ich kann mir sehr schwer vorstellen dass es in jeglichen heutigen SoCs kein clock und power gating gibt fuer Einheiten.
Wenn der workload eben nicht zwei CPU cores vollstopfen kann dann ist der Vorteil gegenueber einem einzelnen A9 core schon da. Ob der Unterschied dann wirklich 40% betrifft kann ich nicht wissen, klingt aber eher nach einem best case scenario.
Wie dem auch sei multi-core wird auf SoCs zunehmend Sinn machen; nur eben nicht nur auf CPU Einheiten begrenzt. Ende 2011 wird nach Geruechten NV bei T3 auf quad-core CPUs steigen.
hell_bird
2010-12-16, 23:10:56
Irgendwie macht das schon Sinn, falls das tatsächlich so umgesetzt werden kann, dass die bei halber Arbeit mit halbem Takt arbeiten. Wenn man rechnet, dass die Spannung quadratisch in den Stromverbrauch eingeht und die benötigte Spannung proportional zur Frequenz ist, läuft der Verbrauch in der dritten Potenz zur Frequenz.
Dualcore finde ich außerdem noch begeisternd, da ich mich immer noch ganz genau an das gefühl erinnern kann als ich am PC das erste mal vor einem DualCore gesessen bin. Das war eine ganz neue Dimension von responsiveness. Mal schauen was daraus wird.
YfOrU
2010-12-18, 03:20:21
Von Nvidia gibt es ja diese Aussage zum Stromverbrauch: http://www.computerbase.de/bildstrecke/31949/7/
Besitzen die aktuellen A8-SoC einen dynamischen Takt?
Natürlich und das Grundprinzip ist eigentlich mit CnQ am besten zu verdeutlichen. Allerdings hat ein SoC nach unten hin sehr viel tiefere Abstufungen. Das geht dann von 1 Ghz über Zwischenstufen bis auf 150Mhz (Smartphone - Standy). Gleichzeitig wird die Spannung mit angepasst. Wobei die 1Ghz eher selten anliegen.
Deshalb sind auch obligatorisch immer wieder auftretende Aussagen wie, "wer braucht schon 1Ghz zum telefonieren" reif für die Bananeninsel. Das läuft bei rund 250Mhz ;)
Welcher Hersteller es verbockt hat, also UI/OS zu aufwendig und Energiesparmodus zu tief zeigt sich wenn das äh Licht angeht und kurz nichts reagiert/hakt oder ein Gespräch nicht sofort aus dem Ruhezustand annehmbar ist, leider kein Witz und nicht so selten. Gerade wenn der Akku aus Designgründen schrumpfen musste. Total nervig aber die Hersteller schreiben halt lieber gefühlte 10 Jahre Standby auf die Packung.
Unter Android hat sich aus den Anpassungsmöglichkeiten vor allem mit den Motorola Omap 3 Geräten recht viel entwickelt. Undervolting am Handy, feinere, selbst definierte Taktabstufungen und OC ;)
Wobei TI mit der Omap3 Serie schon auch ausgefeiltere Varianten bietet. Es gibt Controller um die Spannung bei niedriger und mittlerer Auslastung (was ja eher der Regelfall selbst bei "Last" bezogen auf den ganzen SoC ist) am untersten möglichen Minimum zu halten. Als Ausgangsbasis dient dazu die zur Taktstufe gehörende Spannung.
Am Anfang lief das nicht gerade gut, (vor allem der Palm Pre wurde damit instabil) inzwischen ist es aber ganz brauchbar. So gesehen ist das was Nvidia hier zeigt, naja, hoffentlich war das nicht alles. Für einen SoC dieser Generation wäre das bisher gezeigte kaum ein Wunder und lässt sich problemlos in Software umsetzen.
Ist eben auch so ein kleiner Nebenschauplatz denn zu einem wirklich effektiven SoC gehören auch eigene Powercontroller (intern und extern) sowie deren Zusammenspiel.
TI Smartreflex: http://focus.ti.com/pdfs/wtbu/smartreflex_whitepaper.pdf
Ailuros
2010-12-18, 16:46:30
YfOrU,
Noch ein ausgezeichneter Beitrag.
Nur kurz:
Welcher Hersteller es verbockt hat, also UI/OS zu aufwendig und Energiesparmodus zu tief zeigt sich wenn das äh Licht angeht und kurz nichts reagiert/hakt oder ein Gespräch nicht sofort aus dem Ruhezustand annehmbar ist, leider kein Witz und nicht so selten.
....und das hat dann leider oefters auch nicht unbedingt mit den jeweiligen Technologie-Entwicklern zu tun. Mein Frau hat erst vor Tagen ein neues billig-Handy erworben und dazu wirklich nichts besonderes. Die Batterie-Laufzeit obwohl sie es relativ selten benutzt ist schlechter als die auf meinem N95 das ich immer noch ab und zu benutze. Ich hab u.a. mal probiert die Helligkeit auf 50% zu stellen ob das erstmal hilft, denn mit 2-3 kurzen Telefonaten pro Tag ist ca. 1.5x Tage Laufzeit fuer die Batterie fuer ein stinknormales Handy mit winzigem Bildschirm einfach unakzeptabel.
Kurz: bekloppte Realisierungen aus den bloedesten Gruenden gibt es leider dort draussen genug.
Deinorius
2010-12-19, 16:31:17
Siehe oben. Samsung != Samsung electronics. Verwirrt? Kein Wunder.
Nein. Das ist absolut verständlich.
Tarkin
2010-12-19, 21:58:52
Viewsonic: gTablet zurückgerufen (http://www.hartware.de/news_50618.html)
Diese Android + Tegra Tablets entwickeln sich langsam zum FAIL des Jahres... woran liegt das? Unglaublich dass die Hersteller derart unfähig sind!
Mancko
2010-12-20, 00:56:42
Dürfte primär ein Softwareproblem sein. Es macht Sinn auf Android 3.0 zu warten. BTW hat Samsung angeblich für 250 bis 300 Mio Dollar Tegra 2 Einheiten bestellt.
Shink
2010-12-20, 08:49:33
Dürfte primär ein Softwareproblem sein.
Samsung hat anscheinend beim Galaxy Tab kein Softwareproblem. Hätten die eines wenn sie Tegra verbauen würden?:freak:
Dural
2010-12-20, 09:14:09
wenn Google (und glaub auch NV) davon warnt eben nicht Android 2.2 zu verwenden sondern auf 3.0 zu warten ist das weder ein problem von Google noch NV...
Es zeigt wohl nur wie überlegen derzeit Tegra doch sein muss wenn man doch so ein gerät entgegen der entfehlung von den entwiklern auf den markt wirft...
Ailuros
2010-12-20, 17:57:39
wenn Google (und glaub auch NV) davon warnt eben nicht Android 2.2 zu verwenden sondern auf 3.0 zu warten ist das weder ein problem von Google noch NV...
Google Nexus S (Hummingbird + SGX540) auf Android 2.3, wenn man 2.2 vermeiden will: http://www.anandtech.com/show/4059/nexus-s-and-android-23-review-gingerbread-for-the-holidays
Es zeigt wohl nur wie überlegen derzeit Tegra doch sein muss wenn man doch so ein gerät entgegen der entfehlung von den entwiklern auf den markt wirft...
Ich weiss zwar nicht welche Entwickler Du genau meinst, aber bei Sweeney liegt Tegra2 auf jeden Fall in seinem guten Buch.
Dürfte primär ein Softwareproblem sein. Es macht Sinn auf Android 3.0 zu warten. BTW hat Samsung angeblich für 250 bis 300 Mio Dollar Tegra 2 Einheiten bestellt.
Ich schliesse es nicht aus dass der deal existieren koennte, aber bis zum Punkt wo es eine oeffentliche Bestaetigung/Ankuendigung diesbezueglich gibt bleibt es im Raum der Geruechte.
Mancko
2010-12-20, 19:19:56
Ich schliesse es nicht aus dass der deal existieren koennte, aber bis zum Punkt wo es eine oeffentliche Bestaetigung/Ankuendigung diesbezueglich gibt bleibt es im Raum der Geruechte.
Der Aktienkurs ist schonmal nach oben gegangen in den letzten Wochen. Ich denke mehr dazu wird man nächsten Conf. Call hören. Nachdem Nvidia fest davon ausgeht, dass Tegra den MCP Teil in den Umsätzen im laufenden Quartal überholt, müssen da ja schon ein paar größere Deals dabei sein.
Ailuros
2010-12-21, 19:55:43
Qualcomm wäre schön blöd wenn Neocore an der Bandbreite hängen würde. Sowohl Adreno als auch SGX skalieren hier recht nahe am theoretischen Maximum.
Das der Einbruch bei 1024*600 nicht ganz unrealistisch ist zeigt auch der Durchschnittswert des Hummingbird unter 800*480 (Quake3). Im Gegensatz zu Neocore ist das schon leicht unter der V-Snyc Limitierung.
Re-quote denn Anand hat einen update veroeffentlicht:
http://www.anandtech.com/show/4067/nvidia-tegra-2-graphics-performance-update
Fuer GL Benchmark 2.0 scores sehen wir uns das Ganze bald nochmal an. Auf jeden Fall nix mit Bandbreite fuer Hummingbird in Q3a.
Ailuros
2010-12-29, 13:55:53
http://www.fudzilla.com/notebooks/item/21354-onkyo-intros-tegra-2-tablet
http://en.akihabaranews.com/78577/tablet-pda/ta117-onkyo-first-android-2-2-tegra-250-tablet
Android 2.2
Mancko
2011-01-02, 12:29:47
Übrigens ein recht interessanter Thread bei SA zum Thema Tegra2
http://www.semiaccurate.com/forums/showthread.php?t=4011
Da hat sich mal jemand die Mühe gemacht und nach Design Wins und Produkten zu suchen nachdem Charlie ja wiedermal ohne Fakten einfach mal behauptet hat Nvidia würde gerade viele Design Wins wieder verlieren.....
Der Typ ist echt ein Witz und er ist sehr nervös zur Zeit. Nachdem ich ihn schon mehrfach mit Fakten wiederlegt habe kannte er nur eins -> Permban im Forum lol. Nach dem "GTX460 selling at a loss" Märchen ist die Tegra2 Story nun der zweite dicke Fail. Von den schwachen Cayman Artikeln mal ganz zu schweigen.
Zurück zu Tegra2. Ich denke 2011 wird ein Tegra2 Jahr werden. Der Aktienkurs von Nvidia scheint das bereits langsam wiederzuspiegeln. Nach eher zögerlichem Start scheint es jetzt doch ganz gut vorwärts zu gehen. CES wird hier ein sehr guter Indikator sein. Einheitenmäßig ist in dem Markt sehr viel Musik drinn.
Nakai
2011-01-02, 15:54:33
Zurück zu Tegra2. Ich denke 2011 wird ein Tegra2 Jahr werden. Der Aktienkurs von Nvidia scheint das bereits langsam wiederzuspiegeln. Nach eher zögerlichem Start scheint es jetzt doch ganz gut vorwärts zu gehen. CES wird hier ein sehr guter Indikator sein. Einheitenmäßig ist in dem Markt sehr viel Musik drinn.
NV hat auf ein sehr interessantes Pferd gesetzt. Man wird sooo gut dastehen, bis die Konkurrenz mit SGX543MP und auch mit Cortex A9 kommt. Die GPU ist ja jetzt schon kaum konkurrenzfähig.
Der härteste Konkurrent wird wohl anfangs in OMAP4430(ist jetzt auch schon verfügbar) sein, mit auch 2 CortexA9 mit je 1 GHz und einer SGX540-Grafikeinheit.
mfg
=Floi=
2011-01-02, 15:57:38
ich würde die konkurrenz da nicht unterschätzen. wie schnell da auch die luft raus sein kann sieht man am handy markt am besten. über nach kann der könig tot sein...
Ailuros
2011-01-02, 16:47:00
ich würde die konkurrenz da nicht unterschätzen. wie schnell da auch die luft raus sein kann sieht man am handy markt am besten. über nach kann der könig tot sein...
Den Paragraphen kann man fuer jeden Konkurrenten dort draussen anpassen und er wird genauso gut gelten denn die Konkurrenz im mobile und embedded Markt ist zunehmend am Aufschwung. "Der Koenig" macht sich keine Sorgen, sein Reich wird zwar um einiges schrumpfen aber seine Kasse genauso voll wie er bis jetzt erwartet hatte.
Bucklew
2011-01-02, 16:49:32
NV hat auf ein sehr interessantes Pferd gesetzt. Man wird sooo gut dastehen, bis die Konkurrenz mit SGX543MP und auch mit Cortex A9 kommt. Die GPU ist ja jetzt schon kaum konkurrenzfähig.
Der härteste Konkurrent wird wohl anfangs in OMAP4430(ist jetzt auch schon verfügbar) sein, mit auch 2 CortexA9 mit je 1 GHz und einer SGX540-Grafikeinheit.
Stell dir vor: Auch von NV wird es noch Nachfolger vom aktuellen Tegra2 geben ;)
=Floi=
2011-01-02, 16:55:28
es war die rede von lang anhantenden und lukrativen geschäften und daran glaube ich nicht so recht. Es ist verdammt schwer da dran zu bleiben und kostet auch eine menge geld.
man kann dort geld verdienen, aber den handy markt sehe ich nicht als dauerhaften neues standbein für NV.
Mancko
2011-01-02, 17:12:29
es war die rede von lang anhantenden und lukrativen geschäften und daran glaube ich nicht so recht. Es ist verdammt schwer da dran zu bleiben und kostet auch eine menge geld.
man kann dort geld verdienen, aber den handy markt sehe ich nicht als dauerhaften neues standbein für NV.
Es kostet aber nicht annähernd so viel Geld wie Desktop und Professionelle GPUs zu entwickeln.
Nicht vergessen auch Tegra ist eine Art Abfallprodukt. Das ARM Zeug musste Nvidia ja nicht designen und im GPU Geschäft kennen sie sich aus wie kein anderer.
Tegra wird nicht das allgeinige Standbein aber das Standbein reicht allemal aus um das Chipset Business komplett zu ersetzen. Die Dinger werden in Tables, Smartphones und unter Umständen auch irgendwann in kleinen Netbooks verwendet werden. Ich sehe gerade bei den kleinen mobilen Geräten die x86 Dominanz ganz massiv wackeln. Das die anderen zu Tegra2 aufschließen liegt nahe. Nichts ist für die Ewigkeit aber wenn Nvidia den Fahrplan einhalten kann und jedes Jahr ein Tegra Update bringt und die Performance passt, werden sich auch einige SOC Anbieter wieder verabschieden. 2011 müsste demnach Tegra 3 vorgestellt werden. Ich rechne mit Q3/Q4. Wenn die anderen dann erst zu Tegra2 aufgeschlossen haben ist für Nvidia doch alles im Lot.
Im Endeffekt müssen sie nur schauen, viel Umsatz zu machen. Das hilft das einen Großteil der R&D Kosten Segmentübergreifend zu decken. Profite kann man ja im Professionellen machen. Das Chipsetbusiness war auch nie der riesen Profitbringer. Massenprodukte taugen dafür einfach nicht.
Ailuros
2011-01-02, 17:18:46
Stell dir vor: Auch von NV wird es noch Nachfolger vom aktuellen Tegra2 geben ;)
T3@28nm fuer smart-phones braucht einiges Glueck dass es NV vor dem Ausklang von 2011 noch schafft. Und stell Dir vor der von Nakai erwaehnte MP kommt schon Anfang 2011 an.
Es kostet aber nicht annähernd so viel Geld wie Desktop und Professionelle GPUs zu entwickeln.
Nicht vergessen auch Tegra ist eine Art Abfallprodukt. Das ARM Zeug musste Nvidia ja nicht designen und im GPU Geschäft kennen sie sich aus wie kein anderer.
Tegra wird nicht das allgeinige Standbein aber das Standbein reicht allemal aus um das Chipset Business komplett zu ersetzen. Die Dinger werden in Tables, Smartphones und unter Umständen auch irgendwann in kleinen Netbooks verwendet werden. Ich sehe gerade bei den kleinen mobilen Geräten die x86 Dominanz ganz massiv wackeln. Das die anderen zu Tegra2 aufschließen liegt nahe. Nichts ist für die Ewigkeit aber wenn Nvidia den Fahrplan einhalten kann und jedes Jahr ein Tegra Update bringt und die Performance passt, werden sich auch einige SOC Anbieter wieder verabschieden. 2011 müsste demnach Tegra 3 vorgestellt werden. Ich rechne mit Q3/Q4. Wenn die anderen dann erst zu Tegra2 aufgeschlossen haben ist für Nvidia doch alles im Lot.
Im Endeffekt müssen sie nur schauen, viel Umsatz zu machen. Das hilft das einen Großteil der R&D Kosten Segmentübergreifend zu decken. Profite kann man ja im Professionellen machen. Das Chipsetbusiness war auch nie der riesen Profitbringer. Massenprodukte taugen dafür einfach nicht.
Haarspaltereien zur Seite: insgesamt ein sehr balancierter Beitrag. Ueberhaupt die letzten 2 Saetze sind voll den Nagel auf den Kopf getroffen.
Bucklew
2011-01-02, 17:36:48
T3@28nm fuer smart-phones braucht einiges Glueck dass es NV vor dem Ausklang von 2011 noch schafft. Und stell Dir vor der von Nakai erwaehnte MP kommt schon Anfang 2011 an.
Der ist aber wieder 45nm (lieg ich da richtig?) und soll (als Sample) in Q1 kommen. Von daher wäre das erstmal nur ein Gleichstand mit dem T2.
Ailuros
2011-01-02, 18:01:42
Der ist aber wieder 45nm (lieg ich da richtig?) und soll (als Sample) in Q1 kommen. Von daher wäre das erstmal nur ein Gleichstand mit dem T2.
Was genau hat der Herstellungsprozess eines SoCs damit zu tun? Ja es wird wohl 45nm sein und afaik handelt es sich um Produkt-Vorstellungen.
Schon der OMAP4 ist ein gesundes Stueck vor T2 da um einiges hoehere Leistung bei niedrigerem Stromverbrauch.
Um einen SGX543 2MP zu schlagen muesste NV 2 GPU cores in T2 stopfen und es wuerde immer noch nicht ausreichen.
Das hier ist ein SoC sample und schon 3 Wochen alt:
http://www.imgtec.com/News/Release/index.asp?NewsID=598
=Floi=
2011-01-02, 18:21:38
die entwicklungskosten steigen exponentiell an und mit den späteren designs wird mana uch stärker am design feilen müssen um mehr leistung rauszuholen. ich rede nicht von heute, sondern von morgen und wie die komplexität ansteigen kann sieht mana uch sehr schön an fermi im vergleich mit einem 222mio NV40. Ich hoffe tegra ist auch in 5 jahren noch ein lukratives standbein für nv.
an der tesla und an der quadro baureihe sieht man wie wichtig marge im vergleich zu masse ist. den vergleich mit ati spare ich mir jetzt. ;)
Nakai
2011-01-02, 19:01:53
NV muss Tegra erst als Standbein vermarkten. Solange man den Markt mit so wenigen Tegras versorgt, sollte man sich nicht wundern, dass gewisse wenige(es sind sogar nichtmal so wenige) Produkte erst jetzt aufschlagen.
Der ist aber wieder 45nm (lieg ich da richtig?) und soll (als Sample) in Q1 kommen. Von daher wäre das erstmal nur ein Gleichstand mit dem T2.
Den OMAP4430 kann ich ohne Probleme selber in den Händen halten. Bei T2 siehts einfach schlechter aus.
NV baut mit dem Tegra2 einfach keine Community auf.
Es ist verdammt schwer für Entwickler an einem Devboard mit Tegra2 zum kommen. Auch der hohe Preis von 399$ tut den Entwicklern nicht gut.
Da sind Communityprojekte wie das Pandaboard, Beagleboard oder das Hawkboard deutlich effizienter. Die Hardware ist perfekt dokumentiert, es ist billig, es ist einfach zu bekommen und es ist erhältlich.
NV hat es mit Tegra2 einfach verpasst eine relativ große Basis von Entwicklern zu erreichen.
mfg
Dural
2011-01-02, 20:53:29
früher oder später wird NV eine feste grösse in dem markt sein, da bin ich mir realativ sicher.
gerade wenn es dann unter die 22nm geht, dürfte zb. Fermi und co "technik" auch in dem bereich kein problem mehr sein und NV hat halt da ein unglaubliches potenzial wie keine andere firma auf dieser welt!
Und stell Dir vor der von Nakai erwaehnte MP kommt schon Anfang 2011 an.
toll, sie holen nach einem jahr auf T2 auf :rolleyes:
sollte man sich nicht wundern, dass gewisse wenige(es sind sogar nichtmal so wenige) Produkte erst jetzt aufschlagen.
NV hat ja schon längst bekannt gegeben das die verzögerung mit Software problemen zu tun hatte, genau deswegen gab es bis jetzt auch kaum geräte mit Tegra 2
Bucklew
2011-01-02, 21:11:50
Was genau hat der Herstellungsprozess eines SoCs damit zu tun? Ja es wird wohl 45nm sein und afaik handelt es sich um Produkt-Vorstellungen.
Auf der TI-Homepage steht Q1 für Samples. Vielleicht auch ne ältere Seite, weiß ich nicht.
Schon der OMAP4 ist ein gesundes Stueck vor T2 da um einiges hoehere Leistung bei niedrigerem Stromverbrauch.
Kommt ja auch ein gesundes Stück später. So gesund, dass Motorola, die ja die Vorgänger viel in den Highend-Modellen eingesetzt haben, den T2 einsetzen werden.
Es wäre schon (wenn man mal den Vergleich zum Vorgänger OMAP3 zieht) ein Wunder, wenn wir den SoC 2011 irgendwo in einem Smartphone/Tablet o.Ä. sehen. Ich glaubs persönlich nicht ;)
Man schaue sich mal das Datum der ersten OMAP4-Präsentation an, das sind jetzt fast 2 Jahre:
http://www.youtube.com/watch?v=54TI5bv6QCA&feature=player_embedded
NV hat es mit Tegra2 einfach verpasst eine relativ große Basis von Entwicklern zu erreichen.
Das will man auch aktuell gar nicht. Aktuell will man in den Massenmarkt und nicht in auf die kleinen Bastelboards. Die Entwickler erreicht man auch allgemein über Android.
Oder was glaubst du wie die Relationen zwischen verkauften Pandaboards und verkauften Smartphones/Tablets aussieht/ausehen wird? Das lohnt sich schlicht nicht.
Ailuros
2011-01-03, 11:54:53
früher oder später wird NV eine feste grösse in dem markt sein, da bin ich mir realativ sicher.
gerade wenn es dann unter die 22nm geht, dürfte zb. Fermi und co "technik" auch in dem bereich kein problem mehr sein und NV hat halt da ein unglaubliches potenzial wie keine andere firma auf dieser welt!
Eine feste Groesse wohl schon aber stets unter der Vielfalt von SoC Herstellern begrenzt. NV konkurriert in diesem Fall als SoC Hersteller nicht mit einem Konkurrenten wie im standalone GPU Markt als Beispiel sondern mit einer guten Anzahl von top tier semi Herstellern.
Mancko hat es mehr oder weniger oben ziemlich gut zusammengefasst.
toll, sie holen nach einem jahr auf T2 auf :rolleyes:
Ich hab das Gefuehl dass sowohl Du als auch Bucklew OMAP4 mit SGX54x MP durcheinander bringt. OMAP4 hat 2 Cortex9 wie Tegra2 die aber bis zu 1.5GHz getaktet werden koennen und eine SGX540 (wie im GalaxyS) nur bis auf 400MHz getaktet.
Ein SGX54x MP (fuer multi-prozessor) steht fuer mehrere GPU cores. Wenn Nakai von 2MP bald spricht dann gleicht dieser GPU config bei gleicher T2 Taktung bei zumindest 3x Mal so viel Leistung.
Auf der CPU Seite ist dank dual A9 Tegra2 im klaren Vorsprung, auf der GPU Seite sowohl feature-maessig und auch leistungsmaessig eben nicht.
NV hat ja schon längst bekannt gegeben das die verzögerung mit Software problemen zu tun hatte, genau deswegen gab es bis jetzt auch kaum geräte mit Tegra 2
Es gibt genug Geraete (und sogar mit T2 unter diesen) die nicht auf Android 3.0 ausgelegt sind und laufen einwandfrei. 3.0 wird mit Sicherheit um einiges besser sein als die vorige Versionen, aber Wunder macht eine OS Version fuer die unterliegende hardware nun auch nicht. Ich sehe auch nichts bis jetzt dass zeigt dass T2 auf <Android 3.0 unter NV's eigenen Messungen liegt.
Es ist zweifellose Tatsache dass NV mit T2 um einiges mehr geschafft hat als mit T1, aber ein "Qualcolmm" oder "Texas Instruments" sind sie im Markt damit noch lange nicht.
Auf der TI-Homepage steht Q1 für Samples. Vielleicht auch ne ältere Seite, weiß ich nicht.
Wenn Nakai oder ich SGX54x MP sagen dann hat es offensichtlich NICHTS mit OMAP 4 zu tun.
OMAP4 SGX540=
4 Vec2 FP32 ALUs
2 TMUs
8 z/stencil
SGX543 2MP (2 cores)=
2* 4 Vec4+1 FP32 ALUs
2* 2 TMUs
2* 16 z/stencil
Von SGX54x MP werden wir von TI dieses Jahr mit Sicherheit nichts sehen.
Kommt ja auch ein gesundes Stück später. So gesund, dass Motorola, die ja die Vorgänger viel in den Highend-Modellen eingesetzt haben, den T2 einsetzen werden.
Es wäre schon (wenn man mal den Vergleich zum Vorgänger OMAP3 zieht) ein Wunder, wenn wir den SoC 2011 irgendwo in einem Smartphone/Tablet o.Ä. sehen. Ich glaubs persönlich nicht ;)
Man schaue sich mal das Datum der ersten OMAP4-Präsentation an, das sind jetzt fast 2 Jahre:
http://www.youtube.com/watch?v=54TI5bv6QCA&feature=player_embedded
So lange dauert es eben bei allen. Tegra2 hatte seinen tape-out bei TSMC Ende 2008 unter 40G und kam in Q1 2010 zur Massenproduktion.
Das will man auch aktuell gar nicht. Aktuell will man in den Massenmarkt und nicht in auf die kleinen Bastelboards. Die Entwickler erreicht man auch allgemein über Android.
Android wird nach dem was ich hoere tatsaechlich nach 3.0 um einiges stabiler. Es bleibt aber dabei dass kein mobiles OS so "3D zentrisch" entwickelt wurde wie Apple's iOS. Vom eigentlichen "Vater" von OpenCL haette ich auch nichts anderes erwartet, egal wie verkorkst dass jetzt klingen mag.
Wie dem auch sei ich bleibe persoenlich dabei dass NVIDIA einen GPU core haette entwickeln sollen der weniger auf das Ziel-OS ausgelegt gewesen waere und mehr in Richtung "Allzweck". Von einem GPU IHV wie NVIDIA haette ich nicht erwartet dass sie in einem System on Chip die hoechste Konzentration auf die CPU legen werden (IP Lizenz von ARM ergo nicht mal eigene Technologie) und dass die GPU im relativen Sinn so vernachlaessigt wird.
Von einem Vorreiter im GPU desktop und Profi-Markt erwarte ich keine lahmarschigen Entschuldigungen dass sie nur features integrieren wenn sie der Markt braucht (siehe FP32 ALUs- CUDA - GPGPU). Z Genauigkeit ist zu bescheiden und die cores scheinen auch nicht ueber alleinstehendes Multisampling faehig zu sein (nur 5xCSAA - 2xMSAA+3x coverage), ausser sie haben die relevante Extension noch nicht integriert.
Wenn das Resultat jetzt noch ultra-winzig waere (des GPU blocks) gaebe es ja auch keinen Grund zum meckern. Bei dem Platz den der T2 GPU block einnimmt unter 40G passt heute in die gleichen mm2 ein SGX54x 2MP rein unter 45nm.
Tegra3 liegt IMO schon zu tief in Entwicklung; ich will hoffen dass es sich bei Tegra4 um einiges zum besseren geaendert hat denn vorruebergehend werden wir wohl nicht mehr als 4 CPU cores in solchen Geraeten fuer einige Zeit sehen; ergo bleibt nur noch uebrig die area in die GPU Richtung zu investieren.
Nakai
2011-01-03, 12:38:52
Das will man auch aktuell gar nicht. Aktuell will man in den Massenmarkt und nicht in auf die kleinen Bastelboards. Die Entwickler erreicht man auch allgemein über Android.
Oder was glaubst du wie die Relationen zwischen verkauften Pandaboards und verkauften Smartphones/Tablets aussieht/ausehen wird? Das lohnt sich schlicht nicht.
Es geht auch nicht um Verkäufe, sondern um Entwicklerakzeptanz. Warum denkst du schlagen solche Entwicklerboards immer einige Zeit vor den eigentlichen Produkten auf den Markt?
TI hat für alle solche Boards die ein TI-SOC(Pandaboard, Beagleboard, Hawkboard etc.)enthielten eine große OpenSource Entwicklercommunity gegründet.
Hier wird vor allem geguckt, was möglich ist, was die Hardwarebasis leistet etc.
Nur mal ein Beispiel:
Das Beagleboard erschien H2 2008. Ein halbes Jahr später schlugen die ersten OMAP3 basierenden SMartphones und Produkte auf den Markt.
Mittlerweile gibt es unzählige andere OMAP3-Produkte.
Und klar, solche Communitys aufzubauen ist auch ne gute Werbung in Entwicklerkreisen.
Hardwaremäßig ist T2 verdammt gut. 2 CortexA9 sind gewiss nicht zu unterschätzen. Nur die GPU ist etwas zu lahmarschig, aber die sollte ohne weiteres reichen. NV muss jetzt schauen, dass die Produkte schnell und ohne Probleme auf den Markt kommen. Erreicht man damit eine gute Marktakzeptanz, dann ist es wahrscheinlich, dass T3 ein noch größerer Erfolg wird.
Man sollte hier auch wirklich unterscheiden, dass NV nur "eine" Hardwarebasis anbietet. Man verkauft auch keine Technologien, ähnlich mit Imgtec.
mfg
Bucklew
2011-01-03, 13:24:07
Wenn Nakai oder ich SGX54x MP sagen dann hat es offensichtlich NICHTS mit OMAP 4 zu tun.
Du redest doch selbst vom OMAP4?!
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8481811&postcount=348
Da Nakai den OMAP4430 als härtesten Konkurrenten ins Spiel gebracht hab, bin ich mal davon ausgegangen, dass du auch diesne meinst.
So lange dauert es eben bei allen. Tegra2 hatte seinen tape-out bei TSMC Ende 2008 unter 40G und kam in Q1 2010 zur Massenproduktion.
Eben. Daher ist es müßig drüber zu diskutieren, dass es Chip A oder B gibt, die dem sehr bald erscheinen Chip C in den Hintern treten, die es selbst aber irgendwann erst in 2 Jahren mal geben wird.
Ist halt ne Sache von Entwicklungszyklen. Aber kein Beleg für einen schlechten Chip. Das wären nur direkte Konkurrenten zeitlich.
Android wird nach dem was ich hoere tatsaechlich nach 3.0 um einiges stabiler. Es bleibt aber dabei dass kein mobiles OS so "3D zentrisch" entwickelt wurde wie Apple's iOS. Vom eigentlichen "Vater" von OpenCL haette ich auch nichts anderes erwartet, egal wie verkorkst dass jetzt klingen mag.
Es geht mir nur darum, dass diese Entwicklerboards sicherlich nett sind und es sicherlich auch viele Entwickler gibt, die da tolles Zueg drauf bauen. Aber das Geld wird woanders gemacht, nämlich diese Chips in die Smartphones/Tablets/whatever zu kriegen. Und dann hat man (speziell bei Android) auch eine sehr große Entwicklergemeinschaft.
Also die Frage ist halt ob es sich lohnt diese Entwicklerboards zu entwickeln/bauen, die entsprechende Infrastruktur zu unterhalten und ob man diese Investitionen wieder herausholt. Und da würde ich das aktuell verneinen, da ist es wichtiger Tegra jetzt in die Massenprodukte zu kriegen.
Wie dem auch sei ich bleibe persoenlich dabei dass NVIDIA einen GPU core haette entwickeln sollen der weniger auf das Ziel-OS ausgelegt gewesen waere und mehr in Richtung "Allzweck". Von einem GPU IHV wie NVIDIA haette ich nicht erwartet dass sie in einem System on Chip die hoechste Konzentration auf die CPU legen werden (IP Lizenz von ARM ergo nicht mal eigene Technologie) und dass die GPU im relativen Sinn so vernachlaessigt wird.
Ich versteh wodrauf du hinaus willst und Unrecht hast du damit nicht. Die Frage ist, ob man das damals (also bei Beginn der Entwicklung) so schon vorhersehen könnte.
Wenn das Resultat jetzt noch ultra-winzig waere (des GPU blocks) gaebe es ja auch keinen Grund zum meckern. Bei dem Platz den der T2 GPU block einnimmt unter 40G passt heute in die gleichen mm2 ein SGX54x 2MP rein unter 45nm.
Normale Entwicklung für einen Chip, der erst in 1-2 Jahren erscheint ;)
Tegra3 liegt IMO schon zu tief in Entwicklung; ich will hoffen dass es sich bei Tegra4 um einiges zum besseren geaendert hat denn vorruebergehend werden wir wohl nicht mehr als 4 CPU cores in solchen Geraeten fuer einige Zeit sehen; ergo bleibt nur noch uebrig die area in die GPU Richtung zu investieren.
Hehe, Tegra ist nicht das Einzige, was da noch kommt ;)
Es geht auch nicht um Verkäufe, sondern um Entwicklerakzeptanz. Warum denkst du schlagen solche Entwicklerboards immer einige Zeit vor den eigentlichen Produkten auf den Markt?
Ich weiß wofür. Aber ich glaube, dass die damit erreichten Verkaufszahlen nicht gut genug sind, damit Nvidia sich das Geld leisten kann, diesen "Luxus" zu leisten. Siehe auch meine Antwort oben auf Ailuros ;)
Ailuros
2011-01-03, 13:51:00
Du redest doch selbst vom OMAP4?!
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8481811&postcount=348
Der Post klarifiziert den Unterschied zwischen OMAP4 und einem jeglichem SoC mit SGX54x 2MP. Nochmal durchlesen.
Da Nakai den OMAP4430 als härtesten Konkurrenten ins Spiel gebracht hab, bin ich mal davon ausgegangen, dass du auch diesne meinst.
So hab ich es nicht von seinen Posts verstanden, sondern eher als Beispiel unter vielen anderen. Die groesste Drohung fuer T2 koennte aus der Richtung Apple kommen.
Eben. Daher ist es müßig drüber zu diskutieren, dass es Chip A oder B gibt, die dem sehr bald erscheinen Chip C in den Hintern treten, die es selbst aber irgendwann erst in 2 Jahren mal geben wird.
In 2010 hat T2 sowieso nichts besonderes verkauft, ergo wird es wohl erst in 2011 interessanter und was dann generell verfuegbar sein wird.
Ist halt ne Sache von Entwicklungszyklen. Aber kein Beleg für einen schlechten Chip. Das wären nur direkte Konkurrenten zeitlich.
NVIDIA ist technisch gesehen um eine ganze Generation hinter SGX. Ist zwar bei der Mehrzahl der Konkurrenz auch so, aber gerade von NVIDIA hab ich persoenlich hoehere Ansprueche als das was ich in T2 sehe.
Ein pdf vom Sommer 2009; ueberseh mal dass es von OpenCL handelt und schau Dir genau Seite 18 und 19 an:
http://www.hotchips.org/archives/hc21/1_sun/HC21.23.2.OpenCLTutorial-Epub/HC21.23.270.Pulli-OpenCL-in-Handheld-Devices.pdf
Tests wurden damals auf einem OMAP3 durchgefuehrt.
Darauf folgender PR-Schnickschnack:
http://www.imgtec.com/corporate/presentations/AGM10/28.jpg
http://www.imgtec.com/corporate/presentations/AGM10/29.jpg
Es geht mir nur darum, dass diese Entwicklerboards sicherlich nett sind und es sicherlich auch viele Entwickler gibt, die da tolles Zueg drauf bauen. Aber das Geld wird woanders gemacht, nämlich diese Chips in die Smartphones/Tablets/whatever zu kriegen. Und dann hat man (speziell bei Android) auch eine sehr große Entwicklergemeinschaft.
Also die Frage ist halt ob es sich lohnt diese Entwicklerboards zu entwickeln/bauen, die entsprechende Infrastruktur zu unterhalten und ob man diese Investitionen wieder herausholt. Und da würde ich das aktuell verneinen, da ist es wichtiger Tegra jetzt in die Massenprodukte zu kriegen.
Wobei der letzte Satz wohl eher der Schluessel der ganzen Affaere ist: NV hat keines ihrer originalen T2 Ziele erreichen koennen ergo wird eben auch nebenbei noch zusaetzlich gespart.
Semis wie z.B. Samsung, Toshiba oder TI koennen locker selbst ganze SoCs entwickelen und wenn diese Kaese sind diese einfach stornieren.
Das laecherlichste ist eben an der ganzen Sache dass es anscheinend ein NVIDIA fuer den Profi bzw. GPU desktop Markt gibt (wo Unsummen in sw-Unterstuetzung, DevRel etc etc geschwemmt werden...) und NVIDIA Tegra/embedded. Hier braucht NV keinen zusaetzlichen cent fuer gar nichts ausgeben, da alles von sich selber kommen wird. Hergott wir reden ueber NVIDIA und nicht AMD oder Intel (wenn es um Grafik geht).
Ich versteh wodrauf du hinaus willst und Unrecht hast du damit nicht. Die Frage ist, ob man das damals (also bei Beginn der Entwicklung) so schon vorhersehen könnte.
Ja. Glaub jetzt bloss nicht dass NV unzaehlige Jahre brauchte einen GF5-Ableger zu entwickeln. SGX wurde schon in 2005 angekuendigt und industry insiders wissen schon einige Zeit im voraus was jeglicher Konkurrent kocht.
Normale Entwicklung für einen Chip, der erst in 1-2 Jahren erscheint ;)
Darf ich den quote fuer meine Unterschrift als Referenz fuer dieses Halbjahr benutzen?
Hehe, Tegra ist nicht das Einzige, was da noch kommt ;)
(Noch) kein Kommentar.
Ich weiß wofür. Aber ich glaube, dass die damit erreichten Verkaufszahlen nicht gut genug sind, damit Nvidia sich das Geld leisten kann, diesen "Luxus" zu leisten. Siehe auch meine Antwort oben auf Ailuros ;)
Ich sehe keine aehnliche Massnahmen fuer andere Maerkte. Und es geht weniger ums Prinzip oder ob einige Dinge innerhalb NV zweischienig laufen je nach Markt, sondern darum dass es fuer NV selber nach aussen keinen positiven Eindruck macht.
Bucklew
2011-01-03, 23:20:11
Der Post klarifiziert den Unterschied zwischen OMAP4 und einem jeglichem SoC mit SGX54x 2MP. Nochmal durchlesen.
Ja, geschenkt. Dann schreib halt nächstes Mal genauer wovon du redest, dann weiß auch jeder Bescheid ;)
So hab ich es nicht von seinen Posts verstanden, sondern eher als Beispiel unter vielen anderen. Die groesste Drohung fuer T2 koennte aus der Richtung Apple kommen.
Naja:
Der härteste Konkurrent wird wohl anfangs in OMAP4430(ist jetzt auch schon verfügbar) sein[...]
Aber anyway, finds jetzt unsinnig über die Posts von Dritten zu diskutieren und deren Interpretation.
In 2010 hat T2 sowieso nichts besonderes verkauft, ergo wird es wohl erst in 2011 interessanter und was dann generell verfuegbar sein wird.
Ja klar. Genau deswegen sehe ich das ganze "man kann Chip X jetzt schon kaufen wenn man will und der ist ja viel besser als Y" eben als Quatsch an: Entscheidend ist in diesem Umfeld nicht, wann man den Chip bekommt, sondern wann es das drumherum als ganzes Gerät gibt. Und das dauert dann nochmal.
NVIDIA ist technisch gesehen um eine ganze Generation hinter SGX. Ist zwar bei der Mehrzahl der Konkurrenz auch so, aber gerade von NVIDIA hab ich persoenlich hoehere Ansprueche als das was ich in T2 sehe.
Von welchem SGX redest du jetzt wieder genau? Sorry, inzwischen kann man zwischen den zig Generationen an Chips, die man aktuell in Geräten kaufen kann, denen, die es erst nur als Chips gibt, denen, die es dieses Jahr gibt un denen, die es sonst wann gibt nicht mehr unterscheiden.
Ein pdf vom Sommer 2009; ueberseh mal dass es von OpenCL handelt und schau Dir genau Seite 18 und 19 an:
http://www.hotchips.org/archives/hc21/1_sun/HC21.23.2.OpenCLTutorial-Epub/HC21.23.270.Pulli-OpenCL-in-Handheld-Devices.pdf
Tests wurden damals auf einem OMAP3 durchgefuehrt.
Ja, das sollte wohl jedem geläufig sein. Aber es ist nicht wichtig, ob eine GPU besser für Aufgabe X geeignet ist als eine CPU - entscheidend ist, dass das auch die entsprechenden Entscheider sehen und sich dann für den SoC mit der besseren GPU als CPU entscheiden. Und das ist was völlig anderes.
Selbst beim PC sind doch die GPU-Anwendungen mit als "dünn gesät" noch sehr wohlwollend bezeichnet - zumindest im Privatumfeld (wovon wir natürlich bei solchen Chips für Smartphones/Tablets reden).
Wobei der letzte Satz wohl eher der Schluessel der ganzen Affaere ist: NV hat keines ihrer originalen T2 Ziele erreichen koennen ergo wird eben auch nebenbei noch zusaetzlich gespart
Semis wie z.B. Samsung, Toshiba oder TI koennen locker selbst ganze SoCs entwickelen und wenn diese Kaese sind diese einfach stornieren.
Du vergleichst doch gerade nicht ernsthaft Nvidia mit Firmen wie TI o.Ä., die zig mal so groß sind, oder?
Ja, Samsung, Toshiba & Co mögen es sich leisten können einen SoC stornieren zu können. Nvidia nicht. Oder eher nur schlecht. Ja, das macht einen Unterschied aus. Und daher entwickelt man solch einen neuen Chip, mit dem man der totale Newcomer ist, erstmal relativ konservativ (eher CPU-lastig).
Das laecherlichste ist eben an der ganzen Sache dass es anscheinend ein NVIDIA fuer den Profi bzw. GPU desktop Markt gibt (wo Unsummen in sw-Unterstuetzung, DevRel etc etc geschwemmt werden...) und NVIDIA Tegra/embedded. Hier braucht NV keinen zusaetzlichen cent fuer gar nichts ausgeben, da alles von sich selber kommen wird. Hergott wir reden ueber NVIDIA und nicht AMD oder Intel (wenn es um Grafik geht).
Nein, das ist nicht lächerlich. Geld in einen Geschäftsbereich zu investieren, der nicht läuft und noch keinen großen Umsatz produziert ist was völlig anderes als Geld für einen Bereich, der schon seit Jahren grüne Zahlen produziert. Und dazwischen kam auch noch eine Wirtschaftskrise. Schau dir mal an, wie die TSMC gebeutelt hat. Solche Entscheidungen wie du sie hier gern gesehen hättest können eine Firma in den Ruin treiben - auch wenn sie heute (rückblickend) besser gewesen wären. Aber wer konnte das damals schon wissen?
Ja. Glaub jetzt bloss nicht dass NV unzaehlige Jahre brauchte einen GF5-Ableger zu entwickeln. SGX wurde schon in 2005 angekuendigt und industry insiders wissen schon einige Zeit im voraus was jeglicher Konkurrent kocht.
Das ganze mit einer CPU, einem kompletten Interface und auch noch in Größe/Leistungsaufnahme für ein Handy zu bauen ist schon was anderes.
Darf ich den quote fuer meine Unterschrift als Referenz fuer dieses Halbjahr benutzen?
1-2 Jahre ist für dich ein Halbjahr? ;)
(Noch) kein Kommentar.
Hehe :freak:
Ich sehe keine aehnliche Massnahmen fuer andere Maerkte. Und es geht weniger ums Prinzip oder ob einige Dinge innerhalb NV zweischienig laufen je nach Markt, sondern darum dass es fuer NV selber nach aussen keinen positiven Eindruck macht.
Also mal ehrlich, unter uns Pastorentöchtern: Glaubst du wirklich solch ein "Markt" wie Pandaboards o.Ä. machen den Misserfolg oder Erfolg eines SoCs aus?
dildo4u
2011-01-04, 15:38:50
Honeycomb to require dual-core processor, initially tablet-only?
"These specs seem to clearly leave out Galaxy Tab, along with anything else on the market or soon to arrive that doesn't have a Tegra 2 chip. It also makes sense that the Galaxy Tab 2 is going to be using Tegra 2 -- Samsung clearly won't be deterred."
http://www.engadget.com/2011/01/03/honeycomb-to-require-dual-core-processor-initially-tablet-only/
Das wird ein Hammer Jahr für Nvidia.
Ailuros
2011-01-04, 23:49:23
Ja, geschenkt. Dann schreib halt nächstes Mal genauer wovon du redest, dann weiß auch jeder Bescheid ;)
Tut mir leid aber wo immer ich Nakai's Behauptung unterstuetzt habe erwaehnte ich MP.
Naja:
Aber anyway, finds jetzt unsinnig über die Posts von Dritten zu diskutieren und deren Interpretation.
Darauf hab ich mich bis jetzt nicht bezogen, aber wenn es schon sein muss die Tegra2 GPU ist auf 240MHz getaktet waehrend der SGX540 im GalaxyS/tab bei nur 200MHz. OMAP4430 hat ihren 540 auf irgendwo ueber 300MHz getaktet (OMAP4440 @400MHz).
Ja klar. Genau deswegen sehe ich das ganze "man kann Chip X jetzt schon kaufen wenn man will und der ist ja viel besser als Y" eben als Quatsch an: Entscheidend ist in diesem Umfeld nicht, wann man den Chip bekommt, sondern wann es das drumherum als ganzes Gerät gibt. Und das dauert dann nochmal.
Es wird kaufbare SGX54x 2MP Geraete geben innerhalb 2011.
Von welchem SGX redest du jetzt wieder genau? Sorry, inzwischen kann man zwischen den zig Generationen an Chips, die man aktuell in Geräten kaufen kann, denen, die es erst nur als Chips gibt, denen, die es dieses Jahr gibt un denen, die es sonst wann gibt nicht mehr unterscheiden.
Jeglichem. SGX530/535 hatte die Tegra1 GPU gegenueber, und heutzutage ist es 535/540 gegen die Tegra2 GPU, wobei das zweite lediglich der gleiche Brei ist mit doppelter Taktung. Lassen wir mal die Leistung zur Seite, SGX liegt so oder so schon auf dem technischen Nivaeu dass NV erst mit Tegra3 erreichen wird.
Ja, das sollte wohl jedem geläufig sein. Aber es ist nicht wichtig, ob eine GPU besser für Aufgabe X geeignet ist als eine CPU - entscheidend ist, dass das auch die entsprechenden Entscheider sehen und sich dann für den SoC mit der besseren GPU als CPU entscheiden. Und das ist was völlig anderes.
Die brennende Frage hier ist ob sich NV zu viel in die CPU Richtung langfristig konzentriert oder ob sie uns alle angenehm ueberraschen und ab T3 das Blatt eher in Richtung GPU wenden.
Du vergleichst doch gerade nicht ernsthaft Nvidia mit Firmen wie TI o.Ä., die zig mal so groß sind, oder?
NV stellt SoCs her und verkauft diese. Mit wem konkurrieren sie denn genau und an wen verkaufen sie denn diese SoCs genau? Kann es sein dass NV rein zufaellig auch an OEMs verkauft u.a. wie auch die grossen Semis?
Denn IP verkauft NV garantiert nicht.
Ja, Samsung, Toshiba & Co mögen es sich leisten können einen SoC stornieren zu können. Nvidia nicht. Oder eher nur schlecht. Ja, das macht einen Unterschied aus. Und daher entwickelt man solch einen neuen Chip, mit dem man der totale Newcomer ist, erstmal relativ konservativ (eher CPU-lastig).
Zu solch einer Aussage wuerde nichtmal NV's PR kommen, denn fuer sie ist die GPU total konkurrenzfaehig. Mit ein paar Augen zugequetscht vielleicht schon, aber die 9mm2@40G die der Grafik-block einnimmt fuer das was er kann (begrenzt), leistet (begrenzt) und verbraucht (nicht gerade wenig) ist es eher in Richtung Fehl-entwicklung.
Nein, das ist nicht lächerlich. Geld in einen Geschäftsbereich zu investieren, der nicht läuft und noch keinen großen Umsatz produziert ist was völlig anderes als Geld für einen Bereich, der schon seit Jahren grüne Zahlen produziert. Und dazwischen kam auch noch eine Wirtschaftskrise. Schau dir mal an, wie die TSMC gebeutelt hat. Solche Entscheidungen wie du sie hier gern gesehen hättest können eine Firma in den Ruin treiben - auch wenn sie heute (rückblickend) besser gewesen wären. Aber wer konnte das damals schon wissen?
Dann haetten sie zumindest dafuer sorgen sollen dass sie ihrem Partner nicht ins Gesicht furzen und haetten den Nintendo deal behalten. Denn ich bestehe darauf dass sie vorhatten mit diesem das gesamte Tegra R&D Paket zu finanzieren.
Das ganze mit einer CPU, einem kompletten Interface und auch noch in Größe/Leistungsaufnahme für ein Handy zu bauen ist schon was anderes.
CPU IP kommt von ARM. Ich bezog mich auf den GPU Block. Da lagen keine Jahre in Entwicklung in dem Ding.
1-2 Jahre ist für dich ein Halbjahr? ;)
Wir werden schon sehen wer recht hat. SGX543 MP wurde tatsaechlich in 2008 als fertiges IP angekuendigt und nein es dauert von da ab nicht 4 Jahre bis zum Punkt wo Geraete davon erscheinen.
Hehe :freak:
Ich will mir ein weiteres "blah" fuer den Moment schonen.
Also mal ehrlich, unter uns Pastorentöchtern: Glaubst du wirklich solch ein "Markt" wie Pandaboards o.Ä. machen den Misserfolg oder Erfolg eines SoCs aus?
Sagen wir mal es hilft und es gibt hier keine "aber". Nicht mein Fehler wenn NVIDIA mit den grossen Jungs in der gleichen Arena spielen will. Entwickler sind auch nur Menschen mit Emotionen und Schwaechen. Wenn man als "armer Verwandte" antanzt gewinnt man auch analoge Impressionen im Vergleich zu anderen.
Von welchem "Erfolg" reden wir denn ueberhaupt bei Tegra2? Nochmal verdammt besser als bei Tegra1 aber bis jetzt sind es wohl schwer viel mehr als schaetzungsweise 10M Einheiten fuer 2010.
Honeycomb to require dual-core processor, initially tablet-only?
"These specs seem to clearly leave out Galaxy Tab, along with anything else on the market or soon to arrive that doesn't have a Tegra 2 chip. It also makes sense that the Galaxy Tab 2 is going to be using Tegra 2 -- Samsung clearly won't be deterred."
http://www.engadget.com/2011/01/03/honeycomb-to-require-dual-core-processor-initially-tablet-only/
Das wird ein Hammer Jahr für Nvidia.
Vorsicht nur fuer tablets. Nicht fuer smart-phones. Die Verkaufsraten zwischen Galaxy S smart-phones und dem Galaxy S tab sind bei ca. 10:1 bis Ende 2010. Entweder hat Samsung irgend einen Ass im Aermel oder sie werden ihren Galaxy S Erfolg bei der naechsten Generation nicht so leicht aufrecht halten koennen.
Nakai
2011-01-05, 11:07:52
Darauf hab ich mich bis jetzt nicht bezogen, aber wenn es schon sein muss die Tegra2 GPU ist auf 240MHz getaktet waehrend der SGX540 im GalaxyS/tab bei nur 200MHz. OMAP4430 hat ihren 540 auf irgendwo ueber 300MHz getaktet (OMAP4440 @400MHz).
Interessant, hab nich gewusst, dass er so hoch taktet.
Von welchem SGX redest du jetzt wieder genau? Sorry, inzwischen kann man zwischen den zig Generationen an Chips, die man aktuell in Geräten kaufen kann, denen, die es erst nur als Chips gibt, denen, die es dieses Jahr gibt un denen, die es sonst wann gibt nicht mehr unterscheiden.
Kein Problem. Ich hab auch ewig gesucht, bis ich an die erforderlichen Daten gekommen bin.
Die Daten in Wiki werden auch immer mit einer Depth Scene Complexity von x2.5 genommen.
SGX5:
SGX530 1 TMU 2 USSE1-ALUs
SGX535 2 TMUs 2 USSE1-ALUs
SGX540 2 TMUs 4 USSE1-ALUs
SGX545 2 TMUs 4 USSE1-ALUs (hierbei bin ich sehr unsicher, da ich noch nix verlässliches gefunden habe; SGX545 wird noch nirgends irgendwo verbaut)
SGX5XT MP:
SGX543XT MP 2 TMUs 4 USSE2-ALUs
Kann bis MP16 hochskaliert werden.
Wie stark die ALUs noch sind, siehe Ails Post:
OMAP4 SGX540=
4 Vec2 FP32 ALUs
2 TMUs
8 z/stencil
SGX543 2MP (2 cores)=
2* 4 Vec4+1 FP32 ALUs
2* 2 TMUs
2* 16 z/stencil
Vorsicht nur fuer tablets. Nicht fuer smart-phones. Die Verkaufsraten zwischen Galaxy S smart-phones und dem Galaxy S tab sind bei ca. 10:1 bis Ende 2010. Entweder hat Samsung irgend einen Ass im Aermel oder sie werden ihren Galaxy S Erfolg bei der naechsten Generation nicht so leicht aufrecht halten koennen.
Mhh, naja man sollte auch berücksichtigen, dass das Tab deutlich später auf den Markt gekommen ist.
Außerdem glaube ich nicht, dass Samsung sich nochmal von einem Fremdhersteller beliefern lässt. Die haben gute Erfahrungen mit ihren S5PC100, S5PC110 und S5PC111 gemacht. Ich gehe davon aus, dass die in 2011 noch nen neuen SOC für ihre eigenen Produkte auf den Markt schmeissen. Vorerst könnte man natürlich auf Tegra2 setzen.
Ich will mir ein weiteres "blah" fuer den Moment schonen.
Nur interessehalber...
NV liefert derzeit nur eine komplette Plattform. NV ist damit bestenfalls mit Qualcomm vergleichbar, welche auch ihre eigene GPU-IP darin reinbauen und die CPU von ARM lizensieren.
Aber anyway, finds jetzt unsinnig über die Posts von Dritten zu diskutieren und deren Interpretation.
Aufpassen, da könnte/wird einiges noch kommen.
Rein GPU-mäßig werden wir dieses Jahr evtl (ehemalig ATI) Adreno 220 von Qualcomm sehen. Tegra 3 wird sich eher mit Adreno 300 rumschlagen dürfen.
Auch ARM könnte mit Mali einiges einkassieren.
Das könnte ein sehr interessantes Jahr werden.
Um allgemein was zu Tegra.
Tegra 3 muss vor allem GPU-seitig deutlich zulegen. Da reicht einfach keine Taktverdopplung mehr. Technologisch ist Tegra2 zwar hintendran, aber das ist noch kein Beinbruch. Tegra3 müsste die Performance wenigstens verdoppeln um SGX543XT MP1 nicht deutlich hinterherzuhinken.
NV müsste das Design auch skalierbar und lizensierbar machen um für SOC-Entwickler interessant zu werden.
mfg
Deinorius
2011-01-05, 11:54:56
NV müsste das Design auch skalierbar und lizensierbar machen um für SOC-Entwickler interessant zu werden.
Will nvidia das denn überhaupt?
OK, wirklich blöde Frage.
Label
2011-01-05, 12:07:23
Rein GPU-mäßig werden wir dieses Jahr evtl (ehemalig ATI) Adreno 220 von Qualcomm sehen.
Adreno 220 im Anmarsch:
The MSM8260 has two Scorpion cores clocked at 1.2GHz and a new GPU, the Adreno 220.
http://www.anandtech.com/show/4085/asus-announces-eee-pad-and-eee-slate-tablets/2
(obwohl man bei Berichten von Vivek Gowri immer 1-2 Tage auf Anpassungen warten muss :biggrin:)
Ailuros
2011-01-05, 17:51:57
SGX545 2 TMUs 4 USSE1-ALUs (hierbei bin ich sehr unsicher, da ich noch nix verlässliches gefunden habe; SGX545 wird noch nirgends irgendwo verbaut)
Im Vergleich zu allen anderen USSE1 SGX cores hat 545 neben DX10.1/OGL3.2 ein volles GPGPU Profil, doppelt so hohe setup Raten wie 540 und 16 z/stencil Einheiten (gegen 8 in den anderen).
Mhh, naja man sollte auch berücksichtigen, dass das Tab deutlich später auf den Markt gekommen ist.
Außerdem glaube ich nicht, dass Samsung sich nochmal von einem Fremdhersteller beliefern lässt. Die haben gute Erfahrungen mit ihren S5PC100, S5PC110 und S5PC111 gemacht. Ich gehe davon aus, dass die in 2011 noch nen neuen SOC für ihre eigenen Produkte auf den Markt schmeissen. Vorerst könnte man natürlich auf Tegra2 setzen.
Haette der Analyst keine Summe erwaehnt waere das ganz etwas glaubwuerdiger fuer Samsung und T2. Ich wuerde aber trotzdem mein Geld darauf setzen dass Samsung tatsaechlich einen T2 benutzen koennte, wenn sie keinen anderen dual core A9 SoC zeitlich finden koennen. Fuer Honeycomb tablets scheint weniger als das tatsaechlich eine ziemlich oede Idee zu sein bei so hohen Aufloesungen.
Das einzige Fragezeichen bleibt wer zum Henker fuer Apple hergestellt hat, wenn nicht Samsung. Der S5PC110 hat ja ausser der GPU keine besonders grossen Unterschiede zum Apple A4. Leider ist es eben so dass was Apple strickt nur Apple selber weiss. Mich wuerde es aber auch nicht ueberraschen wenn sie fuer A5 einen anderen semi beauftragt haben fuer die Herstellung und da ist eben genau der Knoten wo fuer Samsung T2 am meisten Sinn macht. Orion kommt viel zu spaet wenn Samsung im ersten Halbjahr ein Galaxy tab 2 veroeffentlichen will.
Nur interessehalber...
NV liefert derzeit nur eine komplette Plattform. NV ist damit bestenfalls mit Qualcomm vergleichbar, welche auch ihre eigene GPU-IP darin reinbauen und die CPU von ARM lizensieren.
Qualcolmm hat aber variablere GPU IP als NV mit Tegra1 und 2. Adreno GPUs bekommen mit jedem neuen SoC mehr Takt und mehr Einheiten.
Adreno220: 532 MPixels/s, 88M Tris/s
Adreno205: 245 MPixels/s, 41M Tris/s
Aufpassen, da könnte/wird einiges noch kommen.
Rein GPU-mäßig werden wir dieses Jahr evtl (ehemalig ATI) Adreno 220 von Qualcomm sehen. Tegra 3 wird sich eher mit Adreno 300 rumschlagen dürfen.
Auch ARM könnte mit Mali einiges einkassieren.
Das könnte ein sehr interessantes Jahr werden.
ARM Mali T60x
Adreno 3xx etc.
gehoeren wohl eher in den gleichen Blumentopf wie Serie6 von IMG ergo die naechste >OGL_ES2.0 Generation (codenamed "Halti").
Tegra3 wird sich fuer seine Lebenszeit wohl eher mit dem schon angekuendigten Material der Konkurrenz schlagen.
Um allgemein was zu Tegra.
Tegra 3 muss vor allem GPU-seitig deutlich zulegen. Da reicht einfach keine Taktverdopplung mehr. Technologisch ist Tegra2 zwar hintendran, aber das ist noch kein Beinbruch. Tegra3 müsste die Performance wenigstens verdoppeln um SGX543XT MP1 nicht deutlich hinterherzuhinken.
Das mit dem Beinbruch ist relativ wenn semis schon seit 2009 mit OpenCL bzw. GPGPU fuer z.B. image processing und anderen relevanten Schnickschnack herumfunkeln.
Die Leistung von sich aus zu verdoppeln duerfte nicht das eigentliche Problem sein; Leistung parallel mit zusaetzlichen Faehigkeiten zu skalieren ist fuer die T3 GPU der eigentliche Schwerpunkt, denn weder USC ALUs noch zusaetzliche Programmierbarkeit kommen umsonst.
Im Gegensatz muessen auch die grossen Semis zusehen dass sie ihre Entwicklungszeiten etwas mehr auf Trab bekommen. Es kann wohl keiner uebersehen dass T2 im Vorteil liegt weil es schlicht mit Abstand der erste dual core CPU SoC ist. Es ist eben nicht immer alles nur schwarz oder nur weiss.
NV müsste das Design auch skalierbar und lizensierbar machen um für SOC-Entwickler interessant zu werden.
MP GPUs waeren eine ausgezeichnete Idee. Scheissegal wenn die Leistung mit zunehmenden cores nicht so linear skaliert wie bei 5XT. So koennten sie in der Zukunft bei viel mehr Maerkten konkurrieren u.a. in handheld Konsolen.
Will nvidia das denn überhaupt?
OK, wirklich blöde Frage.
Nein so bloed ist die Frage gar nicht. NV interessiert es hauptsaechlich in so grossen wie moeglichen Mengen SoCs zu verkaufen. Dafuer sind eher grosse Semis geeignet. Beispiel: angenommen Samsung hat tatsaechlich T2 SoCs fuer ihr Tab2 vorbestellt dann ist eine Summe von =/>20 Mio Einheiten fuer so etwas normal. Bei einem einfachen OEM deal koennten sie nie so grosse Mengen loswerden auf einem Schlag.
Ein hypothetischer handheld Konsolen Deal wuerde sich im Raum von 60-140Mio Einheiten bewegen ueber dessen Lebenszeit.
Die eigentliche Frage ist ob die grossen Semis so etwas langfristig wollen, oder ob sie lieber selber entwickeln/herstellen und am SoC selber auch noch etwas verdienen moechten. Denn wenn NV heute schaetzungsweise einen T2 um die $10 verkauft, dann ist es mehr oder weniger der Preis der jeder andere auch hat. Ergo ist wohl einen T2 zu kaufen und diesen um mehr zu verkaufen keine realistische Option.
Deinorius
2011-01-05, 18:02:18
Ah, also doch. Je nachdem wie sich die Möglichkeiten bieten.
Ailuros
2011-01-05, 18:05:38
Ah, also doch. Je nachdem wie sich die Möglichkeiten bieten.
Nicht dass es irgend eine wichtige Einzelheit darstellt, aber NV verkauft fuer Tegra generell nicht weniger als 100.000 Einheiten am Stueck.
***edit: LG's T2 smart-phone http://www.anandtech.com/show/4089/lgs-optimus-2x-worlds-first-tegra-2-smartphone
Ailuros
2011-01-05, 22:58:24
http://www.anandtech.com/show/4098/nvidias-tegra-2-take-two-more-architectural-details-and-design-wins/1
Man nennt so etwas einen "8 shader core"? Ich dachte bisher dass Tegra 2 Vec4 PS ALUs hat und es handelt sich am Ende nur um eine einzige?
4*MADD = 8 FLOPs * 0.24GHz = 1.92 GFLOPs/s
http://images.anandtech.com/doci/4098/GPU_575px.jpg
Caches: nun ja kein Wunder dass dank dieser der GPU block ueber die 9mm2 reichen soll; so viel dass TBDRs mehr hw verschwenden wuerden angeblich. Die caches wurden ja so angelegt damit so viel wie moeglich Daten im core bleiben, was ein TBDR ohnehin von sich aus macht. Das dumme ist nur dass T2 trotz caches und diesbezueglicher area-Verschwendung um einiges mehr Bandbreite verbraten.
http://images.anandtech.com/doci/4098/GPUcaches_575px.jpg
Leistung in GL Benchmark2.0; wie Anand schon erwaehnt sind solche Unterschiede nichtmal annaehernd irgendwo zu sehen und die fette Dame hat immer noch nicht ausgesungen.
http://images.anandtech.com/doci/4098/GPUperf_575px.jpg
Oh die 100 T&L games kommen zurueck; ROTFLMAO :D
http://images.anandtech.com/doci/4098/tegratitles_575px.jpg
Ronny145
2011-01-06, 01:19:59
Motorola Atrix mit Tegra 2 wurde auf der CES vorgestellt. Wird wohl erstmal AT&T exklusiv bleiben. Eckdaten klingen gut: 1GB RAM, qHD 960×540 4 Zoll, 1930 mAh Akku, 136g
http://www.att.com/shop/wireless/devices/motorola-atrix.jsp#fbid=goAesmBy3Hh
Gaestle
2011-01-06, 13:21:00
1930mAh? das erscheint mir ganz schön viel.
Welche Akkugrößen haben denn andere 4Zoll-Geräte so?
Das Dell Streak hat 1530mAh und das Galaxy S hat 1500mAh...
=Floi=
2011-01-06, 15:59:03
***edit: LG's T2 smart-phone http://www.anandtech.com/show/4089/lgs-optimus-2x-worlds-first-tegra-2-smartphone
shine baby, shine! ;D
hauptsache eine helles display:rolleyes:
=Floi=
2011-01-06, 16:05:46
hier mit 16x AF zu werben ist aber schon eine frechheit von nv, wenn man sich den RSX anschaut und was man da auf den konsolen geboten bekommt.
es ist toll, dass nv das hier anbietet, aber auf dem telefon kann ich noch ein paar jahre darauf verzichten. bei den konsolen wäre es wesentlich wichtiger und genau dort fehlt es...
Dural
2011-01-06, 16:08:52
die ps3 ist auch "etwas" älter als ein Tegra (....) ;)
Dural
2011-01-06, 16:43:49
http://www.computerbase.de/news/consumer-electronics/kommunikation/smartphones/2011/januar/dual-core-smartphone-von-motorola/
Das Laptop Dock ist ja mal cool :D
Netbook mit Handy dank NV Power!
AnarchX
2011-01-06, 17:08:40
Fehlt nur ein Docking-Adapter mit USB und Displayport/HDMI, sodass man hier einen stationären Betrieb vernünftig durchführen kann.
Ein 28nm SoC mit 4 Cores und 2GiB+ kann wohl durchaus für einige User den Haupt-PC ersetzen.
mboeller
2011-01-06, 17:15:27
Fehlt nur ein Docking-Adapter mit USB und Displayport/HDMI, sodass man hier einen stationären Betrieb vernünftig durchführen kann.
Hast du das Video nicht gesehen, das Dildo4u verlinkt hat (im iPad-Alternativen Thread):
http://www.engadget.com/2011/01/06/motorola-atrix-4g-hd-multimedia-dock-and-laptop-dock-hands-on/
Da hast du dein nettop incl. Firefox 3.6.13 + Flash 10.1
Ailuros
2011-01-06, 20:35:47
Ich kann NV's Folie oben ueber die ALUs wirklich nicht verstehen wie ich es auch verdrehe. Ich bekomme aus allen Ecken die sich T2 unter die Lupe genommen haben dass die GPU jeweils 2 Vec4 ALUs hat (fuer PS und VS getrennt) und nicht nur eine wie ich aus der Folie zu verstehen scheine.
***edit: ok ich bin seit 2 Tagen blind....es steht GPU pipeline im Titel ich Trottel *seufz*
Dural
2011-01-06, 21:53:19
15 Millionen Tegra-Chips will Nvidia 2011 ausliefern - für Tablet-PCs, Smartphones und Autos.
http://www.pcgameshardware.de/aid,806465/CES-2011-Nvidia-sieht-Tegra-2-basierende-Smartphones-als-Superphones/Notebook-Netbook/News/
das macht bei einem durchschnitts-preis von 15.- US Doller pro Chip einen Tegra jahresumsatz von 225 Milionen US Doller
Ailuros
2011-01-06, 22:13:58
Der Durchschnitt liegt naeher bei $10 als bei $15. NV kann nicht teurer sein als die Konkurrenz.
Uebrigens ist dieses Dungeon Defender Zeug das bei weitem lahmarschigste was ich von der UE3 engine bis jetzt sehen konnte:
http://news.bigdownload.com/2010/08/25/udk-demo-dungeon-defense-to-morph-into-full-game-dungeon-defende/
Schoen bunt kein Zweifel ROFL :D
http://uk.ign.com/videos/2010/12/08/infinity-blade-video-review
:P
Bucklew
2011-01-06, 22:19:34
So, nach etwas nachlesen komm ich auch mal zum antworten ;)
Tut mir leid aber wo immer ich Nakai's Behauptung unterstuetzt habe erwaehnte ich MP.
Trotzdem etwas schwer, wo es zig MPs gibt.
Es wird kaufbare SGX54x 2MP Geraete geben innerhalb 2011.
Da bin ich gespannt ;)
Jeglichem. SGX530/535 hatte die Tegra1 GPU gegenueber, und heutzutage ist es 535/540 gegen die Tegra2 GPU, wobei das zweite lediglich der gleiche Brei ist mit doppelter Taktung. Lassen wir mal die Leistung zur Seite, SGX liegt so oder so schon auf dem technischen Nivaeu dass NV erst mit Tegra3 erreichen wird.
Die brennende Frage hier ist ob sich NV zu viel in die CPU Richtung langfristig konzentriert oder ob sie uns alle angenehm ueberraschen und ab T3 das Blatt eher in Richtung GPU wenden.
Die Zeit wird es zeigen ;)
NV stellt SoCs her und verkauft diese. Mit wem konkurrieren sie denn genau und an wen verkaufen sie denn diese SoCs genau? Kann es sein dass NV rein zufaellig auch an OEMs verkauft u.a. wie auch die grossen Semis?
Denn IP verkauft NV garantiert nicht.
Und was hat das jetzt damit zu tun, dass sich NV (anders als TI oder Samsung) es sich nicht (gerade in der letzten Wirtschaftskrise) leisten kann, einfach so einen SoC zu stornieren? Außer nichts? ;)
Zu solch einer Aussage wuerde nichtmal NV's PR kommen, denn fuer sie ist die GPU total konkurrenzfaehig. Mit ein paar Augen zugequetscht vielleicht schon, aber die 9mm2@40G die der Grafik-block einnimmt fuer das was er kann (begrenzt), leistet (begrenzt) und verbraucht (nicht gerade wenig) ist es eher in Richtung Fehl-entwicklung.
Das schöne an PR. Und von Fehlentwicklung zu sprechen halte ich angesichts der kommenden Tablets/Handys für ziemlich überzogen ;)
Entscheidend ist ja am Ende auch nicht nur, was auf dem Papier steht, sondern was auch hinten raus kommt. Und speziell was Motorola da auffahren will ("Notebook", in das man das Handy einsteckt) schaut doch ziemlich genial aus. Da können die MPs dann auch meinetwegen besser sein, wenn dafür die daraus gefertigten T2-Produkte besser sind.
Dann haetten sie zumindest dafuer sorgen sollen dass sie ihrem Partner nicht ins Gesicht furzen und haetten den Nintendo deal behalten. Denn ich bestehe darauf dass sie vorhatten mit diesem das gesamte Tegra R&D Paket zu finanzieren.
Ich weiß nicht, was nun bei Nintendo falsch gelaufen ist. Vielleicht wollten die den Preis zu sehr drücken? kA.
CPU IP kommt von ARM. Ich bezog mich auf den GPU Block. Da lagen keine Jahre in Entwicklung in dem Ding.
Muss man trotzdem erstmal zusammenbasteln. Und das ohne Erfahrung in dem Bereich. Schau dir mal an was Intel aus Larrabee gemacht hat. So einfach scheint das ja alles nicht zu sein.
Wir werden schon sehen wer recht hat. SGX543 MP wurde tatsaechlich in 2008 als fertiges IP angekuendigt und nein es dauert von da ab nicht 4 Jahre bis zum Punkt wo Geraete davon erscheinen.
Na dann warte ich mal auf die zahlreichen Produkte im Jahre 2011 ;)
Sagen wir mal es hilft und es gibt hier keine "aber". Nicht mein Fehler wenn NVIDIA mit den grossen Jungs in der gleichen Arena spielen will. Entwickler sind auch nur Menschen mit Emotionen und Schwaechen. Wenn man als "armer Verwandte" antanzt gewinnt man auch analoge Impressionen im Vergleich zu anderen.
Darum geht es gar nicht. Es geht um die Frage ob solche "Spielzeuge" wie ein Pandaboard über den Erfolg (oder Misserfolg) eines SoCs entscheiden. Und das würde ich mal ganz klar verneinen.
Von welchem "Erfolg" reden wir denn ueberhaupt bei Tegra2? Nochmal verdammt besser als bei Tegra1 aber bis jetzt sind es wohl schwer viel mehr als schaetzungsweise 10M Einheiten fuer 2010.
Warten wir doch mal die nächsten Quartale ab ;)
NV müsste das Design auch skalierbar und lizensierbar machen um für SOC-Entwickler interessant zu werden.
Warum? Sie können auch einfach den SoC selbst entwickeln und fertigen. Wie es auch bei den GPUs macht. Man darf nicht vergessen, dass sämtliche Produktionsschritte, die man außer Haus gibt (bzw verkauft) die eigene Marge reduzieren. Siehe die Automobilhersteller, die jetzt Probleme kriegen, weil der Großteil der Wertschöpfung von den Zulieferern gemacht wird.
Ailuros
2011-01-06, 22:57:14
Trotzdem etwas schwer, wo es zig MPs gibt.
IMG:
SGX543 (2*T2 pro core), 544 (2*T2 pro core + DX9/L3), 554 (4*T2 pro core + DX9/L3)
ARM:
Mali400 (4MP =2*T2)
Die Zeit wird es zeigen ;)
Och das was ich ueber T3 hoere klingt zunehmend in Richtung skalar obwohl ich wohl eher etwas in Richtung superskalar haben wuerde.
Und was hat das jetzt damit zu tun, dass sich NV (anders als TI oder Samsung) es sich nicht (gerade in der letzten Wirtschaftskrise) leisten kann, einfach so einen SoC zu stornieren? Außer nichts? ;)
Um eine Stornierung geht es ueberhaupt nicht von NV sondern um anstaendigere Unterstuetzung generell. NV weiss besser als alle andere aus Erfahrung dass wenn man X investiert eben auch dann um Y mehr kassieren kann. Von nichts kommt eben nichts.
Das schöne an PR. Und von Fehlentwicklung zu sprechen halte ich angesichts der kommenden Tablets/Handys für ziemlich überzogen ;)
Entscheidend ist ja am Ende auch nicht nur, was auf dem Papier steht, sondern was auch hinten raus kommt. Und speziell was Motorola da auffahren will ("Notebook", in das man das Handy einsteckt) schaut doch ziemlich genial aus. Da können die MPs dann auch meinetwegen besser sein, wenn dafür die daraus gefertigten T2-Produkte besser sind.
Das tolle mit Euch Kerlen ist dass wenn eine Furzfirma ankommt und pro Jahr die 15 Mio Einheiten (die oben gerade von Dural erwaehnt wurden) verkauft dann ist es eine lachhafte Menge, aber wenn es von NVIDIA kommt dann ist es das 8. Wunder.
Um es klar zu machen ich persoenlich erwartete eher um die 30-40Mio Einheiten fuer 2011. Wenn die 15Mio wirklich stimmen, dann verwischt diese Menge alleine Apple mit einem einzigen Geraet und da wird es wohl auch nichts mit den angeblichen 100+ Tegra optimierten Spielchen.
Ich weiß nicht, was nun bei Nintendo falsch gelaufen ist. Vielleicht wollten die den Preis zu sehr drücken? kA.
Welchen Preis? Waere der T2 Preis nicht laecherlich niedrig gewesen haetten sie nie Fuss bei Nintendo von Anfang an gelandet. Sagen wir einfach dass sie mehr als 2 massive Fehler gemacht haben bei der Affaere.
Muss man trotzdem erstmal zusammenbasteln. Und das ohne Erfahrung in dem Bereich. Schau dir mal an was Intel aus Larrabee gemacht hat. So einfach scheint das ja alles nicht zu sein.
Huh? Wenn NVIDIA keine Erfahrung mit GPU Entwicklung hat dann wer genau?
Na dann warte ich mal auf die zahlreichen Produkte im Jahre 2011 ;)
Es liegen 10 SoCs davon in Entwicklung bzw. Silizium. Es reicht nur ein Produkt im gegebenen Fall.
Warten wir doch mal die nächsten Quartale ab ;)
Ich bin ja nicht derjenige der von 15Mio in 2011 spricht. Ausser PCGH hat sich die Anzahl selber ausgedacht was ich bezweifle.
Warum? Sie können auch einfach den SoC selbst entwickeln und fertigen. Wie es auch bei den GPUs macht. Man darf nicht vergessen, dass sämtliche Produktionsschritte, die man außer Haus gibt (bzw verkauft) die eigene Marge reduzieren. Siehe die Automobilhersteller, die jetzt Probleme kriegen, weil der Großteil der Wertschöpfung von den Zulieferern gemacht wird.
Fuer NV's generelles Businessmodell macht IP eventuell auch keinen Sinn im Vergleich zu fertigen SoCs. Das sollte aber nicht heissen dass sie nicht auch GPU IP verkaufen koennten parallel zu SoCs. Es kostet nichts zusaetzliches wenn man das gleiche Zeug schon in einem SoC einbaut und man oeffnet somit die Tueren zu Maerkten wie handheld Konsolen mit extrem hohen Verkaufsvolumen.
Natuerlich baut NV GPUs; aber sie verkaufen auch GPU IP fuer Konsolen.
Bucklew
2011-01-06, 23:41:16
IMG:
SGX543 (2*T2 pro core), 544 (2*T2 pro core + DX9/L3), 554 (4*T2 pro core + DX9/L3)
ARM:
Mali400 (4MP =2*T2)
Ah, okay....
Och das was ich ueber T3 hoere klingt zunehmend in Richtung skalar obwohl ich wohl eher etwas in Richtung superskalar haben wuerde.
Der Kavalier schweigt und genießt ;)
Um eine Stornierung geht es ueberhaupt nicht von NV sondern um anstaendigere Unterstuetzung generell. NV weiss besser als alle andere aus Erfahrung dass wenn man X investiert eben auch dann um Y mehr kassieren kann. Von nichts kommt eben nichts.
Natürlich, das wird auch kommen. Nur dafür muss Y auch erstmal entsprechend da sein. Das ist eben der Punkt. In einem völligen neuen Markt kannst du verdammt viel X verpulvern, ohne irgendwas von Y zu sehen.
Wenn Tegra entsprechend läuft, wirst du diese Investionen wie bei GeForce oder Quadro auch sehen. Nur das dauert eben.
Das tolle mit Euch Kerlen ist dass wenn eine Furzfirma ankommt und pro Jahr die 15 Mio Einheiten (die oben gerade von Dural erwaehnt wurden) verkauft dann ist es eine lachhafte Menge, aber wenn es von NVIDIA kommt dann ist es das 8. Wunder.
Von 0 auf 15 Millionen halte ich für alles andere als Lachhaft. Okay, T1 gabs auch, aber das kann man ja eher knicken.
Um es klar zu machen ich persoenlich erwartete eher um die 30-40Mio Einheiten fuer 2011. Wenn die 15Mio wirklich stimmen, dann verwischt diese Menge alleine Apple mit einem einzigen Geraet und da wird es wohl auch nichts mit den angeblichen 100+ Tegra optimierten Spielchen.
Ich schätze deutlich mehr als 40 Millionen für 2011. Wir können ja um einen Kasten Bier wetten ;D
Welchen Preis? Waere der T2 Preis nicht laecherlich niedrig gewesen haetten sie nie Fuss bei Nintendo von Anfang an gelandet. Sagen wir einfach dass sie mehr als 2 massive Fehler gemacht haben bei der Affaere.
Mag sein, bin ich nicht firm drin.
Huh? Wenn NVIDIA keine Erfahrung mit GPU Entwicklung hat dann wer genau?
Für Handy? Wann?
Es liegen 10 SoCs davon in Entwicklung bzw. Silizium. Es reicht nur ein Produkt im gegebenen Fall.
Wenn man sich die Schwemme an Tablets und Smartphones auf der CES anschaut, sehe ich für die nächste Zeit auf jeden Fall ziemlich viele Produkte mit T2. Deutlich mehr als mit der Konkurrenz (im entsprechenden Segment natürlich).
Fuer NV's generelles Businessmodell macht IP eventuell auch keinen Sinn im Vergleich zu fertigen SoCs. Das sollte aber nicht heissen dass sie nicht auch GPU IP verkaufen koennten parallel zu SoCs. Es kostet nichts zusaetzliches wenn man das gleiche Zeug schon in einem SoC einbaut und man oeffnet somit die Tueren zu Maerkten wie handheld Konsolen mit extrem hohen Verkaufsvolumen.
Natuerlich baut NV GPUs; aber sie verkaufen auch GPU IP fuer Konsolen.
Moment, hier wirfst du wieder Sachen durcheinander. Die GPU IP für Konsolen ist die eine Sache, dort gibt es keine Konkurrenz, auch keine, die man sich selbst macht. Anders bei SoCs. Wenn man die GPU IP verkauft hat man dann natürlich andere SoCs, die mit dem eigenen konkurrieren. Das sind zwei völlig verschiedene paar Schuhe.
Möglich wäre vllt die IP von der letzten Generation zu verkaufen, aber ob die einer will?!
Ich mein du sagst das jetzt so locker, könntest du dir vorstellen Nvidia würde die IP von Fermi an Matrox verkaufen? ;)
Nene, die IP zu entwickeln und zu haben ist das Geschäftsmodell, ich denke nicht, dass man den Tegra-GPU-Core als IP verkauft.
LovesuckZ
2011-01-07, 08:52:06
Der Durchschnitt liegt naeher bei $10 als bei $15. NV kann nicht teurer sein als die Konkurrenz.
nVidia verkauft Tegra2 zwischen $15-$30. Das sagte Huang während der CC von Q3.
Screemer
2011-01-07, 14:57:55
und wer soll das teil dann kaufen, wenn sie 50-100% über dem preis der konkurenz liegen? würde mich schon sehr wundern. entweder ist da noch bisschen was dabei oder der genannte preis nicht richtig.
Ailuros
2011-01-07, 17:21:24
und wer soll das teil dann kaufen, wenn sie 50-100% über dem preis der konkurenz liegen? würde mich schon sehr wundern. entweder ist da noch bisschen was dabei oder der genannte preis nicht richtig.
Der Forecast fuer 2010 wurde vom den originalen ~$250 Mio auf $125 Mio reduziert. Und die letzteren machen auch voll Sinn da sie stets irgendwo >10Mio Einheiten einschaetzten.
Von dem abgesehen da ein OMAP4 um die $12 verkauft wird als einfaches Beispiel haette NV einen Vogel wenn sie Tegra2 bei $30 verkaufen wuerden.
LovesuckZ
2011-01-07, 17:40:37
und wer soll das teil dann kaufen, wenn sie 50-100% über dem preis der konkurenz liegen? würde mich schon sehr wundern. entweder ist da noch bisschen was dabei oder der genannte preis nicht richtig.
Von welcher Konkurrenz wird hier gesprochen? Tegra 2 ist das erste erhältliche DualCore Design mit Cortex-A9 Kernen. Es gibt hier keine Konkurrenz. und wie man an der CES sah, scheint Tegra2 der Chip zu sein mit denen die meisten Firmen ihren Angriff auf das iPad starten werden. Selbst Dell ist auf den Zug aufgesprungen. Das sind soviel Anbieter, dass nVidia nicht über den Preis gehen musste.
Ailuros
2011-01-07, 18:05:11
Der Kavalier schweigt und genießt ;)
Wenn's so "superskalar" werden sollte wie anderswo kann ich schon jetzt lachen.
Natürlich, das wird auch kommen. Nur dafür muss Y auch erstmal entsprechend da sein. Das ist eben der Punkt. In einem völligen neuen Markt kannst du verdammt viel X verpulvern, ohne irgendwas von Y zu sehen.
Wenn Tegra entsprechend läuft, wirst du diese Investionen wie bei GeForce oder Quadro auch sehen. Nur das dauert eben.
Nur ist NV kein startup-Firmchen mit einer handvoll Studenten die ihre Freizeit in einer Garage totschlagen.
Jensen sagte selber mehr als nur einmal dass in der weiteren Zukunft Tegra mehr als 50% ihres Umsatzes betragen wird. Zwar verdammt verdreht da man dazu wohl eine Vielzahl von Maerkten in den gleichen Topf werfen muss, aber zwischen den Linien haben es die meisten schon kapiert um was es sich handelt.
Ergo wir reden hier auch nicht ueber ein kleines Projekt sondern etwas dass langfristig ihr treibendes Geschaeft werden wird. Und fuer so etwas sorgt ein IHV dafuer dass sie ueberall so gut wie moeglich Vorreiter sind. Teufel ich bin zwar gerade noch dabei durchzublicken was Vivante auf die Beine gestellt hat, aber wenn meine Verdaechte stimmen handelt es sich um ein Firmchen aus dem Nichts dass vielleicht verdammt effiziente GPU IP auf die Beine gestellt hat (bitte aber Vorbehalte markieren...).
Diese gesamte Denver Affaere und auch Tegra werden langfristig zu radikalen Aenderungen bei NV fuehren.
Von 0 auf 15 Millionen halte ich für alles andere als Lachhaft. Okay, T1 gabs auch, aber das kann man ja eher knicken.
Niet. Ich schaetze fuer 2010 = 10Mio und wenn die 15Mio fuer 2011 stimmen dann sind es 2010+2011= ~25Mio Einheiten. Damit muss man aber das Loch decken dass Tegra1 generiert hat, die trotz allem weniger insgesamt Einheiten als anfangs projeziert und auch natuerlich jegliche R&D Kosten decken.
Wenn es uebrigens wirklich 15M fuer 2011 sind dann ist wohl das Samsung Geruecht uebler Rauch und Qualm. Das ueble daran ist dass es lediglich ein Trick war die NV Aktie zu steigern. Allein der Samsung deal haette ueber 20Mio Einheiten betragen sollen.
Ich schätze deutlich mehr als 40 Millionen für 2011. Wir können ja um einen Kasten Bier wetten ;D
Siehe oben. Ich brauch keine Wetten.
Für Handy? Wann?
Was zum Henker hat eine embedded GPU so besonderes genau? Vor Tegra gab es uebrigens ueber etliche Jahre die APX Dingsbumse.
Wenn man sich die Schwemme an Tablets und Smartphones auf der CES anschaut, sehe ich für die nächste Zeit auf jeden Fall ziemlich viele Produkte mit T2. Deutlich mehr als mit der Konkurrenz (im entsprechenden Segment natürlich).
Die Konkurrenz waeren alle Semis + Apple gegen NV. Willst Du Dir das nochmal ueberdenken?
Moment, hier wirfst du wieder Sachen durcheinander. Die GPU IP für Konsolen ist die eine Sache, dort gibt es keine Konkurrenz, auch keine, die man sich selbst macht. Anders bei SoCs. Wenn man die GPU IP verkauft hat man dann natürlich andere SoCs, die mit dem eigenen konkurrieren. Das sind zwei völlig verschiedene paar Schuhe.
AMD/ATI macht NV mehr Konkurrenz mit GPU IP in Konsolen als NV ueberhaupt vertragen koennte. Nichtdestotrotz ist GPU IP im Konsolen-markt ab einem gewissem Punkt fast reiner Gewinn und ich lass mir nicht einreden dass es NV geschadet haette royalties fuer >140Mio Einheiten in handhelds fuer GPU IP ueber ca. ein halbes Jahrzent kassiert haette. Im Fall wo man schon eine fertige GPU hat ist davon IP abzuschlagen im relativen Sinn ein Kinderspiel, ergo fast umsonst.
Möglich wäre vllt die IP von der letzten Generation zu verkaufen, aber ob die einer will?!
Falls Du Tegra1 meinen solltest es ist die gleiche GPU wie in T2 nur mit doppeltem Takt.
Ich mein du sagst das jetzt so locker, könntest du dir vorstellen Nvidia würde die IP von Fermi an Matrox verkaufen? ;)
Nene, die IP zu entwickeln und zu haben ist das Geschäftsmodell, ich denke nicht, dass man den Tegra-GPU-Core als IP verkauft.
Was soll den Matrox damit anfangen? Was wuerde denn NV heute fuer GPU IP verkaufen fuer eine zukuenftige Konsole? Einen aufgemoebelten RSX?
NV will natuerlich kein IP verkaufen und damit koennen sie auch beruhigt die handheld Konsolen vergessen.
Von welcher Konkurrenz wird hier gesprochen? Tegra 2 ist das erste erhältliche DualCore Design mit Cortex-A9 Kernen. Es gibt hier keine Konkurrenz. und wie man an der CES sah, scheint Tegra2 der Chip zu sein mit denen die meisten Firmen ihren Angriff auf das iPad starten werden. Selbst Dell ist auf den Zug aufgesprungen. Das sind soviel Anbieter, dass nVidia nicht über den Preis gehen musste.
Apple hat generell wie jeder weiss ihre eigene Vorstellung von ihrer eigenen Strategie und ihrer "eigenen Welt". Jeglicher Angriff gegen Apple's tablets wird wohl gegen iPad2 sein und nicht gegen iPad an dem sie ohnehin schon eine Unmenge verdient haben.
Und dass T2 alleine ist ist auch nicht wahr. Erstens gibt es die Adreno220 SoCs von Qualcolmm von denen nur 1 oder 2 erschienen sind aber man kann Gift darauf nehmen dass es so langsam mit diesen auch los gehen wird und es gibt natuerlich auch schon ein OMAP4 tablet:
http://www.slashgear.com/blackberry-playbook-demo-and-hands-on-by-mike-lazaridis-07124552/
LovesuckZ
2011-01-07, 18:12:09
Apple hat generell wie jeder weiss ihre eigene Vorstellung von ihrer eigenen Strategie und ihrer "eigenen Welt". Jeglicher Angriff gegen Apple's tablets wird wohl gegen iPad2 sein und nicht gegen iPad an dem sie ohnehin schon eine Unmenge verdient haben.
Natürlich gehen sie alle gegen das iPad2. Sie bieten auch wesentlich mehr als das normale iPad - vorallem hardwaretechnisch.
Und dass T2 alleine ist ist auch nicht wahr. Erstens gibt es die Adreno220 SoCs von Qualcolmm von denen nur 1 oder 2 erschienen sind aber man kann Gift darauf nehmen dass es so langsam mit diesen auch los gehen wird und es gibt natuerlich auch schon ein OMAP4 tablet:
http://www.slashgear.com/blackberry-playbook-demo-and-hands-on-by-mike-lazaridis-07124552/
Es gibt zich verschiedene Tablets mit nicht Tegra-Chips. Die spielen aber nicht in der Liga mit. CPU-Leistung ist mit das a und o zZ. Und da kann niemand heute mit Tegra2 mithalten. Und da nVidia im Gegensatz zur Konkurrenz A8 übersprungen und gleich auf DualCore A9 gegangen ist, haben sie jetzt einen Vorsprung, der sich als Glückfall erweist. Ansonsten hätte es auf der CES wesentlich mehr Ankündigungen von Tablets mit anderen SoCs geben müssen.
Ailuros
2011-01-07, 18:24:12
Natürlich gehen sie alle gegen das iPad2. Sie bieten auch wesentlich mehr als das normale iPad - vorallem hardwaretechnisch.
Dann sollten fuer wohl fuer's Thema "Apple" erstmal abwarten mit was uns Apple selber im iPad2/iPhone5 angenehm oder unangenehm ueberrascht oder?
Es gibt zich verschiedene Tablets mit nicht Tegra-Chips. Die spielen aber nicht in der Liga mit. CPU-Leistung ist mit das a und o zZ. Und da kann niemand heute mit Tegra2 mithalten. Und da nVidia im Gegensatz zur Konkurrenz A8 übersprungen und gleich auf DualCore A9 gegangen ist, haben sie jetzt einen Vorsprung, der sich als Glückfall erweist. Ansonsten hätte es auf der CES wesentlich mehr Ankündigungen von Tablets mit anderen SoCs geben müssen.
Asus Eee Pad MeMO:
http://www.anandtech.com/show/4085/asus-announces-eee-pad-and-eee-slate-tablets/2
The MSM8260 has two Scorpion cores clocked at 1.2GHz and a new GPU, the Adreno 220.
Fuer so viel Dampf von der CPU und der GPU ist der Bildschirm sogar zu klein, aber Asus will auch billigere tablets in seinem Portofolio haben als das eher laecherliche EP121 fuer $999.
2 Snapdragons@1.2GHz sollen mit 2 Cortex A9@1GHz nicht mithalten koennen?
Zu den Spezifikationen des OMAP4430 im Blackberry Playbook kannst Du Dir selber nachschlagen. Beide SoCs haben dual core CPUs und dazu hoeher oder gleich getaktet als in T2.
-----------------------------------------------------------------------------------------
Ich wollte erstmal sicher sein dass die Marvell Armada GL Benchmark2.0 scores von single core GPU IP stammen. Als absoluter newcomer stampft Vivante hier aber ziemlich radikal ein. Zwar duerften die Dinger ziemlich hoch getaktet sein (zumindest ueber 325MHz@40LP und 575MHz@40G) aber das "hoppla" Gefuehl bleibt. Keine Frage der erst gestern erschienene GC860 in den Resultaten wird sich wohl schwer gegen OMAP4430 schlagen koennen, aber trotzdem kein schlechter Anfang.
LovesuckZ
2011-01-07, 18:29:42
Asus Eee Pad MeMO:
http://www.anandtech.com/show/4085/asus-announces-eee-pad-and-eee-slate-tablets/2
Fuer so viel Dampf von der CPU und der GPU ist der Bildschirm sogar zu klein, aber Asus will auch billigere tablets in seinem Portofolio haben als das eher laecherliche EP121 fuer $999.
2 Snapdragons@1.2GHz sollen mit 2 Cortex A9@1GHz nicht mithalten koennen?
Zu den Spezifikationen des OMAP4430 im Blackberry Playbook kannst Du Dir selber nachschlagen. Beide SoCs haben dual core CPUs und dazu hoeher getaktet als in T2.
Und beide kommen Monate nach den angekündigten Tegra2 Tablets auf den Markt. Wie das Konkurrenz zu einem Massen-SoC sein kann, ist mir schleierhaft.
Ailuros
2011-01-07, 18:46:09
Und beide kommen Monate nach den angekündigten Tegra2 Tablets auf den Markt. Wie das Konkurrenz zu einem Massen-SoC sein kann, ist mir schleierhaft.
Ich hab Dir einen Link gegeben wo von Asus folgendes im Anand Artikel erwaehnt wird von der CES:
Eee Pad MeMO = Qualcolmm MSM8260 Q2/Q3 2011
Eee Pad Transformer = Tegra 2 Q2 2011
Eee Pad Slider = Tegra2 Q2 2011
So that's the first CES salvo in what is sure to be a barrage of slate and tablet devices. ASUS is setting the standard with IPS displays across their lineup, which we'd love to see more of elsewhere. (Hint: we're tired of TN panel laptops!) The pricing looks reasonable, and the feature set is good as well. Perhaps the biggest drawback is that outside of the Slate, these are all targeting Q2/Q3 release dates, which means they're still a ways off from retail availability, but they might be worth the wait.
Nicht ist je in Stein gemetzelt dass es wirklich zum angegebenen Zeitpunkt erhaeltlich sein wird und es kann sich sowohl das Qualcolmm tablet oder eins oder mehrere T2 tablets verspaeten.
Da Du ungluecklicherweise kein Argument zu dual-core CPUs mehr hast, muessen wir jetzt Haare spalten welcher tablet auf welcher Klaskugel erscheint.
Keine Sorge keine dieser wird unzaehlige Millionen an Einheiten verkaufen. Ein wahrer Massen SoC fuer tablets wird Apple's A5 sein. Und fuer diesen hab ich schon fuer Bucklew einen Schokoladen-Besen bereit (denn eine Kiste Bier nach Kreta zu schicken wird zu teuer fuer ihn sein). Wie klingt ein halbes PSP2?
aylano
2011-01-07, 19:02:31
@Ailuros
Wann glaubst du wird Nvidia Gewinn mit Tegra machen?
AFAIK machte Nvidia (aufgrund hohen R&D und non-Erfolg von T1?????) im letzten Quartal mit 40 Mio. $ Verlust den größten Verlust ihres Tegra-Geschäfts.
Die Fragestellung ist zwar bei Langfristigen Projekten nicht so wichtig, aber interessant wäre es schon.
Ailuros
2011-01-07, 19:06:18
@Ailuros
Wann glaubst du wird Nvidia Gewinn mit Tegra machen?
Vielleicht schon mit T3; sicherster Kandidat waere T4 (beide sind 28nm afaik).
AFAIK machte Nvidia (aufgrund hohen R&D und non-Erfolg von T1?????) im letzten Quartal mit 40 Mio. $ Verlust den größten Verlust ihres Tegra-Geschäfts.
Wie kommt Ihr eigentlich auf solche Schlussfolgerungen vom finanziellen Firlefanz der IHVs? Tegra wird ja nicht alleine als Sparte angegeben afaik.
Wie dem auch sei das Tegra team ist alles andere als klein.
OT aber trotzdem interessant: http://www.dailytech.com/article.aspx?newsid=20599
aylano
2011-01-07, 20:36:50
Vielleicht schon mit T3; sicherster Kandidat waere T4 (beide sind 28nm afaik).
Interessant.
Das könnte erklären warum Nvidia in den letzten Quartalen so einen Verlust macht (siehe Unten) um nach 1-2 Jahren Produkt-Vorbreitung dann gut in den Markt zu treten.
Wie kommt Ihr eigentlich auf solche Schlussfolgerungen vom finanziellen Firlefanz der IHVs? Tegra wird ja nicht alleine als Sparte angegeben afaik.
Na ja fast und alle die damit zusammenhängen könnten.
Our Consumer Products Business, or CPB, is comprised of our Tegra mobile
brand and products that support tablets and smartbooks, smartphones, personal media players, or PMPs, internet television, automotive navigation, and other such devices. CPB also includes license, royalty, other revenue and associated costs related to video game consoles and other digital consumer electronics devices.
Interessant ist nur, dass im CPB und nicht im GPU-Bereich die Lizenz-Einnahmen von Konsolen-GPUs eingerechnet werden, was den relativ hohem Umsatz von ca. 50 Mio $ pro Quartal heuer & letztes Jahr erklärt.
Wie dem auch sei das Tegra team ist alles andere als klein.
Es wäre interessant zu wissen, ob das PR/R&D/???-Team in letzter Zeit stark angewacsen ist, weil der Verlust im CPB letztes Jahr von ca. 10 Mio auf 40/30 Mio $ stieg.
=Floi=
2011-01-07, 21:01:07
zitat:
Man darf nicht vergessen, dass sämtliche Produktionsschritte, die man außer Haus gibt (bzw verkauft) die eigene Marge reduzieren. Siehe die Automobilhersteller, die jetzt Probleme kriegen, weil der Großteil der Wertschöpfung von den Zulieferern gemacht wird.
dafür würde ich aber nicht meine hand ins feuer legen.
Es gibt genug vorteile die fertigung ausser haus zu geben.
LovesuckZ
2011-01-07, 21:14:46
Ich hab Dir einen Link gegeben wo von Asus folgendes im Anand Artikel erwaehnt wird von der CES:
Eee Pad MeMO = Qualcolmm MSM8260 Q2/Q3 2011
Eee Pad Transformer = Tegra 2 Q2 2011
Eee Pad Slider = Tegra2 Q2 2011
Nicht ist je in Stein gemetzelt dass es wirklich zum angegebenen Zeitpunkt erhaeltlich sein wird und es kann sich sowohl das Qualcolmm tablet oder eins oder mehrere T2 tablets verspaeten.
Wenn sich ein Qualcomm Tablet von der CES verspätet, sind das schon 50%. ;D
Schon genial, wie man ein Design den zich anderen Tegra2 Tablets als gleichwertig entgegen stellt. Selbst Asus bietet 2 Tegra2 Tablets an.
Da Du ungluecklicherweise kein Argument zu dual-core CPUs mehr hast, muessen wir jetzt Haare spalten welcher tablet auf welcher Klaskugel erscheint.
Und wo sind die Android Dual Core Ankündigungen? Oder die Smartphones? Man muss schon ziemlich blind sein, um nicht zu erkennen, dass es keine Alternative zu nVidia gab als man mit der Entwicklung angefangen hat. Das es irgendwann nach nVidia weitere Dual Core SoCs geben wird, sollte eigentlich selbst verständlich sein.
Keine Sorge keine dieser wird unzaehlige Millionen an Einheiten verkaufen. Ein wahrer Massen SoC fuer tablets wird Apple's A5 sein. Und fuer diesen hab ich schon fuer Bucklew einen Schokoladen-Besen bereit (denn eine Kiste Bier nach Kreta zu schicken wird zu teuer fuer ihn sein). Wie klingt ein halbes PSP2?
Na, das werden wir sehen. Alleine Motorola's Atrix 4G mit den Erweiterungen sieht verdammt genial aus. nVidia wird in diesem Jahr jedenfalls mehr DualCore SoCs absetzen als Qualcomm und Konsorten. Einzig Apple wird über ihnen thronen.
Bucklew
2011-01-07, 22:13:41
Wenn's so "superskalar" werden sollte wie anderswo kann ich schon jetzt lachen.
So es nicht im Halse stecken bleibt ;)
Nur ist NV kein startup-Firmchen mit einer handvoll Studenten die ihre Freizeit in einer Garage totschlagen.
Jensen sagte selber mehr als nur einmal dass in der weiteren Zukunft Tegra mehr als 50% ihres Umsatzes betragen wird. Zwar verdammt verdreht da man dazu wohl eine Vielzahl von Maerkten in den gleichen Topf werfen muss, aber zwischen den Linien haben es die meisten schon kapiert um was es sich handelt.
Ergo wir reden hier auch nicht ueber ein kleines Projekt sondern etwas dass langfristig ihr treibendes Geschaeft werden wird. Und fuer so etwas sorgt ein IHV dafuer dass sie ueberall so gut wie moeglich Vorreiter sind. Teufel ich bin zwar gerade noch dabei durchzublicken was Vivante auf die Beine gestellt hat, aber wenn meine Verdaechte stimmen handelt es sich um ein Firmchen aus dem Nichts dass vielleicht verdammt effiziente GPU IP auf die Beine gestellt hat (bitte aber Vorbehalte markieren...).
Diese gesamte Denver Affaere und auch Tegra werden langfristig zu radikalen Aenderungen bei NV fuehren.
Nur weil ein Markt irgendwann in den nächsten Jahren, wenn nicht Jahrzehnten, die Größe X haben könnte, bringt es relativ wenig da eine Millarde nach der anderen reinzubuttern. Es geht auch dabei darum, das Geld effizent zu nutzen. Mehrere Millarden in Projekt zu buttern mit keinem dahinter existierenden Markt kann sich vllt Intel erlauben, aber keine Firma mit 5000 Angestellten.
Niet. Ich schaetze fuer 2010 = 10Mio und wenn die 15Mio fuer 2011 stimmen dann sind es 2010+2011= ~25Mio Einheiten. Damit muss man aber das Loch decken dass Tegra1 generiert hat, die trotz allem weniger insgesamt Einheiten als anfangs projeziert und auch natuerlich jegliche R&D Kosten decken.
Wenn es uebrigens wirklich 15M fuer 2011 sind dann ist wohl das Samsung Geruecht uebler Rauch und Qualm. Das ueble daran ist dass es lediglich ein Trick war die NV Aktie zu steigern. Allein der Samsung deal haette ueber 20Mio Einheiten betragen sollen.
10 Millionen 2010 mit fast gar keinem Produkt (außer nem Zuna und ein paar totalen Tabletsflops) vs. 15 Millionen 2011 - hast du dir mal angeschaut was auf der CES in Sachen Tablet und Smartphones gezeigt wird? Locker 2/3 der Tablets basieren auf Tegra. Auch bei den Big Players.
Siehe oben. Ich brauch keine Wetten.
Schade :)
Was zum Henker hat eine embedded GPU so besonderes genau? Vor Tegra gab es uebrigens ueber etliche Jahre die APX Dingsbumse.
Soll ich dir wirklich den Unterschied zwischen GPUs für Desktop-PCs und SoCs erklären?
Die Konkurrenz waeren alle Semis + Apple gegen NV. Willst Du Dir das nochmal ueberdenken?
Was gibt es denn auf der CES an Konkurrenz-SoCs zu sehen? Verdammt wenig verglichen mit T2. Und Apple? Läuft quasi außer Konkurrenz, weil es eh "deren" SoC ist, da wäre man wohl niemals ins Geschäft gekommen.
AMD/ATI macht NV mehr Konkurrenz mit GPU IP in Konsolen als NV ueberhaupt vertragen koennte. Nichtdestotrotz ist GPU IP im Konsolen-markt ab einem gewissem Punkt fast reiner Gewinn und ich lass mir nicht einreden dass es NV geschadet haette royalties fuer >140Mio Einheiten in handhelds fuer GPU IP ueber ca. ein halbes Jahrzent kassiert haette. Im Fall wo man schon eine fertige GPU hat ist davon IP abzuschlagen im relativen Sinn ein Kinderspiel, ergo fast umsonst.
Dafür das es fast reiner Gewinn ist hatte Sony mit der PS3 aber ziemliche Probleme eine GPU zu finden, nachdem sie ein Jahr für Marktstart gemerkt haben, dass ne Cell-CPU halt doch "nur" ne CPU ist.
Falls Du Tegra1 meinen solltest es ist die gleiche GPU wie in T2 nur mit doppeltem Takt.
Nein, war nicht generell auf T1<->T2 bezogen, war allgemein.
Was soll den Matrox damit anfangen? Was wuerde denn NV heute fuer GPU IP verkaufen fuer eine zukuenftige Konsole? Einen aufgemoebelten RSX?
Du verstehst meinen Punkt leider nicht. Ich hab gesagt, dass Nv, wenn sie die IP für den GPU-Part aus dem T2 verkaufen würden, sich eigene Konkurrenz machen würden. Denn dann würde man die GPU nicht nur im T2 kaufen können, sondern auch im Chip X von Hersteller Y. Und das ist natürlich nicht gut. Daher mein Beispiel mit Matrox, die dann mit der IP ja auch auf einmal einen direkten GTX480-Konkurrenten bauen und verkaufen könnten. Sinnvoll? Sicher nicht.
Bei ner Konsole gilt das so natürlich nicht.
Apple hat generell wie jeder weiss ihre eigene Vorstellung von ihrer eigenen Strategie und ihrer "eigenen Welt". Jeglicher Angriff gegen Apple's tablets wird wohl gegen iPad2 sein und nicht gegen iPad an dem sie ohnehin schon eine Unmenge verdient haben.
Mal schauen ob das iPad2 überhaupt so eine Revolution wird. Wenns wie beim iPhone läuft wird es eher ein iPad1.1 als 2. Und das iPhone5 wird wohl eher nur ein Umbau für ne (jetzt endlich) vernünftige Antenne sein.
Und dass T2 alleine ist ist auch nicht wahr. Erstens gibt es die Adreno220 SoCs von Qualcolmm von denen nur 1 oder 2 erschienen sind aber man kann Gift darauf nehmen dass es so langsam mit diesen auch los gehen wird und es gibt natuerlich auch schon ein OMAP4 tablet:
http://www.slashgear.com/blackberry-playbook-demo-and-hands-on-by-mike-lazaridis-07124552/
Und jetzt schau mal wieviele T2-Tablets es auf der CES gibt. Noch Fragen?
Ailuros
2011-01-08, 11:36:42
Na ja fast und alle die damit zusammenhängen könnten.
Our Consumer Products Business, or CPB, is comprised of our Tegra mobile
brand and products that support tablets and smartbooks, smartphones, personal media players, or PMPs, internet television, automotive navigation, and other such devices. CPB also includes license, royalty, other revenue and associated costs related to video game consoles and other digital consumer electronics devices.
Interessant ist nur, dass im CPB und nicht im GPU-Bereich die Lizenz-Einnahmen von Konsolen-GPUs eingerechnet werden, was den relativ hohem Umsatz von ca. 50 Mio $ pro Quartal heuer & letztes Jahr erklärt.
Es stecken aber auch RSX royalties drin und diese sind heutzutage reiner Gewinn. Ergo kann man aus einer X Summe einer solcher Sparte schwer irgendwelche zuverlaessige Schlussvolgerungen ziehen ausser man weiss dann noch zusaetzlich wie viele PS3 ueber dieses Quartal verkauft wurden.
Es wäre interessant zu wissen, ob das PR/R&D/???-Team in letzter Zeit stark angewacsen ist, weil der Verlust im CPB letztes Jahr von ca. 10 Mio auf 40/30 Mio $ stieg.
Keine Ahnung. Ich weiss lediglich dass die Gigapixel Kerle auch im Tegra team stecken, denn sie posten hier und da oeffentlich mal etwas in Fora.
Wenn sich ein Qualcomm Tablet von der CES verspätet, sind das schon 50%. ;D
Schon genial, wie man ein Design den zich anderen Tegra2 Tablets als gleichwertig entgegen stellt. Selbst Asus bietet 2 Tegra2 Tablets an.
Bis zum Punkt wo sich das tablet verspaetet ist und bleibt es eine Hypothese.
Und wo sind die Android Dual Core Ankündigungen? Oder die Smartphones? Man muss schon ziemlich blind sein, um nicht zu erkennen, dass es keine Alternative zu nVidia gab als man mit der Entwicklung angefangen hat. Das es irgendwann nach nVidia weitere Dual Core SoCs geben wird, sollte eigentlich selbst verständlich sein.
Wenn NVIDIA keinen Pech mit TSMC's 40G gehabt haette und haette frueher mit anstaendigen yields haette herstellen koennen als in Q1 2010 dann haetten sie einen wirklich grossen Vorteil gehabt. Durch dieses ist ihr Vorteil um einiges geschrumpft.
Na, das werden wir sehen. Alleine Motorola's Atrix 4G mit den Erweiterungen sieht verdammt genial aus. nVidia wird in diesem Jahr jedenfalls mehr DualCore SoCs absetzen als Qualcomm und Konsorten. Einzig Apple wird über ihnen thronen.
Apple wird mehr verkaufen als wenn man viele anderen addiert. Qualcolmm hat ihre eigene Kundschaft und sie verkaufen stets ausgezeichnet egal ob sie nicht immer den faehigsten SoC haben. Beim vorerwaehnten mit dual Scorpion @1,2GHz und einem Adreno220 hat eher T2 das Nachsehen.
Ailuros
2011-01-08, 11:50:55
So es nicht im Halse stecken bleibt ;)
NV hat ueberhaupt noch keinen wirklichen superskalaren Design selbst im desktop high end, ergo brauch ich mir hier keine Sorgen zu machen.
Nur weil ein Markt irgendwann in den nächsten Jahren, wenn nicht Jahrzehnten, die Größe X haben könnte, bringt es relativ wenig da eine Millarde nach der anderen reinzubuttern. Es geht auch dabei darum, das Geld effizent zu nutzen. Mehrere Millarden in Projekt zu buttern mit keinem dahinter existierenden Markt kann sich vllt Intel erlauben, aber keine Firma mit 5000 Angestellten.
IMG war ziemlich fett verschuldet als sie als IP Firma mit dem embedded Markt angefangen haben jedoch war selbst am Anfang ihre generelle Unterstuetzung vergleichsmaessig besser als das was heute NV auf die Buehne stellt. Zaehl nach wie viele Platformen heute NV unterstuetzt und wieviel IMG und dabei macht die letztere so viel Umsatz wie NV in einem Quartal nur von Tegra.
10 Millionen 2010 mit fast gar keinem Produkt (außer nem Zuna und ein paar totalen Tabletsflops) vs. 15 Millionen 2011 - hast du dir mal angeschaut was auf der CES in Sachen Tablet und Smartphones gezeigt wird? Locker 2/3 der Tablets basieren auf Tegra. Auch bei den Big Players.
Und was soll denn jegliches dieser tablets genau verkaufen? 10Mio jedes oder wie willst Du Dir das vorstellen? Das Galaxy S tab hat bis Ende 2010 knapp 1Mio verkauft und viele andere tabs werden wohl nicht mal diese Anzahl erreichen koennen.
Soll ich dir wirklich den Unterschied zwischen GPUs für Desktop-PCs und SoCs erklären?
Du kannst es ja gerne versuchen, aber so gigantisch sind die Unterschiede bei der Entwicklung (Latenz zur Seite) nun auch wieder nicht.
Was gibt es denn auf der CES an Konkurrenz-SoCs zu sehen? Verdammt wenig verglichen mit T2. Und Apple? Läuft quasi außer Konkurrenz, weil es eh "deren" SoC ist, da wäre man wohl niemals ins Geschäft gekommen.
Es gab einiges auf der CES zu sehen. Es gab sogar ein Oak-trail tablet; wenn dieses nicht bloederweise auf winblows setzen wuerde waere es das beste tablet auf der CES gewesen.
Du verstehst meinen Punkt leider nicht. Ich hab gesagt, dass Nv, wenn sie die IP für den GPU-Part aus dem T2 verkaufen würden, sich eigene Konkurrenz machen würden. Denn dann würde man die GPU nicht nur im T2 kaufen können, sondern auch im Chip X von Hersteller Y. Und das ist natürlich nicht gut. Daher mein Beispiel mit Matrox, die dann mit der IP ja auch auf einmal einen direkten GTX480-Konkurrenten bauen und verkaufen könnten. Sinnvoll? Sicher nicht.
Was im Konsolen Markt moeglich ist ist genauso moeglich im handheld Konsolen Markt.
Mal schauen ob das iPad2 überhaupt so eine Revolution wird. Wenns wie beim iPhone läuft wird es eher ein iPad1.1 als 2. Und das iPhone5 wird wohl eher nur ein Umbau für ne (jetzt endlich) vernünftige Antenne sein.
:D Ein weisser oder schwarzer Schokoladenbesen?
Und jetzt schau mal wieviele T2-Tablets es auf der CES gibt. Noch Fragen?
Ja. Wie lange es noch dauert bis Euch die Spucke ausgeht.
Dural
2011-01-08, 12:42:25
NV ist einfach schon immer wider bemerkens wert... quasi aus dem nichts habe sie ein neuen geschäftsbereich mit mehreren hundert millionen doller umsatz im Jahr aufgebaut und das besste ist das sie gerade zum richtigen zeitpunkt ready sind wo man doch derzeit so einen richtigen boom in dem bereich erwartet :)
Bucklew
2011-01-08, 12:44:20
NV hat ueberhaupt noch keinen wirklichen superskalaren Design selbst im desktop high end, ergo brauch ich mir hier keine Sorgen zu machen.
Nö, werden wir auch nicht sehen. Warum auch?
IMG war ziemlich fett verschuldet als sie als IP Firma mit dem embedded Markt angefangen haben jedoch war selbst am Anfang ihre generelle Unterstuetzung vergleichsmaessig besser als das was heute NV auf die Buehne stellt. Zaehl nach wie viele Platformen heute NV unterstuetzt und wieviel IMG und dabei macht die letztere so viel Umsatz wie NV in einem Quartal nur von Tegra.
Ist das jetzt ein Punkt für NV oder gegen IMG? ;)
Und was soll denn jegliches dieser tablets genau verkaufen? 10Mio jedes oder wie willst Du Dir das vorstellen? Das Galaxy S tab hat bis Ende 2010 knapp 1Mio verkauft und viele andere tabs werden wohl nicht mal diese Anzahl erreichen koennen.
Der Markt für Tablets ist riesig, schau dir alleine mal das iPad an. Und es gibt viele, viele Leute, die einfach kein Apple und deren Gängelung haben wollen. Deshalb gibt es inzwischen auch mehr Android als iOS Geräte, die verkauft werden. Warum wohl?
Ich denke wir werden nächstes Jahr einen massiven Anstieg der Tabletverkäufe sehen, gerade von Android. Ich überleg auch schon welches es sein soll ;)
Du kannst es ja gerne versuchen, aber so gigantisch sind die Unterschiede bei der Entwicklung (Latenz zur Seite) nun auch wieder nicht.
Aber groß genug, gerade im ersten Versuch.
Es gab einiges auf der CES zu sehen. Es gab sogar ein Oak-trail tablet; wenn dieses nicht bloederweise auf winblows setzen wuerde waere es das beste tablet auf der CES gewesen.
Oak Trail gab es glaub ich mehrere (Samsung und Lenovo auf jeden Fall, Asus auch?), aber mal ehrlich, die kosten alle um oder sogar mehr als 1000€. Das schon verdammt viel. Die besten Tablets sind wohl entweder das Motorola Xoom oder das Notionink Adam.
Was im Konsolen Markt moeglich ist ist genauso moeglich im handheld Konsolen Markt.
Ja, aber nicht SoC.
:D Ein weisser oder schwarzer Schokoladenbesen?[/QUOTE
Weiß bitte!
[QUOTE=Ailuros;8493127]Ja. Wie lange es noch dauert bis Euch die Spucke ausgeht.
Die kommt wieder, wenn der Schokobesen da ist ;)
Das was du aktuell machst ist nach der Veröffentlichung des ersten EEE-PCs (errinnerst du dich, das winzige 7" Display und der arschlangsame Celeron?) allen zu erzählen, dass Netbooks die absolute Totgeburt sind und niemals jemand sowas kaufen würden ;)
Ailuros
2011-01-08, 17:52:55
Nö, werden wir auch nicht sehen. Warum auch?
Frage ich mich auch da schon SGX superskalar ist.
Ist das jetzt ein Punkt für NV oder gegen IMG? ;)
Fuer IMG; sie verkaufen stets lediglich IP sind aber nicht mehr das Firmchen dass sie vor Jahren waren. Platz 3 unter den IP Firmen (auf Platz 1 ARM selbstverstaendlich). Aber wenn ein verschuldetes Firmchen vor Jahren noch mehr Schulden einbusste um ihr Zeug anstaendig zu unterstuetzen, frag ich mich ernsthaft wo NV's uebliche Philosophie verschwunden ist.
Tegra1 ist ja platt auf die Nase gefallen dank falschen OS verbundenen strategischen Entscheidungen. Bei T2 ging es Gott sei dank endlich los aber wohl doch nicht die >50 design wins die NV zu zaehlen vermochte.
Der Markt für Tablets ist riesig, schau dir alleine mal das iPad an. Und es gibt viele, viele Leute, die einfach kein Apple und deren Gängelung haben wollen. Deshalb gibt es inzwischen auch mehr Android als iOS Geräte, die verkauft werden. Warum wohl?
Natuerlich ist Android im Aufschwung aber es liegt immer noch ein paar Schritte hinter iOS egal wie laecherlich es klingen mag. Beide basieren quasi auf Linux kernels und stell Dir vor Apple war der Oberdepp als sie als erste mit einem computing orientierten OS ankamen.
Als gaming "Nebenplatform" (ich erlaub mir selber die Beschreibung) ist Android immer noch im Nachsehen, denn erstmal muss die download Limitierung weggefegt werden wenn man ernsthaft an game downloads denken will. iD's Rage wird ein download von ca. 1.4GB sein auf i-Zeug und ausser es hat sich was geaendert kann man nicht mehr als 30MB auf Android herunterziehen ausser man stellt seinen eigenen server auf.
Und bevor jetzt jemand sich zu stark mit "gaming" verzweigt, glaub mir bloss nicht dass es zwischen Apple und SONY langfristig nicht zur indirekten Konkurrenz kommen wird. Den vorigen Link verpasst dass SONY im Visier hat der zweitgroesste tablet Hersteller nach Apple zu werden? Auf Anfragen ob es mit ihren Playstation Phone verbunden sein koennte gab SONY selbstverstaendlich keinen Kommentar ab. Oeffentlich fuege ich dieses puzzle aber auch noch nicht zusammen.
Wie dem auch sei SONY weiss was Apple genau vorhat und ich hab mich seit etlicher Zeit konservativ fuer den PSP2 gehalten und "spekulierte" sicherheitshalber nur auf einen 4MP. Ob und wie sie vorruebergehend diese Drohung ueberwaeltigen werden wenn die Zeit dazu reif ist.
iPad ist momentan dank hoher Aufloesung lediglich ein fancy ebook reader mit web browsing fuer's Pantoffel-Kino. Ein billiger headstart der sowieso auf dem zweimal ausgelatschten gleichem A8 SoC basierte.
Aber groß genug, gerade im ersten Versuch.
Errr nein zumindest nicht IMO. Der einzige groessere Kopfschmerz fuer NV waere Bandbreite im Vergleich zu einem TBR oder sogar TBDR, aber wie gesagt sie haben es halbwegs mit den zusaetzlichen caches geloest (und ich erwaehne hier lediglich "tile based" weil Tegra entweder der einzige oder unter den sehr wenigen embedded GPUs ist das nicht tile based ist.
Oak Trail gab es glaub ich mehrere (Samsung und Lenovo auf jeden Fall, Asus auch?), aber mal ehrlich, die kosten alle um oder sogar mehr als 1000€. Das schon verdammt viel. Die besten Tablets sind wohl entweder das Motorola Xoom oder das Notionink Adam.
Was die meisten nicht verstehen ist dass die Beschreibung Referenz-Platform fuer Honeycomb ein treibender Faktor ist. Und das jetzt nicht dass Google irgendwelche Vorschriften verteilt hat (da es sich fuer sie um eine interne Entwicklungs-platform handelt), aber es macht die Integrierung trotz allem etwas leichter. Der Mythos dass man fuer Honeycomb mir nichts dir nichts dual core CPU braucht ist auch Bloedsinn. Fuer hoehere Aufloesungen braucht man hauptsaechlich mehr Fuellrate von der GPU und hier ist T2 mit ihren 480MPixels/s gut ausgeruestet zumindest fuer um einiges faehigere tablets als das iPad. Und sei Dir sicher dass A5 auf ziemlich hohe Aufloesungen ueberhaupt in tablets setzen wird, eben weil die Fuellrate diesmal auch radikal gewachsen ist.
Ja, aber nicht SoC.
Willkommen bei den zukuenftigen Konsolen-Platformen.
Weiß bitte!
Mehr Butter oder? LOL
Spass beiseite ich bin mir so sicher wie ich sein kann.
Das was du aktuell machst ist nach der Veröffentlichung des ersten EEE-PCs (errinnerst du dich, das winzige 7" Display und der arschlangsame Celeron?) allen zu erzählen, dass Netbooks die absolute Totgeburt sind und niemals jemand sowas kaufen würden ;)
Ganz im Gegenteil. Wenn wir schon dabei sind bin ich mir ziemlich sicher dass tablets langfristig netbooks verschwinden lassen werden denn diese werden so oder so eine Kategorie in den notebook Bereich steigen.
Fuer so bescheidene unterliegende hw ist etwas wie windows bzw. x86 einfach Schmarren.
Ailuros
2011-01-08, 19:22:11
Uebrigens nicht jeder hat schon gesehen wie das T2 Ding im Tesla aussehen wird:
http://i.i.com.com/cnwk.1d/i/tim/2011/01/03/Tesla_Car_Tegra_Display-0084-Edit.jpg?tag=mncol;txt
Sieht toll aus dass muss man Tesla lassen; aber ablenken koennte so ein Spielzeug schon beim fahren.
Ramos W12 (dual A9, Mali 400)
http://liliputing.com/tag/ramos-w12
Samsung kuendigt ihr dual core erst im Februar an:
http://www.pcmag.com/article2/0,2817,2375383,00.asp
Entweder T2 storniert oder verspaetet:
http://www.engadget.com/2011/01/07/msi-windpad-100w-and-100a-tablets-hit-ces-2011-we-go-hands-on/
AnarchX
2011-01-08, 19:29:17
Wird es eigentlich Tegra 2 mit mehr als 1GHz geben? Immerhin ist diese Angaben schon mehr als ein Jahr alt.
=Floi=
2011-01-09, 02:18:22
gibt es eigentlich auch technische details zum applu a5? soll dieser schon im sommer kommen?
Ailuros
2011-01-09, 08:48:43
Wird es eigentlich Tegra 2 mit mehr als 1GHz geben? Immerhin ist diese Angaben schon mehr als ein Jahr alt.
Nicht unmoeglich; aber da sie schon fieberhaft mit T3 herumwerkeln koennte es sein dass sie sich die Kosten sparen.
gibt es eigentlich auch technische details zum applu a5? soll dieser schon im sommer kommen?
Nein. :P
Was ich Dir aber sagen kann ist dass sich der naechste Schub an embedded GPUs zwischen 30 und 120M (echten) Tris/s bewegen wird oder anders zwischen 0.5Mio-2Mio Tris/frame bei 60Hz. Dafuer ist T2 selbst fuer den Startpunkt um 2/3 zu schwach.
=Floi=
2011-01-09, 09:58:32
wollte mir auch so ein sauteures telefon gönnen und war noch immer am überlegen ob man nicht doch noch bis zum sommer warten sollte...
Wenn nichts nues kommt, dann ist es ja kein problem. ich bin eigentlich ganz froh darüber, dass noch einmal ein leistungsschub in diesem bereich kommen wird. jetzt sind wir da wo wir damals beim Athlon 64 waren. Die leistung reicht und der pc ist ausreichend schnell. Der nächste schritt ist dann der, dass man mit dual oder quad core und einer fetteren gpu in diesem bereich dann auch quasi leistung im überfluss hat und man in einem bereich, bei dem wirklich ALLES rund läuft.
imho hat aber apple hier auch den spagat zwischen leistung und laufzeit am besten geschafft. Das geht mir bei nv/tegra2 ein wenig ab. Bei einer 580er mag pure leistung noch zählen, aber bei einem gerät mit akku schaut es schon anders aus.
Ailuros
2011-01-09, 11:34:24
Man muss natuerlich wissen wieso genau man ein high end smart-phone braucht. Beim iPhone ist es dann eben so dass jemand der so ein Ding lang genug benutzt hat quasi verwoehnt wird wie die ganz sw reagiert. Bis zu Android 2.3 hat Android zwar sehr gute Schritte vorwaerts gemacht, aber an iOS reicht es immer noch nicht. Und hier genau ist der Punkt wo viele hoffen dass Honeycomb (3.0) deutlich besser sein wird.
Was jetzt den Stromverbrauch betrifft, je nach Markt wird pro Generation eine virtuelle maximale Verbrauchsgrenze gesetzt. Im mobilen Bereich waechst der Stromverbrauch stets analog zu den zeitlich verfuegbaren Batterien die auch staendig groesser werden. Im Gegensatz bei PC desktop high end ist eben momentan 300W die oberste Grenze. Wenn diese hoeher waere dann koennten IHVs sich auch auf hoehere Leistungsmargen strecken und dabei egal ob mit single chip oder mGPU.
Haette man im Gegensatz vor 10 Jahren an eine GPU denken koennen die bis zu 300W verbrauchen kann? Ebenso vor 10 Jahren waren high end Handys gigantisch gross als Geraete und hatten es schwer selbst einfachen Text zu bearbeiten. Die Zeiten aendern sich.
Bucklew
2011-01-09, 14:25:07
Frage ich mich auch da schon SGX superskalar ist.
Superskalar ist kein muß für GPU.
Fuer IMG; sie verkaufen stets lediglich IP sind aber nicht mehr das Firmchen dass sie vor Jahren waren. Platz 3 unter den IP Firmen (auf Platz 1 ARM selbstverstaendlich). Aber wenn ein verschuldetes Firmchen vor Jahren noch mehr Schulden einbusste um ihr Zeug anstaendig zu unterstuetzen, frag ich mich ernsthaft wo NV's uebliche Philosophie verschwunden ist.
So ein Vergleich ist eben immer schwierig.
Tegra1 ist ja platt auf die Nase gefallen dank falschen OS verbundenen strategischen Entscheidungen. Bei T2 ging es Gott sei dank endlich los aber wohl doch nicht die >50 design wins die NV zu zaehlen vermochte.
Also wenn ich CES schaue, komm ich doch schon locker auf 30+. So weit ist man da nicht von entfernt.
Natuerlich ist Android im Aufschwung aber es liegt immer noch ein paar Schritte hinter iOS egal wie laecherlich es klingen mag. Beide basieren quasi auf Linux kernels und stell Dir vor Apple war der Oberdepp als sie als erste mit einem computing orientierten OS ankamen.
Die Frage ist wodrin es hinten liegt ;) iOS kommt halt eben an seinen von Apple aufgezwungen Restriktionen nicht vorbei. Und die sind Grund genug, dass das viele nicht wollen. Nicht umsonst werden inzwischen mehr Android als iOS-Geräte verkauft.
Als gaming "Nebenplatform" (ich erlaub mir selber die Beschreibung) ist Android immer noch im Nachsehen, denn erstmal muss die download Limitierung weggefegt werden wenn man ernsthaft an game downloads denken will. iD's Rage wird ein download von ca. 1.4GB sein auf i-Zeug und ausser es hat sich was geaendert kann man nicht mehr als 30MB auf Android herunterziehen ausser man stellt seinen eigenen server auf.
Restriktion von 30MB? Hast du dafür mal nen Link? Hab ich noch nie was von gehört.
Und bevor jetzt jemand sich zu stark mit "gaming" verzweigt, glaub mir bloss nicht dass es zwischen Apple und SONY langfristig nicht zur indirekten Konkurrenz kommen wird. Den vorigen Link verpasst dass SONY im Visier hat der zweitgroesste tablet Hersteller nach Apple zu werden? Auf Anfragen ob es mit ihren Playstation Phone verbunden sein koennte gab SONY selbstverstaendlich keinen Kommentar ab. Oeffentlich fuege ich dieses puzzle aber auch noch nicht zusammen.
Wie dem auch sei SONY weiss was Apple genau vorhat und ich hab mich seit etlicher Zeit konservativ fuer den PSP2 gehalten und "spekulierte" sicherheitshalber nur auf einen 4MP. Ob und wie sie vorruebergehend diese Drohung ueberwaeltigen werden wenn die Zeit dazu reif ist.
Mh, klingt logisch. Aber ich muss jetzt ganz ehrlich sagen, dass ich die Dimensionen der Spielhandhelds nicht kenne (sowohl von Verkaufszahlen als auch Preisen etc.), um mir da großartig einen Reim drauf zu machen ;)
iPad ist momentan dank hoher Aufloesung lediglich ein fancy ebook reader mit web browsing fuer's Pantoffel-Kino. Ein billiger headstart der sowieso auf dem zweimal ausgelatschten gleichem A8 SoC basierte.
Das iPad krankt an vielen kleinen Baustellen. Es gab auch schon wenige Wochen nach dem Launch (da natürlich viel weniger beachtet) die ersten Kommentare, die es im ersten Hands-on noch sehr gelobt haben und dann nach einiger Zeit sagten, dass es doch zuviele Einschränkungen hat. Diese Geschlossenheit der iOS-Geräte ist einfach nicht für jeden was.
Errr nein zumindest nicht IMO. Der einzige groessere Kopfschmerz fuer NV waere Bandbreite im Vergleich zu einem TBR oder sogar TBDR, aber wie gesagt sie haben es halbwegs mit den zusaetzlichen caches geloest (und ich erwaehne hier lediglich "tile based" weil Tegra entweder der einzige oder unter den sehr wenigen embedded GPUs ist das nicht tile based ist.
Ich denke die Probleme, sich auf eine völlig andere Umgebung (Leistungsaufnahme, Energieeffizenz etc.) einzustellen, sind auch nicht zu verachten. Das meinte ich damit eben.
Was die meisten nicht verstehen ist dass die Beschreibung Referenz-Platform fuer Honeycomb ein treibender Faktor ist. Und das jetzt nicht dass Google irgendwelche Vorschriften verteilt hat (da es sich fuer sie um eine interne Entwicklungs-platform handelt), aber es macht die Integrierung trotz allem etwas leichter. Der Mythos dass man fuer Honeycomb mir nichts dir nichts dual core CPU braucht ist auch Bloedsinn. Fuer hoehere Aufloesungen braucht man hauptsaechlich mehr Fuellrate von der GPU und hier ist T2 mit ihren 480MPixels/s gut ausgeruestet zumindest fuer um einiges faehigere tablets als das iPad. Und sei Dir sicher dass A5 auf ziemlich hohe Aufloesungen ueberhaupt in tablets setzen wird, eben weil die Fuellrate diesmal auch radikal gewachsen ist.
Naja, es wäre das erste Mal, dass Apple auf einmal eine Hardware in einem Produkt einsetzt, die technologisch weiter vor der Konkurrenz wäre. Das waren sie bisher ja nicht, das drumherum war ja eher entscheidend. Das der A5 besser wird denke ich auch, aber ich denke nicht, dass er (von den technisch Daten) den T2 schlagen wird. Ich wette z.B., dass es noch Singlecore wird.
Willkommen bei den zukuenftigen Konsolen-Platformen.
Es geht aber darum die GPU IP zu verkaufen. Bei Chips für Konsolen vllt, aber sicher nicht an andere SoC-Hersteller.
Mehr Butter oder? LOL
Spass beiseite ich bin mir so sicher wie ich sein kann.
Nö, mehr weiße Schokolade ;)
Aber es würde mich einfach wundern, wenn Apple das durch das Antennenproblem eingeschobene iPhone4.5 schon mit einem neuen SoC ausstattet.
Ganz im Gegenteil. Wenn wir schon dabei sind bin ich mir ziemlich sicher dass tablets langfristig netbooks verschwinden lassen werden denn diese werden so oder so eine Kategorie in den notebook Bereich steigen.
Fuer so bescheidene unterliegende hw ist etwas wie windows bzw. x86 einfach Schmarren.
Eben :)
Uebrigens nicht jeder hat schon gesehen wie das T2 Ding im Tesla aussehen wird:
http://i.i.com.com/cnwk.1d/i/tim/2011/01/03/Tesla_Car_Tegra_Display-0084-Edit.jpg?tag=mncol;txt
Sieht toll aus dass muss man Tesla lassen; aber ablenken koennte so ein Spielzeug schon beim fahren.
Haben wollen :eek:
Wahrscheinlich sinkt nur durch das Display die Reichweite um 10% ;D
Frage ich mich auch da schon SGX superskalar ist.
Das ist einfach nur Marketing-Gefasel für VLIW o.ä.
Nakai
2011-01-09, 18:49:32
Wie klingt ein halbes PSP2?
Etz wirds interessant:D. Unter CortexA9 Quadcore SGX543MP4 schätz ich die PSP2 nicht ein.
Das iPad krankt an vielen kleinen Baustellen. Es gab auch schon wenige Wochen nach dem Launch (da natürlich viel weniger beachtet) die ersten Kommentare, die es im ersten Hands-on noch sehr gelobt haben und dann nach einiger Zeit sagten, dass es doch zuviele Einschränkungen hat. Diese Geschlossenheit der iOS-Geräte ist einfach nicht für jeden was.
Es ist IMO grauenhaft. Ipad war ja sowieso der Witz mit seinen 256Ram.
mfg
Deinorius
2011-01-09, 22:05:47
Restriktion von 30MB? Hast du dafür mal nen Link? Hab ich noch nie was von gehört.
Eigentlich sollte die Restriktion auf 50 MB gesteigert worden sein, zumindest ist das so bei der neuen Version.
http://www.golem.de/showhigh2.php?file=/1012/80296.html
Eggcake
2011-01-09, 22:29:38
Dass es das Limit gibt, sieht man z.B. an gewissen Spielen, welche beim ersten Start noch 10min Content herunterladen müssen.
Wobei ich ganz ehrlich solch grossen Spiele lieber über andere Server als einen Store herunterladen und updaten wollen würde...wenn's denn für den Hersteller realisierbar ist.
LovesuckZ
2011-01-09, 22:45:49
Dass es das Limit gibt, sieht man z.B. an gewissen Spielen, welche beim ersten Start noch 10min Content herunterladen müssen.
Wobei ich ganz ehrlich solch grossen Spiele lieber über andere Server als einen Store herunterladen und updaten wollen würde...wenn's denn für den Hersteller realisierbar ist.
Als ich mir Mittwoch oder Donnerstag Mirrors Edge im Appstore runtergeladen habe, haben die 100mb jetzt keine große Dauer benötigt. Der Appstore scheint sowieso relativ schnell zu sein.
Ailuros
2011-01-09, 23:19:11
Das ist einfach nur Marketing-Gefasel für VLIW o.ä.
Koennte man sagen wenn die Auslastung nicht besser waere als anderswo.
LovesuckZ
2011-01-09, 23:25:32
Laut Twitter-Meldung von Brian Burke gewannen Tegra2 Devices die Auszeichneung "bestes Handy" und "bestes Tablet" auf der CES.
Ailuros
2011-01-09, 23:37:14
Superskalar ist kein muß für GPU.
Jegliche marketing technische Beschreibung ist ueberfluessig wenn es keine Unterschiede geben wuerde.
Also wenn ich CES schaue, komm ich doch schon locker auf 30+. So weit ist man da nicht von entfernt.
Wir werden sehen; aber ich bezweifle trotzdem dass PCGH die 15M erfunden hat. Besser konservative forecasts mit angenehmen Ueberraschungen als die originalen forecasts wie in 2010 um ~50% reduzieren oder?
Die Frage ist wodrin es hinten liegt ;) iOS kommt halt eben an seinen von Apple aufgezwungen Restriktionen nicht vorbei. Und die sind Grund genug, dass das viele nicht wollen. Nicht umsonst werden inzwischen mehr Android als iOS-Geräte verkauft.
Ja und? Keiner hat je behauptet dass Apple mehr als alle anderen verkauft. Sie haben aber trotz allem ihre eigenen sehr deutlichen Vorteile und verdienen auch ein Schweinegeld an dem i-Zeug waehrend andere wie NOKIA nicht mehr selber wissen was sie genau wollen.
Restriktion von 30MB? Hast du dafür mal nen Link? Hab ich noch nie was von gehört.
Kann sein dass es sich gesteigert hat. Carmack hat es behauptet in einem Interview. Selbst wenn die Restriktion heute bei 100MB liegt ist es nichts um AAA games herunterzuladen und einen server aufstellen ist umstaendlich fuer den Normalverbraucher.
Mh, klingt logisch. Aber ich muss jetzt ganz ehrlich sagen, dass ich die Dimensionen der Spielhandhelds nicht kenne (sowohl von Verkaufszahlen als auch Preisen etc.), um mir da großartig einen Reim drauf zu machen ;)
SONY wird wohl diesmal wie bei den Konsolen die hw moeglicherweise mit Schaden am Anfang verbussen.
Das iPad krankt an vielen kleinen Baustellen. Es gab auch schon wenige Wochen nach dem Launch (da natürlich viel weniger beachtet) die ersten Kommentare, die es im ersten Hands-on noch sehr gelobt haben und dann nach einiger Zeit sagten, dass es doch zuviele Einschränkungen hat. Diese Geschlossenheit der iOS-Geräte ist einfach nicht für jeden was.
Jedem das seine. Das aendert aber auch nichts an deren Vorteilen.
Ich denke die Probleme, sich auf eine völlig andere Umgebung (Leistungsaufnahme, Energieeffizenz etc.) einzustellen, sind auch nicht zu verachten. Das meinte ich damit eben.
Lediglich eine kleinere IGP GPU; Strom durfte so ein Ding auch nicht viel verbrauchen und Bandbreite bzw. Speicher war auch stets knapp auf diesen.
Naja, es wäre das erste Mal, dass Apple auf einmal eine Hardware in einem Produkt einsetzt, die technologisch weiter vor der Konkurrenz wäre. Das waren sie bisher ja nicht, das drumherum war ja eher entscheidend. Das der A5 besser wird denke ich auch, aber ich denke nicht, dass er (von den technisch Daten) den T2 schlagen wird. Ich wette z.B., dass es noch Singlecore wird.
Was hatte denn die Konkurrenz besseres bei der iPhone4 Vorstellung genau? Selbst SoCs mit hoeheren Frequenzen hatten mehr als oefter das Nachsehen.
Als GPU hatte A4 den gleichen SGX535 wie im 3GS nur hoeher getaktet und entschuldige das Ding werkelt immer noch in Intel's embedded Zeug rum nur mit doppelt so hoher Frequenz. Nur Galaxy S hat eine potentiellere GPU, aber da ich mir sowohl dieses als auch iPhone4 in die Hand gelegt habe bin ich so frech und behaupte dass iPhone4 rundum und sogar haushoch gewinnt. Und ich bin natuerlich noch frecher und behaupte wenn Apple einen SGX540 integriert haette, dass das Resultat dem Galaxy S die Hosen heruntergezogen haette.
Was jetzt A5 betrifft es hilft nichts hier mit 8x mal X oder 10x mal Y anzufangen. Lass Dich einfach ueberraschen. Und wenn Du jetzt auch noch glaubst dass es nur von Apple solche hw geben koennte au weia....es liegen ueber 10 SoCs mit SGX54x MP momentan in Entwicklung bzw. Produktion. Innerhalb des Jahres werden noch einige andere folgen. Renesas hat bis jetzt nur den einfachen 2MP vorgezeigt; xMP kommt noch :P
Es geht aber darum die GPU IP zu verkaufen. Bei Chips für Konsolen vllt, aber sicher nicht an andere SoC-Hersteller.
Handheld Konsolen sind ein anderer Markt als smart-phones bzw. tablets.
Bucklew
2011-01-10, 00:03:09
Jegliche marketing technische Beschreibung ist ueberfluessig wenn es keine Unterschiede geben wuerde.
Ich rede nicht von der Marketingbezeichnung ;)
Wir werden sehen; aber ich bezweifle trotzdem dass PCGH die 15M erfunden hat. Besser konservative forecasts mit angenehmen Ueberraschungen als die originalen forecasts wie in 2010 um ~50% reduzieren oder?
Natürlich sind Überraschungen immer besser. Aber was die CES zeigt sollte einem doch ziemlich zu denken geben.
Ja und? Keiner hat je behauptet dass Apple mehr als alle anderen verkauft. Sie haben aber trotz allem ihre eigenen sehr deutlichen Vorteile und verdienen auch ein Schweinegeld an dem i-Zeug waehrend andere wie NOKIA nicht mehr selber wissen was sie genau wollen.
Das stimmt, da macht ihnen keiner so schnell was vor. Aber wir reden hier ja über Tegra und da macht Apple nur als Konkurrent Sinn, einen Tegra werden wir wohl so schnell nicht bei Apple sehen.
Kann sein dass es sich gesteigert hat. Carmack hat es behauptet in einem Interview. Selbst wenn die Restriktion heute bei 100MB liegt ist es nichts um AAA games herunterzuladen und einen server aufstellen ist umstaendlich fuer den Normalverbraucher.
Solche eine Restrktion ist auf jeden Fall Mumpitz, soll ne App doch 200MB groß sein.
Bei manchen Googleentscheidungen fragt man sich wirklich, was die Rauchen.
SONY wird wohl diesmal wie bei den Konsolen die hw moeglicherweise mit Schaden am Anfang verbussen.
Das kennen die ja schon :freak:
Würde aber dann (verglichen mit anderen kleineren Tablets) einen deutlich niedrigeren Preis bedeuten?!
Jedem das seine. Das aendert aber auch nichts an deren Vorteilen.
Für den Käufer oder für Apple? :)
Lediglich eine kleinere IGP GPU; Strom durfte so ein Ding auch nicht viel verbrauchen und Bandbreite bzw. Speicher war auch stets knapp auf diesen.
Ist trotzdem was völlig anderes als das, was man vorher gemacht hat. Man gucke sich mal an wie toll es für Mercedes geklappt hat nen kleines Auto zu bauen (A-Klasse) ;)
Was hatte denn die Konkurrenz besseres bei der iPhone4 Vorstellung genau? Selbst SoCs mit hoeheren Frequenzen hatten mehr als oefter das Nachsehen.
Ich rede jetzt nur von der technischen Seite, nicht von dem, was man hinterher auf dem Display angezeigt oder gefühlt wird.
Als GPU hatte A4 den gleichen SGX535 wie im 3GS nur hoeher getaktet und entschuldige das Ding werkelt immer noch in Intel's embedded Zeug rum nur mit doppelt so hoher Frequenz. Nur Galaxy S hat eine potentiellere GPU, aber da ich mir sowohl dieses als auch iPhone4 in die Hand gelegt habe bin ich so frech und behaupte dass iPhone4 rundum und sogar haushoch gewinnt. Und ich bin natuerlich noch frecher und behaupte wenn Apple einen SGX540 integriert haette, dass das Resultat dem Galaxy S die Hosen heruntergezogen haette.
Das Apple schon immer unheimlich viel aus der Software rausgezogen hat wissen wir. Ist natürlich der Vorteil, wenn man die Software nur auf einen einzigen Chip hin total optimieren kann. Aber wie gesagt, darüber rede ich nicht ;)
Was jetzt A5 betrifft es hilft nichts hier mit 8x mal X oder 10x mal Y anzufangen. Lass Dich einfach ueberraschen. Und wenn Du jetzt auch noch glaubst dass es nur von Apple solche hw geben koennte au weia....es liegen ueber 10 SoCs mit SGX54x MP momentan in Entwicklung bzw. Produktion. Innerhalb des Jahres werden noch einige andere folgen. Renesas hat bis jetzt nur den einfachen 2MP vorgezeigt; xMP kommt noch :P
Ist A5 nun single oder dual core? ;)
Ailuros
2011-01-10, 10:34:04
Ich rede nicht von der Marketingbezeichnung ;)
In der GPU Welt gibt es tonnenweise marketing-Bezeichnungen die man nicht unbedingt im strengsten Sinn (siehe CPU z.B.) verstehen sollte.
Das stimmt, da macht ihnen keiner so schnell was vor. Aber wir reden hier ja über Tegra und da macht Apple nur als Konkurrent Sinn, einen Tegra werden wir wohl so schnell nicht bei Apple sehen.
Es geht mir lediglich darum dass Apple keineswegs "braucht" der Nr.1 smart-phone Lieferant zu werden. Bei den Gewinn-margen mit Sicherheit nicht.
Solche eine Restrktion ist auf jeden Fall Mumpitz, soll ne App doch 200MB groß sein.
Rage von iD fuer iOS wird ueber 1.4GB wiegen.
Bei manchen Googleentscheidungen fragt man sich wirklich, was die Rauchen.
Das soll was heissen? Man kann es einfach nicht allen recht machen und schon gar nicht von Anfang an. Android wird fast ueber Nacht zum meist-gebrauchten OS. Lass Google etwas Zeit.
Das kennen die ja schon :freak:
Würde aber dann (verglichen mit anderen kleineren Tablets) einen deutlich niedrigeren Preis bedeuten?!
Eine handheld Konsole wird sich wohl eher an den echten konkurrierenden Geraeten richten.
Für den Käufer oder für Apple? :)
Beide. Eine Banause wuerde nie so stark verkaufen.
Ist trotzdem was völlig anderes als das, was man vorher gemacht hat. Man gucke sich mal an wie toll es für Mercedes geklappt hat nen kleines Auto zu bauen (A-Klasse) ;)
Apfel Birnen Vergleich?
Ich rede jetzt nur von der technischen Seite, nicht von dem, was man hinterher auf dem Display angezeigt oder gefühlt wird.
Was anderes hab ich auch nicht erwaehnt. Nochmal gab es zum release vom A4 dual core CPUs in konkurrierenden Geraeten oder etwas bei weitem besseres als ein SGX535@200MHz?
Das Apple schon immer unheimlich viel aus der Software rausgezogen hat wissen wir. Ist natürlich der Vorteil, wenn man die Software nur auf einen einzigen Chip hin total optimieren kann. Aber wie gesagt, darüber rede ich nicht ;)
Weil ein ziemlich "3D orientiertes" OS darunter liegt und sie so viel Resourcen wie moeglich aus der GPU ziehen anstatt sie bei non-3D dumm rumhocken zu lassen vielleicht u.a.?
Bist Du vielleicht so naiv und glaubst es ist ein Zufall dass ich mir fuer NVIDIA persoenlich eine um weites hoehere GPU Konzentration wuensche? Egal ob clock oder power gating in einem SoC wo immer moeglich eine GPU zu benutzen anstatt einer CPU mit mickrigem Parallelismus und hohen Frequenzen, macht wohl was Sinn genau?
Und fuer diese Kleinigkeit braucht NV keine Jahre lange Erfahrung; sie haben sie schon und der Ironie zu liebe predigen sie es gerechtfertigt schon seit einer Ewigkeit.
Ist A5 nun single oder dual core? ;)
2 Zwillinge ;)
deekey777
2011-01-10, 11:08:18
Wer hat eigentlich zuerst das Wörtchen "superskalar" bei GPUs verwendet? DAAMIT beim R600?
Superskalar bedeutet doch, dass in einem Wisch mehr als eine Instruction ausgeführt werden kann, zB zwei: Konnten das die GPUs nicht schon spätestens seit R300?
Ailuros
2011-01-10, 13:09:16
Wer hat eigentlich zuerst das Wörtchen "superskalar" bei GPUs verwendet? DAAMIT beim R600?
Superskalar bedeutet doch, dass in einem Wisch mehr als eine Instruction ausgeführt werden kann, zB zwei: Konnten das die GPUs nicht schon spätestens seit R300?
Vom gleichen oder underschiedlichen Inhalt? Und wenn nicht was kostet ein context switch?
Das ganze geht viel zu weit OT, aber wie ich schon erwaehnte solche Beschreibungen gibt es in er GPU Welt genug wo es mehr als oefters es sich um ein Marketing-Schlagwort handelt als alles andere. Privat "zanke" ich mich ja auch mit Arun bei B3D dass SGX "MIMD" waere. Da ist mir persoenlich die Beschreibung "superskalar" und/oder "super-threading" erstmal um einiges lieber.
deekey777
2011-01-10, 13:43:21
Vom gleichen oder underschiedlichen Inhalt? Und wenn nicht was kostet ein context switch?
http://de.wikipedia.org/wiki/Superskalarit%C3%A4t
Unter Superskalarität versteht man die Eigenschaft eines Prozessors, mehrere Befehle aus einem Befehlsstrom gleichzeitig mit mehreren parallel arbeitenden Funktionseinheiten zu verarbeiten.
Hoffentlich irreich mich nicht zu sehr: Spätestens der R300 hatte splittbare Einheiten (Vec4+1 bzw. Vec3+1), die zB eine Vec3- und eine skalare Instruction in einem Wisch ausführen konnten.
Label
2011-01-10, 13:48:39
Kann sein dass es sich gesteigert hat. Carmack hat es behauptet in einem Interview. Selbst wenn die Restriktion heute bei 100MB liegt ist es nichts um AAA games herunterzuladen und einen server aufstellen ist umstaendlich fuer den Normalverbraucher.
Willkommen in der TegraZone - NVidia bringt Spiele nur für Geräte mit Tegra2 Power
http://www.androidpit.de/de/android/blog/393874/Willkommen-in-der-TegraZone-NVidia-bringt-Spiele-nur-fuer-Geraete-mit-Tegra2-Power
...so können beispielsweise auch Apps angeboten werden, die über 50MB groß sind...
Ailuros
2011-01-10, 15:09:45
Willkommen in der TegraZone - NVidia bringt Spiele nur für Geräte mit Tegra2 Power
http://www.androidpit.de/de/android/blog/393874/Willkommen-in-der-TegraZone-NVidia-bringt-Spiele-nur-fuer-Geraete-mit-Tegra2-Power
...so können beispielsweise auch Apps angeboten werden, die über 50MB groß sind...
Hier vor ein paar Seiten ein Link zu einem video von Dungeon Defender (UE3 engine) und einem AAA Titel der wieder auf der UE3 engine basiert: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8490104&postcount=377
Offensichtlich weder vergleichbaren dowload-Groessen noch Spiel-qualitaet.
http://de.wikipedia.org/wiki/Superskalarit%C3%A4t
Hoffentlich irreich mich nicht zu sehr: Spätestens der R300 hatte splittbare Einheiten (Vec4+1 bzw. Vec3+1), die zB eine Vec3- und eine skalare Instruction in einem Wisch ausführen konnten.
Die T2 GPU ALUs kann man im besten Fall VLiW nennen; "skalare" ALUs wird dann erst T3 haben da dieser ein direkter Abweicher von GF8/9 sein wird. Maximal FP24 deshalb auch keine CUDA Unterstuetzung.
Bei den USSE1/SGX ALUs hast Du pro ALU/Takt:
2 FP32 (scalar)
2 FP16 (Vec2)
3 oder 4 INT8 (Vec3 oder Vec4)
USSE2/SGX54x MP haben dann denn gleichen Brei nur doppelt so hoch.
Wenn Du Dir das video ueber den OMAP4430 im RIM Blackberry Playbook ansiehst auf das ich verlinkt habe auf einigen Seiten ladet der Herr ab der 6. Minute ein 3D Spiel (Kroll) und zwei PowerVR techdemos hoch die gleichzeitig im Hintergrund laufen ohne dass die GPU bei Vollbild-Wiedergabe von einem den drein stoent.
Label
2011-01-10, 17:22:24
So viele Tablets mit Tegra2 scheinen gar nicht auf der CES vertreten gewesen zu sein:
https://spreadsheets.google.com/ccc?key=0AlJdFb-9TJ_GdHQwak9McldWcVFQek0zUUJwVm9zbnc&hl=de#gid=0
http://www.engadget.com/features/tablets-at-ces-2011/
Und vor allem will ich die auch erst einmal in Deutschland kaufen können...
LovesuckZ
2011-01-10, 17:29:23
9 von 36 (8 sind explizit genannt, das T-Mobile Tablet hat jedoch auch Tegra2) sind immerhin 25% bzw. jedes vierte. Und betrachtet man nur die Android-Geräte sind es 9 von 24, aber mehr als jedes Dritte Android-Gerät hat ein Tegra2 Chip.
Für einen Neueinsteiger in diesem Geschäft ist das doch ziemlich gut. Vorallem wenn man sieht, dass die konkurrenz weiterhin nur Single-Core SoCs anbieten kann.
Bucklew
2011-01-10, 18:26:36
In der GPU Welt gibt es tonnenweise marketing-Bezeichnungen die man nicht unbedingt im strengsten Sinn (siehe CPU z.B.) verstehen sollte.
Das stimmt natürlich, bruachen wir auch kaum zu diskutieren.
Es geht mir lediglich darum dass Apple keineswegs "braucht" der Nr.1 smart-phone Lieferant zu werden. Bei den Gewinn-margen mit Sicherheit nicht.
Das ist sicherlich klar.
Rage von iD fuer iOS wird ueber 1.4GB wiegen.
Ich denke es sollte gar keine Beschränkung für irgendwelche Programme in einem Store geben - und wenn man dann eben auf einen externen Server (vom entsprechenden Entwickler) verweißt für große Teile der Daten.
Das soll was heissen? Man kann es einfach nicht allen recht machen und schon gar nicht von Anfang an. Android wird fast ueber Nacht zum meist-gebrauchten OS. Lass Google etwas Zeit.
Das ich gerade von Google, die jedem User zig GB einfach so schenken, solche Restriktionen nicht erwarte. Bzw ich verstehe überhaupt nicht warum man so etwas einführt. Lasst die Leute doch 2GB Programme runterladen.
Eine handheld Konsole wird sich wohl eher an den echten konkurrierenden Geraeten richten.
Also erwartet uns mit den Nachfolgern der PSP eher ein iPod Touch als ein Gameboy? Naja, war die PSP ja eigentlich schon.
Beide. Eine Banause wuerde nie so stark verkaufen.
Darüber kann man lange diskutierne, siehe iPad ;)
Apfel Birnen Vergleich?
Oh ja, denn auch Äpfel und Birnen anzubauen ist ein ziemlich Unterschied, wenn auch ziemlich ähnlich ;)
Aber doch, natürlich zwei völlig verschiedene Technologien, aber die Probleme, die man bei solchen unterschiedlichen Projekten bekommt sind ähnlich.
Was anderes hab ich auch nicht erwaehnt. Nochmal gab es zum release vom A4 dual core CPUs in konkurrierenden Geraeten oder etwas bei weitem besseres als ein SGX535@200MHz?
A4 war aber schlicht keine Revolution.
Weil ein ziemlich "3D orientiertes" OS darunter liegt und sie so viel Resourcen wie moeglich aus der GPU ziehen anstatt sie bei non-3D dumm rumhocken zu lassen vielleicht u.a.?
Bist Du vielleicht so naiv und glaubst es ist ein Zufall dass ich mir fuer NVIDIA persoenlich eine um weites hoehere GPU Konzentration wuensche? Egal ob clock oder power gating in einem SoC wo immer moeglich eine GPU zu benutzen anstatt einer CPU mit mickrigem Parallelismus und hohen Frequenzen, macht wohl was Sinn genau?
Und fuer diese Kleinigkeit braucht NV keine Jahre lange Erfahrung; sie haben sie schon und der Ironie zu liebe predigen sie es gerechtfertigt schon seit einer Ewigkeit.
Na klar, Apple kann sich das ja auch erlauben (weil eben nur ein Chip) und man gucke sich mal die Erfahrungen mit iOS4 auf dem 3GS an - eieiei. Google kann sich ("dank" billiger Geräten mit nunmal eben leider langsamen und schlecht ausgestatteten Chips) das wohl eher nur sehr schlecht leisten. Hoffentlich mit Honeycomb, das schaut ja in der Beziehung DEUTLICH besser aus. So ein Android mit deutlich mehr GPU-Nutzung wäre auf jeden Fall zu bevorzugen, da stimme ich dir zu.
2 Zwillinge ;)
A5 auch im iPhone "5" oder nur im iPad? ;)
So viele Tablets mit Tegra2 scheinen gar nicht auf der CES vertreten gewesen zu sein:
https://spreadsheets.google.com/ccc?key=0AlJdFb-9TJ_GdHQwak9McldWcVFQek0zUUJwVm9zbnc&hl=de#gid=0
http://www.engadget.com/features/tablets-at-ces-2011/
Und vor allem will ich die auch erst einmal in Deutschland kaufen können...
Naja, da fehlt ja im Spreadsheet die Hälfte der Angaben leider. Aber entscheidend ist ja nicht nur die Menge der Geräte, sondern die Geräte als Design Win zu haben, die nachher viel gekauft werden. Mal schauen was uns da erwartet.
Ailuros
2011-01-11, 07:46:14
Oh ja, denn auch Äpfel und Birnen anzubauen ist ein ziemlich Unterschied, wenn auch ziemlich ähnlich ;)
Aber doch, natürlich zwei völlig verschiedene Technologien, aber die Probleme, die man bei solchen unterschiedlichen Projekten bekommt sind ähnlich.
Ich sag es mal so die GPU zu entwickeln war ein Kinderspiel (da sie auf vergangenen Generationen basiert) im Vergleich zur Entwicklung des ganzen SoCs.
A4 war aber schlicht keine Revolution.
Hat auch nie jemand behauptet. Ich hab selber an mehreren Stellen erwaehnt dass der 3GS SoC und A4 vom ein und demselben team entwickelt wurde und die Kerle nicht gerade froh darueber sind dass angeblich das "neue" team daran rumwerkelte. A4 war vereinfacht quasi ein 3GS SoC mit hoeheren Frequenzen. Ein stinknormaler refresh; jedoch war der 3GS selber ein ziemlich grosser Schritt im Vergleich zu iPhone 3G/2G:
iPhone 3G/2G = MBX Lite + VGP Lite @110MHz (wenn jetzt die Frequenz leicht hoeher war dann ist mein Gedaechtnis schuld)
iPhone 3GS = SGX535@150MHz
Einfacher Fuell-raten Vergleich als Beispiel von vielen:
MBX Lite = 1 TMU = 1 pixel/2 Takte = 55MPixels/s
SGX535 = 2 TMUs = 1 pixel/Takt = 300MPixels/s
Fast ein Faktor 6.0 was Fuellrate betrifft und dabei wurde beim 3GS nichtmal eine groessere Aufloesung benutzt (Geometrie oder alles andere lassen wir mal zur Seite um Zeit zu sparen denn ich denke das obrige reicht). Deshalb sagte ich auch damals dass der 3GS fuer seine Zeit und fuer Apple's roadmap seiner Zeit etwas voraus war und dadurch war ich mir auch fast sicher dass sie den selben SoC einfach wiederbenutzen werden. Billig und schnell.
Na klar, Apple kann sich das ja auch erlauben (weil eben nur ein Chip) und man gucke sich mal die Erfahrungen mit iOS4 auf dem 3GS an - eieiei. Google kann sich ("dank" billiger Geräten mit nunmal eben leider langsamen und schlecht ausgestatteten Chips) das wohl eher nur sehr schlecht leisten. Hoffentlich mit Honeycomb, das schaut ja in der Beziehung DEUTLICH besser aus. So ein Android mit deutlich mehr GPU-Nutzung wäre auf jeden Fall zu bevorzugen, da stimme ich dir zu.
IMG, ARM und Vivante haben MPs im Angebot. ARM war sogar der erste IHV der multi-core GPU IP ankuendigte obwohl dank fehlender Geometrie-Skalierung etwas verkorkst. Jedoch wo immer sinnvoll eine GPU einzusetzen gewinnt hoeherer Parallelismus (GPU) gegen hohe Frequenzen (CPU). CPUs werden sowieso fuer eine Zeit lang schwer ueber quad cores skalieren im embedded Bereich.
A5 auch im iPhone "5" oder nur im iPad? ;)
iPhone 3G
iPhone 3GS
iPhone 4
.....
wie koennte es da wohl weitergehen? Ich benutz die "5" und "A5" nur damit es einfacher zu verstehen ist.
Naja, da fehlt ja im Spreadsheet die Hälfte der Angaben leider. Aber entscheidend ist ja nicht nur die Menge der Geräte, sondern die Geräte als Design Win zu haben, die nachher viel gekauft werden. Mal schauen was uns da erwartet.
T2 hat zweifellos den Android tablet Markt fuer diese Runde kapituliert. Jeglicher moegliche Verlust ist zwar nicht angenehm fuer NV aber im insgesamten Bild auch kein Beinbruch.
Ich bin trotz allem neugierig was Samsung naechsten Monat als tab2 ankuendigen wird. Sieht aber verdaechtig nach einem Hummingbird@1.2GHz aus.
***edit: erste Rightmark Resultate: http://www.anandtech.com/show/4079/basemark-gui-from-rightware-launches-socs-benchmarked
Leider keine T2 Resultate weil die Dinger zu oft zum crashen kamen ist aber auch normal. Es wird eine Zeit dauern bis sich Resultate in solchen synthetischen Benchmarks und auch in GL Benchmark 2.0 korrekt hinbiegen und sich das Ganze stabilisiert. T3 wird uebrigens auch 4xMSAA brauchen; coverage sampling hilft zwar auf T2 aber es wird eben nicht von der ES multisampling Extension (gerechtfertigt) als volles MSAA erkannt. Wie war es nochmal dass tiling stinkt ab DX7? :D
Momentan kapitulieren die Vivante GPU (Marvell Armada) Resultate (sind aber nur reference devices momentan) die obersten Stellen; komischerweise brechen die Dinger auch ziemlich ein mit MSAA und hoeheren Aufloesungen. An Bandbreite hapert es mit Sicherheit; kann aber auch sein dass die Dinger nicht tile based sind.
Label
2011-01-11, 08:56:50
Mich verwundert die Aussage von Anandtech ein wenig
A little known fact is that Tegra 2 is the reference SoC for Honeycomb, the official Android release for tablets. Being selected by Google is another huge boon for NVIDIA’s Tegra business, although from the looks of it we’ll still see more Qualcomm based Honeycomb tablets than Tegra 2 solutions by the end of the year.
http://www.anandtech.com/show/4117/motorola-xoom-nvidia-tegra-2-the-honeycomb-platform
Was stimmt denn mit Tegra2 nicht?
iFanatiker
2011-01-11, 10:46:49
Na klar, Apple kann sich das ja auch erlauben (weil eben nur ein Chip) und man gucke sich mal die Erfahrungen mit iOS4 auf dem 3GS an - eieiei.
iOS4 auf dem 3GS läuft super, schneller als iOS3. Mit 4.0 und 4.1 gab es Probleme mit dem 3G und dies nicht wegen einen Chip sondern vor allem wegen des verfügbaren RAMs.
Ailuros
2011-01-12, 07:29:39
Mich verwundert die Aussage von Anandtech ein wenig
http://www.anandtech.com/show/4117/motorola-xoom-nvidia-tegra-2-the-honeycomb-platform
Was stimmt denn mit Tegra2 nicht?
Nur weil Anand wie viele andere fuehlen kann dass Qualcolmm mehr tablets bis Ende des Jahres haben wird, heisst es nicht dass etwas mit T2 nicht stimmt.
Ich hab in vorigen Posts schon erwaehnt dass T2 zwar die Dev Platform fuer Honeycomb fuer Google intern zwar sein mag aber das heisst nun auch wieder dass Google anderen OEMs in irgend einer Art T2 zu benutzen. Qualcolmm war und ist einer der groessten Semis in diesem Markt und es verwundert mich kein bisschen dass sie einen sehr guten Marktanteil erreichen werden.
Ausser jemand erwartet dass ein Semi wie Qualcolmm ueber Nacht ihren gesamten Marktanteil verlieren koennte; dafuer muessten ihre neuesten SoCs ziemliche Schlappschwaenze sein was aber nicht der Fall ist.
Dural
2011-01-13, 11:24:19
Inzwischen hat der US-amerikanische Halbleiterhersteller den Preis laut Branchen-Insidern auf 40 US-Dollar gesenkt, zu diesem Preis soll auch Nvidias Tegra-2-Plattform erhältlich sein. Allerdings würde Intel bei großen Bestellungen weitere Rabatte einräumen, was angesichts der im Vergleich zu Tegra 2 schlechteren Leistung eines der wenigen Argumente für „Oak Trail“ sein dürfte.
http://www.computerbase.de/news/hardware/prozessoren/intel/2011/januar/intels-oak-trail-entwickelt-sich-zum-flop/
Intel unterbietet jetzt also schon die Tegra 2 Preise...
Würde mich mal interessieren, laut welcher Quelle Tegra2 40 Dollar kostet.
Gibt es denn Benchmark-Vergleiche?
Dural
2011-01-13, 16:01:52
Das sind Tegra für Tablets und die kosteten laut NV schon immer um die 30.- US Doller. Zudem wird auch ganz klar von "Plattform" und nicht nur von Tegra gesprochen.
Ailuros
2011-01-13, 21:40:58
Das sind Tegra für Tablets und die kosteten laut NV schon immer um die 30.- US Doller. Zudem wird auch ganz klar von "Plattform" und nicht nur von Tegra gesprochen.
Die $30 war der originale Zielpreis bei dem nie verkauft wurde. Aber erzaehl mal in Einzelheiten wofuer hier "Plattform" genau steht und ob andere Semis anstatt Pantoffeln bei weniger als dem halben Preis verkaufen.
In welchem Universum genau soll Oak Trail uebrigens langsamer sein als T2? Eher das ganz grobe Gegenteil. Das Ding verkauft sich eher schlecht dank bloeder sw Entscheidungen.
dildo4u
2011-01-13, 21:48:15
In welchem Universum genau soll Oak Trail uebrigens langsamer sein als T2? Eher das ganz grobe Gegenteil. .
Ohne extra GPU dürfte das Teil für alle Anwendungen die am Tabelt gewünscht sind z.b HW beschleunigtes Flash,HD Video und Games deutlich schwächer sein.Nutzt man Oaktrail mit ion dürfte sich die Akku Laufzeit deutlich verschlechter und der ganz Mist müsste auch noch aktiv gekühlt werden.Ich denke Android 3.0 bringt dann das komplette UI + Browser Hardwarebeschleunigt.
Oak Trail hat eine GPU, und lässt sich nicht mit Ion kombinieren.
Ailuros
2011-01-13, 22:21:58
Ohne extra GPU dürfte das Teil für alle Anwendungen die am Tabelt gewünscht sind z.b HW beschleunigtes Flash,HD Video und Games deutlich schwächer sein.Nutzt man Oaktrail mit ion dürfte sich die Akku Laufzeit deutlich verschlechter und der ganz Mist müsste auch noch aktiv gekühlt werden.Ich denke Android 3.0 bringt dann das komplette UI + Browser Hardwarebeschleunigt.
http://software.intel.com/en-us/articles/targeting-3d-applications-for-mobile-devices-powered-by-opengl-and-opengl-es/?wapkw=(GMA600)
http://www.slashgear.com/intel-oak-trail-tablet-platform-in-mass-production-arm-still-not-worried-24116091/
The Oak Trail platform will sell at about US$25 with MeeGo, and the price for Oak Trail and Microsoft's Windows 7 will be higher.
http://www.engadget.com/2011/01/06/razer-switchblade-preview-3g-intel-oak-trail-almost-definitel/
http://www.slashgear.com/motion-cl600-rugged-win7-slate-packs-oak-trail-atom-05123219/
http://www.engadget.com/2011/01/07/viliv-x70-windows-7-slate-with-oak-trail-hands-on/
http://theonbutton.com/2011/01/07/samsung-gloria-intel-oak-trail/
http://www.designboom.com/weblog/cat/16/view/12758/ces-2011-fujitsus-oak-trail-windows-7-tablet.html
Und es werden noch einige folgen; die GPU taktet uebrigens bis zu 400MHz mit der man ~60fps in 1080p in Q3A erreicht. Wie war es nochmal bei T2? 49fps bei 1024*600?
Ganz so nebenbei Fujitsu ist eine der neuesten Lizenznehmer von IMG.
dildo4u
2011-01-13, 22:38:18
Dann wird die Kombo wohl zu viel Strom brauchen zumindest für Smartphones.
Da bestellt man dann halt Tegra über Oaktrail wenn man damit Tabelts und Dual Core Smartphones anbieten will wie z.b LG.
Ailuros
2011-01-13, 22:46:58
Dann wird die Kombo wohl zu viel Strom brauchen zumindest für Smartphones.
Da bestellt man dann halt Tegra über Oaktrail wenn man damit Tabelts und Dual Core Smartphones anbieten will wie z.b LG.
Obwohl es eine takt-reduzierte Version von Oak trail geben wird fuer smart-phones bezweifle ich dass es Intel ausser ein paar wenigen Aussnahmen es schafft hier etwas zu erreichen.
T2 wird sich so oder so kein besonderes Bein in smartphones generell brechen und weniger als eine handvoll deals (wenn's ueberhaupt so viel werden) aendern hier auch nichts besonderes.
Woher kommt denn die Laienweissheit dass Oak trail mehr verbrauchen wird? Der insgesamte Spass betraegt eine sehr breite die area Anlegung der GPU ueber ~8.5mm2 um die 400MHz problemlos zu erreichen (gegen ~9.5mm2 T2 GPU@240MHz). Uebrigens hat T2 nur clock gating und kein power gating wie Oak Trail und die Mehrzahl anderer SoCs. Wobei ich persoenlich nicht mal so weit gehen wuerde um Intel 45nm gegen TSMC 40G zu vergleichen...
Intel verkauft zu teuer und das MeeGo Zeug (und schon gar nicht winblows7) werden so leicht ueberzeugen koennen.
Ailuros
2011-01-14, 08:16:45
Uebrigens: http://www.anandtech.com/show/4103/qualcomm-demos-dualcore-snapdragon
iFanatiker
2011-01-14, 08:40:35
Ohne extra GPU dürfte das Teil für alle Anwendungen die am Tabelt gewünscht sind z.b HW beschleunigtes Flash,HD Video und Games deutlich schwächer sein.Nutzt man Oaktrail mit ion dürfte sich die Akku Laufzeit deutlich verschlechter und der ganz Mist müsste auch noch aktiv gekühlt werden.Ich denke Android 3.0 bringt dann das komplette UI + Browser Hardwarebeschleunigt.
Oak Trail kommt mit der GMA600 (=PowerSGX 535 mit 400 MHz). Unter MeeGo oder Android ist also GPU gänzlich zu verwenden für alle von dir genannten Zwecke.
Bucklew
2011-01-14, 10:15:39
Oak Trail kommt mit der GMA600 (=PowerSGX 535 mit 400 MHz). Unter MeeGo oder Android ist also GPU gänzlich zu verwenden für alle von dir genannten Zwecke.
Android auf ner Intelplattform? :freak:
Hardware-technisch mag Oak Trail ja vllt mithalten können, als Software gibt es aber entweder ein unfertiges Meego oder ein komplett Tablet-unfähiges Win7. Kein Wunder das Intel da verramschen muss. Für Tablets führt auf längere Sicht erstmal nix an Android oder iOS vorbei.
Label
2011-01-14, 11:05:40
Android auf ner Intelplattform?
Ja, siehe Link von Ail:
Table 1 shows the SDKs and APIs available for MeeGo, Microsoft Windows*, and Android.
http://software.intel.com/en-us/articles/targeting-3d-applications-for-mobile-devices-powered-by-opengl-and-opengl-es/?wapkw=%28GMA600
Ailuros
2011-01-14, 12:18:51
Android auf ner Intelplattform? :freak:
Hardware-technisch mag Oak Trail ja vllt mithalten können, als Software gibt es aber entweder ein unfertiges Meego oder ein komplett Tablet-unfähiges Win7. Kein Wunder das Intel da verramschen muss. Für Tablets führt auf längere Sicht erstmal nix an Android oder iOS vorbei.
Oak trail ist Meego, windows oder Android.
fujitsu plans to release an android version of the device in late 2011,
upon google's release of a tablet-optimized honeycomb operating system.
http://www.designboom.com/weblog/cat/16/view/12758/ces-2011-fujitsus-oak-trail-windows-7-tablet.html
Bucklew
2011-01-14, 13:25:11
Oak trail ist Meego, windows oder Android.
Aber x86-Android, ergo inkompatibel zur restlichen Androidwelt, oder nicht?
Wusste gar nicht, dass es einen x86-Android Port gibt.
Aber x86-Android, ergo inkompatibel zur restlichen Androidwelt, oder nicht?
Wusste gar nicht, dass es einen x86-Android Port gibt.
Reine Java-Anwendungen (was die deutliche Mehrzahl der Android-Apps sein dürfte) sollten problemlos laufen. Apps die das ARM NDK und damit nativen Code nutzen laufen natürlich nicht. Dies sind vermutlich hauptsächlich Spiele, bei denen es auf Performance ankommt.
Android gibt es übrigens auch für MIPS.
iFanatiker
2011-01-14, 14:05:44
Aber x86-Android, ergo inkompatibel zur restlichen Androidwelt, oder nicht?
Wieso? Die meisten Anwendungen laufen eh über die Davik VM. Mit dem NDK betrifft es primär Spiele und hier dürfte sich Dank der Power SGX 535 (GMA600) der Protierungsaufwand in Grenzen halten.
Bucklew
2011-01-14, 15:37:46
Naja, wenn ich mir die Resonanz von Android+Atom anschaue (nur ein einziges Tablet, und das ist Dualboot mit Win7) scheint das ja alles längst nicht so einfach zu sein. Das man lieber Win7 nimmt als Android sagt doch schon alles ;)
stickedy
2011-01-14, 16:08:10
Das Problem dürfte eher die dürftige Eignung von Oak Trail für Tablets sein... Sobald Intel da was vernünftiges baut, wird es wohl auch mehr entsprechende Tablets geben.
Ailuros
2011-01-15, 08:08:33
Das Problem dürfte eher die dürftige Eignung von Oak Trail für Tablets sein... Sobald Intel da was vernünftiges baut, wird es wohl auch mehr entsprechende Tablets geben.
Ich hoffe dass Intel's naechste Generation auf MPs setzt und nicht SGX545.
http://www.xbitlabs.com/news/cpu/display/20110113235612_Intel_We_Will_Conquer_ARM_with_Advanced_Process_Technology_Lower_ Costs.html
Unter ihrem eigenen 32nm Prozess duerfte es ihnen einige Frequenz-Turnereien erlauben im Vergleich zur Konkurrenz. Bloed ist nur dass mir an dem ganzen windows Gelaber auch irgend etwas nicht richtig sitzt. Den Tag wo Intel ihre SoCs billiger verkaufen wird als z.B. TI, Samsung und alle anderen will ich erstmal sehen.
Naja, wenn ich mir die Resonanz von Android+Atom anschaue (nur ein einziges Tablet, und das ist Dualboot mit Win7) scheint das ja alles längst nicht so einfach zu sein. Das man lieber Win7 nimmt als Android sagt doch schon alles ;)
Intel versucht vergebens schon seit Jahren in das smart-phone Segment einzudringen. Mit dem windows Zeug wird daraus nichts. Wenn dann sollten sie sich eher auf Android bzw. MeeGo konzentrieren (wenn das letzte ueberhaupt etwas wert ist was ich momentan noch nicht wissen kann).
Bucklew
2011-01-16, 00:18:02
Tegra kommt jetzt auch ins BMW-Navi:
http://www.heise.de/ct/artikel/Prozessorgefluester-1168216.html
(letzter Absatz)
Gott sei Dank, Audis sind hässlich, kann ich mir bald nen BMW kaufen ;D
Intel versucht vergebens schon seit Jahren in das smart-phone Segment einzudringen. Mit dem windows Zeug wird daraus nichts. Wenn dann sollten sie sich eher auf Android bzw. MeeGo konzentrieren (wenn das letzte ueberhaupt etwas wert ist was ich momentan noch nicht wissen kann).
Naja, Windows ist irgendwie sehr "unscheinbar", aber komischerweise hatten die Windowshandys (ich denk da mal na die ersten großen HTCs) dann doch ne ziemlich große Marktdurchdringung. So schlecht können die Verkaufszahlen irgendwie nicht gewesen sein.
Ailuros
2011-01-16, 09:13:48
Tegra kommt jetzt auch ins BMW-Navi:
http://www.heise.de/ct/artikel/Prozessorgefluester-1168216.html
(letzter Absatz)
Gott sei Dank, Audis sind hässlich, kann ich mir bald nen BMW kaufen ;D
Ein SDK fuer Navigations-Geraete in Autos wuerde noch mehr helfen; tschuldige wenn ich mich im Kreis drehe aber da NV auch nach Jensen eine sw Firma ist, ist zusaetzliche Unterstuetzungen langfristig lebenswichtig.
Sonst ist der Artikel an manchen Stellen um sich die Haare auszureissen. Beispiel:
Er deutet allerdings eine engere Kooperation mit Intel bei GPU-Kernen an; die PowerVR-Grafik von Atom Z500 und Z600 kauft Intel schließlich auch bloß zu.
1. Kauft in diesem Fall Intel lediglich IP (GPU/video decoding und encoding und vector graphics IP), wobei Intel selber diese IP integriert.
2. Ich bin mir ziemlich sicher dass Intel IMG's naechste Generation Serie6 u.a. schon lizenziert hat. Intel lizenzierte SGX in 2005 und die Integrierung dieser wird wohl nicht mal in 2011 ein Ende finden.
Im embedded/mobile Markt wird Intel mit NV weiterhin konkurrieren und ich bezweifle ebenso dass Intel ihre GenX Abteilung dicht machen wird.
Naja, Windows ist irgendwie sehr "unscheinbar", aber komischerweise hatten die Windowshandys (ich denk da mal na die ersten großen HTCs) dann doch ne ziemlich große Marktdurchdringung. So schlecht können die Verkaufszahlen irgendwie nicht gewesen sein.
Intel verspricht hinter den Kulissen jederman schon seit GMA500 Zeiten dass es mit GMA600 besser werden wird und dass sie den "grossen" Durchbruch erst mit der naechsten Generation (H2 2011, 32nm) erreichen werden. Hierbei scheinen sie es eiliger wie nie zu haben.
WinMobile ist uebrigens einige Lichtjahre von win7/8 entfernt. Gerade weil NV zu stark bei T1 auf winmobile gesetzt haben sind sie damit so platt auf die Nase gefallen. Intel sollte vom Mist anderer zu lernen versuchen anstatt konstant zu denken dass alles kommt wie sie es wollen weil sie eben Intel sind.
Bucklew
2011-01-16, 12:43:10
Ein SDK fuer Navigations-Geraete in Autos wuerde noch mehr helfen; tschuldige wenn ich mich im Kreis drehe aber da NV auch nach Jensen eine sw Firma ist, ist zusaetzliche Unterstuetzungen langfristig lebenswichtig.
Was soll dieses SDK denn können? Also was soll es für die Hersteller vereinfachen?
WinMobile ist uebrigens einige Lichtjahre von win7/8 entfernt. Gerade weil NV zu stark bei T1 auf winmobile gesetzt haben sind sie damit so platt auf die Nase gefallen. Intel sollte vom Mist anderer zu lernen versuchen anstatt konstant zu denken dass alles kommt wie sie es wollen weil sie eben Intel sind.
Naja, Android gibt es nun auch nicht solange. Vor 3 Jahren gabs noch gar nichts. Wer hätte gedacht, dass das so schnell geht?
Hab ich da nicht vor wenigen Tagen bei Heise gelesen, dass es Apple erst im letzten Quartal gelungen ist mehr iPhones als Windows Mobile Geräte zu verkaufen? Zumindest für Deutschland.
Dural
2011-01-16, 15:07:16
Intel wird gar keine andere möglickeit haben und in diesem bereich mit NV zusammen arbeiten müssen, der kleine ramsch von PowerVR wird intel nichts gegen AMD bringen... Intel braucht mehr Power und mehr Tech-Level um mit AMD mit halten zu können.
Ailuros
2011-01-16, 15:51:02
Intel wird gar keine andere möglickeit haben und in diesem bereich mit NV zusammen arbeiten müssen, der kleine ramsch von PowerVR wird intel nichts gegen AMD bringen... Intel braucht mehr Power und mehr Tech-Level um mit AMD mit halten zu können.
In welchem Bereich denn ueberhaupt? Embedded/mobile ist von PowerVR IP abgedeckt und notebook bzw. PC low end von Intel's eigenem GenX Zeug. Von standalone GPUs ist ja bei Intel fuer etliche Jahre nicht mehr die Rede und wenn Intel es wirklich wollen wuerde ist der angebliche "PowerVR Ramsch" so skalierbar dass es sowohl im Bereich perf/W als auch perf/mm2 den Mittelfinger zeigen koennte zu jeglicher konkurrierender Loesung. Warum wohl Intel ihr eigenes Zeug (GenX) bevorzugt ist offensichtlich.
Wuerde Intel es wollen koennten sie schon heute bis zu 16*SGX554 in einen SoC stopfen aber 512SPs/32 TMUs sind wohl doch um einige Male zu viel fuer den low end notebook/PC Markt. So viel zum "kleinen Ramsch".
Ailuros
2011-01-17, 08:19:35
Mal eine schnelle Liste von veroeffentlichten und Prototypen mit Tegra2 aus der GL Benchmark Datenbank:
Malata ZPad 1024*600
Advent Vega 1024*600
Toshiba AC100 Dynabook AZ 1024*600
Viewsonic G Tablet 1024*600
Toshiba Folio 100 1024*600
LuvPad AD100 1024*600
MSI Harmony 1024*600
Acer Picasso 1024*600
Pegatron Betelgeuse 1024*600
eLocity A7 800*480
LG Star 800*480
LG SU 660 Star Dop 800*480
Compal NAZ 10 800*480
Falls ich irgendwelche daraus verpasst habe bitte nicht hauen ;)
mboeller
2011-01-17, 08:48:13
Mal eine schnelle Liste von veroeffentlichten und Prototypen mit Tegra2 aus der GL Benchmark Datenbank:
Malata ZPad 1024*600
Advent Vega 1024*600
Toshiba AC100 Dynabook AZ 1024*600
Viewsonic G Tablet 1024*600
Toshiba Folio 100 1024*600
LuvPad AD100 1024*600
MSI Harmony 1024*600
Acer Picasso 1024*600
Pegatron Betelgeuse 1024*600
eLocity A7 800*480
LG Star 800*480
LG SU 660 Star Dop 800*480
Compal NAZ 10 800*480
Falls ich irgendwelche daraus verpasst habe bitte nicht hauen ;)
Hier gibt es eine schöne Liste:
http://www.semiaccurate.com/forums/showthread.php?t=4011
1. Posting von Palliot -> Anhang
Ailuros
2011-01-17, 09:16:49
Hier gibt es eine schöne Liste:
http://www.semiaccurate.com/forums/showthread.php?t=4011
1. Posting von Palliot -> Anhang
Nur kannst Du aus der List schon einige streichen. RIM Playbook ist OMAP4430, Asus EePad121 ist Intel i5, Lenovo LePad ist Adreno205, MSI Windpad 100 ist AtomZ530 usw.
Das Toshiba Folio 100 das ich selber erwaehne hatte ja einen ziemlich problematischen launch uebrigens in der UK dank verkorster sw. Muss aber in der Zwischenzeit ausgebuegelt sein aber wenn schon wuerde ich trotz allem raten ein anderes T2 tablet zu kaufen fuer diejenigen die interessiert sind.
Bin mir zwar noch nicht sicher aber ich erwarte von Samsung's pad2 eher einen Hummingbird@1.2GHz.
Uebrigens ist es wie Palliot selber schon sagte Malata und nicht Matalata ;)
YfOrU
2011-01-20, 15:12:00
Ist etwas was ich mir schon seit einer Weile gedacht habe aber so langsam bestätigt sich meine Vermutung bezüglich des Power Management:
Unlike Tegra 2, which can clock gate cores but cannot power gate the second core, scorpion cores can be independently turned off to conserve power as well as be clock gated
http://www.anandtech.com/show/4103/qualcomm-demos-dualcore-snapdragon
Interessant ist immer das was nicht auf Marketingfolien zu finden ist. Um zuerst auf den Markt zu kommen musste man wohl einige Kompromisse eingehen. Hinzufügen sollte man noch das Power Gating ein recht komplexes Thema ist und sich nicht ohne weiteres implementieren lässt.
Edit: Ail war eindeutig schneller ;)
Ailuros
2011-01-20, 15:27:56
Ist etwas was ich mir schon seit einer Weile gedacht habe aber so langsam bestätigt sich meine Vermutung bezüglich des Power Management:
http://www.anandtech.com/show/4103/qualcomm-demos-dualcore-snapdragon
Interessant ist immer das was nicht auf Marketingfolien zu finden ist. Um zuerst auf den Markt zu kommen musste man wohl einige Kompromisse eingehen. Hinzufügen sollte man noch das Power Gating ein recht komplexes Thema ist und sich nicht ohne weiteres implementieren lässt.
Edit: Ail war eindeutig schneller ;)
Hier waere es interessant zu wissen auf wieviel jeglicher A9 auf T2 im idle status taktet. Oder vielleicht sogar wieviel ein T2 tablet verbraucht wenn gar nichts laeuft. Ich bezweifle aber dass es Welten an Unterschied machen koennte.
YfOrU
2011-01-20, 15:39:43
Da es bei den CPU Kernen schon nicht vorhanden ist bin ich mir nicht so sicher ob sich überhaupt Funktionsblöcke abhängen lassen.
Für Tabletts ist das im Normalfall natürlich weniger dramatisch, wo sich das dann aber deutlich bemerkbar macht ist die Standby Zeit von Smartphones.
Ailuros
2011-01-20, 15:42:52
Für Tabletts ist das im Normalfall natürlich weniger dramatisch, wo sich das dann aber deutlich bemerkbar macht ist die Standby Zeit von Smartphones.
Der User reduziert halt heftig die Beleuchtung und die Sekunden wo beleuchtet wird heftig nach unten und schon ist es gut ;)
LovesuckZ
2011-01-20, 15:50:52
Da es bei den CPU Kernen schon nicht vorhanden ist bin ich mir nicht so sicher ob sich überhaupt Funktionsblöcke abhängen lassen.
Für Tabletts ist das im Normalfall natürlich weniger dramatisch, wo sich das dann aber deutlich bemerkbar macht ist die Standby Zeit von Smartphones.
Es macht keinen Unterschied, ob man ein Tablet hat oder ein Smartphone: StandBy bleibt gleich.
Das AC100 von Toshiba bleibt ca. 32h "on" mit deaktivertem LCD Monitor und WLAN. Viel zu wenig für ein Smartphone ala iPhone4.
YfOrU
2011-01-20, 16:10:31
Es macht keinen Unterschied, ob man ein Tablet hat oder ein Smartphone: StandBy bleibt gleich.
Das AC100 von Toshiba bleibt ca. 32h "on" mit deaktivertem LCD Monitor und WLAN. Viel zu wenig für ein Smartphone ala iPhone4.
Nup, zum einen hat ein Tablett einen sehr viel leistungsfähigeren Akku (mehr Platz und der Verbrauch des großen Displays im Betrieb muss kompensiert werden, ergo der höhere Standy Verbrauch fällt nicht so ins Gewicht) und zum anderen kommt bei einem Smartphone immer noch die UMTS/LTE Verbindung dazu.
btw liegt das T2 Dev Board von Toradex laut Spec mit einer nicht näher genannten 3D Demo unter WinCE und einem Kern, max Load (mehr geht bei WinCE nicht) bei 620mA/3.3V. idle sind 220mA. Interessant ist an den Werten da es sich um ein Dev Board handelt eigentlich nur die Differenz. Für einen SoC und nur einen ausgelasteten Kern + 3D ist das recht happig.
LovesuckZ
2011-01-20, 16:55:11
Hexus spekuliert, dass Tegra3 auf der MWC im nächsten Monat präsentiert werden könnte:
http://channel.hexus.net/content/item.php?item=28540&page=2
Dural
2011-01-20, 20:01:35
den schon in 28nm :confused:
Hugo78
2011-01-20, 21:32:55
Wäre doch cool, wenn T3 der "Pipecleaner" wäre. :D
Ailuros
2011-01-21, 08:02:31
den schon in 28nm :confused:
Wieso? Eine Vorstellung bedeutet nicht gleichzeitige Verfuegbarkeit.
Wäre doch cool, wenn T3 der "Pipecleaner" wäre. :D
Kaminfeger sind schwarz :P
Nup, zum einen hat ein Tablett einen sehr viel leistungsfähigeren Akku (mehr Platz und der Verbrauch des großen Displays im Betrieb muss kompensiert werden, ergo der höhere Standy Verbrauch fällt nicht so ins Gewicht) und zum anderen kommt bei einem Smartphone immer noch die UMTS/LTE Verbindung dazu.
btw liegt das T2 Dev Board von Toradex laut Spec mit einer nicht näher genannten 3D Demo unter WinCE und einem Kern, max Load (mehr geht bei WinCE nicht) bei 620mA/3.3V. idle sind 220mA. Interessant ist an den Werten da es sich um ein Dev Board handelt eigentlich nur die Differenz. Für einen SoC und nur einen ausgelasteten Kern + 3D ist das recht happig.
Langfristig werden wir so oder so sehen wie lange genau ein jegliches Geraet unter welchen Gebrauch-scenarios laeuft. Dass sollte aber nicht heissen dass power gating fuer NV nicht unter den hoechsten Prioritaeten fuer den naechsten SoC stehen sollte. Ueberhaupt wenn das Ding schon eine quad-core CPU enthaelt (obwohl es gut sein kann dass es erst T4 wird).
Dural
2011-01-21, 19:22:40
Wieso? Eine Vorstellung bedeutet nicht gleichzeitige Verfuegbarkeit.
naja laut NV wird Tegra3 zeit gleich wie die Daul Core der Mitbewerber in Produktion gehen!
Das wäre regelrecht eine Demütigung für die bekannten Platzhirsche in dem Bereich!
28nm? - Quad Core? - Sicher überarbeite GPU? = killer SoC :biggrin:
Ailuros
2011-01-22, 08:14:18
naja laut NV wird Tegra3 zeit gleich wie die Daul Core der Mitbewerber in Produktion gehen!
Kommt drauf an was man mit dual core genau meint. Fuer smart-phones muessen schon alle Sterne richtig sitzen dass es NV noch dieses Jahr schafft mit T3.
Das wäre regelrecht eine Demütigung für die bekannten Platzhirsche in dem Bereich!
Was waeren denn Platzhirsche in dem Fall? Indirekte Konkurrenten wie Apple oder IMG? Der erste braucht sich keine Sorgen zu machen und IMG wird nur von einem anderen SoC deal so viele Einheiten verkaufen wie NV zumindest 3-4 Jahre dafuer braucht.
Sonst brauchen sich die echten Konkurrenten wie Samsung, Qualcolmm oder TI keine besonderen Sorgen zu machen. Der embedded Markt wird wachsen und alle Beteiligten werden mehr Umsatz machen. Wenn jetzt ein semi seinen Umsatz um X% steigen sieht kann es ihm ziemlich wurscht sein ob sein Marktanteil um Y% schrumpft. Mehr ist natuerlich stets besser aber je mehr ein Markt mit so vielen Konkurrenten waechst desto mehr wird der Kuchen neu aufgeteilt.
28nm? - Quad Core? - Sicher überarbeite GPU? = killer SoC :biggrin:
Ueber 28nm bin ich mir relativ sicher, aber schau her T2 ging erst in Massenproduktion fast parallel mit GF100 unter 40G (und nein fuer T2 wurde kein 40LP Prozess benutzt was ich immer noch nicht verstehe...). Ergo jegliche SoC 28nm Produktion wuerde ich nicht vor der Produktion von low end GF1x9@28nm erwarten.
Quad CPU waere die bloedeste Option IMO; mir waere es viel lieber wenn sie die zusaetzliche die area in die GPU investieren wuerden, denn im Vergleich zu einem SGX543 2MP ist der Weg ziemlich lang, wobei skalierbare MP GPUs wohl nicht bei nur 2 in der vorhersehbaren Zukunft halt machen werden. 2 und 4MPs (Orion) erscheinen dieses Jahr unter 45/40nm; 28nm ist schon ein anderes Kapitel.
LovesuckZ
2011-01-24, 02:59:14
Tegra goes 3D: http://www.techeye.net/chips/tegra-2-3d-unveiled
AnarchX
2011-01-24, 09:32:57
Ob man da nun zwei IGPs verbaut?
Ansonsten wie erwartet ein Taktupgrade für die ARM-Cores unter 40nm.
Ailuros
2011-01-24, 11:04:06
Ob man da nun zwei IGPs verbaut?
Ansonsten wie erwartet ein Taktupgrade für die ARM-Cores unter 40nm.
http://forum.beyond3d.com/showpost.php?p=1515099&postcount=73
For 3D you mainly want the display pipeline to be able to interleave two buffers.
Anders alles was man braucht was hw betrifft ist eine display pipeline die die dementsprechenden left/right interleaved buffers unterstuetzt. Ich wuerde mich wundern wenn so etwas nicht schon von einer Vielzahl an SoCs unterstuetzt wird und man nur die dementsprechende sw dafuer braucht.
Ailuros
2011-01-24, 12:38:35
http://www.brightsideofnews.com/Data/2011_1_23/Tegra-2-3D-and-Tegra-3-launches/Nvidia%20Tegra%202011%20roadmap.jpg
http://www.brightsideofnews.com/news/2011/1/23/nvidia-thinks-world-domination-tegra-2-3d-in-january2c-tegra-3-by-fall.aspx?pageid=0
Anders hab ich es auch nicht erwartet. 3x times faster graphics (als in T2) und quad A9@up to 1.5GHz. Worauf mal hier wieder die groesste Konzentration faellt :rolleyes:
Interessant ist eher dass es einen weiteren SoC fuer smart phones geben wird mit entweder 2*A9 oder 4*A9. Die bunten MIPS Raten fuer die CPUs sind zwar schoen und gut aber ich frage mich trotzdem wie schnell die Applikationen von single auf quad threading skalieren koennen dass T3 auch wirklich einen groesseren Leistungs-Vorteil als Platform sehen wird im Vergleich zu dual core CPUs. Uebrigens hoffe ich dass "ULP CPU mode" fuer etwas wie power gating steht.
mboeller
2011-01-24, 13:07:49
Der Tegra 2 3D: war das das SoC für Nintendo? Oder kommt das doch noch für andere Tablets/Phones?
LovesuckZ
2011-01-24, 13:11:13
Der Tegra 2 3D: war das das SoC für Nintendo? Oder kommt das doch noch für andere Tablets/Phones?
Ist für jeden, der bereit ist, dafür zu bezahlen. ;)
Tegra3 ist dann in 28nm, oder?
Ailuros
2011-01-24, 13:22:24
Der Tegra 2 3D: war das das SoC für Nintendo?
Wieso?
Oder kommt das doch noch für andere Tablets/Phones?
Ich hab schon oben erklaert wie man zu dem 3D Zeug kommt. Brauchte jetzt NV irgend einen besseren Grund den "neuen" SoC mit hoeherer Taktrate zu vermarkten oder gibt es die zwei Puffer im heutigen T2 einfach nicht (was aber auch ziemlich merkwuerdig waere).
Ist für jeden, der bereit ist, dafür zu bezahlen. ;)
Interessant ist eher dass sie nochmal auf die Frequenz gedrueckt haben. Ich will hoffen dass auch die GPU Frequenz um nochmal 20% erhoeht wurde (von 240 auf ~290MHz).
Tegra3 ist dann in 28nm, oder?
Afaik ja. Steht ja unten drin "samples 4Q10". Im Gegenfall wo es hypothetisch 40G waere will ich mir nicht vorstellen wie bombastisch gross so ein SoC mit quad@1.5GHz und eine um 3x Mal schnellere GPU werden koennte. Finale Produktion haengt aber von TSMC's eigenem Mist wie immer ab.
Screemer
2011-01-24, 14:53:59
hieß ja mal es kommt ein tegra XY in den 3ds befor sie sich auf pica festgelegt haben.
Dural
2011-01-24, 18:12:33
T3 wird ja so gewaltig einschlagen, das wird ja cool.
Und schon Samples Lieferbar wow!
Tja NV hatte villeicht doch recht das bald die hälfte des Umsatzes auf Tegra fällt... Die Konkurez wird wohl eine Zeit lang gegen T3 mit nichts da stehen :)
Ailuros
2011-01-24, 18:30:41
hieß ja mal es kommt ein tegra XY in den 3ds befor sie sich auf pica festgelegt haben.
Es war ein Tegra2 auf einer dev-platform von Nintendo. Das das alberne Buffer-zeug schon stets in jeglichem Tegra SoC stecken koennte ist wohl keinem aufgefallen?
T3 wird ja so gewaltig einschlagen, das wird ja cool.
Von den quad-cores abgeleitet? NV wird uns seit neuestem bald ueberzeugen muessen dass CPUs wichtiger sind als GPUs.
Und schon Samples Lieferbar wow!
Wie waere es mit final tape out vielleicht in 4Q10? T2 hatte seinen tape out in 4Q08; die Produktion verspaetete sich von 3Q09 auf 1Q10 weil 40G so beschissen auf die Nase viel.
Tja NV hatte villeicht doch recht das bald die hälfte des Umsatzes auf Tegra fällt... Die Konkurez wird wohl eine Zeit lang gegen T3 mit nichts da stehen :)
Sagen wir mal dass die Konkurrenz schon in den kommenden Monate interessantere Pakete haben wird und nicht erst im naechsten Jahr.
sind die T3 Sampels aus 4Q2010 schon in 28nm?
mir wäre lieber gewesen wenn T3 ein DualCore mit deutlich schnellerer Grafik geworden wäre als ein Quadcore...
stickedy
2011-01-24, 18:40:13
http://www.heise.de/newsticker/meldung/Nvidia-Tegra-3-Quad-Core-ARM-SoC-fuer-Tablets-1176051.html
Wie die News-Webseite Bright Side of News unter Berufung auf eine im Internet aufgetauchte Datei mit einer wahrscheinlich von Nvidia stammenden Datei meldet, sollen erste Muster des SoC Tegra 3 mit vier ARM Cortex-A9 und bis zu 1,5 GHz Taktfrequenz gegen Ende des Jahres 2011 ausgeliefert werden. Vermutlich setzt Nvidia dann auf ein Fertigungsverfahren für 32- oder 28-nm-Strukturen und mit HKMG-Technik.
Das dürfte also noch a bisserl dauern...
LovesuckZ
2011-01-24, 19:00:20
Gesamplte wird jetzt im 28nm Verfahren. Für OEMs gibt es die Dinger sowieso erst im 2. Halbjahr. BSON spekuliert selbst für eine CES Vorstellung. Aber das ist ja nichts neues in der Branche. Auf der diesjährigen CES wurden auch Produkte vorgestellt, die irgendwann im 2. Halbjahr erscheinen sollen.
Dural
2011-01-24, 19:56:02
Von den quad-cores abgeleitet? NV wird uns seit neuestem bald ueberzeugen muessen dass CPUs wichtiger sind als GPUs.
Die GPU soll 3x schneller, was will man mehr?!? Q3 mit 200FPS reichen glaub langsam :freak:
Sagen wir mal dass die Konkurrenz schon in den kommenden Monate interessantere Pakete haben wird und nicht erst im naechsten Jahr.
Mit was? Dual Core in 45nm ;D ist jetzt nicht dein ernst oder? deine Konkurenz soll bitte schön mal Dual Core in die Geräte bringen und nicht nur davon Träumen wie toll die doch sind!
http://www.heise.de/newsticker/meldung/Nvidia-Tegra-3-Quad-Core-ARM-SoC-fuer-Tablets-1176051.html
Das dürfte also noch a bisserl dauern...
In dieser "Datei" steht aber ganz klar Q410
was ist es jetzt den?!?
Dural
2011-01-24, 20:00:01
werden erste Muster des SoC Tegra 3 mit vier ARM Cortex-A9 und bis zu 1,5 GHz Taktfrequenz seit Ende des Jahres 2010 ausgeliefert. Geräte mit den neuen Chips könnten demnach im Herbst 2011 erscheinen.
allso doch ;)
LovesuckZ
2011-01-24, 20:23:38
Ein Analyst hat vorhergesagt, dass nVidia massiv an Boden mit Tegra2 gewinnen werde. Der Aktionkurs ist zZ ganze 11% höher als gestern und man spekuliert, dass ein Ziel von $40(!) zu erreichen sein könnte. Die scheinen richtig viel vertrauen in nVidia und ihre "Execution" bzgl. Tegra zu setzen.
Deinorius
2011-01-24, 21:17:43
Tja NV hatte villeicht doch recht das bald die hälfte des Umsatzes auf Tegra fällt... Die Konkurez wird wohl eine Zeit lang gegen T3 mit nichts da stehen :)
Verkaufe kein Wildschwein, das du noch nicht erlegt hast. Da ist jemand aber sehr optimistisch.
Die GPU soll 3x schneller, was will man mehr?!? Q3 mit 200FPS reichen glaub langsam :freak:
3x schneller von einer wenig prächtigen GPU ist auch nicht das Gelbe vom Ei, wenn die Konkurrenz da kaum bis gar nicht, oder gar im Gegenteil, hinterher hinkt. Besonders wenn es primär um Leistung/Fläche/Watt geht.
Zumal die SGX GPUs das schon lange mit einer niedrigeren Chipfläche können.
Mit was? Dual Core in 45nm ;D ist jetzt nicht dein ernst oder? deine Konkurenz soll bitte schön mal Dual Core in die Geräte bringen und nicht nur davon Träumen wie toll die doch sind!
Und wo liegt jetzt der Vorteil für nvidia, wenn sich der T3 trotzdem nicht so verkauft, wie von nvidia erhofft? Nicht, dass ich was gegen QuadCore an sichhätte.
Ailuros
2011-01-25, 07:54:38
Die GPU soll 3x schneller, was will man mehr?!? Q3 mit 200FPS reichen glaub langsam :freak:
Eine 3x mal schnellere GPU ist gerade auf dem Nivaeu was andere SoCs noch dieses Jahr liefern werden. Eines der NV PR Argumente ist in dem Fall dass auch eine kommende handheld Konsole mit quad-core CPUs ankommen wird. Erstens ist das eine mit dem anderen eben nicht vergleichbar weil das handheld ueber etliche Jahre aushalten muss, zweitens wird ein Entwickler in einem "geschlossenen" System wie einem handheld die unterliegende hw sofort aussaugen koennen und drittens und am wichtigsten ist das Argument eben durchaus albern weil der GPU block auf diesem handheld dem T3 GPU block so stark den Hintern versohlt dass es nicht mehr schoen ist.
Sieht Dir das hier nach Q3a aus? http://uk.ign.com/videos/2010/11/05/infinity-blade-official-trailer?objectid=85461
Zwar nur iOS aber dafuer wird iD's Rage mobile auch ausschliesslich fuer iOS sein.
Ich bin alles andere als gegen multi-core CPUs ganz im Gegenteil, aber ich hab meine Vorbehalte dass die uebermaessige Konzentration eines GPU IHVs auf die CPU die richtige Strategie ist. Marketing-technisch ja wird es etwas bringen, aber embedded Applikationen werden nicht ueber Nacht von single auf quad threading skalieren. Und ja natuerlich ist jeglicher A9 core spottbillig wenn es zu die area kommt, aber eine GPU SP ist im Vergleich alles andere als teuer ueberhaupt wenn man sie auf hot-clock hochjagt.
Dilemma um zich Male vereinfacht: quad core CPU@1.5GHz + 3x Mal schnellere GPU oder dual core CPU@>1.5GHz + 5x Mal schnellere GPU? Die T3 GPU wird die erste Tegra GPU sein die CUDA und daher GPGPU unterstuetzen wird (bei T1 und T2 nicht moeglich da nur FP24 PS ALUs). Mit OpenCL forschen Hersteller schon seit 2009: http://www.hotchips.org/archives/hc21/1_sun/HC21.23.2.OpenCLTutorial-Epub/HC21.23.270.Pulli-OpenCL-in-Handheld-Devices.pdf
Und da Du wohl sowieso Dir das Ding nicht durchlesen wirst Seite19:
Analysis of energy measurements
•
GPU architecture is better for OpenCL-like parallel data computing
•
all execution units are busy, ALU utilization is maximized
•
CPU suffers from poor ALU utilization
•
we didn’t have long pipelined vector computations for ARM NEON
•
compiler and our OpenCL do not utilize NEON instructions very well
•
GPU’s lower operating frequency (110 MHz vs. 550 MHz)saves energy
•
power dissipation increases non-linearly with frequency
•
generally, high parallelism with low frequency is more energy-efficient than low parallelism with high frequency
Letzter Satz gilt offensichtlich nicht fuer hot-clocked GPU ALUs, zumindest nicht IMHO.
Mit was? Dual Core in 45nm ;D ist jetzt nicht dein ernst oder? deine Konkurenz soll bitte schön mal Dual Core in die Geräte bringen und nicht nur davon Träumen wie toll die doch sind!
SGX54x MP skalieren von 2 bis 16 cores. Da schon dieses Jahr 2MPs in Geraeten erscheinen werden, darfst Du drei Mal raten wie es in 2012 aussehen wird.
Natuerlich ist es mein Ernst. B3D arbeitet momentan an einem Artikel der die gesamten Implikationen von embedded GPUs analysiert welches man auch eventuell langfristig mit Projekt Denver relativieren koennte und NV's moeglichen Vorteilen. Der Bereich GPU wird aber noch nicht beruehrt; dafuer kommt spaeter etwas.
Und ja es ist mir natuerlich klar dass Du Dir nicht vorstellen kannst was ich genau meine. In zukuenftigen Systemen wo es high end ARM CPU cores geben wird in NV's hw wird der CPU block im Vergleich zum GPU block eher das grosse Nachsehen haben. Diesen Trend sehe ich bei heutigen NV embedded SoCs nicht. Uebrigens da Du es wohl verpasst hast, werden AP30 smart-phone SoCs sowohl dual als auch quad-core CPUs haben. Redundanz ahoi im zweiten Fall.
In dieser "Datei" steht aber ganz klar Q410
was ist es jetzt den?!?
T2 = "in production"
T2 3D = "Q1 Production"
T3 = "samples 4Q10"
samples = tape out
T2 hatte seinen tape out in 4Q08' unter TSMC 40G. Wieso es erst in 1Q10 zur Produktion kam wirst Du wohl schon selber wissen. Anders wann sollen die ersten low end 28nm GPUs von NV genau ankommen? Zwar wird wohl diesmal fuer SoCs ein anderer Prozess benutzt, aber frueher als das wuerde ich an Produktion unter 28nm nichts erwarten weder von TSMC noch von GloFo.
Ein Analyst hat vorhergesagt, dass nVidia massiv an Boden mit Tegra2 gewinnen werde. Der Aktionkurs ist zZ ganze 11% höher als gestern und man spekuliert, dass ein Ziel von $40(!) zu erreichen sein könnte. Die scheinen richtig viel vertrauen in nVidia und ihre "Execution" bzgl. Tegra zu setzen.
Nur wandelt man mit solchen Analysen auf ziemlich duennem Seil. Von der anderen Seite verkauft NV nicht nur Tegra (und die Verkaufszahlen seit GF110 sind fuer sie alles andere als schlecht) und zweitens ist es stets eine ziemlich schlechte Idee von Aktienkursen jeglichen "Erfolg" abzulesen. Angenommen rein hypothetisch dass NV's Aktienkurs nach Apple's und SONY's Ankuendigungen ploetzlich um X% purzelt, ist dann dieses eine jegliche Indizie dass Tegra2 nicht so verkauft wie in der Realitaet?
Dural
2011-01-25, 11:48:38
3x schneller von einer wenig prächtigen GPU ist auch nicht das Gelbe vom Ei, wenn die Konkurrenz da kaum bis gar nicht, oder gar im Gegenteil, hinterher hinkt. Besonders wenn es primär um Leistung/Fläche/Watt geht.
Zumal die SGX GPUs das schon lange mit einer niedrigeren Chipfläche können.
Naja das kann man jetzt sehen wie man will, ich finde zb. die CPU in diesem Bereich deutlich wichtiger als die GPU, der schritt von single auf dual Core war längst überfällig und NV hat mit Google zusammen da pionierarbeit geleistet.
Der logische schritt mit 28nm ist da klar eine Quad Core CPU.
Und wo liegt jetzt der Vorteil für nvidia, wenn sich der T3 trotzdem nicht so verkauft, wie von nvidia erhofft? Nicht, dass ich was gegen QuadCore an sichhätte.
Wer sagt das sich der T3 nicht gut verkaufen lässt?!? Ich glaube eher das komplette gegenteil, wenn sie das ding wirklich noch im 2011 in die massen produktion senden können und T3 das bringt was er auf dem Papier verspricht dürfte es wohl ganz von alleine ein kassen schlager werden.
übrigens die ach so unterlegene GPU im T2 kann komischer weise im MobileMarkt ganz gut mit halten... Und im Tegra 2 ist nichts anderes als eine Tegra 1 GPU mit etwas mehr Takt, eigentlich doch beeindruckent wenn man bedenkt das es NVs erste SoC GPU ist!
Wie zb. VR versuche im Desktop bereich aussahen wissen wir ja glaub noch genau ;)
Blediator16
2011-01-25, 11:53:18
Was du findest und glaubst wird den Markt mit höchster Wahrscheinlichkeit nicht im geringsten jucken ;)
Ailuros
2011-01-25, 13:32:36
Naja das kann man jetzt sehen wie man will, ich finde zb. die CPU in diesem Bereich deutlich wichtiger als die GPU, der schritt von single auf dual Core war längst überfällig und NV hat mit Google zusammen da pionierarbeit geleistet.
Ueberfaellig ist es im Fall wo die meisten embedded/mobilen Applikationen auf >single threading setzen. Da aber die hw stets einen Vorsprung gegenueber der sw hat, wuerde ich die Situation alles andere als "ueberfaellig" bezeichnen ueberhaupt da in diesem Markt die Mehrzahl auf spezifische OSs laufen die in ihrer Mehrzahl auf Linux kernels basieren; ergo hat das Ganze wohl nichts mit desktop windows zu tun.
Anders ja natuerlich brauchen wir dual-core CPUs in diesem Bereich damit mehr als single-threading fuer general purpose processing im embedded Bereich endlich loslegt.
Was soll denn Google genau mit NV zusammengelegt haben? Google hat Referenz-Platformen von Qualcolmm, Samsung und jetzt NV benutzt fuer interne Entwicklungs-zwecke (wobei ich bezweifle dass Du diese Kleinigkeit auch wirklich verstehst...) und das Maerchen dass man fuer Honeycomb mir nichts dir nichts eine dual core CPU braucht duerfte auch so langsam sterben. Google verbaut in ihre eigenen Geraeten nicht nur einen bestimmten SoC, sondern einige von diversen Hersellern und daran wird sich auch nichts aendern in absehbarer Zukunft.
Der logische schritt mit 28nm ist da klar eine Quad Core CPU.
Nur fehlt mir um diese "Logik" auch noch halbwegs zu akzeptieren ein standfesteres Argument wenn nicht schon anstaendige Dokumentation. So wie heute T2 aussieht war T3 natuerlich ein logischer Schritt. Aber was passiert dann bei T4, T5 usw? Ausser Du willst mir weissmachen dass sich die Einheiten der embedded CPUs um jedes Jahr verdoppeln werden und wir haben dann schon vor dem desktop 16-core CPUs in SoCs.
Der einzige Ausgang dann weiter die Leistung zu skalieren sind dann GPUs und gerade deshalb frage ich warum nicht schon in naeherer Zukunft als um einiges spaeter, ueberhaupt wenn diesmal in T3 GPGPU ins Spiel kommt. NV nennt selbst ihre heutige SoC "heterogeneous" und dieses durchaus gerechtfertigt, weil die CPU Einheiten, die GPU, der video decoder, der video encoder, die imaging Einheit usw. alles Prozessoren sind die eng zusammenarbeiten muessen und sich die Haare um die gleiche Bandbreite ausreissen muessen. Bei irgendwelcher Aufgabe die eine gute Anzahl an threads voraussetzt kann man die GPU ALUs durch OpenCL nicht nur voll auslasten sondern verbraucht auch um auch um einiges weniger.
übrigens die ach so unterlegene GPU im T2 kann komischer weise im MobileMarkt ganz gut mit halten... Und im Tegra 2 ist nichts anderes als eine Tegra 1 GPU mit etwas mehr Takt, eigentlich doch beeindruckent wenn man bedenkt das es NVs erste SoC GPU ist!
T2 ist nicht NV's erster Versuch im embedded/mobilen Markt sondern eher der dritte oder vierte (je nach Perspektive) wenn man GoForce noch mitberechnet. Natuerlich zeigt sich T2 insgesamt gut, aber wir reden hier immer noch nicht von irgend einer Markt-Kapitulation, denn es hoert sich leider viel zu oft danach an.
T1 ging bergab weil NV dummerweise auf's falsche OS gesetzt hat. T2 war klugerweise auf Android gerichtet und wir wissen alle wie lange es schon bekannt war dass Android einen ziemlich grossen Durchbruch sehen wird. Im Gegensatz die Semis die immer noch glauben dass irgendwelches windows OS den Tag doch noch retten koennen muessen eher zusehen wie sie auf ihrer hw sitzenbleiben muessen.
TheGoD
2011-01-26, 16:02:06
Tegra2 bietet ja eine spezielle Hardwarebeschleunigung für Flash-Content, die laut Benchmark-Ergebnissen von Anandtech auch tatsächlich einen starken Performancezuwach erbringt.
Werden andere A9-Dual-Core-Designs diesbezüglich konkurrenzfähig sein? Konkrett interessiert mich Samsungs Orion.
Dural
2011-01-26, 16:18:05
Was du findest und glaubst wird den Markt mit höchster Wahrscheinlichkeit nicht im geringsten jucken ;)
Der Mark interessiert fakten: 28nm / Quad Core 1.5GHz / vernünftige GPU
= Viel Absatz da es so bald sonst niemand anderes bieten kann/wird.
Gerade für Tabletts wird T3 neue Massstäbe setzen und dank endlich vernünftiger CPU Power auch komplett neue Zielgruppen ansprechen.
Und ich gehe sehr stark davon aus das sich die Einführung von T3 sich nicht so stark verzögert wie noch bei T2, die Software Basis sollte dank T2 schon da sein/bald kommen.
Und um alle zu beruhigen, NV wird nach den Quad Core CPU im T3 mit dem T4 sicher eher in die GPU investieren, was auch ein völlig logischer schritt wäre.
AnarchX
2011-01-26, 16:26:41
Oder man wartet auf Windows 8. ;)
LovesuckZ
2011-01-26, 16:28:46
Na, Win8 spielt keine große Rolle. Wenn sich die OS-Probleme mit Android erstmal erledigt haben, werden die nächsten Generation dann wie im x86 Bereich einfach eingebaut.
Aber bis dahin wird es eben noch eine Weile dauernd.
fondness
2011-01-26, 16:39:09
Der Mark interessiert fakten: 28nm / Quad Core 1.5GHz / vernünftige GPU
= Viel Absatz da es so bald sonst niemand anderes bieten kann/wird.
Doch, AMD. ;)
Und prinzipiell auch jeder andere Lizenznehmern von ARM, das sind ja nicht gerade wenige. Dazu wird auch Intel nicht still stehen. Konkurrenzlosigkeit gibt es hier beileibe nicht.
Deinorius
2011-01-26, 16:41:54
Der Mark interessiert fakten: 28nm / Quad Core 1.5GHz / vernünftige GPU
Den Markt... Außerdem, deine Fakten sind unzureichend.
Gerade für Tabletts wird T3 neue Massstäbe setzen und dank endlich vernünftiger CPU Power auch komplett neue Zielgruppen ansprechen.
Das große Mehr an zusätzlicher Leistung kommt aber durch die 2 zusätzlichen Kerne und da du Ailuros Beiträge auch nicht wirklich durchliest, hätte dir klar werden müssen, dass dafür erstmal eine vernünftige Softwarebasis existieren muss, welche die Kerne ausreizen kann. Nicht, dass es schlecht wäre, wenn erstmal irgendeine Hardware existiert, die neue Möglichkeiten bietet. AMD musste auch erstmal lange vorher 64bit bereitstellen, bis es endlich voranging.
Nichts desto trotz sagt das noch lange nicht aus, dass T3 reißenden Absatz finden wird. Da bist du optimistisch naiv. Wenns anders kommt, ok, aber pudel dich hier mit deiner Pseudo-Wahrsagerkugel nicht so auf. Garantiert ist hier gar nix.
Und um alle zu beruhigen, NV wird nach den Quad Core CPU im T3 mit dem T4 sicher eher in die GPU investieren, was auch ein völlig logischer schritt wäre.
Deine Wortwahl ist köstlich. Zuerst sagst du, dass der Schritt zu QuadCore der logische Schritt mit 28 nm ist und jetzt, nach Ailuros Belehrung, darfs auch gleich die GPU sein. Nicht, dass du falsch liegen würdest, aber deine Aussagen so aus den Haaren herbeigezogen, dass es weh tut.
Die anderen Semis schlafen auch nicht.
Mancko
2011-01-26, 17:09:25
Doch, AMD. ;)
Und prinzipiell auch jeder andere Lizenznehmern von ARM, das sind ja nicht gerade wenige. Dazu wird auch Intel nicht still stehen. Konkurrenzlosigkeit gibt es hier beileibe nicht.
Naja AMD hat aber genug andere Probleme und für besonders schnelles agieren sind die im CPU Segment nun wirklich nicht bekannt. Aber langfristig werden die hier auch einsteigen müssen.
x86 wird sich hier nicht durchsetzen und zwar alleine schon deshalb nicht, weil die ganzen anderen Semis Morgenluft wittern um das x86 Monopol von Intel zu brechen. Und im Endeffekt ist das auch das beste für alle. Hauptsache der x86 Müll verliert weltweit gesehen an Marktdurchdringung egal wie.
Dürfte auch der Grund sein, wieso Nvidia mehr Augenmerk auf die CPU legt. Im GPU Bereich macht denen keiner was vor. Da haben sie mehr als genug Kompetenz und können schnell nachlegen, wenn es die Situation mal erfordert. Auf dem CPU Segment sind sie neu unterwegs. Ist doch völlig klar, dass die die CPU erstmal pushen wollen.
Zum einen dürften das gute Vorläufer für Project "Denver" sein (nette live Praxiserfahrungen) und zum anderen beschleunigt das den Prozess, dass ARM basierte CPUs näher an x86 low-end heranrücken.
Das Problem das AMD und Intel hier langfristig haben ist, das für viele Bereiche die heutige CPU Leistung bereits ausreichend ist. Durch MS sein ineffizient programmiertes Windows kann man das kaschieren aber je mehr so abgespeckte OS Systeme wie Android sich durchsetzen, desto transparenter wird, dass für normale Anwendungen heutige CPU Power völlig ausreichend und mehr nicht notwendig ist (komplexe state of the art 3D Games ausgenommen).
fondness
2011-01-26, 17:15:10
Naja AMD hat aber genug andere Probleme und für besonders schnelles agieren sind die im CPU Segment nun wirklich nicht bekannt. Aber langfristig werden die hier auch einsteigen müssen.
x86 wird sich hier nicht durchsetzen und zwar alleine schon deshalb nicht, weil die ganzen anderen Semis Morgenluft wittern um das x86 Monopol von Intel zu brechen. Und im Endeffekt ist das auch das beste für alle. Hauptsache der x86 Müll verliert weltweit gesehen an Marktdurchdringung egal wie.
Intel bringt im 2H/2011 den 32nm Atom-Nachfolger, AMD ebenfalls noch 2011 den 28nm Nachfolger des gerade vorgestellten Bobcats. Beider zielen ausdrücklich auf den Tablet-Markt ab. Ich würde x86 nicht so schnell abschreiben, denn damit sollte man auch bei der Leistungsaufnahme an ARM dran sein, ARM muss es erstmal schaffen die Leistung auf das Niveau von Intel/AMD zu hieven.
LovesuckZ
2011-01-26, 17:40:49
Der Unterschied in der Leistungsaufnahme - vorallem beim IDLEN - ist riesig. Es interessiert nicht, dass x86 SoCs unter Last (deutlich) bessere Werte erbringen, wenn sie a)dabei deutlich mehr Strom benötigen und b)deutlich mehr Strom beim Nichtstun verbraten.
Tegra und Konsorten sind explizit auf geringem Stromverbrauch ausgerichtet. Um das mit x86 zu schaffen müssen Intel und AMD speziell für diesen Markt neue Produkte entwerfen. Intel hat die Ressourcen, bei AMD ist dies mehr als fragwürdig.
Langfristig werden wir so oder so sehen wie lange genau ein jegliches Geraet unter welchen Gebrauch-scenarios laeuft. Dass sollte aber nicht heissen dass power gating fuer NV nicht unter den hoechsten Prioritaeten fuer den naechsten SoC stehen sollte. Ueberhaupt wenn das Ding schon eine quad-core CPU enthaelt (obwohl es gut sein kann dass es erst T4 wird).
Laut nVidia wird Power-Gating unterstützt:
Dynamic Voltage and Frequency Scaling (DVFS): The Tegra 2 mobile processor also implements a highly advanced chip-level DVFS technique that at any given time is able to control the clock frequencies of six main system clocks and the voltage levels of up to two voltage rails. The clocks and voltage rails that are under DVFS control can be selected through software-controlled settings.
The basic concept of DVFS is to vary the core frequency and voltage of various processing units in the processor to control power consumption. The power consumed on a semiconductor chip is directly proportional to the operating frequency, and is also proportional to the square of the operating voltage.
When the processor is not working on any tasks, the frequency and voltage levels can be dropped to lower levels to greatly reduce idle power consumption. When an incoming task is detected by any one of the eight cores in NVIDIA Tegra, the event is reported to the global DVFS control block and the frequency and voltage levels are immediately increased to the appropriate operating values to ensure higher performance. The DVFS software intelligently raises the voltage and frequency only up to a level that is required to deliver the performance demanded by the application. The DVFS algorithm has very fine control over the frequency levels, and can increase or decrease frequency in steps as small as 1 MHz.
http://www.nvidia.com/content/PDF/tegra_white_papers/Bringing_High-End_Graphics_to_Handheld_Devices.pdf
YfOrU
2011-01-26, 18:01:31
Das ist keine zutreffende Beschreibung für Power Gating.
Was hier beschrieben wird ist die dynamische Anpassung von Frequenzen und Spannungen je nach Auslastung.
Power Gating -> der betreffende Funktionsblock ist ohne Spannung, also komplett aus.
Wenn man das so betrachtet ist selbst das Energiemanagement bei AMDs Bobcat komplexer (Power Gating ist weit schwieriger zu implementieren).
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.