Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs
Ailuros
2011-02-25, 11:28:23
da könnte T3 und Nova9600 ähnlich schnell werden oder?
Nova9600 hat nach ST selber seinen tape out angeblich in 2011 und T3 hatte wohl seinen tape out schon Ende 2010. Im allerbesten Fall liegt ein Jahr Unterschied zwischen den beiden. Wie dem auch sei die 2*A15@2.5GHz sollten oder koennten >100% schneller sein als 4*A9@1.5GHz und ueber die GPU im 9600 wollen wir lieber hier nicht diskuttieren in diesem Thread weil der Unterschied so brutal ist zu T3 dass es ziemlich laecherlich wird. Die Rogue MP GPU im 9600 duerfte die MP4 GPU im Sony NGP um ueber einen Faktor 4x schlagen.
Dural
2011-02-25, 11:30:16
bis A15 kommt ist T3 schon lannnggggeeee auf den markt! :)
T4 könnte ja die erste A15 SoC inkl. 28nm anfang 2012 werden, wer weis...
Ailuros
2011-02-25, 11:47:50
bis A15 kommt ist T3 schon lannnggggeeee auf den markt! :)
T4 könnte ja die erste A15 SoC inkl. 28nm anfang 2012 werden, wer weis...
Kal-El is a very impressive chip relative to the competition for 2011 tablets and smartphones, but NVIDIA also showed a roadmap that goes all the way up to 2014. Their goal was clearly to impress the press, but it had quite the opposite effect on me: if Kal-El in 2011 is a 5x boost over Tegra 2 but Wayne in 2012 is only a 2x boost despite being on 28nm, that means it's likely an even smaller architecture change. That also means the new GPU architecture, which was rumoured for this generation of hardware, possibly won't come until Logan in 2013, and neither will the Cortex-A15 (which will lead to interesting comparisons between 4xA9 vs 2xA15). The good news is that would allow Wayne to be cheap enough to target much more than just the ultra-high-end market. On the other hand, the competition certainly isn't standing still with their first 28nm chips...
http://www.beyond3d.com/content/articles/112
YfOrU
2011-02-25, 12:47:17
Das Problem der A15 lead partner ist IMO weniger die die Flaeche oder die fuer A15 projezierten Frequenzen sondern eher wann 28nm in anstaendigen Kapazitaeten ankommen kann. Ich will ernsthaft bezweifeln dass andere foundries einen Zauberstab gegenueber TSMC haben werden und Intel muss es erstmal schaffen einen ernsthaften Fuss im embedded Markt in die Tuer zu stecken.
Das wollte ich damit auch sagen denn wenn selbst Nvidia auf ihren Roadmaps das Leistungsplus für Wayne recht konservativ angibt steht dahinter wohl ein A9 und kein A15.
Was mich eben zu dem Schluss geführt hat das es eher ein optimierter Kal-El in 28nm wird. Nach den Erfahrungen der letzten Zeit wäre das eine vernünftige Strategie. Früher am Markt als die A15 Produkte und dabei im Vergleich auch noch günstig. Bei TI bin ich mir nicht so sicher ob man den geplanten und etwas vagen Zeitplan für Omap5 (2H/2012) wirklich einhalten kann. Sieht mir eher Richtung 2013 aus (Volumen) wobei ich davon ausgehe das TI den Omap 4 (wie beim Omap3 geschehen) in 28nm noch mal neu auflegen wird.
steht das schon fest ob Wayne A9 Kerne beitzen wird?
Das wäre doch ein guter Zeitpunkt um auf A15 + 28nm + neue GPU zu wechseln
Ailuros
2011-02-25, 13:46:47
steht das schon fest ob Wayne A9 Kerne beitzen wird?
Das wäre doch ein guter Zeitpunkt um auf A15 + 28nm + neue GPU zu wechseln
Wenn NV nur einen Faktor 2x Leistungssprung zu T3 behauptet klingt es lediglich nach Verfeinerungen und hoehere Frequenzen. Ich hab YfOrU schon mal gesagt dass er einen sehr guten Einblick in den embedded Markt hat; siehe seine Antwort oben und es ist durchaus keine schlechte Idee fuer NV auf Preisdruck zu gehen. Denk mal nach wie klein die Entwicklungskosten sind in dem Fall.
YfOrU wird wohl auch Recht haben was OMAP4 betrifft. 4440 ist afaik auf dem gleichen Prozess wie 4430; 4441 dann eben nicht ;)
YfOrU
2011-02-25, 13:50:35
Eine neue GPU wird es nicht (Faktor 2, improved). Das steht für Logan 2013 an und sieht für mich unter anderem deshalb für ersteres eher nach A9 aus.
btw wäre es nach TI Logik 46x0 ;)
Für Smartphones sind die A9 in 28nm auf jeden Fall (wie auch die neu aufgelegten Omap3) das perfekte Produkt. Günstig zu produzieren, etwas höhere Leistung und geringerer Verbrauch. Erst mit SoCs wie dem 36xx wurden leistungsfähige, aber sehr günstige Smartphones wie das Motorola Defy möglich.
Ailuros
2011-02-25, 13:56:47
Eine neue GPU wird es nicht (Faktor 2, improved). Das steht für Logan 2013 an und sieht für mich unter anderem deshalb für ersteres eher nach A9 aus.
btw wäre es nach TI Logik 46x0 ;)
PM fuer's letzte. Fuer 28nm GPUs wird es mich generell nicht wundern wenn diverse Hersteller diesmal fuer den GPU block um einiges mehr die area opfern werden als bis jetzt. 15-20mm2 koennten sogar die Norm sein.
YfOrU
2011-02-25, 14:35:56
Bei A15 und Tablett/Netbook werden die GPUs sehr sicher deutlich überproportional zunehmen.
Man braucht für die hohen Auflösungen (auch extern, über HDMI) mehr 3D Leistung, zum anderen kommt der GPGPU Zug langsam in Fahrt (Browser etc).
Dazu will mit 28nm auch die x86 Fraktion in den Tablett Markt und hier hat man (vergleichsweise) recht mächtige GPUs (AMD) integriert. A15 und Wichita (Bobcat 28nm 1/2Cores bei gleichbleibender GPU Leistung) wird eine interessante Geschichte.
Ailuros
2011-02-25, 14:40:38
Bei A15 und Tablett/Netbook werden die GPUs sehr sicher deutlich überproportional zunehmen.
Man braucht für die hohen Auflösungen (auch extern, über HDMI) mehr 3D Leistung, zum anderen kommt der GPGPU Zug langsam in Fahrt (Browser etc).
Dazu will mit 28nm auch die x86 Fraktion in den Tablett Markt und hier hat man (vergleichsweise) recht mächtige GPUs (AMD) integriert. A15 und Wichita (Bobcat 28nm 1/2Cores) wird eine interessante Geschichte.
Wieviele SPs soll den das letztere haben?
YfOrU
2011-02-25, 14:49:24
Von der GPU Leistung soll der kleinere der beiden 28nm Bobcat APUs auf dem aktuellen Stand bleiben. Also wohl weiter 80SP.
Der größere Richtung Faktor 2. Mit 28nm wäre es aber auch möglich die Anzahl der Einheiten zu reduzieren und den Takt im Gegenzug anzuheben. Aber ob man sich 40SP wirklich antut...realistischer sind weiter 80SP bei moderaten Taktraten. In 28nm sollte das kein Problem darstellen.
Ailuros
2011-02-25, 15:15:10
Von der GPU Leistung soll der kleinere der beiden 28nm Bobcat APUs auf dem aktuellen Stand bleiben. Also wohl weiter 80SP.
Der größere Richtung Faktor 2. Mit 28nm wäre es aber auch möglich die Anzahl der Einheiten zu reduzieren und den Takt im Gegenzug anzuheben. Aber ob man sich 40SP wirklich antut...realistischer sind weiter 80SP bei moderaten Taktraten. In 28nm sollte das kein Problem darstellen.
DX11 zur Seite, klingt das Ganze +/- auf OMAP5 GPU block Nivaeu wenn TI nicht ueber 200MHz taktet. AMD hat dann eben den zusaetzlichen DX11 Ballast, den man sonst in mehr Leistung investieren koennte. Eine zusaetzliche =/<DX10 Architektur zu entwickeln waere fuer AMD aber auch nicht mehr die Rede wert, weil es eben zu viel kosten wuerde.
Ich bin mir sicher dass AMD vorruebergehend nichts mit smart-phones vorhat. Bist Du sicher dass AMD tablets anzielt und nicht doch vielleicht eher netbooks?
fondness
2011-02-25, 15:38:03
DX11 zur Seite, klingt das Ganze +/- auf OMAP5 GPU block Nivaeu wenn TI nicht ueber 200MHz taktet. AMD hat dann eben den zusaetzlichen DX11 Ballast, den man sonst in mehr Leistung investieren koennte. Eine zusaetzliche =/<DX10 Architektur zu entwickeln waere fuer AMD aber auch nicht mehr die Rede wert, weil es eben zu viel kosten wuerde.
Je nach Blickwinkel ist es entweder DX11 Ballast oder DX11 Vorteil, denn an diesem Ballast werden auch die anderen über kurz oder lang nicht vorbei kommen.
Ich bin mir sicher dass AMD vorruebergehend nichts mit smart-phones vorhat. Bist Du sicher dass AMD tablets anzielt und nicht doch vielleicht eher netbooks?
Ja, sie erwähnten mehrmals ausdrücklich Tablets, und das wird auch so auf der Roadmap angedeutet:
http://img600.imageshack.us/img600/8913/574i30f2.png (http://img600.imageshack.us/i/574i30f2.png/)
Ailuros
2011-02-25, 20:25:08
Je nach Blickwinkel ist es entweder DX11 Ballast oder DX11 Vorteil, denn an diesem Ballast werden auch die anderen über kurz oder lang nicht vorbei kommen.
Stimmt schon; nur waere mir bei einer smart-phone GPU immer noch die Transistoren-Investition fuer Tessellation als Beispiel in mehr ~DX9/10 Leistung lieber. NGP's GPU block stellt bei nur 200MHz schon einen C50@280MHz in die Ecke in einigen Faellen.
Ja, sie erwähnten mehrmals ausdrücklich Tablets, und das wird auch so auf der Roadmap angedeutet:
http://img600.imageshack.us/img600/8913/574i30f2.png (http://img600.imageshack.us/i/574i30f2.png/)
Da muss es aber dann heftig runter mit dem Stromverbrauch; ergo hat wohl YfOrU wieder recht.
Label
2011-02-28, 09:51:39
Motorola Xoom Overclocked: 1.5GHz Dual Core Honeycomb! (http://forum.xda-developers.com/showthread.php?p=11695470)
50% Übertaktung des Tegra 2... Batterie-Laufzeit soll wohl (laut den Kommentaren) nicht sehr leiden...
Hugo78
2011-02-28, 13:35:08
Lol, na mal schauen wann die ersten LN2 reinkippen. T2@ 3Ghz ;D
Ailuros
2011-03-01, 07:45:31
Motorola Xoom Overclocked: 1.5GHz Dual Core Honeycomb! (http://forum.xda-developers.com/showthread.php?p=11695470)
50% Übertaktung des Tegra 2... Batterie-Laufzeit soll wohl (laut den Kommentaren) nicht sehr leiden...
"Sehr" ist verdammt relativ zum Gebrauch. Wie dem auch sei wird ein 50% OC die wifi browsing Autonomie nicht nur um sagen wir mal eine Stunde beinflussen. Uebertaktung auf einem mobilen Geraet (egal welchem) ist IMHO so oder so eine Schnappsidee. Die meisten Kerle in dem Thread fragen eine Reihe an bloeden Fragen ob der OC diverse sw Probleme magisch fixt.
Uebrigens bei der standard Helligkeit und Kontrast beim Xoom, ist der insgesamte Stromverbrauch schon damit auf default um einiges gedrosselt.
Label
2011-03-02, 19:46:40
Mal ein Preis (http://winfuture.de/news,61754.html) für Tegra 2 und Apple A4:
Die A4-CPU im iPad kostet Apple lediglich 11 Dollar, während Motorola mit 20,78 Dollar fast das Doppelte ausgeben muss.
LovesuckZ
2011-03-02, 19:50:11
Naja. Ist nicht ganz fair: Apple lässt bei Samsung fertigen. Motorola kauft bei nVidia ein, die bei TSMC fertigen lassen. Motorola spart sich ja auch die Entwicklungskosten für den Chip. Das ist nicht gerade wenig Geld.
Ailuros
2011-03-02, 20:25:37
Mal ein Preis (http://winfuture.de/news,61754.html) für Tegra 2 und Apple A4:
BOM fuer A4 ist sogar bei $8. Der eigentlich Vergleich zwischen T2 ist dann aber wohl eher mit A5.
Motorola hat auch keine Uebermenge bestellt.
Naja. Ist nicht ganz fair: Apple lässt bei Samsung fertigen. Motorola kauft bei nVidia ein, die bei TSMC fertigen lassen. Motorola spart sich ja auch die Entwicklungskosten für den Chip. Das ist nicht gerade wenig Geld.
Apple entwickelt ihre SoCs selber. Wenn ich Apple's Entwicklungskosten insgesamt mit NOKIA als Beispiel vergleichen wuerde koennte ich mir die Haare ausreissen.
Hugo78
2011-03-02, 20:27:53
Mal ein Preis (http://winfuture.de/news,61754.html) für Tegra 2 und Apple A4:
11$ pro Chip + 1Mrd. Entwicklungskosten für Apple.
Ailuros
2011-03-02, 20:34:28
11$ pro Chip + 1Mrd. Entwicklungskosten für Apple.
Weisst Du ueberhaupt fuer was die insgesamten Entwicklungskosten in dem Fall stehen?
http://finance.yahoo.com/news/RD-Spending-And-Profitability-investopedia-1590501442.html?x=0
Die Antwort zur obrigen Frage steht zwar nicht im obrigen Link drin aber zeig mir mal eine Firma die fast $12 Gewinn fuer jeden $1 an R&D schafft.
Hugo78
2011-03-02, 20:43:57
Gab da mal einen Artikel auf Heise was Apple für den A4 investiert hatte.
Und das waren so um die 1Mrd. USD.
Ailuros
2011-03-02, 20:53:49
Gab da mal einen Artikel auf Heise was Apple für den A4 investiert hatte.
Und das waren so um die 1Mrd. USD.
Steck das bitte aber so schnell wie moeglich wieder weg. Heise erzaehlt auch einen Haufen Scheiss wenn der Tag lang ist. Die Summe steigt natuerlich auf 1Mrd, aber es stecken eine Unmenge an Kosten drin, sonst waere A4 der teuerste SoC aller Zeiten. Ueber eine Milliarde hat die gesamte Fermi Familie gekostet, ergo zurueck auf den Teppich. Klingelt es vielleicht bei iOS? Ach und oeffne mal den Link oben und sehe nach was NOKIA an R&D bis vor kurzem noch verpulverte.
iFanatiker
2011-03-02, 21:56:19
Gab da mal einen Artikel auf Heise was Apple für den A4 investiert hatte.
Und das waren so um die 1Mrd. USD.
War eine absolute Fehlinformation bzw. wurden dort paar Unternehmensaufkäufe durch Apple als "Entwicklungskosten" aufgerechnet.
Die Summe dürfte sehr weit drunter liegen. Der A4 war dazu eh eine Kooperation mit Samsung (die wohl einen großteil der R&D übernommen haben dürfen). Der Hummingbird ist ja faktisch ein aufgepimpter A4.
Ailuros
2011-03-03, 08:20:33
War eine absolute Fehlinformation bzw. wurden dort paar Unternehmensaufkäufe durch Apple als "Entwicklungskosten" aufgerechnet.
Die Summe dürfte sehr weit drunter liegen. Der A4 war dazu eh eine Kooperation mit Samsung (die wohl einen großteil der R&D übernommen haben dürfen).
Samsung hat A4 nur hergestellt afaik.
Der Hummingbird ist ja faktisch ein aufgepimpter A4.
S5PC11x = SGX540, A4 = SGX535 (wobei der erste pro Takt ausserhalb von Fuell-raten limitierten Stellen um einiges schneller ist) neben all den anderen Unterschieden und dabei erstmal die A8 CPU Frequenz-differenz der beiden zur Seite.
So wie Du es Dir vorstellt haette Samsung hypothetisch nur von einem "fertigen" SoC die Frequenz auf 1GHz gepumpt, den 535 entfernt und den 540 reingepappt. Wenn's nur so einfach waere...
LovesuckZ
2011-03-06, 20:14:30
Huang über Tegra3:
And so at Mobile World Congress, we demonstrated our next generation mobile processor working almost perfectly. You can already use this thing right now; it’s a perfectly working processor and was the world’s first quad core mobile processor. It is the world’s first mobile processor that can support a video resolution that is the highest of any computer in the world today. Whatever resolution you want it to support, we support, basically extreme HD. And as we demonstrated the world’s first consumer product of any kind to decode 1440p at 30 frames a second. I don’t think anything with the exception of large custom-made projector players have the ability to do that. There is no consumer appliance device in the world that can do that today.
And we also demonstrated a performance that was five times that of our last generation and so we introduced Kal-El. In the process of introducing Kal-El we introduced the idea that we would bring to the marketplace three other processors over the course of the next two years. Just like we do with GPUs, there will be a new generation of architecture every year.
http://venturebeat.com/2011/03/04/qa-nvidia-chief-explains-his-strategy-for-winning-in-mobile-computing/
Interessanter Lesestoff - auch, warum man keinen weiteren x86 Chip bauen will.
Ailuros
2011-03-07, 20:33:02
I don’t want to waste the time of our people. I mean you get all this great talent, you convince them to come to Nvidia, and guess what you go get them to build: something that someone else has done. It’s no different from writing an article that’s exactly been written already. You want to tell a story in a new way, you want to add a new perspective. And so the perspective that we thought that we can really do is that in this area of energy efficient computing. The way you go about computing is radically different.
Was hat denn jeglicher Tegra so radikales im Vergleich zu jederem anderen SoC dort draussen? NVIDIA hat ihn gebaut vielleicht?
Well the question is can we add a unique perspective? That’s mobile computing on the whole account if we all haven’t figured it out that’s the future. If everyone hasn’t figured it out that’s because they’ve got their head in the sand. If graphics is important, if visual computing is important, we can add a perspective. If building a high performance computing device is important we can add a perspective.
Von der wir bis jetzt nichts besonderes gesehen haben, ausser dass sie ARM eher einen Gefallen machen.
That’s the amazing thing. That’s why it’s even more over than we think. The consumers aren’t going to worry about that at all. Nobody ever picked up an iPhone goes, I wonder if this has an x86 or an ARM inside. I just know it’s an iPhone. I know, that’s how sad it is. That says everything.
Nett. Na wenn das nicht zum ersten Paragraph oben zum Widerspruch kommt. Natuerlich schert es den Otto-normalverbraucher nicht; wenn er ein Samsung Handy kauft dann weiss die Mehrzahl dass es ein Samsung Handy ist.
Our priorities are Windows first, Android second.
Haette ich auch nicht anders erwartet. Es wird auch nicht jeder auf Anhieb verstehen.
No. Apple has to get to a point where the number of projects that they have in the company exceeds their capacity as a company to build internally.
Nur wenn Apple nicht weiterwachsen will und wird in der Zukunft.
Mostly Nokia, when I say Nokia I mean I shouldn’t say it that way, I would say ST Ericsson. ST Ericsson is almost 100 percent of Nokia. Used to be TI. I will say even maybe some TI still.
*kopfklatsch* ok kein Kommentar....
We are all about energy-efficient computing.
Nicht Leistung? *evilgrin*
Okay, I moonwalked a little. Dan (Vivoli, senior vice president of marketing at Nvidia) and I hugged. Dan wept. I was happy, he wept, he wept, it was noticeable, he wept. He was that happy, he wept.
Es wird zunehmend feucht bei NV in den letzten Jahren LOL :D
LovesuckZ
2011-03-08, 21:05:42
Neue Roadmap:
Ailuros
2011-03-10, 12:24:15
http://www.fudzilla.com/home/item/22070-investors-not-keen-on-nvidia%E2%80%99s-computing-plans
Ailuros
2011-03-15, 00:26:27
Ueber 4 Seiten an Apple relative Posts wurden in den Apple SoC Thread verschoben: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=499927&page=4
Wer ueber Apple, A5 oder jegliches anderes relevante diskuttieren will , bitte dann im anderen Thread.
Sonst damit der Post nicht lehr ausgeht: http://www.dailytech.com/article.aspx?newsid=21126
stickedy
2011-03-22, 18:44:33
Samsung hat anscheinend das Galaxy Tab 10.1 überarbeitet und sowohl dünner als auch günstiger gemacht. Ist da immer noch Tegra2 drin?
Ailuros
2011-03-22, 19:12:09
Samsung hat anscheinend das Galaxy Tab 10.1 überarbeitet und sowohl dünner als auch günstiger gemacht. Ist da immer noch Tegra2 drin?
Keine Ahnung irgend einen Link?
***edit: ok hier: http://www.dailytech.com/article.aspx?newsid=21200
Beide duerften T2 tablets sein.
stickedy
2011-03-22, 21:03:15
Are you sure?
TheInquirer sagt, dass das "alte" GalaxyTab trotzdem noch verkauft werden soll bevor es durch das neue ersetzt wird: http://www.theinquirer.net/inquirer/news/2036199/samsung-galaxy-tab-101-thinner-lighter
Samsung hatte doch damals nicht allzuviel Tegras bestellt, evtl. hat man damit wirklich nur überbrückt?
Ailuros
2011-03-23, 06:52:53
Are you sure?
Sicher bin ich mir ueber gar nichts, aber....
TheInquirer sagt, dass das "alte" GalaxyTab trotzdem noch verkauft werden soll bevor es durch das neue ersetzt wird: http://www.theinquirer.net/inquirer/news/2036199/samsung-galaxy-tab-101-thinner-lighter
Samsung hatte doch damals nicht allzuviel Tegras bestellt, evtl. hat man damit wirklich nur überbrückt?
....in so geringer Zeit eine schnelle Neuauflage und das auf Honeycomb klingt mir dann schon nach einem kleinen Wunder wenn beide auf Exynos basieren wuerden. Dass Samsung mit T2 ueberbrueckt ist klar, zu welchem Grad ist noch unbekannt. Es wird ja nicht lange dauern bis die ersten Geraete erscheinen und ein einfacher Eintrag in der Kishonti Datenbank zeigt dann schon was drinsteckt.
In der Zwischenzeit versucht Samsung wohl eine grosse Menge an Galaxy S stock loszuwerden. Hier werden momentan alle Suzuki Karren mit einem Galaxy S tab im Paket verkauft.
***edit:
Samsung is playing the ambiguous SoC game again and only referring to these two tablets as having a dual-core applications processor. I'm guessing we'll see a mix of Tegra 2 and Samsung Exynos based versions depending on region. Samsung's 8.9 prototypes at the show floor had NVIDIA's Tegra 2 under the hood.
http://www.anandtech.com/show/4233/samsungs-galaxy-tab-101-89-smaller-than-ipad-2-competitively-priced
Ailuros
2011-03-24, 14:34:24
http://www.xbitlabs.com/news/mobile/display/20110323185933_Sony_Reportedly_Plans_to_Release_a_Smartbook.html
LovesuckZ
2011-04-20, 16:29:05
p.s. I know everyone loved my Android Insider rumor reports so I’ll leave you with one final tip. LG Nexus 3 with Tegra 3 by Christmas…
http://androidandme.com/2011/04/news/android-and-me-and-you-aka-where-did-taylor-go/
LovesuckZ
2011-05-09, 15:20:20
NVIDIA to Acquire Baseband and RF Technology Leader Icera
(http://pressroom.nvidia.com/easyir/customrel.do?easyirid=A0D622CE9F579F09&version=live&releasejsp=release_157&xhtml=true&prid=753498)
Ailuros
2011-05-09, 21:23:30
Smart move; war aber auch eine Einbahnstrasse.
aylano
2011-05-09, 22:13:40
Ich finde, dieser Kauf war ein Muss um im Smartphone-Markt mithalten zu können.
Intel kaufte ja auch die Infineon-Handysparte(, als sie ihr Versagen im Handy-Markt erkannt haben.)
Dural
2011-05-10, 09:13:36
und ich finde das NV langsam aber sicher zu viel auf die doffen Tegra setzt... Ich möchte von NV lieber Fette GPUs die was leisten als so klein kram zeug ;)
ich hoffe jetzt mal das sich NV bewusst bleibt wo sie zu hause sind!
stickedy
2011-05-10, 10:11:45
Die Zeit der GPUs geht halt zu Ende. Die IGPs werden immer leistungsfähiger und wandern v.a. in absehbarer Zeit in jede verkaufte CPU, d.h. der potentielle Markt für nVidia wird immer kleiner. Da muss man natürlich reagieren und wenn sich der Mobilmarkt so für sie entwickelt wie nVdia es hofft, dann kannst Du drauf wetten, dass über kurz oder lang die Entwicklung von Standalone GPUs deutlich heruntergefahren wird. Das hängt natürlich auch davon ab, wie sich das ARM-Server-Projekt entwickelt: Da man da gleichzeitig auch GPUs mit verkaufen will ist es dann imho essentiell für die GPU-Sparte, dass das gut läuft.
LovesuckZ
2011-05-10, 11:12:26
Also - ich bin bereit, das Sterben der diskreten Karten mitzuerleben. Wer möchte nicht sehen, wie AMD annährend $400 Umsatz verliert und ATi bis auf einen Wert von $0 abschreiben darf, da sie gegen Intel antreten, die ihre GPU-Technik verschenken oder sogar mit Verlust verkaufen.
Die Kurzsichtigkeit der Leute im Internet ist immer wieder überraschend.
stickedy
2011-05-10, 11:18:47
Was hat denn das eine mit dem anderen zu tun? Und was hat das mit "Kurzsichtigkeit" zu tun? Der Markt verändert sich nun mal, die Integration schreitet immer weiter voran. Ob man das gut oder schlecht findet, ist irrelevant, es ist einfach eine Tatsache.
LovesuckZ
2011-05-10, 11:27:45
Was hat denn das eine mit dem anderen zu tun? Und was hat das mit "Kurzsichtigkeit" zu tun? Der Markt verändert sich nun mal, die Integration schreitet immer weiter voran. Ob man das gut oder schlecht findet, ist irrelevant, es ist einfach eine Tatsache.
Der Märkt ändert sich nicht. Integration gab es spätesten seitdem es IGPs gibt. Und trotzdem werden immer stärkere diskrete Grafikkarten verkauft. Es ist mir ungeheuerlich, wieso die Leute im Internet nicht begreifen, dass die Integration vom Mainboard in die CPU eben keine Veränderung bringen wird.
/edit: Und Integration wird nie richtig abgeben, weil die Kosten und Limitierungen viel zu stringent sind. Mittelklasse-GPUs wie Juniper sind schon 160mm^2 groß. Das verbaut niemand freiwillig neben eine CPU. Dazu gesellt sich ein Bandbreitenproblem. Recheneinheiten kann man relativ einfach erhöhen, die Beschränkung der Bandbreite zwischen CPU und Speicher dagegen nicht.
stickedy
2011-05-10, 13:17:11
Ach, der Markt ändert sich nicht? Der Markt ändert sich schon seit Sandy Bridge dramatisch, Fusion wird das ganze noch beschleunigen. Wenn Du das nicht sehen oder wahrhaben willst, ist mir das persönlich eigentlich egal.
BTW: Was genau soll eigentlich der Halbsatz "Es ist mir ungeheuerlich,..." bedeuten? Deutsch ist das jedenfalls nicht...
Anyway, ich habe auch nie behauptet, dass in Zukunft keine GPUs mehr verkauft werden, nur der Markt dafür wird drastisch kleiner. Und ich rede da auch nicht von High-End-Markt, sondern vom gesamten Markt. Und das ist das Problem ja an sich: Die Kosten für die Entwicklung werden immer höher und dieses Kosten muss man dann hinterher wieder reinbekommen (und noch nen ganzen Batzen zusätzlich, damit sich das lohnt).
Das hat sich früher relativ einfach ergeben, in dem die Low-End- und Mittelklasse GPUs das fette Geld eingebracht haben. Diese Teilmärkte werden in Zukunft komplett (Low-End) bzw. größtenteils (Mid-Range) weg fallen. High-End ist absolut gesehen unbedeutend. Dazu kommt dann noch immer mehr steigende Anteil von Notebooks in einem Preisbereich wo eben keine zusätzlichen GPUs verbaut werden.
Es stehen also deutlich steigende Kosten immer weniger Einnahmen gegenüber. Das muss man kompensieren. NVidia versucht das in dem die GPUs in Server gedrückt werden sollen mit Hilfe eigener CPUs. Wenn das glückt dann hat man auf diese Weise den Markt wieder breiter gemacht. Wenn das nicht klappt, wird sich nVidia früher oder später (je nachdem auch wie sich der Mobilmarkt entwickelt und wo es mehr Geld zu verdienen gibt) aus dem High-Ende-Geschäft zurückziehen.
Das nVidia versucht den Markt breiter zu gestalten, v.a. für High-End sieht man doch auch schön an der Tatsache, dass man plötzlich auch SLI für jeden Chipsatz anbieten kann (etwas was früher ja angeblich absolut unmöglich war :)) wenn der Mainboard-Hersteller entsprechend Kohle abdrückt. Gut, erstens bekommt man Geld für nichts und zweitens erhöht es die Chance, die ein- oder anderen High-End-Karte zusätzlich zu verkaufen - ebenfalls mit fast 0 Aufwand.
LovesuckZ
2011-05-10, 14:03:17
Ach, der Markt ändert sich nicht? Der Markt ändert sich schon seit Sandy Bridge dramatisch, Fusion wird das ganze noch beschleunigen. Wenn Du das nicht sehen oder wahrhaben willst, ist mir das persönlich eigentlich egal.
Wo denn? In Q1 2011 haben AMD und nVidia zusammen mehr diskrete Grafikkarten verkauft als in Q4 - trotz dem die Anzahl an verkauften PCs zurückgegangen ist.
Anyway, ich habe auch nie behauptet, dass in Zukunft keine GPUs mehr verkauft werden, nur der Markt dafür wird drastisch kleiner. Und ich rede da auch nicht von High-End-Markt, sondern vom gesamten Markt. Und das ist das Problem ja an sich: Die Kosten für die Entwicklung werden immer höher und dieses Kosten muss man dann hinterher wieder reinbekommen (und noch nen ganzen Batzen zusätzlich, damit sich das lohnt).
Und wo wird der gesammte Markt kleiner? Diese Aussage macht ja keinen Sinn, weil man dann gleichzeitig annehmen müsste, dass auch der Markt für CPUs über i3 oder Liano kleiner wird, weil deren iGPU auf Low-End Niveau ist und es keinen Sinn macht, High-End CPUs mit Low-End CPUs zu koppeln.
Man sollte nämlich immer eins nicht vergessen: Bei AMD und Intel handelt es sich um CPU-Firmen. Die haben keine Ressourcen ein Großteil des Dies mit GPU-Funktionalitäten zu füllen. Bulldozer soll irgendwo um 300mm^2 liegen und kommt sogar ohne iGPU auf den Markt. Sandy Bridge kommt auf 230mm^2 und bietet eine GPU-Leistung auf Niveau des g210/5450.
Das hat sich früher relativ einfach ergeben, in dem die Low-End- und Mittelklasse GPUs das fette Geld eingebracht haben. Diese Teilmärkte werden in Zukunft komplett (Low-End) bzw. größtenteils (Mid-Range) weg fallen. High-End ist absolut gesehen unbedeutend. Dazu kommt dann noch immer mehr steigende Anteil von Notebooks in einem Preisbereich wo eben keine zusätzlichen GPUs verbaut werden.
Der Low-End Markt war schon immer bedroht durch IGPs. Intel hält seit Jahren einen Anteil von 50-60%. Und trotzdem verkaufen nVidia und AMD immer mehr diskrete Grafikkarten. Sandy Bridge erreicht das Niveau des heutigen Low-Ends. Liano wird irgendwo in der Nähe liegen, bietet aber die deutlich schlechtere CPU. Die beiden sind Welten vom "Mid-Range" entfernt. Und würde Low-End reichen, müsste der diskrete Markt so gut wie tod sein, da eine Leistungssteigerung nicht vom Markt angenommen hätte werden dürfen. Komischerweise ist dies nicht der Fall und neuere, stärkere Karten werden verlangt und verkauft.
Es stehen also deutlich steigende Kosten immer weniger Einnahmen gegenüber. Das muss man kompensieren. NVidia versucht das in dem die GPUs in Server gedrückt werden sollen mit Hilfe eigener CPUs. Wenn das glückt dann hat man auf diese Weise den Markt wieder breiter gemacht. Wenn das nicht klappt, wird sich nVidia früher oder später (je nachdem auch wie sich der Mobilmarkt entwickelt und wo es mehr Geld zu verdienen gibt) aus dem High-Ende-Geschäft zurückziehen.
Tja und genau hier hört eure Logik auf Sinn zu machen: Existiert kein diskreter Markt mehr, wird AMD kein Geld mehr für die Entwicklung ihrer Fusion-Podukte haben und von Intel zerdrückt werden. Woher glaubst du, kommt das Geld, dass AMD gleichzeitig an GPUs und CPUs werkeln kann? Bestimmt nicht alleinig durch den Verkauf der CPUs. Denn die werfen immer und immer weniger Geld ab. Intel ist sogar in der Lage ihre GPU-Technik vollkommen kostenlos abzugeben. Denkst du, dass AMD das Geld hat ihnen es gleichzutun? AMD wird nach eurer Logik genauso stark in Mitleidenschaft gezogen werden. Und AMD hat kein Workstation und High-End-Gaming Markt. AMD lebt von Low-End und Mid-Range. Der erste Verlierer wird AMD sein. Und am Ende verliert jeder, der Auswahl am PC haben will. Intel-CPU + Intel-CPU + Intel-Chipsatz. Klingt wie eine Konsole.
Der Verlierer der Integration der GPU in die CPU wird AMD sein. Und ich hoffe für den Markt, dass AMD nicht denkt, dass sie diesen Weg überleben werden, wenn sie nicht ihre CPUs deutlich verbessern. Denn wenn die GPU-Leistung von Sandy Bridge angeblich reichen sollte, dann wird Liano aber sowas von floppen.
Und jetzt schließt sich der Kreis bzgl. ARM. Wenn Low-End GPU-Leistung im x86 Markt vollkommen ausreichend sein werde, so wird dies erst recht im ARM-Markt gelten. Gleichzeitig wird die Einstiegshürde in den "x86" Markt für die SoC-Hersteller deutlich kleiner. Man muss also keinen Master haben um zu erkennen, wenn im x86 Markt generell kein Wert auf Leistungsfähigkeit gelegt wird, dass ARM-SoC in absehbarer Zeit ein deutlicher Konkurrent für Intel und AMD werden wird.
stickedy
2011-05-10, 14:20:20
Hab ich jemals irgendwo geschrieben, dass AMD nicht in Mitleidenschaft gezogen werden wird?
fondness
2011-05-10, 14:22:40
Der erste Verlierer wird AMD sein.
Herrlich, bei LovesuckZ ist immer AMD der Verlierer. Selbst wenn es darum geht das der diskrete GPU-Markt kleiner wird, und NV faktisch nur von den GPUs lebt, ist natürlich AMD der erste Verlierer, niemals Nvidia. Diese allgemeingültige Schlussfolgerung muss sich ja mit unfassbarer Intensität in dein Gehirn eingebrannt haben. ;D
LovesuckZ
2011-05-10, 14:31:19
Hab ich jemals irgendwo geschrieben, dass AMD nicht in Mitleidenschaft gezogen werden wird?
Da muss man natürlich reagieren und wenn sich der Mobilmarkt so für sie entwickelt wie nVdia es hofft, dann kannst Du drauf wetten, dass über kurz oder lang die Entwicklung von Standalone GPUs deutlich heruntergefahren wird. Das hängt natürlich auch davon ab, wie sich das ARM-Server-Projekt entwickelt: Da man da gleichzeitig auch GPUs mit verkaufen will ist es dann imho essentiell für die GPU-Sparte, dass das gut läuft.
Wie gesagt: Der diskrete Markt geht nirgendwo hin. Und wenn er weggeht, dann viel Spaß mit dem Intel-Monopol im CPU und GPU-Markt.
Herrlich, bei LovesuckZ ist immer AMD der Verlierer. Selbst wenn es darum geht das der diskrete GPU-Markt kleiner wird, und NV faktisch nur von den GPUs lebt, ist natürlich AMD der erste Verlierer, niemals Nvidia. Dieses allgemeingültige Schlussforlgerung muss sich ja mit unfassbarer Intensität in dein Gehirn eingebrannt haben. ;D
Na, wer wird wohl der erste Verlierer sein:
Eine Firma, die 60% des diskreten Grafikkartenmarkt hat, davon ein Großteil im Mid-Range bis High-End, wo die iGPUs keine Gefahr ausstrahlen und gleichzeitig mehr als 90% des Workstationmarktes oder die, die von Low-End und Mid-Range (Desktop wie Notebook!) lebt und gleichzeitig die "diskrete" GPU-Technik für Fusion verwenden, um mit Intel mitzuhalten, die ihre GPU-Technik für Lau an jede CPU flanzt. Viel Spaß beim Knobeln.
fondness
2011-05-10, 14:38:54
Na, wer wird wohl der erste Verlierer sein:
Eine Firma, die 60% des diskreten Grafikkartenmarkt hat, davon ein Großteil im Mid-Range bis High-End, wo die iGPUs keine Gefahr ausstrahlen und gleichzeitig mehr als 90% des Workstationmarktes oder die, die von Low-End und Mid-Range (Desktop wie Notebook!) lebt und gleichzeitig die "diskrete" GPU-Technik für Fusion verwenden, um mit Intel mitzuhalten, die ihre GPU-Technik für Lau an jede CPU flanzt. Viel Spaß beim Knobeln.
Da jetzt ins Details zu gehen bringt nichts, der Punkt ist selbst wenn es NV nur halb so stark trifft wie AMD, wäre es für sie wesentlich schmerzhafter, da sie fast ausschließlich von den GPUs leben, während die GPUs bei AMD nur einen Bruchteil des Umsatzes ausmachen. Und warum genau sollte man in einer Workstation nicht auch mit einer iGPU auskommen, das ist doch ohnehin fast nur eine Sache der Treiber. Ich arbeite seit kurzem auf einer Quadro 2000D, da ist auch nur ein abgespeckter GF106 verbaut, damit kann man problemlos auch große Projekte in komplexe CAD-Programme wie Pro/ENGINEER Wildfire betreiben. Auch mit meiner wesentlich älteren Quadro FX 580 hatte ich absolut keine Probleme, gebremst hat die CPU.
LovesuckZ
2011-05-10, 15:18:56
Da jetzt ins Details zu gehen bringt nichts, der Punkt ist selbst wenn es NV nur halb so stark trifft wie AMD, wäre es für sie wesentlich schmerzhafter, da sie fast ausschließlich von den GPUs leben, während die GPUs bei AMD nur einen Bruchteil des Umsatzes ausmachen.
Diskrete Grafikkarte != Diskrete Grafikkarte
nVidia verkauft im Mid-Range - High-End deutlich mehr als AMD. AMD ist die Firma, die ein Großteil ihrer Produkte im Low-End bis Mid-Range verkauft. Das spiegelt sich auch genau 1:1 in ihren Ergebnissen wider. nVidia wird nicht annährend so stark getroffen werden wie AMD, denn Intel und Fusion gehen genau in diesen Bereich. AMD verliert also als erstes zu 90% ihres Marktes. Dadurch verlieren sie Geld, dass in die Weiterentwicklung der GPU stecken müssen. Es ist daher nur eine Frage der Zeit bis Intel sie auch hier überholt.
nVidia dagegen wird immer wegen Quadro und Tesla High-End produzieren. Gleichzeitig werden sie diese GPUs für den diskreten Markt nehmen. Und von unten kommt Tegra.
Und AMD benötigt "ATi". Sie sind mit ihren CPUs nicht konkurrenzfähig genug. Daher verdienen sie auch kaum Geld mit ihnen. "ATi" ist doch ihr großes Marketingpferd, wenn es um Liano geht. Wird interessant zu sehen sein, wie Liano abkackt, weil die benötigte Leistungsfähigkeit der GPU durch Intel definiert wird - jedenfalls ist es das, was hier gesagt wird.
Deswegen ist es so lustig zu sehen, wie die Leute nur nVidia betrachten. nVidia hat sich darauf eingestellt, dass ihr Kerngeschäft bedroht wird. Deswegen Tesla und Tegra. Und mit Tegra können sie sogar in den Low-End Markt einsteigen, der ihnen durch AMD und Intel "weggenommen" wird. Und dann können wir uns ja mal fragen, mit welchem Produkt AMD diesen Verlust ausgleichen wird, denn sie verlieren zu erst durch Fusion/Intel einen diskreten Karten- und durch ARM-SoC einen Plattformenverkauf.
Dural
2011-05-11, 12:55:27
dürfte schon so sein das die IGP eher AMD selber mehr schaden als dies bei NV der fall ist.
NV bekommt ja von Intel so wie so jedes Jahr irgendwelche Entschädigungs Zahlungen.
Aber letztendlich wird sich rein gar nichts ändern, OEMs werden nach wie vor auf IGP setzen die nach wie vor nicht auf derselben Höhe wie diskrete GPUs sind (es auch nie sein werden) und ob die jetzt im Chipsatz oder CPU integriert sind ist komplett egal, da schon länger fast ausschliesslich beide Komponente von ein und demselben Hersteller kommen. Die "SIS" zeiten sind für NV schon länger vorbei... Das dumme für AMD ist halt nur das die nicht mal 20% Marktanteile bei den CPUs haben = ihr Markt für IGP ist deutlich kleiner als der von Intel! Und da Intel sogar selber NV als diskrete Grafikkarten Hersteller empfiehlt kann man sich ja vorstellen wer bei den 80% am meisten "richtige" Grafikkarten verkauft ;)
Klar die Marktanteile der "GPUs" werden sich und haben sich bereits deutlich geändert... Das sind aber auch nur Zahlen und man weis ja genau das Intel die Chipsätze mit IGP für lau Durchschieben und es jetzt bei den IGP in den CPUs weiter führen, mit anderen Worten das ist ein Markt der gar nicht rentabel sein kann und den man halt einfach so mit nimmt.
stickedy
2011-05-11, 17:50:06
Deswegen ist es so lustig zu sehen, wie die Leute nur nVidia betrachten. nVidia hat sich darauf eingestellt, dass ihr Kerngeschäft bedroht wird. Deswegen Tesla und Tegra. Und mit Tegra können sie sogar in den Low-End Markt einsteigen, der ihnen durch AMD und Intel "weggenommen" wird. Und dann können wir uns ja mal fragen, mit welchem Produkt AMD diesen Verlust ausgleichen wird, denn sie verlieren zu erst durch Fusion/Intel einen diskreten Karten- und durch ARM-SoC einen Plattformenverkauf.
Du sag mal, liest Du auch, was andere schreiben? Ich hab vor x Beiträgen doch schon genau das gesagt: nVidia sucht sich neue Märkte
Also warum zum Geier diskutierst Du mit mir über etwas, dass Du selber so siehst?
LovesuckZ
2011-05-11, 18:01:48
Du sag mal, liest Du auch, was andere schreiben? Ich hab vor x Beiträgen doch schon genau das gesagt: nVidia sucht sich neue Märkte
Also warum zum Geier diskutierst Du mit mir über etwas, dass Du selber so siehst?
Ich denke, dass ist mein Problem. Ich lese die Postings und reagiere nicht nur auf einzelne Wörter...
Die Zeit der GPUs geht halt zu Ende. Die IGPs werden immer leistungsfähiger und wandern v.a. in absehbarer Zeit in jede verkaufte CPU, d.h. der potentielle Markt für nVidia wird immer kleiner. Da muss man natürlich reagieren und wenn sich der Mobilmarkt so für sie entwickelt wie nVdia es hofft, dann kannst Du drauf wetten, dass über kurz oder lang die Entwicklung von Standalone GPUs deutlich heruntergefahren wird. Das hängt natürlich auch davon ab, wie sich das ARM-Server-Projekt entwickelt: Da man da gleichzeitig auch GPUs mit verkaufen will ist es dann imho essentiell für die GPU-Sparte, dass das gut läuft.
Es zeigt, dass du keine Ahnung hast, wie der Markt sich entwickelt hat und wie er sich entwickeln wird.
Weißt du, dass sich auf eine Marktentwicklung einstellen nicht bedeutet, einen Markt zu verlassen? AMD hat auch ATi gekauft und komischerweise stellt die Firma immernoch CPUs her.
stickedy
2011-05-11, 18:17:39
Wenn Du mir jetzt noch verrätst, inwiefern sich das was Du in meinem Beitrag fett markierst hast mit dem was Du drunter geschrieben hast widerspricht, können wir vielleicht sogar wieder eine Diskussionsbasis bekommen.
Aktuelle drehen wir uns im Kreis, da Du in eigenen Worten das wiederholst, was ich schon schrieb...
Hugo78
2011-05-11, 18:19:21
Mädels, egal wie auch immer NV auf sich bessernde IGPs von Intel und AMD reagiert und ob sie was einbüssen oder auch nicht.
Tegra wird dem mobilen Segment erhalten bleiben und für schnellere Sachen, wo Stromverbrauch nicht sooo dramatisch wichtig ist, kommt halt Projekt Denver.
Und wenn MS seinen Job gut macht, mit Win8, wird auch Nvidia für PC-Desktops eigene "APUs" anbieten können. (irgendwann ein mal)
Ist also gehopst wie gesprungen.
LovesuckZ
2011-05-11, 18:25:14
Wenn Du mir jetzt noch verrätst, inwiefern sich das was Du in meinem Beitrag fett markierst hast mit dem was Du drunter geschrieben hast widerspricht, können wir vielleicht sogar wieder eine Diskussionsbasis bekommen.
Aktuelle drehen wir uns im Kreis, da Du in eigenen Worten das wiederholst, was ich schon schrieb...
Merkst du nicht, dass der diskrete Markt nirgendwo hingeht noch deutlich kleiner wird? Du kommst her und behauptest, dass nVidia Probleme bekommen und die Entwicklung und Produktion für dGPU herunterfahren werde ohne auch nur einen Überblick über den Markt, die Entwicklung und das Potential zu haben.
Ich finde es sowieso absurd Intel und AMD irgendeine starke Bedeutung zu geben. Der integrierte wie diskrete Low-End Markt wird von allem gefährdet, dass potentielle Käufer von x86 ablotsen kann. nVidia verlagert also ihren Low-End Markt (dGPU, iGPU) einfach um. Das ist eine interessante Strategie, denn ironischerweise sind sie damit erfolgreicher als AMD und Intel, die bis heute schlechter darstehen, um gegen ARM im Low-End konkurrieren zu können.
Eher sind Konsolen für nVidia gefährlich, weil diese ihnen die Leute wegschnappen, die zum Großteil ihre Grafikkarten kaufen - Spieler.
YfOrU
2011-05-11, 19:51:55
Merkst du nicht, dass der diskrete Markt nirgendwo hingeht noch deutlich kleiner wird?
Ich will mich nur auf diese Aussage beziehen:
Der Trend bewegt sich seit Jahren bei Consumer und Business gleichermaßen vom Desktop zum Notebook. Also mobil + Dock bzw. DTR.
Der Anteil diskreter GPUs ist im Bereich der Notebooks traditionell im Vergleich zum Desktop geringer. Hier war zwar in der Vergangenheit (selbst bei Business Produkten) zeitweise eine Tendenz nach oben zu erkennen, das lag aber an den miserablen Intel IGPs die nicht einmal grundlegende Anforderungen erfüllen konnten.
Das sind beides nicht zu ignorierende Fakten.
Gleiches war aber auch beim Desktop der Fall. Auch hier bewegt man sich abseits von aktuellen 3D Spielen heute mit einem IGP auf einem akzeptablen Niveau. Sowohl was Features, Konnektivität und Software angeht.
stickedy
2011-05-11, 19:57:33
Was denn nun? Zuerst behauptest Du, des diskrete GPU-Markt würde sich nicht verändern und einen Absatz weiter hingegen behauptest Du, dass der diskrete Low-End-Markt kleiner wird. Entscheide dich!
Es sind verschiedene Faktoren, die den diskreten Markt kleiner werden lassen. Die CPUs mit integrierter GPU sind nur ein Faktor davon. Du kannst es drehen und wenden, der Markt wird kleiner werden. Der Trend geht ganz klar hin zu Komplett-Anbietern. Das gefällt mir genauso wenig wie dir, aber ändern können das weder Du noch ich...
nVidia hat jahrelang mit seiner Strategie (starke diskrete GPUs für Desktop, Workstations und Mobile) Erfolg gehabt. Warum meinst Du denn, dass nVidia sich nun "plötzlich" so stark in Richtung Server und Handy/Tablet-Segment orientiert? Das hat doch nur den Grund, dass Zukunftsaussichten im angestammten GPU-Bereich nicht mehr die besten sind. Und das liegt dann bestimmt nicht daran, dass der diskrete GPU-Markt in Zukunft jedes Jahr zweistellig wächst... Einfach mal mitdenken :)
Was nVidia macht ist das richtige - aus ihrer Sicht.
=Floi=
2011-05-11, 20:15:08
LS, du hast da ganz komische ansichten und für einen pc gamer mit einer richtigen grafikkarte stellt eine konsole keine option dar.
nvidia hat gute standbeine und steht auch gut da. Das oem geschäft wird sie sicherlich treffen und auch das trug sicherlich zur verbreitung und zum ergebnis bei. Ich denke die neuausrichtung wird auch deshalb vollzogen, weil man hier auch richtig viel geld verdienen kann und es hier auch noch richtiges wachstum über jahre geben wird.
Ailuros
2011-05-11, 21:00:12
Eine integrierte GPU ist auch eine GPU mal ganz grosszuegig gesehen, obwohl sie nicht besonders entfernt ist von NV/AMD IGP Schlappschwaenzen.
Dumme Frage wird vielleicht der standalone GPU Markt schrumpfen weil desktops mit SoC Schlappschwaenzen auftauchen (tud mir leid aber low details bei 1024*768 ist fuer mich kein ernsthaftes gaming....) oder weil die Kundschaft mit der finanziellen Krise eben nicht gleichzeitig einen PC, ein tablet, ein notebook und ein smartphone leisten kann und die meisten irgendwo einen Strich ziehen?
Je mehr mobile Geraete "in" werden und je staerker sie werden desto mehr wird das Interesse fuer diese wachsen.
Stickedy,
Das hat doch nur den Grund, dass Zukunftsaussichten im angestammten GPU-Bereich nicht mehr die besten sind. Und das liegt dann bestimmt nicht daran, dass der diskrete GPU-Markt in Zukunft jedes Jahr zweistellig wächst... Einfach mal mitdenken.
Der standalone GPU Markt wird mit Sicherheit sich NICHT so steigern in der Zukunft wie der smart-phone Markt. Denk mal Du nach wie gross das Verkaufs-potential im embedded Markt sein kann und NVIDIA soll auf der Wartebank irgend eine bloede Straafe aussitzen? Natuerlich will jeder der einen Blitzen von Grafik versteht auch in dem Markt mitmachen, ueberhaupt wenn sich die sw Entwickler um einen Platz fuer fruitco's application store draengeln.
NV wuerde in den embedded Markt auch mitmischen wenn der standalone Markt massiv wachsen wuerde durch die Jahre.
LovesuckZ
2011-05-12, 16:46:32
Was denn nun? Zuerst behauptest Du, des diskrete GPU-Markt würde sich nicht verändern und einen Absatz weiter hingegen behauptest Du, dass der diskrete Low-End-Markt kleiner wird. Entscheide dich!
Es sind verschiedene Faktoren, die den diskreten Markt kleiner werden lassen. Die CPUs mit integrierter GPU sind nur ein Faktor davon. Du kannst es drehen und wenden, der Markt wird kleiner werden. Der Trend geht ganz klar hin zu Komplett-Anbietern. Das gefällt mir genauso wenig wie dir, aber ändern können das weder Du noch ich...
Der Markt wird kleiner gilt einzig und allein nur für Low-End. Der diskrete Markt muss jedoch als "ganzes" überhauptet nicht kleiner werden, da es noch soviele Bereiche auf der Welt gibt, die sich zu modernen Gesellschaften entwickeln - China und Brazilien. Und je stärker die Leute dort am PC-Spielen interessiert sind, umso besser wird es dem diskreten Markt gehen. China ist z.B. der größte Wachstumsmark für nVidia. Wenn dort nur jeder 1/100 Mensch eine diskrete Grafikkarte pro Quartal kaufen würde, würde der Markt schlagartig 10 Millionen zusätzliche Einheiten haben.
nVidia hat jahrelang mit seiner Strategie (starke diskrete GPUs für Desktop, Workstations und Mobile) Erfolg gehabt. Warum meinst Du denn, dass nVidia sich nun "plötzlich" so stark in Richtung Server und Handy/Tablet-Segment orientiert? Das hat doch nur den Grund, dass Zukunftsaussichten im angestammten GPU-Bereich nicht mehr die besten sind. Und das liegt dann bestimmt nicht daran, dass der diskrete GPU-Markt in Zukunft jedes Jahr zweistellig wächst... Einfach mal mitdenken :)
Es zeigt eher, dass du keine Ahnung von nVidia hast.
nVidia investierte ab 2000/2001 in zwei Bereiche, die sie vorher nicht bedienten: Quadro und Chipsätze. Mit Tesla und Tegra wiederholt sich das Spielchen. nVidia's Umsatz stieg von Anfang 2004 mit ca. $500 Millionen auf Anfang 2011 $880 Millionen. Davon kommen alleine knapp $600 Millionen aus dem Geforce Business. Deiner Logik folgend hätte nVidia jedoch schon längst das Geforce-Business aufgeben müssen, weil man am Anfang des letzten Jahrhunderts in Bereiche investierte, die man nicht bediente. Dabei decken sich Quadro/Testla und Chipsätze/Tegra sogar fast 1:1.
Nimm dochmal ATi als vergleich: Anfang 2004 hatte man einen Umsatz von ca. $450 Millionen, Anfang 2011 kommt die Grafikabteilung von AMD auf $430 Millionen. In beiden sind keine Chipsätze enthalten.
Wer nur ein bisschen nachdenkt, würde bemerken, dass nVidia schon immer eine Firma war, die abseits der alten eingetretenen Pfade nach neuen Wegen sucht. Und vorallem ist dies kein Zeichen, dass man die alten Wege verlassen werde.
Ailuros
2011-05-12, 17:16:24
Dabei sollte man aber auch notieren dass es stets eine Notwendigkeit ist neue Wege zu suchen fuer eine Firma um zukuenftiges Wachstum zu garantieren.
Jegliche Firma wird ihr "Kerngeschaeft" nur dann verlassen wenn dieses auch wirklich nichts mehr als nur rote Zahlen bringt und gleichzeitig die Existenz in einem gewissen Markt keine besondere Wichtigkeit mehr hat.
Ich persoenlich sehe kein Sterben der standalone GPU und nein diese kann eben nicht durch einen jeglichen heutigen SoC ersetzt werden. SoC ersetzen lediglich die bisherigen IGPs und mit etwas Anstrengung vielleicht sogar ultra low end GPUs, aber danach ist Schluss.
Dass erstmal 3D bzw. Grafik zunehmend wichtiger wird in selbst den kleinsten Geraeten/gadgets ist lediglich ein Anzeichen dass sw rendering bzw. reines general purpose processing eben nicht mehr reicht fuer die heutigen und zukuenftigen Ansprueche.
fondness
2011-05-12, 17:17:20
nVidia's Umsatz stieg von Anfang 2004 mit ca. $500 Millionen auf Anfang 2011 $880 Millionen. Davon kommen alleine knapp $600 Millionen aus dem Geforce Business. Deiner Logik folgend hätte nVidia jedoch schon längst das Geforce-Business aufgeben müssen, weil man am Anfang des letzten Jahrhunderts in Bereiche investierte, die man nicht bediente. Dabei decken sich Quadro/Testla und Chipsätze/Tegra sogar fast 1:1.
Nimm dochmal ATi als vergleich: Anfang 2004 hatte man einen Umsatz von ca. $450 Millionen, Anfang 2011 kommt die Grafikabteilung von AMD auf $430 Millionen. In beiden sind keine Chipsätze enthalten.
Nur das bei dem "Geforce-Business" von Nvidia eben schon die Chipsätze dabei sind.
LovesuckZ
2011-05-12, 18:43:00
Dann zieh sie ab und nimm $550 Millionen als Wert für "Geforce".
Anfang 2004 hatte nVidia auch nur ein Gesamtumsatz von $479 Millionen. Nimmt man 14% als Basis für die Inflation, ist das heutige Geforce-Business mehr Wert als das, was nVidia vor 7 jahren als Gesamtfirma verdient hat. Und ironischerweise scheint nichtmal die Börse zu denken, dass nVidia den diskreten Markt "verlassen" würde. ATi kam als Vergleich sogar auf $495 Millionen im annährend gleichem Zeitraum.
Es zeigt eindrucksvoll, dass Wachstum nicht auf Basis des Kerngeschäftes gehen muss. Und es ist ein Beleg dafür, dass nVidia vieles in Zukunft tun wird - das Herunterfahren der Entwicklung im diskreten Zeitraum gehört leider nicht dazu.
Ailuros
2011-05-12, 21:01:34
Hat der Chipsatz Markt je irgendwelchen Gewinn fuer NVIDIA generiert? Will ich ernsthaft bezweifeln. Ist momentan auch nicht besonders verschieden mit Tegra, aber zumindest besteht langfristig die Chance dass die Sparte im Gegensatz zum Chipsatz Markt Gewinn machen koennte.
NV braucht lediglich einen reinen smart-phone SoC als alles andere.
LovesuckZ
2011-05-13, 00:48:41
nVidia erwartet vorallem wegen Tegra einen Umsatz von $1 Milliarde im nächsten Quartal. Sieht ziemlich danach aus, dass der diskrete Markt nirgendwo hingeht, trotz dem Intel und AMD vermehrt iGPU Produkte auf den Markt bringen.
Hier erkennt man dann auch, dass AMD und Intel überhaupt nicht die Gefahr #1 für nVidia's Low-End darstellen. Es ist und wird auch in Zukunft ARM sein. Aber das wurde von nVidia frühzeitig erkannt und Tegra ist die Antwort.
Ailuros
2011-05-13, 10:25:18
nVidia erwartet vorallem wegen Tegra einen Umsatz von $1 Milliarde im nächsten Quartal. Sieht ziemlich danach aus, dass der diskrete Markt nirgendwo hingeht, trotz dem Intel und AMD vermehrt iGPU Produkte auf den Markt bringen.
Wer will kann es glauben und das sogar fuer ein Quartal oder verlese ich mich? Ich wage nichtmal zu fragen woher so eine Summe selbst auf jaehrlicher Basis kommen soll.
Hier erkennt man dann auch, dass AMD und Intel überhaupt nicht die Gefahr #1 für nVidia's Low-End darstellen. Es ist und wird auch in Zukunft ARM sein. Aber das wurde von nVidia frühzeitig erkannt und Tegra ist die Antwort.
Nur gibt es leider gewaltige Stromverbrauch Unterschiede zwischen einem smart-phone bzw. tablet SoC und einem notebook/PC SoC. Eine Loesung waere mehrere verschiedene SoCs fuer diverse Maerkte, aber gleich danach kommt das erste grosse Fragezeichen was Herstellungs-kapazitaet betrifft. In so einem Fall kann TSMC nie und nimmer einen solchen bulk gleichzeitig mit desktop chips aufnehmen.
Projekt Denver soll angeblich fuer TSMC 20HP ausgelegt sein.
Ephiriel
2011-05-13, 10:50:49
Wer will kann es glauben und das sogar fuer ein Quartal oder verlese ich mich? Ich wage nichtmal zu fragen woher so eine Summe selbst auf jaehrlicher Basis kommen soll.
Quartalszahlen (http://www.pcgameshardware.de/aid,824509/Nvidia-mit-Q1-Zahlen-Starkes-Wachstum-bei-Tegra-und-Tablets/Grafikkarte/News/)
lg
LovesuckZ
2011-05-13, 11:28:05
Wer will kann es glauben und das sogar fuer ein Quartal oder verlese ich mich? Ich wage nichtmal zu fragen woher so eine Summe selbst auf jaehrlicher Basis kommen soll.
nVidia erwartet ein Wachstum für Q2 von 4-6% - wegen Tegra. Die $1 Milliarde Umsatz in Q2 ist nicht der Umsatz von Tegra. ;)
Da hier gesagt wurde, dass nVidia Probleme bekommen werde:
Letztes Jahr brach in Q2 nVidia's Low-End vollkommen ein. Sie verloren annährend $200 Millionen an Umsatz. Dieses Jahr - mit immer mehr X86-SoCs - will man $1 Milliarde erreichen. Irgendwie widerspricht dies dem, was hier noch gesagt wurde.
Es passiert im Grunde genau das, was ich behaupte: Der diskrete Markt wächst dank Schwellenländern, aber eben nicht im Low-End/IGP, sondern mit den Karten, die auch zum vernünftigen Spielen taugen. Das x86-Low-End wird dagegen von ARM angegriffen, wo nVidia mitspielen darf.
Zwar erreicht Tegra noch nicht den Umsatz der Chipsatzsparte, aber ohne Tegra hätte nVidia mehr als $100 Millionen Umsatz weniger generiert, wovon $50 Millionen am Ende bei ihnen zur Verteilung übrig bleibt.
Und nochmal zu den iGPUs von Intel (und AMD) zu kommen: http://www.techspot.com/review/392-budget-gpu-comparison/
Sandy Bridge ist noch deutlich langsamer als eine GT520. Und die ist zum Spielen sowas von ungeeignet. LIano wird dann sich wohl irgendwo GT520/6450 Niveau einpendeln. Das hat sowas von keine Auswirkung auf das diskrete Geschäft von nVidia und AMD, wenn es darum geht mehr als Low-End zu verkaufen. Und beide Bereich werden von ihnen ja auch schon ausgelagert.
fondness
2011-05-13, 11:35:36
Da hier gesagt wurde, dass nVidia Probleme bekommen werde:
Letztes Jahr brach in Q2 nVidia's Low-End vollkommen ein. Sie verloren annährend $200 Millionen an Umsatz. Dieses Jahr - mit immer mehr X86-SoCs - will man $1 Milliarde erreichen. Irgendwie widerspricht dies dem, was hier noch gesagt wurde.
Du vermischt halt auch Kraut und Rüben. Letztes Jahr im Q2 stand NV im Lowend faktisch mit nichts da, während AMD ein komplettes DX11 Lineup hatte. Kein Vergleich zu diesem Jahr.
Das x86-Low-End wird dagegen von ARM angegriffen, wo nVidia mitspielen darf.
Je nach Sichtweise wird genau so ARM durch das x86 "Lowend" immer mehr angegriffen.
LovesuckZ
2011-05-13, 11:56:08
Du vermischt halt auch Kraut und Rüben. Letztes Jahr im Q2 stand NV im Lowend faktisch mit nichts da, während AMD ein komplettes DX11 Lineup hatte. Kein Vergleich zu diesem Jahr.
nVidia hatte ihre 40nm Low-End Produkte, die bis auf DX11 (vollkommen überbewertet) gleichgut bis überlegen waren. Vorallem im Notebookbereich dank HDMI 1.4a (3D) und Optimus. Der Markt ist Q2 2010 sogar kleiner geworden. Und vergessen wir nicht, dass AMD gleichzeitig die Preise für ihre Produkte senkte, um Marktanteile zu gewinnen.
Je nach Sichtweise wird genau so ARM durch das x86 "Lowend" immer mehr angegriffen.
Aha. Wo denn? Durch 5 Watt Bobcat und Atom Tablets?
ARM wird nicht angegriffen, weil x86 ihren Markt bis heute beschwerdefrei kontrollierte. Das ist nun Geschichte. Jeder, der sich ein Ipad, ein Playbook oder ein Asus Transformer kauft, wird kaum noch ein x86 Netbook/Low-End Gerät mit in den Warenkorb legen. Intel braucht noch Ewigkeiten, bis sie vergleichbares liefern, AMD macht gleich keine Anstalten konkurrieren zu wollen.
Ailuros
2011-05-13, 12:29:50
nVidia erwartet ein Wachstum für Q2 von 4-6% - wegen Tegra. Die $1 Milliarde Umsatz in Q2 ist nicht der Umsatz von Tegra. ;)
Ok so kann man es durchaus stehen lassen. Danke fuer die Aufklaerung denn es wurde mir momentan schwindlig ;)
Da hier gesagt wurde, dass nVidia Probleme bekommen werde:
Letztes Jahr brach in Q2 nVidia's Low-End vollkommen ein. Sie verloren annährend $200 Millionen an Umsatz. Dieses Jahr - mit immer mehr X86-SoCs - will man $1 Milliarde erreichen. Irgendwie widerspricht dies dem, was hier noch gesagt wurde.
Es passiert im Grunde genau das, was ich behaupte: Der diskrete Markt wächst dank Schwellenländern, aber eben nicht im Low-End/IGP, sondern mit den Karten, die auch zum vernünftigen Spielen taugen. Das x86-Low-End wird dagegen von ARM angegriffen, wo nVidia mitspielen darf.
Zwar erreicht Tegra noch nicht den Umsatz der Chipsatzsparte, aber ohne Tegra hätte nVidia mehr als $100 Millionen Umsatz weniger generiert, wovon $50 Millionen am Ende bei ihnen zur Verteilung übrig bleibt.
Und nochmal zu den iGPUs von Intel (und AMD) zu kommen: http://www.techspot.com/review/392-budget-gpu-comparison/
Sandy Bridge ist noch deutlich langsamer als eine GT520. Und die ist zum Spielen sowas von ungeeignet. LIano wird dann sich wohl irgendwo GT520/6450 Niveau einpendeln. Das hat sowas von keine Auswirkung auf das diskrete Geschäft von nVidia und AMD, wenn es darum geht mehr als Low-End zu verkaufen. Und beide Bereich werden von ihnen ja auch schon ausgelagert.
Mir machen lediglich die Herstellungs-kapazitaeten Sorgen wenn sich in der Zukunft der Tegra-Balon (siehe smart-phone/tablet und netbook/PC SoCs) weiter aufblaebt in der Zukunft. Klar kann mir jemand jetzt sagen dass AMD langfristig einen Anteil ihrer Kapazitaet zu GloFo schaufeln wird, aber mir scheint das hypothetische Resultat immer noch nicht genug. Klingt mir eher danach als ob NV langfristig auch zu dual sourcing kommen muss fuer die Herstellung und hier koennte GloFo sogar ein sehr guter Kandidat sein.
Dass Intel fuer NV ARM SoCs herstellen wuerde glaube ich erst wenn ich es sehe, Samsung hat alle Haende voll mit dem fruitco Zeug und von IBM scheint NV nicht besonders viel zu halten als Herstellungs-quelle ausser es hat sich irgend etwas geaendert.
In den Faellen wo der gleiche Prozess wieder benutzt wird (tick tock ala T2 und T3 unter 40nm); ist es generell kein besonderes Problem. Bei neuen Herstellungsprozessen koennte es bei TSMC ziemlich hapern. Tegra2 hatte wie schon erwaehnt seinen tape out Ende 2008, kam aber erst unter 40G fast gleichzeitig mit Fermi zur Produktion.
Wenn generell alle nicht kontrollierbaren Faktoren stimmen, dann wird NV auch insgesamt keine besonderen Probleme haben. Das dumme ist aber eben leider dass viel zu viele Faktoren ausserhalb NV's Kontrolle liegen (wie z.B. die Verspaetungen der Asus/Acer tablets dank Komponenten-Kapazitaets Problemen).
YfOrU
2011-05-13, 12:38:55
Aha. Wo denn? Durch 5 Watt Bobcat und Atom Tablets?
Genau diese denn der Netbook und Notebook Markt ist für ARM praktisch gelaufen bevor man überhaupt messbare Marktanteile erreichen konnte.
Die x86 Produkte sind in einigen Varianten unter 250€ angekommen. Viel günstiger geht es ohne drastische Einschnitte beim Endprodukt auch nicht mit ARM. Selbst Chrome OS hat als Referenzplattform Atom.
Abseits von Nischenprodukten mit extrem langer Akkulaufzeit ist hier mit ARM SoCs vorerst nichts mehr zu holen. Dafür überwiegen die Nachteile der inkompatiblen ISA bei nur geringer Kosteneinsparung (Hardware) zu deutlich. Nicht zu verachten ist nebenbei der Entwicklungsaufwand für die Hersteller beim OS für ARM Books. Dieser ist wesentlich höher und damit kostspieliger.
Ende dieses bzw. nächstes Jahr sehen wir 32nm Atom und 28nm Bobcats mit brauchbaren Akkulaufzeiten um 7 Stunden in Tabletts ohne aktive Kühlung. Die x86 basierenden Designs befinden sich übrigens schon heute in einem vergleichbaren Preisrahmen wie ARM Tabletts.
Das es recht viele Nutzer gibt die ein x86 Ubuntu oder MS Windows mit angepasster Oberfläche allein schon aus gründen der Softwarekompatibilität (dazu gehören ebenfalls Gerätetreiber) einem ARM Tablett vorziehen würden ist nun mal eine Tatsache.
Konkurrenz durch x86 ist also vorhanden und durchaus auch ernst zu nehmen.
Bei aller Begeisterung für Windows 8 mit ARM Unterstützung, den großen Vorteil davon hat nicht ARM sondern die x86 ISA. Microsoft ist gezwungen eine ordentliche Oberfläche für mobile Geräte mit Touch Eingabe zu integrieren sowie das OS insgesamt Energie effizienter zu gestalten.
LovesuckZ
2011-05-13, 13:12:44
Genau diese denn der Netbook und Notebook Markt ist für ARM praktisch gelaufen bevor man überhaupt messbare Marktanteile erreichen konnte.
Die x86 Produkte sind in einigen Varianten unter 250€ angekommen. Viel günstiger geht es ohne drastische Einschnitte beim Endprodukt auch nicht mit ARM. Selbst Chrome OS hat als Referenzplattform Atom.
Es geht hier nicht um billig. Apple verkauft ihre Ipads ab 479€. Man spekuliert, dass Apple im 2. Jahr mehr als 20 Millionen iPads verkauft. Das ist ein schnelleres Wachstum alleine bei Apple als der komplette Netbook-Markt im 2. jahr aufweisen konnte.
Nächstes Jahr sehen wir dann 32nm Atom und Bobcats mit brauchbaren Akkulaufzeiten um 8 Stunden in Tabletts. Die x86 Produkte befinden sind übrigens schon heute in einem vergleichbaren Preisrahmen wie ARM Tabletts.
8h gegen 24h bei Apple. Was für ein fairer Kampf. Und ich digge die Laufzeit meines iPads und wünsche mir, dass es noch viel länger halten würde. Denn Tablets sind Geräte, die man eben nicht immer dauernd an den Stromstecker packen will.
Das es recht viele Nutzer gibt die ein x86 Ubuntu oder MS Windows mit angepasster Oberfläche allein schon aus gründen der Softwarekompatibilität einem ARM Tablett vorziehen würden ist nun mal eine Tatsache.
Quatsch. Die Leute haben keine Probleme eine neue Plattform zu akzeptieren und sich entsprechende Software neuzukaufen. Und in Zukunft kann man diese Software dann auf dem handy, dem Tablet und dem PC verwenden.
Ailuros
2011-05-13, 13:21:53
Ich stimm zwar nicht gerne persoenlich zu (denn es reicht so langsam mit der Wintel Hegeomonie....) aber YfOrU hat leider einen Punkt. Es gibt leider eine gesunde Menge von Verbrauchern die windows auf tablets sehen wuerden. Ausser Microsoft schafft es bei win8 dass sich das OS fuer tablets dementsprechend anpassen kann damit der Stromverbrauch nicht zu radikal wird, koennte sogar etwas daraus werden. Ich lass mich gerne eines besseren belehren aber von dem was ich bis jetzt gehoert habe hab ich keine besondere Hoffnung fuer M$. Kleinere Aenderungen zum Besseren sagen mir gar nichts. Ein Kleingeraet wie ein tablet mit einem desktop OS zu quaelen ist IMHO absoluter Bloedsinn. Grob vereinfacht sind tablets mehr "groessere smart-phones" als "kleine notebooks".
YfOrU
2011-05-13, 13:39:34
Es geht hier nicht um billig. Apple verkauft ihre Ipads ab 479€. Man spekuliert, dass Apple im 2. Jahr mehr als 20 Millionen iPads verkauft. Das ist ein schnelleres Wachstum alleine bei Apple als der komplette Netbook-Markt im 2. jahr aufweisen konnte.
Wie viele Note und Netbooks werden wohl um und unter 300€ so verkauft ? Ganz schön viele und da geht es um billig. Trotzdem lässt sich obwohl die ARM Plattform theoretisch deutlich günstiger in der Produktion ist kaum ein konkurrenzfähiges Produkt auf den Markt bringen.
Die hohen Tablettpreise sind für die ARM ISA auf längere Sicht eher nachteilig.
Die Verkaufszahlen hören sich zwar toll an, im Vergleich zu mobilen x86 Produkten ist es aber trotzdem nur ein Tropfen auf den heißen Stein. Smartphones zählen wir hier besser nicht mit denn deren Displays sind für die meisten vollwertigen Anwendungen (Software) zu klein.
8h gegen 24h bei Apple. Was für ein fairer Kampf. Und ich digge die Laufzeit meines iPads und wünsche mir, dass es noch viel länger halten würde. Denn Tablets sind Geräte, die man eben nicht immer dauernd an den Stromstecker packen will.
Das ist auch bei vielen Smartphones so, zwar nicht schön aber solange man über die Zeitspanne eines Arbeitstags kommt erfüllt so ein Gerät seinen Zweck. Am Abend wird das Gerät aufgeräumt und kommt damit ins Dock. Kein anstecken, einfach abstellen und fertig. Natürlich hast du recht, je mehr Laufzeit desto besser aber ab einem gewissen Punkt kann man auch anfangen Kompromisse einzugehen.
Quatsch. Die Leute haben keine Probleme eine neue Plattform zu akzeptieren und sich entsprechende Software neuzukaufen. Und in Zukunft kann man diese Software dann auf dem handy, dem Tablet und dem PC verwenden.
Natürlich und die Hardware, Peripherie etc kaufen sie auch immer gerne gleich komplett neu...davon wie viele Jahre ein PC oder Notebook in einem durchschnittlichen Haushalt überlebt hast du wohl wenig Vorstellung.
LovesuckZ
2011-05-13, 13:48:09
Wie viele Note und Netbooks werden wohl um und unter 300€ so verkauft ? Ganz schön viele und da geht es um billig. Trotzdem lässt sich obwohl die ARM Plattform theoretisch deutlich günstiger in der Produktion ist kaum ein konkurrenzfähiges Produkt auf den Markt bringen.
Die hohen Tablettpreise sind für die ARM ISA auf längere Sicht eher nachteilig.
Die Absatzzahlen der Netbooks ging in Q1 rapide zurück. Und dort gab es nur das Ipad, das Tab und eventuell noch das XooM. Tablets + Zubehör werden in Zukunft diesen Markt perfekt bedienen.
Die Verkaufszahlen hören sich zwar toll an, im Vergleich zu mobilen x86 Produkten ist es aber trotzdem nur ein Tropfen auf den heißen Stein. Smartphones zählen wir hier besser nicht mit denn deren Displays sind für die meisten vollwertigen Anwendungen (Software) zu klein.
Ja, der mobile Bereich, der durch Unternehmen gestützt wird. Der Vergleichsbereich sind Netbooks. Geräte, die zum Großteil nur für das Ansehen von Content verwendet wird.
Das ist auch bei vielen Smartphones so, zwar nicht schön aber solange man über die Zeitspanne eines Arbeitstags kommt erfüllt so ein Gerät seinen Zweck. Am Abend wird das Gerät aufgeräumt und kommt damit ins Dock. Kein anstecken, einfach abstellen und fertig.
Je länger ein Gerät hält, um so umweltschonender und entspannter ist es. Ein Gerät, dass alle 24h zum laden muss, kann somit 3 Tage lang "die Zeitspanne eines Arbeitstags" verwendet werden. Und das wäre einfach nur klasse.
Natürlich und die Hardware, Peripherie etc kaufen sie auch immer gerne gleich komplett neu...davon wie viele Jahre ein PC oder Notebook in einem durchschnittlichen Haushalt überlebt hast du wohl keine Vorstellung.
Und sie machen es.
Ich weiß ja nicht, aber wenn 20 Millionen Menschen in diesem Jahr ein iPad kaufen, dann scheint ihnen ihre x86 Windows-Software und Hardware nicht ganz soviel zu bedeuten. Der Softwarestack von x86 und vorallem Windows ist überbewertet, da vieles auch für ARM angeboten wird. Und durch die geringeren Kaufpreise haben die Leute keine Probleme sich alles "neuzukaufen".
YfOrU
2011-05-13, 14:26:13
Die Absatzzahlen der Netbooks ging in Q1 rapide zurück. Und dort gab es nur das Ipad, das Tab und eventuell noch das XooM. Tablets + Zubehör werden in Zukunft diesen Markt perfekt bedienen.
Wenn du dein Weltbild an die Realität anpasst und damit das liest was ich schreibe hast du die Erklärung für den Rückgang der Netbook Verkäufe. Wie oft muss ich denn den Begriff Notebook eigentlich noch erwähnen ? Streich einfach mal diesen veralteten Begriff Netbook und dessen Fixierung:
Ja, der mobile Bereich, der durch Unternehmen gestützt wird. Der Vergleichsbereich sind Netbooks. Geräte, die zum Großteil nur für das Ansehen von Content verwendet wird.
Diese "Netbooks" sind heute aber eigentlich Subnotebooks. Also 12 bis 13 Zoll und nicht mehr 10 wie ursprünglich bei der Markteinführung. Eben in diesem Formfaktor ist auch die Erstellung von Inhalten gar kein Problem und durchaus der Regelfall. Meist explizit gewünscht.
Zusätzlich ist auch jedes Produkt wie ein HP625 Notebook eine sehr ernsthafte Konkurrenz. Zum Preis eines Tabletts gibt es zwei vollwertige PCs. Das macht das Tablett schon mal für viele zur unwirtschaftlichen Investition.
Und sie machen es.
Ich weiß ja nicht, aber wenn 20 Millionen Menschen in diesem Jahr ein iPad kaufen, dann scheint ihnen ihre x86 Windows-Software und Hardware nicht ganz soviel zu bedeuten. Der Softwarestack von x86 und vorallem Windows ist überbewertet, da vieles auch für ARM angeboten wird. Und durch die geringeren Kaufpreise haben die Leute keine Probleme sich alles "neuzukaufen".
Du vergisst bei der Festlegung auf das iPad das dieses kaum Allgemeingültigkeit für den ARM oder Tablett Markt hat. Es ist Apples Kindle mit einem überragenden Ökosystem und sehr guten Lösungen (Hardware sowie Software) für den Profi Bereich. Das hat kein Mitbewerber und kann auf absehbare Zeit auch kein anderer anbieten.
fondness
2011-05-13, 15:02:22
nVidia hatte ihre 40nm Low-End Produkte, die bis auf DX11 (vollkommen überbewertet) gleichgut bis überlegen waren. Vorallem im Notebookbereich dank HDMI 1.4a (3D) und Optimus. Der Markt ist Q2 2010 sogar kleiner geworden. Und vergessen wir nicht, dass AMD gleichzeitig die Preise für ihre Produkte senkte, um Marktanteile zu gewinnen.
Es ist völlig irrelevant was für dich überbewertet ist, solche Features waren schon immer ein wichtiger Faktor für OEMs, und AMD hat in der Phase auch nicht von ungefähr deutlich Marktanteile gewonnen.
Aha. Wo denn? Durch 5 Watt Bobcat und Atom Tablets?
ARM wird nicht angegriffen, weil x86 ihren Markt bis heute beschwerdefrei kontrollierte. Das ist nun Geschichte. Jeder, der sich ein Ipad, ein Playbook oder ein Asus Transformer kauft, wird kaum noch ein x86 Netbook/Low-End Gerät mit in den Warenkorb legen. Intel braucht noch Ewigkeiten, bis sie vergleichbares liefern, AMD macht gleich keine Anstalten konkurrieren zu wollen.
YfOrU hat ja im Grunde schon alles dazu gesagt. Das AMD hier nicht einsteigen will stimmt auch nicht, es wird auf der Roapmap explizit der Tabletmarkt für die 28nm Generation angesprochen.
LovesuckZ
2011-05-13, 15:13:02
Wenn du dein Weltbild an die Realität anpasst und damit das liest was ich schreibe hast du die Erklärung für den Rückgang der Netbook Verkäufe. Wie oft muss ich denn den Begriff Notebook eigentlich noch erwähnen ? Streich einfach mal diesen veralteten Begriff Netbook und dessen Fixierung:
Der PC-Markt schrumpfte Q1 2011 um knapp 8%. Anscheinend kaufen die Leute doch weniger PC-Hardware. Der Tablet-Markt wurde dagegen nicht kleiner.
Diese "Netbooks" sind heute aber eigentlich Subnotebooks. Also 12 bis 13 Zoll und nicht mehr 10 wie ursprünglich bei der Markteinführung. Eben in diesem Formfaktor ist auch die Erstellung von Inhalten gar kein Problem und durchaus der Regelfall. Meist explizit gewünscht.
Zusätzlich ist auch jedes Produkt wie ein HP625 Notebook eine sehr ernsthafte Konkurrenz. Zum Preis eines Tabletts gibt es zwei vollwertige PCs. Das macht das Tablett schon mal für viele zur unwirtschaftlichen Investition.
Eine Vielzahl der Low-End Käufer produziert nichts auf ihren Notebooks, für das sie wirklich ein Notebook benötigen. Die Leute wollen Content genießen. Und das funktioniert mit einem Tablet wesentlich besser. In Amerika erhält man für $550 das Asus Transformer mit Dock, IPS Screen und 1280x800, 15-20h Laufzeit, <2kg. Alleine für den Bildschirm würden viele Leute "töten". Das Gerät - jez abgesehen von Tegra2 - bietet wesentlich mehr Möglichkeiten für den Gebrauch als Netbooks oder Notebooks.
Du vergisst bei der Festlegung auf das iPad das dieses kaum Allgemeingültigkeit für den ARM oder Tablett Markt hat. Es ist Apples Kindle mit einem überragenden Ökosystem und sehr guten Lösungen (Hardware sowie Software) für den Profi Bereich. Das hat kein Mitbewerber und kann auf absehbare Zeit auch kein anderer anbieten.
Nonsens. Wieso sollten nur Apple-Kunden Apps kaufen, aber Android, RIM und KonsortenOS-Kunden dagegen das Gerät nach einem Tag in die Ecke werfen und zu ihrer x86-Windows-Maschine zurückkehren?
Die Leute gewöhnen sich dank ihren Smartphones an die neuen Betriebsysteme. Sie vermissen kein Windows. Diese Erfahrungen nehmen sie mit in die Tablet-Welt.
YfOrU
2011-05-13, 16:29:14
Der PC-Markt schrumpfte Q1 2011 um knapp 8%. Anscheinend kaufen die Leute doch weniger PC-Hardware. Der Tablet-Markt wurde dagegen nicht kleiner.
Das ist pure Spekulation. Im Vergleich zu Q1 2010 liegt man bei einem Rückgang von 1 - 3%. Saisonal ist irrelevant.
http://www.slashgear.com/pc-market-not-looking-pretty-for-q1-2011-14146184/
Bezieht man die globale Wirtschaftslage sowie das Erdbeben in Japan mit ein ist der Markt absolut stabil.
Der globale Automarkt ist ebenfalls im gleichen Verhältnis (Q1 10 - 11) zurückgegangen und das die jetzt Motorrad fahren halte ich mal für unwahrscheinlich ;)
Es ist nüchtern betrachtet einfach nur eine globale Entwicklung der Wirtschaft. Das der Tablett Markt weiter Wachstum liefert liegt schlichtweg darin begründet das er noch nicht gesättigt ist.
Und noch zu den Zahlen. Ungefähr 30 zu 360 Millionen, also Tabletts zu PCs für 2011.
Eine Vielzahl der Low-End Käufer produziert nichts auf ihren Notebooks, für das sie wirklich ein Notebook benötigen. Die Leute wollen Content genießen. Und das funktioniert mit einem Tablet wesentlich besser. In Amerika erhält man für $550 das Asus Transformer mit Dock, IPS Screen und 1280x800, 15-20h Laufzeit, <2kg. Alleine für den Bildschirm würden viele Leute "töten". Das Gerät - jez abgesehen von Tegra2 - bietet wesentlich mehr Möglichkeiten für den Gebrauch als Netbooks oder Notebooks.
Die wollen Texte schreiben drucken, Urlaubsfotos bearbeiten etc. Da hilft auch kein IPS Display, wichtig ist eine Tastatur und die gewohnte Software. Word drauf. Ob das Gerät dann unter oder über 2kg liegt ist denen ziemlich egal. Ach ja, günstig muss es natürlich sein denn IT steht bei diesen Menschen nicht oben auf der Einkaufsliste.
Jemanden dann zu erzählen er soll ein 500€ Tablett sowie eine 50€ Dock Tastatur kaufen wäre ein starkes Stück. Für den halben Preis bekommt so eine Person alles was benötigt wird.
Nonsens. Wieso sollten nur Apple-Kunden Apps kaufen, aber Android, RIM und KonsortenOS-Kunden dagegen das Gerät nach einem Tag in die Ecke werfen und zu ihrer x86-Windows-Maschine zurückkehren?
Weil sich die meisten kein Android Tablett kaufen und RIM eher an eine spezielle Zielgruppe gerichtet ist. Wie die prognostizierten Verkaufszahlen auf dem Tablett Markt abseits von Apple aussehen wird dir kaum entgangen sein.
Überzeugt sind die Hersteller oft nicht mal selbst von ihren Produkten.
LovesuckZ
2011-05-13, 16:54:28
Das ist pure Spekulation. Im Vergleich zu Q1 2010 liegt man bei einem Rückgang von 1 - 3%. Saisonal ist irrelevant.
http://www.slashgear.com/pc-market-not-looking-pretty-for-q1-2011-14146184/
Bezieht man die globale Wirtschaftslage sowie das Erdbeben in Japan mit ein ist der Markt absolut stabil.
Dann müssten Tablets den selben Bedingungen unterlegen sein.
Laut Jon Peddie (http://www.jonpeddie.com/press-releases/details/surprising-q1-results-graphics-shipments-up-10.3-while-pc-shipments-down-5/) wurden 5,4% weniger PC in Q1 gegenüber Q4 ausgeliefert. Meine 8% waren falsch. Gleichzeitig wächsen die Verkaufszahlen für Tablets. Die Wahrscheinlichkeit, dass ein Tablet-Kunde nie im Leben ein "PC" kaufen würde, ist doch sehr gering.
Der globale Automarkt ist ebenfalls im gleichen Verhältnis (Q1 10 - 11) eingebrochen und das die jetzt Motorrad fahren halte ich mal für unwahrscheinlich ;)
:facepalm:
Warum kommst du gleich nicht mit dem Bäcker von nebenan?
Die wollen Texte schreiben drucken, Urlaubsfotos bearbeiten etc. Da hilft auch kein IPS Display, wichtig ist eine Tastatur und die gewohnte Software. Word drauf. Ob das Gerät dann unter oder über 2kg liegt ist denen ziemlich egal. Ach ja, günstig muss es natürlich sein denn IT steht bei diesen Menschen nicht oben auf der Einkaufsliste.
Jemanden dann zu erzählen er soll ein 500€ Tablett sowie eine 50€ Dock Tastatur kaufen wäre ein starkes Stück. Für den halben Preis bekommt so eine Person alles was benötigt wird.
Du solltest mit stickedy einen Club aufmachen. Auch du übersiehst, wie der Markt aussieht. Die Leute wollen nicht nur billig, billig. Sie möchten einen Gegenwert für den Preis erhalten. Deswegen habe sie keine Probleme $499+ für ein iPad auszugeben. Die Punkte, die du oben aufzählst, sind dann doch ziemlich mikrig. Drucken geht, Bilder und Videos können bearbeitet werden. Dazu die Aussage über das Gewicht. Den Leuten ist das Gewicht, die Größe und somit die Portabilität wichtig. Deswegen verkauften sich Netbooks auch so gut. Die Leute haben auf kleine mobile Geräte gewartet, für die man nicht 1000€ bezahlen musste.
Weil sich die meisten kein Android Tablett kaufen und RIM eher an eine spezielle Zielgruppe gerichtet ist. Wie die prognostizierten Verkaufszahlen auf dem Tablett Markt abseits von Apple aussehen wird dir kaum entgangen sein.
Die Leute kaufen Apple, weil Apple fast ausnahmelos die einzige Möglichkeit war. Je mehr die Leute über Android lesen und - vorallem - je mehr sie selbst ausprobieren können, umso größer wird das Wachstum mit Android-Tablets sein. Genauso wie es auch im Smartphone-Markt ist, wo die High-End Smartphones immer mehr gefragt werden, weil sie immer besser werden.
Und genau wie im Smartphone-Markt werden die Leute im Tablet-Markt ebenfalls Apps kaufen.
w0mbat
2011-05-13, 17:40:34
android ist im kommen. bis jetzt gab es fast keine alternativen, mit dem xoom, den neuen samsung tabs usw. usf. wird das aber kommen.
YfOrU
2011-05-13, 18:02:18
Dann müssten Tablets den selben Bedingungen unterlegen sein.
Natürlich und da der Markt nicht gesättigt ist lässt sich trotzdem weiter Wachstum generieren.
:facepalm:
Warum kommst du gleich nicht mit dem Bäcker von nebenan?
Das dir grundsätzliche Zusammenhänge bezogen auf die Weltwirtschaft nicht verständlich sind ist oben bereits ersichtlich geworden. Die PKW Verkäufe sind einer der besten Indikatoren überhaupt für die global vorhandene Kaufkraft.
Du solltest mit stickedy einen Club aufmachen. Auch du übersiehst, wie der Markt aussieht. Die Leute wollen nicht nur billig, billig. Sie möchten einen Gegenwert für den Preis erhalten. Deswegen habe sie keine Probleme $499+ für ein iPad auszugeben....Die Leute haben auf kleine mobile Geräte gewartet, für die man nicht 1000€ bezahlen musste.
Wird ein großer Verein werden. Stimmt, unter 1000€ , sogar unter 500€. Notebooks. Übrigens innerhalb der PC Branche seit Jahren der Teilbereich mit Wachstum.
Und genau wie im Smartphone-Markt werden die Leute im Tablet-Markt ebenfalls Apps kaufen.
Ich hab nichts von Apps kaufen erzählt.
Mancko
2011-05-14, 12:55:41
android ist im kommen. bis jetzt gab es fast keine alternativen, mit dem xoom, den neuen samsung tabs usw. usf. wird das aber kommen.
Auf jeden Fall. Bei Smartphones ist Apple mit dem IPhone in den USA heute schon auf dem Absteigenden Ast.
Apples Erfolg ist primär ein Thema des richtigen Timings und de guten Ecosystems. Langfristig lässt sich das aber nicht halten, da im Prinzip alle anderen auf Android und andere OSs setzen. Die geballte Markt und Marketingmacht von Dell, Acer, Asus, LG, Samsung, HTC und anderen wird sich hier klar auswirken. Im Smartphone Bereich tut sie das bereits heute und Apple hat sich auch Feinde unter den Netzbetreibern durch - monopolartiges Verhalten - gemacht. Sie Leben halt primär vom Timing und guten Ruf aber negative Preisse gibts mit dem Erfolg halt auch immer mehr.
Mit der nächsten Tablet Runde wird sich das Ganze analog zu den Smartphones beginnen umkehren und dann ist Apple halt zunehmend immer mehr einer von vielen.
LovesuckZ
2011-05-14, 22:05:40
Natürlich und da der Markt nicht gesättigt ist lässt sich trotzdem weiter Wachstum generieren.
Du willst also behaupten, dass die Leute, die sich ein ARM-Tablet kaufen, sich nie einem PC gekauft hätten bzw. nicht die Kundengruppe von PCs sind?
Die Käufergruppe zwischen einem PC und einem Tablet ist wohl zu mehr als 90% Deckungsgleich. Das heißt, das Wachstum im PC wird verlangsamt oder geht zurück. Das ist genau das, was ich sage.
Das dir grundsätzliche Zusammenhänge bezogen auf die Weltwirtschaft nicht verständlich sind ist oben bereits ersichtlich geworden. Die PKW Verkäufe sind einer der besten Indikatoren überhaupt für die global vorhandene Kaufkraft.
Na, du machst einem dummen Vergleich. Die Gemeinsamkeiten zwischen einem ARM-Tablet und einem (Low-End)x86-PC sind wesentlich größer als zwischen einem Motorad und einem Auto. Dazu kommt, dass es wesentlich mehr Faktoren gibt, warum der Absatz für PKWs zurückgeht.
Wird ein großer Verein werden.
Voller Leute, die sich dann fragen, warum man so falsch lag. Aber mit viel Glück bekommen sie das auch garnicht mehr mit, weil 2012 sowieso die Welt untergehen wird.
Ich hab nichts von Apps kaufen erzählt.
Das es recht viele Nutzer gibt die ein x86 Ubuntu oder MS Windows mit angepasster Oberfläche allein schon aus gründen der Softwarekompatibilität (dazu gehören ebenfalls Gerätetreiber) einem ARM Tablett vorziehen würden ist nun mal eine Tatsache.
In diesem Jahr sollen 20 Millionen iPads verkauft werden. Ich glaube im 2. Jahr der Netbooks wurden gerademal 14 Millionen verkauft. 20 Millionen Menschen, denen es egal ist, dass sie ihre ganze Software neukaufen müssen, dass sie vielleicht neue Hardware (Drucker, Tastatur etc.) benötigen. Tablets, abseits von x86, dürften überhaupt kein Wachstum verbuchen, wenn es nach dir ginge. Aber anscheinend ist die Wirklichkeit doch eindeutig komplexer und vorallem anders als du sie hier beschreibst.
YfOrU
2011-05-15, 01:34:31
Du willst also behaupten, dass die Leute, die sich ein ARM-Tablet kaufen, sich nie einem PC gekauft hätten bzw. nicht die Kundengruppe von PCs sind?
Die Käufergruppe zwischen einem PC und einem Tablet ist wohl zu mehr als 90% Deckungsgleich. Das heißt, das Wachstum im PC wird verlangsamt oder geht zurück. Das ist genau das, was ich sage.
Differenzieren. Wer bereits ein Notebook hat wird im Gegensatz zu einem Desktop Nutzer eher kein Bedarf für ein Tablett haben. In vielen Fällen ersetzt der klassische Desktop Nutzer seinen PC allerdings heute komplett durch ein DTR Notebook.
Der Anteil an Menschen der zuhause auf der Couch ein Tablett einsetzt ist gerade zu lächerlich gering. Neben Notebooks gibt es für den reinen Konsum noch jede Menge Alternativen. eBook Reader, inzwischen massig Fernseher mit brauchbarer Internetanbindung, Video on Demand etc.
Na, du machst einem dummen Vergleich. Die Gemeinsamkeiten zwischen einem ARM-Tablet und einem (Low-End)x86-PC sind wesentlich größer als zwischen einem Motorad und einem Auto. Dazu kommt, dass es wesentlich mehr Faktoren gibt, warum der Absatz für PKWs zurückgeht.
Von mir aus kannst du auch das Volumen der gängigen gehandelten Rohstoffe betrachten.
Wie viele Menschen die das Geld für einen "Low-End" PC oder Notebook haben kaufen sich denn bitte ein Tablett ? Wobei Low-End ist im Vergleich dazu das Tablett. Für das Geld gibt es Core i5 Notebooks... Bei der Schnittmenge an Gemeinsamkeiten stellt ein Tablett nicht viel mehr als ein Gadget da.
Nach Produkten wie Fernseher, PC, MP3 Player, Smartphone, Spielekonsole etc. steht das Tablett bei den meisten Menschen ganz weit hinten in der Rangordnung. Die Realität ist das viele Tablett Nutzer sowohl über einen PC bzw DTR als auch über ein Notebook verfügen. Für die Allgemeinheit sind die aber kaum repräsentativ.
Voller Leute, die sich dann fragen, warum man so falsch lag. Aber mit viel Glück bekommen sie das auch garnicht mehr mit, weil 2012 sowieso die Welt untergehen wird.
Es ist ein Markt mit hohen Wachstum. Trotzdem ist und bleibt er überschaubar. Konkurrenz gibt es in vielen Formen und durch die immer weiter steigende Vernetzung im Haushalt nimmt diese auch weiter zu.
In diesem Jahr sollen 20 Millionen iPads verkauft werden. Ich glaube im 2. Jahr der Netbooks wurden gerademal 14 Millionen verkauft. 20 Millionen Menschen, denen es egal ist, dass sie ihre ganze Software neukaufen müssen, dass sie vielleicht neue Hardware (Drucker, Tastatur etc.) benötigen. Tablets, abseits von x86, dürften überhaupt kein Wachstum verbuchen, wenn es nach dir ginge. Aber anscheinend ist die Wirklichkeit doch eindeutig komplexer und vorallem anders als du sie hier beschreibst.
Der Begriff Netbook interessiert in dieser Diskussion nicht und warum habe ich bereits mehrfach sehr deutlich ausgeführt. Weiter liest du in keinster Weise den exakten Inhalt meiner Antworten. Das iPad ist und bleibt aufgrund seines exklusiven Funktionsumfangs ein Sonderfall. Ähnlich wie einige andere Apple Produkte.
LovesuckZ
2011-05-15, 01:59:21
Differenzieren. Wer bereits ein Notebook hat wird im Gegensatz zu einem Desktop Nutzer eher kein Bedarf für ein Tablett haben. In vielen Fällen ersetzt der klassische Desktop Nutzer seinen PC allerdings heute komplett durch ein DTR Notebook.
Nö, auch ein Notebook bietet nicht die Mobilität eines ARM-Tablets. Es spielt hier keine Rolle, ob man ein DTR Notebook oder Desktop-PC hat: Tablets werden die Zweitgeräte ersetzen - Low-End Notebooks, Netbooks und eventuelle Zweitdesktop-Rechner. Versteht doch bitte, dass viele Leute ein Rechner/Notebook so oder so benötigen, um entsprechend "Content" zu erzeugen, vernünftig zu spielen oder andere komplexe Arbeiten damit zu erledigen. Was das Wachstum von x86 beeinträchtigen wird, ist, dass diese Geräte nun deutlich länger halten, weil der nächste Kauf dann auf Tablets fällt. Substitutionsgüter eben.
Der Anteil an Menschen der zuhause auf der Couch ein Tablett einsetzt ist gerade zu lächerlich gering.
Da ein Tablet mobil ist, ist solch eine Aussage wiedermal nonsens. Und natürlich setzen Leute ihr Tablet dort ein, wo sie es brauchen, wo sie es wollen: Toilette, Bahn, Couch, Küchentisch...
Wie viele Menschen die das Geld für einen "Low-End" PC oder Notebook haben kaufen sich denn bitte ein Tablett ? Wobei Low-End ist im Vergleich dazu das Tablett. Für das Geld gibt es Core i5 Notebooks... Bei der Schnittmenge an Gemeinsamkeiten stellt ein Tablett nicht viel mehr als ein Gadget da.
Ein Tablet stellt vielmehr da: Es ist Freiheit. Es macht vieles einfacher. Es macht vieles wesentlich komfortabler. Tablets sind keine Gadget - das sind die zweit,dritt,x-Systeme, die man nimmt, um mobil zu sein.
Nach Produkten wie Fernseher, PC, MP3 Player, Smartphone, Spielekonsole etc. steht das Tablett bei den meisten Menschen ganz weit hinten in der Rangordnung.
Klar und deswegen sollen 20 Millionen iPads in diesem Jahr verkauft werden. ARM-Tablets in Form eines iPads, Transformer und Co sind eine neue Produktgruppe. Was du schreibst, ist das selbe wie bei Smartphones. Und trotzdem werden Jahr für Jahr immer mehr Smartphones verkauft.
Es ist ein Markt mit hohen Wachstum. Trotzdem ist und bleibt er überschaubar. Konkurrenz gibt es in vielen Formen und durch die immer weiter steigende Vernetzung im Haushalt nimmt diese auch weiter zu.
Natürlich ist der Markt zur Zeit "überschaubar". Wie jeder Markt, der neu erschaffen wird und am Anfang eine Anlaufzeit hat. Netbooks wurden auch erst belächelt.
Der Begriff Netbook interessiert in dieser Diskussion nicht und warum habe ich bereits mehrfach sehr deutlich ausgeführt. Weiter liest du in keinster Weise den exakten Inhalt meiner Antworten. Jetzt wird mal wieder vollkommen aus dem Kontext ARM mit Tabletts gleichgesetzt.
Ich lese sehr wohl alles. Das dir es nicht gefällt, liegt doch wohl daran, dass du kein Interesse zeigst, deine Meinung anhand der Wirklichkeit zu orientieren. Ich nehme Netbooks um zu zeigen, dass die Leute Tablets deutlich schneller akzeptieren als die vergleichbare Situation 2007/2008.
Dabei ist dies nichtmal vergleichbar, boten die Netbooks im zweiten Jahr eine deutliche stärkere Nähe zur bekannten x86-Windows Welt als die ARM-Tablets. Das macht das Wachstum in diesem Jahr um einiges beeindruckender. Und widerspricht genau dem, was du hier schreibst.
YfOrU
2011-05-15, 02:27:04
Da ein Tablet mobil ist, ist solch eine Aussage wiedermal nonsens. Und natürlich setzen Leute ihr Tablet dort ein, wo sie es brauchen, wo sie es wollen: Toilette, Bahn, Couch, Küchentisch...
Mobil sind viele Geräte, vor allem Smartphones, MP3 Player und eBook Reader. Diese Mobilität benötigt nur ein vergleichsweise geringer Teil bei einem weiteren Gerät. Deshalb schränkt die digitale Durchdringung der Haushalte auch eine Einschränkung für den Nutzen der Tabletts da.
Ein Tablet stellt vielmehr da: Es ist Freiheit. Es macht vieles einfacher. Es macht vieles wesentlich komfortabler. Tablets sind keine Gadget - das sind die zweit,dritt,x-Systeme, die man nimmt, um mobil zu sein.
Eben, das dritte Geräte steht bei einem Großteil der Bevölkerung nicht gerade besonders weit oben auf der Einkaufsliste.
Klar und deswegen sollen 20 Millionen iPads in diesem Jahr verkauft werden. ARM-Tablets in Form eines iPads, Transformer und Co sind eine neue Produktgruppe. Was du schreibst, ist das selbe wie bei Smartphones. Und trotzdem werden Jahr für Jahr immer mehr Smartphones verkauft.
Natürlich ist der Markt zur Zeit "überschaubar". Wie jeder Markt, der neu erschaffen wird und am Anfang eine Anlaufzeit hat. Netbooks wurden auch erst belächelt.
Smartphones waren sehr lange ein Nischenprodukt. Salonfähig wurden die Produkte schlussendlich durch den Preisverfall aber auch durch die Anpassung des Funktionsumfangs an den Massenmarkt und der allgemeinen technischen Weiterentwicklung.
Es gibt für das Format der Tabletts durchaus in ferner Zukunft einen sehr großen und massenkompatiblen Markt aber der entspricht nicht der Form aktueller oder auf absehbarer Zeit erscheinender Produkte.
200€ und günstiger, dabei mehr an dem was heute als eBook Reader verkauft wird orientiert. Wenn man sich die Entwicklung der eBook Reader ansieht werden eher diese Produkte die Tabletts der Zukunft. Höher aufgelöste reflektive bzw. transflektive Displays sowie die Integration von Medien, Web und Netzwerk Zugang. Das bei niedrigen Preisen, extrem langen Akkulaufzeiten und geringen Gewicht. Bei Amazon hat man das verstanden und entwickelt auch in diese Richtung. Bis man an diesem Punkt dann angekommen ist vergehen noch mehr als ein paar Jahre.
Und hier kommt man wieder zu einem grundsätzlichen Problem der ARM basierten Systeme. Hätte alles dem Wunsch und den Vorhersagen entsprochen gäbe es heute spottbillige ARM Computer für Jedermann. Prinzipiell sind sie recht günstig aber der Abstand zu x86 Lösungen ist gleichzeitig geschrumpft. Der ziemlich brutale Wettkampf in allen Teilbereichen der PC Branche und der Wandel des PCs zum vollkommenen Massenprodukt haben die Preise drastisch reduziert. Eben deshalb will doch fast jeder IT Hersteller sein 500€ Tablett in den Markt drücken. In der Theorie winken bei größeren Absatzzahlen vorerst hohe Margen.
nomadhunter
2011-05-15, 15:18:06
Mobil sind viele Geräte, vor allem Smartphones, MP3 Player und eBook Reader. Diese Mobilität benötigt nur ein vergleichsweise geringer Teil bei einem weiteren Gerät. Deshalb schränkt die digitale Durchdringung der Haushalte auch eine Einschränkung für den Nutzen der Tabletts da.
MP3-Player haben nichts mit dem Thema zu tun. Smartphones auch nicht, die sind eine ganz andere Geräteklasse mit anderem Einsatzzweck. eBook-Reader sind im Endeffekt auch Tablets, nur mit extrem eingeschränktem Funktionsumfang. In wenigen Jahren dürften die völlig durch echte Tablets ersetzt werden. Die eigentliche Konkurrenz sind Netbooks und kleine Notebooks, die heute schon als Zweit-PC eingesetzt werden. Gegenüber denen hat ein Tablet enorme Vorteile. Auf dem Frühstückstisch, auf dem Sofa oder unterwegs ist ein Tablet einfach praktischer. Bedarf seh ich genug. Ich kenne eigentlich niemanden, dem es nicht gefallen würde, ein Tablet zu Haus zu haben. Ist den meisten nur noch zu teuer, weil es zur Zeit nur Premium (500€) und Schrott gibt. Trotzdem sind auch bei diesen Preisen die Verkaufszahlen schon enorm. Das iPad 2 ist seit Wochen ausverkauft. Die brauchbaren günstigen Geräte werden schnell nachkommen und mit immer weiter sinkenden Preisen werden die Verkaufszahlen exlodieren. Ein Tablet pro Haushalt ist ja nur die Zwischenstation, langfristig werden wir mehrere davon in jedem Zimmer haben. Auch im Bildungsbereich und in Unternehmen sind die Tablets stark im Kommen. An meiner Uni werden zur Zeit die ersten paar Hundert bestellt, um sie ab dem Wintersemester einsetzen zu können. Viele Krankenhäuser bereiten z.B. auch grad die Einführung vor, um die Krankenakte endlich komplett zu digitalisieren.
Smartphones waren sehr lange ein Nischenprodukt. Salonfähig wurden die Produkte schlussendlich durch den Preisverfall aber auch durch die Anpassung des Funktionsumfangs an den Massenmarkt und der allgemeinen technischen Weiterentwicklung.
Der eigentliche Grund war das revolutionäre Bedienkonzept des iPhone und die Erfindung der "Apps". Erst damit wurde Internet auf dem Telefon wirklich nutzbar. Von Preisverfall kann man eigentlich nicht sprechen. Das iPhone kostet mit Vertrag heute so viel wie vor dreieinhalb Jahren und die jeweils aktuellen High-End-Androiden sind stabil bei 450-600€. Tatsächlich geben die Leute heute für Smartphones wesentlich mehr Geld aus, als sie vorher für normale Handys ausgegeben haben. Es gibt viele Leute wie mich, die vorher 3-5 Jahre mit einem 50€-Teil rumgegurkt sind und heute über 400€ ausgeben und am liebsten nach 10 Monaten schon wieder auf die nächste Generation wechseln würden (spätestens bei der Vertragsverlängerung nach knapp 2 Jahren tun sies dann).
Es gibt für das Format der Tabletts durchaus in ferner Zukunft einen sehr großen und massenkompatiblen Markt aber der entspricht nicht der Form aktueller oder auf absehbarer Zeit erscheinender Produkte.
Die ferne Zukunft ist für mich grade mal 1-2 Jahre entfernt. Ich hab mal bei Geizhals geschaut und es gibt tatsächlich schon mehrere 7"-Android-Tablets für unter 100€! Die sind natürlich noch völliger Schrott (300-600 MHz, Android 1.5-2.1, resistiver Touchscreen, unterirdische Auflösung). Aber wenn es heute schon möglich ist, für derart lächerliche Preise zu produzieren, dann sollten wir in 1-2 Jahren einigermaßen brauchbare Modelle für ca. 150€ sehen. 10" dann vielleicht für 200€. Und bei solchen Preisen nimmt man ein Tablet dann einfach mal mit, wenn man z.B. grad bei Aldi einkauft. Vor ein paar Jahren haben die Leute noch 150€ für einen bescheurten digitalen Bilderrahmen gezahlt...
Ailuros
2011-05-15, 16:01:39
Zwar nicht direkt vergleichbar aber fuer mich sind smart-phones gerade im Vergleich zu tablets immer noch ueberteuert. Ich will hoffen dass die smart-phone Preise sich in der Zukunft um einiges reduzieren.
Was jetzt tablets betrifft ich hab mir ein iPad fuer eine Woche ausgeliehen. Ich konnte mich bei bestem Willen nicht dazu ueberreden auf dem Ding zu tippen. Zum Lesen sind die Dinger wunderbar, aber beim schreiben muss man nicht nur fanatischer "Daumentipper" sein sondern auch ziemlich gut versteifen/verknoten koennen um auf dem Ding anstaendig etwas tippen zu koennen. iPad weggelegt, laptop auf dem Schoss im aufklappbaren Sessel des Wohnzimmers und schon ist tippen um zich mal schneller und angenehmer. Und nein entschuldigt ein Klo-leser bin ich auch nicht, aus Gruenden die man jetzt nicht unbedingt erklaeren muss *hust*
Ich kann heute mit ca. 600 Euros ein i-core3/4GB ram/GeForce GT540M/320HB HDD notebook kaufen; es mag zwar um die 2.5kg wiegen aber das nehme ich gerne auf wenn man bedenkt wie viel mehr und wie viel effiziienter ich alles mit dem Ding behandeln und und sogar mehr als mit einem tablet.
Dementsprechend sind Projekte wie Fusion bzw. Tegra in der weiteren Zukunft eher genau in der Richtung wo ich meine Investitionen besser gerechtfertigen koennte. Ist zwar hier OT aber Apple sollte mal zusehen ihre eigenen notebook Preise etwas zu normalisieren. Fuer das bescheidenste ihrer Macbooks mit um einiges bescheidener Spezifikationen als oben erwaehnt muss ich heute zumindest 1050 auf den Ladentisch legen.
Kann sein dass es die Chinesen langfristig schaffen dass sich so einiges in diversen Maerkten normalisiert.
Vor ein paar Jahren haben die Leute noch 150€ für einen bescheurten digitalen Bilderrahmen gezahlt...
LOL :D Ich hab selbst fuer eine digi-Rahmen keinen Nutzen und die sind selbst heute noch ueberteuert. Ein Geraet muss bei mir eine Notwendigkeit decken. Ich bin bis jetzt nicht ueberzeugt dass mir ein tablet etwas unentbehrliches und einmaliges zu bieten hat und das selbst nicht bei einem reduzierten Preis.
mboeller
2011-05-15, 18:00:10
Ich kann heute mit ca. 600 Euros ein i-core3/4GB ram/GeForce GT540M/320HB HDD notebook kaufen; es mag zwar um die 2.5kg wiegen aber das nehme ich gerne auf wenn man bedenkt wie viel mehr und wie viel effiziienter ich alles mit dem Ding behandeln und und sogar mehr als mit einem tablet.
600,- Euro? Für die meisten Sachen reicht doch schon das Notebook hier aus:
http://www.heise.de/preisvergleich/a597707.html
Nur Linux dabei, aber dafür noGlare! Zusätzlich gibt es dafür anscheinend momentan sogar noch 50,- Euro Rabatt direkt von HP.
YfOrU
2011-05-15, 18:32:30
MP3-Player haben nichts mit dem Thema zu tun. Smartphones auch nicht, die sind eine ganz andere Geräteklasse mit anderem Einsatzzweck. eBook-Reader sind im Endeffekt auch Tablets, nur mit extrem eingeschränktem Funktionsumfang. In wenigen Jahren dürften die völlig durch echte Tablets ersetzt werden...
Es sind Konsumgüter und diese werden in der Reihenfolge des Bedarfs erworben. Bei den heutigen Preisen haben Tabletts aufgrund dessen am Massenmarkt keine Chance auf eine Durchdringung des Marktes.
Der Funktionsumfang von eBook Readern wird durch die Hardware limitiert. Neben technischen Aspekten spielt vor allem der Kostenfaktor eine ausschlaggebende Rolle.
Der eigentliche Grund war das revolutionäre Bedienkonzept des iPhone und die Erfindung der "Apps". Erst damit wurde Internet auf dem Telefon wirklich nutzbar. Von Preisverfall kann man eigentlich nicht sprechen. Das iPhone kostet mit Vertrag heute so viel wie vor dreieinhalb Jahren und die jeweils aktuellen High-End-Androiden sind stabil bei 450-600€. Tatsächlich geben die Leute heute für Smartphones wesentlich mehr Geld aus, als sie vorher für normale Handys ausgegeben haben. Es gibt viele Leute wie mich, die vorher 3-5 Jahre mit einem 50€-Teil rumgegurkt sind und heute über 400€ ausgeben und am liebsten nach 10 Monaten schon wieder auf die nächste Generation wechseln würden (spätestens bei der Vertragsverlängerung nach knapp 2 Jahren tun sies dann).
Das ist so nicht richtig, als Beispiel:
http://www.amazon.de/gp/bestsellers/ce-de/3468301/ref=zg_bs_nav
Im Schnitt liegt der Gerätepreis unter 300€ und das entspricht ungefähr den Beträgen die früher für Mobiltelephone bei Verträgen gezahlt wurden.
Weder war das Bedienkonzept des iPhones wirklich neu, geschweige denn Apps. Es war auf allen Ebenen eine gute und konsequente Weiterentwicklung dessen was am Markt verfügbar gewesen ist.
Das der Marktanteil von iOS insgesamt abnimmt ist in erster Linie auch nicht an Android selbst fest zu machen sondern daran das diese Produkte vor allem Kunden ansprechen die in niedrigeren Preisregionen einkaufen.
Die ferne Zukunft ist für mich grade mal 1-2 Jahre entfernt. Ich hab mal bei Geizhals geschaut und es gibt tatsächlich schon mehrere 7"-Android-Tablets für unter 100€! Die sind natürlich noch völliger Schrott (300-600 MHz, Android 1.5-2.1, resistiver Touchscreen, unterirdische Auflösung). Aber wenn es heute schon möglich ist, für derart lächerliche Preise zu produzieren, dann sollten wir in 1-2 Jahren einigermaßen brauchbare Modelle für ca. 150€ sehen. 10" dann vielleicht für 200€...
Der essentielle Knackpunkt ist schon mal ein passendes Display. TN ist vollkommen unbrauchbar, IPS ist zu teuer und beide Technologien benötigen massig Energie im Betrieb. Auch die momentanen, transreflektiven Ansätze sind alles andere als günstiger. Bis geeignete Produkte in der Massenfertigung sind und das zu Preisen (und mit Eigenschaften) wie heutige e-Ink Graustufen Panels wird noch einiges an Zeit vergehen.
600,- Euro? Für die meisten Sachen reicht doch schon das Notebook hier aus:
http://www.heise.de/preisvergleich/a597707.html
Das versuch ich schon die ganze Zeit zu erklären. Solange es für den Preis eines Tabletts zwei vollwertige Notebooks gibt wird das nichts. Um im Massenmarkt großen Absatz zu finden muss ein Tablett unter dem Kostenpunkt eines Notebooks angesiedelt sein. Also 200€ und weniger.
Mancko
2011-05-16, 14:13:45
Das versuch ich schon die ganze Zeit zu erklären. Solange es für den Preis eines Tabletts zwei vollwertige Notebooks gibt wird das nichts. Um im Massenmarkt großen Absatz zu finden muss ein Tablett unter dem Kostenpunkt eines Notebooks angesiedelt sein. Also 200€ und weniger.
Das genannte Notebook ist doch kein Notebook. Das ist Schrott. Linux vorinstalliert, mieses Display, und Akkulaufzeit keine 3 Stunden. Beim Tablet geht es um Mobilität. Ein Vergleich mit so einer Desktop Heizung ist nun wirklich nicht angebracht.
Wenn dann schon ein Lenovo 14" T400s oder die X-Reihe von Lenovo. Gewicht unter 2kg und Akkulaufzeit Minimum 5 Stunden bis hin zu 10 Stunden und mehr je nach Akku Ausstattung.
Die Teile sind einem Tablet natürlich überlegen aber kosten dafür dann eben auch Minimum 1500 Euro - mit SSD und anderen Goodies 2000 Euro aufwärts.
Also bitte nicht irgendwelche billigen Desktop Replacements mit wirklich mobilen Geräten vergleichen.
YfOrU
2011-05-16, 15:25:35
Auf den Tabletts ist abgesehen vom iPad Android vorinstalliert. Eben jenes HP NB hat im c't Test als das am besten eingerichtete Linux NB abgeschnitten. Für einen geringen Aufpreis gibt es das Produkt ansonsten auch mit W7. Aber selbst mit Linux hat man ein stabiles, ausgereiftes und vollwertiges OS und eben diesen Funktionsumfang. Das kann man von Android leider nicht behaupten.
Mehr Akkulaufzeit gibt es mit C-50 oder E-350 Geräten die ebenfalls im Bereich von 300€ zu bekommen sind. Auch die sind im Gegensatz zu Tabletts vollwertige Computer. Sobald nur geringe Ansprüche an das Erstellen von Inhalten vorhanden sind die über Facebook und Co hinausgehen ist ein NB im Vorteil.
Von wegen miese Displays, wenn man schon die Mobilität so herausstellt dann sind alle Tablett Displays eine mittlere Katastrophe. Unter Sonneneinstrahlung ein längeres PDF zu lesen ist kaum zumutbar. Nur eine hohe Stabilität des Blickwinkels ist bei Tabletts kein tolles Feature sondern eine Grundvoraussetzung da eben keine Basiseinheit zur Arretierung vorhanden ist. Damit erfüllt so ein Produkt einfach nicht den Anspruch an Mobilität den es in dieser Kategorie und nach Datenblatt zu leisten hat. Wenn ein Tablett nur geringfügig als eBook und Doc Reader zu gebrauchen ist... Reflexionen, Spiegelungen und effektiv zu geringe Helligkeit, das geht einem selbst im Zug richtig auf die Nerven. Das dann die Akkulaufzeit auch noch in den Keller geht und selbst beim iPad schnell um 5 Stunden bei fast maximaler Helligkeit ankommt ist zusätzlich ein recht unangenehmer Nebeneffekt. Bei den Android 3.0 Tabletts scheint wohl noch weniger Laufzeit übrig zu bleiben.
In der Realität sind die momentan verfügbaren Tabletts im mobilen Einsatz nicht so weit weg von Notebooks mit matten Displays denn diese sind auch bei niedrigerer Helligkeit besser ablesbar. Das Display ist nun mal der Hauptverbraucher.
Auf der Habenseite der Tabletts bleibt Gewicht und teilweise die Akkulaufzeit. Dafür gibt es ein ganz dickes Minus beim Funktionsumfang und der Systemleistung. Beides liegt in vielen Bereichen kaum über dem Niveau moderner Smartphones. Dementsprechend ist die Preisgestaltung nun mal vollkommen unpassend. Ähnlich sieht man es inzwischen selbst bei Nvidia ;)
fondness
2011-05-16, 17:41:32
"Es gibt ein Problem mit der Expertise beim Händler. Es gibt ein Marketingproblem mit Konsumenten. Es gibt ein Problem mit dem Verkaufspreis." Einfacher ausgedrückt: mangelhafte Verkaufsberatung, zu wenig Werbung, zu teuer. Jen-Hsun Huang klingt im Gespräch mit dem Tech-Blog CNet tief frustriert. Der Nvidia-Chef hatte sich vom Tablet-Boom den Durchbruch für den Tegra2-Prozessor des Chipkonzerns versprochen. Doch dieser dürfte auf sich warten lassen.
Das kalifornische Unternehmen liefert die Chipsets unter anderem für das neue Galaxy Tab von Samsung und das Xoom-Tablet von Motorola, das als erster Rechner mit berührungsempfindlichem Bildschirm überhaupt mit der Tablet-optimierten Version des Google-Betriebssystems Android ausgestattet wurde. Die Verkaufszahlen der ersten iPad-Rivalen lassen nicht vermuten, dass die Dominanz von Apple im Tablet-Markt kurzfristig gefährdet werden könnte.
http://www.ftd.de/it-medien/computer-technik/:tablet-p-cs-warum-sich-die-i-pad-konkurrenz-schwertut/60052944.html
LovesuckZ
2011-05-16, 17:49:01
Schon lustig, was Seiten so schreiben. Huang hat immer wieder betont, dass der Smartphone-Markt wesentlich größer ist als der Tablet-Markt und dass die ersten Umsatzrekorde durch genau jenen Smartphone-Markt erreicht werden.
Das Huang enttäuscht über die Tablet-Verkäufe ist, ist doch verständlich. Aber mehr als reden kann er nicht. Er ist ja nicht dafür verantwortlich, dass Motorola abseits jeder vernunft das Xoom nur in einer Konfiguration für $699 bzw. $599 anbot.
N0Thing
2011-05-16, 18:07:00
Wann sollen denn weitere Smartphones mit Tegra auf den Markt kommen? Bisher gibt es nur das Motorola Atrix und das LG Optimus Speed, oder?
dildo4u
2011-05-16, 18:12:00
Wann sollen denn weitere Smartphones mit Tegra auf den Markt kommen? Bisher gibt es nur das Motorola Atrix und das LG Optimus Speed, oder?
Aber kein Plan obs die Version nach DE schafft.
http://www.chip.de/news/Samsung-Galaxy-S2-Billiger-mit-Tegra-2-und-S-LCD_47469753.html
LovesuckZ
2011-05-16, 18:15:17
Wann sollen denn weitere Smartphones mit Tegra auf den Markt kommen? Bisher gibt es nur das Motorola Atrix und das LG Optimus Speed, oder?
Das Droid X2 kommt in Amerika bald auf dem Markt und laut Conference Call arbeitet man an "Low-Cost" Tegra2 Phones. Und natürlich Tegra3 am Ende des Jahres nicht vergessen, wo gemunkelt wird, dass Google T3 als SoC für's neue Nexus einsetzen könnte.
Dural
2011-05-16, 19:31:02
hmm ich denke das erst mit 28nm / Tegra4 und einem guten Betriebssystem der Tablet Markt für Enduser interessant wird.
28nm wird nötig sein um vernünftige Leistung bei vernünftigem Verbrauch zu erzielen, gerade in diesem Punkt hab ich doch grosse zweifel ob Tegra3 in 40nm mit Quad Core und 3x schnellerer GPU als Tegra2 gut da stehen wird...
Android für Tablets steckt noch in den Kinderschuhen, da muss noch viel gehen! Nächstes Jahr kommt Win8 das im Tablet Markt vieleicht sehr viel bewirken kann. Apple hat einen sehr grossen Software vorsprung...
Hugo78
2011-05-16, 22:49:10
Ja, Win8 ist der Knackpunkt.
Man braucht eine Softwareumgebung mit der die Leute was anfangen können.
Tiamat
2011-05-17, 08:13:04
Nvidia gibt für Tegra 3 eine Score von 12k im CoreMark an und vergleicht sich damit mit einem Core2 Duo(merom) mit 2*2Ghz, der auf 10 oder 11k kam.
Aber ebenso NuFront´s Dual-Core A9 kommt mit 2 *2Ghz auf 12k im Core-Mark, also muss Tegra 3 eigentlich niedriger getaktet sein.
Fairerweise sollte man auch erwähnen, dass der CoreMark beim Core2Duo mit Gcc 3.4 kompiliert wurde, bei den ARM-Derivaten mit 4.4 oder 4.5.
Das macht hier sicher nochmals ein Unterschied aus, der auch den Merom beflügeln würde.
Ein i7 mit 4 * 3Ghz kommt hier zum Vergleich auf stattliche 52k.
Aber das ist für das zweite OOO Design von ARM echt der Hammer.
Da gibt´s in der CoreMark Liste bereits Phenom II x4, die auch net mehr als 12k erreichen.
Und was den ARMs hier noch fehlt, ist der gewaltige Cache den x86 Cpus mittlerweile haben und mit 4GB-Ram sind die auch net ausgestattet.
Von daher echt beeindruckend.
LovesuckZ
2011-05-17, 10:46:57
Die Angabe lief mit einem T3-Sample mit 1GHz. Laut nVidia sollen die SoC in Geräten mit 1,5Ghz getaktet sein.
Tiamat
2011-05-17, 11:15:47
Wow ok, umso beeindruckender.
fondness
2011-05-17, 13:25:32
Nvidia gibt für Tegra 3 eine Score von 12k im CoreMark an und vergleicht sich damit mit einem Core2 Duo(merom) mit 2*2Ghz, der auf 10 oder 11k kam.
Aber ebenso NuFront´s Dual-Core A9 kommt mit 2 *2Ghz auf 12k im Core-Mark, also muss Tegra 3 eigentlich niedriger getaktet sein.
Fairerweise sollte man auch erwähnen, dass der CoreMark beim Core2Duo mit Gcc 3.4 kompiliert wurde, bei den ARM-Derivaten mit 4.4 oder 4.5.
Das macht hier sicher nochmals ein Unterschied aus, der auch den Merom beflügeln würde.
Ein i7 mit 4 * 3Ghz kommt hier zum Vergleich auf stattliche 52k.
Aber das ist für das zweite OOO Design von ARM echt der Hammer.
Da gibt´s in der CoreMark Liste bereits Phenom II x4, die auch net mehr als 12k erreichen.
Und was den ARMs hier noch fehlt, ist der gewaltige Cache den x86 Cpus mittlerweile haben und mit 4GB-Ram sind die auch net ausgestattet.
Von daher echt beeindruckend.
Als ob der Coremark-Wert auch nur in irgend einer Form als brauchbaren Vergleich taugen würde, noch dazu mit unterschiedlichen Compiler. Bei den 16K welche Coremark belegt sind die Caches und der RAM auch nahezu völlig irrelevant.
Tiamat
2011-05-17, 16:47:33
Klar widmet sich der Core-Mark auch Cache und Memory, nachzulesen bei coremark.com
Hier is ein interessanter Vergleich zwischen Omap4 und i5/AMD 6172:
http://computerarch.com/log/2011/03/01/pandaboard/
Nach seinen Aussagen ist die Cache-Latenz und die Cache-Bandbreite des Omap4 ungefähr 10 mal schlechter als eines i5 und 4 mal schlechters als eines AMD 6172.
Die Memorybenchmarks fallen sogar mit mit Faktor 20 mal schlechter ggü. i5 und Faktor 10 schlechter ggü. AMD Magnycore ziemlich aussagekräftig aus.
Das ist allein der Riesenvorteil den x86 CPUS momentan haben: Fette Caches, fette Bandbreite, fetter Ram.
Die Ergebnisse sind trotz allem: i5 3.5mal so schnell, AMD 6172 nur 2.1 mal so schnell, bei 2000Mhz bzw. 1100Mhz Unterschied pro Core.
Ailuros
2011-05-17, 21:02:34
600,- Euro? Für die meisten Sachen reicht doch schon das Notebook hier aus:
http://www.heise.de/preisvergleich/a597707.html
Nur Linux dabei, aber dafür noGlare! Zusätzlich gibt es dafür anscheinend momentan sogar noch 50,- Euro Rabatt direkt von HP.
Es ist hier kein Kaufberatungs-forum aber ich hab mir etwas im Preisbereich eines high end tablets ausgesucht. Aber da wir schon OT sind nein danke zu Linux und zu GPUs mit shared memory.
Schon lustig, was Seiten so schreiben. Huang hat immer wieder betont, dass der Smartphone-Markt wesentlich größer ist als der Tablet-Markt und dass die ersten Umsatzrekorde durch genau jenen Smartphone-Markt erreicht werden.
Ja natuerlich ist der smartphone Markt um einiges groesser, nur leider konzentrierten sie sich mit T2 zu viel auf tablets. Wird T3 der smart-phone Messias sein mit reduzierten Spezifikationen? Gegen iPhone5 wohl leider nicht.
Das Huang enttäuscht über die Tablet-Verkäufe ist, ist doch verständlich. Aber mehr als reden kann er nicht. Er ist ja nicht dafür verantwortlich, dass Motorola abseits jeder vernunft das Xoom nur in einer Konfiguration für $699 bzw. $599 anbot.
Egal was jeder glaubt mir sitzt im Grunde Apple's Erfolg ueberhaupt nicht. Ich hab aber keinen anderen Ausweg als mich an den (selbst manchmal vorhersehbaren) Tatsachen zu richten.
Frag mal Motorola und jedes Motorola wie das BOM genau aussieht oder ob jemand von ihnen Bock hat mit Verlust zu verkaufen. Einfache Logik: ich bestelle ein paar hundert tausend SoCs vor und jemand anders etliche Millionen; gilt auch fuer jedes andere Material eines tablets. Groessere Mengen bedeuten auch niedrigere Preise.
Wobei Honeycomb erst jetzt so langsam auf der richtigen Schiene faehrt; bei den Android tablet Vorstellungen machte fast jeder im Vergleich zu iOS ein krummes Gesicht.
Kurz es sind zich Faktoren die mitspielen und ein Hersteller muss unheimlich fett investieren koennen mit dickem Verlust am Anfang um Apple an den Kragen gehen zu koennen.
Gipsel
2011-05-18, 01:12:25
Klar widmet sich der Core-Mark auch Cache und Memory, nachzulesen bei coremark.comAlso was Du auf der Webseite einer nordamerikanischen Belieferungsfirma für Supermärkte gelesen haben willst, weiß ich nicht, aber auf www.coremark.org (http://www.coremark.org/whatis.php?pg=whatis) findet sich diese Beschreibung:
Although it doesn’t reflect how you would use a processor in a real application, sometimes it’s important to isolate the CPU’s core from the other elements of the processor and focus on one key element. For example, you might want to have the ability to ignore memory and I/O effects and focus primarily on the pipeline operation. This is CoreMark’s domain. CoreMark is capable of testing a processor’s basic pipeline structure, as well as the ability to test basic read/write operations, integer operations, and control operations.Soviel dazu. Im Übrigen hatten wir das Thema der praktischen Unaussagefähigkeit von Coremark für auch nur mittelschwere (Desktop-)Aufgaben schon mal im Denver-Thread. Praktisch gesehen ist Coremark kaum besser als das simple Zählen der funktionsfähigen Integerpipes (mit kleinem Einmixen der AGU-Zahl). Über die Aussagefähigkeit dieses Vorgehens ist sich hier hoffentlich jeder klar.
=Floi=
2011-05-18, 07:11:13
Frag mal Motorola und jedes Motorola wie das BOM genau aussieht oder ob jemand von ihnen Bock hat mit Verlust zu verkaufen. Einfache Logik: ich bestelle ein paar hundert tausend SoCs vor und jemand anders etliche Millionen; gilt auch fuer jedes andere Material eines tablets. Groessere Mengen bedeuten auch niedrigere Preise.
wobei es 1. da auch grenzen gibt und 2. ein längerfristiger vertrag über mehrere jahre auch wünschenswert ist. Es nützt nichts, 1mio teile in einem jahr zu verkaufen, wenn der kunde nach einem jahr bei einer anderen firma kauft.
Ailuros
2011-05-18, 13:03:09
wobei es 1. da auch grenzen gibt und 2. ein längerfristiger vertrag über mehrere jahre auch wünschenswert ist. Es nützt nichts, 1mio teile in einem jahr zu verkaufen, wenn der kunde nach einem jahr bei einer anderen firma kauft.
Es gibt eben keine Grenzen wenn es zu BOMs kommt, da Apple im Gegensatz zu anderem Herstellern mit brutal groesseren Bestellungs-volumen (egal ob SoC, displays oder weiss der Geier was noch) spielt.
aylano
2011-05-18, 15:01:48
Da hier gesagt wurde, dass nVidia Probleme bekommen werde:
Letztes Jahr brach in Q2 nVidia's Low-End vollkommen ein. Sie verloren annährend $200 Millionen an Umsatz. Dieses Jahr - mit immer mehr X86-SoCs - will man $1 Milliarde erreichen. Irgendwie widerspricht dies dem, was hier noch gesagt wurde.
Was soll jetzt so positiv sein, wenn sie weniger Umsatz machen als vor einem Jahr?
Leicht zurückgegangen ist der Umsatz & Gewinn ja.
IMO hat sich auch die Geschäftsstrategie (durch den Abgang von Dirk Meyer) von AMD geändert, die jetzt nicht mehr so den Preis senken, wodurch AMD und dem Konkurrenten mehr Geld/Gewinn übrig bleibt.
Nicht zu vergessen ist, dass Nvidia wegen Fermi(-Tesla) eigentlich ab 2Q überdurchschnittliche Wuchstumsraten bekommen sollten.
nVidia erwartet vorallem wegen Tegra einen Umsatz von $1 Milliarde im nächsten Quartal. Sieht ziemlich danach aus, dass der diskrete Markt nirgendwo hingeht, trotz dem Intel und AMD vermehrt iGPU Produkte auf den Markt bringen.
Und weil der große Hoffnungsbringer Tesla & Profi-Karten auf 200 Mio.$ stagniert, ist jetzt die große Hoffnung Tegra.
Tegra ist sicher sehr interessant, aber am Beispiel Tesla sieht man auch, dass das Wachstum auch mal wieder ins Stocken geraten kann.
Und was stagniert, kann langfristig zu Rücklaufen führen, da die Konkurrenz immer Druck macht.
AFAIK bekommt Nvidia in den nächsten 5 Jahren 1,3 Mrd. $ was pro Quartal ausbezahlt wird. Eine Größen-Ordnung, die etwa den 100 Mio. $-Chipsatz-Entfall vom letzten Jahr entspricht.
Nvidia hatte vor der 40nm-Einführung noch 60% Markt-Anteil. Jetzt noch 50%. Also, viel darf sich Nvidia bei der 28nm-Einführung nicht mehr spielen.
Und genau auf diese 28nm bin ich sehr gespannt und frage mich, ob Nvidia die Einführung von neuen kleinen Fertigungen ernster nimmt bzw. viel besser umsetzen kann.
Hier erkennt man dann auch, dass AMD und Intel überhaupt nicht die Gefahr #1 für nVidia's Low-End darstellen. Es ist und wird auch in Zukunft ARM sein. Aber das wurde von nVidia frühzeitig erkannt und Tegra ist die Antwort.
Die Produktion von x86er-SoC ist bisher auch nicht wirklich angelaufen.
Westmere hatte keine großen Marktanteile und Sandy-Bridge wurde auch im 1Q kaum ausgeliefert.
Innerhalb eines Jahres wird es nie große Einbrüche geben.
Die Frage ist eher, wie es sich in den nächsten 3-5 Jahren entwickelt.
Zwar wir realtiv gesehen die iGPUs einige dGPUs ersetzten, aber da der Markt absolut auch weiter steigen wird, könnte trotzdem mehr dGPUs verkauft werden als jetzt, was mich auch nicht überraschen würde.
Es ist und wird auch in Zukunft ARM sein. Aber das wurde von nVidia frühzeitig erkannt und Tegra ist die Antwort.
Nvidia kann nur so stark sein, weil ARM die Lizenzen so extrem billig verkauft.
Das ist auch die große Stärke von ARM und ein Glücksfall für Nvidia.
Mal sehen, ob das immer so bleibt.
LovesuckZ
2011-05-18, 15:18:40
Was soll jetzt so positiv sein, wenn sie weniger Umsatz machen als vor einem Jahr?
Man bewertet Firmen nicht nur über Y-Y, sondern auch Entwicklung über Quartale. Nächtes Quartal wird es nämlich zeigen, wie dumm Y-Y als einzige Betrachtung ist.
IMO hat sich auch die Geschäftsstrategie (durch den Abgang von Dirk Meyer) von AMD geändert, die jetzt nicht mehr so den Preis senken, wodurch AMD und dem Konkurrenten mehr Geld/Gewinn übrig bleibt.
Aha. Deswegen ist der Umsatz und der Gewinn in der Grafikkartenabteilung von AMD geringer als letztes Jahr und als in Q4, trotzdem man Marktanteile gewonnen hat? Lustiges Kerlchen.
Tegra ist sicher sehr interessant, aber am Beispiel Tesla sieht man auch, dass das Wachstum auch mal wieder ins Stocken geraten kann.
Und was stagniert, kann langfristig zu Rücklaufen führen, da die Konkurrenz immer Druck macht.
AMD stagniert seit Jahren. Ein Markt wächst, bleibt gleich oder geht zurück. Was für ein Glück, dass wir dich haben, um uns diese Erkenntnis mitzuteilen.
Achja: "Ati" stagniert seit 7 Jahren. :freak:
Nvidia hatte vor der 40nm-Einführung noch 60% Markt-Anteil. Jetzt noch 50%. Also, viel darf sich Nvidia bei der 28nm-Einführung nicht mehr spielen.
Und nVidia's Umsatz-Entwicklung war nie so stabil wie heute, wo man anscheinend über das ganze Jahr $1 Mrd. erwartet. Soviel dazu, dass Marktanteile irgendwas bedeuten.
Nvidia kann nur so stark sein, weil ARM die Lizenzen so extrem billig verkauft.
Das ist auch die große Stärke von ARM und ein Glücksfall für Nvidia.
Was für ein Glückfall für nVidia, dass eine Firma ein vollkommen anderes Lizenzmodell anwendet als Intel. :freak:
Ja natuerlich ist der smartphone Markt um einiges groesser, nur leider konzentrierten sie sich mit T2 zu viel auf tablets. Wird T3 der smart-phone Messias sein mit reduzierten Spezifikationen? Gegen iPhone5 wohl leider nicht
T2 ist Tablet wie Smartphone SoC. Oder ist A5 genauso eher ein Tablet als ein Smartphone SoC, weil das iPhone5 fast 6 Monate nach dem ipad 2 kommt?
Egal was jeder glaubt mir sitzt im Grunde Apple's Erfolg ueberhaupt nicht. Ich hab aber keinen anderen Ausweg als mich an den (selbst manchmal vorhersehbaren) Tatsachen zu richten.
Frag mal Motorola und jedes Motorola wie das BOM genau aussieht oder ob jemand von ihnen Bock hat mit Verlust zu verkaufen. Einfache Logik: ich bestelle ein paar hundert tausend SoCs vor und jemand anders etliche Millionen; gilt auch fuer jedes andere Material eines tablets. Groessere Mengen bedeuten auch niedrigere Preise.
Wobei Honeycomb erst jetzt so langsam auf der richtigen Schiene faehrt; bei den Android tablet Vorstellungen machte fast jeder im Vergleich zu iOS ein krummes Gesicht.
Kurz es sind zich Faktoren die mitspielen und ein Hersteller muss unheimlich fett investieren koennen mit dickem Verlust am Anfang um Apple an den Kragen gehen zu koennen.
Wem interessiert Apple? Apple ist eine Welt für sich.
Warum vergleichen wir nicht andere Firmen: Qualcomm, Samsung, Ti etc. nVidia hat ihren ersten wirklich konkurrenzfähigen ARM-SoC auf dem Markt und hat damit einiges erreicht. Für eine Firma, die meisten ein kleines Licht in diesem Markt und fast ausnahmelos von x86 abhängig war, sind sie einen riesigen Schritt nach vorne gekommen. nVidia hat es in Smartphones und einer Vielzahl von Tablets geschafft. AMD dagegen, eine annährend vergleichbare Firma mit ähnlichen Mitteln, dümpelt immer noch vor sich hin und lässt sich im Prestige-Bereich "Fusion" sogar von Intel düpieren.
Und man muss nicht mit Apple konkurrieren. Wie der Smartphone-Markt wird auch der Tablet-markt und höher wachsen, wodurch soviel mehr Platz und Marktvolumen entstehen wird. T2 ist die Lead-Plattform für Honeycomb. Das gibt nVidia ein riesigen Push und Tegra3 scheint pünktlich im Tablets-Markt zu erscheinen. Und das schaffte nVidia ohne auch nur "umheimlich fett investieren" zu müssen. AMD gab $5 Mrd. für Ati aus. Intel kam vor ihnen mit "Fusion" auf den Markt. nVidia entwickelte Tegra annährend nebenbei und war vor der Konkurrenz mit einem DualCore-Design auf dem Markt. Ein Neuling, in einem Markt dominiert von Schwergewichtern.
Tiamat
2011-05-18, 16:37:11
Also was Du auf der Webseite einer nordamerikanischen Belieferungsfirma für Supermärkte gelesen haben willst, weiß ich nicht, aber auf www.coremark.org (http://www.coremark.org/whatis.php?pg=whatis) findet sich diese Beschreibung:
Soviel dazu. Im Übrigen hatten wir das Thema der praktischen Unaussagefähigkeit von Coremark für auch nur mittelschwere (Desktop-)Aufgaben schon mal im Denver-Thread. Praktisch gesehen ist Coremark kaum besser als das simple Zählen der funktionsfähigen Integerpipes (mit kleinem Einmixen der AGU-Zahl). Über die Aussagefähigkeit dieses Vorgehens ist sich hier hoffentlich jeder klar.
CoreMark is comprised of small and easy to understand ANSI C code with a realistic mixture of read/write operations, integer operations, and control operations. CoreMark has a total binary size of no more then 16K using gcc on an x86 machine (this small size makes it more convenient to run using simulation tools).
Unlike EEMBC’s primary benchmark suites, CoreMark is not based on any real application, but the workload is actually comprised of several commonly used algorithms that include matrix manipulation (to allow for the use of MAC and common math operations), linked list manipulation (to exercise the common use of pointers), state machine operation (common use of data dependent branches), and Cyclic Redundancy Check (CRC is a very common function used in embedded).
Due to the focused nature of CoreMark, it will be useful for testing a processor’s pipeline operation, memory (or cache if any) access, and handling of integer operations. .
Und das sich schneller RAM sich bezahlt macht, ist doch immer der Fall. Befehle werden vom Arbeitsspeicher eingelesen, in Register gelegt und weiterverarbeitet, Ergebnisse nachfolgend in den Ram geschrieben. Nenn mir einen Benchmark, der net davon profitiert.
N0Thing
2011-05-18, 16:57:16
Aber kein Plan obs die Version nach DE schafft.
http://www.chip.de/news/Samsung-Galaxy-S2-Billiger-mit-Tegra-2-und-S-LCD_47469753.html
Das Droid X2 kommt in Amerika bald auf dem Markt und laut Conference Call arbeitet man an "Low-Cost" Tegra2 Phones. Und natürlich Tegra3 am Ende des Jahres nicht vergessen, wo gemunkelt wird, dass Google T3 als SoC für's neue Nexus einsetzen könnte.
Also weiß man bisher nur von 3 weiteren namentlich bekannten Handys? Ich hab da irgendwie mit mehr gerechnet, immerhin sieht die Performance bei den Reviews immer sehr beeindruckend aus. Schade, bei einer größeren Auswahl wäre vielleicht auch ein Handy für mich dabei gewesen. :(
LovesuckZ
2011-05-18, 17:01:12
Also weiß man bisher nur von 3 weiteren namentlich bekannten Handys? Ich hab da irgendwie mit mehr gerechnet, immerhin sieht die Performance bei den Reviews immer sehr beeindruckend aus. Schade, bei einer größeren Auswahl wäre vielleicht auch ein Handy für mich dabei gewesen. :(
Ich würde ja sagen: Die Handys sollten erstmal nach Deutschland kommen. :freak: Das LG gibt es ja, aber das war es dann auch. Wieder so ein Management-Fail von Motorola, die ihr Atrix schon längt in Deutschland hätten veröffentlichen können.
Gipsel
2011-05-18, 17:31:51
CoreMark has a total binary size of no more then 16K using gcc on an x86 machine (this small size makes it more convenient to run using simulation tools).
Unlike EEMBC’s primary benchmark suites, CoreMark is not based on any real application,
[..]
Due to the focused nature of CoreMark, it will be useful for testing a processor’s pipeline operation, memory (or cache if any) access, and handling of integer operations. .
.Und das sich schneller RAM sich bezahlt macht, ist doch immer der Fall. Befehle werden vom Arbeitsspeicher eingelesen, in Register gelegt und weiterverarbeitet, Ergebnisse nachfolgend in den Ram geschrieben. Nenn mir einen Benchmark, der net davon profitiert.
Das mit dem "or cache if any" ist in dem Zusammenhang so zu verstehen, daß sobald da auch nur ein minimaler L1-Cache existiert, praktisch nicht auf den Speicher zugegriffen wird und das komplett aus dem L1-läuft. Insofern ist CoreMark schon mal ein Beispiel, welches nicht von einem schnellen RAM profitiert ;)
aylano
2011-05-18, 19:23:57
Man bewertet Firmen nicht nur über Y-Y, sondern auch Entwicklung über Quartale. Nächtes Quartal wird es nämlich zeigen, wie dumm Y-Y als einzige Betrachtung ist.
Wenn man zitiert, geht man auch normalerweise auf das Zitat ein, wenn man es normalerweise überhaupt versteht.
Wenn man eben Y-Y & die Entwicklung über Quartale vergleicht, kommt man eben drauf, dass der Umsatz & Co eingebrochen ist und über die Quartale fast aufgeholt hat.
Also kam der einbruch eh, wie es damals einige sagten.
Und
Was soll jetzt so positiv sein, wenn sie weniger Umsatz machen als vor einem Jahr?
Na ja, du kannst gerne die Frage in einem Quartal beantworten, wenn die Betrachtung dann auf einmal richtig ist, wenn sowohl Y-Y und Q-Q nach oben zeigen.
Na ja, wenn man nicht weiß, dass AMD letztes Jahr zu dieser Zeit die schnellste single-GPU-Karte und Grafikkarte hatte, weil die Konkurrenz keine neuen zusammenbringt, ist ein höhere Gewinn & Umsatz als heute mehr als logisch, wenn die Konkurrenz in den Zwischenzeit die geplanten Grafikkarten dann doch vernünftig am Markt brachte.
Jetzt sind wir in einer anderen Phase, wo beide Konkurrenten ausgereifte Produkte am Markt haben.
[QUOTE]
AMD stagniert seit Jahren. Ein Markt wächst, bleibt gleich oder geht zurück. Was für ein Glück, dass wir dich haben, um uns diese Erkenntnis mitzuteilen.
Achja: "Ati" stagniert seit 7 Jahren. :freak:
Das Problem ist eben, ATI war in den letzten 7 Jahren zwischendurch (mehr) als die Hälfte @ Umsatz und Marktanteile zurückgegangen und hätte wegen PhysX & Co fast den Anschluss verloren, wenn RV770 nicht so gut geworden wäre.
Also, wenn das Aufholen so normal ist, kann ich mir noch gerne die Beträge in der Zeit vor RV770 lesen, wo ja gerade hier fast alle auf ein auferstehenden ATI glaubten/erwarteten, wo sich dann ATI in den nächsten Jahren wieder auf 50% Marktanteil zubewegt.
Und nVidia's Umsatz-Entwicklung war nie so stabil wie heute, wo man anscheinend über das ganze Jahr $1 Mrd. erwartet. Soviel dazu, dass Marktanteile irgendwas bedeuten.
Es ist ja kein Schlechtes Ergebnis.
Nur ist es nicht das geworden, was damals eben gehofft wurde.
Ich gratuliere dann Nvidia dann auch in 3 Jahren, wenn sie mit riesen Tegra-Erfolgen stabil bei 1 Mrd. $ Umsatz bleiben.
nVidia hat es in Smartphones und einer Vielzahl von Tablets geschafft. AMD dagegen, eine annährend vergleichbare Firma mit ähnlichen Mitteln, dümpelt immer noch vor sich hin und lässt sich im Prestige-Bereich "Fusion" sogar von Intel düpieren.
AMD dümpelt in einem fast 15 Mrd. $ Markt pro Quartal. In Gegensatz zu Nvidia können sie eben in ihrem Hauptgeschäft noch wachsen, so dass sie nicht gezwungen sind mit Tegra neue Geld-Quellen zu suchen.
T2 ist die Lead-Plattform für Honeycomb. Das gibt nVidia ein riesigen Push und Tegra3 scheint pünktlich im Tablets-Markt zu erscheinen. Und das schaffte nVidia ohne auch nur "umheimlich fett investieren" zu müssen. AMD gab $5 Mrd. für Ati aus. Intel kam vor ihnen mit "Fusion" auf den Markt. nVidia entwickelte Tegra annährend nebenbei und war vor der Konkurrenz mit einem DualCore-Design auf dem Markt. Ein Neuling, in einem Markt dominiert von Schwergewichtern.
Wenn es gut läuft, ist es immer schwer zu sehen, dass es mal auch stagnieren kann, weil alles nach oben Zeigt.
Es war genau vor einem Jahr auch schwer gegen Tesla-Cuda gegenzuargumentieren, da alles mit Tesla-Fermi so fantastisch aussah und später auf tiefen Niveau nach oben zeigte.
Hoffentlich geht es mit Tegra anders aus und der Aufwärtstrend geht länger weiter nach oben.
LovesuckZ
2011-05-18, 20:16:44
Wenn man zitiert, geht man auch normalerweise auf das Zitat ein, wenn man es normalerweise überhaupt versteht.
Wenn man eben Y-Y & die Entwicklung über Quartale vergleicht, kommt man eben drauf, dass der Umsatz & Co eingebrochen ist und über die Quartale fast aufgeholt hat.
Das ist ein Problem, wenn der, der zitiert, den Inhalt nicht begriffen hat.
Ich bin nicht deine Nanny, noch dein Lehrer. Ich habe von Q2 gesprochen. Da guidet nVidia den Umsatz um knapp $200 höher als letztes Jahr. Dein geschreibsel - wie eigentlich immer - passt einfach nicht.
Na ja, du kannst gerne die Frage in einem Quartal beantworten, wenn die Betrachtung dann auf einmal richtig ist, wenn sowohl Y-Y und Q-Q nach oben zeigen.
Ja, Q2 wird anscheinend genau dies zeigen. :rolleyes:
Na ja, wenn man nicht weiß, dass AMD letztes Jahr zu dieser Zeit die schnellste single-GPU-Karte und Grafikkarte hatte, weil die Konkurrenz keine neuen zusammenbringt, ist ein höhere Gewinn & Umsatz als heute mehr als logisch, wenn die Konkurrenz in den Zwischenzeit die geplanten Grafikkarten dann doch vernünftig am Markt brachte.
Jetzt sind wir in einer anderen Phase, wo beide Konkurrenten ausgereifte Produkte am Markt haben.
AMD hat ca. 14% an Marktanteile gegenüber Q1 2010 im diskreten Markt gewonnen. Und gleichzeitig geht der Umsatz zurück? Oh, das ist also die Logik, die man heutzutage in der Chefetage benötigt.
AMD dümpelt in einem fast 15 Mrd. $ Markt pro Quartal. In Gegensatz zu Nvidia können sie eben in ihrem Hauptgeschäft noch wachsen, so dass sie nicht gezwungen sind mit Tegra neue Geld-Quellen zu suchen.
Sie können wachsen? Lassen wir dochmal AMD zu Wort kommen:
For the second quarter of 2011, AMD expects second quarter revenue to be flat to slightly down sequentially
http://seekingalpha.com/article/264958-advanced-micro-devices-ceo-discusses-q1-2011-results-earnings-call-transcript
Ironischerweise sagt nVidia, dass ihr Umsatz für Q2 4-6% wachsen werde - dank Intel und vorallem dank Tegra. Wenn eine Firma trotz Einführung einer kompletten Bottom to Top Produktfamilie die Erwartungen runterschraubt, brauchen wir von Wachstum im Kerngeschäft nicht reden.
aylano
2011-05-19, 00:40:10
Ich bin nicht deine Nanny, noch dein Lehrer. Ich habe von Q2 gesprochen. Da guidet nVidia den Umsatz um knapp $200 höher als letztes Jahr.
Klar ist dein Fokus nur auf den 2Quartal geerichte, da hier wieder "alle Zeichen" nach oben stehen.
Und bis zum 28nm-Wechseln sieht es eigentlich ziemlich ruhig und stabil für ein weiteres Wachstum aus. Aber dann beginnt der Spaß.
AMD hat ca. 14% an Marktanteile gegenüber Q1 2010 im diskreten Markt gewonnen. Und gleichzeitig geht der Umsatz zurück? Oh, das ist also die Logik, die man heutzutage in der Chefetage benötigt.
Wie ich schon sagte.
Die Konkurrenz-Situation ist jetzt schlechter als damals, wo Nvidia in Sachen Konkurrenz-Fähigkeit schlechter war.
Und wenn die Konkurrenz stärker wird, dann macht man generell weniger Gewinn bzw. muss mehr Stück um einen Gewinn-Rückgang möglichst aufzuhalten.
Dazu schrieb keiner von einem Linearen Wachstum von Marktanteile und Umsatz.
Und wie gesagt, der 50% Marktanteil ist jetzt auch eine bessere Marktpostion.
Oder für dich übersetzt.
Seit vielen Quartelen macht/machte? Tegra nur Verluste. Also, laut den Geschäftsbericht-Zahlen ein schlechtes Produkt, dass eigentlich eingestampft gehört, weil nichts zu gewinnen ist.
Oder gibts doch andere Gründe, warum man Tegra fortsetzen soll?
Aber es ist schon interressant, wie dein Fokus "plötzlich" von Tesla auf Tegra gewechselt ist, nachdem Telsa nicht das erbrachte, was Nvidia vor einem Jahr vorgaukelte/prognostizitierte
Sie können wachsen? Lassen wir dochmal AMD zu Wort kommen:
Lass AMD sprechen, aber such dir nicht nur die Perioden raus, wo es noch runter geht.
Da bleibt nur das 2Q zum schlechtreden über.
Ironischerweise sagt nVidia, dass ihr Umsatz für Q2 4-6% wachsen werde - dank Intel und vorallem dank Tegra. Wenn eine Firma trotz Einführung einer kompletten Bottom to Top Produktfamilie die Erwartungen runterschraubt, brauchen wir von Wachstum im Kerngeschäft nicht reden.
http://phx.corporate-ir.net/phoenix.zhtml?p=irol-eventDetails&c=74093&eventID=3983406
Inronischerweise sagte Seifert, AMD wird bis Jahres-Ende kräftig wachsen.
Aber gut, wenn du das geschrieben hättest, dann könntest du AMD nicht schlecht reden.
Übrignds, da erzählt Seifert von der geänderten Strategie im GPU-Markt, wo man nicht mehr weitere Wachstumsraten nötig hat und lieber etwas mehr Geld verdienen wird.
2011 wird eher ein Ruhiges Jahr, wo Nivida kontenuierlich (leicht) wachsen wird. Das interessante Jahr wird das 2012er.
Nicht nur der GPU-Markt sondern auch für den Tegra-Markt, wo sich die ganze ARM-A9-Konkurrenz langsam aber doch formiert.
Ailuros
2011-05-19, 17:30:08
T2 ist Tablet wie Smartphone SoC. Oder ist A5 genauso eher ein Tablet als ein Smartphone SoC, weil das iPhone5 fast 6 Monate nach dem ipad 2 kommt?
Tegra3 hat eine aggressivere "Segmentierung" zwischen smart-phone und tablet SoCs als bei T2 aus gutem Grund.
Wem interessiert Apple? Apple ist eine Welt für sich.
Natuerlich ist Apple eine Welt fuer sich, nur leider waere die angebrachtere Frage hier wen zum Henker Tegra2 interessieren sollte nach den eher bescheidenen Verkaufszahlen.
Warum vergleichen wir nicht andere Firmen: Qualcomm, Samsung, Ti etc. nVidia hat ihren ersten wirklich konkurrenzfähigen ARM-SoC auf dem Markt und hat damit einiges erreicht.
Was denn spezifisch fuer den smart-phone Markt? Samsung und TI verkaufen S5PC11x und OMAP3 SoCs immer noch wie warme Semmeln und in verdammt hohen Volumen und daran wird sich auch in der Zukunft nichts aendern.
Die Antwort ist was smart-phones betrifft LG, aber von einem grossen Verkaufserfolg sehe ich da auch nichts. Nebenbei verkauft LG wie jeglicher anderer Hersteller Geraete mit X verschiedenen SoC. Ein einziger Kuckuck bringt eben nicht den Fruehling. Aber wenn wir schon dabei sind LG will T2 so schnell wie moeglich los werden, und ja dass sie trotz allem auf T3 moeglicherweise setzen werden hat nichts damit zu tun.
Für eine Firma, die meisten ein kleines Licht in diesem Markt und fast ausnahmelos von x86 abhängig war, sind sie einen riesigen Schritt nach vorne gekommen. nVidia hat es in Smartphones und einer Vielzahl von Tablets geschafft.
Ich sollte aber wohl nicht wagen nach Verkaufszahlen zu fragen. Nur weil A, B oder C integriert, vermarktet, verkauft usw heisst es noch lange nicht das ein Erfolg werden wird. Den idiotischen Fehler machen auch meistens fast alle moechtegern Analysten die bis jetzt jeglichen design win als "Erfolg" markierten.
AMD dagegen, eine annährend vergleichbare Firma mit ähnlichen Mitteln, dümpelt immer noch vor sich hin und lässt sich im Prestige-Bereich "Fusion" sogar von Intel düpieren.
Und man muss nicht mit Apple konkurrieren. Wie der Smartphone-Markt wird auch der Tablet-markt und höher wachsen, wodurch soviel mehr Platz und Marktvolumen entstehen wird.
Es werden eben leider nicht alle ueberleben und dabei ist es wurscht was fuer Technologie drinsteckt uebervereinfacht. Diejenigen Hersteller die eine klare Vision haben, haben auch sehr gute Chancen den Weg zum Erfolg zu finden. Im Gegenfall generiert man ein NOKIA Modell und weiss irgend wann nicht mehr wo es langgehen soll.
T2 ist die Lead-Plattform für Honeycomb. Das gibt nVidia ein riesigen Push und Tegra3 scheint pünktlich im Tablets-Markt zu erscheinen. Und das schaffte nVidia ohne auch nur "umheimlich fett investieren" zu müssen.
Ich hab vom riesigen "Push" bei Tegra2 nichts sehen koennen, obwohl viele hier kunterbunt immer und immer wieder das Gegenteil behauptet haben. Honeycomb ist gerade beim ausreifen und wenn es wirklich voll ueberzeugen kann haben Android tablets dann auch bessere Chancen wenn aber auch alles andere am Ende stimmt wie z.B. der Preis. Es pfeift eben keiner ueber ein paar hundert Tausend verkaufte Geraete pro design-win und das ist in diesem Fall sogar der beste Fall.
Was Tegra3 auf die Beine stellen kann und wird bleibt abzusehen, aber zumindest AP30 macht mir nicht die geringste Sorge was smart-phones betrifft.
AMD gab $5 Mrd. für Ati aus. Intel kam vor ihnen mit "Fusion" auf den Markt. nVidia entwickelte Tegra annährend nebenbei und war vor der Konkurrenz mit einem DualCore-Design auf dem Markt. Ein Neuling, in einem Markt dominiert von Schwergewichtern.
Weder AMD noch Intel haben irgendwelche Bedeutung momentan im tablet Markt und schon gar nicht im smart-phone Markt. Ob und was die beiden in der Zukunft auf die Beine stellen koennen bleibt abzusehen.
Dural
2011-05-19, 21:48:15
Dell jetzt auch mit Tegra :)
Die Akkulaufzeit soll bis zu 12 Stunden betragen. Betrieben wird das Gerät von einem Nvidia Tegra2 Chipsatz mit zwei Kernen und einem Takt von einem Gigahertz. Zusätzlich stehen ein Gigabyte DDR2-RAM zur Verfügung.
http://www.computerbase.de/news/consumer-electronics/tablet-pcs/2011/mai/dell-tablet-mit-honeycomb-gesichtet/
Ailuros
2011-05-19, 23:25:09
Dell hatte Tegra2 schon im Dell Streak 10.
N0Thing
2011-05-20, 13:16:19
Wieder so ein Management-Fail von Motorola, die ihr Atrix schon längt in Deutschland hätten veröffentlichen können.
Kommt wohl Ende Juni nach Deutschland. Link (http://www.computerbase.de/news/consumer-electronics/kommunikation/smartphones/2011/mai/motorola-atrix-kommt-im-sommer-nach-deutschland/)
LovesuckZ
2011-05-23, 15:58:31
Tegra3 hat eine aggressivere "Segmentierung" zwischen smart-phone und tablet SoCs als bei T2 aus gutem Grund.
Natürlich, weil T3 auch mehr Strom benötigen wird, wenn man ihn voll ausnützt.
Natuerlich ist Apple eine Welt fuer sich, nur leider waere die angebrachtere Frage hier wen zum Henker Tegra2 interessieren sollte nach den eher bescheidenen Verkaufszahlen.
Tegra2 ist nVidia's zweiter Chipsatz, der in ein Telefon wandert. LG und vorallem Motorola - die klastern damit ihr kompletter High-End zu, sind eine deutliche Steigerung zum KIN-Fail von Microsoft.
Was denn spezifisch fuer den smart-phone Markt? Samsung und TI verkaufen S5PC11x und OMAP3 SoCs immer noch wie warme Semmeln und in verdammt hohen Volumen und daran wird sich auch in der Zukunft nichts aendern.
Schön. Wäre auch ziemlich absurd, wenn nVidia als Neueinsteiger sofort allen davon rennen würde. nVidia hat fahrt aufgenommen. Ihr Ergebnis ist ziemlich gut für eine Firma, die vor zwei Jahren vollkommen abwesend war.
Die Antwort ist was smart-phones betrifft LG, aber von einem grossen Verkaufserfolg sehe ich da auch nichts. Nebenbei verkauft LG wie jeglicher anderer Hersteller Geraete mit X verschiedenen SoC. Ein einziger Kuckuck bringt eben nicht den Fruehling. Aber wenn wir schon dabei sind LG will T2 so schnell wie moeglich los werden, und ja dass sie trotz allem auf T3 moeglicherweise setzen werden hat nichts damit zu tun.
Achja? Ich sehe nur, dass LG in Zukunft selbst SoC fertigen wollen. Sieht wohl eher danach, dass sie jeden anderen SoC loswerden wollen. :rolleyes:
Ich hab vom riesigen "Push" bei Tegra2 nichts sehen koennen, obwohl viele hier kunterbunt immer und immer wieder das Gegenteil behauptet haben. Honeycomb ist gerade beim ausreifen und wenn es wirklich voll ueberzeugen kann haben Android tablets dann auch bessere Chancen wenn aber auch alles andere am Ende stimmt wie z.B. der Preis. Es pfeift eben keiner ueber ein paar hundert Tausend verkaufte Geraete pro design-win und das ist in diesem Fall sogar der beste Fall.
Stimmt. Lead-Plattform für HC3.0 mit bald mehr als 10 Designs auf dem Markt, Motorola's SoC für's High-End mit 3 Designs im Sommer, LG's Push ins High-End mit T2. Wo ist eigentlich die Konkurrenz mit ihrem Next-Gen ARM-SoCs? Oh, die versauen im Playbook und noch nicht kaufbarem iPad-Klon namens HP TouchPad.
Weder AMD noch Intel haben irgendwelche Bedeutung momentan im tablet Markt und schon gar nicht im smart-phone Markt. Ob und was die beiden in der Zukunft auf die Beine stellen koennen bleibt abzusehen.
Spielt keine Rolle, da nVidia Tegra nebenbei entwickeln konnte. AMD zahlte $5 Mrd. für ATi, Intel gab nVidia zu erst eine Chipsatz-Lizenz und bezahlt jetzt $1,5 Mrd. nVidia gab eben gerademal mehr als $300 Millionen für einen BaseBand-Anbieter aus, dessen Risikokapital bei Gründung genauso hoch war.
fondness
2011-05-23, 16:15:01
nVidia entwickelte Tegra annährend nebenbei und war vor der Konkurrenz mit einem DualCore-Design auf dem Markt. Ein Neuling, in einem Markt dominiert von Schwergewichtern.
Weil sich NV offenbar unter Zugzwang sah früher mit einem Dual-Core zu kommen um endlich mal ein paar Designs zu bekommen. Die Cores kommen ohnehin von ARM, die GPU ist bestenfalls mittelmäßig, spektakulär ist daran wenig.
LovesuckZ
2011-05-23, 16:18:10
Weil sich NV offenbar unter Zugzwang sah früher mit einem Dual-Core zu kommen um endlich mal ein paar Designs zu bekommen. Die Cores kommen ohnehin von ARM, spektakulär ist daran wenig.
Jeder Neuling benötigt Innovation und Mut. Es war ein Geniestreich gleich auf DualCore A9 zu gehen. Die GPU ist auf dem selben Niveau wie alles, dass letztes Jahr angeboten wurde - A4, SGX540 etc. Das AC100 kam 2 1/2 Monate nach dem iPad in Deutschland raus und die GPU ist fast doppelt so schnell.
Tegra2 erscheint nur jetzt schwach, weil der Chip kurz vor der Ablösung steht. tegra3 wird dann auf die Konkurrenz aufschließen.
fondness
2011-05-23, 16:20:26
Jeder Neuling benötigt Innovation und Mut. Es war ein Geniestreich gleich auf DualCore A9 zu gehen.
Solange alle nur ARM Cores lizenzieren wird sich niemand absetzten können, sondern höchstens die Preise purzeln. Für eine Geniestreich sehe die Verkaufszahlen vergleichsweise ernüchternd aus. Ganz im Gegenteil, NV kam sehr früh mit Tegra2, aber die Software war eben nicht bereit und für viele Smartphones war der Stromverbrauch wohl bereits grenzwertig.
LovesuckZ
2011-05-23, 16:25:40
Solange alle nur ARM Cores lizenzieren wird sich niemand absetzten können. Für eine Geniestreich sehe die Verkaufszahlen vergleichsweise ernüchternd aus. Ganz im Gegenteil, NV kam sehr früh mit Tegra2, aber die Software war eben nicht bereit.
Die Software wäre auch ohne Tegra2 nicht bereit gewesen. Android Tablets waren, bis auf's Tab, von vornerein großer Schrott. Erst die neuen Android 3.x Tablets sind vernünftig. Und wie man sieht, kann sich nVidia mit Tegra2 im Tablets-Markt abseits von Apple absetzen, weil sie aggressiver mit der Lizenzierung waren. Die Konkurrenz - nichtmal abhängig von Android - ist noch langsamer und legten alle noch eine Zwischenrunde mit Single-Core A8 ein.
Und die Verkaufszahlen sind erheblich besser als mit Tegra1. Und man befindet sich jetzt erst in der Startphase.
für viele Smartphones war der Stromverbrauch wohl bereits grenzwertig.
Weder das LG noch das Atrix haben schlechte Laufzeiten.
nomadhunter
2011-05-23, 16:34:52
Stimmt. Lead-Plattform für HC3.0 mit bald mehr als 10 Designs auf dem Markt, Motorola's SoC für's High-End mit 3 Designs im Sommer, LG's Push ins High-End mit T2. Wo ist eigentlich die Konkurrenz mit ihrem Next-Gen ARM-SoCs? Oh, die versauen im Playbook und noch nicht kaufbarem iPad-Klon namens HP TouchPad.
Wen interessieren denn die Android-Tablets? Bis jetzt kann man Honeycomb nur als Flop bezeichnen, genauso wie die Froyo-Tablets vorher. 10 Designs helfen Nvidia nichts, wenn die Stückzahlen nicht stimmen. Die Konkurrenz steckt ihre Next-Gen-SoCs in Smartphones und fährt damit wesentlich besser. Samsung muss für das Galaxy S2 sogar noch T2 zukaufen, weil sie mit der Exynos-Produktion nicht hinterher kommen. Die haben vorerst gar kein Interesse daran, ihren High-End-SoC an Dritthersteller zu verkaufen.
LovesuckZ
2011-05-23, 16:39:54
Wen interessieren denn die Android-Tablets? Bis jetzt kann man Honeycomb nur als Flop bezeichnen, genauso wie die Froyo-Tablets vorher. 10 Designs helfen Nvidia nichts, wenn die Stückzahlen nicht stimmen.
99% der Leute, die Honeycomb als Flop bezeichnen, sind die, die es kaum testen konnten. Honeycomb ist dermaßen genial, es ist ein vollkommen anderes Feeling als iOS. Ich habe hier über das Netz Serien auf mein Transformer kopiert, gleichzeitig ein Youtube-Video geladen und ein Test auf Gamestar.de gelesen.
Wer meint, Honeycomb wäre schlecht, weil es sich nicht genauso smooth scrollt wie iOS, der verpasst so einiges.
Und die Kritik an den Honeycomb-Tablets werden immer besser. Sei das A500, das Transformer oder selbst das Xoom.
Mancko
2011-05-23, 17:49:15
Solange alle nur ARM Cores lizenzieren wird sich niemand absetzten können, sondern höchstens die Preise purzeln.
Das stimmt auch nur bedingt, weil:
A) neben der CPU eben auch ein GPU Teil benötigt wird
und
B) Nvidia nach dem Tegra 3 nicht einfach einen fertigen ARM Core lizensieren wird sondern schlicht und ergreifend einen komplett eigenen ARM Core bauen wird, da sie den ganzen Befehlssatz lizensiert haben. Im Endeffekt nichts anderes als was AMD im x86 Bereich macht.
Durch die Icera Aquisition sind sie dann auch noch in der Lage alles in einem Package zu liefern.
Wenn Du mich fragst, hat Nvidia die bisherigen Schwachstellen im Geschäft erkannt und entsprechend gehandelt. Da sie relativ klein sind können sie sich auch schnell verändern, anders als so mancher großer Konzern. Viele von denen werden die Lust am SoC Geschäft in den nächsten 2 bis 3 Jahren verlieren und sich wieder verabschieden.
Das die Software länger braucht, kann Nvidia kaum beeinflussen. Das ist aber kein langfristiges Problem. Im Smartphone Bereich waren auch alle deutlich nach Apple am Markt. Jetzt verliert Apple dort bereits gegenüber der Android Produktschwemme an Boden. Das wird auch bei Tablets passieren.
nomadhunter
2011-05-23, 17:58:07
99% der Leute, die Honeycomb als Flop bezeichnen, sind die, die es kaum testen konnten. Honeycomb ist dermaßen genial, es ist ein vollkommen anderes Feeling als iOS. Ich habe hier über das Netz Serien auf mein Transformer kopiert, gleichzeitig ein Youtube-Video geladen und ein Test auf Gamestar.de gelesen.
Wer meint, Honeycomb wäre schlecht, weil es sich nicht genauso smooth scrollt wie iOS, der verpasst so einiges.
Und die Kritik an den Honeycomb-Tablets werden immer besser. Sei das A500, das Transformer oder selbst das Xoom.
Du hast offensichtlich gar nicht verstanden, um was es geht. Honeycomb kann so toll sein wie es will, wichtig ist, ob die Leute es kaufen. Und das tun sie bisher nicht. Also kann man Honeycomb bisher nur als Flop bezeichnen.
LovesuckZ
2011-05-23, 18:10:57
Du hast offensichtlich gar nicht verstanden, um was es geht. Honeycomb kann so toll sein wie es will, wichtig ist, ob die Leute es kaufen. Und das tun sie bisher nicht. Also kann man Honeycomb bisher nur als Flop bezeichnen.
Ähm, sollte man vielleicht nichtmal ein komplettes Quartal warten? HC-tablets gibt es erst richtig seit Ende April/Anfang Mai. Das Asus Transformer verkauft sich ziemlich gut. Asus will 1 Millionen Tablets in Q2 ausliefern.
Logisch, dass die Leute nicht scharen rauslaufen und sich ein $599 Xoom kaufen. :rolleyes:
Ailuros
2011-05-23, 18:40:24
Natürlich, weil T3 auch mehr Strom benötigen wird, wenn man ihn voll ausnützt.
Welches wohl nicht immer der Fall sein wird, was eine eher bescheidene Verbrauchssteigerung aber auch Leistungssteigerung bedeuten koennte.
Tegra2 ist nVidia's zweiter Chipsatz, der in ein Telefon wandert. LG und vorallem Motorola - die klastern damit ihr kompletter High-End zu, sind eine deutliche Steigerung zum KIN-Fail von Microsoft.
GoForce hatte mehr verkauft als Tegra 1 und 2 zusammen; ergo erstmal nicht der erste application processor von NV und zweitens eben nicht der Mega-Erfolg den manche aus dem Kaffeesatz herauslesen wollten.
Schön. Wäre auch ziemlich absurd, wenn nVidia als Neueinsteiger sofort allen davon rennen würde. nVidia hat fahrt aufgenommen. Ihr Ergebnis ist ziemlich gut für eine Firma, die vor zwei Jahren vollkommen abwesend war.
Wenn ich PR Quark lesen will wende ich mich direkt an NV; wie oben schon steht und ich schon etliche Male wiederholt habe ist es eben nicht NV's Einstieg. Es passt eben gerade es so zu praesentieren. Von Uebertreibungen und marketing-technischen Luegen waren sie schon damals nicht immun. GoForce 5500 sollte nach NV 30fps Durchschnitt in 1024*768 bringen und als man die Dinger endlich in die Hand nahm konnte man tolle einstellige fps Stotterfeste bewundern.
Achja? Ich sehe nur, dass LG in Zukunft selbst SoC fertigen wollen. Sieht wohl eher danach, dass sie jeden anderen SoC loswerden wollen. :rolleyes:
LG wird tatsaechlich selber SoCs herstellen. Langfristig sogar vielleicht alle. Vorraussetzung ist natuerlich wie bei jedem Hersteller dass ein Projekt zu einem Erfolg wird. LG steht so oder so auf wackligen Beinen.
Stimmt. Lead-Plattform für HC3.0 mit bald mehr als 10 Designs auf dem Markt, Motorola's SoC für's High-End mit 3 Designs im Sommer, LG's Push ins High-End mit T2. Wo ist eigentlich die Konkurrenz mit ihrem Next-Gen ARM-SoCs? Oh, die versauen im Playbook und noch nicht kaufbarem iPad-Klon namens HP TouchPad.
Weder tablet Verkaufszahlen und schon gar nicht smart-phone Verkaufszahlen sind selbst im geringsten im Bereich des erhofften oder projezierten.
Spielt keine Rolle, da nVidia Tegra nebenbei entwickeln konnte.
Dieses nebenbei ist alles andere als eine kleine Abteilung mit bescheidenen Resourcen oder geringen Ausgaben.
AMD zahlte $5 Mrd. für ATi, Intel gab nVidia zu erst eine Chipsatz-Lizenz und bezahlt jetzt $1,5 Mrd. nVidia gab eben gerademal mehr als $300 Millionen für einen BaseBand-Anbieter aus, dessen Risikokapital bei Gründung genauso hoch war.
Hast Du sonst noch irgend welches irrelevantes Material mich zu langweilen? AMD und Intel haben momentan gar keine Existenz im embedded Markt und das bisschen das NV bis jetzt aufgeruehrt hat ist ja selbst nach Dir nicht wegen dem "GPU Schnickschnack" (der zufaelligerweise immer noch ihr Kerngeschaeft ist) sondern wegen dem "CPU Schnickschnack".
Was soll mir der Aufkauf von Icera genau sagen? Dass damit jeglicher zukuenftiger Erfolg garantiert ist oder was? Wenn IMG zum Verkauf stehen wuerde und Intel es fuer einige Millarden $ kaufen wuerde waere Intel's Ticket fuer den embedded Erfolg auch garantiert? Eben nicht.
Intel kann und will Grafik immer noch nicht richtig verstehen und AMD hat das DX11 Problem momentan. Beides wird man wohl verstehen koennen.
Ähm, sollte man vielleicht nichtmal ein komplettes Quartal warten? HC-tablets gibt es erst richtig seit Ende April/Anfang Mai. Das Asus Transformer verkauft sich ziemlich gut. Asus will 1 Millionen Tablets in Q2 ausliefern.
Logisch, dass die Leute nicht scharen rauslaufen und sich ein $599 Xoom kaufen. :rolleyes:
Wir werden hoffentlich nach etlichen Quartalen alle noch hier sein und dann werden wir schon sehen ob wir irgendwelche Wundertueten verpasst haben. Je mehr Quartale vergehen desto weiter wird das von NV selber projezierte 15Mio Ziel.
nomadhunter
2011-05-23, 19:16:29
Ähm, sollte man vielleicht nichtmal ein komplettes Quartal warten? HC-tablets gibt es erst richtig seit Ende April/Anfang Mai. Das Asus Transformer verkauft sich ziemlich gut. Asus will 1 Millionen Tablets in Q2 ausliefern.
Logisch, dass die Leute nicht scharen rauslaufen und sich ein $599 Xoom kaufen. :rolleyes:
Zum Thema Transformer:
http://www.crunchgear.com/2011/05/02/report-asus-limited-to-only-10k-transformer-tablets-per-month-due-to-component-shortage/
Die bisherigen Honeycomb-Verkaufszahlen sehen also ungefähr so aus:
Xoom: <100.000
Transformer: ~10.000
Ich geh davon aus, dass Samsung heute schon mehr Galaxy S2 verkauft hat, als Motorola und Asus insgesamt an HC-Tablets herstellen wollen, geschweige denn je verkaufen werden. Die Android-Tablets sind verglichen mit dem Smartphone-Markt bedeutungslos. Wenn Nvidia also wirklich Fuß fassen will, müssen sie Tegra in ein erfolgreiches Smartphone bekommen. Ihr bisher größte Erfolg ist wohl der, dass Samsung ihnen ein paar T2 fürs Galaxy S2 abnimmt, weil sie selber nicht genug Exynos produzieren können.
LovesuckZ
2011-05-23, 19:18:20
Zum Thema Transformer:
http://www.crunchgear.com/2011/05/02/report-asus-limited-to-only-10k-transformer-tablets-per-month-due-to-component-shortage/
Die bisherigen Honeycomb-Verkaufszahlen sehen also ungefähr so aus:
Xoom: <100.000
Transformer: ~10.000
Ich geh davon aus, dass Samsung heute schon mehr Galaxy S2 verkauft hat, als Motorola und Asus insgesamt an HC-Tablets herstellen wollen, geschweige denn je verkaufen werden. Die Android-Tablets sind verglichen mit dem Smartphone-Markt bedeutungslos. Wenn Nvidia also wirklich Fuß fassen will, müssen sie Tegra in ein erfolgreiches Smartphone bekommen. Ihr bisher größte Erfolg ist wohl der, dass Samsung ihnen ein paar T2 fürs Galaxy S2 abnimmt, weil sie selber nicht genug Exynos produzieren können.
Smartphone != Tablet. Apple verkauft auch mehr iPhones als iPads.
Aber du erzählst nichts neues.
/edit: Asus hat deine News widersprochen. Wieviele Transformers verkauft wurden sind, weiß niemand.
nomadhunter
2011-05-23, 21:21:16
Tegra 2, genauso wie die Dual-Core-SoCs der Konkurrenz, zielt auf den Smartphone- UND Tablet-Market ab. Nvidia ist relativ egal, ob ihr Chip nachher in einem Tablet, Smartphone oder Toaster steckt. Ob Tegra 2 ein Erfolg wird, hängt davon ab, wie viel Nvidia vom Gesamtmarkt abbekommt. Bis jetzt ist das fast nichts. Die einzigen Dual-Core-ARM-Geräte, die sich ordentlich verkaufen, sind iPad 2 und Galaxy S2. Der Rest dümpelt an der Grenze zur Bedeutungslosigkeit, also 100.000 Stück oder weniger.
Dural
2011-05-24, 00:22:18
Das Galaxy Tablet hat auch Tegra drin.
Habe mir gerade Heute die Tablet in meinem Haus Shop angeschaut, gut 2/3 haben Tegras drin...
Eines AMD, eines Intel, eines irgend ein ARM, zwei Tegra1, fünf Tegra2 und noch das eine mit dem Apfel...
Gerade wenn es um ARM geht, ist Tegra2 bei den Tablet neben dem iPad/A5 ganz klar in führung!
Ich würde mal meinen das ist ein exelentes ergebnis für NV, die sind in dem Markt quasi von nichts gekommen. Wer von irgend welchen iPad zahlen geträumt hat, konnte man nie wirklich ernst nehmen... den das stand in der nahen zukunft sicher nie zur debatte.
Ailuros
2011-05-24, 08:50:39
Nicht jedes Galaxy tab; damit es die potentielle Kunden leichter unterscheiden koennen da nicht bei allen Galaxy tabs eine "2" im Namen steht: 1280*752 (egal ob 8.9 oder 10.9 inches screen) = Tegra2, 1024*600 = S5PC110.
Ich glaub ich hab es irgendwo anders schon erwaehnt, aber Samsung scheint sehr zufrieden zu sein mit Tegra2. Zumindest haben sie bei der Platform sehr stabile Treiber und ausgezeichneten support. Das dumme mit Samsung selber ist dass sw updates nach dem Erscheinen eines Produkts eher fragwuerdig sein koennen und nein das ist nicht Platform-bedingt sondern leider eine generelle Tendenz.
Schafft z.B. morgen NV nochmal 10% aus einem Treiber-update zu pruegeln (welches voellig normal ist bei allen Platformen) sind bei Samsung die Chancen gering dass der update noch rein kommt. Ein Feld dass Samsung wirklich mal enger betrachten koennte.
Screemer
2011-05-24, 09:31:48
das galaxy tab 7'' hat einen Hummingbird-basierenden soc, also eine samsung-entwicklung. da is nix mit tegra. nur das noch recht junge (feb. 11) 10.1 hat einen tegra2 und da ist auch die frage, ob der nicht durch Exynos abgelöst wird sobald da genügend stückzahlen vorhanden sind.
Ailuros
2011-05-24, 10:00:36
das galaxy tab 7'' hat einen Hummingbird-basierenden soc, also eine samsung-entwicklung. da is nix mit tegra. nur das noch recht junge (feb. 11) 10.1 hat einen tegra2 und da ist auch die frage, ob der nicht durch Exynos abgelöst wird sobald da genügend stückzahlen vorhanden sind.
Ich wuerde dem 8.9 auch einen T2 zusprechen. So sicher bin ich mir nicht dass Samsung am Ende T2 stellenweise mit Exynos abloesen wird; es war wohl so geplant aber ich wuerde heute nicht mehr darauf bestehen ;)
1280*752 (egal ob 8.9 oder 10.9 inches screen)
Die Auflösung ist 1280x800 (wovon je nach Ausrichtung 1280x752 oder 1232x800 für Anwendungen zur Verfügung stehen).
Ailuros
2011-05-24, 14:34:22
Die Auflösung ist 1280x800 (wovon je nach Ausrichtung 1280x752 oder 1232x800 für Anwendungen zur Verfügung stehen).
Danke. Ich hab mir die Daten schnell aus der GLBenchmark2.0 Datenbank rausgesucht.
Konami
2011-05-26, 15:12:01
Ich muss kurz dieses Zitat hochholen, weil es mich brennend interessiert:
Die Angabe lief mit einem T3-Sample mit 1GHz. Laut nVidia sollen die SoC in Geräten mit 1,5Ghz getaktet sein.
Quadcore, 1,5 GHz, 40nm -- das klingt für mich nach schrecklichem Stromverbrauch. Werden T3-Geräte also deutlich schlechtere Akkulaufzeiten haben als T2-Geräte oder hat nVidia irgendwelche Effizienz-Asse im Ärmel?
LovesuckZ
2011-05-26, 15:27:22
Ich muss kurz dieses Zitat hochholen, weil es mich brennend interessiert:
Quadcore, 1,5 GHz, 40nm -- das klingt für mich nach schrecklichem Stromverbrauch. Werden T3-Geräte also deutlich schlechtere Akkulaufzeiten haben als T2-Geräte oder hat nVidia irgendwelche Effizienz-Asse im Ärmel?
Der Stromverbrauch soll bei gleicher Last nicht schlechter als bei T2 sein.
Henroldus
2011-05-26, 15:35:19
zumal ich immernoch denke, dass das Display der Hauptstromfresser ist...
Nakai
2011-05-26, 16:55:02
Ich muss kurz dieses Zitat hochholen, weil es mich brennend interessiert:
Quadcore, 1,5 GHz, 40nm -- das klingt für mich nach schrecklichem Stromverbrauch. Werden T3-Geräte also deutlich schlechtere Akkulaufzeiten haben als T2-Geräte oder hat nVidia irgendwelche Effizienz-Asse im Ärmel?
Nein, wie LS schon gesagt hat, wird bei gleicher Last(ich würde hier eher "ähnliche" Last, bevorzugen) nicht mehr Strom verbraucht. CortexA9 ist für max. 1,5GHz spezifiziert. Erst CortexA15 geht max auf 2,5 GHz hoch. CortexA8 ging nur mit gewissen Tweaks in der Fertigung und Verilog-Code auf 1GHz hoch. AFAIK war CortexA8 max auf 600MHz laut ARM beschränkt.
NV wird mit KalEl einige interessante Neuerungen mit sich bringen. Vor allem bei der GPU wird es interessant, wie sie diesmal die Funktionseinheiten anordnen und konfigurieren.
mfg
N0Thing
2011-05-26, 18:04:43
Wie schafft man es denn bei gleicher Fertigung, doppelter Anzahl der Kerne und dazu noch 50% mehr Takt gegenüber T2 beim gleichen Stromverbrauch zu bleiben? Cortex A9 wird ja bei beiden (Tegra 2&3) eingesetzt.
Oder bezieht sich das auf die Annahme, daß die Last schneller abgearbeitet wird und man quasi beim Stromverbrauch pro Zeiteinheit auf dem gleichen Level bleibt?
LovesuckZ
2011-05-26, 18:08:17
Wie schafft man es denn bei gleicher Fertigung, doppelter Anzahl der Kerne und dazu noch 50% mehr Takt gegenüber T2 beim gleichen Stromverbrauch zu bleiben? Cortex A9 wird ja bei beiden (Tegra 2&3) eingesetzt.
Stromspartechniken. ;)
Oder bezieht sich das auf die Annahme, daß die Last schneller abgearbeitet wird und man quasi beim Stromverbrauch pro Zeiteinheit auf dem gleichen Level bleibt?
Es ist wie mit DualCore. Lasst sich die Arbeit nicht auf alle Cores verteilen, werden die idlenen in ein Sleepmodus versetzt (eventuell sogar vollständig abgeschaltet), wodurch der Stromverbrauch sinkt. Gleichzeitig kann die Aufgabe mit weniger MHz und somit geringerer Spannung schneller erledigt werden und die Kerne werden früher in den IDLE-Zustand gesetzt.
YfOrU
2011-05-26, 18:49:33
Die Angabe bezieht sich auf:
100% Last auf einem Dual A9
Umgelegt auf entweder parallel 25% Last auf 4 Kerne oder 100% auf 2 Kerne und 2 Kerne im Leerlauf.
Bei 100% auf allen 4 Kernen ist die Leistungsaufnahme natürlich höher als bei einem Dual A9 (wie T2). Gleiches gilt auch für die leistungsfähigere GPU des T3. Beide SoCs kommen nun mal im gleichen Herstellungsprozess.
Damit ist T3 in einer Quad A9 Konfiguration praktisch ein reiner Tablett SoC.
Die Frage dabei bleibt wie viele Hersteller T3 noch adaptieren werden denn die Mehrzahl der (überarbeiteten) T2 Produkte wird nur unwesentlich vor der Verfügbarkeit von T3 am Massenmarkt erscheinen.
Die Großzahl wird sich wohl damit begnügen und erst mit 28nm SoCs neue Designs präsentieren. Eine der wenigen Ausnahmen könnte dabei Motorola sein die im Gegensatz zu Asus, Samsung etc. ihr Xoom noch in der ursprüngliche Form auf den Markt gebracht haben.
LovesuckZ
2011-05-26, 18:51:36
Wenn das Verteilen einwandfrei funktioniert, eigenet sich T3 gleichermaßen für Tablets wie Smartphones. Wieso er ein "reines Tablet-SoC" wäre, erschließt mir nicht, da Smartphones heutzutage verstärkt mit DualCores ausgestattet werden und nicht stromhungrieger laufen.
YfOrU
2011-05-26, 19:04:25
Du bist derjenige der seit einiger Zeit den hohen Last Verbrauch von x86 CPUs kritisiert und sie damit für den mobilen Bereich für ungeeignet hältst. Mehr Leistung unter Last kostet in dem Fall einfach auch mehr von der knappen Energiekapazität.
Bei Smartphones hat man heute schon genug Probleme durch die ausufernde Displaygröße und den damit steigenden Energiebedarf der Hintergrundbeleuchtung. Die Kapazität der Akkus ist gerade bei den flachen Produkten im Alltag recht grenzwertig (wie Galaxy, S2). Noch einen SoC dazu der unter Last potentiell zusätzlich höheren Bedarf anmeldet ist keine überragende Idee.
Wäre das so eine tolle und für Smartphones geeignete Lösung dann würde das in 40nm von mehreren Semis kommen. Bei Tabletts spielt das keine so große Rolle denn hier sind ganz andere Kapazitäten verbaut.
LovesuckZ
2011-05-26, 19:09:48
Du bist derjenige der seit einiger Zeit den hohen Last Verbrauch von x86 CPUs kritisiert und sie damit für den mobilen Bereich für ungeeignet hältst.
Und das hat mit A9 was zu tun? Wenn das Verteilen der Last auf die einzelnen Kerne vernünftig funktioniert, dann ist der Stromverbrauch nicht schlechter bzw. sogar besser - siehe SingleCore -> DualCore.
x86 verbraucht perse mehr Strom bei gleich Arbeitsteilung ohne deutlich schneller zu sein. Das iPad2 läuft genauso lange wie das iPad1.
Bei Smartphones hat man heute schon genug Probleme durch die ausufernde Displaygröße und den damit steigenden Energiebedarf der Hintergrundbeleuchtung. Die Kapazität der Akkus ist gerade bei den flachen Produkten im Alltag recht grenzwertig (wie Galaxy, S2). Noch eine SoC dazu der unter Last potentiell noch höheren Bedarf anmeldet ist keine überragende Idee.
Tegra3 soll nur mehr verbrauchen, wenn man entsprechend die Leistungsfähigkeit ausnutzt. Es macht keinen Sinn auf T2 zu setzen, wenn T3 eben nicht schlechter ist.
Wäre das so eine tolle und für Smartphones geeignete Lösung würde das in 40nm von mehreren Semis kommen ;)
nVidia ist einen Schritt weiter als die Konkurrenz.
YfOrU
2011-05-26, 19:41:18
Und das hat mit A9 was zu tun? Wenn das Verteilen der Last auf die einzelnen Kerne vernünftig funktioniert, dann ist der Stromverbrauch nicht schlechter bzw. sogar besser - siehe SingleCore -> DualCore.
Für was sollen die zwei zusätzlichen Kerne genutzt werden wenn der zweite ARM Kern (bei Dual A9) heute hauptsächlich nur System und Hintergrundprozesse abwickelt ?
x86 verbraucht perse mehr Strom bei gleich Arbeitsteilung ohne deutlich schneller zu sein. Das iPad2 läuft genauso lange wie das iPad1.
A8 - > A9
A9 hat effektivere Energiesparmodi (wie Dynamic Clock, teilweise Powergating) und als Speicher kommt LP DDR2 zum Einsatz. Solche Einsparmöglichkeiten gibt es von Dual auf Quad A9 nicht.
Tegra3 soll nur mehr verbrauchen, wenn man entsprechend die Leistungsfähigkeit ausnutzt. Es macht keinen Sinn auf T2 zu setzen, wenn T3 eben nicht schlechter ist.
Warum ist das so ? Weil man unter anderen weiter auf einem 32bit Speicherinterface sitzen bleibt und auch die Cache Größe nicht verändert. Das allein dieses wohl nur in Nvidias Marketingpapieren wirklich ausreichend ist zeigt schon Apples Designentscheidung bei A5.
Doch es macht Sinn (80mm² zu 49mm²) T2 einzusetzen. Vor allem würde es Sinn machen einen Dual A9 auf Basis des T3 anzubieten um T2 komplett zu ersetzen.
nVidia ist einen Schritt weiter als die Konkurrenz.
Nein das ist Apple. Dual A9, 64bit LP DDR2 und eine GPU die heute bereits mehr Leistung hat als das was mit T3 kommen wird.
N0Thing
2011-05-27, 03:09:37
Tegra3 soll nur mehr verbrauchen, wenn man entsprechend die Leistungsfähigkeit ausnutzt. Es macht keinen Sinn auf T2 zu setzen, wenn T3 eben nicht schlechter ist.
Das heißt wenn man die Leistungsfähigkeit des T3 ausnutzt, braucht er doch mehr Strom und nicht nur genauso viel wie ein T2, wie zuvor behauptet?
Zu argumentieren, daß ein Chip (T3) nicht mehr Strom verbraucht als der Vorgänger, dies aber nur zutrifft, wenn der entsprechende Chip (T3) unter diesen Umständen dann auch nicht mehr Leistung bietet, finde ich, mal ganz freundlich formuliert, kreativ.
AnarchX
2011-05-27, 09:37:31
Natürlich braucht er mehr Strom, wenn er alle Kerne nutzt.
Aber so kann man schneller Aufgaben erledigen lassen und das Display, welches einen hohen Anteil am Gesamtverbrauch hat, kann wieder eher ausgeschaltet werden. ;)
Ailuros
2011-05-27, 10:40:36
Das heißt wenn man die Leistungsfähigkeit des T3 ausnutzt, braucht er doch mehr Strom und nicht nur genauso viel wie ein T2, wie zuvor behauptet?
Bei T2 lassen sich die zwei Kerne nicht unabhaengig takten; anders wenn einer bei 800MHz takten muss z.B. dann geht es nicht anders dass auch der zweite mit 800MHz taktet. Bei T30 koennen jetzt die Kerne beliebig unterschiedlich takten. Wenn die CPUs nun auf T30 nicht voll ausgenutzt werden und nicht ueber den T20 Faehigkeiten, dann ist im schlimmsten Fall der Stromverbrauch gleich und im besten etwas geringer. Angenommen Aufgabe X setzt bei T20 800MHz fuer 2 cores voraus, bei 4 cores@400MHz duerfte unter normalen Umstaenden der Stromverbrauch geringer sein (bloedes Beispiel denn es koennte mehr Sinn machen die Frequenzen anders zu verteilen und eventuell 1 oder 2 cores ganz abzuschalten).
Bei T20 takten die CPUs bei 1GHz (2 cores) und bei T30 bei 1.5GHz (4 cores); bei voller Ausnutzung im zweiten Fall wird man wohl nicht so naiv sein und den gleichen Stromverbrauch erwarten oder? Eine Luege ist die Behauptung zumindest nicht so wie es momentan aussieht, da sie wohl den Durschnitt eines Normalverbrauchs fuer beide meinen.
Zu argumentieren, daß ein Chip (T3) nicht mehr Strom verbraucht als der Vorgänger, dies aber nur zutrifft, wenn der entsprechende Chip (T3) unter diesen Umständen dann auch nicht mehr Leistung bietet, finde ich, mal ganz freundlich formuliert, kreativ.
Was soll daran so abwegig sein? Ich hab das obrige uebrigens mit anderen Worten schon etliche Male hier im Thread erklaert.
Gegenbeispiel:
Apple A4@45nm, A8 single core@1GHz, SGX535 single core @250MHz
Apple A5@45nm, A9 dual core@1GHz, SGX543 dual core@250MHz
Wie sieht die Batterielaufzeit zwischen den beiden genau aus? Ich weiss jetzt nicht mehr wie gross A4 ist aber A5 koennte mit seinen >120mm2 locker 2x Mal so viel die Flaeche einnehmen als A4.
Hingegen T20= ~50mm2 waehrend T30= ~80mm2. Stromverbrauch bzw. Batterielaufzeit macht mir auf T30 keine Sorgen. Wohl eher anderes:
1.) Volle Ausnutzung aller vier CPU cores wird wohl ziemlich selten eintreffen; dieses koennte sogar eventuell laengere Batterielaufzeit bedeuten auf Kosten einer geringerer Leistungssteigerung zwischen T30 und T20 in Echtzeit.
2.) Wie YfOrU schon erwaehnte eine GPU Steigerung analog der vom MP2 im A5 werden wird wohl nicht sehen.
3.) A30 der smart-phone Tegra3 hat eine Wahl zwischen dual und quad core CPU. Hier klingt mir dual core CPU fuer smart-phones logischer.
Wenn ich mich nicht verlesen habe verspricht NV nach der T30 Veroeffentlichung in nur einem Quartal danach einen analogen Umsatz zum gesamten T20 bulk. Da es aber stets Faktoren gibt die leider ausserhalb NV's Kontrolle liegen, halte ich diese Projektion wieder als zu gewagt.
LovesuckZ
2011-05-27, 11:38:57
Nein das ist Apple. Dual A9, 64bit LP DDR2 und eine GPU die heute bereits mehr Leistung hat als das was mit T3 kommen wird.
Tegra 2 kam 7 Monate vor A5 Geräte auf dem Markt. nVidia ist genau diese 7 Monate weiter als die Konkurrenz. Das vernünftige Tegra2 Geräte erst so spät kamen, hat nichts mit der Roadmap zu tun. Tegra2 ist auch deutlich besser als A4 und die GPU selbst auf dem Niveau von SGX540.
Achja, nVidia bleibt absichtlich bei einem 32 Bit Speicherinterface. Und die GPU wird in der Nähe von A5 sein, dabei bietet nVidia mehr als doppelt soviel CPU-Leistung und einem deutlich besseren Video-Dekoder.
Zu argumentieren, daß ein Chip (T3) nicht mehr Strom verbraucht als der Vorgänger, dies aber nur zutrifft, wenn der entsprechende Chip (T3) unter diesen Umständen dann auch nicht mehr Leistung bietet, finde ich, mal ganz freundlich formuliert, kreativ.
Es hat nichts mit Kreativität zu tun. Wer die Mehrleistung benötigt, wird sie erhalten. Wer sie zu bestimmten Zeiten nicht benötigt, wird keinen Nachteil haben.
fondness
2011-05-27, 12:03:11
Tegra 2 kam 7 Monate vor A5 Geräte auf dem Markt. nVidia ist genau diese 7 Monate weiter als die Konkurrenz. Das vernünftige Tegra2 Geräte erst so spät kamen, hat nichts mit der Roadmap zu tun. Tegra2 ist auch deutlich besser als A4 und die GPU selbst auf dem Niveau von SGX540.
Sie waren früher mit den lizenzierten CPU-Kernen, alles was sie selbst implementiert haben ist A5 unterlegen. Selbst T3 hat als Vorteil nur die zwei zusätzlichen Cores, bei weniger Bandbreite und bestenfalls leicht unterlegener GPU. Es wird sich zeigen müssen ob ich mit vier Kernen in einem solchen Gerät auf absehbare Zeit überhaupt einen nennenswerten Vorteil erzielen kann. Einfach mehr Kerne dran klatschen ist ja nicht wirklich die große Kunst, die anderen halten das offenbar für wenig sinnvoll.
Achja, nVidia bleibt absichtlich bei einem 32 Bit Speicherinterface. Und die GPU wird in der Nähe von A5 sein, dabei bietet nVidia mehr als doppelt soviel CPU-Leistung und einem deutlich besseren Video-Dekoder.
Wenn sie absichtlich Leistung verschenken ändert das auch nichts daran das A5 doppelt soviel Bandbreite hat.
Es hat nichts mit Kreativität zu tun. Wer die Mehrleistung benötigt, wird sie erhalten. Wer sie zu bestimmten Zeiten nicht benötigt, wird keinen Nachteil haben.
Wenn man so argumentiert benötigt man nie mehr Strom. Fakt ist auch die max. TDP muss gekühlt werden und vom Akku bereit gestellt werden können. Wenn die anderen zwei Kernen nicht benutzt werden wären sie ja auch sinnlos.
LovesuckZ
2011-05-27, 12:18:17
Sie waren früher mit den lizenzierten CPU-Kernen, alles was sie selbst implementiert haben ist A5 unterlegen.
Ein Chip, der vor 7 Monaten sein Einstand feierte, darf nach dieser Zeit auf diesem Markt unterlegen sein. Komischerweise war er zur damaligen Zeit ziemlich oben auf. Aber das kann man ignorieren, ich weiß.
Einfach mehr Kerne dran klatschen ist ja nicht wirklich die große Kunst, die anderen halten das offenbar für wenig sinnvoll.
Die anderen, die jetzt erst ein DualCore-Design auf den Markt bringen? :rolleyes:
Es gibt neben nVidia weitere Ankündigungen für QuadCore A9.
Wenn sie absichtlich Leistung verschenken ändert das auch nichts daran das A5 doppelt soviel Bandbreite hat.
nVidia behauptet, dass 4 A9 Kerne damit betrieben werden können. Es spielt am Ende auch keine Rolle, weil die Kerne sowieso den kleinsten Part einnehmen am Zuwachs. Selbst wenn T3 nur 2x statt 3x schneller als T2 ist, sind der Aufwand und die Kosten dafür vernachlässigbar. Und Mit 2x wäre man auch doppelt so schnell als A5.
Wenn man so argumentiert benötigt man nie mehr Strom. Fakt ist auch die max. TDP muss gekühlt werden und vom Akku bereit gestellt werden können. Wenn die anderen zwei Kernen nicht benutzt werden wären sie ja auch sinnlos.
Ich finde es erstaunlich, dass schon kleinste Logik die Hater so aus dem Spiel bringen: Wer sich ein QuadCore-Tablet kauft, wird die Mehrleistung benötigen. Dem ist der höhrere Stromverbrauch egal, da es ihm um den Zugewinn an Leistung geht. Sollten die Stromspartechniken soweit sein, dass bei ähnlicher Last die Verteilung vernünftig erfolgt, entsteht kein Nachteil. Somit wirkt sich ein QuadCore-Design auch nicht negativ aus.
Undertaker
2011-05-27, 12:30:30
Wer sich ein QuadCore-Tablet kauft, wird die Mehrleistung benötigen. Dem ist der höhrere Stromverbrauch egal, da es ihm um den Zugewinn an Leistung geht.
Das sehe ich als potentieller Käufer ganz und gar nicht so. Ein bei identischer Leistungsabfrage konstanter Verbrauch ist nicht ausreichend, da die Leistungsanforderungen steigen und die reale Laufzeit damit sinkt. Wenn z.B. ein Spiel alle Kerne und die GPU gut auslastet, möchte ich immernoch ein ausreichend kühles Gerät und einige Stunden Akkulaufzeit haben - was nützt mir diese Power sonst?
LovesuckZ
2011-05-27, 12:35:35
Das sehe ich als potentieller Käufer ganz und gar nicht so. Ein bei identischer Leistungsabfrage konstanter Verbrauch ist nicht ausreichend, da die Leistungsanforderungen steigen und die reale Laufzeit damit sinkt. Wenn z.B. ein Spiel alle Kerne und die GPU gut auslastet, möchte ich immernoch ein ausreichend kühles Gerät und einige Stunden Akkulaufzeit haben - was nützt mir diese Power sonst?
Wenn ein Spiel alle Kerne und die GPU sowie den Sound voll ausnutzt, wird Tegra 3 ca. 3x+ schneller sein als T2. Das wiederrum heißt, dass die Qualität auch deutlich besser ist und/oder das Spiel flüssiger läuft. Es stellt sich also die Frage, was du als Kunde wirklich willst: Lange Laufzeit, dafür aber qualitativ schlechtere Spiele oder mehr Qualität und mehr Frames? Das ist der Punkt an der Sache.
T3 wird nur dann mehr Strom benötigen, wenn er schneller als T2 ist. Bei Sachen wir Videodekodierung wirkt sich das QuadCore-Design nicht aus. Nachteile gibt es im Grunde eben nicht.
YfOrU
2011-05-27, 12:43:09
Tegra 2 kam 7 Monate vor A5 Geräte auf dem Markt. nVidia ist genau diese 7 Monate weiter als die Konkurrenz. Das vernünftige Tegra2 Geräte erst so spät kamen, hat nichts mit der Roadmap zu tun. Tegra2 ist auch deutlich besser als A4 und die GPU selbst auf dem Niveau von SGX540.
Achja, nVidia bleibt absichtlich bei einem 32 Bit Speicherinterface. Und die GPU wird in der Nähe von A5 sein, dabei bietet nVidia mehr als doppelt soviel CPU-Leistung und einem deutlich besseren Video-Dekoder.
Die A9 Kerne im T2 sind so ziemlich die Minimalkonfiguration was man überhaupt implementieren kann.
Das es in Kombination mit nur recht einfachen Power Management keine überragende Leistung gewesen ist als erster einen A9 SoC auf den Markt zu bringen sollte man schon einsehen.
Es ist ein interessanter Ansatz gewesen und aus der Marktposition von Nvidia heraus war es sicherlich nicht die schlechteste Strategie.
Die Folge davon ist aber das T2 gegen vollständige A9 Konfigurationen wie A5 oder Omap4 kein Land gewinnt und damit ist ein Refresh wie T3 nötig. Der ist dann eben nicht dem Markt voraus sondern liefert im Bereich der CPU Kerne das nach was andere bereits haben - abgesehen vom Speichercontroller. Auch Omap4 hat ein 64bit Interface.
Die GPU im T3 kann in der Praxis kaum im Bereich von A5 landen denn der komplette SoC muss sich die verfügbare Speicherbandbreite nun mal teilen. Durch die Integration von 2 zusätzlichen ARM Kernen wird die kaum größer ;)
LovesuckZ
2011-05-27, 12:50:36
Die A9 Kerne im T2 sind so ziemlich die Minimalkonfiguration was man überhaupt implementieren kann.
Das es in Kombination mit nur recht einfachen Power Management keine überragende Leistung gewesen ist als erster einen A9 SoC auf den Markt zu bringen sollte man schon einsehen.
Niemand hat die Konkurrenz daran gehindert, den selben Weg zugehen. Wer 7 Monate vorher mit einem DualCore A9 auf dem Markt ist, der hat eine entsprechende Leistung erbracht. Ansonsten kann ich jeglichen Bereich als "keine Leistung" abstempeln.
Die Folge davon ist aber das T2 gegen vollständige A9 Konfigurationen wie A5 oder Omap4 kein Land gewinnt und damit ist ein Refresh wie T3 nötig. Der ist dann eben nicht dem Markt voraus sondern liefert im Bereich der CPU Kerne das nach was andere bereits haben - abgesehen vom Speichercontroller. Auch Omap4 hat ein 64bit Interface.
Wir kennen den Punkt mit dem Speicherinterface. Keine Ahnung, was daran so besonderes ist. Abgesehen davon, ist weder A5 noch Omap in CPU Benchmarks deutlich schneller. Sie haben bzgl. der Kerne auf nVidia aufgeschlossen. Mehr nicht. Ihre Vorteile liegen komplett woanders.
Die GPU im T3 kann in der Praxis kaum im Bereich von A5 landen denn der komplette SoC muss sich die verfügbare Speicherbandbreite nun mal teilen. Durch die Integration von 2 zusätzlichen ARM Kernen wird die kaum größer ;)
Warten wir einfach ab.
YfOrU
2011-05-27, 13:21:47
Wir kennen den Punkt mit dem Speicherinterface. Keine Ahnung, was daran so besonderes ist. Abgesehen davon, ist weder A5 noch Omap in CPU Benchmarks deutlich schneller. Sie haben bzgl. der Kerne auf nVidia aufgeschlossen. Mehr nicht. Ihre Vorteile liegen komplett woanders
Das die FPU in T2 mit rudimentär vorhanden ganz gut umschrieben ist sollte doch aufgefallen sein. Auch Neon hat man sich gespart. Dementsprechend landet T2 bei Linpack in Bereichen von A4 und anderen A8 SoCs.
Wenn die Konkurrenz die doppelte Speicherbandbreite für einen SoC mit halber Anzahl an ARM Kernen ansetzt sagt mir das genug.
Der Quad A9 macht sich im Marketing toll, in der Praxis rettet man sich durch Benchmarks mit erhöhten CPU Taktraten (und höherer Leistungsaufnahme). Sobald es Richtung 3D geht lässt sich so manche Designentscheidung allerdings nichts mehr übertünchen.
LovesuckZ
2011-05-27, 13:55:05
Das die FPU in T2 mit rudimentär vorhanden ganz gut umschrieben ist sollte doch aufgefallen sein. Auch Neon hat man sich gespart. Dementsprechend landet T2 bei Linpack in Bereichen von A4 und anderen A8 SoCs.
Und das wirkt sich wie aus? Finde ich erstaunlich wieviele Leute mit theoretischen Benchmarks ihre Geräte füttern.
Davon abgesehen:
Ars Technica wrote, “the only factor we can think of that would explain such a boost in LINPACK performance vs. both the original iPad and rival Tegra 2-based devices is that A5 must have full support for ARM's NEON vector extensions (the ARM equivalent of Intel's SSE instructions). The NEON extensions, along with the larger vector FPU (VFPU) to support them, are included by default in the A8 family, but are optional in the A9. NVIDIA's Tegra 2 opted for the smaller, lower-power, but weaker ARM FPU, while Apple seems to have included the beefier NEON VFPU in their implementation of the A9. Clearly this is the way to go, and we can expect other ARM SoC vendors to follow suit.”
T3 soll 5 Monate nach A5 auf den Markt kommen. Was wiederum bedeutet, dass dies kein Nachteil für T2 war. Und der Abstand zur Konkurrenz ist noch geringer.
Wenn die Konkurrenz die doppelte Speicherbandbreite für einen SoC mit halber Anzahl an ARM Kernen ansetzt sagt mir das genug.
nVidia verwendet auch für T2 nur ein 32-Bit Speicherinterface. Es sagt erstmal garnichts aus.
Der Quad A9 macht sich im Marketing toll, in der Praxis rettet man sich durch Benchmarks mit erhöhten CPU Taktraten (und höherer Leistungsaufnahme).
Macht keinen Sinn. Wenn der Quad keine Auswirkung habe, dann erhöht sich der Stromverbrauch nur im selben Verhältnis wie die Taktsteigerung (mal Spannungsanpassung außen vor). Wenn das Interface limitiert, führt dies ebenfalls zu einer Senkung im Verbrauch, da die Auslastung geringer ist.
Sobald es Richtung 3D geht lässt sich so manche Designentscheidung allerdings nichts mehr übertünchen.
T2 ist auf dem Niveau mit SGX540, der zur selben Zeit rauskam. T3 wird 2x-3x so schnell sein als T2. Und das hat nVidia sogar schon auf der MWC mit einem Samples gezeigt.
Nakai
2011-05-27, 14:12:59
T2 ist auf dem Niveau mit SGX540, der zur selben Zeit rauskam. T3 wird 2x-3x so schnell sein als T2. Und das hat nVidia sogar schon auf der MWC mit einem Samples gezeigt.
SGX540 wurde Anfang 2010 mit dem Samsung Hummingbird eingeführt. T2 ist in etwa 9 Monate später als SGX540 dran, wenn wir nun schon GPUs mit SOCs vergleichen wollen.
Ars Technica wrote, “the only factor we can think of that would explain such a boost in LINPACK performance vs. both the original iPad and rival Tegra 2-based devices is that A5 must have full support for ARM's NEON vector extensions (the ARM equivalent of Intel's SSE instructions). The NEON extensions, along with the larger vector FPU (VFPU) to support them, are included by default in the A8 family, but are optional in the A9. NVIDIA's Tegra 2 opted for the smaller, lower-power, but weaker ARM FPU, while Apple seems to have included the beefier NEON VFPU in their implementation of the A9. Clearly this is the way to go, and we can expect other ARM SoC vendors to follow suit.”
Selbst die NEON FPU ist ziemlich schwach im Vergleich zu anderen Implementierungen. Das ist auch der Grund, warum die Scorpion-CPU von Qualcomm gleich zwei dieser NEON-FPUs integriert hat.
LovesuckZ
2011-05-27, 14:21:53
SGX540 wurde Anfang 2010 mit dem Samsung Hummingbird eingeführt. T2 ist in etwa 9 Monate später als SGX540 dran, wenn wir nun schon GPUs mit SOCs vergleichen wollen.
Laut Wikipedia (http://en.wikipedia.org/wiki/Samsung_Galaxy_S) ging das Galaxy S Anfang Juni in Singapore in den Verkauf.
Knapp 2 Monate vor dem AC100 von Toshiba.
Dural
2011-05-27, 15:21:17
Im T2 ist exakt die selbe GPU wie in T1 drin, nur mit deutlich mehr Takt.
Also geht die Rechnung mit GPU X kam da raus und die GPU Y dann raus... geht beim T2 schon mal nicht auf ;)
Screemer
2011-05-27, 16:19:28
Laut Wikipedia (http://en.wikipedia.org/wiki/Samsung_Galaxy_S) ging das Galaxy S Anfang Juni in Singapore in den Verkauf.
Knapp 2 Monate vor dem AC100 von Toshiba.
das samsung wave hat auch einen hummingbird mit sgx540 und das hatte ich letztes jahr schon anfang mai. mach also mal 3 monate draus. mal davon abgesehen, dass das geräte sind die sich auch verkauft haben, im vergleich von dem von dir genannten toshiba.
LovesuckZ
2011-05-27, 16:25:57
das samsung wave hat auch einen hummingbird mit sgx540 und das hatte ich letztes jahr schon anfang mai. mach also mal 3 monate draus.
Sage ich ja: Der Unterschied zwischen T2 und SGX540 ist geringer als zwischen A5 und T2. Und selbst twischen T3 und A5 bzw. den neuen Samsung Chip wird anscheinend keine 7 Monate liegen.
Grundsätzlich hat nVidia eben das Problem, dass deren Time-To-Market länger dauert als bei Samsung, Apple und Konsorten. Da sind die drei Monate zwischen T2 und Samsung ziemlich gut.
mal davon abgesehen, dass das geräte sind die sich auch verkauft haben, im vergleich von dem von dir genannten toshiba.
Das hatten wir hier schonmal. Spielt überhaupt keine Rolle, da T2 eben verfügbar war.
YfOrU
2011-05-27, 16:35:30
Und das wirkt sich wie aus? Finde ich erstaunlich wieviele Leute mit theoretischen Benchmarks ihre Geräte füttern.
So theoretische wie Rock oder vPlayer ?
T3 soll 5 Monate nach A5 auf den Markt kommen. Was wiederum bedeutet, dass dies kein Nachteil für T2 war. Und der Abstand zur Konkurrenz ist noch geringer.
Zeitlicher Vorsprung T2 -> Rückstand T3. Mal abgesehen von Nvidia hat praktisch jeder seine Dual Core SoCs mit Neon, Dynamic Power etc. in der Serienproduktion.
nVidia verwendet auch für T2 nur ein 32-Bit Speicherinterface. Es sagt erstmal garnichts aus.
Kosten und Zeitersparnis. So ganz optimal ist der Speichercontroller bei T2 wohl eh nicht. Ansonsten würde man T2 Produkte mit höher getakteten LP DDR2 sehen. So kann man bei T3 natürlich wieder schön darstellen das die Bandbreite verdoppelt wurde :D
LovesuckZ
2011-05-27, 16:48:21
So theoretische wie Rock oder vPlayer ?
Jedenfalls Rockplayer läuft einwandfrei mit T2.
Zeitlicher Vorsprung T2 -> Rückstand T3.
Aha. Und zeitlicher Vorsprung A5 -> Rückstand A6? :freak:
Es gibt keinen Rückstand bei nVidia in Bezug auf T3. Die Situation von T2 hätte sich auch nicht geändert, wenn der SoC stärker wäre. Komische Ansicht, die hier vertreten wird.
Mal abgesehen von Nvidia hat praktisch jeder seine Dual Core SoCs mit Neon, Dynamic Power etc. in der Serienproduktion.
Ja und bei nVidia nennt man es "[Quad] Core SoCs mit Neon, Dynamic Power etc". Immernoch noch nicht verstanden, dass die Konkurrenz jedenfalls im Tablet-Markt nicht gegen T2 sondern vorallem gegen T3 gehen und somit T2 als Maßstab keine Bedeutung hat? Der Abstand zwischen T3 und der Konkurrenz im nicht Apple Tablet-Markt wird minimal sein.
Übrigens genau das was man in Smartphones haben will.
Es gibt zur Zeit drei DualCore SoCs in Smartphones: Samsung's, Qualcomm's im HTC Sensation und T2.
Kosten und Zeitersparnis.
Willst du also behaupten, dass die ganzen Firmen mit 64-bit genug Zeit und Kohle haben, um eben auf 64bit zugehen? :rolleyes:
Wenn nVidia denkt, dass 32-bit ausreicht, dann ist dies doch klasse. Senkt die Kosten und den Strombedarf.
YfOrU
2011-05-27, 17:35:13
Jedenfalls Rockplayer läuft einwandfrei mit T2.
Genau so lange wie der Hardware Decoder das Audio/Video Material verarbeiten kann.
Mit Flash 10.3 ist übrigens Neon Support dazugekommen.
Die Beschleunigung über Neon ist deutlich (Energie) effizienter bzw. gibt es auch genug Videomaterial das ohne nicht vernünftig abspielbar ist.
Aha. Und zeitlicher Vorsprung A5 -> Rückstand A6? :freak:
Es gibt keinen Rückstand bei nVidia in Bezug auf T3. Die Situation von T2 hätte sich auch nicht geändert, wenn der SoC stärker wäre. Komische Ansicht, die hier vertreten wird.
Natürlich gibt es den denn T3 hätte zumindest in einer Dual Variante zeitgleich mit A5, Omap4, MSM8660 und Exynos verfügbar sein müssen.
Diesen Produkten ist T2 als Gesamtpaket jeweils unterlegen.
Ja und bei nVidia nennt man es "[Quad] Core SoCs mit Neon, Dynamic Power etc". Immernoch noch nicht verstanden, dass die Konkurrenz jedenfalls im Tablet-Markt nicht gegen T2 sondern vorallem gegen T3 gehen und somit T2 als Maßstab keine Bedeutung hat? Der Abstand zwischen T3 und der Konkurrenz im nicht Apple Tablet-Markt wird minimal sein.
T2 war nicht erfolgreich weil es ein so tolles A9 Design ist sondern weil kein anderes verfügbar war (und man bei Google die Illusion hatte HC vor der Verfügbarkeit anderer SoC Produkte auf den Markt bringen zu können).
Für Smartphones ist T2 jetzt ziemlich uninteressant und T3 (vor allem in einer Dual Variante) ist nicht verfügbar. Das Problem gab es bei T1 schon mal.
Große Stückzahlen sind das momentan dagegen bei Tabletts einfach nicht und davon holen sich Qualcomm etc. auch noch ihren Teil ab. Ein unausgewogenes Quad A9 Design wird die wenigsten begeistern.
Es gibt zur Zeit drei DualCore SoCs in Smartphones: Samsung's, Qualcomm's im HTC Sensation und T2.
Und was ist im LG Optimus 3D verbaut ? ;)
Willst du also behaupten, dass die ganzen Firmen mit 64-bit genug Zeit und Kohle haben, um eben auf 64bit zugehen? :rolleyes:
Wenn nVidia denkt, dass 32-bit ausreicht, dann ist dies doch klasse. Senkt die Kosten und den Strombedarf.
Natürlich denn die haben beim SoC Design insgesamt alle Nägel mit Köpfen gemacht und jeweils ein sehr rundes Produkt abgeliefert.
LovesuckZ
2011-05-27, 17:57:38
Genau so lange wie der Hardware Decoder das Audio/Video Material verarbeiten kann.
Dann ist HD sowieso nicht mehr flüssig.
Die Beschleunigung über Neon ist deutlich (Energie) effizienter bzw. gibt es auch genug Videomaterial das ohne nicht vernünftig abspielbar ist.
Belege? Wesentlich effizienter ist es, wenn das komplette Dekodieren auf einem extra Prozessoren durchgeführt wird. Die Verwendung der CPU führt nur dazu, dass der Verbrauch deutlich ansteigt, weil Video-Dekoder und CPU arbeiten müssen.
Natürlich gibt es den denn T3 hätte zumindest in einer Dual Variante zeitgleich mit A5, Omap4, MSM8660 und Exynos verfügbar sein müssen.
Diesen Produkten ist T2 als Gesamtpaket jeweils unterlegen.
Diese Produkte sind mindesten 7 Monate nach Tegra 2 auf den Markt gekommen und zur Zeit nur entweder im Smartphone oder Tablet-Markt anzufinden. Tegra 2 ist der einzige DualCore-SoC, den es in beiden Märkten gibt. Der zeitliche Vorsprung gegenüber der Konkurrenz half vorallem für Honeycomb 3.0. Dort wird man wohl frühsten im Juli andere SoCs sehen.
Und wie T3 gleichzeitig verfügbar hätte sein können, ist mir schleierhaft, da das Intervall genau wie bei Samsung und Konsorten 1 Jahr beträgt. Wo sind denn TI und Qualcomm? Das sind Firmen, die mit nVidia vergleichbar sind und deren DualCore-Design sind kaum am Markt vertreten.
Die Vergangenheit hat gezeigt, dass es wichtig ist zur richtigen Zeit am Markt zu sein. Tegra 2 war es. Und das zahlt sich vorallem im Tablet-Markt aus.
Für die letzten 3-4 Monate in diesem Jahr, dann wenn die Konkurrenz ebenfalls verstärkt vertreten sein wird, gibt es T3. Es ist nicht nVidia, die im Verzug sind, sondern vorallem die "produktlosen" SoC-Hersteller.
T2 war nicht erfolgreich weil es ein so tolles A9 Design ist sondern weil kein anderes verfügbar war (und man bei Google die Illusion hatte HC vor der Verfügbarkeit anderer SoC Produkte auf den Markt bringen zu können).
Tja, Time-to-Market.
Achja - für damalige Verhältnisse war T2 ein "tolles A9 Design", weil es das einzige für 7 Monate war und ziemlich ausgewogen.
Für Smartphones ist T2 jetzt ziemlich uninteressant und T3 (vor allem in einer Dual Variante) ist nicht verfügbar. Das Problem gab es bei T1 schon mal.
Große Stückzahlen sind das momentan dagegen bei Tabletts einfach nicht und davon holen sich Qualcomm etc. auch noch ihren Teil ab. Ein unausgewogenes Quad A9 Design wird die wenigsten begeistern.
Und was ist im LG Optimus 3D verbaut ? ;)
T2 ist einer der wenigen Smartphone-SoCs, die man heute kaufen kann. Die Reviews für die Geräte sind gut, die Preise in Ordnung. Die Leute werden also solche Smartphones kaufen.
Natürlich denn die haben beim SoC Design insgesamt alle Nägel mit Köpfen gemacht und jeweils ein sehr rundes Produkt abgeliefert.
Ähm - du weißt schon, dass du diese SoC in kaum vernünftigen Produkten antriffst? A5 versauert nur im iPad 2, dass sich wegem den Namen Apple und dem Mindshare gutverkauft. Kein Smartphone in Sicht. TI und Omap haben Nischenprodukte, wie das Playbook, das selbst gegen die Android-Konkurrenz abstinkt. Samsung liefert ihren SoC nur in den Handys aus und da sie das komplette Paket selbst herstellen, haben sie die bessere TtM.
Nvidia hat mit T2 einen riesigen Schritt nachv orne getan. Und mit T3 werden sie den nächsten Schritt machen.
Es ist erstaunlich, wie man nur so absurd die Meinung vertreten könnte, dass nVidia im Verzug wäre, wenn sie gerade dabei sind ihr zweites A9 Design auf den Markt zu bringen und die vergleichbare Konkurrenz noch nichtmal richtig mit ihrem ersten am Markt vertreten sind.
YfOrU
2011-05-27, 20:06:42
Dann ist HD sowieso nicht mehr flüssig.
Belege? Wesentlich effizienter ist es, wenn das komplette Dekodieren auf einem extra Prozessoren durchgeführt wird. Die Verwendung der CPU führt nur dazu, dass der Verbrauch deutlich ansteigt, weil Video-Dekoder und CPU arbeiten müssen.
http://www.stanford.edu/class/ee282/10_handouts/lect.10.arm_soc.pdf
ab Seite 25 wirds für dich interessant.
Bei realistischer Marktbetrachtung müsstest du feststellen das fast alle Hersteller von Tegra 2 Tabletts ansonsten jeweils hauptsächlich von einem (anderen) Lieferanten SoCs verbauen. In der Mehrzahl ist es Qualcomm.
Das damit die Wahrscheinlichkeit nicht gerade groß ist im Nachfolgeprodukt wieder einen Nvidia Chip unterzubringen (T3) sollte verständlich sein.
Also braucht man dringend (mehrere) Produkte für Smartphones um sich vernünftig im Portfolio von ein paar Herstellern etablieren zu können. Sind die verfügbar ? Nein.
Es ist erstaunlich, wie man nur so absurd die Meinung vertreten könnte, dass nVidia im Verzug wäre, wenn sie gerade dabei sind ihr zweites A9 Design auf den Markt zu bringen und die vergleichbare Konkurrenz noch nichtmal richtig mit ihrem ersten am Markt vertreten sind.
Man ist eher noch dabei das erste A9 Design auf den Markt zu bringen.
LovesuckZ
2011-05-27, 20:30:37
Bei realistischer Marktbetrachtung müsstest du feststellen das fast alle Hersteller von Tegra 2 Tabletts ansonsten jeweils hauptsächlich von einem (anderen) Lieferanten SoCs verbauen. In der Mehrzahl ist es Qualcomm.
Das damit die Wahrscheinlichkeit nicht gerade groß ist im Nachfolgeprodukt wieder einen Nvidia Chip unterzubringen (T3) sollte verständlich sein.
Acer, Asus, Motorola, Viewsonic, Dell, Toshiba (Samsung und LG sind die einzigen, wo ein Wechsel sehr wahrscheinlich erscheint) sind alle Neueinsteiger im Tablet-Markt und setzen auf Tegra2. Die werden in Zukunft natürlich mehrere SoCs nehmen, weil sie sich somit nicht abhängig machen. Aber man kann genauso fragen, wieso sie einen anderen nehmen sollten, wo mit Tegra2 es ziemlich gut klappt und Tegra3 die Probleme beseitigt, die noch existieren. Vorallem, da Alternativen nicht wesentlich früher als T3 zur Verfügung stehen.
Also braucht man dringend (mehrere) Produkte für Smartphones. Sind die verfügbar ? Nein.
Verstehe ich nicht. Man braucht dringend Produkte für Smartphones? Man hat Produkte für Smartphones. TI hat bis heute noch kein Smartphone Design draußen. Bei Apple spekuliert man, dass sie erst im September das iPhone updaten. Für ein Neuling steht nVidia gut da.
Realistisch betrachtet ist man bei Nvidia immer noch dabei das erste A9 Design auf den Markt zu bringen.
Jap. Weil es sich ja garnicht um A9 Kerne handelt. Sondern um Luft und Liebe formiert zu einem Herzen...
Bitte, quatsch sein lassen oder anderes Forum suchen.
YfOrU
2011-05-27, 23:38:44
Acer, Asus, Motorola, Viewsonic, Dell, Toshiba (Samsung und LG sind die einzigen, wo ein Wechsel sehr wahrscheinlich erscheint) sind alle Neueinsteiger im Tablet-Markt und setzen auf Tegra2. Die werden in Zukunft natürlich mehrere SoCs nehmen, weil sie sich somit nicht abhängig machen. Aber man kann genauso fragen, wieso sie einen anderen nehmen sollten, wo mit Tegra2 es ziemlich gut klappt und Tegra3 die Probleme beseitigt, die noch existieren. Vorallem, da Alternativen nicht wesentlich früher als T3 zur Verfügung stehen.
Es spielt keine Rolle wer Neueinsteiger ist und wer nicht. Man hat gezwungener Maßen Abwandlungen des HC Referenzdesigns entwickelt um überhaupt etwas liefern zu können.
Sobald diese Restriktion gegessen ist kocht jeder sein eigenes Süppchen.
Je größer das Einkaufsvolumen, desto geringer ist der Stückpreis. Wenn der gleiche SoC mit Speicher und Baseband dann auch noch in drei oder mehr Smartphone Modellen verbaut wird ist das vorteilhaft.
Acer und Asus spielen hauptsächlich (ARM) in der Qualcomm Liga. HTC sowieso. Nokia in Zukunft vermutlich auch genau wie HP.
Samsung, LG und SE (28nm) werden eigene SoCs einsetzen. Bei Motorola wird man sehen wohin der Weg geht nachdem die Droid Reihe aktualisiert wurde. Von den großen Android Herstellern ist es einer der wenigen bei denen Nvidia evtl. einen Fuß in der Tür hat.
Verstehe ich nicht. Man braucht dringend Produkte für Smartphones? Man hat Produkte für Smartphones. TI hat bis heute noch kein Smartphone Design draußen. Bei Apple spekuliert man, dass sie erst im September das iPhone updaten. Für ein Neuling steht nVidia gut da.
LG P920 ist ein TI Smartphone mit Omap4.
Ein einziger (Smartphone) SoC ist zu wenig. Es braucht Abstufungen für unterschiedliche Geräteklassen. Damit Staffelungen bei CPU, GPU Leistung, Feature Sets wie Kamera etc.
Es zählt nicht nur Time to Market sondern genauso Top to Bottom. A8 verkauft sich immer noch sehr viel besser als jeglicher Dual A9. Das der Markt für Quad A9 dementsprechend mickrig ist bleibt die Schlussfolgerung.
Jap. Weil es sich ja garnicht um A9 Kerne handelt. Sondern um Luft und Liebe formiert zu einem Herzen...
Bitte, quatsch sein lassen oder anderes Forum suchen.
Produkte mit T2 in ernsthaften Stückzahlen gibt es nun mal erst seit 2011 und selbst das scheint nach offizieller Aussage bis jetzt nicht gerade berauschend zu sein. Indirekt ist das Eingeständnis auch eine Anspielung auf einen Strategiefehler. Die Ausrichtung ist zu sehr auf Highend für Tabletts getrimmt.
LovesuckZ
2011-05-28, 01:12:15
Es spielt keine Rolle wer Neueinsteiger ist und wer nicht. Man hat gezwungener Maßen Abwandlungen des HC Referenzdesigns entwickelt um überhaupt etwas liefern zu können.
Sobald diese Restriktion gegessen ist kocht jeder sein eigenes Süppchen.
Ähm, nö. Man liefert, was zur Verfügung ist. Deswegen bieten Acer und Asus auch x86 Tablets an. Die warten nicht auf die supertollenmegageilennonsplusultra A9 Designs, um dann 6 Monate nach Apple auf den Markt zukommen. :rolleyes:
Je größer das Einkaufsvolumen, desto geringer ist der Stückpreis. Wenn der gleiche SoC mit Speicher und Baseband dann auch noch in drei oder mehr Smartphone Modellen verbaut wird ist das vorteilhaft.
Wow - eine Binsensweisheit.
Acer und Asus spielen hauptsächlich (ARM) in der Qualcomm Liga. HTC sowieso. Nokia in Zukunft vermutlich auch genau wie HP.
Acer und Asus haben in der Vergangenheit ein paar vollkommen belanglose Smartphones auf den Markt gebracht. Der große Einstieg kommt mit den Tablets. Vorallem Asus legt einen riesigen Wert auf diese Produkte, sie haben gleich vier Designs am Start und bringen zur Computex ein Phone/Tablet-Hybrid.
Samsung, LG und SE (28nm) werden eigene SoCs einsetzen. Bei Motorola wird man sehen wohin der Weg geht nachdem die Droid Reihe aktualisiert wurde. Von den großen Android Herstellern ist es einer der wenigen bei denen Nvidia evtl. einen Fuß in der Tür hat.
Motorola zu haben, bedeutet, dass die Konkurrenz weniger Abnehmer zur Verfügung stehen. nVidia ist immer noch Neueinsteiger und jedes Design ist für sie ein Gewinn in Gegensatz zu den Platzhirschen, die nur verlieren können.
LG P920 ist ein TI Smartphone mit Omap4.
Ein einziger (Smartphone) SoC ist zu wenig. Es braucht Abstufungen für unterschiedliche Geräteklassen. Damit Staffelungen bei CPU, GPU Leistung, Feature Sets wie Kamera etc.
Hey, nVidia ist immer noch Neueinsteiger. Die werden nicht zich verschiedene Chips entwickeln. Das bringt auch überhaupt nichts. Es spielt auch keine Rolle, da die Time-to-Market Zeit viel zu hoch und nVidia mit A8 einer von vielen gewesen wäre.
Es zählt nicht nur Time to Market sondern genauso Top to Bottom. A8 verkauft sich immer noch sehr viel besser als jeglicher Dual A9. Das der Markt für Quad A9 dementsprechend mickrig ist bleibt die Schlussfolgerung.
Top to Bottom ist vollkommen belanglos, wenn man ein Neueinsteiger ist. nVidia wird im Laufe der Zeit ein Top to Bottom Portfolio entwickeln. Zur Zeit ist es aber wichtiger, dass ein SoC pünktlich auf den Markt kommt. Und High-End reicht für nVidia vollkommen aus, da sie als kleine Firma wesentlich früher vom Umsatz profitieren.
Produkte mit T2 in ernsthaften Stückzahlen gibt es nun mal erst seit 2011 und selbst das scheint nach offizieller Aussage bis jetzt nicht gerade berauschend zu sein. Indirekt ist das Eingeständnis auch eine Anspielung auf einen Strategiefehler. Die Ausrichtung ist zu sehr auf Highend für Tabletts getrimmt.
T2 ist kleiner als A4 und damit im Grunde ebenfalls genauso gut geeignet für Smartphones. Es spielt auch keine Rolle, da High-End Smartphones und Tablets sich generell weniger verkaufen als das Low-End, dafür der Markt wesentlich einfacher zubetreten ist. Und Huang hat sich über die hohen Preise der Android-Tablets beschwert. Tegra2 kann auch locker in $399 Tablets eingesetzt werden, weil der Einkaufspreis kaum eine Auswirkung hat.
/edit: Achja, es gibt Gerüchte, dass Microsoft Windows 8 für Tablets auf der Computex zeigen wird - angetrieben von Tegra2. Aber wird wohl nicht stimmen, wenn man sieht, wie toll die Konkurrenz ist mit ihrem - äh - Playbook. :D
Ailuros
2011-05-28, 11:07:47
Sage ich ja: Der Unterschied zwischen T2 und SGX540 ist geringer als zwischen A5 und T2. Und selbst twischen T3 und A5 bzw. den neuen Samsung Chip wird anscheinend keine 7 Monate liegen.
Vergleicht Ihr jetzt SoCs gegen SoC oder GPUs gegen SoCs?
SoC vs. SoC = T2 > S5PC11x
GPU vs. GPU (stets bei gleichem Takt) = SGX540 > ULP GeForce
...und dazu mit um einige mehr Faehigkeiten. NV erwaehnt nirgends ihre ULP GF Frequenzen aber diese sollten durchaus fuer T20 bei ueber 300MHz da es sich nur um eine einzige Vec4+1 PS ALU handelt (wohl 333MHz T20 und 300MHz A20).
Jede Vec2 ALU bei Series5 ist ueber folgendes faehig:
2 FP32 (skalar)
4 FP16 (vec2)
8 INT (vec4 or vec3)
4 Vec2 gegen 1 Vec4 ALU; stets bis zu FP20 bei der zweiten und nichts mit skalarem Inhalt bzw. gp/fp32.
ULP GF/T30 geht wohl jetzt da man von "12 cores" blubbert auf 2 * Vec4+1 PS und einen Vec4 VS, gerade eben ein einzelner SGX543 mit geringeren Faehigkeiten und Flexibilitaet. Wenn diese 2:1 These zwischen PS und VS ALUs stimmen sollte wuerde es mich wirklich wundern was bei grossen Dreiecken passieren koennte.
Grundsätzlich hat nVidia eben das Problem, dass deren Time-To-Market länger dauert als bei Samsung, Apple und Konsorten. Da sind die drei Monate zwischen T2 und Samsung ziemlich gut.
Samsung, LG, Renesas und TI (OMAP4) werden alle in absehbarer Zukunft auf ziemlich konkurrenzfaehige Loesungen im Vergleich zu A5's MP2 setzen (und eben nicht nur Tegra). Dass NV eine unterschiedliche road-map hat was die Zeitspannen betrifft hat zumindest auf der CPU Seite der SoCs einen Vorteil fuer NV. Einen GPU Vorteil aber nicht.
/edit: Achja, es gibt Gerüchte, dass Microsoft Windows 8 für Tablets auf der Computex zeigen wird - angetrieben von Tegra2. Aber wird wohl nicht stimmen, wenn man sieht, wie toll die Konkurrenz ist mit ihrem - äh - Playbook.
Nett dass Du Dich mal wieder selber provozieren willst; das Playbook wird sich auf jeden Fall besser verkaufen als jegliches Xoom. Du kannst von mir das Playbook Argument so lange totschlagen wie Du willst, der tablet Markt wird (leider) nach wie von Apple kapituliert und dazu eben mit keiner ultra low performance GeForce :P
LovesuckZ
2011-05-28, 11:17:52
Nett dass Du Dich mal wieder selber provozieren willst; das Playbook wird sich auf jeden Fall besser verkaufen als jegliches Xoom. Du kannst von mir das Playbook Argument so lange totschlagen wie Du willst, der tablet Markt wird (leider) nach wie von Apple kapituliert und dazu eben mit keiner ultra low performance GeForce :P
Besser als das Xoom? Wow - was für eine Leistung, dass zur Zeit wohl schlechtverkaufteste Tegra2 Honeycomb Tablet zu schlagen. ;D
Doof nur, dass das Xoom eins von vielen in ein paar Tagen sein wird. Das Playbook geht nicht nur gegen Apple, sondern gegen die komplette Android-Konkurrenz. Und da wird es einfach untergehen.
Ailuros
2011-05-28, 11:38:34
Besser als das Xoom? Wow - was für eine Leistung, dass zur Zeit wohl schlechtverkaufteste Tegra2 Honeycomb Tablet zu schlagen. ;D
Doof nur, dass das Xoom eins von vielen in ein paar Tagen sein wird. Das Playbook geht nicht nur gegen Apple, sondern gegen die komplette Android-Konkurrenz. Und da wird es einfach untergehen.
Wie gesagt Du willst Dich ja eigentlich nur selber provozieren. In Echtzeit verkauft sich ueberhaupt kein tablet ausserhalb iPads wie warme Semmeln; ein bedauernde Realitaet aber so ist es eben leider nun mal.
Sonst wird sich RIM zumindest in der UK halbwegs anstaendig verkaufen; dass es zu einem Mega-Erfolg werden wird hat wohl auch keiner erwartet im Gegensatz zu Dir und was vor einiger Zeit jegliches T2 tablet betraf. Ergo wirst Du so oder so ziemlich beschaeftigt sein Flops zaehlen zu koennen.
Ailuros
2011-05-29, 16:33:32
http://www.gottabemobile.com/2011/05/27/new-motorola-droid-bionic-benchmark-reveals-dual-core-ti-omap-chip-not-tegra-2/
YfOrU
2011-05-29, 18:23:11
Ähm, nö. Man liefert, was zur Verfügung ist. Deswegen bieten Acer und Asus auch x86 Tablets an. Die warten nicht auf die supertollenmegageilennonsplusultra A9 Designs, um dann 6 Monate nach Apple auf den Markt zukommen. :rolleyes:
Die x86 Tabs sprechen eine andere Zielgruppe an und sind von den ARM Designs unabhängig. Das Slate ist dann noch mal ein Spezialfall denn es ist ein leistungsfähiger (Sub)NB Ersatz.
Wer sich so ein Produkt kauft kann mit iOS / Android und ARM nichts anfangen. Der will explizit MS Windows.
Motorola zu haben, bedeutet, dass die Konkurrenz weniger Abnehmer zur Verfügung stehen. nVidia ist immer noch Neueinsteiger und jedes Design ist für sie ein Gewinn in Gegensatz zu den Platzhirschen, die nur verlieren können.
Daraus scheint nichts zu werden. Omap 4 ersetzt Omap3. Damit hat TI bei Motorola alleine schon mehr Smartphone Designs und Absatz als Nvidia insgesamt.
Hey, nVidia ist immer noch Neueinsteiger. Die werden nicht zich verschiedene Chips entwickeln. Das bringt auch überhaupt nichts. Es spielt auch keine Rolle, da die Time-to-Market Zeit viel zu hoch und nVidia mit A8 einer von vielen gewesen wäre.
Anstatt Quad A9 lässt sich auch ein SingleCore A9 für Mainstream Produkte auf den Markt bringen. Damit könnte man im unteren und mittleren Preissegment bei sehr viel größeren möglichen Volumen Absatz finden.
Top to Bottom ist vollkommen belanglos, wenn man ein Neueinsteiger ist. nVidia wird im Laufe der Zeit ein Top to Bottom Portfolio entwickeln. Zur Zeit ist es aber wichtiger, dass ein SoC pünktlich auf den Markt kommt. Und High-End reicht für nVidia vollkommen aus, da sie als kleine Firma wesentlich früher vom Umsatz profitieren.
Nvidia ist so viel Neueinsteiger wie Google mit Android einer ist ;)
Man entwickelt Highend sowie Ultra Highend und hat dabei magere Absatzzahlen. Vom Umsatz profitieren ist mir zu zweideutig. Am Schluss zählt ob sich die Investitionen in ein Produkt rechnen oder nicht.
LovesuckZ
2011-05-29, 18:58:08
Mit dem Treiberupdate für Tegra durch Honeycomb 3.1 ist das iPad 2 im GLBenchmark Egypt nur noch doppelt so schnell. Damit wird ULP Geforce in Tegra3 mit dem iPad 2 aufschließen.
Da aber der GLBenchmark sowieso von jeder Firma totoptimiert wird, sollte man mal ein Blick auf Nenamark (http://nena.se/nenamark/view?version=2) werfen. Dort ist die ULP GPU von Tegra2 auf dem Niveau von SGX540 und Adreno 220.
Die x86 Tabs sprechen eine andere Zielgruppe an und sind von den ARM Designs unabhängig.
Quatsch mit Soße. Das W500 kostet genauso viel wie das A500. Sie sprechen die exakt selbe Käuferschicht an. Das Asus das Slate so teuer macht, ändert nichts daran, dass sie nach alternativen Chipsätzen für die Tablets suchen. Wir werden ja sehen, was im padFone (http://www.engadget.com/2011/05/29/asus-padfone-shown-off-in-proper-brightness-ahead-of-launch/) enthalten sein wird. Ich schätze, da es Android 2.x ist, wird es kein Tegra sein.
Daraus scheint nichts zu werden. Omap 4 ersetzt Omap3. Damit hat TI bei Motorola alleine schon mehr Smartphone Designs und Absatz als Nvidia insgesamt.
Sehe ich nirgendwo. Es gibt sogar schon Gerüchte, dass Motorola für das nächste Jahr schon an Tegra3 Smartphones arbeitet. ;D
Anstatt Quad A9 lässt sich auch ein SingleCore A9 für Mainstream Produkte auf den Markt bringen. Damit könnte man im unteren und mittleren Preissegment bei sehr viel größeren möglichen Volumen Absatz finden.
Ja - Billigkram, die niemanden weiterbringt. nVidia will eine entsprechende Marge von knapp 50% haben. Der untere Markt ist sowieso viel zu vollgepackt von Konkurrenz. Dazukommt, dass High-End Smartphones immer bedeutender werden und dank Verträgen auch für viele erschwinglich.
Nvidia ist so viel Neueinsteiger wie Google mit Android einer ist ;)
Man entwickelt Highend sowie Ultra Highend und hat dabei magere Absatzzahlen. Vom Umsatz profitieren ist mir zu zweideutig. Am Schluss zählt ob sich die Investitionen in ein Produkt rechnen oder nicht.
Google ist bestimmt alles - nur kein Neueinsteiger im OS Markt. Tegra 1 war ein Design ohne wirklichen Erfolg. Ein Mitläufer unter vielen. Tegra2 ist selbst 7 Monate nach dem Erscheinen konkurrenzfähig und die Referenzplattform für Honeycomb und der einzige SoC, der zur Zeit in Smartphones und Tablets anzufinden ist. nVidia hat mit dem High-End Tegra2 SoC deutlich mehr Erfolg als mit Tegra 1. Und Tegra3 wird nochmal eine Schippe drauf legen, weil man dann überall konkurrenzfähig bis überlegen ist.
Achja: Das HTC Sensation erreicht im Linpack 47 MFlops. Ein Vorsprung gegenüber 1GHz Tegra2, das 1:1 dem Taktvorteil entspricht. Soviel zu NEON.
Tiamat
2011-05-29, 19:42:23
Das seh ich aber auch so. 7 Monate später mit einem Design daher zu kommen, das ein 7 Monate altes schlägt, ist jetzt wirklich kein Zeichen von Überlegenheit. Im Gegenteil, damit hat Nvidia gezeigt, dass man den Platzhirschen, die sich auf den Markt spezialisiert hat, mal einfach so 7 Monate zuvor kommen kann.
Tarkin
2011-05-30, 06:59:56
Mit dem Treiberupdate für Tegra durch Honeycomb 3.1 ist das iPad 2 im GLBenchmark Egypt nur noch doppelt so schnell. Damit wird ULP Geforce in Tegra3 mit dem iPad 2 aufschließen.
Prima Leistung wenn es dann im Feb 2012 die ersten Tablets gibt die mit dem Ipad 2 mithalten können ... WUUUU-HU! :rolleyes:
Im Ankündigen ist nVidia wie immer weltklasse! (http://www.anandtech.com/show/4359/nvidias-kalel-glowball-demo-shows-off-dynamic-lighting-quadcore-physics)
"NVIDIA said that Kal-El based devices are on track for release this holiday season. The original commitment was August 2011 but NVIDIA wouldn't be any more specific than to say that we may see some products launch before the holidays."
Werden wirds Feb-Mrz... wetten?
Tiamat
2011-05-30, 08:10:00
4 * 1.5Ghz bei 40nm,
32bit Speicherinterface,
Modifikation am Mem-Controller,
Mem-Upgrade ?
Neon FPU
Das ist doch ordentlich.
Sagt mal gibt´s von Nvidia eigentlich auch so Dev-Boards wie zum Beispiel PandaBoard/BeagleBoard, die mit Omap4 bestückt sind ?
Gruß
Tiamat
LovesuckZ
2011-05-30, 11:54:45
nVidia wird Ende Juni 10 Millionen Tegra2 Chips verkauft haben:
Speaking to reporters ahead of the Computex trade show in Taipei on Monday, Nvidia CEO Jen-Hsun Huang also announced that Nvidia will have shipped 10 million of its existing dual-core Tegra 2 processors by the end of June.
http://www.pcworld.com/article/228968/nvidia_shows_tablet_running_quadcore_tegra_chip.html
Prima Leistung wenn es dann im Feb 2012 die ersten Tablets gibt die mit dem Ipad 2 mithalten können ... WUUUU-HU! :rolleyes:
Im Ankündigen ist nVidia wie immer weltklasse! (http://www.anandtech.com/show/4359/nvidias-kalel-glowball-demo-shows-off-dynamic-lighting-quadcore-physics)
"NVIDIA said that Kal-El based devices are on track for release this holiday season. The original commitment was August 2011 but NVIDIA wouldn't be any more specific than to say that we may see some products launch before the holidays."
Werden wirds Feb-Mrz... wetten?
Die ersten Tegra 2 Geräte kamen 7 Monaten nach der CES 2010 auf dem Markt. Bleibt der Zeitabstand gleich, kann man mit September rechnen, wovon auch nVidia ausgeht:
Nvidia has shown a prototype tablet computer running a four-core version of its Tegra processor and said products based on the new chip will go on sale starting in September.
Knuddelbearli
2011-05-30, 12:20:40
http://www.computerbase.de/news/hardware/prozessoren/2011/mai/nvidia-zeigt-tegra-3-techdemo/
YfOrU
2011-05-30, 14:22:13
Mit dem Treiberupdate für Tegra durch Honeycomb 3.1 ist das iPad 2 im GLBenchmark Egypt nur noch doppelt so schnell. Damit wird ULP Geforce in Tegra3 mit dem iPad 2 aufschließen.
Da aber der GLBenchmark sowieso von jeder Firma totoptimiert wird, sollte man mal ein Blick auf Nenamark (http://nena.se/nenamark/view?version=2) werfen. Dort ist die ULP GPU von Tegra2 auf dem Niveau von SGX540 und Adreno 220.
Das sind alles A8 mit 32bit DDR2 Interface.
Wenn man den Abstand zu Mali 400MP betrachtet braucht es ein ganzes Eck mehr als Faktor 2 um mit SGX543MP gleichzuziehen.
Quatsch mit Soße. Das W500 kostet genauso viel wie das A500. Sie sprechen die exakt selbe Käuferschicht an. Das Asus das Slate so teuer macht, ändert nichts daran, dass sie nach alternativen Chipsätzen für die Tablets suchen
Käuferschicht ist nicht gleich Zielgruppe. Oder zielt ein 500€ Subnotebook etwa auf die gleiche Käufergruppe wie ein 500€ DTR ab ?
Sehe ich nirgendwo. Es gibt sogar schon Gerüchte, dass Motorola für das nächste Jahr schon an Tegra3 Smartphones arbeitet. ;D
Droid/Milestone 3 habe wie das Bionic Omap 4. Damit ist klar was in den anderen Nachfolgemodellen von Produkten wie Defy etc. verbaut wird.
Sollten sie besser auch sonst endet es wie beim Bionic ;)
Ja - Billigkram, die niemanden weiterbringt. nVidia will eine entsprechende Marge von knapp 50% haben. Der untere Markt ist sowieso viel zu vollgepackt von Konkurrenz. Dazukommt, dass High-End Smartphones immer bedeutender werden und dank Verträgen auch für viele erschwinglich.
Die Zahl der über den eigentlichen Handytarif subventionierten (verkauften) Geräte nimmt aufgrund flexiblerer Tarifmodelle ab.
Von den 50% Marge darf man sich bei der Anzahl an Mitbewerbern wohl recht schnell verabschieden.
Achja: Das HTC Sensation erreicht im Linpack 47 MFlops. Ein Vorsprung gegenüber 1GHz Tegra2, das 1:1 dem Taktvorteil entspricht. Soviel zu NEON.
Linpack:
This test is more a reflection of the state of the Android Dalvik Virtual Machine than of the floating point performance of the underlying processor. Software written for an Android device is written using Java code that the Dalvik VM interprets at run time.
Wenn alles passt inkl. Jit schafft ein 1Ghz Snapdragon SC unter Android 2.3.3 über 65 MFlpos.
http://www.greenecomputing.com/apps/linpack/linpack-by-device/
LovesuckZ
2011-05-30, 14:37:10
Das sind alles A8 mit 32bit DDR2 Interface.
Wenn man den Abstand zu Mali 400MP betrachtet braucht es ein ganzes Eck mehr als Faktor 2 um mit SGX543MP gleichzuziehen.
Der Abstand zwischen Mali und Tegra2-Geforce ist geringer als 2x im Nenamark. Und Faktor 2 reicht aus, wie man am totoptimierten GLBenchmark sieht.
Käuferschicht ist nicht gleich Zielgruppe. Oder zielt ein 500€ Subnotebook etwa auf die gleiche Käufergruppe wie ein 500€ DTR ab ?
Das A500 und W500 sind wesentlich deckungsgleicher als ein Subnotebook und ein DTR. Man muss schon blind sein, um solch einen Vergleich anzustellen.
Droid/Milestone 3 habe wie das Bionic Omap 4. Damit ist klar was in den anderen Nachfolgemodellen von Produkten wie Defy etc. verbaut wird.
Spielt überhaupt keine Rolle, da nVidia in Motorola-Produkten vorhanden ist. Von 0 auf 2 Designs. Designs, die die Konkurrenz nicht erhielten. Umsatz, den die Konkurrenz nicht einnehmen. nVidia hatte mit Tegra1 keinen Umsatzstrom von Motorola. Es spielt daher zur Zeit keine Rolle, wie of TI enthalten sein wird. Jedes Design ist für nvidia gleichbedeutend mit Wachstum. Wohingegen es bei der Konkurrenz auch Verlust sein kann.
Die Zahl der über den eigentlichen Handytarif subventionierten (verkauften) Geräte nimmt aufgrund flexiblerer Tarifmodelle ab.
Von den 50% Marge darf man sich bei der Anzahl an Mitbewerbern ganz schnell verabschieden.
Tarifverträge mit subventionierten Handys werden in Zukunft eher zunehmen, da die neusten Produkte immer teuer sein werden. Niemand holt sich ein subventioniertes 200€ Handy in einem Vertrag, sondern nimmt gleich das bessere. Man sieht es doch am iPhone und an den anderen High-End Handys.
Linpack:
This test is more a reflection of the state of the Android Dalvik Virtual Machine than of the floating point performance of the underlying processor. Software written for an Android device is written using Java code that the Dalvik VM interprets at run time.
Wenn alles passt inkl. Jit schafft ein 1Ghz Snapdragon SC unter Android 2.3.x über 65 MFlpos.
Dann spielt NEON unter Android keine Rolle. Du kannst gerne andere CPU Benchmarks zeigen. Ich finde auf die schnelle nichts, die das HTC Sensation soviel schneller zeigen.
stickedy
2011-05-30, 15:15:40
http://www.computerbase.de/news/hardware/prozessoren/2011/mai/nvidia-zeigt-tegra-3-techdemo/
Naja, soooo toll ist das wohl nicht: http://www.heise.de/newsticker/meldung/Nvidias-Tablet-Chip-Kal-El-laesst-die-Muskeln-spielen-1252145.html
PhysX läuft über die Prozessorkerne, die bei der Gelegenheit dann auch fast völlig ausgelastet sind (75%). Also nicht wirklich was wert, sondern nur eine hübsche Spielerei.
LovesuckZ
2011-05-30, 15:28:18
Naja, soooo toll ist das wohl nicht: http://www.heise.de/newsticker/meldung/Nvidias-Tablet-Chip-Kal-El-laesst-die-Muskeln-spielen-1252145.html
PhysX läuft über die Prozessorkerne, die bei der Gelegenheit dann auch fast völlig ausgelastet sind (75%). Also nicht wirklich was wert, sondern nur eine hübsche Spielerei.
Seit wann ist Physik nichts werts? :eek:
Aber ich kann es verstehen: Ist nVidia. Und wie es nVidia macht, ist es falsch. :freak:
dildo4u
2011-05-30, 15:33:20
Naja, soooo toll ist das wohl nicht: http://www.heise.de/newsticker/meldung/Nvidias-Tablet-Chip-Kal-El-laesst-die-Muskeln-spielen-1252145.html
PhysX läuft über die Prozessorkerne, die bei der Gelegenheit dann auch fast völlig ausgelastet sind (75%). Also nicht wirklich was wert, sondern nur eine hübsche Spielerei.
Guck doch das Video der Finale Chip wird 25% schneller sein zusätzlich haben sie noch Monate zu optemieren des Gamecodes und der Treiber.
Dural
2011-05-30, 15:35:34
wie soll den PhsyX den sonst laufe?!?
Die T3 GPU kann das gar nicht, Hardware PhysX dürfte wohl erst ab T5 möglich sein...
Echt komisch... wenn die PhsyX über die GPU laufen würde, würden die ersten Post sinnlich lauten: "NV ist scheisse wie so lassen die das nicht über die Quad Core CPU laufen, kein Mensch braucht ein Quad Core für ein Tablet" :freak:
Ich habe so das Gefühl, das die Demo mit den nächsten Generationen von Tegra noch mal auftaucht, dann aber mit Hardware PhysX über die GPU ;)
LovesuckZ
2011-05-30, 15:43:42
wie soll den PhsyX den sonst laufe?!?
Na, hast du das Memo nicht bekommen?
PhysX darf weder über die CPU noch über die GPU laufen.
Sollte PhysX auf der CPU und/oder der GPU laufen, ist es nicht "wirklich was wert, sondern nur eine hübsche Spielerei."
Deswegen ist es wichtig, dass wir viel mehr Grafikleistung haben. Denn wie wir wissen: Grafik != "hübsche Spielerei".
...
Man muss einfach akzeptieren, dass in diesem Forum vielzuviele nVidia-Hater sind. Die bashen dann einfach alles zu tode. Das man für Spiele auch entsprechend genug CPU-Leistung benötigt, fällt vielleicht nicht auf, wenn man seine Kaufentscheidung auf Basis von reinen GPU-Benchmarks fällt, aber wer wirklich mehr als nur eine "hübsche Spielerei" will, braucht auch mehr CPU-Leistung (KI, Physik, Geometriebereichnung etc.).
stickedy
2011-05-30, 16:29:25
Seit wann ist Physik nichts werts? :eek:
Aber ich kann es verstehen: Ist nVidia. Und wie es nVidia macht, ist es falsch. :freak:
Die Demo ist wertlos, weil
1. es nichts besonderes ist - jeder ARM-Prozessor kann das, egal ob Tegra drauf steht oder nicht
2. die Prozessorauslastung so hoch ist, dass es praktisch nicht eingesetzt werden kann - einfach weil keine CPU-Leistung mehr übrig ist, um ein komplettes Spiel / Anwendung laufen zu lassen.
LovesuckZ
2011-05-30, 16:48:13
Die Demo ist wertlos, weil
1. es nichts besonderes ist - jeder ARM-Prozessor kann das, egal ob Tegra drauf steht oder nicht
Hä? Die Demo ist wertlos, weil es auch auf anderen QuadCore ARM SoCs laufen könnte? Wieviele davon gibt es denn schon, die vorzeigbar wären? Sony? Wow.
2. die Prozessorauslastung so hoch ist, dass es praktisch nicht eingesetzt werden kann - einfach weil keine CPU-Leistung mehr übrig ist, um ein komplettes Spiel / Anwendung laufen zu lassen.
Es kommt einzig und allein auf die Anwendung drauf an. Die Demo wird am Ende zu einem Spiel werden. Und wenn man eben keine KI benötigt, weil es Pinnball ist (ich kenn die Demo nicht), dann kann man die freien Ressourcen in andere Berechnungen stecken.
stickedy
2011-05-30, 18:00:40
Hä? Die Demo ist wertlos, weil es auch auf anderen QuadCore ARM SoCs laufen könnte? Wieviele davon gibt es denn schon, die vorzeigbar wären? Sony? Wow.
Es muss kein Quadcore sein, es kann auch ein Dual-Core sein - wenn er denn schnell genug ist.
Davon abgesehen: ZiiLabs
Aber dennoch: Was sagt denn die Demo aus? Das einen Prozessor gibt, der PhysX-Berechnungen durchführen kann? Wow...
LovesuckZ
2011-05-30, 18:21:50
Es muss kein Quadcore sein, es kann auch ein Dual-Core sein - wenn er denn schnell genug ist.
Jap. Wie alles auf dieser Welt. Binsenweisheit.
Davon abgesehen: ZiiLabs
Ich habe den herausgenommen, weil ich nicht weiß, wie gut die GPU-Fähigkeiten sind.
Aber dennoch: Was sagt denn die Demo aus? Das einen Prozessor gibt, der PhysX-Berechnungen durchführen kann? Wow...
Wow. Also echt - gehört Haterismus zur Vorraussetzung hier Moderator zu werden? :rolleyes:
Die Demo zeigt die Kapazitäten von Tegra3. Genauso wie z.B. der GLBenchmark die Kapazitäten der GPU von A5 zeigt. Stellt sich ja auch niemand hin und sagt:
Toll, der Chip kann hübsche Bilder produzieren, aber was ist mit KI, Physik und so?
Man nutzt 4 Kerne aus. Warum das schlecht sein soll, weiß ich nicht. Aber da nVidia = schlecht für euch ist, ist alles mit nVidia = schlecht.
Nightspider
2011-05-30, 21:51:54
Wird Tegra 3 in 32nm gefertigt?
Kann man sonst kaum vorstellen, wie man dieses QuadCore Monster in ein Smartphone pressen will, ohne den Strombedarf zu verdoppeln.
Ailuros
2011-05-30, 22:04:51
Jap. Wie alles auf dieser Welt. Binsenweisheit.
Zu der Du gerade nicht immun bist.
Ich habe den herausgenommen, weil ich nicht weiß, wie gut die GPU-Fähigkeiten sind.
Relativ schwach, aber von besonders starken GPUs ist hier sowieso nicht die Rede da diese nur dekorativer Schnickschnack sind.
Wow. Also echt - gehört Haterismus zur Vorraussetzung hier Moderator zu werden? :rolleyes:
Der Satz duerfte schon wieder mal reichen Dich zu verpunkten. Mir ist egal wo Dir die Geduld ausgeht oder nicht, Du provozierst und wirst gegen-provoziert. So weit so gut aber ich bin nunmal allergisch gegen jegliche direkte oder indirekte Angriffe. Ergo bleib sachlich, es tut niemand weh.
Die Demo zeigt die Kapazitäten von Tegra3. Genauso wie z.B. der GLBenchmark die Kapazitäten der GPU von A5 zeigt. Stellt sich ja auch niemand hin und sagt:
Toll, der Chip kann hübsche Bilder produzieren, aber was ist mit KI, Physik und so?
GL Benchmark zeigt alles andere als die GPU Kapazitaeten vom A5 da es viel zu viel auf fragment processing legt.
Man nutzt 4 Kerne aus. Warum das schlecht sein soll, weiß ich nicht. Aber da nVidia = schlecht für euch ist, ist alles mit nVidia = schlecht.
Wenn keiner NVIDIA mehr kritisieren sollte, waerst Du als erster "arbeitslos" ;)
Wird Tegra 3 in 32nm gefertigt?
Kann man sonst kaum vorstellen, wie man dieses QuadCore Monster in ein Smartphone pressen will, ohne den Strombedarf zu verdoppeln.
Nein es wird unter 40G@TSMC gefertigt und nimmt 1/4 weniger die Flaeche ein als Apple A5 unter 45nm. Siehe meine vorigen Beitraege auch dafuer.
LovesuckZ
2011-05-30, 22:07:13
Wenn keiner NVIDIA mehr kritisieren sollte, waerst Du als erster "arbeitslos" ;)
Das wäre toll. Weil dann könnte man über die wichtigen Dinge in diesem Forum schreiben.
Z.B. wie erbärmlich es für den x86 Markt ist, dass diese Kal-El Demo mehr und vorallem schönere Cloth-Simulation zu bieten hat als man auf dem PC-Markt in den letzten 6 Jahren sehen konnte.
Ailuros
2011-05-30, 22:23:15
Das wäre toll. Weil dann könnte man über die wichtigen Dinge in diesem Forum schreiben.
Wir sollten Dir ein getrenntes Subforum widmen wo Du nach belieben endlose Monologe fuehren koenntest. Natuerlich ist es schoen wenn niemand etwas einzuwenden hat.
Z.B. wie erbärmlich es für den x86 Markt ist, dass diese Kal-El Demo mehr und vorallem schönere Cloth-Simulation zu bieten hat als man auf dem PC-Markt in den letzten 6 Jahren sehen konnte.
Schade dass das Ganze auf ARM CPU IP laeuft. Das Demo wird uebrigens von der GPU aufgehalten.
LovesuckZ
2011-05-30, 22:30:05
Wir sollten Dir ein getrenntes Subforum widmen wo Du nach belieben endlose Monologe fuehren koenntest. Natuerlich ist es schoen wenn niemand etwas einzuwenden hat.
Wieso für mich? Der größte Nonsens kommt von euch. Das dauernde Gebashe gegen Tegra und vorallem die GPU langweilt nur noch.
Macht also für euch ein "getrenntes Subforum" auf, wo ihr den ganzen schönen Tag gegen Tegra und die ULP-Geforce flamen könnt. Das wäre sinnvoller, weil dann kann man hier über die neusten Entwickeln reden ohne dass einer einem weißmachen will, dass SGX540 soviel besser wäre, weil er gleichschnell ist...
/edit:
Z.B sowas: Motorola Xoom quad core for back to school (http://www.fudzilla.com/notebooks/item/22237-motorola-xoom-quad-core-for-back-to-school)
Oder Shuttle mit zwei Tegra2 Honeycomb-Tablets: http://www.engadget.com/2011/05/30/shuttle-tablets-at-computex-2011-hands-on/
Hugo78
2011-05-30, 22:50:25
PhysX läuft über die Prozessorkerne, die bei der Gelegenheit dann auch fast völlig ausgelastet sind (75%).
Na es wird ja auch verhältnismässig viel Physik berechnet und das ES rennt nicht mit vollem Speed.
Aber selbst wenn es mit vollem Speed laufen würde und die Kerne bei knapp 100%, was wäre daran so falsch?! :confused:
Also nicht wirklich was wert, sondern nur eine hübsche Spielerei.
Eine Demo zeigt was ein System kann und wenn diese Demo darüberhinaus auch auf anderen ARM Designs läuft,
geht sie doch auch glatt als Benchmark durch oder?
Und wie der NV Mitarbeiter im Video meint, soll das mehr als nur ne Demo werden, es soll ein Spiel werden mit mehreren Levels.
Da hätten wir doch gleich drei Dinge auf einmal.
Ailuros
2011-05-30, 23:07:14
Wieso für mich? Der größte Nonsens kommt von euch. Das dauernde Gebashe gegen Tegra und vorallem die GPU langweilt nur noch.
Nicht mein Fehler das die GPU nichts besonderes ist. Und ob es Dir jetzt passt oder die GPU nimmt konstant zu an Wichtigkeit in jedem SoC. Genau eben aus dem Grund sind GPUs im embedded Bereich eben "Schnickschnack". Du bist nicht allein hier im Forum noch wirst irgend jemand seine Meinung vorschreiben. Noch schlimmer andere unaufgefordert anmotzen nur weil Du gerade mal wieder mit dem linken Bein aufgestanden bist. Um das geht es mir eher als alles andere.
Und ja wenn Du keine Kritik tolerieren kannst gegen X hardware dann gibt es wohl KEIN Forum wo es diese nicht geben wird. Ergo wohl die Welt gegen LZ, gegen T2, gegen NV oder weiss der Geier was noch. Ich hab natuerlich nichts besseres zu tun als mich an die Tuer von groessen Laeden zu stellen und den Vebrauchern einreden dass sie nicht Tegra2 Geraete kaufen sollten. Weder ich noch Du noch jemand anders koennen den End-Verbraucher beinflussen.
Macht also für euch ein "getrenntes Subforum" auf, wo ihr den ganzen schönen Tag gegen Tegra und die ULP-Geforce flamen könnt. Das wäre sinnvoller, weil dann kann man hier über die neusten Entwickeln reden ohne dass einer einem weißmachen will, dass SGX540 soviel besser wäre, weil er gleichschnell ist...
Schau mal nach wer der Thread-starter hier war; und ich muss mich auch fuer die Mehrzahl meiner Einschaetzungen in diesem Thread auch nicht schaemen, eher das Gegenteil. Nicht mein Fehler wenn andere Schaetzungen zu realitaets-fremd waren.
Wenn es Dich stoert ueber 540 jegliche Einwaende zu lesen dann lass es gefaelligst aus Deinen Vergleichen bzw. Posts raus wenn Du schon nicht die blasseste Ahnung hast wie das Ding laeuft. Und es tut mir auch aufrichtig leid wenn technisch die ULP GF dagegen wie eine Antiquitaet aussieht. Wehe wenn die ULP GF von AMD entwickelt worden waere und SGX540 von NV. Junge da wuerde sich wohl so mancher Reim aendern.
/edit:
Z.B sowas: Motorola Xoom quad core for back to school (http://www.fudzilla.com/notebooks/item/22237-motorola-xoom-quad-core-for-back-to-school)
Oder Shuttle mit zwei Tegra2 Honeycomb-Tablets: http://www.engadget.com/2011/05/30/shuttle-tablets-at-computex-2011-hands-on/
Endlich mal wieder etwas nutzvolles als Beitrag zum Thema.
Knuddelbearli
2011-05-30, 23:25:39
http://www.computerbase.de/news/consumer-electronics/kommunikation/smartphones/2011/mai/galaxy-s-iii-und-xoom-2-moeglicherweise-mit-tegra-3/
wieos kommt so ne news immer wenn ich mir wie zB jetzt das S2 kaufen möchte *grml* ^^
Gipsel
2011-05-30, 23:29:57
Na es wird ja auch verhältnismässig viel Physik berechnet und das ES rennt nicht mit vollem Speed.Viel? Eine Kugel, 5 Tücher (die wahrscheinlich noch am meisten kosten) und 10 Fässer laufen bei mir nicht wirklich unter viel. Und 25% mehr Takt reißen dann am Ende auch nicht mehr die Welt raus.
LovesuckZ
2011-05-30, 23:30:40
Nicht mein Fehler das die GPU nichts besonderes ist. Und ob es Dir jetzt passt oder die GPU nimmt konstant zu an Wichtigkeit in jedem SoC. Genau eben aus dem Grund sind GPUs im embedded Bereich eben "Schnickschnack". Du bist nicht allein hier im Forum noch wirst irgend jemand seine Meinung vorschreiben. Noch schlimmer andere unaufgefordert anmotzen nur weil Du gerade mal wieder mit dem linken Bein aufgestanden bist. Um das geht es mir eher als alles andere.
Ich schreibe jemanden was vor? Es ist immer wieder erstaunlich, wie Forumsteilnehmer wie du die Situation vollkommen falsch einschätzen. Schon der erste Satz ist bezeichnend: Weder Adreno220 noch SGX540 sind schneller. Das sind die GPUs der DualCore SoCs von Qualcom und TI. Komischweise höre ich in diesem Forum keine Kritik an der schlechten GPU-Leistung der unmittelbaren Konkurrenz.
Oder wie wäre es damit:
Da Tegra2 bei 240MHz ungeeignet fuer smartphones ist (zu grosser die, zu hoher Stromverbrauch) ist er besser platziert fuer tablets/netbooks.
Laut Anandtech.com taktet die Geforce mit 300MHz in den Smartphones.
Schau mal nach wer der Thread-starter hier war; und ich muss mich auch fuer die Mehrzahl meiner Einschaetzungen in diesem Thread auch nicht schaemen, eher das Gegenteil. Nicht mein Fehler wenn andere Schaetzungen zu realitaets-fremd waren.
Wenn es Dich stoert ueber 540 jegliche Einwaende zu lesen dann lass es gefaelligst aus Deinen Vergleichen bzw. Posts raus wenn Du schon nicht die blasseste Ahnung hast wie das Ding laeuft. Und es tut mir auch aufrichtig leid wenn technisch die ULP GF dagegen wie eine Antiquitaet aussieht. Wehe wenn die ULP GF von AMD entwickelt worden waere und SGX540 von NV. Junge da wuerde sich wohl so mancher Reim aendern.
Die "Antiquitaet" ist auf dem selben Niveau. Es interessiert niemanden in diesem Thread, "wie das Ding laeuft". Schreib das in dem entsprechenden SGX Thread. Hier geht es um Tegra2, den SoC, Erwartungen, Prognosen etc. Aber doch nicht um die GPU eines Konkurrenten, die genauso schnell ist und nur durch eine Person als besonders hervorgehoben wird, weil sie von seinem Lieblingshersteller kommt.
Ailuros
2011-05-30, 23:58:50
Ich schreibe jemanden was vor? Es ist immer wieder erstaunlich, wie Forumsteilnehmer wie du die Situation vollkommen falsch einschätzen.
Ich hab nicht stickedy fuer seine Meinung angemault noch hab ich mich ueber die Kritik hier im Thread beschwert. Aber es hat mit Dir sowieso keinen Sinn.
Schon der erste Satz ist bezeichnend: Weder Adreno220 noch SGX540 sind schneller. Das sind die GPUs der DualCore SoCs von Qualcom und TI. Komischweise höre ich in diesem Forum keine Kritik an der schlechten GPU-Leistung der unmittelbaren Konkurrenz.
Ich hab sehr wohl Qualcomm bzw. ARM Mali mehr als oefters kritisiert. Adreno hat zumindest FP32 ALUs, waehrend Mali400 immer noch auf FP16 beruht, aber ARM zumindest hat schon bei T604 aufgeholt.
Oder wie wäre es damit:
Laut Anandtech.com taktet die Geforce mit 300MHz in den Smartphones.
Zu dem Zeitpunkt glaubte ich auch leider dass die ULP aus 2 Vec4 PS ALUs besteht. Bei so wenig Einheiten ist es kein Wunder dass sie extravagantere Frequenzen brauchen.
Die "Antiquitaet" ist auf dem selben Niveau. Es interessiert niemanden in diesem Thread, "wie das Ding laeuft". Schreib das in dem entsprechenden SGX Thread.
Ich schreibe jemanden was vor? Es ist immer wieder erstaunlich, wie Forumsteilnehmer wie du die Situation vollkommen falsch einschätzen.
Klingt das obrige bekannt? Natuerlich schreibst Du NIE und NIEMAND etwas vor. Wie gesagt halt Dich von Deinen albernen Vergleichen fern dann hab ich auch keine Einwaende.
Hier geht es um Tegra2, den SoC, Erwartungen, Prognosen etc. Aber doch nicht um die GPU eines Konkurrenten, die genauso schnell ist und nur durch eine Person als besonders hervorgehoben wird, weil sie von seinem Lieblingshersteller kommt.
Wier duerfen also bloss nicht die GPU vom Tegra2 kritisieren weil sie nach jemand so objektivem wie Du gleichauf liegt mit allen anderen und am wichtigsten man darf sie nicht kritisieren weil sie von Deinem Lieblingshersteller kommt. Merkst Du was? Jede Muenze hat 2 Seiten.
Und red mir nicht konstant um den Brei rum, mir ging es darum dass Du stickedy unaufgefordert angemault hast. Kannst Du wenigstens so viel kapieren? Und nein ich haette es nicht mit Dir diskuttieren sollen sondern einfach auf den Knopf druecken damit ich Deine typische Heulerei weiterfuettern kann.
So und jetzt zurueck zum eigentlichen Thema ohne jeglichen Verfolgungswahn
Hugo78
2011-05-31, 00:51:12
Viel? Eine Kugel, 5 Tücher (die wahrscheinlich noch am meisten kosten) und 10 Fässer laufen bei mir nicht wirklich unter viel.
Jup, verhältnissmässig viel für ein Handy.
Denn zum einen, in keiner mir bekannten Handy/Tablet - Demo/App/Spiel hab ich bisher auch nur im Ansatz, Echtzeit Physik FX entdecken können.
Aber bitte verlinke andere Beispiele.
Und weiter wir reden ja immernoch von einem normalem ARM CPU Design,
- dass nicht auf die Berechnung von PhysX hin optimiert ist/wurde,
- und in wie weit der vorhandene PhysX Code schon ARM optimiert ist, ist (mir) auch nicht klar,
- genauso wenig wie der verwendetet Detailgrad der Stoffsimulation,
Und wie du schon sagts, der Löwenanteil der Leistung dürfte für die Tücher draufgehen.
(ich seh da btw mehr als 5, eher min. 12-14 wenn nicht gar mehr, wenn die Arena einen geschlossen Kreis darstellen soll.)
LovesuckZ
2011-05-31, 01:25:33
Ich hab nicht stickedy fuer seine Meinung angemault noch hab ich mich ueber die Kritik hier im Thread beschwert. Aber es hat mit Dir sowieso keinen Sinn.
Du maulst nur die an, die nicht wehement gegen nVidia bashen. Das du als Moderator sowieso schön selbst reinhaust, kann diesen Thread hier gleich schließen.
Zu dem Zeitpunkt glaubte ich auch leider dass die ULP aus 2 Vec4 PS ALUs besteht. Bei so wenig Einheiten ist es kein Wunder dass sie extravagantere Frequenzen brauchen.
Spielt keine Rolle. Du hast die Leistung von Anfang an(!) als zu niedrig eingestuft und behauptet, wieviel besser die Konkurrenz zur damaligen Zeit ist/war.
Tegra2 hat 2 PS, 2VS, 2TMUs bei 240MHz waehrend der SGX535 2 USC ALUs und 2 TMUs hat. Im iPhone4 IMHO bei ~200MHz und im iPad bei schaetzungsweise ~250MHz. Das bei einem dual Cortex 9 im T2 und einem A8 bei 1GHz im iPad. Fuer tablets schlaegt sich Tegra2 ziemlich gut gegen SGX535 nur eben nicht gegen Intel's GMA600 welches den 535 auf 400MHz getaktet hat und schon gar nicht gegen SGX540 der doppelt so viele pipelines hat.
Ironisch, hätte Tegra2 2 VEC4 PS/VS und 240Mhz, würde der Chip Kreise um SGX540 fahren.
Klingt das obrige bekannt? Natuerlich schreibst Du NIE und NIEMAND etwas vor. Wie gesagt halt Dich von Deinen albernen Vergleichen fern dann hab ich auch keine Einwaende.
Ich schreibe niemanden etwas vor. Du kannst deine Meinung im PowerVR Thread runter und drüber ausführen. Aber in diesem Thread interessiert es am Ende auch niemanden mehr, dass du die Geforce als schlecht empfindest. Vorallem deswegen:
Wier duerfen also bloss nicht die GPU vom Tegra2 kritisieren weil sie nach jemand so objektivem wie Du gleichauf liegt mit allen anderen und am wichtigsten man darf sie nicht kritisieren weil sie von Deinem Lieblingshersteller kommt. Merkst Du was? Jede Muenze hat 2 Seiten.
Du hast in diesem Thread Aussagen getätigt, die absolut daneben lagen. Du hast nur negative Stimmung vermittelt. Wie wäre es damit:
Seufz...ein Tegra2 liefert mit 240MHz auf der GPU in einem tablet Dingsbums gerade mal so viel wie ein ca. 200MHz SGX535 im iPhone4 welches ein smartphone ist. Wenn es Dir nichts sagen sollte (hier fehlt wo eher der Wille...) dann kann ich auch nicht wirklich weiterhelfen.
Wollen wir wirklich mal sehen, wie schnell ein Tegra2 mit 330MHz gegenüber dem SGX535 ist? Okay:
http://images.anandtech.com/graphs/graph4358/38058.png
http://www.anandtech.com/show/4358/android-31-on-the-asus-eee-pad-transformer
Wie wäre es damit:
Samsung's Galaxy S smart-phones sind ohnehin schon staerker als tablet Tegra2[...]
Oder damit:
Hoffentlich hat NV die Frequenzen auf T2 reduziert sonst will ich die Batterie-Laufzeit eines LG Optimus auch nicht wirklich sehen.
Und Verkaufszahlen - auch in Verbindung mit Fusion:
Gott im Himmel ein netbook...soll ich jetzt den Champagne-Korken ziehen oder spaeter. Bleib mal schoen auf dem Teppich und zeig mir wo die 50 angegebenen design wins fuer T2/2010 sind die NV selber angegeben hat. Mehr als ~10Mio Einheiten erhoffen sie sich ja selber nicht. Im Vergleich zu dem was AMD in naechster Zeit allein an Fusion verkaufen wird, ist es mehr als nur laecherlich.
nVidia Ende Juni 2011 (Prognose): 10 Millionen
AMD Ende Mai: 4 Millionen.
NV sah sich gezwungen den Preis uebrigens von anfangs $30/SoC auf die heutigen $10-12 zu reduzieren. Nur um am Ende doch ein bisschen etwas zu verkaufen denn OMAP4 liegt auf genau der gleichen Schiene wie Tegra2 preislich von Anfang an mit einem dual cortex A9 und um einiges niedrigeren Stromverbrauch. Eben fuer smartphones. In der Zwischenzeit kannst Du aufwachen und den Kaffee duften, denn bei NV selber haben sie es schon seit langem getan und wissen auch genau was sie falsch gemacht haben.
Und wie nVidia sich gezwungen sah. Die Übermacht an OMAP4 Geräten ist wahrlich erdrücken. Und an der Sperrspitze das Playbook - das sich besser als das Xoom verkauft.
Weitergehts:
Schon der OMAP4 ist ein gesundes Stueck vor T2 da um einiges hoehere Leistung bei niedrigerem Stromverbrauch.
20% - also genau dem Taktvorteil. Und das nach 8 Monaten. Wahrlich meisterlich.
Und hier etwas über den Platzbedarf:
Wenn das Resultat jetzt noch ultra-winzig waere (des GPU blocks) gaebe es ja auch keinen Grund zum meckern. Bei dem Platz den der T2 GPU block einnimmt unter 40G passt heute in die gleichen mm2 ein SGX54x 2MP rein unter 45nm.
Der SGX54x 2MP im A5 ist mit seinen 3xmm^2 ja genauso groß wie die GPU in Tegra... Stop. Nein, das stimmt garnicht. Das Ding benötigt annährend 3x soviel Platz. Was für ein Mist, aber auch. Aber wenigsten konnte man wieder etwas negatives sagen.
Und Generationen nicht vergessen:
NVIDIA ist technisch gesehen um eine ganze Generation hinter SGX. Ist zwar bei der Mehrzahl der Konkurrenz auch so, aber gerade von NVIDIA hab ich persoenlich hoehere Ansprueche als das was ich in T2 sehe.
Ja, es war ein Nachteil, dass Tegra2 8 Monate nach OMAP auf dem Markt kam. Da kann die Geforce-Unit eben nicht mit dem SGX540 im OMAP mithalten. :(
Ende...
Du kannst gerne meine Kommentare in diesem Thread suchen. Leider wirst du wohl keine Hochpreiserei und Vergötterung finden. Im Gegensatz zu deiner Verteuflung.
Und red mir nicht konstant um den Brei rum, mir ging es darum dass Du stickedy unaufgefordert angemault hast. Kannst Du wenigstens so viel kapieren?
Ach stickedy. Der schriebt doch den selben Unsinn wie du. Beispiele? Gerne:
nVidia is also wirklich kein Überflieger, sondern hat es vielmehr nach x Fehlschlägen endlich mal geschafft dank momentan überlegener CPU-Technik einige Design-Wins zu erlangen. Die GPU-Technik ist auch jetzt nicht wirklich konkurrenzfähig...
Zu der Geforce:
Quasi alle SoCs mit PowerVR SGX540 aufwärts [sind besser].
nVidias GPU in Tegra 2 ist technisch veraltet.
OK, stimmt, der CPU-Kern wurde verbessert. Das hatte ich bis dahin übersehen. Wobei der Sprung von ARM11 auf Cortex A9 wohl nicht so dramatisch ist. An der GPU wurde dennoch nichts verändert.
Nvidia ist aber nicht wegen der GPU konkurrenzfähig, sondern wegen der CPU!
Den Rest spare ich mir.
Und nein ich haette es nicht mit Dir diskuttieren sollen sondern einfach auf den Knopf druecken damit ich Deine typische Heulerei weiterfuettern kann.
Jap: Schön zensieren. Erst unsinn schreiben und wenn der dann einem um die Ohren fliegt, kann man ja die Leute bannen.
Es macht keinen Sinn in diesem Forum über Tegra zu sprechen. Wieviel falsche Behauptungen hier aufgestellt wurden sind, wieviel hass einem entgegen kommt, ist unglaublich. Vielleicht sollte sich die Moderation fragen, ob man Diskussionen über nVidia noch haben will, wenn sie nicht nur einseitig kontra sind. Das, was hier in diesem Thread - vorallem im letzten Jahr - abgelassen wurde, ist für dieses Forum traurig.
Gipsel
2011-05-31, 03:10:37
Das du als Moderator sowieso schön selbst reinhaust,
[..]
Jap: Schön zensieren.
[..]
Vielleicht sollte sich die Moderation fragen, ob man Diskussionen über nVidia noch haben will, wenn sie nicht nur einseitig kontra sind.
Ein allerletztes Mal:
Wenn Du Probleme mit der Moderation hast, trage das im Kontaktforum vor. Hier ist das OT und wird geahndet! Mal ganz abgesehen von Deinen an Flames bzw. Beleidigungen grenzenden Bemerkungen.
Gipsel
2011-05-31, 03:16:57
Und weiter wir reden ja immernoch von einem normalem ARM CPU Design,
- dass nicht auf die Berechnung von PhysX hin optimiert ist/wurde,
- und in wie weit der vorhandene PhysX Code schon ARM optimiert ist, ist (mir) auch nicht klar,
- genauso wenig wie der verwendetet Detailgrad der Stoffsimulation,
Und wie du schon sagts, der Löwenanteil der Leistung dürfte für die Tücher draufgehen.
(ich seh da btw mehr als 5, eher min. 12-14 wenn nicht gar mehr, wenn die Arena einen geschlossen Kreis darstellen soll.)
Okay, sind 9 Tücher (die nach den Clipping-Fehlern zu urteilen wohl nur mit einem Netz aus 100 Punkten oder so simuliert werden) und 12 Fässer.
CPUs sind übrigens noch nie auf Physik-Berechnungen optimiert worden, x86er auch nicht. Und sollten die A9 Kerne nicht eine Leistungsfähigkeit wie die Core2 aufweisen? :rolleyes:
Pennywise
2011-05-31, 07:15:57
Ihr seid lustig, diskutiert hier über die 3D Performance, im Prinzip wohl wichtig, in der Realität verkaufen sich aber Spiele die genau eben die nicht wirklich brauchen, am besten.
Leute, hier ist zwar das 3DC aber für den Verkaufserfolg ist heutzutage nicht unbedingt die 3D Performance ausschlaggebend.
Ailuros
2011-05-31, 09:11:17
Spielt keine Rolle. Du hast die Leistung von Anfang an(!) als zu niedrig eingestuft und behauptet, wieviel besser die Konkurrenz zur damaligen Zeit ist/war.
High end GPU Leistung und ULP GF passen eben nicht in den gleichen Satz.
Ironisch, hätte Tegra2 2 VEC4 PS/VS und 240Mhz, würde der Chip Kreise um SGX540 fahren.
Nur haengt die jeweilige Leistung am Ende von der Frequenz ab; maximal 240 gegen maximal 333MHz.
Wollen wir wirklich mal sehen, wie schnell ein Tegra2 mit 330MHz gegenüber dem SGX535 ist? Okay:
http://images.anandtech.com/graphs/graph4358/38058.png
http://www.anandtech.com/show/4358/android-31-on-the-asus-eee-pad-transformer
Kein Argument dagegen. Und ja ich kann gerne einige Uebertreibungen einstecken, aber es ist lediglich IMG's lahmer Treiber daran schuld was aber wirklich ein Thema fuer einen anderen Thread ist. Hingegen ist NV's Treiberstabilitaet und support durchaus lobenswert und nein ich hab es nicht versaeumt mehr als einmal zu erwaehnen.
Oder damit:
Und Verkaufszahlen - auch in Verbindung mit Fusion:
Die Projektion seitens NV fuer 10Mio war fuer 2010. Fuer 2011 haben sie afaik 15Mio projeziert.
Und wie nVidia sich gezwungen sah. Die Übermacht an OMAP4 Geräten ist wahrlich erdrücken. Und an der Sperrspitze das Playbook - das sich besser als das Xoom verkauft.
TI wird ihre OMAP4 bis zu 28nm/OMAP5 weiterverkaufen und das nicht nur mit dem 4430.
20% - also genau dem Taktvorteil. Und das nach 8 Monaten. Wahrlich meisterlich.
http://www.glbenchmark.com/compare.jsp?benchmark=glpro20&showhide=true&certified_only=1&D1=Google%20Nexus%20S&D2=LG%20P990%20Optimus%202X
300MHz vs. 200MHz bei gleicher Aufloesung und gleichem form factor.
Und hier etwas über den Platzbedarf:
Der SGX54x 2MP im A5 ist mit seinen 3xmm^2 ja genauso groß wie die GPU in Tegra... Stop. Nein, das stimmt garnicht. Das Ding benötigt annährend 3x soviel Platz. Was für ein Mist, aber auch. Aber wenigsten konnte man wieder etwas negatives sagen.
Dass der insgesamte die estate des A5 um ca. 1.2x mal so gross ist wie der Tegra2 SoC ist Dir wohl nicht aufgefallen. Nochmal Intrisity hat hauptsaechlich auf power-/clock gating optimiert und ihnen war die area total wurscht. Die 2*A9 CPU Kerne nehmen auf dem A5 auch ca. 1/4 des dies ein. Ergo wohl nichts ausserhalb der Analogie zwischen T2 und A5.
Und Generationen nicht vergessen:
Ja, es war ein Nachteil, dass Tegra2 8 Monate nach OMAP auf dem Markt kam. Da kann die Geforce-Unit eben nicht mit dem SGX540 im OMAP mithalten. :(
Offensichtlich bezog ich mich um beziehe mich auf die Faehigkeiten bzw. Flexibilitaet des Designs. USC ALUs, 24bit Z Praezision, FP32 und was noch sind alles nebenwichtig. Und ja solches nebenwichtige und dekoratives Zeug machen eine ganze Generation aus, im Fall von NV wenn sie endlich mit skalaren USC ALUs ankommen.
Ach stickedy. Der schriebt doch den selben Unsinn wie du. Beispiele? Gerne:
So lange sich eine Meinung nicht mit Deiner deckt ist sie natuerlich Unsinn. Nichtdestominder gibt es Dir nicht das Recht in anzugreifen.
Jap: Schön zensieren. Erst unsinn schreiben und wenn der dann einem um die Ohren fliegt, kann man ja die Leute bannen.
Wie oft muss man Dir genau sagen dass es hier Regeln gibt an Die Du Dich und jederman hier halten muss? Haette ich Dir selbst einen Punkt verpasst befuerchte ich haette das System Dir wieder Urlaub verpasst. Es gibt guten Grund warum ich versucht habe es offen zu loesen. Ich hab Dir schon zich Male vermittelt dass Du sehr gut beitragen kannst wenn Du nur die unnoetigen Seitenspruenge gegen andere vermeiden koenntest.
Ihr seid lustig, diskutiert hier über die 3D Performance, im Prinzip wohl wichtig, in der Realität verkaufen sich aber Spiele die genau eben die nicht wirklich brauchen, am besten.
Es gibt auch echte billig 3D Spielchen die man gegen geringen Preis herunterladen kann aber ja die Mehrzahl sind sie immer noch nicht. Die Tendenz aber in Richtung 3D ist konstant steigend. Es ist eben so dass sw Entwickler auch hier stets den lowest common denominator beruecksichtigen muessen.
Leute, hier ist zwar das 3DC aber für den Verkaufserfolg ist heutzutage nicht unbedingt die 3D Performance ausschlaggebend.
Stimmt in Grenzen auch. Mir geht es eben leider nicht nur um 3D. Ich hab schon zich Male erwaehnt dass NV eine ausgezeichnete Erfahrung mit GPGPU oder noch genauer CUDA bzw. OpenCL hat und noch wichtiger ausgezeichnete Unterstuetzung. Dass jegliche GPGPU Forschung, Entwicklung oder Gebrauch auf Tegra bis jetzt unmoeglich ist spricht gegen sie. Kein Hals- und Beinbruch aber von einem Vorreiter im high end Markt wenn es zu solchen Einzelheiten erwarte ich mehr. Und bevor jemand fragt zu was man heutzutage GPGPU auf einem embedded Geraet gebrauchen koennte waere das erste Beispiel image processing, welches auf CPUs um einige mehr an Strom verdonnert als auf einer GPU.
Noch mehr Honeycomb als OS legt zunehmend auf GPU processing u.a.
Dural
2011-05-31, 11:50:21
Da Tegra2 bei 240MHz ungeeignet fuer smartphones ist (zu grosser die, zu hoher Stromverbrauch) ist er besser platziert fuer tablets/netbooks.
http://www.computerbase.de/artikel/handys/2011/test-lg-optimus-speed-p990/4/
Laufzeiten
Die Ankündigung von Dual-Core-Prozessoren für Smartphones hat zu einer Vielzahl von Diskussionen geführt. Ein Aspekt kreist dabei regelmäßig um den Faktor „Laufzeiten“. Und das aus gutem Grund: Während die Akku-Entwicklung weitestgehend auf der Stelle tritt bzw. innovative und praxistaugliche Lösungen zur nennenswerten Erhöhung der mobilen Kapazität noch auf sich warten lassen, scheint der Markt gegenwärtig nur so nach einem Mehr an Leistung zu gieren.
Alle Skeptiker, die den ersten Dual-Core-Geräten extrem unterirdische Laufzeiten prognostiziert haben, werden mit dem Optimus Speed widerlegt: Offenbar gelingt es zumindest mit der Tegra-2-Ausstattung, ein gängiges Niveau zu erreichen, sodass das P990 bei konventioneller Nutzung durchaus ein bis anderthalb Arbeitstage durchhält, bevor es für ein bis zwei Stunden an die Steckdose gehangen werden möchte.
Und die Tegra 2 GPU geht übrigens bis 300MHz in der spar Version und 333MHz in der Tablet Version, in der 3D Version doch sogar um die 350MHz 400MHz. :)
Ailuros
2011-05-31, 15:44:20
Wurde die Tegra2 3D nicht dank Tegra3 storniert?
fondness
2011-05-31, 20:47:11
nVidia Ende Juni 2011 (Prognose): 10 Millionen
AMD Ende Mai: 4 Millionen.
5 Millionen Fusion-Chips. Und zwar in 5 Monaten. Warum es nicht mehr sind?
"Demand far exceeded supply," Raymond Dumbeck, product marketing manager for AMD's mobile products, told CNET.
http://www.techspot.com/news/43994-amd-has-shipped-5-million-fusion-chips-sold-out-last-quarter.html
LovesuckZ
2011-05-31, 21:00:54
Und? Gibt wohl keine Nachfrage nach Fusion. Samsung bestellte jetzt schlussendlich 3 Millionen Tegra 2 Chips fuer ihre Tabs.
fondness
2011-05-31, 21:03:49
Und? Gibt wohl keine Nachfrage nach Fusion. Samsung bestellte jetzt schlussendlich 3 Millionen Tegra 2 Chips fuer ihre Tabs.
Was für eine Antwort. Entschuldigung, ich hatte wieder mal vergessen das man dich nicht ernst nehmen kann. Kommt nicht so schnell wieder vor.
Gipsel
2011-05-31, 21:04:47
Und? Gibt wohl keine Nachfrage nach Fusion.???
Sag' mal, was ist am Zitat "Demand far exceeded supply" so zu verstehen, daß Deine Deutung rauskommt? :freak:
gas3t
2011-05-31, 21:10:02
Und? Gibt wohl keine Nachfrage nach Fusion. Samsung bestellte jetzt schlussendlich 3 Millionen Tegra 2 Chips fuer ihre Tabs.
Zum Vergleich:
I-Pad 1: 300.000 verkaufte Einheiten am Launch-Tag (1 Million im ersten Monat)
I-Pad 2: 500.000 verkaufte Einheiten am Launch-Wochenende (2,5 Millionen im ersten Monat)
Playbook: 45.000 verkaufte Einheiten am Launch-Tag (250.000 im ersten Monat)
Galaxy Tab: 2.000.000 verkaufte Einheiten in den ersten 3 Monaten
XOOM: 250.000 verkaufte Einheiten in Q1 2011
Nur um die Relationen im Blick zu haben.
LovesuckZ
2011-05-31, 21:17:34
???
Sag' mal, was ist am Zitat "Demand far exceeded supply" so zu verstehen, daß Deine Deutung rauskommt? :freak:
Cool - wa. Im April (http://news.softpedia.com/news/AMD-Fusion-Chips-Reach-3-Million-Shipments-in-Q1-196861.shtml) waren es schon 3 Millionen ausgelieferte Bobcats. Knapp 2 Monate später sind es nur 2 Millionen an Fusion mehr? Klar, die Produktion muss echt schlecht sein anstatt einer vorsichtigen Prognose und somit Bestellung...
Die haben einfach nicht mehr bestellt bei TSMC bzw. Globalfoundries. Asus auch nur ein paar Asus Transformer produzieren lassen. Nichts neues - außer im 3DCenter.de. :rolleyes:
Zum Vergleich:
I-Pad 1: 300.000 verkaufte Einheiten am Launch-Tag (1 Million im ersten Monat)
I-Pad 2: 500.000 verkaufte Einheiten am Launch-Wochenende (2,5 Millionen im ersten Monat)
Nur um die Relationen im Blick zu haben.
Das ist Apple. Ist der falsche Vergleich. Die thronen über alles - selbst über x86.
stickedy
2011-05-31, 21:21:24
Was hat nun das eine mit dem anderen zu tun? Die Fusion APUs sind und waren nicht wirklich für Tablets entwickelt worden. Mangels einem aktuellen und voll funktionstüchtigem x86-Android ist auch kein vernünftiges OS verfügbar...
LovesuckZ
2011-05-31, 21:28:56
Was hat nun das eine mit dem anderen zu tun? Die Fusion APUs sind und waren nicht wirklich für Tablets entwickelt worden. Mangels einem aktuellen und voll funktionstüchtigem x86-Android ist auch kein vernünftiges OS verfügbar...
Es war Gegenstand in diesem Thread:
Gott im Himmel ein netbook...soll ich jetzt den Champagne-Korken ziehen oder spaeter. Bleib mal schoen auf dem Teppich und zeig mir wo die 50 angegebenen design wins fuer T2/2010 sind die NV selber angegeben hat. Mehr als ~10Mio Einheiten erhoffen sie sich ja selber nicht. Im Vergleich zu dem was AMD in naechster Zeit allein an Fusion verkaufen wird, ist es mehr als nur laecherlich.
Gipsel
2011-05-31, 21:38:47
Cool - wa. Im April (http://news.softpedia.com/news/AMD-Fusion-Chips-Reach-3-Million-Shipments-in-Q1-196861.shtml) waren es schon 3 Millionen ausgelieferte Bobcats. Knapp 2 Monate später sind es nur 2 Millionen an Fusion mehr? Klar, die Produktion muss echt schlecht sein anstatt einer vorsichtigen Prognose und somit Bestellung...Soll das eine Antwort sein? Dann versuch's nochmal! Wie schlußfolgest Du eine schwache Nachfrage, wenn die Nachfrage das Angebot weit überschreitet? Aber vielleicht antwortest Du auch besser nicht, ich denke ich kenne des Rätsels Lösung :rolleyes:
Übrigens, Du selbst sagst, sie verkaufen momentan mehr als 1 Million/Monat (12+ Millionen/Jahr), rechne dann mal die in Kürze erscheinenden anderen Fusions dazu und Du landest bei deutlich mehr (bei gleichzeitig deutlich höherem ASP) als nur 10 Millionen Einheiten/Jahr. Aber das wird OT.
Ailuros
2011-05-31, 21:48:24
Wobei aber auch keiner definiert ob die 10Mio nun doch insgesamt in 2010 verkauft wurden, oder ob es die insgesamte Anzahl fuer 2010 bis heute ist. Ist aber auch ziemlich wurscht, denn selbst Jensen hat eingestanden dass sie viel mehr erwartet hatten.
Herr Rayfield sagte uebrigens selber bei der MWC2010 dass sie ueber 50 design wins haben. Schuld war unter anderem dass Google fuer tablets nicht mehr 2.2 fuer Tablets vorgeschlagen hat und somit verloren sehr viele desing wins und hauptsaechlich NV.
Honeycomb scheint mit 3.1 so langsam in einer ziemlich stabilen Schiene zu laufen, wobei diesmal fuer NV natuerlich die von ihnen unkontrollierbare Faktoren um einiges positiver aussehen.
LovesuckZ
2011-05-31, 21:48:29
Soll das eine Antwort sein? Dann versuch's nochmal! Wie schlußfolgest Du eine schwache Nachfrage, wenn die Nachfrage das Angebot weit überschreitet? Aber vielleicht antwortest Du auch besser nicht, ich denke ich kenne des Rätsels Lösung :rolleyes:
Tipp für dich: Jede höhrere Nachfrage als die Prognose führt zu "Demand far exceeded supply". Was an 5 Millionen nach 5 Monaten im x86-Markt so toll sein soll, verstehe ich nicht. Aber es ist ja AMD, da ist es einfach toll. :rolleyes:
Übrigens, Du selbst sagst, sie verkaufen momentan mehr als 1 Million/Monat (12+ Millionen/Jahr), rechne dann mal die in Kürze erscheinenden anderen Fusions dazu und Du landest bei deutlich mehr (bei gleichzeitig deutlich höherem ASP) als nur 10 Millionen Einheiten/Jahr. Aber das wird OT.
Lerne lesen. Es ging bei dem Quote um was vollkommen anderes.
Wobei aber auch keiner definiert ob die 10Mio nun doch insgesamt in 2010 verkauft wurden, oder ob es die insgesamte Anzahl fuer 2010 bis heute ist. Ist aber auch ziemlich wurscht, denn selbst Jensen hat eingestanden dass sie viel mehr erwartet hatten.
Es ist die Anzahl (Prognose) bis Ende Juni 2011. Da Tegra2 erst mit LG und ihrem Handy seit Januar 2011 richtig am Markt vertreten war, ist es sogar ein sehr guter Vergleich mit AMD und Fusion. Ich habe von 25 Millionen Tegra2 Chips zum Ende des Jahres gelesen. Mal sehen, ob Fusion die Zahl auch schafft.
Pennywise
2011-05-31, 21:56:36
Wie viele Honeycomb Tablets sind verkauft? Iconia alleine soll bei ner Mio liegen. Dürfte auch nicht mehr als einen Monat raus sein. Die Dominanz auch des ipad wird fallen, da könnt ihr euch auf den Kopf stellen. Iphones sind schon überholt.
Ailuros
2011-05-31, 22:00:36
Es ist die Anzahl (Prognose) bis Ende Juni 2011.
Und dabei war mein alter quote eine Prognose seitens NV fuer 10Mio Einheiten NUR fuer 2010.
Da Tegra2 erst mit LG und ihrem Handy seit Januar 2011 richtig am Markt vertreten war,
Seit wann ist LG irgend ein Hersteller der in uebergrossen Mengen verkauft? Sie haben genauso wie jeder anderer Hersteller auch eine Vielzahl von benutzter SoCs und nicht nur T2. Ergo eine geringe Anzahl von einem Hersteller der unterdurchschnittliche Verkaufszahlen macht.
.... ist es sogar ein sehr guter Vergleich mit AMD und Fusion.
Ich mach mir ueber Fusion keine Sorgen; ist zwar verdammt OT aber Intel ist derjenige der sich bei low end notebooks so langsam ueber die Schulter glotzen koennte und NVIDIA hat mit notebook/PC SoCs noch gar nichts zu tun zumindest bis zu TSMC@20nm.
Ich habe von 25 Millionen Tegra2 Chips zum Ende des Jahres gelesen. Mal sehen, ob Fusion die Zahl auch schafft.
Insgesamt von 2010 bis Ende 2011 ist so eine Anzahl durchaus glaubwuerdig, aber das sind auch fast 2 Jahre.
Gipsel
2011-05-31, 22:36:02
Tipp für dich: Jede höhrere Nachfrage als die Prognose führt zu "Demand far exceeded supply".Ja und? Also hast du Blödsinn erzählt, als Du von "niedriger Nachfrage" gefaselt hast. Höhere Nachfrage als prognostiziert != niedrige Nachfrage. Danke für die Bestätigung.
Und können wir mit dem OT hier jetzt endlich aufhören?
LovesuckZ
2011-05-31, 23:08:56
Es sind 5 Millionen, weil AMD nicht mit mehr gerechnet hat. Man ging von einer niedrigen Nachfrage aus als man die Chips bestellte. Das vielleicht 6 Millionen verkauft werden könnten, spielt da keine Rolle mehr.
Und dabei war mein alter quote eine Prognose seitens NV fuer 10Mio Einheiten NUR fuer 2010.
Genauso wie der Kommentar über Fusion.
Seit wann ist LG irgend ein Hersteller der in uebergrossen Mengen verkauft? Sie haben genauso wie jeder anderer Hersteller auch eine Vielzahl von benutzter SoCs und nicht nur T2. Ergo eine geringe Anzahl von einem Hersteller der unterdurchschnittliche Verkaufszahlen macht.
Du weißt also die Verkaufzahlen von LG? Immer her damit. Prognosen sind anhand deines Track-Rekords eher nicht von Bedeutung.
Insgesamt von 2010 bis Ende 2011 ist so eine Anzahl durchaus glaubwuerdig, aber das sind auch fast 2 Jahre.
Es sind maximal 1 1/2 Jahre. Tegra2 war immer für H2 2010 angedacht.
Dural
2011-05-31, 23:48:42
bleibt mal bei der hardware, verkaufszahlen sind doch egal...
also ich bin ja mal gespannt wie NV das mit T3 und dem Stromverbrauch regeln will, 1,5Ghz Quad Core und in der GPU mehr Einheiten als noch ihm T2 und das wohl mit mehr takt.... und das alles noch mit 40nm, da bin ich ja mal sehr gespannt!!!
Dural
2011-06-01, 00:01:41
übrigens...
Tegra2 bügelt Exynos 4210 gerade in den GPU benchmarks deutlich...
Zum zweiten scheint es aber so zu sein, dass Nvidia seine Kompetenz im Grafikbereich deutlich ausspielen kann: Das auf Tegra 2 basierende LG Optimus Speed schlägt das SGS II dementsprechend in „Smartbench (Games)“ sowie dem 3D-lastigen „Neocore“ mit einem Plus von rund 10 bzw. 20 Prozent.
http://www.computerbase.de/artikel/handys/2011/test-samsung-galaxy-s-ii-gt-i9100/3/#abschnitt_bedienung__performance
Bei den CPU benchmarks dürfte mit selber android version und takt wohl ziemlicher gleichstand herschen (logisch)
Einschränkend muss dabei aber auch herausgestellt werden, dass das LG Optimus Speed auf Basis von Nvidias Tegra 2 im Bereich „Spiele“ demnach die bessere Option darstellt.
passend dazu auch:
http://images.anandtech.com/graphs/graph4177/35412.png
Gipsel
2011-06-01, 01:41:58
Es sind 5 Millionen, weil AMD nicht mit mehr gerechnet hat.
While (!coherent_logic(LS)) klick (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8760287#post8760287);
Und beachte auch den 2. Teil des Posts. Es ist alles gesagt.
Ailuros
2011-06-01, 09:08:00
Es sind 5 Millionen, weil AMD nicht mit mehr gerechnet hat. Man ging von einer niedrigen Nachfrage aus als man die Chips bestellte. Das vielleicht 6 Millionen verkauft werden könnten, spielt da keine Rolle mehr.
Ueber 2 Jahre gestreckt?
Genauso wie der Kommentar über Fusion.
Ich lass AMD sich selber Sorgen machen ueber ihre Verkaufszahlen.
Du weißt also die Verkaufzahlen von LG? Immer her damit. Prognosen sind anhand deines Track-Rekords eher nicht von Bedeutung.
Wie gross der Marktanteil von LG insgesamt ist was smart-phones betrifft kann man kinderleicht nachschlagen und auch warum LG im letzten Jahr sich fuer fundamentalere Aenderungen entschieden hat damit sie ihren Markt-anteil erhoehen koennen. Mir macht mein track-record keine Sorgen; ich trage weder irgendwelche Verantwortung gegenueber jemanden, noch erwarte ich irgendwelche Minus- oder Pluspunkte von irgend jemand. Nur stets meine persoenliche Meinung in einem oeffentlichen Forum die wohl auch nie fehlerfrei sein wird.
Um das OT etwas weiter zu treiben ich hab nicht die geringste Emotion wenn es zu Foren kommt; jeglicher Beitrag ist stets nur ein paar Linien auf einem Bildschirm.
Es sind maximal 1 1/2 Jahre. Tegra2 war immer für H2 2010 angedacht.
Ja aber der 2010 forecast war fuer 10Mio Einheiten.
übrigens...
Tegra2 bügelt Exynos 4210 gerade in den GPU benchmarks deutlich...
Bei den CPU benchmarks dürfte mit selber android version und takt wohl ziemlicher gleichstand herschen (logisch)
passend dazu auch:
http://www.glbenchmark.com/compare.jsp?benchmark=glpro20&showhide=true&certified_only=1&D1=Samsung%20GT-i9100%20Galaxy%20S2&D2=LG%20P990%20Optimus%202X
Zwar hab ich so meine Zweifel was die Exynos GPU Treiber Stabilitaet betrifft (anhand was sich im Hintergrund herumspricht...) aber ein schneller Besuch in der Kishonti Datenbank haette Dir einen Unterschied von einem Faktor 2.2x fuer Exynos gezeigt nachdem die dementsprechende Geraete mit shipping drivers neu eingetragen wurde. Das einzig merkwurdige ist beim Exynos dass der Egypt score brutal hoch ist, ganz im Gegensatz zum PRO Test wo vergleichsmaessig das Resultat laecherlich ist.
Es guten Grund warum ich verdaechtige dass GLBenchmark2.0 fragment limitiert ist. Der Mali400MP im Exynos hat zwar nur einen Vec2 VS, aber die 4 fragment cores und die 4 TMUs koennen schon ziemlichen Dampf ablegen wenn die Geometrie relativ begrenzt ist.
Ailuros
2011-06-01, 12:30:56
http://www.xbitlabs.com/news/mobile/display/20110530183502_ARM_Hopes_to_Grab_50_of_Mobile_PC_Market_by_2015.html
Zwar nicht direkt relativ zu Tegra, aber indirekt vielleicht schon.
***edit: damit ich es nicht vergesse, was LG betrifft: http://www.brightsideofnews.com/news/2011/5/27/analysis-whos-who-in-smartphone-business-in-1q-2011.aspx
Hugo78
2011-06-02, 14:10:44
T3 Netbook & Tablet (Windows 8 @ Microsoft Partners Preview)
http://www.youtube.com/watch?v=1Pu3Jxr6wZI&feature=channel_video_title&t=7m40s
LovesuckZ
2011-06-02, 14:22:19
Netbooks auf Basis von ARM sind einfach klasse. Jetzt noch mit einem vernünftigen OS und Low-End x86 kann sich verabschieden.
dildo4u
2011-06-02, 14:56:20
UE3.0 und Lost Planet 2 auf Kal El
http://www.engadget.com/2011/06/02/nvidia-kal-el-development-platform-hands-on-video/
fondness
2011-06-02, 14:58:22
UE3.0 und Lost Planet 2 auf Kal El
http://www.engadget.com/2011/06/02/nvidia-kal-el-development-platform-hands-on-video/
Welches DX-Level wird Kal-El unterstützen?
Gipsel
2011-06-02, 16:48:26
Netbooks auf Basis von ARM sind einfach klasse.Welche genau?
Nakai
2011-06-02, 17:09:06
Welche genau?
Das Problem ist doch eher, was will man mit einem ARM-Netbook?
Selbst wenn das OS einigermaßen gut wäre, sind alle ARM-Dinger leistungstechnisch die Hölle. Da müssen wir noch gut 1 Jahr warten, bis es endlich mal bessere Hardware gibt.
Und X86 schläft nicht.
Schon für 300€ bekommt man schon diverse X86-Netbooks auf denen sogar einfaches Arbeiten möglich ist.
Das erste wirklich gute Netbook OS wird wohl Windows8 werden, falls die Kompatibilität einigermaßen gewährleistet wird(Stichwort: .NET).
mfg
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.