Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs
Gipsel
2011-09-22, 13:29:49
Natürlich ist dies eine neue Idee. Wäre sie nicht neu - wieso hat niemand darüber spekuliert? :freak:
Wir reden hier nicht von spezifischen Kernen, die nur eine bestimmte Aufgabe übernehmen. Sondern von einer vollkommen gleichwertigen CPU (edit: Die bis 500MHz genauso leistungsstark ist wie ein Kern aus dem Performanceverbund), die jedoch im Gegensatz zum anderen Verbund auf Low-Power getrimmt ist. Und genau DAS ist neu sowie ziemlich überraschend.
Ich werfe nur mal Marvell Armada 628 in den Raum:
2 x Cortex A9 bis 1.5GHz
1 x Cortex A9 bis 624 MHz
Letzterer heißt jetzt bei nv "Campanion" Core, läuft nur bis 500 MHz und dem stehen 4 normale Cores (auch maximal 1.5GHz) zur Seite. Und bei Kal-El sind es auch alles A9s. Die Marvells gibt es aber schon eine Weile. Also soo neu ist die Idee nun auch nicht.
LovesuckZ
2011-09-22, 13:40:25
Ich werfe nur mal Marvell Armada 628 in den Raum:
2 x Cortex A9 bis 1.5GHz
1 x Cortex A9 bis 624 MHz
Letzterer heißt jetzt bei nv "Campanion" Core, läuft nur bis 500 MHz und dem stehen 4 normale Cores (auch maximal 1.5GHz) zur Seite. Und bei Kal-El sind es auch alles A9s. Die Marvells gibt es aber schon eine Weile. Also soo neu ist die Idee nun auch nicht.
Die Idee ist doch nicht neu neu, da die Verbreitung der Idee in fertige Produkte ziemlich gering ist. Hybrid-Power auf dem Desktop war so etwas ähnliches. Das es jetzt aber mal in Produkten umgesetzt wird, die auch erhältlich sein werden, ist "neu". Und es war überraschend in Bezug auf Tegra 3. Damit hat niemand gerechnet.
Gibt es Dokumente abseits der PR-Erklärung zum 628? Auf der Homepage ist unter der Produktkategorie ein Armada 628 sogar nichtmal geführt. PDFs gibt es nur zu den Single-Core Produkten.
Gipsel
2011-09-22, 14:13:42
Die Idee ist doch nicht neu neu, da die Verbreitung der Idee in fertige Produkte ziemlich gering ist.Was hat denn das eine mit dem anderen zu tun? "Moving the goal posts" nennt man das im Englischen. :rolleyes:
Fakt bleibt, daß Marvell schon letztes Jahr laufende Tablets mit dem Chip vorgeführt hat (http://androidcommunity.com/slashgear-hands-on-with-marvell-android-tablet-armada-628-20101123/). Die Idee mit dem zusätzlichen, auf Stromsparen ausglegten Kern identischer Architektur wie die "Hauptkerne" ist also nicht neu, vollkommen unabhängig davon, ob Marvell schlußendlich Smartphone/Tablet Design-Wins damit geschafft hat.
Nightspider
2011-09-22, 14:21:09
Laut Computerbase wird der 5. Core, der Companien Core, in einem anderen Prozess gefertigt auf dem gleichen Die.
In wie weit das machbar oder realistisch ist kann ich nicht sagen aber eine Neuerung wäre das schon.
LovesuckZ
2011-09-22, 14:30:23
Was hat denn das eine mit dem anderen zu tun? "Moving the goal posts" nennt man das im Englischen. :rolleyes:
Und? nVidia hat Tegra 3 auf der MWC im Februar vorgestellt. Zeitlich gibt es also kaum einen Unterschied zwischen Marvell und nVidia. Es bringt dem Kunden nichts, wenn Chips oder Techniken Jahre vor Produktveröffentlichung vorgestellt werden.
Fakt bleibt, daß Marvell schon letztes Jahr laufende Tablets mit dem Chip vorgeführt hat (http://androidcommunity.com/slashgear-hands-on-with-marvell-android-tablet-armada-628-20101123/). Die Idee mit dem zusätzlichen, auf Stromsparen ausglegten Kern identischer Architektur wie die "Hauptkerne" ist also nicht neu, vollkommen unabhängig davon, ob Marvell schlußendlich Smartphone/Tablet Design-Wins damit geschafft hat.
Siehe oben. 2 1/2 Monate zwischen läuffähige Samples von Marvell und nVidia. 1 Jahr zwischen Bekanntgabe der beiden Techniken. Die Idee hatten beide Firmen wohl schon vor Jahre. :rolleyes:
Und wenn man im nächsten Monat ein Produkt mit Tegra 3 kaufen kann, spielt Marvell's Ankündigung vor exakt einem Jahr keine Rolle mehr.
deekey777
2011-09-22, 14:30:55
Ich bin von euch enttäuscht: http://www.anandtech.com/show/4840/kalel-has-five-cores-not-four-nvidia-reveals-the-companion-core
Älter als der heise-Artikel.
Egal.
Und? nVidia hat Tegra 3 auf der MWC im Februar vorgestellt. Zeitlich gibt es also kaum einen Unterschied zwischen Marvell und nVidia. Es bringt dem Kunden nichts, wenn Chips oder Techniken Jahre vor Produktveröffentlichung vorgestellt werden.
Siehe oben. 2 1/2 Monate zwischen läuffähige Samples von Marvell und nVidia. 1 Jahr zwischen Bekanntgabe der beiden Techniken. Die Idee hatten beide Firmen wohl schon vor Jahre. :rolleyes:
Und wenn man im nächsten Monat ein Produkt mit Tegra 3 kaufen, spielt Marvell's Ankündigung vor exakt einem Jahr keine Rolle mehr.
Vom fünften Kern weiß man erst jetzt. Schon die Tatsache, dass er in einem anderen Prozess gefertigt wird, zeigt, dass es eher eine kurzfristige Entscheidung war, einen weiteren stromsparenden Kern dranzuklatschen.
LovesuckZ
2011-09-22, 14:35:28
Vom fünften Kern weiß man erst jetzt. Schon die Tatsache, dass er in einem anderen Prozess gefertigt wird, zeigt, dass es eher eine kurzfristige Entscheidung war, einen weiteren stromsparenden Kern dranzuklatschen.
:facepalm:
Jap, denn wir wissen: Logische Entscheidungen sind immer die, die unter Druck entstehen. :freak:
Gipsel
2011-09-22, 14:41:12
Laut Computerbase wird der 5. Core, der Companien Core, in einem anderen Prozess gefertigt auf dem gleichen Die.
In wie weit das machbar oder realistisch ist kann ich nicht sagen aber eine Neuerung wäre das schon.Auch das ist keine Neuerung (edit: Link zu TSMC (http://www.tsmc.com/english/dedicatedFoundry/technology/40nm.htm)):
Das hat TSMC schon länger im Angebot und nennt sich LPG. Da kann man sozusagen die Transistoren der LP und G Prozesse in einem Chip mixen.Es gibt auch bereits ein paar Chips, die so hergestellt werden.
deekey777
2011-09-22, 14:44:30
:facepalm:
Jap, denn wir wissen: Logische Entscheidungen sind immer die, die unter Druck entstehen. :freak:
Genau.
Das ist ja eine schöne Strategie gerade Stromspartechniken zu verschweigen, während die Konkurrenz stromsparende Ideen ankündigt oder angekündigt hat.
Auch OMAP5 hat zwei schwächere Kerne, die zwei A15-Kerne bei Echtzeittasks unterstüzen.
AffenJack
2011-09-22, 14:46:38
Ja z.B. ist T2 auch schon so ein Chip, wenn man Anand glauben schenken darf.
LovesuckZ
2011-09-22, 14:49:17
Genau.
Das ist ja eine schöne Strategie gerade Stromspartechniken zu verschweigen, während die Konkurrenz stromsparende Ideen ankündigt oder angekündigt hat.
Hä? :confused:
nVidia hat bis jetzt nie Tegra SoCs angekündigt ohne Samples zu haben. Die hätten das ganze auch schon letztes Jahr zur CES veröffentlichen können. Bringt nur nichts, wenn die Veröffentlichung 1 1/2 in der Zukunft liegt.
Auch OMAP5 hat zwei schwächere Kerne, die zwei A15-Kerne bei Echtzeittasks unterstüzen.
Und was hat OMAP5 mit Tegra 3 und dem 5. Kern zu tun? Ist schon das zweite Mal, dass zukünftige SoCs als Vergleich herangezogen werden.
Deinorius
2011-09-22, 14:54:56
Ist schon das zweite Mal, dass zukünftige SoCs als Vergleich herangezogen werden.
Der erste Vergleich kam ja von dir.
LovesuckZ
2011-09-22, 14:58:41
Der erste Vergleich kam ja von dir.
Nö, der kam von hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8944868&postcount=1494
Die einzige Firma, die also etwas ähnliches bietet, ist Marvell. Ob deren SoC aber je in einem Produkt auf den Markt kommt, ist mehr als fragwürdig.
Deinorius
2011-09-22, 15:03:09
Nein, da ist kein Vergleich zu zukünftigen SoCs.
Avalox redet hier vom Vergleich des Tegra Companion Cores und den Cortex M3/4 miniCores und dem Unterschied, wie diese von Software angesprochen werden müssen/können.
Da der OMAP4 auch diese Cortex M3 besitzt und er keinen SoC außer dem Tegra genannt hatte, wurde hier kein falscher Vergleich angestellt.
LovesuckZ
2011-09-22, 15:11:04
Nein, da ist kein Vergleich zu zukünftigen SoCs.
Avalox redet hier vom Vergleich des Tegra Companion Cores und den Cortex M3/4 miniCores und dem Unterschied, wie diese von Software angesprochen werden müssen/können.
Da der OMAP4 auch diese Cortex M3 besitzt und er keinen SoC außer dem Tegra genannt hatte, wurde hier kein falscher Vergleich angestellt.
Okay, das stimmt. Das ist mein Fehler.
Es zeigt jedoch, dass nicht verstanden wurde, wieso nVidia einen weiteren A9 Kern verbaut hat. Es wird also ein Vergleich herangezogen, der nicht passt.
Ailuros
2011-09-22, 15:24:09
Ich bin von euch enttäuscht: http://www.anandtech.com/show/4840/kalel-has-five-cores-not-four-nvidia-reveals-the-companion-core
Älter als der heise-Artikel.
Egal.
Vom fünften Kern weiß man erst jetzt. Schon die Tatsache, dass er in einem anderen Prozess gefertigt wird, zeigt, dass es eher eine kurzfristige Entscheidung war, einen weiteren stromsparenden Kern dranzuklatschen.
Nein ist es NICHT. Als ich intern nachbohrte vor geraumer Zeit wie die 5x Mal Leistungssteigerung zwischen T3 und T2 zustande kommen soll war die Antwort seitens NV dass sie es ausfuehrlich beim launch erklaeren werden. Unterschiedliche Prozesse fuer Anteile eines SoCs ist auch nichts Neues.
Deinorius
2011-09-22, 15:31:34
Es zeigt jedoch, dass nicht verstanden wurde, wieso nVidia einen weiteren A9 Kern verbaut hat. Es wird also ein Vergleich herangezogen, der nicht passt.
Der Grund wurde verstanden. Es macht jedoch einen Unterschied, ob man einen speziellen A9 oder einen Cortex M3/4 verbaut und dass gerade die Software-Entwickler das berücksichtigen müssen. Wer hier den größeren Vorteil hat, ist wohl schwer zu sagen. Entsprechende Tasks dürften durch M3 weniger verbrauchen, dafür hat Tegra den Vorteil von bessere Kompatibilität zu haben. Möglicherweise dürfte der Unterschied gar nicht existieren, aber mal sehen.
Vom fünften Kern weiß man erst jetzt. Schon die Tatsache, dass er in einem anderen Prozess gefertigt wird, zeigt, dass es eher eine kurzfristige Entscheidung war, einen weiteren stromsparenden Kern dranzuklatschen.
Der andere Prozess bezieht sich wohl eher auf die ULP-Transistoren die dafür eingesetzt werden.
Und sowas "klatscht" man nicht mal eben dran. Was hier immer für Vorstellungen grasieren.
Ailuros
2011-09-22, 15:32:08
Die einzige Firma, die also etwas ähnliches bietet, ist Marvell. Ob deren SoC aber je in einem Produkt auf den Markt kommt, ist mehr als fragwürdig.
Man kann jetzt bei der Kishonti Datenbank per integrierter GPU Geraete bzw. Resultate aufsuchen. Unter GLBenchmark2.0 mit GC530, GC600, GC800 und GC860 zu suchen reicht. Nur die Referenz-Geraete Marvell-Armada fuer GC860 muss man ausschliessen (nur ein Geraet bis jetzt).
Zwar keine high volume design wins, aber ohne jegliche Markt-Existenz sind Marvell's SoCs nun auch wieder nicht.
***edit: um Missverstaendnissen zu entgehen hockt in dem Armada 628 ein Vivante GC2000 (der gleiche wie im iMX6) und die angeblichen "200MTris/s" sollte man natuerlich keinen Glauben schenken. Fruehe interne Messungen von Freescale selber fuer den iMX6 mit dem GC2000 deuten auf schaetzungsweise 60-70% der Leistung eines MP2.
Avalox
2011-09-22, 16:07:43
Es zeigt jedoch, dass nicht verstanden wurde, wieso nVidia einen weiteren A9 Kern verbaut hat. Es wird also ein Vergleich herangezogen, der nicht passt.
Doch er passt ausgezeichnet. Weil die Aufgabe die selbe ist, diese wurde nur leicht unterschiedlich gelöst.
Der Sinn des Stromspar A9 Kerns ist es während der Nichtbenutzung, oder eine schwachen Benutzung die durch die Standby Funktionalität entstehende Systemlast stromsparend abzubilden. Das ist haargenau der selbe Zweck welche die speziell dafür von ARM designen Varianten im z.B. OMAP erfüllen.
Erstere ist flexibler zum Softwareeinsatz, letztere benötigen eigens übersetzte Software - dürften allerdings dafür nochmal deutlich genügsamer zu Werke gehen.
Das nVidia nun den Cortex A15 lizenziert hat, scheint sich bis ARM noch nicht rumgesprochen (http://www.arm.com/community/partners/company_list/rw/Cores/48/) zu haben. Ich meinte auch überhaupt keinen Cortex A15, als vielmehr die tatsächlich für höchste Energie Effizienz ausgelegten Designs. So muss ja zwangläufig nVidia aus dem Pool seiner Lizenz etwas nehmen und dieses benutzen.
LovesuckZ
2011-09-22, 16:09:12
Der Grund wurde verstanden. Es macht jedoch einen Unterschied, ob man einen speziellen A9 oder einen Cortex M3/4 verbaut und dass gerade die Software-Entwickler das berücksichtigen müssen. Wer hier den größeren Vorteil hat, ist wohl schwer zu sagen. Entsprechende Tasks dürften durch M3 weniger verbrauchen, dafür hat Tegra den Vorteil von bessere Kompatibilität zu haben. Möglicherweise dürfte der Unterschied gar nicht existieren, aber mal sehen.
Und genau hier gibt es Probleme. Wozu überhaupt mehr als einen A9 verbauen, wenn M3 genauso gut wäre? Es ist wohl offensichtlich, dass beide Prozessorenarten für unterschiedliche Aufgabengebiete entwickelt wurden sind. Und genau hier kommt es zum Logikproblem, wenn man nVidia's Ansatz mit denen von TI vergleicht. Denn TI benötigt weiterhin zusätzliche A9/A15 Kerne als Unterstützung, wohingegen bei nVidia der LP A9 Kern die selben Aufgaben übernimmt. Der Ansatz ist nicht vergleichbar. Und ich bezweifel, dass Android 3.x oder 4.0 auf einem M3 Chip mit 50Mhz (oder so) einwandfrei läuft, wenn 3.2 mehr als 216Mhz auf einem Dual-Core A9 benötigt.
/edit: OMAP4 hat keine M-Cores von ARM. Jedenfalls sind sie weder beschrieben noch im Blockdiagramm von TI bezeichnet.
Ailuros
2011-09-22, 16:11:59
Das nVidia nun den Cortex A15 lizenziert hat, scheint sich bis ARM noch nicht rumgesprochen (http://www.arm.com/community/partners/company_list/rw/Cores/48/) zu haben. Ich meinte auch überhaupt keinen Cortex A15, als vielmehr die tatsächlich für höchste Energie Effizienz ausgelegten Designs. So muss ja zwangläufig nVidia aus dem Pool seiner Lizenz etwas nehmen und Designen.
Wo ist auf der Seite ST Ericsson als Gegenbeispiel?
Und genau hier gibt es Probleme. Wozu überhaupt mehr als einen A9 verbauen, wenn M3 genauso gut wäre? Es ist wohl offensichtlich, dass beide Prozessorenarten für unterschiedliche Aufgabengebiete entwickelt wurden sind. Und genau hier kommt es zum Logikproblem, wenn man nVidia's Ansatz mit denen von TI vergleicht. Denn TI benötigt weiterhin zusätzliche A9/A15 Kerne als Unterstützung, wohingegen bei nVidia der LP A9 Kern die selben Aufgaben übernimmt. Der Ansatz ist nicht vergleichbar. Und ich bezweifel, dass Android 3.x oder 4.0 auf einem M3 Chip mit 50Mhz (oder so) einwandfrei läuft, wenn 3.2 mehr als 216Mhz auf einem Dual-Core A9 benötigt.
/edit: OMAP4 hat keine M-Cores von ARM. Jedenfalls sind sie weder beschrieben noch im Blockdiagramm von TI bezeichnet.
Der M3 ist ohnehin nur ein Support-Prozessor (für's Baseband o.ä.). Der unterstützt nur Thumb und hat nichtmal ne MMU.
Deinorius
2011-09-22, 16:24:01
/edit: OMAP4 hat keine M-Cores von ARM. Jedenfalls sind sie weder beschrieben noch im Blockdiagramm von TI bezeichnet.
Komisch. Ich bin mir absolut sicher, dass die zwei haben. Wenn du googelst, findest du gewisse Andeutugen im Zusammenhang. Ich müsste nochmal das Blockdiagramm heraussuchen. Oder kann jemand anderer was sagen?
Und zu dem darüber musst du halt abwarten, bis man einen Vergleich machen könnte.
Gipsel
2011-09-22, 16:24:50
Das nVidia nun den Cortex A15 lizenziert hat, scheint sich bis ARM noch nicht rumgesprochen (http://www.arm.com/community/partners/company_list/rw/Cores/48/) zu haben.Mal unabhängig vom Rest des Postings, auf der Seite sind normalerweise nur (edit: bereits erhältliche) Produkte der Partner mit den dafür nötigen Lizenzen aufgeführt. Hier (http://www.arm.com/products/processors/licensees.php) ist nvidia als A15-Lizenznehmer aufgeführt.
LovesuckZ
2011-09-22, 16:31:33
Komisch. Ich bin mir absolut sicher, dass die zwei haben. Wenn du googelst, findest du gewisse Andeutugen im Zusammenhang. Ich müsste nochmal das Blockdiagramm heraussuchen. Oder kann jemand anderer was sagen?
Und zu dem darüber musst du halt abwarten, bis man einen Vergleich machen könnte.
Schau einfach direkt bei TI nach: http://focus.ti.com/general/docs/wtbu/wtbuproductcontent.tsp?templateId=6123&navigationId=12843&contentId=53243
Avalox
2011-09-22, 16:40:19
Mal unabhängig vom Rest des Postings, auf der Seite sind normalerweise nur (edit: bereits erhältliche) Produkte der Partner mit den dafür nötigen Lizenzen aufgeführt.
Mir ist kein bereits erhältlicher OMAP Prozessor mit A15 Kernen bekannt, die OMAP sind aber trotzdem auf der Liste.
Oder meinst du mit "bereits erhältlich", dass nicht nur rumgetönt wird, sondern ARM auch schon etwas vom Produkt gesehen hat?
Ich denke mal, dass sich nVidia erst vor kurzen handelseinig geworden ist und deshalb noch nicht drauf steht. nVidia hat ja auch für den Cortex A9 nur einer einfache Lizenz gehabt. Da war ja wahrscheinlich auch etwas erweitertes nötig. Obwohl ich schon fast denke, dass einfach den Kern in einem anderen Fertigungsprozess bauen zu lassen nicht unbedingt eine Design Lizenz seitens nVidia von ARM erfordert.
Schau einfach direkt bei TI nach: http://focus.ti.com/general/docs/wtbu/wtbuproductcontent.tsp?templateId=6123&navigationId=12843&contentId=53243
Das ist auch der falsche OMAP4.
Der OMAP4470 hat zwei Cortex M3 Kerne. http://newscenter.ti.com/Blogs/newsroom/archive/2011/06/02/ti-s-omap4470-apps-processor-it-s-all-about-the-user-experience-716621.aspx
LovesuckZ
2011-09-22, 16:48:29
nVidia hat zur CES2011 in Zuge von Project Denver angekündigt, dass man A15 lizenziert hat.
/edit: Es sieht wohl eher aus, dass die Pressemitteilung falsch ist. Das Blockdiagramm und der Text auf der 4470 Seite ist ziemlich eindeutig.
Avalox
2011-09-22, 16:51:34
nVidia hat zur CES2011 in Zuge von Project Denver angekündigt, dass man A15 lizenziert hat.
Was ja viel heißen kann, gerade bei solch einen Marketingwunder wie nVidia.
LovesuckZ
2011-09-22, 16:53:15
Was ja viel heißen kann, gerade bei solch einen Marketingwunder wie nVidia.
Ja - z.B. dass sie A15 irgendwann im Jahr 2010 lizenziert haben. :rolleyes:
Der genaue Textlaut:
This new processor stems from a strategic partnership, also announced today, in which NVIDIA has obtained rights to develop its own high performance CPU cores based on ARM's future processor architecture. In addition, NVIDIA licensed ARM's current Cortex™-A15 processor for its future-generation Tegra® mobile processors.
http://pressroom.nvidia.com/easyir/customrel.do?easyirid=A0D622CE9F579F09&version=live&releasejsp=release_157&xhtml=true&prid=705184
Flusher
2011-09-22, 17:18:21
Irgendwie drehen sich die gesamten Diskussionen bei Kal-El momentan ausschließlich um den Companion-Core. Zur verbauten GPU wird allerdings wenig gesagt. Ich habe hierzu auch NVIDIAs Whitepaper studiert, aber bis auf ein par Balken sieht man wenige Informationen zur GPU. Weiß da jemand mehr?
LovesuckZ
2011-09-22, 17:21:56
Irgendwie drehen sich die gesamten Diskussionen bei Kal-El momentan ausschließlich um den Companion-Core. Zur verbauten GPU wird allerdings wenig gesagt. Ich habe hierzu auch NVIDIAs Whitepaper studiert, aber bis auf ein par Balken sieht man wenige Informationen zur GPU. Weiß da jemand mehr?
2x Vec4 PS + 1x Vec4 VS = 12 Cores.
Entweder 4 TMUs oder eine 2x2 Konfiguration (z.B. wie eine Geforce 2 MX).
Wohl 50% höhrerer Takt
Rest ist unbekannt, sollte wohl aber spätesten nächste Woche ebenfalls aufgedeckt werden.
Nakai
2011-09-22, 18:23:36
nVidia hat zur CES2011 in Zuge von Project Denver angekündigt, dass man A15 lizenziert hat.
/edit: Es sieht wohl eher aus, dass die Pressemitteilung falsch ist. Das Blockdiagramm und der Text auf der 4470 Seite ist ziemlich eindeutig.
Die M3-Kerne sind nicht im Blockdiagramm enthalten.
Siehe die kurze Produktbeschreibung von TI.
http://focus.ti.com/pdfs/wtbu/OMAP4470_07-05-v2.pdf
TI sieht die eigenen M3-Kerne anscheinend nicht als so revolutionär an, weswegen sie nur kurz erwähnt werden.
Gipsel
2011-09-22, 19:01:43
Mir ist kein bereits erhältlicher OMAP Prozessor mit A15 Kernen bekannt, die OMAP sind aber trotzdem auf der Liste.Okay, die Informationen auf der zuerst von Dir verlinkten Seite werden wohl von den Lizenznehmern selber eingetragen. Es liegt dann in deren Ermessen, wann sie dort was eintragen (Tegra3 steht ja auch noch nicht drin). Ändert aber nichts daran, daß ARM an anderer Stelle (http://www.arm.com/products/processors/licensees.php) nvidia als Cortex A15-Lizenznehmer aufführt.
Ailuros
2011-09-23, 07:55:54
NV hat mit absoluter Sicherheit A15 lizenziert; sie liegen lediglich nicht unter den lead partners. Lead partners greifen von der anderen Seite sowieso nicht zu quad A9 sondern gehen von dual A9 zu dual A15 unter 28nm beim letzten.
NV geht im Gegensatz immer noch auf 40nm auf quad A9@1.5GHz waehrend die zeitgleich konkurrierenden SoCs auf dual A9 bei 1.5-1.8GHz liegen werden.
LovesuckZ
2011-09-27, 12:25:53
Erstes Tegra 3 Tablet in freier Wildbahn: http://android.hdblog.it/2011/09/26/zte-presenta-il-primo-tablet-7-pollici-tegra-3-quad-core-honeycomb/
1300MHz als Maximum- und Minimumtakt liegt nun bei 102Mhz.
Dural
2011-09-29, 14:58:11
"nur" 1300MHz :rolleyes:
Ailuros
2011-09-29, 15:04:14
"nur" 1300MHz :rolleyes:
Kein SoC Hersteller kann einem OEM oder jeglichem Hersteller vorschreiben wie er jegliche SoC Komponente takten wird. ZTE ist ein asiatischer Hersteller und wird wohl nicht auf extravagante Preise zielen und dementsprechend muss man auch den Stromverbrauch bzw. Batterie-Groesse anpassen. Niedrige Preise und ueberhaupt bei einem Hersteller wie ZTE bedeuten aber sehr hohe Volumen wie z.B. in China.
"Nur" eine 5 MPixel camera schreit erstmal genauso in die Richtung.
Hugo78
2011-09-29, 16:08:13
War 1,5Ghz nicht sowieso nur für 28nm geplant?
LovesuckZ
2011-09-29, 16:12:21
Nein, 1500Mhz war das Target - hat Rayfield im Blog auch nochmal bestätigt. Die 1300Mhz sind auch nur vom Gerät, auf dem Schild steht 1,5G. Da es sich um ein 7" Gerät handelt, hat man vielleicht nur 1300MHz wegen der Batterie gewählt. Aber auch die 1300Mhz sind immerhin 30% mehr als bei Tegra 2 und auf dem Niveau der Snapdragon-Geräte mit 1500Mhz.
Flusher
2011-10-04, 13:23:39
2x Vec4 PS + 1x Vec4 VS = 12 Cores.
Entweder 4 TMUs oder eine 2x2 Konfiguration (z.B. wie eine Geforce 2 MX).
Wohl 50% höhrerer Takt
Rest ist unbekannt, sollte wohl aber spätesten nächste Woche ebenfalls aufgedeckt werden.
Und? Wurde was aufgedeckt? Konnte selber nichts finden :confused:
Kurze Frage hinterher - der ein oder andere ärgert sich hier ja im Thread, weil NVIDIA Tegra als das absolute nonplusultra darstellt, es aber tatsächlich leistungsfähigere SoCs gibt (Omap5 & Co). Welcher dieser SoCs ist denn bereits in Form von Smartphones erhältlich? Das soll keine provokative Frage sein, sondern ist mein voller Ernst. Ich überlege mein LG Optimus Speed aufgrund LGs Updatepolitik zurückzugeben, sehe allerdings momentan keine Alternative. Wie schlägt sich denn das SGSII im vergleich zu Tegra?
stickedy
2011-10-04, 13:30:41
Wenn Du das Samsung Galaxy SII meinst, das hat auch Tegra 2
Flusher
2011-10-04, 13:59:06
Wenn Du das Samsung Galaxy SII meinst, das hat auch Tegra 2
Nope. :wink: Das Galaxy R wird als erstes Samsung Smartphone Tegra 2 haben. Das SII hat wohl einen Samsung eigenen Dualcore mit 1,2 GHz - ich glaube das Teil basiert auch auf dem Cortex A-9, allerdings mit Neon Befehlserweiterung.
dildo4u
2011-10-04, 14:01:24
Wenn Du das Samsung Galaxy SII meinst, das hat auch Tegra 2
Samsung Exynos 4210
http://www.anandtech.com/show/4686/samsung-galaxy-s-2-international-review-the-best-redefined/14
Ailuros
2011-10-04, 14:21:25
Und? Wurde was aufgedeckt? Konnte selber nichts finden :confused:
Kurze Frage hinterher - der ein oder andere ärgert sich hier ja im Thread, weil NVIDIA Tegra als das absolute nonplusultra darstellt, es aber tatsächlich leistungsfähigere SoCs gibt (Omap5 & Co). Welcher dieser SoCs ist denn bereits in Form von Smartphones erhältlich? Das soll keine provokative Frage sein, sondern ist mein voller Ernst. Ich überlege mein LG Optimus Speed aufgrund LGs Updatepolitik zurückzugeben, sehe allerdings momentan keine Alternative. Wie schlägt sich denn das SGSII im vergleich zu Tegra?
OMAP5 wird erst wohl im zweiten Halbjahr 2012 in Geraeten erhaeltlich sein. Ist zwar meine eigene persoenliche Meinung (und nein dies ist auch kein Kaufberatungs-forum) aber ich sehe keinen besonderen Drang das LG Optimus Speed loszuwerden. Wenn LG in absehbarer Zeit ein um weit besseres smart-phone vorstellen sollte (egal mit welchem SoC) und die Updatepolitik ist noch gueltig, dann wohl ja.
Dural
2011-10-04, 14:23:16
Samsung Exynos 4210
http://www.anandtech.com/show/4686/samsung-galaxy-s-2-international-review-the-best-redefined/14
Gibt angeblich aber auch welche mit Tegra2, je nach Region :)
Ailuros
2011-10-04, 14:40:43
Gibt angeblich aber auch welche mit Tegra2, je nach Region :)
Na dann zeig mir eins mit T2 das GalaxyS2 genannt wird.
Flusher
2011-10-04, 15:05:32
OMAP5 wird erst wohl im zweiten Halbjahr 2012 in Geraeten erhaeltlich sein. Ist zwar meine eigene persoenliche Meinung (und nein dies ist auch kein Kaufberatungs-forum) aber ich sehe keinen besonderen Drang das LG Optimus Speed loszuwerden. Wenn LG in absehbarer Zeit ein um weit besseres smart-phone vorstellen sollte (egal mit welchem SoC) und die Updatepolitik ist noch gueltig, dann wohl ja.
Nunja ich habe das Gerät seit nunmehr 6 Monaten. Inder Zwischenzeit sind lediglich zwei Bug-Fix-Updates für Froyo erschienen, die allerdings die vorhandenen Probleme gar nicht oder nur unzureichend beseitigt haben. Der Release von Gingerbread wird von Monat zu Monat nach hinten geschoben.
Samsung Exynos 4210
http://www.anandtech.com/show/4686/samsung-galaxy-s-2-international-review-the-best-redefined/14
thx - sehr aufschlussreich. :)
Dural
2011-10-04, 16:09:32
Na dann zeig mir eins mit T2 das GalaxyS2 genannt wird.
Deswegen steh ja auch angeblich ;-)
Das war die Info seitens Samsung als das Galaxy2 frisch auf den Markt kam, das hiss es jedenfalls auf den News Seiten. Begründung war das Samsung selber zu wenig Chips liefern kann.
stickedy
2011-10-04, 16:18:35
Und genau daher hatte ich das noch in Erinnerung! Sorry, mein Fehler und ein Versehen. War bis eben der festen Überzeugung, dass das Ding Tegra 2 hätte...
LovesuckZ
2011-10-04, 16:20:14
Das waren die Gerüchte, bevor Samsung die Galaxy-Reihe unterteilt hat. Es ist also nicht falsch gewesen zur damaligen Zeit.
Ailuros
2011-10-05, 13:52:48
Deswegen steh ja auch angeblich ;-)
Das war die Info seitens Samsung als das Galaxy2 frisch auf den Markt kam, das hiss es jedenfalls auf den News Seiten. Begründung war das Samsung selber zu wenig Chips liefern kann.
Samsung GalaxyR und nicht Galaxy2. http://pressroom.nvidia.com/easyir/customrel.do?easyirid=A0D622CE9F579F09&version=live&releasejsp=release_157&xhtml=true&prid=786613
narto3311
2011-10-09, 04:15:38
hab eine frage ist schon eigentlich richtig bekannt wann endlich die ersten tablet PCs mit dem tegra 3 chips rauskommen?
LovesuckZ
2011-10-09, 16:37:45
Stand heute ist immer noch Oktober. Die Geforce-Lan ab Freitag in den USA ist ein guter Zeitpunkt, endlich den "offiziellen" Release herbeizuführen.
narto3311
2011-10-09, 20:12:27
ah ok vielen dank ist das aer nicht eine art turnier? oder geben die nebenbei dannach oder davor noch informationen über kommende nvidia produkte?
LovesuckZ
2011-10-13, 16:46:35
Klangheimlich hat Samsung ein weiteres Tegra2 Smartphone für AT&T in Amerika eingeführt:
Samsung Captivate™ Glide
The Samsung Captivate Glide is a 4G Android smartphone that keeps you moving with a thin, side-slide QWERTY keyboard and a powerful 1 GHz dual core processor. Running Android 2.3, the Captivate Glide features access to 4G speeds, a 4” Super AMOLED screen, 8-megapixel flash camera with HD (1080p) video recording and a front-facing camera for video chat.
For the business professional, the Captivate Glide has enhanced Exchange ActiveSync support for IT policies, task synchronization and global address lookup. Know your information and network are secured with virtual private network access and device encryption.
* UMTS 850/1900/2100
* GSM 850/900/1800/1900
* 4G HSPA+ 21 Mbps (Category 14)
* 1GHz Nvidia Tegra 2 AP20H dual core processor
* 1GB RAM/1GB ROM/8GB Internal microSD™ to 32GB (not included)
* Android 2.3 (Gingerbread)
* 4-inch 480x800 WVGA Super AMOLED™
* Dual camera - 8MP Autofocus w/LED + 1.3MP front
* Full HD 1080p video camera + HDMI playback
* Enhanced Exchange ActiveSync® (EAS) to sync email, contacts, calendar and tasks
* Device and SD card encryption
* Virtual private network support
* Mobile Device Management (MDM)
http://www.att.com/gen/press-room?pid=21624&cdvn=news&newsarticleid=33039&mapcode=wireless-networks-general|consumer
Extremetech hat die Unterschiede zwischen nVidia's vSMP und Qualcomm's aSMP herausgearbeitet: http://www.extremetech.com/computing/99721-how-snapdragon-s4-and-tegra-3-manage-arm-cores-differently
Den Schluss, dass bei nVidia die aktivieren HP-Cores alle auf der selben Frequenz laufen würden, hatte ich nach dem Lesen des Whitepapers auch. Der aktuelle Snapdragon zeigt ja heute massive Probleme bei Webload wie sie Sunspider oder Browsermark erzeugen (oder war es Peacekeeper?). Eventuell ist dies ein Zeichen, dass asynchrone Taktung doch sehr problematisch sein kann.
Humor hat Qualcomm:
Reduced complexity: aSMP also eliminates the need for
“companion” or “little” cores since each core in an aSMP
system can be operated in low power mode due to the
independent voltage and frequency control per core thus
reducing the need for hypervisors or more complex software
management of disparate cores.
http://www.qualcomm.com/documents/files/snapdragon-s4-processors-system-on-chip-solutions-for-a-new-mobile-age-white-paper.pdf
Aber sie verschweigen - sehr geschickt - das nVidia jeden Core unabhängig voneinander deaktivieren kann. :D
|MatMan|
2011-10-13, 18:54:25
Aber sie verschweigen - sehr geschickt - das nVidia jeden Core unabhängig voneinander deaktivieren kann. :D
Und dass man für den "kleinen" Core energieeffizientere Transistoren verwenden kann was mehr bringen sollte als einen HP-Core herunter zu takten. Was das am Ende bringt inkl. dem Overhead dafür ist eine andere Frage...
LovesuckZ
2011-10-13, 18:59:19
Und dass man für den "kleinen" Core energieeffizientere Transistoren verwenden kann was mehr bringen sollte als einen HP-Core herunter zu takten. Was das am Ende bringt inkl. dem Overhead dafür ist eine andere Frage...
Laut dem Whitepaper verwendet Qualcomm den 28nm LP Prozess. Da gäbe es also bei einem gleichwertigen nVidia Produkt in 28nm keine Unterschiede.
LovesuckZ
2011-10-19, 00:49:43
Es beginnt: http://www.youtube.com/watch?v=AD4d9YZEIDA&feature=player_embedded
Gipsel
2011-10-19, 01:29:23
Laut dem Whitepaper verwendet Qualcomm den 28nm LP Prozess. Da gäbe es also bei einem gleichwertigen nVidia Produkt in 28nm keine Unterschiede.
Der verwendete Prozeß ist längst nicht alles. Die Wahl der Transistoren (jeder Prozeß bietet 3 oder 4 Grundvarianten, die sich dann noch z.T. pro Transistor tunen lassen) ist mindestens genau so wichtig. Die Charakteristiken zweier Kerne im gleichen Prozeß, von denen einer für 1,5 GHz und der andere für nur 600 MHz ausgelegt ist, unterscheiden sich sehr gravierend. Da hat |Matman| vollkommen recht.
Ailuros
2011-10-19, 08:27:23
Krait ist zwar nach meinem Verstaendnis kein "voller" A15 aber um einiges effizienter als A9 CPUs ist das Ding schon.
Qualcomm zielte selbstverstaendlich mit dem Absatz nicht auf nur einen Konkurrenten sondern mehrere u.a. auch TI oder besser eher TI als jemand anderem.
Dural
2011-10-20, 11:29:35
Denn wie erwartet wird das Transformer Prime das erste Tablet auf Basis eines Tegra-3-SoC sein. Der von Nvidia entwickelte Chip verfügt unter anderem über insgesamt fünf CPU-Kerne, von denen allerdings maximal vier gleichzeitig genutzt werden können. Die höchstmögliche Taktfrequenz wird bei 1,5 Gigahertz liegen, die Leistung soll laut Nvidia deutlich über der des Tegra 2 liegen.
Das ganze wird in einem 8,3 Millimeter dünnen Gehäuse verbaut sein, in dem auch ein leistungsstarker Akku steckt. Dieser soll Laufzeiten von bis zu 14,5 Stunden ermöglichen. Bei der restlichen Ausstattung gibt es deutlich weniger Überraschungen, komplettiert wird sie unter anderem von einem Zehn-Zoll-Display und den üblichen Anschlüssen in Form eines Mini-HDMI-Ports und eines Speicherkarten-Slots.
http://www.computerbase.de/news/2011-10/asus-kuendigt-transformer-prime-an/
LovesuckZ
2011-10-20, 11:41:00
Und zur Belustigung des Tages: http://semiaccurate.com/2011/10/19/nvidia-tegra-roadmap-slips-a-year/
Hugo78
2011-10-20, 11:59:41
Asus kündigt Transformer Prime an
http://www.computerbase.de/news/2011-10/asus-kuendigt-transformer-prime-an/
Ailuros
2011-10-21, 10:00:45
Und zur Belustigung des Tages: http://semiaccurate.com/2011/10/19/nvidia-tegra-roadmap-slips-a-year/
Denver hat nichts mit "T50" zu tun und obwohl ich mir sicher bin dass eine Aenderung in der roadmap gab in letzter Zeit ist es wahrscheinlicher dass diese zu Gunsten von T4 liegt und nicht wie die bisherige roadmap eine relativ enttaeuschende Leistungssteigerung des SoCs gegenueber T3 (nur 2x) angab.
Bei dem Wirrwarr kann man auch wirklich schwer mithalten den original waren die skalaren ALUs fuer T3 geplant, wurden spaeter auf T5 verfrachtet und jetzt koennte es sein dass sie wieder auf T4 vorgerutscht sind.
Der einzige Punkt wo er recht hat ist dass Krait (selbst mitberechnet dass es kein reiner A15 core ist) um einiges effizienter sein wird als A9 CPUs. Sonst von der GPU Seite sieht es mehr oder weniger nach Gleichstand aus zwischen 225 und ULP GF/T3.
robbitop
2011-10-21, 10:38:34
Krait ist zwar nach meinem Verstaendnis kein "voller" A15 aber um einiges effizienter als A9 CPUs ist das Ding schon.
Was führt dich zu der Schlussfolgerung? Die wenigen Details, die bekannt sind, lassen beide Designs auf sehr ähnliche IPC darstehen.
- OoO-Execution
- Pipelined FPU
- 3 issue Design
Natürlich ist Krait kein A15, sowie Scorpio kein A8 war. Immerhin entwickelt Qualcomm eigene CPUs. Aber von der IPC her sollte Scorpio = A8 und Krait = A15 sein.
Mancko
2011-10-21, 10:52:49
Denver hat nichts mit "T50" zu tun und obwohl ich mir sicher bin dass eine Aenderung in der roadmap gab in letzter Zeit ist es wahrscheinlicher dass diese zu Gunsten von T4 liegt und nicht wie die bisherige roadmap eine relativ enttaeuschende Leistungssteigerung des SoCs gegenueber T3 (nur 2x) angab.
Bei dem Wirrwarr kann man auch wirklich schwer mithalten den original waren die skalaren ALUs fuer T3 geplant, wurden spaeter auf T5 verfrachtet und jetzt koennte es sein dass sie wieder auf T4 vorgerutscht sind.
Der einzige Punkt wo er recht hat ist dass Krait (selbst mitberechnet dass es kein reiner A15 core ist) um einiges effizienter sein wird als A9 CPUs. Sonst von der GPU Seite sieht es mehr oder weniger nach Gleichstand aus zwischen 225 und ULP GF/T3.
Naja aber wenn man das hier auf seiner Seite liest und die Überschrift dazu:
In the end, the Tegra roadmap just slipped a year. Nvidia faces a rather painful 2012 and likely early 2013 with a core that is a generation behind, so expect lots of self-congratulatory press releases. In the mean time, Qualcomm is releasing Krait, TI has OMAP5, and Nvidia has hot air. Anyone want to join our pool for when the stock bubble bursts?
Könnte man ja glatt meinen, dass es hier ganz dramatisch um Nvidia steht. Ich glaube ich werde mir mal wieder die Arbeit machen und ihn an die Dramatik bei AMD erinnern.
LovesuckZ
2011-10-21, 11:12:07
Ha, es gibt Leute, die glauben den Schmarn auch noch.
Wisst ihr, was seine "Insider-Sources" sind? Google. :D
Huang hat doch auf seiner Investortour im September neue Roadmaps gezeigt, z.B die:
http://images.anandtech.com/doci/4769/Screen%20Shot%202011-09-12%20at%201.50.39%20PM_575px.png
Es ist doch schon seit einem Monat bekannt, dass nVidia ein paar Änderungen seit Februar vorgenommen hat. Aber das macht jeder ARM-SoC Hersteller. Ein 4470 von TI war auch nicht vor Monaten vorgesehen. Es ist zur Zeit eben noch einfach schnell auf die Konkurrenz zu reagieren.
Achja, ein paar Aussagen von Huang von der AsiaD:
Neuer "Image Processor" für Tegra 3:
Another key power-saving innovation of Kal-El is an image-processing technique that radically simplifies the way color is displayed , saving “tons of power” without reducing the visual experience, he said.
Stellt sich die Frage, ob sich das auf (explizit) Bilder oder die generelle Anzeige von "Farben" bezieht.
Man sei "On-Track" mit den einzelnen Chips:
The timing of their launch remains fully on track[...]
No delays are anticipated for coming generations that succeed Kal-El, including Projects Wayne, Logan and Stark, he said.
http://blogs.nvidia.com/2011/10/nvidia-ceo-wraps-up-all-things-d-asia-event/?utm_content=sf2395587&utm_medium=spredfast&utm_source=facebook&utm_campaign=Corporate&sf2395587=1
Die ganzen Artikel von Scharlie über Tegra sind einfach nur lächerlich. Er hat weder Informationen, noch anscheinend das richtige Verständnis. Das steckt nichts dahinter.
Ailuros
2011-10-21, 13:47:24
Naja aber wenn man das hier auf seiner Seite liest und die Überschrift dazu:
Könnte man ja glatt meinen, dass es hier ganz dramatisch um Nvidia steht. Ich glaube ich werde mir mal wieder die Arbeit machen und ihn an die Dramatik bei AMD erinnern.
Wir hatten fuer kurze Zeit die ersten Transformer "2"/Tegra3 GL Benchmark2.1 Resultate gesehen und diese wurden wieder zurueckgezogen. Kann sein dass die finalen Resultate sogar leicht besser sind, aber im Angesicht dass sich hw maessig an der GPU ausser der Anzahl der Einheiten und Frequenz nicht besonderes geaendert hat und die Treiber schon ziemlich ausgereift sind, bleibt es noch abzusehen.
Wie dem auch sei die Resultate waren ziemlich gut und platzierten den tablet T30 einen Schnitt ueber dem Samsung Exynos SoC, welcher zur Zeit der schnellste smart-phone SoC ist (ausserhalb vom iPhone4S A5) und es von Samsung moeglicherweise auch bleiben wird wenn man bedenkt dass der 4212 nochmal 50% in Frequenz zulegt und AP30 wohl schwer mit so hohen Frequenzen ankommen wird wie im T30 (zumindest von der GPU Seite).
Alles in allem ist NV's Tegra3 durchaus konkurrenzfaehig fuer 2012 und es wird auch ein hoeher getakter T3 spaeter nachgereicht.
Es ist doch schon seit einem Monat bekannt, dass nVidia ein paar Änderungen seit Februar vorgenommen hat. Aber das macht jeder ARM-SoC Hersteller. Ein 4470 von TI war auch nicht vor Monaten vorgesehen. Es ist zur Zeit eben noch einfach schnell auf die Konkurrenz zu reagieren.
TI hat den 4470 nachgereicht noch zuvor Apple das iPad2 mit dem A5 vorstellte. Das eigentliche Ziel vom ersten ist zumindest vergleichbare A5 smart-phone Leistung zu erreichen, aber im Angesicht der projezierten 1.8GHz Frequenz fuer die CPUs und die ziemlich hohe GPU Frequenz wird der 4470 dem 4S A5 schon ein Stueckt vorraus sein. Die Aenderungen im 4470 sind zu gross dass sie TI nur kurzfristig ueberdacht hat. Nimm die neue GPU IP, 2D chips und zusaetzliche CPU cores im Vergleich zu 4430/4460 und es ist leicht zu sehen. Das einzige was TI braucht ist execution und vernueftige Stueckanzahlen; da sie bei UMC hauptsaechlich herstellen ist es eher schwer dort irgendwelche Einzelheiten herauszufischen.
Man sei "On-Track" mit den einzelnen Chips:
http://blogs.nvidia.com/2011/10/nvidia-ceo-wraps-up-all-things-d-asia-event/?utm_content=sf2395587&utm_medium=spredfast&utm_source=facebook&utm_campaign=Corporate&sf2395587=1
Die ganzen Artikel von Scharlie über Tegra sind einfach nur lächerlich. Er hat weder Informationen, noch anscheinend das richtige Verständnis. Das steckt nichts dahinter.
Sagen viele wenn nicht alle und dann am Ende furzt entweder die foundry oder Gott weiss wer noch was ab. Darauf wuerde ich momentan keinen besonderen Wert legen, denn auch ST Ericsson war sich "sicher" bei der NovaThor Ankuendigung und einige Zeit danach dass sie es noch in 2012 schaffen werden. Jetzt wo die Situation mit 28nm generell etwas klarer ist geben sie hinter den Kulissen selber zu dass es vor 2013 nichts mehr wird.
AnarchX
2011-10-21, 13:52:38
Kann man eigentlich langfristig auch eine Companion-GPU erwarten?:D
robbitop
2011-10-21, 14:07:27
Kann man eigentlich langfristig auch eine Companion-GPU erwarten?:D
Schärzkegs! :D Und wie wäre es mit einer Companion Physik-Unit und einer Companion Sound Unit....:freak:
GPUs kann man doch toll powergaten. Nahezu alle Ausführungseinheiten ausschalten, Takt runter, VCore runter, nur noch 1x Memorykanal anlassen (1/n VRAM aktiv), Caches teildeaktivieren, Clockgating...Ich denke mal, dass ein Companion GPU Core mit gleichem Instructionset nicht wesentlich sparsamer oder transistorschonender machbar wäre.
Ailuros
2011-10-21, 14:20:02
Kann man eigentlich langfristig auch eine Companion-GPU erwarten?:D
Die dann hoellisch CPU bound wird oder willst Du auch noch eine Companion CPU mit Companion extra System Speicher oder kuerzer einen ganzen Rucksack voll zusaetzlichen Zusteck-Dingsbums? :biggrin:
LovesuckZ
2011-10-21, 14:27:11
TI hat den 4470 nachgereicht noch zuvor Apple das iPad2 mit dem A5 vorstellte. Das eigentliche Ziel vom ersten ist zumindest vergleichbare A5 smart-phone Leistung zu erreichen, aber im Angesicht der projezierten 1.8GHz Frequenz fuer die CPUs und die ziemlich hohe GPU Frequenz wird der 4470 dem 4S A5 schon ein Stueckt vorraus sein. Die Aenderungen im 4470 sind zu gross dass sie TI nur kurzfristig ueberdacht hat. Nimm die neue GPU IP, 2D chips und zusaetzliche CPU cores im Vergleich zu 4430/4460 und es ist leicht zu sehen. Das einzige was TI braucht ist execution und vernueftige Stueckanzahlen; da sie bei UMC hauptsaechlich herstellen ist es eher schwer dort irgendwelche Einzelheiten herauszufischen.
4470 ist für das erste Halbjahr 2012 für unspezifische Geräte geplant. Zum selben Zeitpunkt sollen Tegra 3 Smartphones erscheinen. 4470 ist ein kurzfristiges Resultat aufgrund der Konkurrenzsituation und war so nicht geplant als man 4430/4460 vorstellte. Diese Möglichkeit gibt der ARM-SoC Markt - kurzfristige Änderungen.
Sagen viele wenn nicht alle und dann am Ende furzt entweder die foundry oder Gott weiss wer noch was ab. Darauf wuerde ich momentan keinen besonderen Wert legen, denn auch ST Ericsson war sich "sicher" bei der NovaThor Ankuendigung und einige Zeit danach dass sie es noch in 2012 schaffen werden. Jetzt wo die Situation mit 28nm generell etwas klarer ist geben sie hinter den Kulissen selber zu dass es vor 2013 nichts mehr wird.
Das was Huang meint, ist die Entwicklung der SoCs. Das es Probleme mit Fertigung, Partner, Software etc. geben kann, ist doch nichts neues.
Ailuros
2011-10-21, 14:36:35
4470 ist für das erste Halbjahr 2012 für unspezifische Geräte geplant. Zum selben Zeitpunkt sollen Tegra 3 Smartphones erscheinen. 4470 ist ein kurzfristiges Resultat aufgrund der Konkurrenzsituation und war so nicht geplant als man 4430/4460 vorstellte. Diese Möglichkeit gibt der ARM-SoC Markt - kurzfristige Änderungen.
Es ist so "kurzfristig" wie ich es illustriert habe. Die Aenderung der OMAP4 roadmap kam in (early) 2010 und nicht spaeter und 2 Jahre vor der projezierten Geraete-Vorstellung sind alles andere als "kurzfristig", aber es bleibt natuerlich auch offen was jeder mit kurzfristig genau meint.
CPU und GPU Generationen zur Seite ist der 4470 ein Zwischenschritt zwischen OMAP4 und 5. Die Daten ueber beide sind oeffentlich bekannt und man die Punkte wo sich die beiden ueberschneiden leicht sehen. Die erste OMAP5 Variante hat eine doppelt so schnelle 4470 GPU, falls es helfen sollte, frag aber nicht wie die spaeteren 5-er Varianten aussehen werden.
Das was Huang meint, ist die Entwicklung der SoCs. Das es Probleme mit Fertigung, Partner, Software etc. geben kann, ist doch nichts neues.
Aendert nichts an jeglicher Vorbehalte zwischen Projektionen und eigentlicher Produkt-Integrierung. Wie gesagt davon sind alle SoC Hersteller betroffen.
LovesuckZ
2011-10-21, 15:10:44
4470 ist ein Zwischenschritt, der aus der Not geboren wurde. Ca. ein halbes Jahr später soll OMAP5 kommen. Welchen Sinn macht da noch ein in 45nm gefertigter DualCore A9 SoC? Wenn sie 4470 schon 2010 geplant hätten, würde der SoC in diesem Jahr erscheinen. OMAP5 wurde von TI Februar präsentiert, 4470 irgendwann im Juni.
AnarchX
2011-10-21, 15:16:16
Schärzkegs! :D Und wie wäre es mit einer Companion Physik-Unit und einer Companion Sound Unit....:freak:
GPUs kann man doch toll powergaten. Nahezu alle Ausführungseinheiten ausschalten, Takt runter, VCore runter, nur noch 1x Memorykanal anlassen (1/n VRAM aktiv), Caches teildeaktivieren, Clockgating...Ich denke mal, dass ein Companion GPU Core mit gleichem Instructionset nicht wesentlich sparsamer oder transistorschonender machbar wäre.
Beim A9 hat NV das mögliche Powergating allein auch nicht gereicht, sodass man eben diesen Companion-A9 mit LP-Transistoren integriert hat.
Im Bezug auf eine Companion GPU in Tegra könnte ich mir die Weiteführung der aktuellen Tegra 2 GPU vorstellen, eben mit LP-Transisotren, die eine möglichst einfache ISA besitzt und für das Basis-Processing aktiv ist, während bestimmte Apps dann eine Low-End-DX10/11 GPU, mit G-Transistoren gefertigt, anfordern können. Zwar kann man diese sicherlich auf relativ weit herunterfahren mit der Leistungsaufnahme. Aber trotzdem braucht man hier deutlich mehr aktive Transistoren allein für die höhere ISA.
Aber Endeffekt wird es wohl darauf ankommen, wie die Anforderungen an die IGP in kommenden Android-Versionen und Windows ARM Versionen steigen.
Letztlich bliebe ja auch noch der aktuelle Nokia-Weg mit einer dedizierten GPU. ;D
LovesuckZ
2011-10-21, 15:18:09
Es gibt dedizierte 2D und 3D Prozessoren. Wenn du kein 3D benötigst, wird der Teil komplett deaktiviert.
Ailuros
2011-10-21, 15:45:55
4470 ist ein Zwischenschritt, der aus der Not geboren wurde.
Zweifellos.
Ca. ein halbes Jahr später soll OMAP5 kommen. Welchen Sinn macht da noch ein in 45nm gefertigter DualCore A9 SoC? Wenn sie 4470 schon 2010 geplant hätten, würde der SoC in diesem Jahr erscheinen.
Weil SoCs generell nicht ueber Nacht entwickelt werden vielleicht? Nochmal es handelt sich nicht nur um einen 4460 mit hoeheren Frequenzen.
OMAP5 wurde von TI Februar präsentiert, 4470 irgendwann im Juni.
Inwiefern soll diese bedeutungslose Einzelheit irgend etwas ueber den Entwicklungsstart eines SoCs aussagen? OMAP 5 ging auch nicht "ein paar Monate" vor der Ankuendigung in die Startloecher.
LovesuckZ
2011-10-21, 17:47:52
4470 stand wohl kaum zur Debatte als man mit OMAP5 anfing. Er wurde dazwischen geschoben, weil der Abstand zwischen 4430/4460 und OMAP5 einfach viel zu groß werden drohte. Wir reden hier von mindesten einem Jahr. Und in der zeit kommt nVidia mit Tegra3, Qualcomm eventuell deutlich früher mit Krait und wer weiß, wer noch alles. Logisch, dass man mit 4470 nicht erst im Juni angefangen hat, aber die zeit für die Entwicklung ist deutlich geringer. Immerhin setzt man auf bekanntest: Den selben Prozess, die selbe Prozessor-Architektur. Fakt ist, dass 4470 nicht von Anfang als Zwischenschritt geplant war. Und das zeigt, dass kurzfristige Veränderungen in einer Roadmap eben möglich sind.
Aber zurück zu Tegra 3:
Kann jemand dieses Image Processing Geschichte erklären?
Anyway: Getting performance is easy part. Challenging part is delivering that performance with low power, and better and better efficiency. The low-power core with Kal-El is 20x “less hungry” for energy.
Second invention: Use image-processing technique to look at the color content of an image. That allows us to save a ton of power that way.
It allows us to sort of “cheat” on colors and use similar colors, with different lighting – human eye can’t tell.
http://allthingsd.com/20111020/nvidias-jen-hsun-huang-live-at-asiad/
Gipsel
2011-10-21, 18:27:40
Was führt dich zu der Schlussfolgerung? Die wenigen Details, die bekannt sind, lassen beide Designs auf sehr ähnliche IPC darstehen.
- OoO-Execution
- Pipelined FPU
- 3 issue Design
Natürlich ist Krait kein A15, sowie Scorpio kein A8 war. Immerhin entwickelt Qualcomm eigene CPUs. Aber von der IPC her sollte Scorpio = A8 und Krait = A15 sein.
Wenn mal mal die dMIPS/clock Zahlen nimmt, dann liegt Scorpio knapp vor einem A8 (~5%) und Krait knapp hinter einem A15 (~6%). In etwas fordernderen Anwendungen kann sich das natürlich noch verschieben (durch unterschiedlich performende Cache- und Speicherhierarchien), genau wie bei einem anderen Instruktionsmix (die FPUs unterscheiden sich z.B. deutlicher in der Leistungsfähigkeit). Außerdem wird es bei den recht geringen Unterschieden auch eine Rolle spielen, in welche Taktfrequenzregionen bei gegebenem Stromverbrauch beide Designs vorstoßen können. Qualcomm hat ja schon recht optimistische Aussagen über die Taktfähigkeit von Krait gemacht (der wahrscheinlich etwas mehr Custom-Logic einsetzen wird, als "normale" A15). Allerdings soll auch der A15 mit ein wenig Optimierung deutlich über 2GHz erreichen können (natürlich eher nicht im Smartphone). Hier wird man noch ein wenig abwarten müssen, wo genau man dann letztendlich ankommt.
LovesuckZ
2011-10-21, 18:29:03
Bei Qualcomm sollte man abwarten, was mit ihrem asynchronen Taktdesign los ist. Ergebnisse aus WebOS und Android scheinen auf Probleme hinzudeuten.
Gipsel
2011-10-21, 18:30:42
Bei Qualcomm sollte man abwarten, was mit ihrem asynchronen Taktdesign los ist. Ergebnisse aus WebOS und Android scheinen auf Probleme hinzudeuten.
Vielleicht brauchen die "nur" ein entsprechendes Update des Schedulers im OS oder einen Patch der Powermanagement-Firmware? Das ist eher ein Softwareproblem.
LovesuckZ
2011-10-21, 18:31:59
Vielleicht brauchen die "nur" ein entsprechendes Update des Schedulers im OS oder einen Patch der Powermanagemnet-Firmware? Das ist eher ein Softwareproblem.
Bei Android eventuell, aber WebOS sollte auf Snapdragon optimiert sein. Jedenfalls sind es deutliche Leistungsunterschiede zwischen Snapdragon 3 und den normalen DualCore A9-Implementierungen, die über dem IPC-Unterschied hinausgehen.
LovesuckZ
2011-10-21, 23:11:01
Ab 5:30:
http://online.wsj.com/video/asiad-jen-hsun-huang-highlights/19CC8B0C-24B2-4613-8B64-DBB25911311B.html
Huang über "Image Processing". Versteht jemand, was er sagt? Ich bekomm nur irgendwas mit Backlight raus.
Gipsel
2011-10-22, 01:57:44
Ab 5:30:
http://online.wsj.com/video/asiad-jen-hsun-huang-highlights/19CC8B0C-24B2-4613-8B64-DBB25911311B.html
Huang über "Image Processing". Versteht jemand, was er sagt? Ich bekomm nur irgendwas mit Backlight raus.
Ja, er sagt, daß das Image Processing (welches auch immer),den Stromverbrauch für das Display-Backlight verringern wird (wie auch immer).
Geht vielleicht ein wenig in die Richtung, was meines Wissens bei einigen Notebooks bereits gemacht wird: Man dreht am Kontrast und Gamma-Wert des Bildinhalts, damit es trotz Absenkung der Bildschirmhelligkeit möglichst ähnlich aussieht. Aber keine Ahnung was das mit der CPU/GPU zu tun haben soll. Bei Area-LED Backlights (also die verschiedene Bildschirmbereiche unabhängig voneinander ansteuern können, keine Edge-LEDs), macht das Display selber (bzw. der Controller dafür) sowas (notgedrungen) sowieso schon.
Duplex
2011-10-22, 11:01:02
Tegra hat bisher 2 Milliarden US Dollar gekostet
http://www.golem.de/1110/87222.html
Dauerhaft würden die Kosten für die Entwicklung von Chips aber steigen, sagte Jen-Hsun Huang. Für seine eigenen Tegras, die bisher mit dem ersten Modell und dem Tegra 2 nur zwei Produkte hervorgebracht haben, hat Nvidia laut Huang bereits zwei Milliarden US-Dollar ausgegeben. Für Chipentwickler könnte es schwierig werden, die Bausteine für viele verschiedene Segmente parallel zu entwickeln. "Es könnte die Zeit kommen, wo es wichtig wird, ob man welche kauft oder selbst baut", sagte der Nvidia-Mitbegründer mit Blick auf mobile CPUs.
LovesuckZ
2011-10-22, 11:07:34
Irgendwie schade, dass die ganzen Newsseiten nur diese belanglose Zahl aus dem Gespräch entnommen haben.
Ich fand seine Ansichten zu Win8, Apple und was man in Zukunft pro Generation liefern will, wesentlich interessanter.
Und einen, wohl auch nicht so gemeinten, Seitenhieb gegen AMD hatte Huang auch:
Es ist einfach die Leistung zu steigern. Sie wissen, wir erhalten immer mehr Transistoren. Wesentlich schwieriger ist es die Effizienz zu verbessern.
Dural
2011-10-22, 11:46:53
"Es könnte die Zeit kommen, wo es wichtig wird, ob man welche kauft oder selbst baut", sagte der Nvidia-Mitbegründer mit Blick auf mobile CPUs.
ich versteh diesen satz nicht so ganz, deutet er da auf eine eigene fertigung hin?!? oder eigene x86 CPUs?!? oder auf Apple bezogen?!? :confused:
LovesuckZ
2011-10-22, 11:49:41
ich versteh diesen satz nicht so ganz, deutet er da auf eine eigene fertigung hin?!? oder eigene x86 CPUs?!? :confused:
Er wurde gefragt, ob es ein Nachteil wäre, dass Apple selbst Prozessoren fertige. Der Satz bezog sich auf die einzelnen Bereiche, wo man mit seinem SoC hinwill. Zur Zeit lohnt es sich laut Huang noch nicht dedizierte SoCs für einzelne Bereiche zu entwickeln. Das könnte sich in Zukunft ändern und dann stellt sich eben die Frage, ob man nicht bei anderen Firmen SoCs einkaufen werde.
Dural
2011-10-22, 12:05:52
ok doch auf Apple bezogen, danke
Mancko
2011-10-22, 12:10:16
Tegra hat bisher 2 Milliarden US Dollar gekostet
http://www.golem.de/1110/87222.html
Das ist schon echt peinlich für so eine News Seite. Einfach einen kleinen Ausschnitt aus einem wie ich finde sehr interessanten Interview herausgerissen und das auch völlig aus dem Zusammenhang. Mich wundert, dass sie nicht die "über 1000 Spezialisten" erwähnt haben, die in diesem Umfeld bei Nvidia mittlerweile an dem Thema arbeiten.
Die 2Mrd. dürften wohl eher für das gesamte Tegra Segment gelten. Sprich alle Tegras inklusive Project Denver + die Icera Übernahme und Integrationskosten. Interessant waren auch die Aussagen zu Apple.
Hugo78
2011-10-22, 13:12:36
Jen-Hsun wird natürlich auch hoffen, dass Apple nicht nur irgendwann gezwungen sein wird, anderswo SoCs einzukaufen,
weil sie igendwann nicht mehr alles selber entwickeln können, ähnlich Samsung, ASUS, LG ...
Sondern auch allgemein nach dem Führungswechsel, in Zukunft weniger eigenbrötlerisch handeln.
Herr Jobs war da ja ... ähm schwierig und hat geschäftliche Beziehungen anscheinend auch mal persönlich genommen, wenn da was nicht immer so lief wie er das verlangt hat.
T-Com durfte sich wohl öfter ein "You guys suck" anhören. ;D
=Floi=
2011-10-22, 13:37:27
zukünftig wird aber ein eigenes design immer leistungsstärker und spezieller werden. das ist jetzt schon der grund für qualität der apple produkte und dürfte zukünftig nocht stärker ausfallen.
LovesuckZ
2011-10-22, 13:41:29
Von welchen "Qualitäten" sprichst du? Zur Zeit ist nur der GPU-Part besser. Das Problem ist, dass A5 schon 120mm^2 groß ist. Wer weiß, wo man in Zukunft hingeht. Samsung hat ja Tegra 2 für die Low-Cost Schiene ausgewählt, weil nVidia Tegra 2 eben billiger anbieten kann als Samsung 125mm^2 wohl für sie kostet.
Hugo78
2011-10-22, 13:53:05
Und dazukommt, Apple verliert über die Zeit seinen Premium Status.
Die Marke wird immer mehr als Massenmarktprodukt wahrgenommen und irgendwann muss Apple auch mal billigere Handys ect. bauen.
Selbst die Mobilfunkanbieter fragen sich warum sie diese Geräte auch noch subventionieren, wo nur Apple damit reich wird.
http://derstandard.at/1317018824287/Medientage-Orange-Chef-Krammer-Wir-sind-feste-Trottel
Orange-Chef Krammer:
"Apples Umsatz im zweiten Quartal betrug 25 Milliarden Dollar. Sie haben 18,7 Millionen iPhones verkauft, die wir Mobilfunker mit durchschnittlich 400 Dollar pro Stück stützen.
Das heißt, allein 30 Prozent des Umsatzes kommen von uns. Hier braucht man Mut zur Selbstreflexion: Wir sind feste Trottel", warf Krammer in die Runde
Mancko
2011-10-22, 15:26:11
Und dazukommt, Apple verliert über die Zeit seinen Premium Status.
Die Marke wird immer mehr als Massenmarktprodukt wahrgenommen und irgendwann muss Apple auch mal billigere Handys ect. bauen.
Selbst die Mobilfunkanbieter fragen sich warum sie diese Geräte auch noch subventionieren, wo nur Apple damit reich wird.
http://derstandard.at/1317018824287/Medientage-Orange-Chef-Krammer-Wir-sind-feste-Trottel
Orange-Chef Krammer:
Im Smartphone Markt bekommen sie über kurz oder lang sowieso Probleme. Da gibts kaum noch was zu revolutionieren. Jetzt rückt halt mehr und mehr die Performance und der Preis in den Vordergrund und das wissen die auch. Man schaue sich nur mal das iPhone4s an. Die können mit den Refreshzyklen von Samsung, HTC, LG über kurz oder lang nicht mithalten und es sind auch immer weniger bereit die Premiumpreise zu bezahlen. Am Anfang hatten viele in meinem Freundeskreis noch ein iPhone. Heute haben die meissten aus dem Freundeskreis keins mehr und verteilen sich jetzt halt auf die Adroid und Windows Phone Anbieter. Bei den Tablets wird das früher oder später auch passieren. Einfach mal noch 2 Jahre warten. Die kamen ja auch später auf den Markt als die Smartphones. Schon jetzt versuchen sie ja mittels Klagen die Konkurenz auszubremsen aber das wird halt dauerhaft nicht funktionieren und außerdem verschaffen sie sich so ein ziemliches Negativimage. Ich kenn mittlerweile genug Leute die von Apples Gängeleien und Größenwahn genug haben und aus Prinzip nichts mehr von denen kaufen, obwohl die auf ihr iPhone und iPad geschwört haben.
Bei den Mobilfunkkonzernen wundere ich mich eh, dass die so lange mitgespielt haben. Wäre ich Telekom oder Vodafone hätte ich an Apple die klare Ansage gemacht, dass sie nach meinen Regeln mitspielen oder draußen bleiben. Das Problem erledigt sich jetzt aber auch, weil die Produkte wie du schon sagst zur Massenware werden und auch nichts revolutionäres mehr sind. Der Verbraucher wird zunehmend wie überall den Preis-/Featurevergleich zur Konkurenz durchführen. Der reine Herdentrieb ist m.E. zumindest im Smartphone Bereich zu Ende.
Ailuros
2011-10-23, 10:24:37
Tegra hat bisher 2 Milliarden US Dollar gekostet
http://www.golem.de/1110/87222.html
Wenn Huang fuer etwas bekannt ist dann sind es uebertriebene Kosten fuer N, wobei er konstant andere Nebenkosten in den Topf schmeisst die nichts mit dem spezifischem R&D zu tun haben und die die Firma so oder so bezahlt.
Es kann ja gerne mal erzaehlen wie viele engineers genau im Tegra team beschaeftigt waren; wenn die 2 Mrd. stimmen wuerden muessten diejenigen engineers zich Mal so viel verdienen als Huang selber :D
Von welchen "Qualitäten" sprichst du? Zur Zeit ist nur der GPU-Part besser. Das Problem ist, dass A5 schon 120mm^2 groß ist. Wer weiß, wo man in Zukunft hingeht. Samsung hat ja Tegra 2 für die Low-Cost Schiene ausgewählt, weil nVidia Tegra 2 eben billiger anbieten kann als Samsung 125mm^2 wohl für sie kostet.
Apple konkurriert mit sich selber so lange sie ihre SoCs selber und auch ihr OS selber entwickeln. Apple wird die area genauso wurscht sein wie beim A5 eben weil sie trotz grossen dies immer noch verdammt viel Gewinn machen aus ihrem Zeug. Bei so hohen Volumen ist es auch kein Problem.
Wo es hingehen wird? +/- PS Vita Leistung in 2012 (low level API mitberechnet) und ab 2013 auf Papier +/- XBox360 Leistung (low level API beim letzteren nicht mitberechnet).
Was hat Samsung jetzt ploetzlich mit Apple zu tun oder anders seit wann hat Samsung je einen Apple SoC verwenden duerfen? Es wird auch nie so weit kommen denn Apple wird ihre SoC nie an dritte verkaufen oder lizenzieren.
Samsung's Problem war bis jetzt dass Apple zu viele Kapazitaeten braucht und ihre eigenen SoCs nicht in vollem Volumen herstellen koennen; sie haetten aber so oder so dritte SoCs benutzt wie momentan (Tegra2, Adreno220, OMAP3, OMAP4 usw.). Dass vielleicht Apple zu dual sourcing bei TSMC langfristig greift, erklaert vielleicht die ganze Geschichte.
Mancko
2011-10-23, 12:55:19
Wenn Huang fuer etwas bekannt ist dann sind es uebertriebene Kosten fuer N, wobei er konstant andere Nebenkosten in den Topf schmeisst die nichts mit dem spezifischem R&D zu tun haben und die die Firma so oder so bezahlt.
Es kann ja gerne mal erzaehlen wie viele engineers genau im Tegra team beschaeftigt waren; wenn die 2 Mrd. stimmen wuerden muessten diejenigen engineers zich Mal so viel verdienen als Huang selber :D
Er sagt bei 7:38 Minuten, dass er 2 Mrd. $ in das Tegra Business über die letzten 5 Jahre investiert hat. Er sagt nicht spezifisch R&D, weswegen ich ja vorher bereits schrieb, dass darin alles enthalten ist - auch die Icera Übernahme.
Außerdem sagt er, dass sie jedes Jahr einen neuen SoC herausbringen wollen und das die Entwicklung eines solchen SoC so ca. 3 Jahre dauert und sie deshalb derzeit an allen gleichzeitig arbeiten. Daher auch am Anfang seine Aussage, dass es wohl derzeit über 1000 Spezialisten in dem Tegra Business arbeiten.
Das Problem hier sind also klar die Pfeifen von Golem.de die anscheinend der englischen Sprache nicht mächtig sind und nicht genau zuhören bzw. um Seitenhits zu generieren einfach so eine unseriöse News plazieren. Dafür sollte man die Seite eigentlich gleich Dicht machen wegen Unfähigkeit.
Ailuros
2011-10-24, 06:20:56
Er sagt bei 7:38 Minuten, dass er 2 Mrd. $ in das Tegra Business über die letzten 5 Jahre investiert hat. Er sagt nicht spezifisch R&D, weswegen ich ja vorher bereits schrieb, dass darin alles enthalten ist - auch die Icera Übernahme.
Selbst mit Icera inklusive und weiss der Geier was noch haut die Zahl nicht hin mit all den Resourcen die fuer GF110, 28nm testruns und Kepler dediziert wurden.
Wie dem auch sei ab Grey (mainstream/smart-phones) erwarte ich die groessere Explosion seitens Tegra und wenn man dann spaeter noch Denver mitzaehlt wird NV tatsaechlich verrueckt hohe Summen in die Sparte investiert haben sonst ziehlt man auch keine Mrd. Umsatz von dieser pro Jahr an. Grey wird wie ich schon erwaehnt habe hoechtswahrscheinlich vom indischen team entwickelt.
Außerdem sagt er, dass sie jedes Jahr einen neuen SoC herausbringen wollen und das die Entwicklung eines solchen SoC so ca. 3 Jahre dauert und sie deshalb derzeit an allen gleichzeitig arbeiten. Daher auch am Anfang seine Aussage, dass es wohl derzeit über 1000 Spezialisten in dem Tegra Business arbeiten.
Na das mit den 1000 Spezialisten ist wohl eine doch eine direkte Reaktion auf Apple. Die ULP GF engineers bis zu T2 konntest Du auf einer Hand zaehlen und man braucht nichtmal alle Finger. Wenn man das gesamte NV Treiberteam mitzaehlt dass natuerlich nicht nur embedded Treiber entwickelt haut es schon hin. Im Gegenbeispiel von Apple erwaehnte ich ja auch im anderen thread dass Apple wohl auch die iOS Kerle mitzaehlt.
Wie dem auch sei 3 Jahre stimmt mehr oder weniger vom chalkboard bis zum sampling, etwas weniger unter Druck und nur mit maessigen Aenderungen.
Das Problem hier sind also klar die Pfeifen von Golem.de die anscheinend der englischen Sprache nicht mächtig sind und nicht genau zuhören bzw. um Seitenhits zu generieren einfach so eine unseriöse News plazieren. Dafür sollte man die Seite eigentlich gleich Dicht machen wegen Unfähigkeit.
Man muss so oder so ein Auge zudruecken denn der embedded Markt ist nach wie vor jung und es gibt zahllose Fehler fast ueberall, ob jemand jetzt sich ein video anhoert oder von einer anderen Seite ohne den newsblurb zu verifizieren einfach abschreibt.
Was man von den spezifischen Aussagen Huang's behalten kann ist dass sie in absehbarer Zukunft tatsaechlich ein 1Mrd. Umsatz Geschaeft auf die Beine stellen koennen. Der Rest ist dann mehr oder weniger marketing-Fanfaren die man normalerweise bei allen IHVs einfach links liegen laesst.
Mancko
2011-10-24, 10:37:10
Man muss so oder so ein Auge zudruecken denn der embedded Markt ist nach wie vor jung und es gibt zahllose Fehler fast ueberall, ob jemand jetzt sich ein video anhoert oder von einer anderen Seite ohne den newsblurb zu verifizieren einfach abschreibt.
Sehe ich nicht so. Huang sagt ganz klar und deutlich 2 Mrd. $ über die letzten 5 Jahre für das Tegra Business. Das schließt Tegra, Tegra2, Tegra3 Project Denver usw. mit ein.
Wie Golem da auf eine News Überschrift "2 Mrd. $ für Tegra2" kommen kann ist mir schleierhaft.
Ailuros
2011-10-24, 10:50:54
Um gerecht zu sein bei golem.de steht nur "Tegra" und nicht "Tegra2". Ausser natuerlich es war anfangs Tegra2 und sie haben schnell die "2" entfernt ;)
***edit: ich lese gerade die Kommentare durch und sah dass einer der golem Redakteure folgendes beigetragen hat:
Ein kleiner Punkt dürfte nicht ganz unwesentlich zu den Kosten beitragen:
Die Lizenzkosten für ARM ;)
Das ist natuerlich absoluter Schwachsinn und der Herr hat natuerlich keine Ahnung wie es unter normalen Umstaenden mit IP Lizenzgebuehren bzw. chip royalties genau aussieht. Der laecherlichste Punkt ueberhaupt, denn verglichen zu den vorigen sind die Kosten hier kleiner als zich SoC tape-outs fuer alle 3 bisherigen SoCs und Herstellungskosten; anders die Summen fuer die Lizenzkosten sind die kleinsten ueberhaupt.
Einfacher: eine IP Lizenz fuer einen neuen IP core duerfte irgendwo um die $1.5 Mio. kosten (und bei Wiedergebrauch wie bei T3 um zich Male weniger); ein einziger tape out (wobei man nie mit nur einem davonkommt) ist schon in der $5 Mio Region.
LovesuckZ
2011-10-24, 11:31:14
Das ganze ist doch sowieso ziemlich hochgepusht.
Tegra ist bis auf die ARM-Kerne eine komplette Eigenentwicklung von nVidia: GPU, Decoder, Encoder etc. Sie lizenzieren also nicht wie andere Firmen auch die restlichen Prozessoren (PowerVR gibt ja neben GPU auch die Videodecoder/encoder mit). Da ist es verständlich, dass sie viel mehr Geld investieren müssen. Gleichzeitig sind sie so aber in der Lage wesentlich schneller neuere und vorallem verbesserte Prozessoren wie Stromspartechniken einzuführen.
Der Icera-Kauf hat nVidia genauso viel gekostet, wie Icera als Risikokapital hatte. Sie haben also nicht mehr bezahlt als Icera überhaupt wert war.
Die Chipsatzsparte ist seit wohl bald 2 Jahren tot. Die dort angefallen R&D Kosten hat man laut Huang zur Tegra-Sparte transferiert.
Laut Huang arbeitet man zur Zeit an den nächsten 3 Tegra-Versionen (+ Icera-Integration?). Die Kosten steigen also erstmal deutlich, weil man viel mehr Leute benötigt.
Und die Software darf nicht vergessen werden. Zuerst auf Windows gesetzt, was sich nicht durchgesetzt hat, musste man einen kompletten Softwarestack für Android entwickeln. Im Gegensatz zu den Lizenznehmern, die Treiber von den Lizenzgebern erhalten bzw. die in das OS integriert werden.
$2 Mrd. sind für das, was nVidia bis jetzt erreicht hat und vorallem, was sie in Zukunft vorhaben, vollkommen in Ordnung. Und die Zahl wird sowieso PR-Mäßig höher gesprochen als sie wohl am Ende ist.
Ailuros
2011-10-24, 11:38:31
Mein einziger Einwand waere dass wenn NV fuer Denver tatsaechlich eigen angepasste ARM CPU IP (welches auch hoechstwahrscheinlich so ist), kommen dafuer so manche Entwicklungskosten noch dazu.
LovesuckZ
2011-10-24, 11:41:48
Da nVidia Project Denver nicht unter Tegra führt, sollte es nicht miteinbezogen sein. Aber das werden sowieso erst in ein paar Jahren erfahren.
Ailuros
2011-10-24, 11:47:57
Da nVidia Project Denver nicht unter Tegra führt, sollte es nicht miteinbezogen sein. Aber das werden sowieso erst in ein paar Jahren erfahren.
Keine Ahnung ob NV Denver als getrennte Sparte fuehren wird; wenn dann so oder so auf eher virtueller (bzw. finanzieller/marketing) Basis denn da es sich auch ueber SoCs handelt die bis zu diesem gesammelte Erfahrung mehr als nur wertvoll ist.
LovesuckZ
2011-10-24, 11:52:29
Sie führen Project Denver schon als "eigenständige" Sparte:
http://img854.imageshack.us/img854/8323/002xd.jpg
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8847290&postcount=1246
Dural
2011-10-24, 11:54:00
finde die 2 Milliarden jetzt nicht wirklich viel für rund 4 Jahre, das macht jedes Jahr nur 500 Millionen.
Der Icera Kauf muss man da auch noch mit einrechnen, zudem sollen über 1000 Leute rund um Tegra in der Entwicklung angestellt sein.
Ailuros
2011-10-24, 12:02:11
Sie führen Project Denver schon als "eigenständige" Sparte:
Und Maxwell bzw. Echelon haben dann was genau zu suchen in den diversen "Sparten"? Ich bezweifle dass Du nicht verstehst auf was ich genau hinaus will.
finde die 2 Milliarden jetzt nicht wirklich viel für rund 4 Jahre, das macht jedes Jahr nur 500 Millionen.
Komischerweise gibt Jensen 5 Jahre an ergo 400Mio/Jahr. Denk nach je hoeher die angebliche Summe sein soll, desto hoeher der reale Verlust fuer Tegra fuer die letzten 5 Jahre. Ergo was genau soll es sein?
Der Icera Kauf muss man da auch noch mit einrechnen, zudem sollen über 1000 Leute rund um Tegra in der Entwicklung angestellt sein.
Der Icera Kauf wurde schon zich Male erwaehnt und es sind genauso viel 1000 bei NV rund um Tegra wie bei Apple rund um ihre eigene SoCs. So viel wird man wohl verstehen koennen, dass es lediglich eine alberne Marketing-Reaktion zu einer ebenso albernen Marketing-Reaktion seitens Apple ist (die auch vor kurzem dummerweise "1000" angaben). Jetzt wart ich lediglich darauf bis TI, Qualcomm oder weiss der Geier wer noch mit "1500" ankommen und die dementsprechende "Messlatte" noch hoeher anzulegen.
Aber jetzt mal nuechtern: wenn schon heute wirklich 1000 engineers ausschliesslich nur mit Tegra werkeln, entwickeln wohl die GPUs (und dazu stets 3 grosse Design-teams verstreut ueber 3 Generationen) die Putzfrauen bei der Firma oder?
LovesuckZ
2011-10-24, 12:04:25
Project Denver hat nichts mit Tegra zu tun. Würde man die Kosten für F&E miteinbeziehen, könnte man auch gleich die Kosten für die GPU-Entwicklung ebenfalls dazu addieren.
Wenn Huang über die Kosten spricht, meint er Tegra und nicht die Integration der Standard-ARM-Kerne mit den restlichen Komponenten.
Ailuros
2011-10-24, 12:18:04
Project Denver hat nichts mit Tegra zu tun.
Auch nicht dass zufaelligerweise es sich bei beiden um SoCs handelt?
Würde man die Kosten für F&E miteinbeziehen, könnte man auch gleich die Kosten für die GPU-Entwicklung ebenfalls dazu addieren.
Nur teilt sich Denver die GPU Entwicklung so oder so mit Maxwell; ebenso auch spaeter noch dichter im Echelon.
Wenn Huang über die Kosten spricht, meint er Tegra und nicht die Integration der Standard-ARM-Kerne mit den restlichen Komponenten.
Von mir aus; wir sind uns so oder so was die 2Mrd betrifft diesem einig:
Und die Zahl wird sowieso PR-Mäßig höher gesprochen als sie wohl am Ende ist.
Ergo wenn die Marketing-technische Uebertreibungen weglasse und die moeglichen bisheringe Denver-Kosten addiere liege ich wahrscheinlich immer noch nicht ausserhaulb jeglichem logischem Bereich. Nach NV selber soll in absehbarer Zukunft die Tegra Sparte um die 1Mrd Umsatz machen ebenso wie sie heute insgesamt verdienen. Ich wuerde zumindest fuer den Anfang sicherheitshalber Denver mitrechnen.
Mancko
2011-10-24, 13:28:31
Also ich denke, dass die 2Mrd. $ Tegra, Tegra 2, Tegra 3, Icera Übernahme und Integration sowie Project Denver enthalten. Das kommt bei 5 Jahren durchaus hin. Das wären 400 Mio pro Jahr was im Endeffekt 100 Mio pro Quartal sind.
Die Investitionen werden aber noch steigen denke ich. Anders ließen sich die Refreshzyklen auch nicht realisieren und das ist auch in Summe eine gute Vorgehensweise um anderen größeren Unternehmen die Lust auf SoC Entwicklung ein wenig zu nehmen. Mit dem Prinzip war man ja bei Grafikchips vor vielen Jahren ja auch schonmal sehr erfolgreich.
Ailuros
2011-10-25, 14:49:18
Natuerlich wird die Investition weiterhin steigen und ab Grey sogar brutal, selbst wenn man theoretisch Denver abtrennt. Zwei SoCs anstatt nur einem gleichzeitig aufs Laufband zu bringen anstatt nur einem reicht dafuer schon aus.
LovesuckZ
2011-10-27, 19:16:51
nVidia über die Verspätung von Tegra 3:
The delay came down to increased validation time, an Nvidia spokesman said. “It took a little more time than we thought to get the software optimized for the hardware,” the spokesman said, denying any silicon delays.
http://www.eetimes.com/electronics-news/4230075/Nvidia-Kal-El-processor-to-emerge-Nov--9
Ailuros
2011-10-29, 13:50:53
Es gab auch keinen re-spin afaik; via sw laesst sich eben einiges loesen.
Ailuros
2011-10-31, 06:35:26
http://www.fudzilla.com/mobiles/item/24639-shadowgun-brings-quake-looking-games-to-phones
Nicht schlecht und der Preis sitzt auch.
On a big screen, you will suffer from lack of anti aliasing, but with Tegra 3, we believe that even this will be possible.
Wenn man auf T2 nicht CSAA zuschalten kann, dann ist es Schlamperei seitens des ISV und es wird auch auf T3 nichts bringen. Ueber MSAA ist keiner der beiden faehig.
AnarchX
2011-10-31, 12:25:07
Mal ein eigenes Thema zu AA auf Tegra: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=516582
Dazu gab es schon desöfteren Verwirrungen.
LovesuckZ
2011-11-02, 15:51:45
Laut Digitimes könnte HTC in Zukunft Tablets/Smartphones mit Tegra 3 anbieten:
TSMC also makes chips for Nvidia, which has boosted wafer starts for its application processors for tablet PCs to about 100,000 units in the fourth quarter from 90,000 in the third, the sources said. Nvidia reportedly has secured orders from HTC and Asustek Computer.
http://www.digitimes.com/pda/a20111102PD202.html
Dürfte Qualcomm überhaupt nicht passen und wäre die zweite Nachricht nachdem Nokia angegeben hat in Zukunft auch auf ST-Ericsson zu setzen.
Ailuros
2011-11-03, 07:24:57
Wurde je erwaehnt dass NOKIA fuer win-phones ausschliesslich Qualcomm SoCs benutzen wird? Ich bezweifle es ernsthaft. Natuerlich wird NOKIA auch auf ST Ericsson setzen, erstens weil NOKIA stets mehr als eine Quelle haben will (macht auch Sinn fuer jeden denn es minimalisiert jegliche Abhaengigkeit) und zweitens wenn man Microsoft als Partner hat wird man wohl auch DX11 fuer win8 smartphones irgendwann ab 2013 haben wollen.
Das konstante Umschaufeln im Markt ist normal und wird auch in Zukunft so sein; man verliert A gewinnt aber direkt danach B. Als Gegenbeispiel macht anscheinend Intel die TV SoC Abteilung dicht; duerfte IMG nicht besonders jucken da MStar erst vor kurzem ihr IP lizenziert hat.
HTC und jegliches HTC will selbstverstaendlich auch etwas von Kuchen A und auch B und warum auch nicht von C haben. Nur von einer Quelle einzukaufen ist langweilig und koennte wie im Fall Qualcomm<->HTC gewisse Limitierungen bedeuten die der eigentliche Hersteller im Angesicht der generellen Konkurrenz nicht haben will. Uebrigens ist MediaTek auch kein kleiner Verlust fuer Qualcomm.
mboeller
2011-11-04, 15:58:06
http://www.engadget.com/2011/11/04/transformer-prime-gets-mysteriously-and-imperiously-benchmarked/
kurz und knapp: CPU top, GPU flop
Hugo78
2011-11-04, 16:10:35
Wow - ein - ganzer - Benchmark.
LovesuckZ
2011-11-04, 16:13:31
Naja, die Frage lautet auch: Vsync?
Imo wüsste ich gerne, wieso der RAM-Test so dermaßen besser ist...
/edit: Die unterschiedlichen Auflösungen nicht ignorieren.
Ailuros
2011-11-04, 16:49:51
http://www.engadget.com/2011/11/04/transformer-prime-gets-mysteriously-and-imperiously-benchmarked/
kurz und knapp: CPU top, GPU flop
Koennte zwar falsch liegen aber das Ding: http://www.antutu.com/software.php klingt mir eher nach etwas in der Art Sisoft benchmarks fuer Android phones. Weiss der Geier was das Ding ueberhaupt anstellt.
LovesuckZ
2011-11-04, 19:59:02
Abgesehen davon, wie man sich soetwas überhaupt patentieren lassen könnte: http://www.tomshardware.com/news/nvidia-patent-portable-computer-usb,13878.html
Hoffe ich, dass endlich Unternehmen mal den Mut haben auf ARM-SoC kleine, billige PCs auf den Markt zu bringen.
Ailuros
2011-11-07, 15:33:09
Abgesehen davon, wie man sich soetwas überhaupt patentieren lassen könnte: http://www.tomshardware.com/news/nvidia-patent-portable-computer-usb,13878.html
Hoffe ich, dass endlich Unternehmen mal den Mut haben auf ARM-SoC kleine, billige PCs auf den Markt zu bringen.
Schlecht ist die Idee auf jeden Fall nicht; nur ziemlich merkwuerdig fuer den TV Markt, da hier ohnehin schon TV sets mit integrierten SoCs schon seit einiger Zeit hergestellt werden. Komisch ist hier lediglich warum NV SoCs nicht einfach an TV Hersteller zu verkaufen versucht, denn so ein Zusteck-Geraet mit einem projezierten BOM von <$100 wird auch nicht unbedingt billig sein fuer den Endverbraucher.
LovesuckZ
2011-11-07, 20:28:14
Die Gerüchteküche bzgl. Tegra 3 Phones nimmt langsam fahrt auf:
Das Padfone von Asus ist bekannt.
Dazu gesellt sich ein LG Optimus U1 (http://www.pcgameshardware.de/aid,853287/Optimus-U1-Erstes-LG-Smartphone-mit-Android-Ice-Cream-Sandwich-und-Quadcore-CPU/Handy/News/) sowie ein HTC Edge (http://pocketnow.com/android/htc-edge-first-quad-core-phone-revealed-images) für Q1 2012.
Schlecht ist die Idee auf jeden Fall nicht; nur ziemlich merkwuerdig fuer den TV Markt, da hier ohnehin schon TV sets mit integrierten SoCs schon seit einiger Zeit hergestellt werden. Komisch ist hier lediglich warum NV SoCs nicht einfach an TV Hersteller zu verkaufen versucht, denn so ein Zusteck-Geraet mit einem projezierten BOM von <$100 wird auch nicht unbedingt billig sein fuer den Endverbraucher.
Der Fernsehr ist nur für die bildliche Darstellung. Es handelt sich dabei um einen kompletten PC, den man über eine Schnittstelle (wohl HDMI) überall anschließen könnte und somit losarbeiten könnte. Interessant ist es schon, aber patentierbar?
Ailuros
2011-11-07, 21:22:08
Der Fernsehr ist nur für die bildliche Darstellung. Es handelt sich dabei um einen kompletten PC, den man über eine Schnittstelle (wohl HDMI) überall anschließen könnte und somit losarbeiten könnte. Interessant ist es schon, aber patentierbar?
In der US vielleicht schon :D
Wie dem auch sei, es koennte sein dass set top boxes irgendwann aussterben denn diverse Hersteller fummeln schon damit rum volle SoCs in TV sets zu integrieren. Wie weit die ganze Geschichte genau gehen koennte keine Ahnung. Wenn der Preis nicht allzu hoch sein sollte, koennte es sein dass die Idee eine Zukunft hat u.a. auch den Verbrauchern die keinen Bock haben sehr oft TV sets zu kaufen.
DrFreaK666
2011-11-07, 22:33:57
Die Gerüchteküche bzgl. Tegra 3 Phones nimmt langsam fahrt auf:
Das Padfone von Asus ist bekannt.
Dazu gesellt sich ein LG Optimus U1 (http://www.pcgameshardware.de/aid,853287/Optimus-U1-Erstes-LG-Smartphone-mit-Android-Ice-Cream-Sandwich-und-Quadcore-CPU/Handy/News/) sowie ein HTC Edge (http://pocketnow.com/android/htc-edge-first-quad-core-phone-revealed-images) für Q1 2012.
Der Fernsehr ist nur für die bildliche Darstellung. Es handelt sich dabei um einen kompletten PC, den man über eine Schnittstelle (wohl HDMI) überall anschließen könnte und somit losarbeiten könnte. Interessant ist es schon, aber patentierbar?
HTC Edge soll Nvidias Tegra 3 nutzen (http://www.computerbase.de/news/2011-11/htc-edge-soll-nvidias-tegra-3-nutzen/)
http://pics.computerbase.de/3/8/0/5/9/1.jpg
Ailuros
2011-11-08, 16:49:18
Das Padfone von Asus ist bekannt.
http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro21&D=Asus+Padfone&testgroup=gl
Ich hab es selber erst gesehen und ja ich dachte auch dass das Padfone mit T3 kommen wird. Wird es mehrere padfones von Asus geben?
LovesuckZ
2011-11-08, 17:19:50
http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro21&D=Asus+Padfone&testgroup=gl
Ich hab es selber erst gesehen und ja ich dachte auch dass das Padfone mit T3 kommen wird. Wird es mehrere padfones von Asus geben?
Ich habe gestern gelesen, dass man denkt, es käme mit Snapdragon 4. :D
Waren ja nur Gerüchte. Adrano220 - ist Snapdragon 3, oder? Laut den Infos ist es Snapdragon 4: msm8960
Ailuros
2011-11-08, 17:24:16
Ja Adreno220 ist S3; Adreno225 ist dann 28nm S4 Krait/28nm. Koennte das letztere ueberhaupt nicht sein, da es erst Anfang 2012 in Geraeten erscheinen soll.
LovesuckZ
2011-11-08, 17:54:10
Also Adeno220 mit Krait? Gott, da blickt doch keiner mehr durch...
Aber wohl falscher Thread.
Gipsel
2011-11-08, 19:18:40
Also Adeno220 mit Krait? Gott, da blickt doch keiner mehr durch...Ne, höchstens Adreno225 mit Krait (kommt anfangs mit 225er GPU, später in 2012 dann mit Adreno305 oder Adreno320). Aber die Infos des verlinkten glbenchmarks passen nicht zusammen und sind daher wohl schlicht falsch.
Ailuros
2011-11-08, 19:22:29
Also Adeno220 mit Krait? Gott, da blickt doch keiner mehr durch...
Aber wohl falscher Thread.
Noe Adreno225.
Einfacher:
S3 Adreno220= 4 Vec4 USC ALUs @266MHz
S4 (Krait CPU) Adreno225 = 8 Vec4 USC ALUs @400MHz
Wenn jetzt der 225 tatsaechlich selbst mit Treiber-Optimierungen insgesamt nur 50% mehr Leistung im Vergleich zum heutigen 220 in 3D liefert, duerften deren ALUs ziemlich merkwuerdiges utilization haben. Fuer den letzteren erwarte ich in GPU benchmarks +/- T30 3D Leistung.
Ne, höchstens Adreno225 mit Krait (kommt anfangs mit 225er GPU, später in 2012 dann mit Adreno305 oder Adreno320). Aber die Infos des verlinkten glbenchmarks passen nicht zusammen und sind daher wohl schlicht falsch.
Im Asus padfone steckt ein S3/Adreno220 und kein S4. S4 ist wie erwaehnt erst noch beim sampling.
Vorigen Bloedsinn ausgestrichen: http://forum.beyond3d.com/showpost.php?p=1596178&postcount=74 Ist nur ein test-Dingsda mit einer 220-er GPU und sehr niedrig getaktetem Krait.
mboeller
2011-11-09, 07:03:08
Wenn Nvidia recht hat, dann wird die GPU im Tegra3 3x schneller sein, als die GPU im Tegra2. Der Benchmark, den ich auf der letzten Seite verlinkt habe, scheint also wirklich Mist gemessen zu haben. 3x schneller ist wirklich kein "flop":
http://www.engadget.com/2011/11/09/nvidia-says-tegra-3-is-a-pc-class-cpu-has-screenshots-to-prov/
http://www.engadget.com/2011/11/09/transformer-prime-detailed-10-inch-super-ips-display-12-hour/
Die Features der GPU scheinen sich aber nicht geändert zu haben. Alle "Verbesserungen" beziehen sich, soweit ich das sehe auf den Gamecontent und nicht auf neue GPU-Features.
Hugo78
2011-11-09, 07:27:54
CB hat auch einen Artikel dazu.
http://www.computerbase.de/news/2011-11/nvidia-stellt-kal-el-als-tegra-3-offiziell-vor/
robbitop
2011-11-09, 08:57:35
CB hat auch einen Artikel dazu.
http://www.computerbase.de/news/2011-11/nvidia-stellt-kal-el-als-tegra-3-offiziell-vor/
Dazu kann man nur sagen: NVIDIA hat es drauf!
Marketing vom Feinsten (das meine ich nicht ironisch). "tue Gutes und rede darüber"
Die schieben offenbar gut Ressourcen in das Projekt. Typisch gute DevRel, Treiber brauche ich nichts dazu zu sagen.
Das fehlt mir bei den anderen SoC Herstellern noch. Diese Agressivität und Bissigkeit von NV. Das wirkt sich dann auch am Ende im Betriebsergebnis aus.
LovesuckZ
2011-11-09, 09:00:03
Hey, Turbo-Boost für die CPU-Kerne. :)
Bezweifel noch jemand hier, dass Konkurrenz den ARM-Markt zu neuen Höhen bringt? 12h Laufzeit mit 22Whr ist einfach nur noch klasse.
Ailuros
2011-11-09, 09:09:04
Wenn Nvidia recht hat, dann wird die GPU im Tegra3 3x schneller sein, als die GPU im Tegra2. Der Benchmark, den ich auf der letzten Seite verlinkt habe, scheint also wirklich Mist gemessen zu haben. 3x schneller ist wirklich kein "flop":
http://www.engadget.com/2011/11/09/nvidia-says-tegra-3-is-a-pc-class-cpu-has-screenshots-to-prov/
http://www.engadget.com/2011/11/09/transformer-prime-detailed-10-inch-super-ips-display-12-hour/
Die Features der GPU scheinen sich aber nicht geändert zu haben. Alle "Verbesserungen" beziehen sich, soweit ich das sehe auf den Gamecontent und nicht auf neue GPU-Features.
Insgesamt ist T3 im Vergleich zu T2 nach NV selber bis zu 5x Mal schneller insgesamt als SoC. Viel Glueck dieses 5x Mal oder bis zu 3x Mal typischen marketing Quark (den ja jeder anwendet) zu glauben.
Anders Du wandelst mir vom "flop" in dem Du einem Bums-synthetischen benchmark glauben schenkst vom einen extreme zum anderen in dem Du NV's marketing-Geblubber von 3x Mal auch gleich glauben schenken willst. Die ULP GF im T3 ist klar konkurrenzfaehig zu dem was die Android Konkurrenz auftischen wird was 3D Leistung betrifft. Nicht mehr und nicht weniger.
ULP Tegra2 max. 333MHz:
1 Vec4 PS ALU + 1 Vec4 VS ALU = 5.3 GFLOPs
2 TMUs = 666 MTexels/s
8 z/stencil = 2.66 GPixels/s
ULP Tegra3 max. 500MHz
2 Vec4 PS ALUs + 1 Vec4 VS ALU = 12.0 GFLOPs
2 TMUs = 1.0 GTexel/s
8 z/stencil = 4.0 GPixels/s
Selbst nach den rohen Daten ergibt sich kein >2x Durchschnitt.
Nach den ersten GL Benchmark Resultaten die kurz online waren erreichte Tegra3 in Egypt 720p offscreen 53 fps wenn ich es noch gut in Errinerung habe, im Vergleich zu 29 fps fuer Tegra2 (stets tablet gegen tablet).
Kann sein dass die GL Benchmark Resultate fuer T3 steigen oder gleich bleiben nach dem finalen launch, aber wie dem auch so nach Qualcomm's Aussagen die ihre kommende 28nm Adreno 225 betreffen duerfte dieser mehr oder weniger auch auf diesen Nivaeu liegen, und dieses mit 8 Vec4 USC ALUs@400MHz. Wie ich schon oben erwaehnte klingt es momentan eher danach als ob bei Adreno (ex ATI Imageon) vielleicht die pipeline utilization fuer die vector ALUs nicht gerade optimal ist.
Lange Geschichte kurz: fuer 2012 duerfte man +/- 2x Mal so schnelle GPUs erwarten in tablets/smartphones als in 2011, T3 natuerlich auch unter diesen. Nicht vergessen tablet SoCs haben stets hoehere GPU Frequenzen als smartphone SoCs.
Dazu kann man nur sagen: NVIDIA hat es drauf!
Marketing vom Feinsten (das meine ich nicht ironisch). "tue Gutes und rede darüber"
Die schieben offenbar gut Ressourcen in das Projekt. Typisch gute DevRel, Treiber brauche ich nichts dazu zu sagen.
Das fehlt mir bei den anderen SoC Herstellern noch. Diese Agressivität und Bissigkeit von NV. Das wirkt sich dann auch am Ende im Betriebsergebnis aus.
Was fehlt Dir diesbezueglich bei Qualcomm als Gegenbeispiel? http://www.anandtech.com/show/4940/qualcomm-new-snapdragon-s4-msm8960-krait-architecture
Mehr als die Haelfte davon ist purer Bloedsinn; sind aber auch jeweils die Authoren daran schuld, wenn sie z.B. immer noch nicht verstehen wie man FLOPs zaehlt oder wofuer eine SFU steht (Du kannst sehr lange nach der "skalaren ALU" suchen die Anand hier behauptet; es handelt sich lediglich um eine SFU pro vector lane die ueber keinen FLOP faehig sind).
Auch bei TI wird das Marketing-geblubber immer bunter und ausfuehrlicher. Und ja es ist etwas dass NV angetrieben hat, aber ich finde trotzdem an den typischen Marketing-Uebertreibungen nichts "tolles" egal von welcher Seite. Ueberhaupt wenn man nicht den eigentlichen End-Verbraucher damit direkt anspricht. Ausser uns paar techno-freaks weiss wer genau was in welchem Handy bzw. Tablet genau steckt?
***edit: http://www.anandtech.com/show/5072/nvidias-tegra-3-launched-architecture-revealed
Sir Integral Wingate Hellsing
2011-11-09, 09:29:42
http://www.heise.de/newsticker/meldung/Nvidias-Tegra-3-Schneller-schoener-sparsamer-1375313.html <- "Nvidias Tegra 3: Schneller, schöner, sparsamer"
Der Companion Core ist laut Nvidia für das Betriebssystem nicht sichtbar und kommt bei eher anspruchslosen Aufgaben wie der Wiedergabe von Liedern oder Videos und auch im Standby zum Einsatz. Er läuft dabei je nach Last zwischen 0 und 500 MHz. Dann schalten sich die vier leistungsfähigen Cortex-A9-Kerne ab. Letztere laufen unter Last mit einer Taktfrequenz von bis zu 1,3 GHz (2 oder 4 Kerne) beziehungsweise 1,4 GHz (1 aktiver Kern). Die Gesamt-Performance aller vier Prozessorkerne vergleicht Nvidia mit der Leistung eines Core 2 Duo T7200 und bezieht sich dabei auf den Benchmark Coremark, der vorwiegend die Integer-Leistung von Prozessoren weitgehend unabhängig von der Speicheranbindung bewertet.
Bis zu dreimal schneller als beim Tegra 2 (Tegra 250) sei die Grafikeinheit namens ULP GeForce (Ultra Low Power GeForce), sagte Nvidias Marketing-Direktor Matt Wuebbeling. Die Tegra-3-GPU weist nun 12 statt 8 programmierbare Shader-Rechenkerne auf und nutzt sonst die gleiche Architektur wie der Vorgänger. Die vier zusätzlichen Cores sind alle für Pixel-Shader-Berechnungen gedacht, sodass die Anzahl der Vertex-Shaderkerne wie beim Tegra 2 bei vier bleibt.
[...]
Nvidias Aussagen zur Tegra-3-Leistung sollte man allerdings mit Vorsicht genießen. Bereits zum Mobile World Congress 2011 im Februar in Barcelona hatte sich der Hersteller vor der Fachpresse blamiert: Nvidia hatte eine fünfmal so hohe Leistung im Vergleich zum Dual-Core-SoC Tegra 2 in Aussicht gestelltt, dabei aber die doppelte Rechenleistung des Vierkern-SoCs mit der behaupteten dreifachen Grafikleistung schlicht addiert.
"Nur" 1,3 GHz im Quadcore-modus?
LovesuckZ
2011-11-09, 09:35:17
Ja, 1,3GHz ab 2 Kerne, 1,4GHz bei der Benutzung von nur einem.
Sir Integral Wingate Hellsing
2011-11-09, 09:36:51
Ja, 1,3GHz ab 2 Kerne, 1,4GHz bei der Benutzung von nur einem.
Ja, hab es gelesen, genau wie der Punkt, dass eigentlich mehr angekündigt war... Der Produktionsprozess hat wohl nicht mehr hergegeben (AMD kann da ein Lied von Singen) ;)
john carmack
2011-11-09, 09:40:03
Nvidia stellt „Kal-El“ als Tegra 3 offiziell vor
http://www.computerbase.de/news/2011-11/nvidia-stellt-kal-el-als-tegra-3-offiziell-vor/
LovesuckZ
2011-11-09, 09:45:06
Ja, hab es gelesen, genau wie der Punkt, dass eigentlich mehr angekündigt war... Der Produktionsprozess hat wohl nicht mehr hergegeben (AMD kann da ein Lied von Singen) ;)
Naja. Angekündigt waren 1,5GHz. Da ist man leicht drunter. Ist immer auch eine Frage des Stromverbrauchs - höhrerer Takt + Spannung.
Dank Turbobost sind es ja 40% mehr bei einem Thread und 30% bei niedrigem Verbrauch. Klar, 1,5GHz auf jedem Core wäre schon toll.
robbitop
2011-11-09, 10:15:39
@Ailuros
Treiber und Devrel - ich meine nicht nur Blubberei. NV bringt zu jedem Minor Release von Android neuere, schnellere Treiber. Für den lahmen veralteten Kern wirklich gut.
Und offenbar stecken sie Geld und Leute in die Dev-Rel mit 40 Spielen.
Nicht, dass mir das wichtig wäre - aber man sieht, die tun alle ziemlich was.
Tarkin
2011-11-09, 10:38:08
Adobe stellt Entwicklung mobiler Flash Versionen ein (http://www.computerbase.de/news/2011-11/adobe-stellt-entwicklung-mobiler-flash-versionen-ein/)
da bekommt die Folie hier gleich eine andere Bedeutung ;)
http://pics.computerbase.de/3/8/0/8/7/10_m.jpg
Dafür ein doppeltes :freak: :freak:
Und warum hier der A5 überhaupt bei Flash aufscheint ... crazy
LovesuckZ
2011-11-09, 10:39:06
Ja - die Graphen fangen bei 0 an. Was für'n crap. Dauernd muss man sich umgewöhnen. :(
Hugo78
2011-11-09, 10:40:57
"Nur" 1,3 GHz im Quadcore-modus?
Die 1,5Ghz werden wir sicher mit "Superman Returns" in 28nm erleben. ;)
Und warum hier der A5 überhaupt bei Flash aufscheint ... nVidia Logik halt
Humor hat man oder ebend nicht. :tongue:
LovesuckZ
2011-11-09, 11:12:26
Humor hat man oder ebend nicht. :tongue:
Na, er verstand eben nicht, was nVidia zeigen wollte. Das hat nichts mit Humor zu tun - Humor ist vielmehr das:
Ob nVidia mit "Competition" Tegra 2 meint: http://video.computerbase.de/426-sd.mp4
Ansonsten ist das Video über den Low-Power Kern heftig: http://www.youtube.com/watch?v=4dZsS-C6f2Q&feature=player_embedded#
Sieht gut aus. Guter Fortschritt.
Spasstiger
2011-11-09, 11:28:11
ULP Tegra3 max. 500MHz
2 Vec4 PS ALUs + 1 Vec4 VS ALU = 12.0 GFLOPs
2 TMUs = 1.0 GTexel/s
8 z/stencil = 4.0 GPixels/s
Im Vergleich zu ARMs Mali-T604 (http://www.arm.com/products/multimedia/mali-graphics-hardware/mali-t604.php) "MP4" wirkt Tegra 3 ja recht schwach:
4 Shader-Cores mit je 2 US-Shader-Pipelines (möglw. VEC8-MADD + 1 scalar ADD/MUL) und je 1 TMU-Pipeline
=> 68 GFlops, 2 GPix/s (color) und 2 MTex/s @ 500 MHz
Quellen:
http://blogs.arm.com/multimedia/318-arm-mali-t604-new-gpu-architecture-for-highest-performance-flexibility/
http://www.4gamer.net/games/137/G013737/20110725062/
Und vom Featureset her ist Mali auch klar überlegen:
- OpenCL 1.1 mit Double Precision
- DirectX 11
Was Nvidia auf den Screenshots zeigt, wäre mit den Eckdaten von Tegra 3 schon erstaunlich. Das ist durchaus Wii-Niveau, wenn nicht sogar besser.
AnarchX
2011-11-09, 11:36:49
Was Nvidia auf den Screenshots zeigt, wäre mit den Eckdaten von Tegra 3 schon erstaunlich. Das ist durchaus Wii-Niveau, wenn nicht sogar besser.
Wenn das wirklich alles Material von T3 ist, dann wohl eher schon in Richtung PS3/360: http://www.youtube.com/watch?v=2U2r3yKg0Ng&feature=player_embedded
LovesuckZ
2011-11-09, 11:39:15
Naja, das sieht eher nach Wii/PS/Xbox Niveau aus.
Viel interessanter wird der Vergleich mit der Vita. Deutlich mehr Grafikleistung, aber anscheinend auch eine deutlich geringere Laufzeit.
Und zu Tegra 3 GPU: nVidia gibt eine Leistungssteigerung von 3x im Egypt-Test an. Das wären dann ca. 60 FPS. iPad 2 wäre da auch nur noch 45% schneller und das iPhone 4S ca. 25%.
Dural
2011-11-09, 14:12:32
aha doch nur 1300MHz, als das China Teil auch nur 1300MHz hatte hiess es von den meisten hier das der Tegra3 in dem Gerät halt nicht voll laufe... :rolleyes:
Aber wieso NV bis zuletzt von 1500MHz sprach verstehe ich ehrlich gesagt überhaupt nicht, die wissen ja schon länger das er doch nur mit 1300MHz kommt :rolleyes:
LovesuckZ
2011-11-09, 14:19:28
Soweit ich weiß, hat nur Rayfield im Februar im Blog von anvisierten 1500MHz gesprochen. Deswegen kannten wir also diese Zahl. Andere Aussagen sind mir nicht bekannt.
Dural
2011-11-09, 14:29:51
ich glaube das im letzten monat noch die 1500MHz im gespräch waren, obs offiziel war keine ahung :rolleyes:
übrigens, wie so lässt man den nicht wenigstens einen Kern mit 1500Mhz laufen, das dürfte doch locker ins TDP Buget passen :rolleyes:
Dual Core gibt es schlisslich ja auch schon mit bis zu 1500MHz :rolleyes:
Da scheint ja schon fast der Chip selber zu Limitieren :eek:
LovesuckZ
2011-11-09, 14:37:06
1500MHz gibt es zur Zeit nur von Qualcomm und die haben das Design auf hohe Taktrate ausgelegt. Die benötigen aber auch die 1500MHz, weil sie 20% mehr Takt wegen der geringeren IPC als ein herkömmlichen A9 benötigen.
Naja, Laufzeit ist ein Punkt, der nicht unwichtig ist. Wenn ich mein Tegra 2 mit High-Performance Prozess sehe, dass benötigt der für 1500MHz schon 0,3V mehr...
/edit: Außerdem müsste man sehen, was A9 maximal auf 40nm ergibt. Zwar hat TI 1,8GHz angekündigt, aber ob das gut gehen wird...
davidzo
2011-11-09, 14:40:56
Ja, hab es gelesen, genau wie der Punkt, dass eigentlich mehr angekündigt war... Der Produktionsprozess hat wohl nicht mehr hergegeben (AMD kann da ein Lied von Singen) ;)
Naja. Angekündigt waren 1,5GHz. Da ist man leicht drunter. Ist immer auch eine Frage des Stromverbrauchs - höhrerer Takt + Spannung.
naja, mittlerweile ist das doch der klassiker bei NV. Welches Produkt blieb denn nicht hinter den Taktratenerwartungen zurück? GT200 etwa, Fermi etwa? Klar, jeder andere Hersteller hat auch ehrgeizige Ziele, ist dann aber so schlau diese nicht durchsickern zu lassen. Andererseits ist nvidia eigentlich permanent zu optimistisch. Das extrem großspurige Auftreten, auch bei den prognostizierten und "gemessenen" Leistungsdaten ist man ja seit Jahren schon gewohnt, daher wird damit auch anders umgegangen als wenn etwa Intel oder AMD diese Aussagen gemacht hätte.
Adobe stellt Entwicklung mobiler Flash Versionen ein (http://www.computerbase.de/news/2011-11/adobe-stellt-entwicklung-mobiler-flash-versionen-ein/)
da bekommt die Folie hier gleich eine andere Bedeutung ;)
Dafür ein doppeltes :freak: :freak:
Und warum hier der A5 überhaupt bei Flash aufscheint ... crazy
Falls du es noch nicht mitbekommen hast, es gibt mittlerweile Flash für iOS.
Und die Ankündigung seitens Adobe hat CB einfach nur falsch verstanden. Wegen der starken architekturellen Unterschiede insbesondere was die GPU-Beschleunigung angeht muss Flash in Zukunft eben vom Gerätehersteller bzw. Chiphersteller entwickelt werden, dazu lizensiert Adobe den Sourcecode. Die Ankündigung Adobes betrifft also lediglich den Übergang der Codebasis für Flash von Adobe hin zu den SoC und Geräteherstellern sowie Google, ein längst überfälliger Schritt.
Ich sehe Tegra3 als günstige quadcorelösung, genau wie derzeit Tegra2 die einstiegslösung bei den dualcores darstellt. Die Anwendungsleistung wird bei Qualcomm, Samsung und TI wohl wegen des höheren takts höher sein, genau wie es derzeit der Fall ist. Und was den Markteintritt angeht, so wissen wir alle das SoCs normalerweise offiziell vorgestellt werden wenn die Geräte fertig sind und nur nvidia mit dieser Tradition bricht. Ob der S4 8960 oder der OMAP4470 nun deutlich später auf dem markt erscheinen wage ich mal zu bezweifeln. Und die chancen dass diese chips wieder mal sparsamer sind und praktisch auch in vielen punkten schneller stehen gar nicht mal so schlecht. tegra2 war auf dem papier auch sehr überzeugend, letzendlich verhinderte aber der mickrige speichercontroller den Anschluss an das highendgebiet. die vollmundig angepriesene grafik wird sich mit dem sgx543mp2 im ipad und dem sgx544 im omap ersteinmal beweisen müssen und auch die malis würde ich nicht unterschätzen, die hardware ist stark und der softwaresupport wird täglich besser.
Ailuros
2011-11-09, 15:12:55
Im Vergleich zu ARMs Mali-T604 (http://www.arm.com/products/multimedia/mali-graphics-hardware/mali-t604.php) "MP4" wirkt Tegra 3 ja recht schwach:
4 Shader-Cores mit je 2 US-Shader-Pipelines (möglw. VEC8-MADD + 1 scalar ADD/MUL) und je 1 TMU-Pipeline
=> 68 GFlops, 2 GPix/s (color) und 2 MTex/s @ 500 MHz
Quellen:
http://blogs.arm.com/multimedia/318-arm-mali-t604-new-gpu-architecture-for-highest-performance-flexibility/
http://www.4gamer.net/games/137/G013737/20110725062/
Und vom Featureset her ist Mali auch klar überlegen:
- OpenCL 1.1 mit Double Precision
- DirectX 11
Was Nvidia auf den Screenshots zeigt, wäre mit den Eckdaten von Tegra 3 schon erstaunlich. Das ist durchaus Wii-Niveau, wenn nicht sogar besser.
Mali T6xx gehoert zur naechsten "Halti"/OGL_ES3.0 Generation. Bis zum Zeitpunkt wo das Ding in irgend einem Geraet erscheint weiss der Geier gegen welches Tegra sich das Ding setzen wird. Und falls die 68GFLOPs ueber 4 cores irgendwie "beindruckend" klingen sollte mit dem DX11 Zeug der PowerVR Rogue im ST Ericsson Novathor A9600 ist ueber 210 GFLOPs, >350M echten Tris und >5 GTexels (ohne overdraw) faehig. Selbst wenn es sich in dem Fall um einen MP4 handeln sollte, sieht die floating point Effizienz pro core auf dem T604 genau wie aus?
@Ailuros
Treiber und Devrel - ich meine nicht nur Blubberei. NV bringt zu jedem Minor Release von Android neuere, schnellere Treiber. Für den lahmen veralteten Kern wirklich gut.
Und offenbar stecken sie Geld und Leute in die Dev-Rel mit 40 Spielen.
Nicht, dass mir das wichtig wäre - aber man sieht, die tun alle ziemlich was.
Es gibt fuer die meisten wenn nicht alle embedded GPUs bei jeglicher neuen OS Version mehr Leistung, so bloed sind die anderen nun auch nicht. Die Groesse und Erfahrung fuer windows Treiber bei NVIDIA hat die gesamte Konkurrenz eben nicht; ergo wird es fuer den Bereich win8 erstmal richtig interessant.
Asus Transformer Prime wird nicht mit ICS ausgeliefert sondern nachgeladen und NV's offizieller Grund fuer die T30/AP30 Verspaetung ist sw Validierung. Koennte auch durchaus so sein, aber ich hab auch gleichzeitig den Verdacht dass sie ihren memory controller noch weiter aufgepuscht haben auf T30 damit der single channel Speicher zu keinen sichtbaren Problemen fuehrt.
Was jetzt den ULP GeForce betrifft und sein "Alter": was genau sind andere Beispiele wie SGX530 bis zu 544 oder Adreno bis zu Adreno225 wenn nicht der gleiche Brei mit mehr Einheiten und hoeheren Frequenzen? Ich sehe nichts fundamental anderes zwischen der ULP GF in Tegra1 bis zu Tegra3; dass es technische Unterschiede gibt ist ein Punkt der die Basis Architekturen unter OGL_ES2.0 betrifft und nicht was jeglicher SoC Hersteller pro Jahr bzw. Generation vorstellt.
Lange Geschichte kurz: bei NV kochen die engineers auch nur mit Wasser egal ob hw oder sw engineers.
/edit: Außerdem müsste man sehen, was A9 maximal auf 40nm ergibt. Zwar hat TI 1,8GHz angekündigt, aber ob das gut gehen wird...
Legitimer Gedankensprung da OMAP4460 nicht mit den versprochenen 1.5GHz angekommen ist sondern lediglich 1.2GHz fuer den Anfang. TI hat aber die Tendenz konstant pro OMAP Variante mit Frequenzen zu spielen.
Archos will ja bald die 1.5GHz OMAP4460 Tablets nachreichen; ergo laeuft hier dann in dem Tablet der CPU block in einem turbo modus.
Fuer OMAP4470 sollte es man als bis zu 1.8GHz verstehen.
Und zu Tegra 3 GPU: nVidia gibt eine Leistungssteigerung von 3x im Egypt-Test an. Das wären dann ca. 60 FPS. iPad 2 wäre da auch nur noch 45% schneller und das iPhone 4S ca. 25%.
In welchem Egypt Test genau?
Schnellster T2 ist das Asus Transformer TF101: http://www.glbenchmark.com/phonedetails.jsp?D=Asus+Eee+Pad+Transformer+TF101&benchmark=glpro21
Falls es 720p offscreen waere, dann erreicht hier das vorige 29.5 fps * 3 = 88.5 fps ergo theoretisch quasi Gleichstand mit dem iPad2.
Nochmal die fruehen geleakten Resultate zeigten 53fps in Egypt 720 offscreen. Im Vergleich zum obrigen ist es eine Leistungssteigerung von 1.8x und bei hypothetischen 60fps dann glatte 2.0x Mal aber nicht mehr.
Ausser sie meinen den Egypt standard Test, wo es dank vsync nie selbst glatte 60fps sein koennen und in dem Fall waere es ein Steigerung gegenueber dem TF101 von ~2.7x Mal und hoehere Leistung als das iPad2 selber dank hoeherer Aufloesung auf dem Prime.
john carmack
2011-11-09, 15:59:20
gilt es denn als gesichert das der Tegra 4 ein 8Core Chip sein wird?
Hugo78
2011-11-09, 16:11:47
gilt es denn als gesichert das der Tegra 4 ein 8Core Chip sein wird?
Für 8 kerne ist es bei T4 sicher noch etwas früh.
LovesuckZ
2011-11-09, 16:15:13
Wayne wird wohl 4x A15-Core mit DX10-fähiger GPU werden.
Und die chancen dass diese chips wieder mal sparsamer sind und praktisch auch in vielen punkten schneller stehen gar nicht mal so schlecht.
Falsch. Es gibt zwar keine Benchmarks vom Prime, aber zur Zeit sieht es klar danach aus, dass nVidia mit minimal höhreren CPU-Verbrauch 2x+ schneller gegenüber der Konkurrenz geworden ist.
Und das sie schneller werden, muss sich erstmal zeigen. Viele HP-Anwendungen sind nämlich schon Multithread optimiert und profitieren von mehr als 2 Kernen. Die Konkurrenz muss also nicht nur die 1,4/1,3GHZ des 1./2. Cores überbieten, sie müssen auch den Nachteil der geringeren Kernanzahl überwinden.
Ailuros
2011-11-09, 16:29:35
Für 8 kerne ist es bei T4 sicher noch etwas früh.
Kommt drauf an was man unter "Kernen" genau versteht. Bei hypothetischen 4*A15 cores ist man nicht allzu weit entfernt von 8*A9 Leistung. Sonst da NV auch vector lanes als "cores" zaehlen will, heisst die eigentliche Antwort dass alleine die ULP GF im T3 schon 12 "cores" hat ;D
Deinorius
2011-11-09, 16:31:50
Gibt es Informationen, wie groß die Die-Fläche von T3 ist?
deekey777
2011-11-09, 16:32:44
Gibt es Informationen, wie groß T3 ist?
http://www.anandtech.com/show/5072/nvidias-tegra-3-launched-architecture-revealed
Like Tegra 2 before it, NVIDIA's Tegra 3 is an SoC aimed at both smartphones and tablets built on TSMC's 40nm LPG process. Die size has almost doubled from 49mm^2 to somewhere in the 80mm^2 range.
Deinorius
2011-11-09, 16:38:34
Ah, hab ich auch ungefähr geschätzt. (Wenn auch mit einem Fehler in der Rechnung...)
Ailuros
2011-11-09, 16:42:43
Falsch. Es gibt zwar keine Benchmarks vom Prime, aber zur Zeit sieht es klar danach aus, dass nVidia mit minimal höhreren CPU-Verbrauch 2x+ schneller gegenüber der Konkurrenz geworden ist.
Bei "bis zu" koennte man sogar unter bestimmten Eckfaellen zustimmen. Kurz Tegra3 ist ein SoC der sich mit den 2012 SoCs der gesamten Konkurrenz schlagen wird. Dieses bunte Marketing-Zeug von 2x, 3x, 5x, 10x mal schneller gibt es heutzutage von jeder Ecke und wenn man eine Ahnung von marketing hat weiss man es auch zu verstehen.
Und das sie schneller werden, muss sich erstmal zeigen. Viele HP-Anwendungen sind nämlich schon Multithread optimiert und profitieren von mehr als 2 Kernen. Die Konkurrenz muss also nicht nur die 1,4/1,3GHZ des 1./2. Cores überbieten, sie müssen auch den Nachteil der geringeren Kernanzahl überwinden.
Nach allen Indizien werden sich SoC Hersteller in Zukunft mehr in Richtung niedrigere active power richten.
Wie dem auch sei fuer ein Tablet (und natuerlich um N groessere Aufloesungen) kann ich den Zug zu mehr processing power (egal ob jetzt 4*A9 oder 2*A15 oder was noch) voll verstehen. Jedoch bei smart-phones und den eher begrenzten Aufloesungen will ich erstmal ueberzeugt werden dass ein quad-core im Durschnitt auch wirklich einen so grossen Unterschied bringen wird. Tablets werden garantiert nicht bei 720p bleiben in 2012 egal von welcher Ecke; bei einem smart-phone kann ich mir persoenlich aber mehr als 720p schwer vorstellen ausser natuerlich jemand ist es wurscht ein Handy mit Schuhgroesse 42 herumzuschleppen.
LovesuckZ
2011-11-09, 16:46:53
Bei "bis zu" koennte man sogar unter bestimmten Eckfaellen zustimmen. Kurz Tegra3 ist ein SoC der sich mit den 2012 SoCs der gesamten Konkurrenz schlagen wird. Dieses bunte Marketing-Zeug von 2x, 3x, 5x, 10x mal schneller gibt es heutzutage von jeder Ecke und wenn man eine Ahnung von marketing hat weiss man es auch zu verstehen.
Natürlich handelt es sich bei einer Multicore-Architektur immer um "bis zu". Je nach Anwendung. Aber wenn wir hier von "schneller" reden, meinen wir bestimmt nicht die Videowiedergabe oder das Lesen von eBooks.
Wie dem auch sei fuer ein Tablet (und natuerlich um N groessere Aufloesungen) kann ich den Zug zu mehr processing power (egal ob jetzt 4*A9 oder 2*A15 oder was noch) voll verstehen. Jedoch bei smart-phones und den eher begrenzten Aufloesungen will ich erstmal ueberzeugt werden dass ein quad-core im Durschnitt auch wirklich einen so grossen Unterschied bringen wird. Tablets werden garantiert nicht bei 720p bleiben in 2012 egal von welcher Ecke; bei einem smart-phone kann ich mir persoenlich aber mehr als 720p schwer vorstellen ausser natuerlich jemand ist es wurscht ein Handy mit Schuhgroesse 42 herumzuschleppen.
Processing-Power ist vollkommen unabhängig von der Auflösung. Internetsurfen, Imagaprocessing, Videoeditierung, Spiele etc. Es gibt keinen Unterschied zwischen Smartphones und Tablets.
Und wenn ich schon so argumentiere: Wozu braucht man bitte A5 GPU-Leistung?
Hugo78
2011-11-09, 16:56:23
Sonst da NV auch vector lanes als "cores" zaehlen will, heisst die eigentliche Antwort dass alleine die ULP GF im T3 schon 12 "cores" hat ;D
Ja, ja ... :tongue:
Ich erwarte von T4 eher eine deutlich überarbeitet GPU.
Bucklew hatte sowas auch schon mal angedeutet.
Und CPU seitig, mit Blick af ARMs "big.LITTLE" Dings eher, dass man das vielleicht schon übernimmt / adaptiert + dem eigenen 5. "Companion" Kern.
Wenn nicht 2*A7 + 2*A15, dann evetuell 2*A9 + 2*A15.
john carmack
2011-11-09, 17:06:41
Für 8 kerne ist es bei T4 sicher noch etwas früh.
Toll, ich find die seite nicht mehr...
Jedenfalls war da die Rede von Tegra4 mit 8Core Chip und Windows 8 und Tablets...
Leider krieg ich nicht mehr zusammen... :(
Aber der Tegar3 geht schon ab. Die Entwicklung in diesem Sektor geht auch unglaublich schnell vorran. :D wenn man das mal mit CPU/GPUs vergleicht.
Ailuros
2011-11-09, 17:17:09
Natürlich handelt es sich bei einer Multicore-Architektur immer um "bis zu". Je nach Anwendung. Aber wenn wir hier von "schneller" reden, meinen wir bestimmt nicht die Videowiedergabe oder das Lesen von eBooks.
Ich will lediglich wie auch viele den echten Durschschnitt sehen.
Processing-Power ist vollkommen unabhängig von der Auflösung. Internetsurfen, Imagaprocessing, Videoeditierung, Spiele etc. Es gibt keinen Unterschied zwischen Smartphones und Tablets.
Dann hat Grey auch keinen Grund zu seiner zukuenftigen Existenz.
Und wenn ich schon so argumentiere: Wozu braucht man bitte A5 GPU-Leistung?
Tick-tock Entwicklung; fuer eine 2048 Aufloesung dann schon.
Ja, ja ... :tongue:
Ich erwarte von T4 eher eine deutlich überarbeitet GPU.
Bucklew hatte sowas auch schon mal angedeutet.
Mit der heutigen GPU win8 anzusteuern waere so oder so ziemlich extreme Turnerei. NV embedded Kerle sind hinter den Kulissen ziemlich leicht anzusprechen ueber die Zukunft und Einzelheiten wie Halti/OpenGL_ES3.0, OpenCL etc. nur ueber den Zeitpunkt lassen sie normalerweise nichts heraus. Halti ist zwar schwer vergleichbar mit D3D, aber wenn ich mich nicht irre liegen die Vorraussetzungen etwas unter DX10.
Und CPU seitig, mit Blick af ARMs "big.LITTLE" Dings eher, dass man das vielleicht schon übernimmt / adaptiert + dem eigenen 5. "Companion" Kern.
Wenn nicht 2*A7 + 2*A15, dann evetuell 2*A9 + 2*A15.
Mehr merkwuerdige Optionen sind Dir wohl nicht eingefallen oder? :biggrin:
Wenn ich nach den Zielmaerkten fuer Wayne gehe wuerden 4*A15 mehr Sinn machen.
Toll, ich find die seite nicht mehr...
Jedenfalls war da die Rede von Tegra4 mit 8Core Chip und Windows 8 und Tablets...
Leider krieg ich nicht mehr zusammen... :(
Aber der Tegar3 geht schon ab. Die Entwicklung in diesem Sektor geht auch unglaublich schnell vorran. :D wenn man das mal mit CPU/GPUs vergleicht.
Brightsideofnews (BSN) oder von manchen als Bullshitnews (nicht ungerechtfertigt) bezeichnet.
Hugo78
2011-11-09, 17:28:08
Mehr merkwuerdige Optionen sind Dir wohl nicht eingefallen oder? :biggrin:
Wenn ich nach den Zielmaerkten fuer Wayne gehe wuerden 4*A15 mehr Sinn machen.
Naja A15 kingt nach so fies schnellen Transitoren ("bis zu 2,5Ghz"), die dann wieder fies viel Saft brauchen.
Und wenn ich die Grafik sehe A7 vs. A15.
http://pics.computerbase.de/3/7/7/4/6/2.png
Weiß nicht wie gut da die Effizienz im mittleren Taktbereich Bereich 500-1500Mhz der A15 wäre.
Zumal zwei A15 schon den jetzigen vier A9 entsprechen.
In meiner DAU Welt würde das ökonomischer/billiger/sparsamer klingen, erstmal noch 2*A9 drauf zupacken, entweder per 6*A9 oder ebend meine besagte "big.LITTLE" Kopie.
Ailuros
2011-11-09, 17:39:19
Naja A15 kingt nach so fies schnellen Transitoren ("bis zu 2,5Ghz"), die dann wieder fies viel Saft brauchen.
Und wenn ich die Grafik sehe A7 vs. A15.
http://pics.computerbase.de/3/7/7/4/6/2.png
Weiß nicht wie gut da die Effizienz im mittleren Taktbereich Bereich 500-1500Mhz der A15 wäre.
Zumal zwei A15 schon den jetzigen vier A9 entsprechen.
In meiner DAU Welt würde das ökonomischer/billiger/sparsamer klingen, erstmal noch 2*A9 drauf zupacken, entweder per 6*A9 oder ebend meine besagte "big.LITTLE" Kopie.
Das big.LITTLE Zeug ist etwas dass SoC Hersteller teilweise schon anwenden und es wird sich auch in Zukunft weiterentwickeln. Das sollte nicht heissen dass 4*A15 bei 2.0GHz nicht moeglich sein werden innerhalb 2012, eher das Gegenteil. Wenn NV heute unter 40nm schon 4*A9@1.5-1.6GHz quetschen kann sehe ich kein Problem daran dass 28nm 4 A15 Kerne mit hoeherer Frequenz und vielleicht sogar mehr als nur einem companion core schluckt.
LovesuckZ
2011-11-09, 17:58:36
Ich will lediglich wie auch viele den echten Durschschnitt sehen.
Durchschnitt? Soll wir also jetzt also Videowiedergabe mit Web-Browsing mixen, um zu sagen: Jap, ich hab's immer gewusst - QuadCores sind unnütz? :rolleyes:
Reden wir von Leistung, dann interessieren uns auch nur die Anwendungen, die Leistung benötigen. Und viele davon sind heute schon auf Multithreading ausgelegt. Außerden wird hier immer noch ignoriert, dass ich viel mehr gleichzeitig machen kann: Z.B das Downloaden von Sachen und das Surfen im Web. Oder das Ziehen von Content vom NAS und Spielen. Der Durchschnitt ist nicht definierbar, sondern abhängig vom Anwendungsprofil jedes einzelnen. Und da nVidia nun auch ein vernünftiges Power-Management implementiert hat, ist der QuadCore Verbund von T3 nur vorteilhaft.
Dann hat Grey auch keinen Grund zu seiner zukuenftigen Existenz.
Grey wird Low-End werden. Und bestimmt kein QuadCore. Wahrscheinlich 2x
A9 mit Basebandimplementierung.
Ailuros
2011-11-09, 18:28:03
Durchschnitt? Soll wir also jetzt also Videowiedergabe mit Web-Browsing mixen, um zu sagen: Jap, ich hab's immer gewusst - QuadCores sind unnütz? :rolleyes:
Ein so weit wie breiter Durchschnitt von allen moeglichen verfuegbaren Anwendungen.
Reden wir von Leistung, dann interessieren uns auch nur die Anwendungen, die Leistung benötigen. Und viele davon sind heute schon auf Multithreading ausgelegt. Außerden wird hier immer noch ignoriert, dass ich viel mehr gleichzeitig machen kann: Z.B das Downloaden von Sachen und das Surfen im Web. Oder das Ziehen von Content vom NAS und Spielen. Der Durchschnitt ist nicht definierbar, sondern abhängig vom Anwendungsprofil jedes einzelnen. Und da nVidia nun auch ein vernünftiges Power-Management implementiert hat, ist der QuadCore Verbund von T3 nur vorteilhaft.
Mir ist die Zeit nicht ausgegangen den offiziellen launch und unabhaengige Tests abzuwarten.
Grey wird Low-End werden. Und bestimmt kein QuadCore. Wahrscheinlich 2x
A9 mit Basebandimplementierung.
Grey zielt smart-phones an. Nur wenn zu dem Zeitpunkt es keine "dumb-phones" mehr geben wird, wuerde ich es als low end bezeichnen. Wie dem auch sei kann auch falsch sein aber mir wurde Grey als ganz was anderes bis jetzt beschrieben. In der Zwischenzeit denk ich mir selber aus warum es im einem Fall vorteilhaft sein soll und um einige Zeit spaeter (wo Technologien sich weiter entwickeln, ausreifen und Prozesse kleiner werden) eben nicht. Ich hab eben anscheinend den "bloeden" Eindruck dass heutiges "high end" das mainstream von morgen sein koennte.
Ailuros
2011-11-09, 20:50:50
Zwar nur ein Resultat, aber so langsam wird schon mehr einfliessen: http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro21&D=Lenovo+LePad+K2&testgroup=overall
Undertaker
2011-11-10, 10:02:36
Hat hier eigentlich schon jemand Charlies neuste Untergangshymne zu Tegra 3 gelesen? :freak: Was lässt sich denn auf sachlicher Basis zu den genannten Punkten wie z.B. den Produktionskosten sagen?
Bucklew
2011-11-10, 10:11:28
http://semiaccurate.com/2011/11/09/tegra-3-missed-performance-goals-by-wide-margins/
Jopp, armer Charlie. Bulldozer absoluter Griff ins Klo, da kann er noch soviel Schönreden wie er will und komischerweise stand da nix von 300mm² vs 200mm² beim Sandy, aber scheinbar gelten Produktionskosten nur für Nvidia ;D
Seit G80 erzählt er, dass die Chips von Nvidia zu groß, zu teuer und nicht rentabel sind. Dennoch sind die Quartalszahlen von äußeren Einflüssen bereinigt und verglichen mit der Konkurrenz sehr gut. Daher würde ich das Gelaber von Charlie als Lob empfinden :ugly:
@Zechsy: When he was working on the Inquirer, NV didn’t invite him to one of their launch parties. It was quite the scandal at the time. He never forgave them and vowed to pinch their daughter’s finger on her 15th birthday and put her to sleep forever.
Die sind wohl mit der Löschung von Kommentaren nicht sehr hinterher ;D
LovesuckZ
2011-11-10, 12:24:54
Hat hier eigentlich schon jemand Charlies neuste Untergangshymne zu Tegra 3 gelesen? :freak: Was lässt sich denn auf sachlicher Basis zu den genannten Punkten wie z.B. den Produktionskosten sagen?
Was will man dazu sagen? Viel gibt es nicht. Zu Tegra 2 steht jedoch das fest:
Umsatzbeteiligung Tegra 2: 14% (geschätzte $150 Millionen auf $1060 Umsatz) -> Firmenmarge steigt über 50%
Man kann davon ausgehen, dass die Marge von T3 wieder 50%+ betragen soll. Und da man hier den schnellsten SoC auf dem Markt hat, wird man wohl für eine Weile das auch erreichen. Die Kosten für den SoC am Gesamtprodukt sind ja auch nur gering. Ich glaube den OEMs ist es egal, ob sie $25 für Tegra 3 oder $15 für OMAP4 bezahlen, wenn der Mehrwert durch Tegra 3 ein vielfaches höher ist. Und das heißt: Höhrerer Preis und besserer Verkaufszahlen.
Zwar nur ein Resultat, aber so langsam wird schon mehr einfliessen: http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro21&D=Lenovo+LePad+K2&testgroup=overall
Mein Stock-GPU vom Transformer erreicht dort 17,7 FPS. Das wären 2,5x mehr. Im Offscreen sind es 23,2 FPS für mein Transformer, was im Grunde bei ca. 60 FPS enden sollte. Demnach wäre man hier 50% schneller als Samsungs-Mali-SoC und erreicht 70% der Leistung von A5. Das sieht für einen Computer-on-Chip doch in Relation zu den anderen Bestandteilen sehr ausgeglichen aus.
Ailuros
2011-11-10, 18:31:46
Mein Stock-GPU vom Transformer erreicht dort 17,7 FPS. Das wären 2,5x mehr. Im Offscreen sind es 23,2 FPS für mein Transformer, was im Grunde bei ca. 60 FPS enden sollte. Demnach wäre man hier 50% schneller als Samsungs-Mali-SoC und erreicht 70% der Leistung von A5. Das sieht für einen Computer-on-Chip doch in Relation zu den anderen Bestandteilen sehr ausgeglichen aus.
http://www.anandtech.com/show/4558/android-32-on-the-asus-eee-pad-transformer-tested/2
http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro21&D=Lenovo+LePad+K2&testgroup=system
Ich hab selbstverstaendlich dafuer gesorgt dass ich 3.2 gegen 3.2 vergleiche.
LovesuckZ
2011-11-10, 18:44:39
Es gab ein Update für GLBenchmark, wodurch der Score unter 3.2 runtergegangen ist.
/edit: Die Version mit Offscreen hat den Wert unter 3.2 gesenkt.
Ailuros
2011-11-10, 18:49:35
Es gab ein Update für GLBenchmark, wodurch der Score unter 3.2 runtergegangen ist.
Ich sehe immer noch 21.9fps in der Datenbank hier: http://www.glbenchmark.com/phonedetails.jsp?D=Asus+Eee+Pad+Transformer+TF101&benchmark=glpro21
Zugegeben bei community uploads ist man sich nie sicher was User genau treiben. So oder so wird es nicht allzu lange dauern bis jemand wie Anand seinen T3 review vorstellt.
***edit: http://www.fudzilla.com/processors/item/24800-28nm-wayne-tegra-4-still-slated-for-2012
Es wird zunehmend schlechter mit Fudo. Es ist schon fast eine Kunst so viele Fehler in nur ein paar Paragraphen einraeumen zu koennen.
LovesuckZ
2011-11-10, 23:25:38
Ach, Huang spoilert in der Conference Call über den "Image Processor" (->DyDim?). Klingt interessant. Als Englisch-Looser gib's morgen den Auszug aus dem Transscript.
There's a second great technology in the Tegra 3, it's called [DIAdem], and it's the ability to per pixel, per frame, per scene to modulate the backlight so quickly that we over a long period of time, reduce the amount of backlight intensity and backlight energy by nearly half. We save as much power in the backlight without changing the visual fidelity at all to save, essentially, the entire power used by our chip.
Und über den Kostenvorteil von Tegra 3:
The thing that is -- so when you compare on a device per device level, processor to processor level, it's really hard to make that comparison. However, when you compare it at the system level, Tegra 3 is about cost equivalent. It's sometimes cost advantaged relative to last generation devices, including Tegra 2. And the reason for that is because Tegra 3 is so energy efficient, that it actually reduces your bomb cost, the system bomb cost, and by a fair amount. And so variable SMP and DIAdem, our image processing technology, makes it possible for us to reduce quite a -- some $10 worth of system reduction relative to last generation, and still be higher performance, and still be longer battery life. And so I think those things, when taken into consideration, is explaining why now that people understand what Tegra 3 can do and they realize it's really the right platform to invest in going forward. The advantage of investing in Tegra 3 now is even more important when you consider the processor we have beyond it, which is the integration of Tegra and an LTE modem. All of the software effort that is invested into Tegra 3 translates directly into the mainstream products and entry-level products towards the end of next year.
http://seekingalpha.com/article/307194-nvidia-s-ceo-discusses-q3-2012-results-earnings-call-transcript?part=qanda
Ziemlich eindeutig, dass Tegra 3 nicht nur schneller ist, sondern dies auch im annährend gleichem bis besseren Verbrauch erreicht.
/edit: Huang über ASP von Tegra 2: Es gibt kein T2 für $15. Er ist höher.
Ich hoffe, damit ist die Sache auch beendet.
Grey zielt smart-phones an. Nur wenn zu dem Zeitpunkt es keine "dumb-phones" mehr geben wird, wuerde ich es als low end bezeichnen. Wie dem auch sei kann auch falsch sein aber mir wurde Grey als ganz was anderes bis jetzt beschrieben. In der Zwischenzeit denk ich mir selber aus warum es im einem Fall vorteilhaft sein soll und um einige Zeit spaeter (wo Technologien sich weiter entwickeln, ausreifen und Prozesse kleiner werden) eben nicht. Ich hab eben anscheinend den "bloeden" Eindruck dass heutiges "high end" das mainstream von morgen sein koennte.
Huang hat eben genau das bestätigt, was nVidia per Folien schon zeigten:
Grey ist für Low-End bis Mid-Range Smartphones. Integration mache kein Sinn für Tablets, Superphones und Clamshells (Netbooks).
Grey wird also ein relativ kleiner Chip sein. Im besten Fall Tegra 2 auf 28nm mit Icera-Modem.
Duplex
2011-11-11, 10:37:03
Gute Aussichten bei Nvidia
Umsatz & Gewinnsteigerung, 14,9 Prozent mehr Umsatz bei Tegra (http://www.computerbase.de/news/2011-11/nvidia-mit-satter-umsatz-und-gewinnsteigerung/)
Ailuros
2011-11-11, 15:08:55
/edit: Huang über ASP von Tegra 2: Es gibt kein T2 für $15. Er ist höher.
Ich hoffe, damit ist die Sache auch beendet.
Nur wenn man allem was Huang behauptet blindlings glauben schenken will. Ich auf jeden Fall nicht.
Huang hat eben genau das bestätigt, was nVidia per Folien schon zeigten:
Grey ist für Low-End bis Mid-Range Smartphones. Integration mache kein Sinn für Tablets, Superphones und Clamshells (Netbooks).
Grey wird also ein relativ kleiner Chip sein. Im besten Fall Tegra 2 auf 28nm mit Icera-Modem.
Grey ist fuer knapp Ende 2012 projeziert (stets wenn alles nach Plan laeuft); ich kann mir nicht vorstellen dass ein T2 zu dem Zeitpunkt irgend einen Vorteil gegenueber der Konkurrenz haben wuerde. Ein weiterer Gedanke waere der windows phone Siegel auf NV's eigener roadmap.
LovesuckZ
2011-11-11, 16:32:47
Nur wenn man allem was Huang behauptet blindlings glauben schenken will. Ich auf jeden Fall nicht.
Natürlich glaubt man dem CEO einer Firma in diesem Fall eher als einem Menschen im Internet. Die Frage ist, wieso glaubst du nicht demjenigen, der direkt an der Quelle sitzt?
Grey ist fuer knapp Ende 2012 projeziert (stets wenn alles nach Plan laeuft); ich kann mir nicht vorstellen dass ein T2 zu dem Zeitpunkt irgend einen Vorteil gegenueber der Konkurrenz haben wuerde. Ein weiterer Gedanke waere der windows phone Siegel auf NV's eigener roadmap.
DualCore A9 gibt es erst seit 9 Monaten und meisten noch im High-End. Wir reden hier von Geräte, die man für wohl weniger als $200 ohne Vertrag kaufen kann.
Ailuros
2011-11-11, 19:04:30
Natürlich glaubt man dem CEO einer Firma in diesem Fall eher als einem Menschen im Internet. Die Frage ist, wieso glaubst du nicht demjenigen, der direkt an der Quelle sitzt?
Weil er schon immer dafuer beruehmt war zu uebertreiben, ueberhaupt wenn es zu jeglicher finanzieller Zahl kommt. Weiss der Geier was er wieder zusammegerechnet hat. Wieso ist es ueberhaupt so wichtig?
DualCore A9 gibt es erst seit 9 Monaten und meisten noch im High-End. Wir reden hier von Geräte, die man für wohl weniger als $200 ohne Vertrag kaufen kann.
Wir reden hier nach wie vor mainstream bzw meinetwegen lower end smart-phones. Versuchen wir es mal anders: bis vor kurzem glaubte ich immer noch NV's road-map die deutlich Wayne als 2x Mal so schnell als SoC im Vergleich zu T3 einzeichnet. Auf der Basis ja macht ein Grey auf T2 Basis vollkommen Sinn da Wayne im Vergleich zum originalen T2 einen theoretischen 10x Unterschied hat. Grey wuerde dann dank 28nm eine anstaendige Frequenz-steigerung bekommen und der Unterschied schrumpft noch ein bisschen.
Wenn ich jetzt Bucklew glauben schenken soll (wieso auch nicht?) dann ist Wayne ein ganz anderes Tier als man sich bisher vorstellen konnte. Ich hab nichts dagegen sogar einen quad A15 in Wayne und eines um einiges faehigere GPU (so in etwa GF9 ALUs und ja wenn man fuer die ALUs theoretisch HP Transistoren benutzt dann ist hotclock auch nicht auszuschliessen da es selbst Vivante schon anwendet). Ich ueberlass es jedermans Phantasie was daraus werden koennte, wobei es sich fast zum gleichen Zeitpunkt nur um 2 SoCs handelt (Wayne und Grey) und ich soll glauben dass der eine ein Gigant sein wird und der andere ein alberner Furz im Vergleich zu diesem.
Deinorius
2011-11-12, 00:36:38
Ich hab nichts dagegen sogar einen quad A15 in Wayne und eines um einiges faehigere GPU.
Was anderes als Quad A15 klingt doch eher unwahrscheinlich (inkl. Companion-Core als A9 500 MHz - mehr ist heute nicht notwendig, ich sehe keinen Grund das auszubauen, außer vielleicht eine etwas höhere Taktfrequenz). Die Möglichkeiten sind gegeben.
LovesuckZ
2011-11-12, 02:06:26
Wayne wird mindesten Quadcore. Huang hat sich dazu deutlich geäußert:
We all have different perspectives on when new technology could be adopted in the marketplace. And we felt that last year was the year of the dual core processor. And dual core processors are dual core processors. It's been done.
http://seekingalpha.com/article/307194-nvidia-s-ceo-discusses-q3-2012-results-earnings-call-transcript?part=qanda
Ende 2012 sollte nVidia 3 SoCs für ihr Lineup präsentiert haben:
Kal-El+ - kann nur 28nm Refresh sein - Midrange wie Tegra 2 heute
Wayne - High-End
Grey - Low-End mit Icera-Modem.
Bucklew
2011-11-12, 12:40:21
Weil er schon immer dafuer beruehmt war zu uebertreiben, ueberhaupt wenn es zu jeglicher finanzieller Zahl kommt. Weiss der Geier was er wieder zusammegerechnet hat. Wieso ist es ueberhaupt so wichtig?
Trommeln gehört ja auch zum Geschäft und zu nem guten CEO ;)
Zumal wenn ich mir die Finanzzahlen anschaue die hinten herauskomme und mal mit AMD vergleiche, dann scheinen die Kosten/Verkaufspreiskalkulationen sich aber eher mit den Aussagen von Huang als mit denen von z.B. Charlie zu decken.
Wenn ich jetzt Bucklew glauben schenken soll (wieso auch nicht?) dann ist Wayne ein ganz anderes Tier als man sich bisher vorstellen konnte.
Du hast ne PN ;)
Ailuros
2011-11-13, 18:18:34
Wayne wird mindesten Quadcore. Huang hat sich dazu deutlich geäußert:
http://seekingalpha.com/article/307194-nvidia-s-ceo-discusses-q3-2012-results-earnings-call-transcript?part=qanda
Ende 2012 sollte nVidia 3 SoCs für ihr Lineup präsentiert haben:
Kal-El+ - kann nur 28nm Refresh sein - Midrange wie Tegra 2 heute
Wayne - High-End
Grey - Low-End mit Icera-Modem.
Ja nur ist Takt fuer Takt ein dual A15 um einiges besser als ein quad A9. Dass quad A15 fuer Wayne mehr Sinn macht ist klar da die meisten anderen SoCs der Konkurrenz noch auf 2*A15 sein werden.
Was anderes als Quad A15 klingt doch eher unwahrscheinlich (inkl. Companion-Core als A9 500 MHz - mehr ist heute nicht notwendig, ich sehe keinen Grund das auszubauen, außer vielleicht eine etwas höhere Taktfrequenz). Die Möglichkeiten sind gegeben.
Ich persoenlich wuensche mir nach wie vor eine bessere Balance zwischen CPU + GPU, fixed function hw, und all dem anderem Drum und dran in einem SoC. Eine relativ starke CPU mit einer relativ mittelmaessigen GPU ist genauso merkwuerdig wie eine relativ mittelmaessige CPU kombiniert mit einer relativ starken GPU.
Wenn NV jetzt brutal im GPU Bereich in Wayne nachladet, auf quad core A15 steigt, die caches um zich Male grosszuegiger ausstattet und auch auf dual channel memory steigt mit allem drum und dran kann es durchaus sein dass es sich um eine bessere Balance zwischen diversen Faktoren in Wayne handelt. Es wird zwar nicht umsonst sein trotz 28nm, aber es wird verdammt Zeit dass wir auch etwas von OpenCL endlich von NV im embedded Bereich sehen. Es bewegt sich zwar hier und da etwas aber ich hab eher das Gefuehl dass wir doch ein NVIDIA brauchen damit so manche andere etwas mehr Feuer unter ihren Hintern legen. Spaeter muessen wir irgendwann mal fuer einen OGL_ES3.0/Halti Thread sorgen. Momentan ist es noch zu frueh dafuer.
Dural
2011-11-13, 18:24:30
ist doch "klar"
Wayne = A15 Quad
Grey = A15 Dual mit halber Wayne GPU
;)
Ailuros
2011-11-13, 18:31:47
ist doch "klar"
Wayne = A15 Quad
Grey = A15 Dual mit halber Wayne GPU
;)
Die Antwort ist zwar leider nein, aber zumindest macht Deine These mehr Sinn als die von LZ :D
LovesuckZ
2011-11-13, 19:59:09
Ja nur ist Takt fuer Takt ein dual A15 um einiges besser als ein quad A9. Dass quad A15 fuer Wayne mehr Sinn macht ist klar da die meisten anderen SoCs der Konkurrenz noch auf 2*A15 sein werden.
Tegra 3 wird bei voller Auslastung ca. doppelt so schnell als Snapdragon 3 mit 1500MHz sein. Die neuen CPUs müssen also pro Takt doppelt so schnell sein, um mit einem Quadcore mithalten zu können.
Ich persoenlich wuensche mir nach wie vor eine bessere Balance zwischen CPU + GPU, fixed function hw, und all dem anderem Drum und dran in einem SoC. Eine relativ starke CPU mit einer relativ mittelmaessigen GPU ist genauso merkwuerdig wie eine relativ mittelmaessige CPU kombiniert mit einer relativ starken GPU.
Und von welchem SoC redest du hier? Tegra 3 steigert die CPU-Leistung um bis zu 2,6x und die GPU-Leistung um bis zu 3x. Sieht wie eine lineare Steigerung zu Tegra 2 aus. Das ein ARM-SoC weitaus mehr ist als eine Grafikkarte, ist jedem klar, der sein Gerät für weitaus mehr verwendet als nur zum Spielen. Und selbst Spiele lassen sich mit mehr CPU-Leistung deutlich verbessern.
Hugo78
2011-11-13, 20:48:31
Was ist eigentlich mit dem Cortex A7?
Würde das sinnvoll sein auf Basis von A7 einen Quad zubauen?!
Zb. für Grey...
Deinorius
2011-11-13, 22:33:46
Ohne ausreichend MT-optimierte Software? :|
Da müsste man doch mit 2x A9 besser fahren. Wieviel Platz verbraucht ein A7 im Vergleich zum A9? Und wie sieht es da mit der Leistung aus?
Ailuros
2011-11-14, 14:57:20
Tegra 3 wird bei voller Auslastung ca. doppelt so schnell als Snapdragon 3 mit 1500MHz sein. Die neuen CPUs müssen also pro Takt doppelt so schnell sein, um mit einem Quadcore mithalten zu können.
Was hat Snapdragon mit Krait genau gemeinsam? Krait ist zwar kein waschreiner A15, aber bei 1.7GHz ist er schon ziemlich potent.
Und von welchem SoC redest du hier? Tegra 3 steigert die CPU-Leistung um bis zu 2,6x und die GPU-Leistung um bis zu 3x.
ULP GF bei T3 ist nur bei waschreinem pixel shading selbst nur theoretisch 3x Mal so schnell (doppelt so viel Einheiten mit 50% mehr Takt; der Rest des chips ist maximal lediglich um 50% weil sich eben an der Anzahl der Einheiten nichts geaendert hat).
Bis zu 5x Mal insgesamt schneller nach NV's Marketing-Material selber als SoC und da kannst Du es von mir aus auch als 10x Mal ausrechnen, ohne dass sich die caches und die Bandbreite steigert, heisst dass NV gerechtfertigt insgesamt in weniger Faellen mit einer vollen Auslastung aller 4 CPUs rechnet; NV teilt es selber in use cases in ihren eigenen whitepapers auf:
http://www.nvidia.com/content/PDF/tegra_white_papers/Variable-SMP-A-Multi-Core-CPU-Architecture-for-Low-Power-and-High-Performance_v1.1.pdf
Seite 9, Figure 5.
Sieht wie eine lineare Steigerung zu Tegra 2 aus. Das ein ARM-SoC weitaus mehr ist als eine Grafikkarte, ist jedem klar, der sein Gerät für weitaus mehr verwendet als nur zum Spielen. Und selbst Spiele lassen sich mit mehr CPU-Leistung deutlich verbessern.
Die Balance zwischen CPU und GPU Staerke war so oder so nicht auf dem Nivaeu dass ich persoenlich haben wuerde. Ergo hab ich zwar nichts gegen eine quasi lineare Steigerung bei T3 aber es aendert am vorigen trotzdem nichts. Die shots von T2 und von T3 gibt es, und man kann kinderleicht einschaetzen wie gross der Grafik block jeweils ist.
Ja natuerlich lassen sich Spiele mit mehr CPU Leistung verbessern, aber noch mehr mit mehr GPU Leistung. Zwischen gerade noch konkurrenzfaehig und ich kann mit einem Schlag die gesamte Konkurrenz wegfegen gibt es schon einen Unterschied, aber ich bin wohl der einzige hier der gerade von NVIDIA etwas aehnliches erwarten wuerde.
Ohne ausreichend MT-optimierte Software? :|
Da müsste man doch mit 2x A9 besser fahren. Wieviel Platz verbraucht ein A7 im Vergleich zum A9? Und wie sieht es da mit der Leistung aus?
Ich werde wohl nicht der einzige sein der windows desktop mit einer high end quad core CPU faehrt. Wenn jetzt jemand sagen wuerde dass man dort quad core nicht braucht fuer hoehere Ansprueche dann ist es natuerlich gelogen. Aber es ist eben leider so dass eine Unzahl von Applikationen immer noch in der Mehrzahl sehr stark auf single-threading beruht, eine sehr gesunde Anzahl auf dual threading (stets alles unter OS Normalverbrauch) und nur wenn man sehr extreme Faelle wie ein Spiel oder fast absurdes multi-tasking ansteuert geht es auf quad oder mehr-threading. Beim desktop hat man aber auch nicht irgendwelche Speicher bzw. Bandbreiten-Kopfschmerze und storage ist in letzer Zeit auch zich Mal effizienter geworden.
Zur eigentlichen Frage: die 5 A9 Kerne kann man im die shot von T3 genau sehen wieviel sie insgesamt einnehmen. Insgesamt viel ist es nicht; ich bleib aber dabei dass mir persoenlich stattdessen 2*A15 mit companion cores und einer staerkeren GPU lieber gewesen waeren und nein ich erwarte auch nicht dass es jemand verstehen will.
Dural
2011-11-14, 15:08:29
Die Antwort ist zwar leider nein, aber zumindest macht Deine These mehr Sinn als die von LZ :D
Und wer sagt nein ;)
Ailuros
2011-11-14, 15:29:44
http://www.fudzilla.com/notebooks/item/24836-htc-working-on-tegra-3-tablet
http://www.engadget.com/2011/11/14/exclusive-lenovo-to-release-a-10-1-inch-ice-cream-sandwich-tabl/
Deinorius
2011-11-14, 15:33:22
Zur eigentlichen Frage: [...]
Die war ja eher Quad A7 oder Dual A9/A15 für Grey. Ich hab keine Ahnung, wie potent und groß ein A7 Core sein kann. Logisch kommt mir Quad A7 auf keinen Fall vor.
LovesuckZ
2011-11-14, 15:38:55
Was hat Snapdragon mit Krait genau gemeinsam? Krait ist zwar kein waschreiner A15, aber bei 1.7GHz ist er schon ziemlich potent.
Um mit Tegra 3 mithalten zu können, muss die CPU-Leistung von Krait pro Takt doppelt so hoch sein als die von Tegra 3.
ULP GF bei T3 ist nur bei waschreinem pixel shading selbst nur theoretisch 3x Mal so schnell (doppelt so viel Einheiten mit 50% mehr Takt; der Rest des chips ist maximal lediglich um 50% weil sich eben an der Anzahl der Einheiten nichts geaendert hat).
Und das reicht vollkommen aus. Die Bandbreite beim Prime ist 2x die vom Transformers. Jegliche Einschränkung sind somit gelöst. Was auch die Texturleistung erklärt. Das K1 Pad ist 2,3x schneller als mein Transformer mit anderem Kernel und 1544Mhz im Ecypt-Test vom 2.1. Nimmt man den selben Maßstab beim Offscreen-Test, würde das K1 hier 64 FPS erreichen.
Bis zu 5x Mal insgesamt schneller nach NV's Marketing-Material selber als SoC und da kannst Du es von mir aus auch als 10x Mal ausrechnen, ohne dass sich die caches und die Bandbreite steigert, heisst dass NV gerechtfertigt insgesamt in weniger Faellen mit einer vollen Auslastung aller 4 CPUs rechnet; NV teilt es selber in use cases in ihren eigenen whitepapers auf:
http://www.nvidia.com/content/PDF/tegra_white_papers/Variable-SMP-A-Multi-Core-CPU-Architecture-for-Low-Power-and-High-Performance_v1.1.pdf
Seite 9, Figure 5.
Die drei Bereiche "faster browsing, Console-Quality-Gaming, Media Processing" sind auch die selben Bereiche, die als Anwendungen ihre Aufgaben auf mehr als 2x Threads auslagern können. Dazu ist Android selbst vollständig multithreadfähig: Man kann mit Android gleichzeitig sehr viele Aufgaben machen bzw. erleidigen lassen, dass es fatal ist anzunehmen, dass man nicht mehr als 2 CPU-Kerne benötigen würde.
Die Balance zwischen CPU und GPU Staerke war so oder so nicht auf dem Nivaeu dass ich persoenlich haben wuerde. Ergo hab ich zwar nichts gegen eine quasi lineare Steigerung bei T3 aber es aendert am vorigen trotzdem nichts. Die shots von T2 und von T3 gibt es, und man kann kinderleicht einschaetzen wie gross der Grafik block jeweils ist.
Ja natuerlich lassen sich Spiele mit mehr CPU Leistung verbessern, aber noch mehr mit mehr GPU Leistung. Zwischen gerade noch konkurrenzfaehig und ich kann mit einem Schlag die gesamte Konkurrenz wegfegen gibt es schon einen Unterschied, aber ich bin wohl der einzige hier der gerade von NVIDIA etwas aehnliches erwarten wuerde.
Man sieht an heutigen PC-Spielen, dass PC-Grafik langweilt. Physik-Effekte sind mit der größte Immersionsbringer - egal ob Gameplaybeeinflussend oder als Effekte. nVidia wird auch dank PhysX und der Kooperation mit den Entwicklern dies in mehr und mehr Tablet-Spiele umsetzen. Es wird mich nicht wundern, wenn im Jahr 2012 Tablet-Games in Bezug auf Physikimplementierungen deutlich überzeugender sind als PC/Konsolen-Spiele.
Ansonsten erwarte ich von einem Computer-on-Chip weitaus mehr als nur Grafik. Vernünftige Dekodierfähigkeiten, vernünftige CPU-Leistung, niedrigen Stromverbrauch und auch eine schnelle GPU. Wenn ich mein Tablet nur zum Spielen benutzen würde, würde ich mir eine PSP Vita kaufen.
Zur eigentlichen Frage: die 5 A9 Kerne kann man im die shot von T3 genau sehen wieviel sie insgesamt einnehmen. Insgesamt viel ist es nicht; ich bleib aber dabei dass mir persoenlich stattdessen 2*A15 mit companion cores und einer staerkeren GPU lieber gewesen waeren und nein ich erwarte auch nicht dass es jemand verstehen will.
Dann warte doch noch ein Jahr.
Ailuros
2011-11-14, 16:00:59
Um mit Tegra 3 mithalten zu können, muss die CPU-Leistung von Krait pro Takt doppelt so hoch sein als die von Tegra 3.
Geduld bis Anfang 2012. Das obrige ist so daneben dass es nicht mehr schoen ist.
Und das reicht vollkommen aus. Die Bandbreite beim Prime ist 2x die vom Transformers. Jegliche Einschränkung sind somit gelöst. Was auch die Texturleistung erklärt. Das K1 Pad ist 2,3x schneller als mein Transformer mit anderem Kernel und 1544Mhz im Ecypt-Test vom 2.1. Nimmt man den selben Maßstab beim Offscreen-Test, würde das K1 hier 64 FPS erreichen.
So wie NV die use cases beschreibt durchaus und es ihnen auch eine ziemlich gute Durchschnitts-leistung geben.
Die drei Bereiche "faster browsing, Console-Quality-Gaming, Media Processing" sind auch die selben Bereiche, die als Anwendungen ihre Aufgaben auf mehr als 2x Threads auslagern können. Dazu ist Android selbst vollständig multithreadfähig: Man kann mit Android gleichzeitig sehr viele Aufgaben machen bzw. erleidigen lassen, dass es fatal ist anzunehmen, dass man nicht mehr als 2 CPU-Kerne benötigen würde.
Mir ist die Anzahl der Kerne bei CPU relativ wurscht, im Vergleich zu den maximal moeglichen threads. Eine dual core CPU mit breiterer bzw. tieferer pipeline und wieder 4 threads waere mir lieber gewesen. Console-quality-gaming my ass, egal von wem es momentan kommt. Wir sind noch gute 2-3 Jahre von diesem Nivaeu entfernt.
Man sieht an heutigen PC-Spielen, dass PC-Grafik langweilt. Physik-Effekte sind mit der größte Immersionsbringer - egal ob Gameplaybeeinflussend oder als Effekte. nVidia wird auch dank PhysX und der Kooperation mit den Entwicklern dies in mehr und mehr Tablet-Spiele umsetzen. Es wird mich nicht wundern, wenn im Jahr 2012 Tablet-Games in Bezug auf Physikimplementierungen deutlich überzeugender sind als PC/Konsolen-Spiele.
Wir reden nochmal ueber physics wenn sich NV's Marketing Material um 180 Grad wendet bei der ersten OpenCL faehigen GPU.
Ansonsten erwarte ich von einem Computer-on-Chip weitaus mehr als nur Grafik. Vernünftige Dekodierfähigkeiten, vernünftige CPU-Leistung, niedrigen Stromverbrauch und auch schneller GPU. Wenn ich mein Tablet nur zum Spielen benutzen würde, würde ich mir eine PSP Vita kaufen.
Zumindest das letzte ist schon naeher dran was output betrifft an console quality gaming, wenn man Leistung natuerlich aussen weg laesst. Es ist aber eine handheld console und hat wohl auch nichts mit tablets bzw. smart-phones zu tun. Der PS Vita SoC hat eine quad core A9 CPU und eine quad core GPU, ergo eine ganz andere Balance zwischen CPU und GPU power.
LovesuckZ
2011-11-14, 16:15:04
Geduld bis Anfang 2012. Das obrige ist so daneben dass es nicht mehr schoen ist.
Immer noch dabei die Konkurrenz auf ein Podest zu packen?
Tegra 3 kann 4 Threads zur selben Zeit verarbeiten, DualCore-CPUs ohne HT(/etc.) nur 2. Um auf die selbe Leistung zu kommen, müssen sie mit entsprechender Taktfrequenz doppelt so schnell bei 2 Threads sein. Und das will ich erstmal sehen, nachdem Snapdragon 3 in einigen Bereichen deutlich hinter A9 zurückfällt.
So wie NV die use cases beschreibt durchaus und es ihnen auch eine ziemlich gute Durchschnitts-leistung geben.
nVidia zeigt, welche Bereiche von wievielen Kernen Benutzung findet. Logisch heißt es, wenn schon Webbrowsing mit Flash und co 2 Kerne benötigt, dass ein DualCore-Design kaum Leistung für weitere Aufgaben zur selben Zeit hat - Z.B. für das Downloaden von Sachen.
Mir ist die Anzahl der Kerne bei CPU relativ wurscht, im Vergleich zu den maximal moeglichen threads. Eine dual core CPU mit breiterer bzw. tieferer pipeline und wieder 4 threads waere mir lieber gewesen.
Durch die Größe der Kerne ist es wesentlich einfacher mehr reale Kerne zu verbauen. Und das ist auch der sinnigste Weg. Deswegen wäre ein A15-QuadCore-Verbund auch besser als nur ein DualCore-Design.
Zumindest das letzte ist schon naeher dran was output betrifft an console quality gaming, wenn man Leistung natuerlich aussen weg laesst. Es ist aber eine handheld console und hat wohl auch nichts mit tablets bzw. smart-phones zu tun. Der PS Vita SoC hat eine quad core A9 CPU und eine quad core GPU, ergo eine ganz andere Balance zwischen CPU und GPU power.
Ja und läuft nach Aussagen von Sony zwischen 3-5h. Genauso auch wie der 3DS mit 3D. Natürlich kann man viel Transistoren aufwenden, aber am Ende ergeben sich eben auch Nachteile. Und anscheinend ist bei der Vita wohl nicht der QuadCore-Verbund von ARM-Kernen für die Laufzeit verantwortlich.
fondness
2011-11-14, 16:25:18
Immer noch dabei die Konkurrenz auf ein Podest zu packen?
Tegra 3 kann 4 Threads zur selben Zeit verarbeiten, DualCore-CPUs ohne HT(/etc.) nur 2. Um auf die selbe Leistung zu kommen, müssen sie mit entsprechender Taktfrequenz doppelt so schnell bei 2 Threads sein.
Weil ja auch ein Quad-Core immer exakt doppelt so schnell ist wie ein Dual-Core.
Ailuros
2011-11-14, 16:30:07
Immer noch dabei die Konkurrenz auf ein Podest zu packen?
Nein jegliche Konkurrenz waelzt sich um und wartet bis jegliches NV ihnen ueber den Kopf trampelt. Aber Du kannst mir ja gerne Richtlinien privat rueberschicken wie ich meine Meinung genau gestalten sollte. Krait ist eine naechster Generation CPU als A9 und daher zwar noch kein voller A15 (da Eigen-entwicklung) aber nach wie vor naeher an A15 als A9. Nicht mein Fehler dass NV eben nicht unter den A15 Lead Partners fuer ARM ist.
Tegra 3 kann 4 Threads zur selben Zeit verarbeiten, DualCore-CPUs ohne HT(/etc.) nur 2. Um auf die selbe Leistung zu kommen, müssen sie mit entsprechender Taktfrequenz doppelt so schnell bei 2 Threads sein. Und das will ich erstmal sehen, nachdem Snapdragon 3 in einigen Bereichen deutlich hinter A9 zurückfällt.
Das Problem ist dass Krait nichts mit Snapdragon zu tun hat.
nVidia zeigt, welche Bereiche von wievielen Kernen Benutzung findet. Logisch heißt es, wenn schon Webbrowsing mit Flash und co 2 Kerne benötigt, dass ein DualCore-Design kaum Leistung für weitere Aufgaben zur selben Zeit hat - Z.B. für das Downloaden von Sachen.
Ich weiss Gott sei Dank wie variable SMP auf CPUs schon seit Jahren funktioniert. Dazu brauch ich NV's Tegra whitepapers bei langem nicht. Mir ist auch aus gutem Grund ein heutiger i core 3 lieber als ein voriger Intel quad core.
Durch die Größe der Kerne ist es wesentlich einfacher mehr reale Kerne zu verbauen. Und das ist auch der sinnigste Weg. Deswegen wäre ein A15-QuadCore-Verbund auch besser als nur ein DualCore-Design.
Ergo ist nach Dir Takt fuer Takt ein quad A9 besser als ein dual A15?
Ja und läuft nach Aussagen von Sony zwischen 3-5h. Genauso auch wie der 3DS mit 3D. Natürlich kann man viel Transistoren aufwenden, aber am Ende ergeben sich eben auch Nachteile. Und anscheinend ist bei der Vita wohl nicht der QuadCore-Verbund von ARM-Kernen für die Laufzeit verantwortlich.
Ein 280MHz C50 wuerde in der halben Zeit bei geringerer Leistung (wenn man alles stets auf DX9+ Niveau haelt) auslaufen. Was soll mir das ueberhaupt sagen? Der PS Vita oder jeglicher vergleichbarer SoC ist eben unter 40/45nm nicht geeignet fuer ein Tablet bzw. smart-phone. So viel sollte schon klar sein. Aber Vita muss auch =/>5 Jahre aushalten, waehrend ein tablet/smart-phone SoC nach knapp 2 Jahren schon alter Brei ist weil es andere Design-cycli gibt.
Ich hab nirgends gesagt dass heutige tablet/smart-phones SoC so gross sein sollten.
LovesuckZ
2011-11-14, 16:31:59
Weil ja auch ein Quad-Core immer exakt doppelt so schnell ist wie ein Dual-Core.
Logo. Wenn eine Aufgabe sich in vier unabhängige Threads splitten kann, dann wird man auch immer exakt doppelt so schnell sein.
Oder sprichst du auf andere Umstände an? Die existieren bei einem doppelt so so schnellem DualCore ebenso. ;)
Nein jegliche Konkurrenz waelzt sich um und wartet bis jegliches NV ihnen ueber den Kopf trampelt. Aber Du kannst mir ja gerne Richtlinien privat rueberschicken wie ich meine Meinung genau gestalten sollte. Krait ist eine naechster Generation CPU als A9 und daher zwar noch kein voller A15 (da Eigen-entwicklung) aber nach wie vor naeher an A15 als A9. Nicht mein Fehler dass NV eben nicht unter den A15 Lead Partners fuer ARM ist.
Das selbe hat Qualcomm auch über Snapdragon 3 gesagt. Und am Ende gibt es Fälle, wo sie deutlich langsamer sind. Vielleicht sollte man also erstmal Werte abseits von Marketing abwarten, bevor man hier schon den Vorteil von DuaCore-Krait erklärt?
Ich weiss Gott sei Dank wie variable SMP auf CPUs schon seit Jahren funktioniert. Dazu brauch ich NV's Tegra whitepapers bei langem nicht. Mir ist auch aus gutem Grund ein heutiger i core 3 lieber als ein voriger Intel quad core.
Ergo ist nach Dir Takt fuer Takt ein quad A9 besser als ein dual A15?
Ein heutiger i3 kann 4 Threads parallel bearbeiten. Und vorallem bei weniger Cores scheint Intel's HT einen guten Leistungszuwachs zu bringen, siehe auch die ATOM-Prozessoren. Leider handelt es sich bei Krait wohl nur eine DualCore-2Thread-CPU. Wodurch ein klarer Nachteil gegenüber einem nativen QuadCore-Krait-Prozessor entsteht. Krait und A15 müssen in DualCore-Konfigurationen so erscheinen, dass sie bei 2 Threads mindesten 90% schneller sind. Ansonsten werden sie gegenüber A9 bei 4 Threads verlieren - also vorallem in den Anwendungen, die auch viel CPU-Leistung benötigen.
Ich hab nirgends gesagt dass heutige tablet/smart-phones SoC so gross sein sollten.
Du schreibst doch, dass du von nVidia in Bezug auf die GPU-Leistung mehr erwartet hättest. Also willst du doch, dass entweder die SoCs deutlich größer werden, oder an anderen Stellen abstriche vorgenommen werden. Beides - sehr gute GPU-Leistung und sonstigen Kram - gibt es eben nicht in 80mm^2 und 40nm.
/edit: Achja, so scheint nVidia ihr Geld für Tegra 3 auch wieder reinzubekommen: Supercomputer mit Tegra 3 und Geforce: http://blogs.nvidia.com/2011/11/world%E2%80%99s-first-arm-based-supercomputer-to-launch-in-barcelona/
Ailuros
2011-11-14, 17:17:11
Das selbe hat Qualcomm auch über Snapdragon 3 gesagt. Und am Ende gibt es Fälle, wo sie deutlich langsamer sind. Vielleicht sollte man also erstmal Werte abseits von Marketing abwarten, bevor man hier schon den Vorteil von DuaCore-Krait erklärt?
Marketing gegen Marketing dann denn ausfuehrliche unabhaengige Leistungstests von T3 haben wir auch noch nicht.
Ein heutiger i3 kann 4 Threads parallel bearbeiten. Und vorallem bei weniger Cores scheint Intel's HT einen guten Leistungszuwachs zu bringen, siehe auch die ATOM-Prozessoren. Leider handelt es sich bei Krait wohl nur eine DualCore-2Thread-CPU. Wodurch ein klarer Nachteil gegenüber einem nativen QuadCore-Krait-Prozessor entsteht. Krait und A15 müssen in DualCore-Konfigurationen so erscheinen, dass sie bei 2 Threads mindesten 90% schneller sind. Ansonsten werden sie gegenüber A9 bei 4 Threads verlieren - also vorallem in den Anwendungen, die auch viel CPU-Leistung benötigen.
Bei einer jeglichen CPU Architektur bestimmt die Effizienz bzw. Endleistung eben nicht nur die Anzahl der threads. Wie dem auch sei ueberlassen wir es den ersten Echtzeit Krait-Tests in 2012.
Du schreibst doch, dass du von nVidia in Bezug auf die GPU-Leistung mehr erwartet hättest. Also willst du doch, dass entweder die SoCs deutlich größer werden, oder an anderen Stellen abstriche vorgenommen werden. Beides - sehr gute GPU-Leistung und sonstigen Kram - gibt es eben nicht in 80mm^2 und 40nm.
Exynos ist unter 45nm lediglich 51mm2 gross. Unter 32nm noch keine Ahnung, aber bei 1.5GHz dual A9 hat natuerlich T3 den CPU Vorteil wo immer alle 4 cores eingesetzt werden und sonst wird die GPU wohl analog zur Frequenz-steigerung bis zu 50% schneller.
Und ich will nicht dass NV's SoCs deutlich groesser werden, sondern dass der GPU mehr Transistoren dediziert werden. Wenn nicht ab Wayne dann eben ab Logan wird es spaetestens schon so kommen und ich will dann sehen wie sich die Marketing-Orientierung ploetzlich wenden wird.
***edit:
/edit: Achja, so scheint nVidia ihr Geld für Tegra 3 auch wieder reinzubekommen: Supercomputer mit Tegra 3 und Geforce: http://blogs.nvidia.com/2011/11/worl...-in-barcelona/
ROFL :D
LovesuckZ
2011-11-14, 17:43:01
Marketing gegen Marketing dann denn ausfuehrliche unabhaengige Leistungstests von T3 haben wir auch noch nicht.
Wir haben das Ergebnis vom Antutu-Benchmark des Transformers Prime. Der ist unabhängig. Ich werde heut abend mal mein Transformer mit 1,3GHz durchlaufen lassen.
Bei einer jeglichen CPU Architektur bestimmt die Effizienz bzw. Endleistung eben nicht nur die Anzahl der threads. Wie dem auch sei ueberlassen wir es den ersten Echtzeit Krait-Tests in 2012.
Natürlich. Ein QuadCore ist bei entsprechender Threadzahl eben immer schneller als ein DualCore. Der Dualcore muss dies mit mehr Takt oder entsprechend höhrerer Pro-Takt-Leistung ausgleichen. Laut Anandtech erreicht Krait bei 1,7GHz 72% mehr DMIPS als ein 1,3GHz A9. Es kann also sein, dass Krait mit 1,7GHz in Anwendungen, die 4 Threads verwenden können, langsamer als Tegra3@1,3GHz ist.
Exynos ist unter 45nm lediglich 51mm2 gross. Unter 32nm noch keine Ahnung, aber bei 1.5GHz dual A9 hat natuerlich T3 den CPU Vorteil wo immer alle 4 cores eingesetzt werden und sonst wird die GPU wohl analog zur Frequenz-steigerung bis zu 50% schneller.
Exynos ist 118mm^2 groß: http://www.businesswire.com/news/home/20110707006151/en/ABI-Research-Teardown-Samsung-Galaxy-II-Shows
Tegra 2 ist 49mm^2, Tegra 3 angeblich 80mm^2. Man sieht, die Unterschiede sind erheblich.
Und ich will nicht dass NV's SoCs deutlich groesser werden, sondern dass der GPU mehr Transistoren dediziert werden. Wenn nicht ab Wayne dann eben ab Logan wird es spaetestens schon so kommen und ich will dann sehen wie sich die Marketing-Orientierung ploetzlich wenden wird.
Natürlich wird in Zukunft der GPU-Anteil deutlich zunehmen. Aber bis dahin wird es noch eine Weile dauernd, weil die heutige ARM-Leistung vielleicht ausreichend, aber längst noch nicht Overkill ist.
Ailuros
2011-11-14, 17:52:06
Natürlich. Ein QuadCore ist bei entsprechender Threadzahl eben immer schneller als ein DualCore. Der Dualcore muss dies mit mehr Takt oder entsprechend höhrerer Pro-Takt-Leistung ausgleichen. Laut Anandtech erreicht Krait bei 1,7GHz 72% mehr DMIPS als ein 1,3GHz A9. Es kann also sein, dass Krait mit 1,7GHz in Anwendungen, die 4 Threads verwenden können, langsamer als Tegra3@1,3GHz ist.
DMIPs erinnert mich an die Zeit als ich noch Locken auf der Stirn hatte. Ich kann Dir leider nicht sagen was mir Anand privat ueber Krait vermittelt hat, deshalb auch meine Vorbehalte.
Exynos ist 118mm^2 groß: http://www.businesswire.com/news/home/20110707006151/en/ABI-Research-Teardown-Samsung-Galaxy-II-Shows
Tegra 2 ist 49mm^2, Tegra 3 angeblich 80mm^2. Man sieht, die Unterschiede sind erheblich.
AnarchX hatte das Bildchen vor kurzem gepostet:
http://www.4gamer.net/games/032/G003263/20111111036/SS/008.jpg
7.4mm*6.9mm = 51.06mm wenn's nicht stimmt nicht mein Fehler. 118 klingen so oder so verdammt uebertrieben ueberhaupt fuer nur dual A9 1.0GHz und eine GPU mit nur FP16 PS ALUs.
Natürlich wird in Zukunft der GPU-Anteil deutlich zunehmen. Aber bis dahin wird es noch eine Weile dauernd, weil die heutige ARM-Leistung vielleicht ausreichend, aber längst noch nicht Overkill ist.
Und wieso ist eine These so abwegig dass es einfach billiger und schneller ist hauptsaechlich momentan in den CPU Bereich zu investieren. Wie viele engineers hat denn Deiner Meinung nach das ULP GeForce team bis zu T3?
LovesuckZ
2011-11-14, 18:14:46
Und wieso ist eine These so abwegig dass es einfach billiger und schneller ist hauptsaechlich momentan in den CPU Bereich zu investieren. Wie viele engineers hat denn Deiner Meinung nach das ULP GeForce team bis zu T3?
Es ist nicht billiger gewesen. Billig wäre es, wenn sie einfach nur 2 weitere A9-Kerne gegenüber Tegra 2 eingebaut hätten. Die Veränderungen gegenüber Tegra 2 in bezug auf die CPU sind schon ziemlich stark:
5. Low-Power Kern auf anderen Transistorentypen und anderem 40nm Prozess
QuadCore-Verbund mit High-Performance Transistoren (solte das selbe sein wie bei T2)
Logik für den Wechsel zwischen LP-Kern und QuadCore-Verbund in 2ms
komplett überarbeitetes Power-Management für den QuadCore-Verbund (Power/Glock-Gating einzelner Kerne sowie komplette Deaktivierung des Verbunds)
Dagegen kann man zur Zeit folgendes über die ULP-Geforce sagen:
Verdopplung der Pixelshader (1x Vec4 -> 2x Vec4)
leichte Architekturverbesserung für mehr Leistung pro Takt
Es ist offensichtlich, dass das bloße Erweitern von Funktionseinheiten deutlich billiger ist als die Energieeffizienz zu verbessern. Es wäre wohl auch für nVidia ein leichtes die ULP-Geforce deutlich aufzubohren.
Ailuros
2011-11-14, 18:29:40
Es ist nicht billiger gewesen. Billig wäre es, wenn sie einfach nur 2 weitere A9-Kerne gegenüber Tegra 2 eingebaut hätten. Die Veränderungen gegenüber Tegra 2 in bezug auf die CPU sind schon ziemlich stark:
5. Low-Power Kern auf anderen Transistorentypen und anderem 40nm Prozess
QuadCore-Verbund mit High-Performance Transistoren (solte das selbe sein wie bei T2)
Logik für den Wechsel zwischen LP-Kern und QuadCore-Verbund in 2ms
komplett überarbeitetes Power-Management für den QuadCore-Verbund (Power/Glock-Gating einzelner Kerne sowie komplette Deaktivierung des Verbunds)
Sind alles Einzelheiten die mehr oder weniger auf SoCs schon existieren und/oder unter Entwicklung liegen. Ergo Felder wo NV und natuerlich jeglicher anderer SoC Hersteller zwangsmaessig investieren muss. Daran haette sich auch nicht viel geaendert wenn es ein hoeher getakteter dual A9 oder einfacher ein dual A15 gewesen waere. Nur ist eben der Aufwand bei einer neuen CPU Architektur groesser und auch die Lizenzgebuehren bzw. royalties hoeher als einer einfachen repeat license wie bei A9.
Dagegen kann man zur Zeit folgendes über die ULP-Geforce sagen:
Verdopplung der Pixelshader (1x Vec4 -> 2x Vec4)
leichte Architekturverbesserung für mehr Leistung pro Takt
Es ist offensichtlich, dass das bloße Erweitern von Funktionseinheiten deutlich billiger ist als die Energieeffizienz zu verbessern. Es wäre wohl auch für nVidia ein leichtes die ULP-Geforce deutlich aufzubohren.
Bleibt meine Frage: wie gross glaubst Du dass das ULP GF team bis zu T3 war. Es ist sogar ein Wunder dass sie so viel auf die Beine gestellt haben und es sind die groessten Talente in der Industrie ueberhaupt. Fuer deren Anzahl war die zweite Vec4 PS ALU sogar eine Meisterleistung.
LovesuckZ
2011-11-14, 18:36:54
Sind alles Einzelheiten die mehr oder weniger auf SoCs schon existieren und/oder unter Entwicklung liegen. Ergo Felder wo NV und natuerlich jeglicher anderer SoC Hersteller zwangsmaessig investieren muss. Daran haette sich auch nicht viel geaendert wenn es ein hoeher getakteter dual A9 oder einfacher ein dual A15 gewesen waere. Nur ist eben der Aufwand bei einer neuen CPU Architektur groesser und auch die Lizenzgebuehren bzw. royalties hoeher als einer einfachen repeat license wie bei A9.
Trotzdem musste nVidia Veränderungen vornehmen, die sie vorher noch nicht hatten, nicht im gleichem Maße oder eine Innovation benötigten. Alleine der 5. Low-Power Kern ist ein riesiger Schritt gewesen. Denn immerhin gehört dazu die komplette Logik auf Hardwarebene für das Wechseln der Informationen auf die unterschiedliche CPU-Verbunde sowie die dazugehörige Software auf OS-Ebene.
Bleibt meine Frage: wie gross glaubst Du dass das ULP GF team bis zu T3 war. Es ist sogar ein Wunder dass sie so viel auf die Beine gestellt haben und es sind die groessten Talente in der Industrie ueberhaupt. Fuer deren Anzahl war die zweite Vec4 PS ALU sogar eine Meisterleistung.
Ich habe keine Ahnung. Aber soviele können es ja anscheinend nicht sein, wenn eine Verdopplung der Pixelshader des dritten Aufgusses der GPU von Tegra 1 als Meisterleistung hingestellt wird...
Ailuros
2011-11-14, 18:46:12
Ich habe keine Ahnung. Aber soviele können es ja anscheinend nicht sein, wenn eine Verdopplung der Pixelshader des dritten Aufgusses der GPU von Tegra 1 als Meisterleistung hingestellt wird...
Und genau von dem Punkt faengt mein unendlicher Krawall ueber den GPU Block in allen bisherigen Tegras an und hoert hoffentlich beim naechsten Schub auf. Wenn sie off the record zugeben dass sie in den Bereich zu wenig investiert haben, dann ist es auch kein Zufall. Ihre typische "Selbstsicherheit" was Grafik betrifft, beruhte bis jetzt auf das sehr hohe Talent der engineers und natuerlich auf die Erfahrung und massive Groesse des Treiberteams.
Ich brauch nicht gerade Dir erklaeren was das letztere fuer OpenCL bedeuten koennte. Sie haben einen ziemlichen logischen Plan dafuer auch im Verbund zu Halti der auch IMHO voll Sinn macht. Ueber Zeitspannen reden sie natuerlich nicht; hier vertraue ich voll Bucklew sonst gibt es fuer ihn einen virtuallen Tritt in den Hintern.
LovesuckZ
2011-11-14, 19:37:13
Wir haben das Ergebnis vom Antutu-Benchmark des Transformers Prime. Der ist unabhängig. Ich werde heut abend mal mein Transformer mit 1,3GHz durchlaufen lassen.
Mit meinem 1336MHz Transformer als Vergleich - links Transformer, rechts Prime:
RAM : 1047......2129......2,03x
CPUI : 1837......3720......2,03x
CPUF : 1393......2695......1,93x
3D : 0918......1179......1,28x
3D wird wohl gegen Vsync laufen. Test 1 ist beim Transformer bei 48 FPS, Test 2 bei ca. 33 FPS.
Zur Zeit kann man davon ausgehen, dass weder der L2 Cache noch das 32bit Interface verhindern, dass T3 mit gleicher Taktfrequenz bis zu 2x schneller als T2 sein kann.
Ailuros
2011-11-14, 20:19:29
Ich traue diesem Antutu Dingsda zumindest was 3D betrifft nichts besonderes zu. Auch Egypt standard in GLBenchmark ist vsynced jedoch zeigen die ersten Lenovo T3 Resultate eine knapp 2x Steigerung. Weiss der Geier was das Ding misst. ULP GF@T3 hat eine um 50% hoehere Frequenz; selbst wenn man die zweite PS ALU theoretisch ignorieren wuerde, muesste zumindest 1.5x Mal was sowieso Bloedsinn ist denn man kann die PS ALU nicht abschalten.
Supercomputer (Projekt Mont Blanc ) mit Tegra3 und NV-GPU
http://www.heise.de/newsticker/meldung/Supercomputer-mit-ARM-Technik-1378904.html
LovesuckZ
2011-11-16, 17:33:39
Das Lenova K2 Tegra 3 Pad hat nun auch ein Offscreen-Resultat:
Ecypt: 63,1 FPS (http://www.glbenchmark.com/phonedetails.jsp).
Das iPad 2 ist 40% schneller, das iPhone 4S 15% und Mali-400 von Samsung 33% langsamer.
Nightspider
2011-11-16, 19:35:01
Klingt ziemlich schwach. :|
dildo4u
2011-11-16, 19:44:35
3 Mal schneller als Tegra 2,mit welche Takt läuft die GPU 1 Ghz?
LovesuckZ
2011-11-16, 19:46:46
Wohl 500Mhz - also 50% mehr als bei T2.
dildo4u
2011-11-16, 19:48:23
Hm das haut aber nicht hin oder 50% mehr Einheiten 50% mehr Takt und dann 3 Fache Performance.
LovesuckZ
2011-11-16, 20:18:48
Es sind doppelt soviele Pixelshader sowie ca. doppelt soviel Bandbreite. Macht 3x soviel Pixelleistung, 1,5x soviel Vertexleistung, ca. 2x die Texturleistung + ein paar % durch zusätzliche Architektoptimierungen.
Hugo78
2011-11-16, 22:21:45
Klingt ziemlich schwach. :|
Schaut aber denoch stakt aus, für so ein 1W SoC.
- http://www.youtube.com/watch?v=C30ShWQm5pI&hd=1
Und NV muss sein SoC auch noch verkaufen können in einem Markt, der deutlich mehr Mitbewerber hat als der x86.
Da zählt der Preis des SoC im Verhältnis zur Gesamtleistung, nicht das Prestige das (überall) schnellste und teuerste SoC zuhaben.
AnarchX
2011-11-17, 08:20:21
Supercomputer (Projekt Mont Blanc ) mit Tegra3 und NV-GPU
http://www.heise.de/newsticker/meldung/Supercomputer-mit-ARM-Technik-1378904.html
http://img.donanimhaber.com//images/haber/30324/nvidiategrea3sc_1a_dh_fx57.jpg
http://img.donanimhaber.com//images/haber/30324/nvidiategrea3sc_2_dh_fx57.jpg
http://www.donanimhaber.com/islemci/haberleri/Nvidia-Tegra-3-platformuyla-superbilgisayar-pazarina-giriyor.htm
Ailuros
2011-11-17, 11:33:03
http://www.glbenchmark.com/result.jsp?benchmark=glpro21&certified_only=1
63.1 fps ist nicht schlecht nur stimmt irgend etwas mit den Resultaten hier nicht da die standard test Resultate eher auf T2 Nivaeu sind. Das Geraet laeuft in 1920*1152; daher sind die standard Resultate durchaus normal.
Gegen den Transformer 101 im offscreen eine Steigerung von 2.1x.
LovesuckZ
2011-11-17, 18:37:33
Dydim:
Shifting the Color-Space.
Huang hat eben Folien gezeigt, leider nicht über den Webcast einsehbar. Mal sehen, ob nVidia noch lange wartet, bis sie es "öffenlich" machen.
Laut Huang wird Tegra 3 nie mehr Strom verbrauchen als Tegra 2. Wahrscheinlich auch dank DyDim.
LovesuckZ
2011-11-17, 20:12:35
Neues Posting, weil man endlich DiDim in Aktion sieht. Sagt willkommen zur 2. "echten" Neuheit von Tegra 3:
http://www.abload.de/thumb/1jpusb.png (http://www.abload.de/image.php?img=1jpusb.png) http://www.abload.de/thumb/281uh5.png (http://www.abload.de/image.php?img=281uh5.png) http://www.abload.de/thumb/3xnu14.png (http://www.abload.de/image.php?img=3xnu14.png) http://www.abload.de/thumb/461ui3.png (http://www.abload.de/image.php?img=461ui3.png)
Das DiDim Bild (nr.4) ist unschärfer. Aber im Bild Nr.1 sehe ich keinen Schärfeunterschied.
http://phx.corporate-ir.net/phoenix.zhtml?p=irol-eventDetails&c=116466&eventID=4241030
Hugo78
2011-11-17, 22:29:46
Hmm, müsste man mal testen.
So schaut erstmal nicht überzeugend aus, wenn wie in Bild 4 das Bild unschärfer ist, als das Original in Bild 2.
Aber es ist zumindest ein Ansatz der ausbaufähig ist.
steve.it
2011-11-18, 00:13:47
Falls noch nicht gepostet:
Erste Grafikbenchmarks von Nvidias Tegra 3 (http://www.heise.de/newsticker/meldung/Erste-Grafikbenchmarks-von-Nvidias-Tegra-3-1381018.html)
LovesuckZ
2011-11-18, 10:16:27
Hmm, müsste man mal testen.
So schaut erstmal nicht überzeugend aus, wenn wie in Bild 4 das Bild unschärfer ist, als das Original in Bild 2.
Aber es ist zumindest ein Ansatz der ausbaufähig ist.
Wenn es unschärfer wäre, kann nVidia Tegra 3 gleich in die Tonne kloppen...
Davon abgesehen verstehe ich nicht, wie nVidia mit DiDim etwas sparen würde, wenn die Leute die Helligkeit der Beleuchtung sowieso auf ein minimum reduzieren? Es gibt ein Patent von einem Asiaten, der dieses Colorshifting für Oled-Display entwickelt hat, da der Stromverbrauch abhängig von der "Helligkeit" der Farbe.
Ailuros
2011-11-18, 11:38:16
http://www.fudzilla.com/notebooks/item/24903-pc-makers-might-ditch-tablet-market
Zumindest ueber Acer bin ich mir sicher; Asus waere schon eine ziemliche Ueberraschung da sie alles andere als schlecht mit den Transformers verkaufen.
LovesuckZ
2011-11-18, 11:51:21
Das ist eine Fakemeldung von Digitimes. Niemand verlässt dem Tablet-Markt. Firmen wie RIM oder HP sind mit ihren eigenen Plattformen gescheitert. Vorallem HP sowie auch Dell werden Win8 Tablets/Slates anbieten. Asus hat doch schon gesagt, dass sie auch bei Win8 Tablets ganz vorne mitspielen wollen.
Ailuros
2011-11-18, 11:56:15
Wie ich schon sagte ueber Acer zumindest bin ich mir sicher; Asus waere eine grosse Ueberraschung. Ausser Asus werden aber schon einige das Handtuch werfen und ich sehe hier keine Falschmeldung.
LovesuckZ
2011-11-18, 11:57:48
Acer wird auch nicht den Markt verlassen. Die haben zur Zeit vier Tegra 3 Devices in Arbeit:
510, 511, 700, 701.
/edit: Asus bringt nächtes Jahr das Padphone mit Krait raus. Die haben sich zum ARM-Markt "committed".
Ailuros
2011-11-18, 12:02:46
Acer wird auch nicht den Markt verlassen. Die haben zur Zeit vier Tegra 3 Devices in Arbeit:
510, 511, 700, 701.
/edit: Asus bringt nächtes Jahr das Padphone mit Krait raus. Die haben sich zum ARM-Markt "committed".
Ab 2012, aber ich ueberlass es der Zukunft sonst verschwende ich so oder so meine Zeit mit Deiner unendlichen Rechthaberei. Kein Hersteller ist so bloed so tief in der Produktion schon fast fertige Produkte in den Abfalleimer zu kippen.
LovesuckZ
2011-11-18, 12:08:59
Stimmt. Die werden 2012 den Markt verlassen, aber vorher produzieren sie erst noch eine Tonne von nichtverkäuflichen Gütern. :rolleyes:
Man sollte sich einfach das durchlesen: http://www.netbooknews.de/54648/digitimes-pc-hersteller-ziehen-sich-2012-tabletmarkt-zurueck-netbooknews-bullshit/
Ailuros
2011-11-18, 12:20:27
Stimmt. Die werden 2012 den Markt verlassen, aber vorher produzieren sie erst noch eine Tonne von nichtverkäuflichen Gütern. :rolleyes:
Man sollte sich einfach das durchlesen: http://www.netbooknews.de/54648/digitimes-pc-hersteller-ziehen-sich-2012-tabletmarkt-zurueck-netbooknews-bullshit/
Digitimes ist nicht die einzige Seite die aehnliches in der letzten Zeit behauptet haben. Asus hat relativ gut an tablets bis jetzt verdient und es wird wohl auch in Zukunft verbessern; ganz im Gegenteil zu anderen die eben nicht so bunt verkauft haben. Wenn sich jetzt natuerlich das Blatt wendet und ein jegliches Acer verkauft weit ueber jeglichen Projektionen, dann ja wird womoeglich gar nichts eingestellt. Im Gegenfall wo ein jeglicher Hersteller nur mittelmaessig verkauft ist es ein fragliches Geschaeft und dabei ist es wurscht ob der Hersteller HP, RIM, Acer oder was sonst noch heisst.
Gegen billige Tablets wie das Kindle Fire und dergleichen egal aus welcher Ecke wird es haarig werden und nein ein tablet dass fuer >$400 projeziert ist kann man nicht ploetzlich um 200 verkaufen. Wie "zufrieden" Jensen ist dass er den Amazon deal verloren hat kann man trotz allem sehen.
Asus ist innovativ mit ihren Produkten und ist der einzige dem ich als Hersteller eine gute Zukunft vor-spekulieren kann. Bei den anderen wird's eben fraglich. Sonst ist immer noch Samsung und SONY da die auch langfristig um zich Mal mehr sogar in content investieren koennen als jeglicher andere kleine Hersteller.
Dural
2011-11-18, 12:57:09
das ist alles nur blabla, gerade bei den Tablets verdienen die Hersteller (noch) sehr gut! schaut doch nur mal die Preise im Vergleich zu Notebooks an, der spricht bände!
das fürher oder später die Marge sinken wird ist klar, aber noch lange kein grund um auszusteigen. Da verdient man halt etwa gleich viel wie bei den Notebooks / Netbooks, wo soll da ein Problem sein?!?
Ich gehe sogar so weit und behaupte das man als PC Hersteller DUMM wäre jetzt aus dem Tablet Markt auszusteigen! Da früher oder später die Tablets den Netbooks sicher Marktanteile weg nehmen werden und man als PC Hersteller mit lehren Händen da stehen würde. Gerade auch auf Win8 bezogen, die News ist devinitiv Blödsinn...
Aber auch ich sehe ASUS, Samsung und Apple ganz weit vorne, vor dem rest.
Gipsel
2011-11-18, 13:30:57
Dydim:
Shifting the Color-Space.
Huang hat eben Folien gezeigt, leider nicht über den Webcast einsehbar. Mal sehen, ob nVidia noch lange wartet, bis sie es "öffenlich" machen.
Neues Posting, weil man endlich DiDim in Aktion sieht. Sagt willkommen zur 2. "echten" Neuheit von Tegra 3
Wie das funktioniert, habe ich Dir schon vor einiger Zeit gesagt (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8996368#post8996368).
Im Übrigen bin ich immer noch der Meinung, daß sowas eigentlich besser im Panel-Controller aufgehoben ist als im SoC. Bei Panels mit Area-LED-Backlight sitzt sowas in der Art wie gesagt sowieso schon dort drin. Und setzen sich (O)LEDs irgendwann mal durch, ist das im SoC komplett für die Katz'. Das ganze ist prinzipiell panel-spezifisch.
deekey777
2011-11-18, 13:57:35
Nur so eine Frage:
Wenn nächstes Jahr die Tablet-Blase platzt und damit kein Geld mehr zu verdienen ist, warum sollte die Produktion dann weiterlaufen?
Abgesehen von Apple und paar weiteren, hat keiner ein zweites Standbein, mit dem über die Hardware Geld verdient werden kann.
LovesuckZ
2011-11-18, 13:58:35
Wie das funktioniert, habe ich Dir schon vor einiger Zeit gesagt (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8996368#post8996368).
Im Übrigen bin ich immer noch der Meinung, daß sowas eigentlich besser im Panel-Controller aufgehoben ist als im SoC. Bei Panels mit Area-LED-Backlight sitzt sowas in der Art wie gesagt sowieso schon dort drin. Und setzen sich (O)LEDs irgendwann mal durch, ist das im SoC komplett für die Katz'. Das ganze ist prinzipiell panel-spezifisch.
Also wenn ich mir die Arbeiten über DLS (Dynamic Backlight Luminance Scaling) durchlese, ist es Panelunabhängig und benötigt nur eine anpassbare Backlight-Steuerung sowie Zugriff auf Backlight unn Displayeinstellungen. Durch die Implementierung in den SoC kann man es also im Grunde mit jedem Panel verwenden.
Auch bei OLED macht es Sinn, um eben statt richtiges Weiß eben eine kleinere Einstellungen zu wählen. Gibt ein Patent dazu.
Nur so eine Frage:
Wenn nächstes Jahr die Tablet-Blase platzt und damit kein Geld mehr zu verdienen ist, warum sollte die Produktion dann weiterlaufen?
Abgesehen von Apple und paar weiteren, hat keiner ein zweites Standbein, mit dem über die Hardware Geld verdient werden kann.
Warum sollte sie platzen? Dazu kommt, dass man eben statt Tablets Netbooks, Smartphones, Notebooks, Desktops, Spielekonsolen, Multimediaplayer... produziert.
Aber die Blase wird nicht platzen, da mit Win8 der nächste Vertreter ansteht.
Gipsel
2011-11-18, 14:11:05
Also wenn ich mir die Arbeiten über DLS (Dynamic Backlight Luminance Scaling) durchlese, ist es Panelunabhängig und benötigt nur eine anpassbare Backlight-Steuerung sowie Zugriff auf Backlight unn Displayeinstellungen. Durch die Implementierung in den SoC kann man es also im Grunde mit jedem Panel verwenden.Area-LED Backlights sehen bei jedem Panel anders aus und erfordern eine genaue Abstimmung der Intensität des Backlights in jedem Bildbereich auf den Inhalt in diesem Bildbereich. Anders funktioniert es nicht, wenn man den Vorteil der unterschiedlich dimmbaren Bildbereiche nutzen will. Und für diesen Zweck bauen die Panelhersteller eben eine auf ihr Panel abgestimmte Logik ein.
Auch bei OLED macht es Sinn, um eben statt richtiges Weiß eben eine kleinere Einstellungen zu wählen. Gibt ein Patent dazu.Und welches Backlight willst Du bei OLED-Displays dimmen? Da kannst Du höchstens die Bildschirmhelligkeit an sich an das Umgebungslicht anpassen oder sowas, aber das ist vollkommen unabhängig vom Bildinhalt.
LovesuckZ
2011-11-18, 14:17:45
Area-LED Backlights sehen bei jedem Panel anders aus und erfordern eine genaue Abstimmung der Intensität des Backlights in jedem Bildbereich auf den Inhalt in diesem Bildbereich. Anders funktioniert es nicht, wenn man den Vorteil der unterschiedlich dimmbaren Bildbereiche nutzen will. Und für diesen Zweck bauen die Panelhersteller eben eine auf ihr Panel abgestimmte Logik ein.
Das LocalDimming besser ist, steht doch außer Frage. Nur kann man bezweifel, dass dies je für kleine Displaygrößen umgesetzt wird - viel zu aufwendig und teuer. Da wird man bei Edge-Light bleiben.
Und welches Backlight willst Du bei OLED-Displays dimmen? Da kannst Du höchstens die Bildschirmhelligkeit an sich an das Umgebungslicht anpassen oder sowas, aber das ist vollkommen unabhängig vom Bildinhalt.
Es geht doch einfach darum herauszufinden, ob man mit weniger "Helligkeit" einen sehr, sehr ähnlichen Bildeindruck erreicht. Ich habe darüber vor einem Monat gelesen.
Ailuros
2011-11-18, 15:10:38
Warum sollte sie platzen?
So leicht werden tablets nicht platzen. Die Frage ist lediglich fuer welche Hersteller es sich lohnt oder nicht weiter in tablets zu investieren. Acer ist ja nicht gerade ein Hersteller der von tablets abhaengig ist. Zwar ein bloedes Beispiel aber wer kann den Erfolg von ultrabooks momentan garantieren? Haengt alles vom Verbraucher selber ab.
Dazu kommt, dass man eben statt Tablets Netbooks, Smartphones, Notebooks, Desktops, Spielekonsolen, Multimediaplayer... produziert.
Aber die Blase wird nicht platzen, da mit Win8 der nächste Vertreter ansteht.
Sicher nun ist z.B. Acer eben nicht in allen beteiligt.
LovesuckZ
2011-11-18, 15:19:30
So leicht werden tablets nicht platzen. Die Frage ist lediglich fuer welche Hersteller es sich lohnt oder nicht weiter in tablets zu investieren. Acer ist ja nicht gerade ein Hersteller der von tablets abhaengig ist. Zwar ein bloedes Beispiel aber wer kann den Erfolg von ultrabooks momentan garantieren? Haengt alles vom Verbraucher selber ab.
Da Acer und Co nicht davon abhängigen sind, haben sie alle Zeit der Welt. Die werden also den Markt nicht verlassen, weil sie nicht plötzlich mehr Tablets als alle anderen PCs verkaufen.
Sicher nun ist z.B. Acer eben nicht in allen beteiligt.
Acer produziert sogar Smartphones und hat früher PDAs hergestellt. Asus kommt in Q1 mit einem Telefon auf den Markt. Beide Firmen haben die Ressourcen, dass sie in andere Bereiche wachsen können.
Ailuros
2011-11-18, 15:36:37
Acer produziert sogar Smartphones und hat früher PDAs hergestellt.
Mit welchem Erfolg fuer die ersten und welche Projektionen fuer die Zukunft und wieso wurden gerade PDAs eingestellt?
Asus kommt in Q1 mit einem Telefon auf den Markt.
Wenn Du Dich auf das padphone beziehen solltets (hoechstwahrscheinlich) dann ist es ein sehr innovatives Produkt. So innovativ wie Asus in solchen Bereichen ist eben Acer leider nicht.
Beide Firmen haben die Ressourcen, dass sie in andere Bereiche wachsen können.
Wo immer sich ein Geschaeft sich nicht lohnen wird wird es irgendwann zeitlich eingestellt. Wenn man im Gegenfall auf Projekte besteht als Hersteller die nicht genug bringen wird man langfristig auch keine Resourcen mehr im Ueberschuss haben.
Gipsel
2011-11-18, 15:51:30
Das LocalDimming besser ist, steht doch außer Frage. Nur kann man bezweifel, dass dies je für kleine Displaygrößen umgesetzt wird - viel zu aufwendig und teuer. Da wird man bei Edge-Light bleiben.Es geht um den grundsätzlichen Fakt, daß die Technik im Prinzip abhängig von der Kennlinie des Backlights und auch der Kennlinie der LCD-Maske oder eben im Zweifelsfall von der Bauart des Panels (area-LED-Backlight) ist. Nur bei (genauer) Kenntnis beider kann man das möglichst Optimale erreichen. Und diese sind nunmal von Panel zu Panel unterschiedlich und bei anderen bzw. neuartigen Paneltechnologien kann man das Schema entweder gar nicht oder nur eingeschränkt einsetzen. Deswegen sollte m.M. derjenige, der diese Faktoren am besten kennt (der Panelhersteller), das für ein Panel optimieren.
Und bezüglich der OLED-Panels:
Es geht doch einfach darum herauszufinden, ob man mit weniger "Helligkeit" einen sehr, sehr ähnlichen Bildeindruck erreicht. Ich habe darüber vor einem Monat gelesen.
Das Prinzip funktioniert bei einem OLED-Panel überhaupt nicht. Bei "normalen" Panels wird die endgültige Helligkeit eines Pixels von 2 gegenläufigen Faktoren beeinflußt: Der Helligkeit des Backlights (kostet viel Strom) und der Abschwächung in der LCD-Maske (kostet wenig Strom). Das Ziel ist es also, möglichst den gleichen Bildeindruck, d.h. für jeden Pixel die gleiche Helligkeit mit weniger Stromverbrauch zu erzielen, also das Backlight möglichst dunkel zu stellen und durch die LCD-Maske möglichst viel Licht zu lassen (statt das Backlight heller und dann stärker abzuschwächen).
Und genau das ist für OLED-Displays vollkommen belanglos, da die (sehr kleinen) LEDs das Licht für jeden einzelnen Subpixel direkt erzeugen, da wird nichts mehr abgeschwächt. Wenn eine gewisse Helligkeit für einen Pixel gewünscht wird, erzeugt die LED von vornherein nur genau diese Helligkeit. Da existiert einfach keine Optimierungsmöglichkeit mehr. Ein OLED-Display weist von vornherein den für den Bildeindruck nötigen minimalen Stromverbrauch auf.
dildo4u
2011-11-18, 15:54:46
Das subventionierte 200€ Tab wird in Europa erstmal keine Rolle spielen,da Amazon und co erstmal das Ökosystem an den Start bringen müssen,damit sich das ganze finanzieren lässt.Bei den ganzen verschiedenen Märkten in der EU und den zig Film,Musik Studios mit denen für jedes Land extra verhandelt werden muss vergeht da noch viel Zeit.Ziehmlich unwahrscheinlich das Acer da in näster Zeit,Samsung und Asus das Feld überlässt.
Hugo78
2011-11-18, 16:00:32
Ich würd mich jetzt auch nicht in überflüssige "Marktforschung" verrennen.
Das der "blinde" Hype um Tablets vorrüber ist, war schon mit Blick auf auf die Zahlen des iPad 2 klar.
Aber, es wird immer einen mobilen Bereich geben und NV wird Tegra hierfür anbieten.
Egal ob Handys, Tablets, Netbooks/clientPCs und eventuell irgendwann mal auch für Notebooks,
wenn das Segment dann nicht von größeren Nvidia ARM based CPUs/SoCs übernommen wird.
LovesuckZ
2011-11-18, 16:50:27
Es geht um den grundsätzlichen Fakt, daß die Technik im Prinzip abhängig von der Kennlinie des Backlights und auch der Kennlinie der LCD-Maske. Nur bei (genauer) Kenntnis beider kann man möglichst optimale Erreichen. Und diese sind nunmal von Panel zu Panel unterschiedlich und bei anderen bzw. neuartigen Paneltechnologien kann man das Schema entweder gar nicht oder nur eingeschränkt einsetzen. Deswegen sollte derjenige, der das am besten kennt (der Panelhersteller) für ein Panel optimieren.
Ich verstehe hier ehrlich dein Problem nicht. Ob nun nVidia die Arbeit übernimmt, oder der Panelhersteller sich einen Image Processor kauf, ist doch vollkommen belanglos. In beiden Fällen müssen die Werte des Panels für den Processor bekannt sein. Und dann rate mal, wo sich die Logik bei einem Smartphone und Tablet befinden wird, richtig: Auf der Platine als zusätzlicher Prozessor. Da gibt es keinen Gewinn oder Verlust.
Und bezüglich der OLED-Panels:
Das Prinzip funktioniert bei einem OLED-Panel überhaupt nicht. Bei "normalen" Panels wird die endgültige Helligkeit eines Pixels von 2 gegenläufigen Faktoren beeinflußt: Der Helligkeit des Backlights (kostet viel Strom) und der Abschwächung in der LCD-Maske (kostet wenig Strom). Das Ziel ist es also, möglichst den gleichen Bildeindruck, d.h. für jeden Pixel die gleiche Helligkeit mit weniger Stromverbrauch zu erzielen, also das Backlight möglichst dunkel zu stellen und durch die LCD-Maske möglichst viel Licht zu lassen (statt das Backlight heller und dann stärker abzuschwächen).
Und genau das ist für OLED-Displays vollkommen belanglos, da die (sehr kleinen) LEDs das Licht für jeden einzelnen Suppixel direkt erzeugen, da wird nichts mehr abgeschwächt. Wenn eine gewisse Helligkeit für einen Pixel gewünscht wird, erzeugt die LED von vornherein nur genau diese Helligkeit. Da existiert einfach keine Optimierungsmöglichkeit mehr (ein OLED-Display weist von vornherein den für den Bildeindruck nötigen minimalen Stromverbrauch auf).
OLED hat dafür andere Probleme. Z.B. der Verbrauch bei hohem Weißanteil soviele grellen Farben. Deswegen werden Techniken, wie der Verbrauch in solchen verringert werden kann ohne großartig das Bild zu verändern, auch schon entwickelt und patentiert: http://www.patentstorm.us/applications/20110134125/description.html
Gipsel
2011-11-18, 17:33:27
Ich verstehe hier ehrlich dein Problem nicht. Ob nun nVidia die Arbeit übernimmt, oder der Panelhersteller sich einen Image Processor kauf, ist doch vollkommen belanglos. In beiden Fällen müssen die Werte des Panels für den Processor bekannt sein. Und dann rate mal, wo sich die Logik bei einem Smartphone und Tablet befinden wird, richtig: Auf der Platine als zusätzlicher Prozessor. Da gibt es keinen Gewinn oder Verlust.Wenn der Panelhersteller das macht, dann kann man halbwegs sicher sein, daß das für das Panel optimal funktioniert. Wenn das im SoC sitzt, kann man das nicht, weil das Verfahren notgedrungen suboptimal (weil nicht genau auf das Panel abgestimmt) sein wird.
OLED hat dafür andere Probleme. Z.B. der Verbrauch bei hohem Weißanteil soviele grellen Farben. Deswegen werden Techniken, wie der Verbrauch in solchen verringert werden kann ohne großartig das Bild zu verändern, auch schon entwickelt und patentiert: http://www.patentstorm.us/applications/20110134125/description.htmlSo, und jetzt erkläre mir mal, wie man das Verfahren in einem SoC integrieren will. Die gehen dort auch davon aus, daß das im Panelcontroller gemacht wird, da ja jedes Panelmodell eine etwas andere Charakteristik besitzt und daher unterschiedliche "color conversion tables" genutzt werden müssen.
Mal ganz davon abgesehen, wäre es bei einem OLED-Display das einfachste Mittel, die Helligkeit des Bildes etwas zu reduzieren. Dieser Kram mit Anpassung der Farben dürfte nicht so viel extra bringen (wenn es kaum feststellbar sein soll) und hat eben den Nachteil, zusätzlich die Farben zu verfälschen. Wenn man ein weißes Rechteck angezeigt haben will, gibt es nur eine Möglichkeit ein weißes Rechteck in der geforderten Helligkeit anzuzeigen. Es mag vielleicht etwas energiesparender sein, ein leicht gelbstichiges Rechteck anzuzeigen oder noch energiesparender die Farben gewissermaßen zu dithern (abwechselnd rote, grüne und blaue Pixel statt weiße Pixel, mit rot/grün/blauen Subpixeln auf einem Drittel der Helligkeit wie bei einfarbigen Pixeln), aber das verfälscht entweder die Farbwiedergabe mehr oder weniger deutlich oder reduziert die effektive Auflösung. So oder so sind die Funktionen dafür besser im Panelcontroller aufgehoben, da sie z.B. auch von so Feinheiten wie der Anordnung der Subpixel (die sich zwischen verschiedenen Panels unterscheiden können) abhängig sind.
LovesuckZ
2011-11-18, 17:46:52
Wenn der Panelhersteller das macht, dann kann man halbwegs sicher sein, daß das für das Panel optimal funktioniert. Wenn das im SoC sitzt, kann man das nicht, weil das Verfahren notgedrungen suboptimal (weil nicht genau auf das Panel abgestimmt) sein wird.
Ach komm, das ist echt nur vorgeschben. Das Verfahren benötigt nur die Informationen über das Panel. Alles andere läuft auf einem Vergleich mit dem Orginal-Frame hinaus. Ein Panel-Hersteller ist dafür genauso gut oder schlecht geeignet wie jede Drittfirma. Am Ende sind die Informationen aufgrund der Kalibrierung des Displays sowieso in der Firmware abgespeichert.
So, und jetzt erkläre mir mal, wie man das Verfahren in einem SoC integrieren will.
Ich meinte nicht DIESES Verfahren.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.