Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs
Ailuros
2009-10-27, 08:25:38
Da NV's PR/marketing frivol hin und herschwingt wenn es zu Tegra kommt und man sogar zu sehr optimistischen Projektionen kommt dass Tegra in der Zukunft bis zu 50% ihres Umsatzes betragen koennte, will ich mal ein paar meiner relevanten Spekulationen erwaehnen.
Offiziell sieht Tegra heute so aus:
http://www.legitreviews.com/images/reviews/718/tegra_family.jpg
http://www.legitreviews.com/article/718/1/
http://www.nvidia.com/object/product_tegra_600_us.html
http://www.nvidia.com/object/product_tegra_apx_us.html
Tegra 600 bzw. 650 sind eher fuer netbooks/MIDs gedacht (und daher highest end der Familie) und APX 2500 bzw. 2600 fuer smartphones (kleinste Varianten). Man sollte notieren dass NVIDIA hier ihre eigene SoCs herstellt und diese direkt an OEM Hersteller verkauft und konkurriert daher mit Semikonduktor Herstellern der Klasse Intel, Texas Instruments, Samsung, Renesas usw.
600 bzw. 650 basieren auf der angeblich effektiven Fuellrate.
Tegra APX can achieve:
- Over 40M triangles/sec
- Up to 600M pixels/sec
- Texture 240M pixels/sec
Run Quake 3 Arena
- 45+ fps WVGA (800 x 480)
- 8x Aniso Texture Filtering
- 5x Coverage Sampling AA
Ergo 2 TMUs * 120MHz * 2.5x overdraw = 600MPixels/s (gleiches gilt fuer "650" wenn man 130MHz als Frequenz nimmt). Ich uebersehe erstmal dass es nicht unbedingt legitim ist Overdraw bei einem IMR in die Fuellrate mitzuberechnen aber Marketing ist halt Marketing.
Das merkwuerdigste ist dass links und rechts angedeutet wird dass es sich um einen "GeForce6" Ableger handeln soll. Ich muss eine andere GF6 in Erinnerung haben denn es handelt sich um 2 PS, 2 VS Einheiten und den 2 vorerwaehnten TMUs. Hierbei handelt es sich um FP24 PS Einheiten welches erstmal jegliche OpenCL verdammt zweifelhaft macht. Ueber das Shader Model bin ich mir nicht sicher aber ich bezweifle dass es so hoch wie SM3.0 sein koennte.
Pro PS Einheit duerfte das Ding entweder ueber 8 oder 9 FLOPs/Takt faehig sein.
Das 5xCSAA ist eine Kombination von 2xMSAA und 3x CSAA samples und fuer OpenVG in Handys waere einfaches 2xMSAA wohl angebrachter.
Ein bisschen mehr Marketing-Geblubber hier fuer Tegra1:
Early-Z and fragment caching
- These are big computation and bandwidth savers
Ultra Efficient 5x Coverage Sampling Anti-Aliasing Scheme
- Mobile version of CSAA technology from GeForce
Not a tiling architecture
- Tiling works reasonably well for DX7-style content
- For DX9-style content the increased vertex and state traffic was a net loss
Not a unified architecture
- Unified hardware is a win for DX10 and compute
- For DX9-style graphics, however, non-unified is more efficient
In letzter Zeit hoert man einiges von Tegra2 welches mit allhoechster Wahrscheinlichkeit sich in der naechsten Generation von NINTENDO's handheld erscheinen wird und hab den Verdacht dass Nintendo komischerweise nicht selber einen SoC baut sondern den ganzen SoC von NVIDIA gekauft hat.
Hier NV's roadmap zu zukuenftigen Tegra Loesungen:
http://hardwarezone.com/img/data/articles/2009/2917/roadmap.jpg
http://hardwarezone.com/articles/view.php?cid=18&id=2917
Die roadmap ist mir zu optimistisch wenn es zur T3 Veroeffentlichung kommt aber es ist noch zu weit in die Zukunft gegriffen. Eine Leistungsteigerung von 4x Mal im Vergleich zu T1 nur erwaehnt man komischerweise nicht dass hier die gesamten SoCs miteinander verglichen werden und T2 einen 2*Cortex A9 ARM CPU integriert hat.
Hier gehen die Geruechte sogar so weit einen "GeForce 9" Ableger fuer Tegra 2 zu sehen. Meine Schnueffelnase aber sagt mir dass es sich um genau das gleiche Zeug wie in Tegra1 handelt nur mit mehr Einheiten. Eventuell in etwa so:
4 FP24 PS, 2 VS, 4 TMUs
Mit etwas kreativer Phantasie im besten Fall GF5 und selbst das ist grosszuegig.
"Same low power" laesst mich persoenlich nicht an mehr als sagen wir mal 300MHz fuer die GPU denken selbst unter 40nm, wenn ich von Tegra1@65LP ausgehe.
Der T3 der fuer Tegra3 steht koennte durchaus ein unified shader core auf quasi GF9 Basis sein aber keineswegs GT200 relevant (wo zum Henker soll bei der bis jetzt verbrauchten die area noch double precision reinpassen?) und schon gar nicht manche GF100 feuchte Traeume die ich gelegentlich lese.
Alles in allem hat NVIDIA keine schlechte Chancen fuer den eingebetteten Markt erstens weil sie vielleicht mit der Herstellung konstant frueher ankommen als jeglicher andere Konkurrent und weil sie vielleicht in der Zukunft eine bessere sw Unterstuetzungen bieten koennten als jegliche andere Loesung. Allein der Nintendo Deal (Nintendo DS verkaufte ueber 110M Einheiten bis heute) betraegt einen ziemliche fetten Batzen an Umsatz aber es ist auch der groesste Vertrag ueberhaupt und kann nie und nimmer die Haelfte ihres Umsatzes erreichen.
My 2 cents gentlemen ;)
LovesuckZ
2009-10-27, 10:29:29
Jon Peddie (http://www.jonpeddie.com/back-pages/comments/if-a-dog-ever-caught-a-truck-what-would-he-do-with-it/) hat ein Bericht, indem sie die Gründe angeben, warum Unternehmen in diesen Markt gehen. Und bei spekulierten 10 - 15 Milliarden jährlichen Einheiten ist es ein Markt, dem man einfach nicht ignorieren kann. Man muss einfach sehen, dass der Preiskampf im Desktop-Markt bei Grafikkarten (nicht Workstation) ihre Spuren hinterlassen hat und mit ASP von 150-200$ kein Blumentopf mehr zu gewinnen ist. Andere Märkte müssen daher von nVidia erforscht und eben auch eingetreten werden, um Verluste in den anderen Sparten zu kompensieren.
/edit: Tegra kann in sovielen unterschiedlichen Gebieten eingesetzt werden: MSI hat ein eBook Reader (http://www.slashgear.com/msi-tegra-based-ebook-reader-planned-for-2010-2761847/) für das nächste Jahr mit Tegra angekündigt.
- Over 40M triangles/sec
- Up to 600M pixels/sec
- Texture 240M pixels/sec
Mal die PSP Marketingzahlen zum Vergleich:
# Max. 33M polygons/sec
# 664M pixels/sec fill rate
In unrealistischen Momenten kann man die auf 90% erreichen.
Ailuros
2009-10-27, 14:20:54
Jon Peddie (http://www.jonpeddie.com/back-pages/comments/if-a-dog-ever-caught-a-truck-what-would-he-do-with-it/) hat ein Bericht, indem sie die Gründe angeben, warum Unternehmen in diesen Markt gehen. Und bei spekulierten 10 - 15 Milliarden jährlichen Einheiten ist es ein Markt, dem man einfach nicht ignorieren kann. Man muss einfach sehen, dass der Preiskampf im Desktop-Markt bei Grafikkarten (nicht Workstation) ihre Spuren hinterlassen hat und mit ASP von 150-200$ kein Blumentopf mehr zu gewinnen ist. Andere Märkte müssen daher von nVidia erforscht und eben auch eingetreten werden, um Verluste in den anderen Sparten zu kompensieren.
Den Grund kann wohl fast jeder verstehen nur sehe ich keine Moeglichkeit fuer bis zu 50% von NV's zukuenftigem Umsatz aus dem eingebetteten Markt und schon gar nicht wenn man gegen Giganten wie INTEL, TI, Samsung und dergleichen konkurriert.
Ich wuerde sowieso selbst mit dem Nintendo Deal keinen besonderen Gewinn aus der Tegra Sparte erwarten. IMG verkauft zwar nur IP, hat die 200M Einheiten ueberschritten insgesamt und brauchte fast 7 Jahre um erstmal zum Gewinn zu kommen. Und mach Dir auch keine merkwuerdigen Vorstellungen, NV landete den Nintendo deal nur weil sie um einen fetten Batzen den Preis reduzierten.
/edit: Tegra kann in sovielen unterschiedlichen Gebieten eingesetzt werden: MSI hat ein eBook Reader (http://www.slashgear.com/msi-tegra-based-ebook-reader-planned-for-2010-2761847/) für das nächste Jahr mit Tegra angekündigt.
Ja und? IMG's MBX wurde sogar in Tankstellen bis jetzt eingesetzt LOL.
Mal die PSP Marketingzahlen zum Vergleich:
In unrealistischen Momenten kann man die auf 90% erreichen.
Natuerlich sind die PSP Zahlen total unrealistisch. Haettest Du den ganze Text benutzt kannst Du mir ja gerne erzaehlen wie oft ein PSP krepieren wuerde wenn man auf diesem 8xAF anlegt. Von jeglichem AA reden wir wohl lieber nicht.
Wenn es um die naechste Generation von handhelds geht erwarte ich in etwa folgendes was die theoretischen GPU specs betrifft:
Nintendo "DS2":
80M Tris/s
1200MPixels/s (ohne Overdraw)
???@40G
SONY "PSP2":
280M Tris/s
8000MPixels/s (mit 2.5x Overdraw)
~20mm2@45nm
Besser so?
Avalox
2009-10-27, 15:19:14
Den Grund kann wohl fast jeder verstehen nur sehe ich keine Moeglichkeit fuer bis zu 50% von NV's zukuenftigem Umsatz aus dem eingebetteten Markt und schon gar nicht wenn man gegen Giganten wie INTEL, TI, Samsung und dergleichen konkurriert.
Man weiss ja nicht, wie Intel den zukünftigen Grafikkarten Markt einschätzt. Vielleicht liegt dieser ja viel niedriger als heute.
Es besteht das nicht ganz unrealistische Szenario, dass nVidia in nicht allzu ferner Zukunft deutlich kleinere Brötchen auf dem PC Grafikkarten Markt backen wird.
Irritierend an der Tegra Linie oben ist, dass kein Full HD tauglicher Baustein dabei ist.
Sind denn Geräte, welche man an den TV anschließt nicht ein interessantes Zielgebiet?
Ansonsten kann man natürlich auch feststellen, dass High-End Grafik und der jetzige angezielte Prozessorkern des Tegra sich doch erheblich beißen.
Ein ähnliches Produkt mit PowerPC Kern(nen) und flotterer Grafik wäre sicherlich sehr interessant.
Ailuros
2009-10-27, 18:11:08
Man weiss ja nicht, wie Intel den zukünftigen Grafikkarten Markt einschätzt. Vielleicht liegt dieser ja viel niedriger als heute.
Gott sei Dank definiert Intel den standalone GPU Markt nicht. Und von dem Punkt sind sie noch einige Lichtjahre entfernt.
Es besteht das nicht ganz unrealistische Szenario, dass nVidia in nicht allzu ferner Zukunft deutlich kleinere Brötchen auf dem PC Grafikkarten Markt backen wird.
Kann keiner ausschliessen und es waere auch eine Erklaerung fuer relevante bloede Aussagen ueber den Umsatz vom eingebetteten Markt. Sie haben es auch in der Zwischenzeit eingesehen dass es nicht gerade die kluegste Aussage war und nehmen es langsam wieder zurueck.
Irritierend an der Tegra Linie oben ist, dass kein Full HD tauglicher Baustein dabei ist.
Sind denn Geräte, welche man an den TV anschließt nicht ein interessantes Zielgebiet?
http://www.anandtech.com/tradeshows/showdoc.aspx?i=3494&p=7
Duerfte auch durchaus auf Tegra moeglich sein, ich bin jetzt nur zu faul ein relevantes netbook zu suchen.
Ansonsten kann man natürlich auch feststellen, dass High-End Grafik und der jetzige angezielte Prozessorkern des Tegra sich doch erheblich beißen.
NVIDIA hat das Problem dass sie Tegra nicht von Grund auf fuer den eingebetteten Markt entwickelt haben und hier ist die Skalierung eben von oben nach unten problematisch da der Abstand zu gross ist. Solche eingebettete GPUs sind nichtdestominder Winzlinge und man sollte auch nicht zu viel von diesen erwarten.
PowerVR's groesster einzelner SGX Kern ist SGX545 mit D3D10.1 Komplianz und duerfte unter 45nm etwa 7 mm2 gross sein. Ich hab noch keine die Groessen fuer Tegra aber darunter liegen sie (selbst mit weniger Funktionalitaeten) sicher nicht.
Ein ähnliches Produkt mit PowerPC Kern(nen) und flotterer Grafik wäre sicherlich sehr interessant.
PowerVR SGX543 skaliert bis zu 16 cores auf einem SoC mit linearer Skalierung.
Ailuros
2009-11-19, 12:10:56
Ein relevanter Artikel von Eurogamer:
http://www.eurogamer.net/articles/digitalfoundry-ds2-vs-psp2-article
Daredevil
2009-11-19, 14:54:43
Wäre es eigentlich möglich das im zukünftigen IPhone ein Tegra sein Zuhause findet?
Der ZuneHD hat ja bereits so ein Ding intus und ist recht bezahlbar,sollte ja auch schneller sein als die vorhandene Grafikeinheit im IPhone, oder?
Weil das IPhone entwickelt sich ja solangsam zu einer Spielekonsole neben den anderen Dingen und zudem könnte das Ding doch auch bestimmt Flash beschleunigen ( Falls es denn mal implementiert wäre ).
Ailuros
2009-11-19, 15:09:49
Wäre es eigentlich möglich das im zukünftigen IPhone ein Tegra sein Zuhause findet?
Der ZuneHD hat ja bereits so ein Ding intus und ist recht bezahlbar,sollte ja auch schneller sein als die vorhandene Grafikeinheit im IPhone, oder?
Weil das IPhone entwickelt sich ja solangsam zu einer Spielekonsole neben den anderen Dingen und zudem könnte das Ding doch auch bestimmt Flash beschleunigen ( Falls es denn mal implementiert wäre ).
Wieso soll Tegra1 schneller sein? Wie dem auch sei hier hast Du die Ankuendigung fuer den Apple Vertrag vom letzten Jahr:
http://www.imgtec.com/News/Release/index.asp?NewsID=392
Imagination Technologies Group plc (LSE:IMG; "Imagination") - a leader in System-on-Chip Intellectual Property ("SoC IP") - reports that, further to its announcement on 6th July 2007 of an initial license agreement with an international electronics systems company, this company has now concluded a new multi-year, multi-use license agreement which gives it access to Imagination's wide range of current and future POWERVR graphics and video IP cores.
Im September 2008 war das SGX543 multicore faehige IP noch nicht angekuendigt. In einem zukuenftigen smartphone wuerde ich nicht mehr als 2 GPU cores erwarten, aber frag eher wie schwer es selbst Tegra2 gegen dieses haben wird.
Und noch ne Kleinigkeit:
http://www.imgtec.com/corporate/newsdetail.asp?NewsID=473
Eben weil sich das iPhone zu etwas mehr als nur ein smartphone entwickeln wird, setzt Apple gerade auf die staerkere Grafik. Im Fall von den vorerwaehnten vorigen Nintendo DS2 vs. SONY PSP2 ist der Unterschied zwischen den beiden was Grafik betrifft zumindest 1:4, eben weil die PSP2 ein 4-core GPU cluster hoechstwahrscheinlich integrieren wird. Da macht wohl ein aehnliches dual-core Ding mit kleineren Frequenzen mehr Sinn als Tegra in einem zukuenftigen iPhone.
Wäre es eigentlich möglich das im zukünftigen IPhone ein Tegra sein Zuhause findet?
Der ZuneHD hat ja bereits so ein Ding intus und ist recht bezahlbar,sollte ja auch schneller sein als die vorhandene Grafikeinheit im IPhone, oder?
Weil das IPhone entwickelt sich ja solangsam zu einer Spielekonsole neben den anderen Dingen und zudem könnte das Ding doch auch bestimmt Flash beschleunigen ( Falls es denn mal implementiert wäre ).
Ein derzeitiger Tegra, wie er im Zune HD verbaut ist, wäre ein Rückschritt für das iPhone. Die Hardware im iPhone 3GS bzw. im aktuellem iPod Touch sollte einen Tegra deutlich abhängen, da Tegra eine deutlich langsameren ARM-Kern besitzt (der entspricht mehr oder weniger dem iPhone Classic).
Daredevil
2009-11-19, 21:27:37
Ui, das hätte ich jetzt so garnicht gedacht. Danke aber für die Aufklärung an euch beiden!
Bin nicht so in der Materie drin.
Ui, das hätte ich jetzt so garnicht gedacht. Danke aber für die Aufklärung an euch beiden!
Bin nicht so in der Materie drin.
Wie es natürlich im Detail aussieht, weiss ich auch nicht.
Aber man kann ja nachlesen, was für ein ARM-Kern im derzeitigem Tegra steckt. Ein Cortex A8 sollte deutlich potenter sein.
Und ob der Grafikteil im Tegra besser als der PowerVR SGX535 ist, mag ich auch nicht so recht glauben.
Jedenfalls hat Tegra einiges an Hype.... .
Ailuros
2009-11-19, 22:33:42
Wie es natürlich im Detail aussieht, weiss ich auch nicht.
Aber man kann ja nachlesen, was für ein ARM-Kern im derzeitigem Tegra steckt. Ein Cortex A8 sollte deutlich potenter sein.
Und ob der Grafikteil im Tegra besser als der PowerVR SGX535 ist, mag ich auch nicht so recht glauben.
Jedenfalls hat Tegra einiges an Hype.... .
VS liegen unter 10% im eingebetteten Markt ergo kannst Du den USC Vorteil des 535 erstmal vergessen. Sonst duerften die beiden Dinger in etwa die gleiche Frequenz haben, beide haben 2 TMUs und der PowerVR spart eben um einiges mehr an seiner Fuellrate, an Speicher und Bandbreite.
Apple hat sehr geziehlt SGX lizenziert u.a. weil sie auch stets ein sehr intensives Interesse an GPGPU hatten und haben. SGX chips haben eingebettete GPGPU Profile und Tegra 1 & 2 kannst Du wohl dank FP24 ALUs erstmal ganz vergessen fuer OpenCL.
Ailuros
2010-01-04, 15:31:54
Koennte sein dass sich etwas sehr wichtiges in diesem Feld geaendert hat.
Ja. Zumindest in Bezug auf Tegra 2 und FP24 dürfte sich neues ergeben.
Ailuros
2010-01-05, 16:22:45
Ja. Zumindest in Bezug auf Tegra 2 und FP24 dürfte sich neues ergeben.
Echt? :rolleyes:
reunion
2010-01-05, 16:37:13
Na dann rückt doch was raus Ailuros und halte uns nicht das Fleisch hin wie einen Köter.
Koennte sein dass sich etwas sehr wichtiges in diesem Feld geaendert hat.
Hugg...unser Orakel hat gesprochen... ;) ;)
loewe
2010-01-05, 18:34:54
Na dann rückt doch was raus Ailuros und halte uns nicht das Fleisch hin wie einen Köter.
LOL
Ich denke das geht nicht, das war schon "genug".
LOL
Ich denke das geht nicht, das war schon "genug".
Wieso? Hat Nvidia IMG aufgekauft um Intel in Zukunft besser erpressen zu können...LOL. ;)
loewe
2010-01-05, 20:12:03
Wieso? Hat Nvidia IMG aufgekauft um Intel in Zukunft besser erpressen zu können...LOL. ;)
Das mit dem Intel erpressen wäre sicher eine gute Idee, dan würde Intel vielleicht auch mal was für ihre Grafik tun! :biggrin:
Für ImgTec wäre ein Aufkauf durch NV aber eher nicht so gut, wobei NV sicher einen Teil der ImgTec Technologie gut gebrauchen könnte. :wink:
reunion
2010-01-05, 23:52:58
LOL
Ich denke das geht nicht, das war schon "genug".
Ich habe was ich wollte. :)
Sorkalm
2010-01-06, 00:20:04
Ich habe was ich wollte. :)
Das ist ja ne Super-Diskussionsgrundlage. :tongue:
Allerdings nur für dich...
Äääh geht das auch im klartext?
Ailuros
2010-01-06, 07:51:05
Wieso? Hat Nvidia IMG aufgekauft um Intel in Zukunft besser erpressen zu können...LOL. ;)
IMG's Aktie ist in der Zwischenzeit auf 2.5 Pfund gestiegen und wird als Firma von Analysten zum Kauf von Aktien empfohlen weil es danach aussieht dass sie fuer 2010 z.B. im Vergleich zu ARM unterwertet sein koennten.
Kurz: IMG ist trotz der Krise auf einem sehenswerten Aufschwung in 2009 gewesen und es wird auch weiterhin bergauf gehen durch 2010 mit einer Reihe noch nicht angekuendigten deals. In solch einem Fall hat IMG erstmal keinen Bock von irgend jemand aufgekauft zu werden, ergo kannst Du es gleich vergessen.
Ich kann mich zum eigentlichen Thema leider nicht weiter aeussern momentan, denn ich bin mir nichtmal sicher ob es stimmt. Es kann aber sein dass gerade das was Tegra fuer die vorhersehbare Zukunft interessant gemacht hat, auf ziemlich wackeligen Beinen steht.
AnarchX
2010-01-07, 21:19:07
Tegra 2:
* ~49mm² die size (TSMC 40LP & 260M Transistors)
* 2x1GHz Cortex-A9 (Top SKU) with 1MiB L2 Cache
* 2-3x faster 3D (4xTMU and/or higher clocks?)
* 1080p High Profile H.264 Decode (Mbps?)
* 1080p H.264 Encode (Baseline?)
* 12MP ISP (same arch as T1?)
* 32-bit LPDDR2/DDR2
http://forum.beyond3d.com/showthread.php?p=1376839#post1376839
http://www.nvidia.de/object/tegra_250_de.html
Avalox
2010-01-07, 22:36:24
Tegra 2:
Und im neuen iSlate?
nicht schlecht.
2 ARM Cortex A9 @ 1GHz = 5000 MIPS ; Link: http://www.thefreelibrary.com/Broadcom+Licenses+ARM+Cortex-A9+Multiprocessor+Technology.-a0208559280
1 ATOM N270 = 3300 MIPS ; Link: http://en.wikipedia.org/wiki/Intel_Atom
Die Rechenleistung des Tegra2 ist damit wirklich gut. Mal schauen, ob sie das auch umsetzen können
Und im neuen iSlate?
Wenn da mit ein zukünftiges Apple Tablet gemeint ist -> ich denke nein!
Gründe für meine Spekulation:
- Apple hält Anteile an Imgtec
- Wie sieht es bei Tegra 2 mit OpenCL aus?
- Apple hat für 278 Millionen $ P.A. Semi gekauft? Wofür?
(Andererseits wofür eigene CPUs zimmern, wenn der Markt schon gutes bietet? Wobei es 64 Bit ARMs noch nicht gibt).
Ich kann mich zum eigentlichen Thema leider nicht weiter aeussern momentan, denn ich bin mir nichtmal sicher ob es stimmt. Es kann aber sein dass gerade das was Tegra fuer die vorhersehbare Zukunft interessant gemacht hat, auf ziemlich wackeligen Beinen steht.
Und??
Haben sich die Gerüchte bewahrheitet? Tegra2 schaut zumindest von der Hardware her ziemlich gut aus.
nicht schlecht.
Nicht zu vergessen der deutlich geringere Stromverbrauch!
Könnte es sein, dass das iPhone 4G warscheinlich mit einem Tegra Prozessor kommt? Nach der Präsentation und die lange Bewunderung durch den Nvidia-CEO könnte es ein erstes Anzeichen sein, oder?
mfg
Könnte es sein, dass das iPhone 4G warscheinlich mit einem Tegra Prozessor kommt?
Denke nein.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7767650&postcount=29
Aber man wird sehen.
nicht schlecht.
2 ARM Cortex A9 @ 1GHz = 5000 MIPS ; Link: http://www.thefreelibrary.com/Broadcom+Licenses+ARM+Cortex-A9+Multiprocessor+Technology.-a0208559280
1 ATOM N270 = 3300 MIPS ; Link: http://en.wikipedia.org/wiki/Intel_Atom
Die Rechenleistung des Tegra2 ist damit wirklich gut. Mal schauen, ob sie das auch umsetzen können
Als ob MIPS irgendwas aussagen würden.
Boxee Box confirmed to have Tegra 2, Boxee Beta now open to all
http://www.engadget.com/2010/01/07/boxee-box-confirmed-to-have-tegra-2-boxee-beta-now-open-to-all/
-> http://www.boxee.tv/box
Boxee = Fork von XBMC
Nvidia gab für den neuen Tegra einen Verbrauch von lediglich 500 Milliwatt an. So kann auf eine aktive wie auch passive Kühlung komplett verzichtet werden, was mit dem laufenden Developer-Modell bestätigt wurde.
Quelle: Computerbase
Tegra 2 debuts, runs Unreal Engine 3
http://techreport.com/discussions.x/18254
"The new SoC purportedly allows for ten times the performance of a modern smart phone, and it draws only 500mW."
Videos
Nvidia Tegra 2 Game Demo: http://www.youtube.com/watch?v=PpGtu_ZkwqA
Nvidia Tegra 2 running Iron Man 1080p: http://www.youtube.com/watch?v=OSCAKO0gFxM
Nvidia Tegra 2 running Unreal 3 Gaming Engine: http://www.youtube.com/watch?v=uwUGB6J2fpY
Dural
2010-01-08, 02:46:54
Tegra2 scheint echt rein zuhauen :eek:
http://www.computerbase.de/news/hardware/komplettsysteme/2010/januar/nvidia_tablets_tegra-prozessor/
Ich frag mich gerade ob Windows 8 auch auf ARMs laufen wird...
Ich frag mich gerade ob Windows 8 auch auf ARMs laufen wird...
Meinst du Windows 8 oder Windows Mobile 8?
Wenn die Gerüchte zu Midori (Windows Mobile 8) stimmen, ja.
Wenn genügend Netbook-Hersteller auf Tegra setzen, dann wird wohl auch Windows 8 ARM unterstützen MÜSSEN.
Ailuros
2010-01-08, 07:21:16
Und??
Haben sich die Gerüchte bewahrheitet?
Bin mir noch nicht sicher. Wenn es stimmt handelt es sich um einen enormen Verlust und keinen Gewinn.
Tegra2 schaut zumindest von der Hardware her ziemlich gut aus.
Genauso wie erwartet.
Tegra 2 debuts, runs Unreal Engine 3
http://techreport.com/discussions.x/18254
"The new SoC purportedly allows for ten times the performance of a modern smart phone, and it draws only 500mW."
Videos
Nvidia Tegra 2 Game Demo: http://www.youtube.com/watch?v=PpGtu_ZkwqA
Nvidia Tegra 2 running Iron Man 1080p: http://www.youtube.com/watch?v=OSCAKO0gFxM
Nvidia Tegra 2 running Unreal 3 Gaming Engine: http://www.youtube.com/watch?v=uwUGB6J2fpY
10x times my ass. http://www.anandtech.com/gadgets/showdoc.aspx?i=3695
http://www.anandtech.com/gadgets/showdoc.aspx?i=3714
The GPU in Tegra 2 is the same architecture as Tegra 1 (OpenGL ES 2.0 is supported), just higher performance.
Wie gesagt: genau wie erwartet (siehe ersten Post des Threads)
NVIDIA expects a 2 - 3x performance increase thanks to improved efficiency, more memory bandwidth and a higher clock rate.
Siehe oben.
At 260M transistors, Tegra 2 is a fairly complex chip. The total die size is approximately 49mm^2, which actually sounds big given the target market.
Unter 65nm passen in 49mm2 sechs (6) SGX543 cores rein. Da die Frequenz des Tegra2 nicht uebermaessig gross sein kann (sonst waere NV auch nicht so bescheiden mit den angeblichen 2x-3x Mal Tegra2 -->Tegra1 (120MHz)) handelt es sich um einen Monster-die mit ziemlich hohem vergleichsmaessig Stromverbrauch fuer die maximale Leistung.
Multiple sources have now told me that the reason we never saw Tegra 1 in any smartphones or mainstream devices until the Zune HD was a simple case of NVIDIA arrogance. NVIDIA assumed that selling Tegra to phone manufacturers was just like selling GPUs to PC vendors, and it most definitely wasn't. It's been a long learning process, but NVIDIA appears to be better as a result.
Besser um zich Male schon im Vergleich von Tegra1 zur ersten blah-Generation von NV. Sonst aber mehr Rauch als Realitaet.
Honestly, Tegra 2 is one of the most exciting things I've seen at CES - but it's mostly because of its dual Cortex A9 cores. While I'm excited about improving 3D graphics performance on tablets and smartphones, I believe general purpose performance needs improvement. ARM's Cortex A9 provides that improvement.
The days of me pestering smartphone vendors to drop ARM11 and embrace Cortex A8 are over. It's all about A9 now. NVIDIA delivers one solution with Tegra 2, but TI's OMAP 4 will also ship with a pair of A9s.
The big unknown continues to be actual, comparable power consumption. We're also lacking measurable graphics performance compared to the PowerVR SGX cores (particularly the SGX 540).
If NVIDIA is to be believed, then Tegra 2 is the SoC to get. I suspect that's being somewhat optimistic. But rest assured that if you're buying a smartphone in 2010, it's not Snapdragon that you want but something based on Cortex A9. NVIDIA is a viable option there and we'll have to wait until Mobile World Congress next month to see if there are any promising designs based on Tegra 2.
And just in case I wasn't clear earlier, we will see the first Tegra based Android phone in 2010. I just hope it's good.
http://www.anandtech.com/gadgets/showdoc.aspx?i=3714&p=4
Bin mir noch nicht sicher. Wenn es stimmt handelt es sich um einen enormen Verlust und keinen Gewinn.
Der einzige große Deal für den Tegra2 war bisher der NDS2. Wenn Nvidia den verloren hat, dann...... Ich hoffe wirklich das meine Spekulation völlig falsch ist.
Genauso wie erwartet.
Die 2 Cortex A9 waren für mich schon eine Überraschung. Ich hatte eigentlich nur einen A8 erwartet.
Ailuros
2010-01-08, 10:52:21
Der einzige große Deal für den Tegra2 war bisher der NDS2. Wenn Nvidia den verloren hat, dann...... Ich hoffe wirklich das meine Spekulation völlig falsch ist.
Wir werden sehen...
Die 2 Cortex A9 waren für mich schon eine Überraschung. Ich hatte eigentlich nur einen A8 erwartet.
Die roadmap ist mir zu optimistisch wenn es zur T3 Veroeffentlichung kommt aber es ist noch zu weit in die Zukunft gegriffen. Eine Leistungsteigerung von 4x Mal im Vergleich zu T1 nur erwaehnt man komischerweise nicht dass hier die gesamten SoCs miteinander verglichen werden und T2 einen 2*Cortex A9 ARM CPU integriert hat.
Wie gesagt stand alles im originalen Post: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7621703&postcount=1
Ich brauchte ca. 3 Jahre die meisten Einzelheiten hier zu sammeln und natuerlich kann es sein dass es hier und da Fehler geben koennte, aber das wesentliche war schon da.
Wenn genügend Netbook-Hersteller
Ein SATA Controller ist nicht im SoC oder? USB?
Anbindungen?
reunion
2010-01-08, 10:56:58
Tegra2 scheint echt rein zuhauen :eek:
http://www.computerbase.de/news/hardware/komplettsysteme/2010/januar/nvidia_tablets_tegra-prozessor/
Das kannst du doch offensichtlich gar nicht beurteilen. Sie vergleichen mit Smartphones, die deutlich weniger Strom benötigen. Und sie vergleichen mit einem Atom ohne Videobeschleunigung. Den Vergleich mit ihrer wirklichen Konkurrenz sind sie schuldig geblieben.
stickedy
2010-01-08, 12:45:44
Und ratet mal warum? Man vergleicht sich nur direkt mit der Konkurrenz wenn man den Vergleich gewinnt ;)
Also zumindest in "Leistung pro Watt" dürften die SoCs mit Cortex A9 die Atoms böse "ownen".
Ailuros
2010-01-08, 12:58:30
Und ratet mal warum? Man vergleicht sich nur direkt mit der Konkurrenz wenn man den Vergleich gewinnt ;)
Es waere aber eine ziemlich gute Chance Intel weiterhin anzustinken ;) Denn wenn es um netbooks/MIDs geht waere es momentan ihr eigentlicher Konkurrent.
Ist den überhaupt schon bekannt wie viel ein Cortex A9 verbraucht?
Ist den überhaupt schon bekannt wie viel ein Cortex A9 verbraucht?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7763656#post7763656
mboeller
2010-01-08, 13:41:40
was auch cool ist, ist die Größe der CPUs. Die 2 Cortex A9 incl. L2 etc... 7,25 mm² (laut Arun auf Beyond3D). 1 Kern alleine hat nur 1,3 mm²
PS.: seit wann arbeitet eigentlich Rys für IMG? Ich hatte immer angenommen, das er mit Nvidia assoziiert ist.
Hmmm, nach vielen Gerüchten denke ich immer mehr, dass Apple entweder für das 2010 Iphone oder vllt. spätestens beim 2011er iPhone auf Tegra setzen wird. In letzter Zeit gab es immer wieder Gerüchte, dass das iPhone 4G 1080p Videos flüssig wiedergeben soll, was so ziemlich auf Tegra hinweist, denn ich persönlich kenne keinen Mobilprozessor in diesem Segment der das außer Tegra kann. AUch wurde die UE3 für das iPhone vorgestellt (Demo), mit exakt gleicher Grafik, sprich Effekte usw. Was denkt ihr?
mfg
Was denkt ihr?
mmmh, nein. http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7767650#post7767650
Hmmm, nach vielen Gerüchten denke ich immer mehr, dass Apple entweder für das 2010 Iphone oder vllt. spätestens beim 2011er iPhone auf Tegra setzen wird.
Und ich würde einiges darauf wetten, dass ein Tegra nicht im iPhone sein wird.
Du scheinst einige Postings einfach zu ignorieren :rolleyes:
z.B.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7767650&postcount=29
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7768024&postcount=41
(daraus insb. das Zitat von anandtech lesen).
Ailuros
2010-01-08, 15:20:01
was auch cool ist, ist die Größe der CPUs. Die 2 Cortex A9 incl. L2 etc... 7,25 mm² (laut Arun auf Beyond3D). 1 Kern alleine hat nur 1,3 mm²
PS.: seit wann arbeitet eigentlich Rys für IMG? Ich hatte immer angenommen, das er mit Nvidia assoziiert ist.
Rys war nie mit NV direkt oder indirekt asoziiert. Afaik wurde Rys erst vor kurzem in der DevRel Abteilung eingestellt obwohl ich schon seit einiger Zeit wusste da er an einem Job dort interessiert ist.
Hmmm, nach vielen Gerüchten denke ich immer mehr, dass Apple entweder für das 2010 Iphone oder vllt. spätestens beim 2011er iPhone auf Tegra setzen wird. In letzter Zeit gab es immer wieder Gerüchte, dass das iPhone 4G 1080p Videos flüssig wiedergeben soll, was so ziemlich auf Tegra hinweist, denn ich persönlich kenne keinen Mobilprozessor in diesem Segment der das außer Tegra kann. AUch wurde die UE3 für das iPhone vorgestellt (Demo), mit exakt gleicher Grafik, sprich Effekte usw. Was denkt ihr?
mfg
Gerade weil die UE3 engine zuerst auf einem SGX powered iPhone vorgestellt wurde bestehen mehr Chancen dass Apple bei ihrer langjaehrigen Lizenz mit IMG bleibt und ihren Aktienanteil in IMG auch besser ausnuetzt.
Avalox
2010-01-08, 16:30:32
Dann wird der Tegra 2 doch eher in irgendwelchen Geräten für den asiatischen Markt auftauchen, weil dort weniger Berührungsängste mit Linux herrschen.
Dann wird der Tegra 2 doch eher in irgendwelchen Geräten für den asiatischen Markt auftauchen, weil dort weniger Berührungsängste mit Linux herrschen.
Wie gesagt die D-Link Boxee Box erscheint mit Tegra 2 zumindest in den USA:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7767791&postcount=35
Sehr schönes Gerät. Erscheint hoffentlich auch hier.
Es läuft Boxee drauf (vermutlich unter Linux). Boxee basiert auf XBMC.
Dural
2010-01-08, 17:53:15
Das kannst du doch offensichtlich gar nicht beurteilen. Sie vergleichen mit Smartphones, die deutlich weniger Strom benötigen. Und sie vergleichen mit einem Atom ohne Videobeschleunigung. Den Vergleich mit ihrer wirklichen Konkurrenz sind sie schuldig geblieben.
??? NV sieht ja gerade der ATOM als konkurenz an und der TEGRA2 steht ja wohl ohne zweifel für sein einsatz gebiet sehr gut gegen den da! Sicher nicht überall aber zum grossenteil schon.
reunion
2010-01-08, 18:06:11
??? NV sieht ja gerade der ATOM als konkurenz an und der TEGRA2 steht ja wohl ohne zweifel für sein einsatz gebiet sehr gut gegen den da! Sicher nicht überall aber zum grossenteil schon.
NV vergleicht offensichtlich auch mit Smartphones, Book-Reader, etc. - das ist das Territorium von IMG. Atom ist eine x86-CPU mit Windows und Million von Programmen, der Vergleich ist mehr als problematisch.
Dural
2010-01-08, 18:49:47
Für Smartphones ist der TEGRA2 oder ATOM wohl zu gross und hat zuviel verbrauch, von dem her würde ich nicht sagen das es das ideal einsatzgebiet ist. oder wird noch ein TEGRA2 mit unter 500miliwatt kommen?
Aber zb. für Book-Reader oder Tablets ist der TEGRA2 doch ideal...
VW setzt wohl auf TEGRA:
http://www.computerbase.de/news/allgemein/2010/januar/audi_nvidia_graphics_tegra/
Dural
2010-01-08, 19:18:51
AUDI schon 2011, der rest 2012:
Die Integration von Nvidias Tegra ab 2012 betrifft auch die anderen Marken der Volkswagen AG wie Volkswagen, Bentley, Lamborghini, Seat und Skoda. Durch ihren Einsatz soll nicht nur die Leistung erheblich steigen, sondern auch der Energieverbrauch um das 10-Fache gesenkt werden.
:rolleyes:
AnarchX
2010-01-08, 20:06:45
Nochmal der korrekte Die-Shot mit Beschriftung:
http://img23.imageshack.us/img23/2939/20100108203543431528420.jpg
http://www.hkepc.com/4435
Ailuros
2010-01-09, 09:03:31
NV vergleicht offensichtlich auch mit Smartphones, Book-Reader, etc. - das ist das Territorium von IMG. Atom ist eine x86-CPU mit Windows und Million von Programmen, der Vergleich ist mehr als problematisch.
Zwar Haarspalterei aber so lange NV kein IP verkauft ist es eben nicht das Territorium von IMG sondern Intel, Apple, Samsung, TI und dergleichen.
Und Dural hat auch einen Punkt getroffen, dass Tegra2 tatsaechlich viel zu gross ist fuer smartphones. IMG verkauft heutzutage nicht nur SGX fuer diese, sondern fuer bescheidenere Handys bzw. Geraete META Co-prozessoren (fuer schnelleres browsing z.B.), VGX150 ein OpenVG only core fuer entry level Handys und dann erst geht es aufwaerts mit SGX520 (2mm2@65nm) bis zu SGX543 mit bis zu 16 cores maximal. Nebenbei kommen noch die video encoder/decoder IP cores dazu u.a. die meistens von Partnern mitlizenziert werden.
Tegra2 bewegt sich irgendwo auf SGX540/545 Nivaeu wobei es ihm aber trotz allem gewaltig an Faehigkeiten fehlt.
Fuer die laecherlichen ~10% an vertex shading die in heutigen mobilen Applikationen benutzt werden ist die um einiges hoehere theoretische VS Effizienz dank USC erstmal fast egal.
Tegra2 hat zwar 4 TMUs gegen nur 2 auf SGX54x, aber ueber rohe Fuellraten wuerde ich mir auf einem TBDR keine besondere Sorgen machen. Bereiche wie antialiasing bzw. Bandbreite beruehren wir wohl lieber auch nicht, da alles was T2 wirklich kann ist 2xMSAA + 3xCSAA.
Im arithmetischen Bereich duerfte T2 natuerlich einen Vorsprung haben, fuer den eigentlich nur ein SGX543 single core entgegen stehen koennte. Da ich aber bezweifle dass das trisetup von Tegra das liefern kann was auf Papier versprochen wird macht es mir auch keine besondere Sorgen.
Für Smartphones ist der TEGRA2 oder ATOM wohl zu gross und hat zuviel verbrauch, von dem her würde ich nicht sagen das es das ideal einsatzgebiet ist. oder wird noch ein TEGRA2 mit unter 500miliwatt kommen?
Aber zb. für Book-Reader oder Tablets ist der TEGRA2 doch ideal...
Ideal ist so eine Sache. Im IMG IP Portofolio hat ein Hersteller die Wahl zwischen DX10.1/OpenCL 1.0 im SGX545 (single core) oder niedrigere Komplianz und von 2 bis 16 cores beim SGX543 unter multi-core. Selbst mit nur 2 cores beim letzteren hat der Hersteller hier mehr Features und doppelt so viel Leistung als ein T2.
VW setzt wohl auf TEGRA:
http://www.computerbase.de/news/allgemein/2010/januar/audi_nvidia_graphics_tegra/
Das Thema mit dem PR-Blitz ueber VW wurde schonmal besprochen. Es handelt sich lediglich um eine Firma. IMG hat einen langjaehrigen Deal mit Renesas (Hitachi 55%, Mitsubishi 45%) seit MBX, wobei u.a. Kunden wie Alpine, Clarion und Pioneer bedient werden. Renesas wird sich uebrigens im April mit NEC vereinigen und wird somit Japan's groesster Chip-Hersteller (drittgroesster weltweit).
Nochmal der korrekte Die-Shot mit Beschriftung:
http://img23.imageshack.us/img23/2939/20100108203543431528420.jpg
http://www.hkepc.com/4435
Kannst Du mir vielleicht auf die Beine helfen und die die area der GPU ganz grob einschaetzen? Wenn ich es selber mache fall ich wieder auf die Nase, aber ich wuerde zumindest um die 10 Quadratmillimeter unter 40LP schaetzen.
=Floi=
2010-01-10, 09:07:10
mal zur verdeutlichung. tegra 2 besitzt:
2 cortex A9 cpus mit je einem kern?! einen alten A7 kern und der rest geht dann in die gpu?! wo kommen diese 8 kerne her?
mboeller
2010-01-10, 09:50:35
mal zur verdeutlichung. tegra 2 besitzt
2 cortex A9 cpus mit je einem kern?! einen alten A7 kern und der rest geht dann in die gpu?! wo kommen diese 8 kerne her?
siehst du doch oben in dem Bild:
- Image Signal Processor
- Video decode Processor
- Video encode Processor
- Audio Processor
- Graphics Processor
- ARM A7 CPU
- Dual Core ARM A9 CPU (werden als 2 gezählt)
macht zusammen 8 Prozessoren.
Ailuros
2010-01-10, 21:48:56
Uebrigens ich wuerde liebend gerne wissen fuer wen Samsung einen A8@1.2GHz + SGX540 herstellt (wird wohl nicht soooo schwer auszuraten sein oder?....):
The PowerVR SGX 540 is what is being used in TI's Cortex A9 SoCs, which appear to be the direct competitor to NVIDIA's Tegra 2. I spoke with Samsung about their 1.1GHz A8 SoC (now running at 1.2GHz actually), but I wasn't able to get a firm date on when we can expect A9 based silicon from them.
http://www.anandtech.com/tradeshows/showdoc.aspx?i=3719&p=2
TI's OMAP4 ist ein smartphone SoC uebrigens.
Kannst Du mir vielleicht auf die Beine helfen und die die area der GPU ganz grob einschaetzen? Wenn ich es selber mache fall ich wieder auf die Nase, aber ich wuerde zumindest um die 10 Quadratmillimeter unter 40LP schaetzen.
Als Anhaltspunkt: Die 1 MB Cache rechts oben sollten in 40nm ca 4.8mm² beanspruchen (annähernd ideale Skalierung vorrausgesetzt). Was unten links alles zur GPU gehört und was zu den umliegenden Sachen kann ich jetzt nicht genau sagen, aber wenn man ein Rechteck um den "offensichtlichen" Bereich zieht wären es 3.4mm*3.2mm= 10.8mm² bei insg. 49mm² diefläche
Was soll eigentlich der A7? :|
SuperHoschi
2010-01-11, 05:18:51
Wahrscheinlich, steuert und verwaltet er die anderen Kerne
Ailuros
2010-01-11, 07:46:35
Als Anhaltspunkt: Die 1 MB Cache rechts oben sollten in 40nm ca 4.8mm² beanspruchen (annähernd ideale Skalierung vorrausgesetzt). Was unten links alles zur GPU gehört und was zu den umliegenden Sachen kann ich jetzt nicht genau sagen, aber wenn man ein Rechteck um den "offensichtlichen" Bereich zieht wären es 3.4mm*3.2mm= 10.8mm² bei insg. 49mm² diefläche
Meine Milchmaedchen-rechnung gab mir auch etwas ueber 10mm2, ergo lag ich wohl nicht zu stark daneben. Danke auf jeden Fall.
Angesicht der 4TMUs (die 1MB cache mal zur Seite) ist die die area die die GPU braucht nicht gerade gross. Wenn man aber bedenkt dass nach IMG ein DX10.1/OpenCL1.0 SGX545 (mit 2 TMUs) nur 12.5mm2@65LP belegt, die 400MHz@45LP locker erreichen kann und die T2 Faehigkeiten ist es auch kein Weltwunder.
MuLuNGuS
2010-01-11, 08:52:43
Was soll eigentlich der A7? :|
braucht nintendo nicht immer noch einen A7 für die abwärtsgeschichten? ;)
Ailuros
2010-01-12, 08:26:42
Komischerweise scheint Rys die Verdoppelung (fast aller) Einheiten auf T2 zu bezweifeln. So wie es aussieht liegt die T2 Frequenz auf 240MHz (gegen 120MHz/T1). Bei gleicher Anzahl von Einheiten waere es zwar genug durch PR 2xMal Leistung zu behaupten aber wohl nicht 2x-3x Mal wie es NV darstellt.
Ich bleibe vorruebergehend dabei dass es sich um 4PS/2VS/4TMUs handelt und in Kombination mit 240MHz kann man auch selbst marketingtechnisch die dreifache Leistung auch gerechtfertigen.
MSI Tablet mit Tegra-2 (?)
http://www.youtube.com/watch?v=WlXg1i5dJCM
Android OS
10 Zoll Display
Quanta QV7A Tegra (2?) Tablet
http://www.youtube.com/watch?v=9ael0BNItcY
Android OS
Mobinnova Nvidia Tegra2 3D UI Demo
http://www.youtube.com/watch?v=2t53tvWtV3Y
Netbook
Wie soll Apple noch toppen? Mal abwarten...
Wie soll Apple noch toppen? Mal abwarten...
U.a. mit Multitouch-Gesten:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7776887&postcount=71
U.a. mit Multitouch-Gesten:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7776887&postcount=71
Mal abwarten. Gesten können andere auch entwickeln, nur hat Apple Patente darauf und ist mind. 1 schritt weiter. ;)
Nvidia-Powered Devices at CES Including Notion Ink Slate with Pixel Qi Screen!
http://www.youtube.com/watch?v=_Q-bw2bg7fE
Zuerst ein Tegra-Tablet
Ab 8. Minute Platine
Ab 9:30 Ink Slate (Kombinationsdisplay)
Ab 10. Minute: An -> Farbe Aus -> Schwarz-Weiss (kaum Stromverbrauch)
11:20 Video in Schwarz-Weiss unter Licht/Sonne sichtbar
11:55 Tablet geöffnet
13:00 JS Animation (Mandelbrot...)
Apple iSlate könnte in diese Richtung gehen: Tablet mit EBook-Reader Funktion.
Weitere Videos vom Tegra:
Nvidia Press Conference CES 2010 - Slates
http://www.youtube.com/watch?v=37h6mTTlw9g
Mobinnova Beam smartbook from CES 2010
http://www.youtube.com/watch?v=NMDLVdepAIs
More Tegra2 tablets at CES 2010
http://www.youtube.com/watch?v=3Y9MixEebKQ
Unreal Engine 3 na Tegra 2 (anders Video wurde gelöscht)
http://www.youtube.com/watch?v=xCTWkJRxm5E
CES: Pixel Qi's new laptop screen will soon be available
http://www.youtube.com/watch?v=2WqsatM0tWw
Also das Display sieht nicht schlecht aus, in Farbe und geringerer Verbrauch
Könnte was für Apple iSlate werden.
ICD Ultra tablet with NVIDIA Tegra 2
http://www.youtube.com/watch?v=forrNy-PPjY
Man, da gibt es ein Tegra bzw. Tegra-2 Schwemme bei CES 2010.
Welche Messe demnächst gibt es in Europa, um sich die Sachen vor Ort anzuschauen?
Ailuros
2010-02-09, 10:52:45
http://blog.linleygroup.com/2010/01/tegra-2-sets-mobile-speed-record.html
On the 3D side, Nvidia says it has doubled the performance of the initial Tegra, resulting in a peak speed of 90 million triangles per second.
Tegra1 = 2 VS@120MHz = 40M Tris/s
Tegra2 = 2 VS@240MHz
Wie man jetzt von den angeblichen 40 mit doppelter Frequenz auf 90 kommt ist ziemlich fraglich. Nicht dass T1 selbst die 40M Tris/s erreichen kann in Echtzeit aber das ist ein anderes Kapitel.
This level is well beyond the performance of any mobile processor shipping or even sampling today.
Echt?
SGX540@200MHz (65LP) = 40 MTris/s bei <50% shader load. Peak >80M Tris/s@240MHz und bei 240MHz >96M Tris/s.
Bei geschaetzten ungefaehr +/-10% an vertex shader load in heutigen mobilen Spielen ist das Ganze sowieso nebensaechlich. Bei hoeheren Werten wuerde ein USC mit jeglicher Geometrie dem T2 den Hintern versohlen dass es nicht mehr schoen ist.
Ailuros
2010-02-16, 12:22:58
http://www.semiaccurate.com/2010/02/15/windows-phone-7-unveiled/
Ailuros
2010-02-28, 15:43:34
http://www.semiaccurate.com/2010/02/15/windows-phone-7-unveiled/
Muss mich selber korrigieren; der SoC des windows phone 7 kommt von Qualcolmm.
Ailuros
2010-03-04, 07:13:40
http://forum.beyond3d.com/showpost.php?p=1401960&postcount=99
Also wondering about the devkits... Also, is anyone aware of a change of plans between nVidia and Nintendo?
IGN claims that Tegra in the DS2 is not happening according to some developers they talked to.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7752465&postcount=14
mboeller
2010-03-04, 07:23:06
http://forum.beyond3d.com/showpost.php?p=1401960&postcount=99
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7752465&postcount=14
Was ist daran jetzt neu? Du hattest das hier im Thread schon vor einigen Wochen angedeutet. Oder ist das posting auf Beyond3D jetzt für dich nur die Bestätigung für die Gerüchte die du gehört hattest.
Ailuros
2010-03-04, 08:03:39
Was ist daran jetzt neu? Du hattest das hier im Thread schon vor einigen Wochen angedeutet. Oder ist das posting auf Beyond3D jetzt für dich nur die Bestätigung für die Gerüchte die du gehört hattest.
Ich hab nie oeffentlich klar gesagt um was es sich genau handelt. Meistens wenn nicht immer warte ich nach dem ersten kryptischen hint auf den ersten oeffentlichen klareren hint ab und deute dann auf diesen damit es klarer wird.
Es handelt sich mit allerhoechster Wahrscheinlichkeit auch nicht nur um ein "Geruecht". Da ich aber stets auf Nummer Sicher gehen will, warte ich auf weitere Indizien bevor ich darauf zurueckgehe.
Bei der letzten CES plauderte Jensen mit Sweeney ueber dessen unreal port fuer Tegra. Tim antwortete mit dem erwarteten blah blah di blubber den man erwartete und ploetzlich platzte Jensen ein: "So how would you compare tegra against something like the present nintendo DS?"....und es generierte natuerlich ein ziemlich muerbes Gefuehl im Raum.
Ailuros
2010-03-10, 08:57:41
http://www.nvidia.com/object/tegra_250.html
2x 3D graphics performance of previous generation Tegra
Ergo lag ich wohl auch zu optimistisch was die Anzahl der Einheiten fuer Tegra2 betrifft.
Tegra1 = 2 PS (FP24) ALUs, 2 VS, 2 TMUs @120MHz (65LP)
Tegra2 = 2 PS (FP24) ALUs, 2 VS, 2 TMUs @240MHz (45LP)
Tegra2 =
4.32 GFLOPs PS
4.32 GFLOPs VS
480 MPixels/s
Ailuros
2010-03-12, 14:56:51
http://www.fudzilla.com/content/view/18053/1/
We however hope that Apple's next generation can do a bit better than A4, as Tegra 2 is obviously far better.
ROFL :D
Unter dem Licht im obrigen Post wohl doch nicht LOL :biggrin:
Ailuros
2010-03-22, 07:02:24
http://www.xbitlabs.com/news/mobile/display/20100318042116_Nvidia_Merges_Core_Logic_and_System_on_Chip_Development_Teams.htm l
Tarkin
2010-04-02, 11:30:38
Tegra 2 delay rumor makes the rounds, NVIDIA says 'everything's on track' (http://www.engadget.com/2010/04/01/tegra-2-delay-rumor-makes-the-rounds-nvidia-says-everythings/)
nVidias nächste Baustelle... wenn alles so "on track" ist wie bei Fermi, dann kommen die Dinger 2011
(del)
2010-04-02, 12:13:23
Tarkin welcher Tegra1 rennt bei dir nochmal?
Ailuros
2010-04-03, 08:38:40
Tegra 2 delay rumor makes the rounds, NVIDIA says 'everything's on track' (http://www.engadget.com/2010/04/01/tegra-2-delay-rumor-makes-the-rounds-nvidia-says-everythings/)
nVidias nächste Baustelle... wenn alles so "on track" ist wie bei Fermi, dann kommen die Dinger 2011
Nur ist ein SoC nicht vergleichbar mit einer high end GPU von vielen Perspektiven. Der SoC Hersteller kann eine lange Zeit fertig sein mit dem SoC und es kann leider aus vielen Gruenden mit der Integration laenger dauern als sich im gegebenen Fall NVIDIA wuenschen koennte.
Es war auch bei Tegra1 auch nicht anders und deshalb waere es auch seitens NVIDIA weisser wenn sie ihre Tegra PR generell etwas bescheidener halten wuerden.
Ailuros
2010-04-15, 11:47:46
http://www.semiaccurate.com/2010/04/14/samsung-dumps-nvidia-tegra/
http://forum.beyond3d.com/showpost.php?p=1420946&postcount=239
Ich bezweifle dass NV ueberhaupt mit SAMSUNG je verhandelt hat, aber sicher bin ich mir auch nicht. Wie dem auch sei der Artikel ist zum erbrechen mit langwierigem Bloedsinn vollgestopft. Dass die Tegra2 Situation nicht so bluehend ist wie NV's PR oder Jensen es generell beschreiben ist schon klar, es laesst aber Charlie's Scheiss auch nicht nach Rosen duften.
Label
2010-04-15, 16:15:15
Ich bezweifle dass NV ueberhaupt mit SAMSUNG je verhandelt hat, aber sicher bin ich mir auch nicht.
Schon vor einigen Wochen war doch klar, dass Samsung bei Telefonen in Zukunft auf Mali-Grafik setzen will...
http://www.heise.de/newsticker/meldung/MWC-Samsung-setzt-bei-Handy-Prozessoren-kuenftig-auf-ARM-Grafik-932018.html
Ailuros
2010-04-16, 07:22:21
Schon vor einigen Wochen war doch klar, dass Samsung bei Telefonen in Zukunft auf Mali-Grafik setzen will...
http://www.heise.de/newsticker/meldung/MWC-Samsung-setzt-bei-Handy-Prozessoren-kuenftig-auf-ARM-Grafik-932018.html
Bleibt abzusehen ob es sich um einen exclusiven Deal handelt oder ob Samsung wie viele andere Semis einfach von mehreren IP Quellen lizenzieren. Momentan hat Mali nichts dass dem zeitigen SGX540 die Brust zeigen koennte was single-core betrifft und in den Bereich multi-core (SGX543 MP) bringt es auch nichts zu gehen.
Der im Artikel erwaehnte Mali55 ist lediglich MBX Lite + VGP Material und OGL_ES1.1 GPU IP ist schon seit einiger Zeit beim phase out. Das Diagramm im Artikel zeigt sehr schoen dass Mali-400 zwar fragment processing skaliert, aber eben nicht Geometrie.
Darum geht es ja auch gar nicht. Dass die Integrierung bzw. design wins fuer Tegra2 nicht so rosig sind wie NV's PR bzw. Jensen sie beschreiben ist schon klar. Aber mit diesem einzigen Satz hat man auch die zeitige Situation auch voll beschrieben. Charlie's Artikel hat so viel zusaetzlichen Bloedsinn und Uebertreibungen dass es nicht mehr schoen ist. Und wenn's schon sein muss NVIDIA kann froh sein wenn sie mit Tegra2 eine gesunde Anzahl von tablet/netbook deals landen koennen; fuer alles was smartphones betrifft koennen sie es vergessen.
http://www.semiaccurate.com/forums/showpost.php?p=42995&postcount=22
So I have a Tegra2 dev kit & I've played with it for a while. I'm an embedded systems engineer so my perspective might be skewed a bit, but...
Tegra2 is actually a very nice chip with a mix of features that nobody else seems to provide (for instance, PCIe and dual Cortex A9). That, of course, does not mean it will be a commercial success, especially since it appears to be somewhat inconveniently positioned between phones and real computers - my impression from reading the datasheets is that it's aimed at iPad-style devices.
However, if that market does well, I would not be surprised if Tegra2 sells excellently. It really is a very nice chip technically and the software stack is quite polished - comparisons to Fermi are entirely unwarranted here.
Tarkin
2010-06-23, 10:39:05
http://hothardware.com/News/Slow-Tegra-Adoption-Could-Mean-Trouble-for-NVIDIA-/
"but NVIDIA has already quietly reduced its forecasts for Tegra revenue this year from "north of $200 million" late last year to "$25-$75 million over six-to-nine months"
Ailuros
2010-06-23, 10:58:02
http://hothardware.com/News/Slow-Tegra-Adoption-Could-Mean-Trouble-for-NVIDIA-/
"but NVIDIA has already quietly reduced its forecasts for Tegra revenue this year from "north of $200 million" late last year to "$25-$75 million over six-to-nine months"
Consumer products business, which includes smartphone and tablet products, as well as embedded entertainment, represented 3% of Nvidia’s total revenue, or $31.2 million in Q1 FY2011. The sequential decrease of 31% was due to seasonality in its game console business and other items, the company said.
http://www.xbitlabs.com/news/mobile/display/20100518235532_Nvidia_Expects_Android_Operating_System_to_Prosper.html
Die $31 Mio duerften wohl gross revenue sein und hoechstwahrscheinlich mit allen GoForce Resten der Vergangenheit inklusive, ist aber trotz allem nicht schlecht. Natuerlich nirgends in der Naehe von NV's originalen forecasts (die wie oefters erwaehnt viel zu optimistisch waren) aber bei so mickriger Integration von Tegra1 bis zu Q1 ist 3% des insgesamten Umsatzes schon etwas wert.
Im Gegenvergleich wenn man die Anzahl der integrierten Einheiten von IMG IP vergleicht wird es im Vergleich zu Tegra laecherlich; wenn es aber zum Umsatz kommt reichen fuer 2009 die Lizenzgebuehren + royalties fuer den IP Verkauf nicht mal an die 30Mio, ist aber auch der "Preis" den man bezahlt wenn man nur IP verkauft (stets mit minimalstem Risiko).
Wie dem auch sei ich hab keine Ahnung was NV veranlasst hat original so optimistische forecasts fuer Tegra anzulegen. Kann durchaus sein dass sie bis zu einem gewissen Punkt immer noch erwarteten dass Nintendo ihr Zeug lizenziert. Anders kann ich es mir nicht erklaeren.
Desti
2010-06-23, 17:50:18
Toshiba hat jetzt auch ein Tegra Netbook (dynabook AZ (http://planet64bit.de/Toshiba_dynabook_AZ_mit_NVIDIA_Tegra_SoC)) vorgestellt.
Hat einen 1 GHz Tegra 250 SOC.
Sicherlich ein wichtiger Designwin von einem Hersteller mit großem Namen.
das sieht in der tat sehr sehr lecker aus.
ein bisschen verstörend finde ich aber die akkulaufzeit, sieben stunden ist soviel wie ein normales notebook (z.B. t410). die top-netbooks mit intel atom sind da mit 10+ stunden deutlich besser. Allerdings geht das wohl zum teil auf toshibas konto dem notebook so eine agressive schlankheitskur zu verpassen. das ding hat vermutlich nicht mehr als die ersten 3 zellen ee-pc akkus...
trotzdem finde ich das ernüchternd für eine arm-cpu. bisher lagen da wirklich größenordnungen (z.B. 1:10) zwischen x86 und arm, Tegra levelt das ja nun auf ein beinahe vergleichbares niveau herab, sehr sehr schade. So wird das nichts mit den smartphones, hatte eigentlich fest damit gerechnet dass tegra 2 deutlich mehr als 2x oder 3x vor der sparsamsten x86konkurrenz liegt, sowie auch (grafik-)leistungsmäßig einen vergleichbaren mehrwert bietet. das scheint wohl nicht der Fall zu sein.
Dural
2010-06-28, 17:46:18
5Watt Verbrauch ist doch OK, alleine der LCD dürfte von den 5Watt einen erheblichen Anteil abknüpfen. In einem Netbook zieht halt nicht nur die CPU Strom ;)
nee, was ich dann aber nicht verstehe ist wieso man in so einem ding einen so bescheidenen akku verbaut un die verbrauchsvorteile wieder völlig zunichte macht. ist doch witzlos... mit 12 bis 15 stunden laufzeit hätte das ding mal ne marke gesetzt, aber sieben stunden ist mittlerweile nur noch netbook mittelfeld.
aylano
2010-06-29, 09:41:53
Das war ja in den ersten Atom-Netbooks auch nicht anders, wo die dann mit mittelmäpigen Akkus so 3(-4) Stunden schafften.
Das verstand ich auch nicht, aber manche Hersteller tun sich halt schwer, die Marktbedürfnisse einzu schätzen.
Damals hatte ich mir den einzigen gekauft, der einen 60Wh-Akku hatte.
Dural
2010-06-29, 11:01:22
naja dafür ist er schön leicht und klein...
für viele ist das wichtiger als ein Netbook das 10stunden+ mit akku läuft.
aber auch ich find es schade das der akku nur 7 stunden hält...
aylano
2010-06-29, 15:20:49
Mit 10.1" ist er so klein wie die anderen
Das Gewicht hängt primäre von Wollen ab bzw. das Verbauen der Komponenten.
Schließlich ist mein Netbook mit dem damals größten Akku auch das leichterste gewesen und das mit Abstand. (Abgesehen vom teuren Sony)
Das Gewicht von 900 Gramm finde ich gut.
Hoffentlich der Beginn eines Trends in diese Richtung.
Da die ULV-CPUs & Neos auch schon 1,5 kg haben, war ich schon vor einem Jahr der Meinung, dass die Zukunft der Netbooks vielleicht so bei 600-800 Gramm liegen wird bzw. ein Mindest-Gewicht das für das Bedienen optimal ist. Bei den Displays hat sie die optimale Bediengröße ja auch auf 10,1" eingependelt.
Das Gewichtig der Tablets liegen ja auch so zwischen 600-800 Gramm
Deinorius
2010-06-29, 21:30:00
900 g? Das Samsung N230 (http://www.golem.de/showhigh2.php?file=/1006/76059.html&wort[]=samsung&wort[]=n230) wiegt gerade mal 1,03 kg und erreicht dafür über 13 h Akkulaufzeit. Da muss sich Toshiba beim nächsten Mal mehr anstrengen.
Desti
2010-06-30, 14:12:11
900 g? Das Samsung N230 (http://www.golem.de/showhigh2.php?file=/1006/76059.html&wort[]=samsung&wort[]=n230) wiegt gerade mal 1,03 kg und erreicht dafür über 13 h Akkulaufzeit. Da muss sich Toshiba beim nächsten Mal mehr anstrengen.
Es hat 7h.
http://www.samsung.com/us/aboutsamsung/news/newsIrRead.do?&news_ctgry=irnewsrelease&news_seq=19592&page=1
Deinorius
2010-06-30, 14:23:24
Ja, hab ich auch erst gelesen. :usad:
Ändert an meiner Aussage im Grunde aber kaum etwas.
aylano
2010-06-30, 16:41:31
Und die Grundaussage wäre?
Mit 900g war das von Toshiba gemeint.
Und mit fast doppelt so großen Akku kommt der dann auf vielleicht 14 Stunden.
Das sieht gut aus, vorallem wenn das nicht so wie der 13-Stunden-Samsung ein hochoptimierter Netbook ist.
Deinorius
2010-07-01, 00:54:33
Meine Aussage bezog sich viel mehr auf das Gewicht, welches kaum höher war.
Aber vielleicht ist es mit diesen Tegra Geräten genauso wie mit den Netbooks anfangs. Die haben früher auch nicht so lange durchgehalten.
Süss.... ;)
http://www.gizmag.com/toradex-tegra-t20-sodimm-computer-module/15856/
Wenn nur die Hälfte davon stimmt dann ist Tegra ein riesen Flop. NV kann die versprochenen Specs wohl nicht mal annähernd einhalten: http://www.semiaccurate.com/2010/08/02/whispers-say-mike-rayfield-out-nvidia/
Ailuros
2010-08-03, 09:48:07
Wenn nur die Hälfte davon stimmt dann ist Tegra ein riesen Flop. NV kann die versprochenen Specs wohl nicht mal annähernd einhalten: http://www.semiaccurate.com/2010/08/02/whispers-say-mike-rayfield-out-nvidia/
Es stimmt mehr als die Haelfte nicht in dem Artikel. Tegra und PSP2 oder besser NVIDIA und SONY was handhelds betrifft gehoeren nicht in den gleichen Satz und ich bezweifle auch dass Samsung je mit NV verhandelt hat.
Dass es generell nicht besonders rosig mit Tegra aussieht ist kein Geheimnis; fuer smartphones ist das Ding eine schlechte Idee und in tablets wird NV zwar schon ein paar gute Deals landen koennen aber auch nicht so gut wie sich NV selber erhofft hatte.
Der die ist zu gross und bei einer maximalen Frequenz der T2 GPU von 240MHz landet Intel's GMA600@400MHz ca. 2x Mal so viel Leistung mit ca. gleicher die Flaeche und hoeherem Featureset. Von OMAP4 oder Hummingbird Vergleichen (smartphone Markt) sollte gar nicht die Rede sein sonst wird's peinlich.
Es stimmt mehr als die Haelfte nicht in dem Artikel. Tegra und PSP2 oder besser NVIDIA und SONY was handhelds betrifft gehoeren nicht in den gleichen Satz und ich bezweifle auch dass Samsung je mit NV verhandelt hat.
IMHO;
so wie der Artikel geschrieben ist basiert er auf einem Insider bei Nvidia. Wenn das der gleiche ist, der ihn schon bei der PSP2-Tegra Story verarscht hat...dann ist der Artikel reif für die Rundablage. :)
Nakai
2010-08-03, 12:28:48
Es stimmt mehr als die Haelfte nicht in dem Artikel. Tegra und PSP2 oder besser NVIDIA und SONY was handhelds betrifft gehoeren nicht in den gleichen Satz und ich bezweifle auch dass Samsung je mit NV verhandelt hat.
Lol, ich denk eher Charlie hat gemerkt, dass er Mist gelabert hat und versuchts nun damit auszukorrigieren. ;)
Der die ist zu gross und bei einer maximalen Frequenz der T2 GPU von 240MHz landet Intel's GMA600@400MHz ca. 2x Mal so viel Leistung mit ca. gleicher die Flaeche und hoeherem Featureset. Von OMAP4 oder Hummingbird Vergleichen (smartphone Markt) sollte gar nicht die Rede sein sonst wird's peinlich.
400Mhz schafft bis jetzt keine GPU in einem Smartphones. GMA600 wird wohl auch nicht mit 400MHz in den Smartphones erscheinen...das wäre sehr heftig.
Mit 240MHz ist die Tegra2 GPU schon sehr mächtig. Die Füllrate schlägt alles was auf dem Markt vorherrscht. Die Rechenleistung sollte ebenso alles was in den Schatten stellen, was derzeit existiert...wobei Snapdragon und SGX540 haben eine verdammt hohe Anzahl an ALUs.
Klar, Tegra2 ist von der Größe ineffizient. Da hätte NV eher auf ein moderneres Design zurückgegriffen...sieht ja eher so aus, als würde es auf Geforce6 basieren.
Tarkin
2010-08-03, 12:44:05
Time to Abandon NVIDIA? (http://www.fool.com/investing/general/2010/08/02/time-to-abandon-nvidia.aspx)
... ich finde das "?" kann man ruhig mit einem "!" ersetzen :wink:
Aber im Ernst... es sieht wirklich nicht gut aus. Das Geschäft bricht weg, die Margen brechen weg, Tegra ist eine Luftnummer, Chipsätze sind so gut wie weg... und bei den dedizierten Grakas hat man auch Probleme mit AMD mitzuhalten. Wenn es AMD jetzt auch noch schaffen sollte im Profi-Bereich Marktanteile abzunehmen, dann wirds wirklich brenzlig.
Lange können Sie das nicht mehr durchhalten. Das ging die letzten 2 Jahre (seit rv770) gut, jetzt steht man aber vor vielen Scherbenhaufen gleichzeitig.
Time to Abandon NVIDIA? (http://www.fool.com/investing/general/2010/08/02/time-to-abandon-nvidia.aspx)
... ich finde das "?" kann man ruhig mit einem "!" ersetzen :wink:
Aber im Ernst... es sieht wirklich nicht gut aus. Das Geschäft bricht weg, die Margen brechen weg, Tegra ist eine Luftnummer, Chipsätze sind so gut wie weg... und bei den dedizierten Grakas hat man auch Probleme mit AMD mitzuhalten. Wenn es AMD jetzt auch noch schaffen sollte im Profi-Bereich Marktanteile abzunehmen, dann wirds wirklich brenzlig.
Lange können Sie das nicht mehr durchhalten. Das ging die letzten 2 Jahre (seit rv770) gut, jetzt steht man aber vor vielen Scherbenhaufen gleichzeitig.
Welch Wunder.
Ailuros
2010-08-04, 08:27:20
Lol, ich denk eher Charlie hat gemerkt, dass er Mist gelabert hat und versuchts nun damit auszukorrigieren. ;)
Errr nein. Ich hab ihn schon ueber den PSP2 Quark gewarnt, aber er will wohl wie Theo mit dem A4/Mali Mist mit dem Kopf durch die Wand.
400Mhz schafft bis jetzt keine GPU in einem Smartphones. GMA600 wird wohl auch nicht mit 400MHz in den Smartphones erscheinen...das wäre sehr heftig.
Da Tegra2 bei 240MHz ungeeignet fuer smartphones ist (zu grosser die, zu hoher Stromverbrauch) ist er besser platziert fuer tablets/netbooks. Drei Mal darfst Du raten fuer was GMA600 am besten geeignet ist bei 400MHz....tablets/netbooks vielleicht?
Mit 240MHz ist die Tegra2 GPU schon sehr mächtig. Die Füllrate schlägt alles was auf dem Markt vorherrscht. Die Rechenleistung sollte ebenso alles was in den Schatten stellen, was derzeit existiert...wobei Snapdragon und SGX540 haben eine verdammt hohe Anzahl an ALUs.
Maechtig? :confused:
2 (FP24) ALUs
2 VS ALUs
2 TMUs
SGX535 (GMA5x0, Apple etc) =
2 FP32 ALUs (oder 4*FP16)
2 TMUs
8 z/check
Ergo 480 MPixels/s Fuellrate; beim GMA600 sind es 800MPixels/s und ich bin grosszuegig und rechne Overdraw erstmal gar nicht mit.
Snapdragon (Imageon2) gegen Hummingbird (SGX540) in einer Antiquitaet wie Quake2: http://phandroid.com/2010/07/06/this-is-why-the-hummingbird-processor-in-the-samsung-galaxy-s-is-awesome/
Wieviel Rechenkraft braucht denn Quake2 genau?
Klar, Tegra2 ist von der Größe ineffizient. Da hätte NV eher auf ein moderneres Design zurückgegriffen...sieht ja eher so aus, als würde es auf Geforce6 basieren.
Wohl eher in Richtung GF5 aber es ist auch weniger wichtig; Tatsache ist dass T2 nichts anderes ist als ein auf 240MHz getakteter Tegra1 und dazu mit einem viel zu grossem die.
Nakai
2010-08-04, 10:52:28
Da Tegra2 bei 240MHz ungeeignet fuer smartphones ist (zu grosser die, zu hoher Stromverbrauch) ist er besser platziert fuer tablets/netbooks. Drei Mal darfst Du raten fuer was GMA600 am besten geeignet ist bei 400MHz....tablets/netbooks vielleicht?
Tja, wenn da so aussieht. Dachte eher, dass wir T2 in der Form in Smartphones sehen werden.
Snapdragon (Imageon2) gegen Hummingbird (SGX540) in einer Antiquitaet wie Quake2: http://phandroid.com/2010/07/06/this...-s-is-awesome/
Wieviel Rechenkraft braucht denn Quake2 genau?
Quake braucht doch wohl nur Füllrate und da hat der Snapdragon nur eine TMU und sehr viele ALUs(sollten 6 an der Zahl sein, hab aber da keine genau Ahnung). Dass SGX540 da ziemlich stark ist, sollte nicht verwundern.
mfg
€:Errr nein. Ich hab ihn schon ueber den PSP2 Quark gewarnt, aber er will wohl wie Theo mit dem A4/Mali Mist mit dem Kopf durch die Wand.
Ja, ich denke du hast mich missverstanden. Ich bezog mich auf die Meinungsänderung seitens Charlie.
Siehe Auszug aus Semiacc:
"The straw that probably broke the camel's back this time was probably the PSP2. It has a Tegra variant as the main chip, and we hear that the silicon Nvidia delivered is so awful that Sony is looking elsewhere now. Sources conflict as to whether or not this is a loss, or just grumbling by Sony."
http://www.semiaccurate.com/2010/08/02/whispers-say-mike-rayfield-out-nvidia
"If the chip that Sony uses for the PSP2 is a vanilla Tegra 2, the design is in trouble. If they use a custom version of the part, there is a chance for things to work out in the end, but expect many delays as the silicon is respun and respun. For a device that has already been delayed because of it's CPU, that is not a good sign."
http://www.semiaccurate.com/2010/07/14/sonys-psp2-powered-nvidias-tegra-line/
Charlie rudert ganz stark zurück. IMO hat er doch noch eingesehen, dass evtl unter einigen Umständen(;D) etwas anderes in die PSP2 reinkommt. Er ist sich auf jeden Fall nicht mehr sicher und schiebt den schwarzen Peter Richtung Nvidia.;)
mfg
stickedy
2010-08-04, 11:36:22
Quake braucht doch wohl nur Füllrate und da hat der Snapdragon nur eine TMU und sehr viele ALUs(sollten 6 an der Zahl sein, hab aber da keine genau Ahnung). Dass SGX540 da ziemlich stark ist, sollte nicht verwundern.
Äh, Quake II läuft in der Auflösung selbst auf einer ollen RIVA 128 von 1997 mehr als ruckelfrei (und die hat auch nur eine TMU und das bei 100 MHz Chiptakt)! Wenn Imageon das über 10 Jahre später nicht ruckelfrei hinbekommt - was nach dem Video wohl nicht klappt - na dann herzlichen Glückwunsch an die Entwickler :freak:
Aus heutiger Sicht gesehen, gibt es nicht viel primitiveres als die Q2-Engine...
Charlie rudert ganz stark zurück. IMO hat er doch noch eingesehen, dass evtl unter einigen Umständen(;D) etwas anderes in die PSP2 reinkommt. Er ist sich auf jeden Fall nicht mehr sicher und schiebt den schwarzen Peter Richtung Nvidia.;)
mfg
Tja, IMHO ist das das große Problem von Charlie und Konsorten. Sie können sich und vor allem der Leserschaft nicht eingestehen das sie mal falsch lagen. Ein kurzer Artikel bzw. Update zu einem Artikel sinngemäß mit "Sorry, hab mich geirrt" bzw. "Sorry, bin einem falschen "Hund" aufgesessen" würde ihrer Glaubwürdigkeit gut tun.
Das gleiche Problem haben anscheinend aber viele Leute (siehe unter anderem auch dieses Forum) und ich bin dagegen leider auch nicht immun. :(
Ailuros
2010-08-04, 13:30:52
Tja, wenn da so aussieht. Dachte eher, dass wir T2 in der Form in Smartphones sehen werden.
ROFL T2 ist tablet Material. Damit es in smartphones kommt muessten sowohl CPU als auch GPU Frequenzen um einiges reduzieren.
Quake braucht doch wohl nur Füllrate und da hat der Snapdragon nur eine TMU und sehr viele ALUs(sollten 6 an der Zahl sein, hab aber da keine genau Ahnung). Dass SGX540 da ziemlich stark ist, sollte nicht verwundern.
2 ALUs 1 TMU fuer Imageon2 bzw. Adreno und 4 ALUs 2 TMUs fuer 540. Nur Fuellrate ist mir zu vereinfacht, denn selbst ein MBX mit 1 TMU behandelt Q2 besser als das Ding.
Ja, ich denke du hast mich missverstanden. Ich bezog mich auf die Meinungsänderung seitens Charlie.
Siehe Auszug aus Semiacc:
"The straw that probably broke the camel's back this time was probably the PSP2. It has a Tegra variant as the main chip, and we hear that the silicon Nvidia delivered is so awful that Sony is looking elsewhere now. Sources conflict as to whether or not this is a loss, or just grumbling by Sony."
http://www.semiaccurate.com/2010/08/02/whispers-say-mike-rayfield-out-nvidia
Verhandlungen muessen irgendwo in 2006 angefangen haben bei SONY und die offizielle (namenslose) Ankuendigung von IMG kam in 2008.
"If the chip that Sony uses for the PSP2 is a vanilla Tegra 2, the design is in trouble. If they use a custom version of the part, there is a chance for things to work out in the end, but expect many delays as the silicon is respun and respun. For a device that has already been delayed because of it's CPU, that is not a good sign."
http://www.semiaccurate.com/2010/07/14/sonys-psp2-powered-nvidias-tegra-line/
Charlie rudert ganz stark zurück. IMO hat er doch noch eingesehen, dass evtl unter einigen Umständen(;D) etwas anderes in die PSP2 reinkommt. Er ist sich auf jeden Fall nicht mehr sicher und schiebt den schwarzen Peter Richtung Nvidia.;)
mfg
ROFL. Wer immer den PSP2 Deal in der Tasche heute hat ist es teilweise dank NV's miesem Verhalten; so viel ist schon wahr. Nur ist die Geschichte eben fast ein halbes Jahrzent alt ;)
Nakai
2010-08-04, 15:10:07
Danke, das NV-Sony-Zeug hat sich jetzt aufgeklärt.;)
2 ALUs 1 TMU fuer Imageon2 bzw. Adreno und 4 ALUs 2 TMUs fuer 540. Nur Fuellrate ist mir zu vereinfacht, denn selbst ein MBX mit 1 TMU behandelt Q2 besser als das Ding.
SGX540 ist schon ziemlich stark. Aber zu Imageon hab ich andere Dinge gehört.
1 TMU und einen Shadercore, welcher aus 6 ALUs bestehen soll(was genau das ist, weiß ich nicht).
Meinst du mit Imageon2 den Nachfolger der derzeitigen Snapdragon-GPU?
Beim Snapdragon ist man sich teilweise sowieso nicht sicher, was genau drin ist. CPU hat zwar einen ARMv7 Befehlssatz und sollt mit einem CortexA8 vergleichbar sein, jedoch verhält er sich teilweise sehr konfus, je nach Anforderungen. Naja SOCs sind eh kaum miteinander vergleichbar.
YfOrU
2010-08-04, 15:21:10
Wenn bei Nvidia wirklich das Interesse bestehen würde in Zukunft über ARM SoCs spürbare Umsätze zu generieren wäre der Zukauf von IP notwendig (gewesen).
Das der Markt so komplett falsch eingeschätzt wurde kann ich mir nicht vorstellen. Selbst Umsetzungen im Tablett und Netbook Bereich benötigen 3G/LTE Konnektivität. Wer die nicht bieten kann muss externe Lösungen einbinden und hat damit automatisch deutlich höhere Plattformkosten als die Konkurrenz (Ein externer Baseband Prozessor kostet ungefähr das gleiche wie der eigentliche ARM SoC, Application Processor.)
Wie wichtig das für die Zukunft ist zeigt unter anderem Intel, hier ist man durchaus gewillt einen hohen Preis für Infineon Wireless Solutions zu zahlen.
Mit Hinblick auf das Konzept der Tegra Reihe kann ich mir nicht vorstellen das der Entwicklungsaufwand (und die Investitionen) so hoch sind wie suggeriert wird. Langsam erscheint mir das ganze Projekt mehr wie ein Placebo zum Erhalt des Shareholder Values.
Beim Snapdragon ist man sich teilweise sowieso nicht sicher, was genau drin ist. CPU hat zwar einen ARMv7 Befehlssatz und sollt mit einem CortexA8 vergleichbar sein, jedoch verhält er sich teilweise sehr konfus, je nach Anforderungen. Naja SOCs sind eh kaum miteinander vergleichbar.
Der Scorpion Kern entspricht großteils dem Cortex A8. Mal abwarten wie sich der Refresh des Snapdragons schlagen wird. Meine Vermutung ist das hier etwas nicht ganz rund läuft denn es gibt zu viele Fälle bei denen ein OMAP3 (bei gleicher Speicheranbindung, ARM Kernfrequenz, kein 3D) schneller ist.
im Beyond3D-Forum gibt es gerade eine nette Diskussion über den Stromverbrauch der OMAP3-SoC's. es gibt anscheinend ein kleines Tool mit dem man den Stromverbrauch der OMAP3-SoC's für unterschiedliche MHz "feststellen" kann (Spreadsheet-mäßig).
Das interessante an der Diskussion ist folgendes:
SGX530 (@192Mhz & 70% utilisation) is quoted at 75mW.
Das ist IMHO sehr wenig. Da kann die Tegra-GPU bestimmt nicht mithalten.
Link: http://forum.beyond3d.com/showthread.php?t=57540
Ailuros
2010-08-05, 12:09:07
Wenn bei Nvidia wirklich das Interesse bestehen würde in Zukunft über ARM SoCs spürbare Umsätze zu generieren wäre der Zukauf von IP notwendig (gewesen).
Da hab ich so meine Vorbehalte ob man dass so stehen lassen kann.
Consumer products business (CPB) unit's revenue (which commands sales of Tegra-branded products and also absorbs game consoles royalties) was $31.2 million.
http://www.xbitlabs.com/news/video/display/20100728173918_Nvidia_Dramatically_Lowers_Revenue_Guidance_for_the_Quarter.html
Zwar enthalten die $31Mio auch anderes Zeug ausserhalb Tegra, aber jegliche Summe davon ist pro Quartal. Rate mal wieviel IMG mit zich Male hoeherem Durchbruch im embedded Markt insgesamt fuer's letzte Jahr kassiert hat.
Selbst wenn NV nur 10Mio pro Quartal Umsatz macht (was aber auch verdammt konservativ ist denn mehr als $5 royalty pro verkaufter Konsole bekommen.....) ist der jaehrliche Umsatz nichtmal groesser als der von IMG ohne den PURE Schnickschnack.
Das der Markt so komplett falsch eingeschätzt wurde kann ich mir nicht vorstellen. Selbst Umsetzungen im Tablett und Netbook Bereich benötigen 3G/LTE Konnektivität. Wer die nicht bieten kann muss externe Lösungen einbinden und hat damit automatisch deutlich höhere Plattformkosten als die Konkurrenz (Ein externer Baseband Prozessor kostet ungefähr das gleiche wie der eigentliche ARM SoC, Application Processor.)
Der Link oben hilft fuer das Thema "wir haben uns verdammt unterschaetzt" fuer NVIDIA genauso.
Mit Hinblick auf das Konzept der Tegra Reihe kann ich mir nicht vorstellen das der Entwicklungsaufwand (und die Investitionen) so hoch sind wie suggeriert wird. Langsam erscheint mir das ganze Projekt mehr wie ein Placebo zum Erhalt des Shareholder Values.
Hmmm....afaik haette der Nintendo Deal (erste Verhandlungen waren wie gesagt vor ca. Jahren) das gesamte Tegra R&D finanzieren sollen. Mit einem Deal der ein Potential von ueber 110Mio Einheiten haben koennte ist diese Projektion auch vollkommen logisch. Was eben NICHT logisch war ist dass NVIDIA konstant den verdammten Eindruck hat dass sich die Welt um sie dreht und sie alles machen koennen was ihnen gerade durchs Gehirn platzt. Der embedded Markt ist hauptsaechlich IP. Sich zuerst einstricken zu lassen fuer IP um sich Nintendo zu naehern und dann den dritten Kontaktmann gnadenlos abf**** hust*** nur um selber die SoCs zu verkaufen....heisst eventuell dass sie bewusst ein zu grosses Risiko eingegangen sind mit durchaus beschissener Planung.
So etwas kann man eben den shareholders so einfach nicht erklaeren und sie sind auch quasi geschuetzt da niemand sich darueber oeffentlich aeussern wird.
Der Scorpion Kern entspricht großteils dem Cortex A8. Mal abwarten wie sich der Refresh des Snapdragons schlagen wird. Meine Vermutung ist das hier etwas nicht ganz rund läuft denn es gibt zu viele Fälle bei denen ein OMAP3 (bei gleicher Speicheranbindung, ARM Kernfrequenz, kein 3D) schneller ist.
Irgend etwas hapert bei dem Ding tatsaechlich und ja es koennte durchaus an anderen Teilen des SoCs als bei der GPU selber liegen.
im Beyond3D-Forum gibt es gerade eine nette Diskussion über den Stromverbrauch der OMAP3-SoC's. es gibt anscheinend ein kleines Tool mit dem man den Stromverbrauch der OMAP3-SoC's für unterschiedliche MHz "feststellen" kann (Spreadsheet-mäßig).
Das interessante an der Diskussion ist folgendes:
Das ist IMHO sehr wenig. Da kann die Tegra-GPU bestimmt nicht mithalten.
Link: http://forum.beyond3d.com/showthread.php?t=57540
Nur ist SGX530 um eine TMU zu kurz; 535 ist durch seine 2 TMUs vergleichbarer mit Tegra2.
YfOrU
2010-08-05, 13:49:35
Da hab ich so meine Vorbehalte ob man dass so stehen lassen kann.
Mir ist schon bewusst aus welcher Intention der Tegra ursprünglich entstanden ist. Worauf ich hinaus wollte ist die Frage wo sich das Unternehmen hin bewegen will. Mittelfristig ist nun mal der Chipsatz, IGP sowie größere Teile des Lowend GPU Marktes zu vergessen.
Wer zur Kompensierung im SoC Bereich (mit entsprechendem Umsatz) mitspielen will müsste zumindest ein ähnlich komplettes Portfolio wie Qualcomm bieten können. Dafür wäre aber ein Zukauf im Format von Infineon Wireless Solutions notwendig. Meiner Meinung nach wäre das eine interessante Option um die Geschäftsfelder nicht nur auf dem Papier zu erweitern.
Zwar enthalten die $31Mio auch anderes Zeug ausserhalb Tegra, aber jegliche Summe davon ist pro Quartal. Rate mal wieviel IMG mit zich Male hoeherem Durchbruch im embedded Markt insgesamt fuer's letzte Jahr kassiert hat.
$38,65Mio ;)
Das ist aber eben nur IP, geringes Risiko, dafür auch niedrige Umsätze. Als zusätzliches Standbein ist dieses Geschäftsmodell für Nvidia kaum ausreichend. Effektiv eine einzelne große Sparte (die gegenüber dem CPU Markt noch risikoreicher und schnelllebiger ist) halte ich auf Dauer führ sehr gewagt.
TheGoD
2010-08-05, 15:57:59
Wie genau unterscheiden sich eigentlich SGX535 und SGX540?
€dit:
Danke an YfOrU und Nakai für die Aufklärung.
YfOrU
2010-08-05, 17:25:00
SGX 535: 2 Pipes
SGX 540: 4 Pipes
Je nach Implementierung ist der 535 teilweise niedriger getaktet (150, 166 Mhz). Der SGX 540 arbeitet mit 200Mhz und bringt zumindest in der Theorie gut die doppelte Leistung. In der Praxis wird das nicht ganz zu erreichen sein denn die Speicherbandbreite auf den SoCs ist immer noch sehr knapp bemessen.
Nakai
2010-08-05, 18:42:43
SGX 535: 2 Pipes
SGX 540: 4 Pipes
SGX535 hat 2 TMUs und 2 ALUs. SGX540 hat 2 TMUs und 4 ALUs. ALUs sollten alle USSE1 sein. Erst ab SGX543MP sind die ALUs deutlich heftiger, also USSE2.
Ailuros
2010-08-06, 10:33:10
Mir ist schon bewusst aus welcher Intention der Tegra ursprünglich entstanden ist. Worauf ich hinaus wollte ist die Frage wo sich das Unternehmen hin bewegen will. Mittelfristig ist nun mal der Chipsatz, IGP sowie größere Teile des Lowend GPU Marktes zu vergessen.
Ich hab nicht die geringste Ahnung was z.B. Jensen im Hinterkopf hatte als er von bis zu 50% Umsatz von der Tegra Sparte fuer die weitere Zukunft blubberte. Kann sein dass sie sich irgendwo erhofft haben oder immer noch hoffen dass ARM CPU IP irgendwann in der Zukunft auch fuer low end PC bzw. notebook SoCs eignen koennte, aber selbst dann ist so eine Aussage immer noch total unrealistisch.
Wie man es auch dreht, bleibt es eine Tatsache dass wenn es zu PC/netbook SoCs kommt NVIDIA einen grossen Nachteil hat gegenueber Intel und AMD.
Und ja natuerlich sind Dir all diese Einzelheiten wohl bewusst.
Wer zur Kompensierung im SoC Bereich (mit entsprechendem Umsatz) mitspielen will müsste zumindest ein ähnlich komplettes Portfolio wie Qualcomm bieten können. Dafür wäre aber ein Zukauf im Format von Infineon Wireless Solutions notwendig. Meiner Meinung nach wäre das eine interessante Option um die Geschäftsfelder nicht nur auf dem Papier zu erweitern.
Qualcolmm koennte noch einen weiteren Vorteil haben da sie rechtzeitig einen Vertrag mit Globalfoundries fuer 28nm SOI abgeschlossen haben. Bis TSMC etwas von 28nm LP zeigen kann dauert es wohl noch ein Weilchen.
$38,65Mio ;)
Das ist aber eben nur IP, geringes Risiko, dafür auch niedrige Umsätze. Als zusätzliches Standbein ist dieses Geschäftsmodell für Nvidia kaum ausreichend. Effektiv eine einzelne große Sparte (die gegenüber dem CPU Markt noch risikoreicher und schnelllebiger ist) halte ich auf Dauer führ sehr gewagt.
Stimmt alles nur ist die Summe nicht nur fuer ausschliesslich Grafik IP. Natuerlich macht PowerVR den groessten Umsatz, aber es ist trotzdem nicht nur MBX/SGX sondern auch die encoding/decoding und weiteren IP cores und dazu kommt auch noch Metagence und Ensigma.
NVIDIA's Umsatz fuer den Markt ist vergleichsmaessig alles andere als schlecht, aber ihre eigenen Kosten werden sie wohl schwer damit decken koennen. Noch schlimmer ich hab das Gefuehl dass AMD mit Ontario in der absehbaren Zukunft auch mitspielen wird im netbook und vielleicht sogar tablet Markt, was noch mehr Konkurrenz bedeutet und dazu noch mit DX11 unterm Hut.
SGX535 hat 2 TMUs und 2 ALUs. SGX540 hat 2 TMUs und 4 ALUs. ALUs sollten alle USSE1 sein. Erst ab SGX543MP sind die ALUs deutlich heftiger, also USSE2.
Ich hab immer noch ein Fragezeichen ob SGX540 8 oder 16z check Einheiten hat. SGX543 und 545 haben 16z afaik. Falls auch 540 16z hat, ist es ein weiterer wesentlicher Unterschied gegenueber 53x.
Nakai
2010-08-06, 12:32:02
Ich hab immer noch ein Fragezeichen ob SGX540 8 oder 16z check Einheiten hat. SGX543 und 545 haben 16z afaik. Falls auch 540 16z hat, ist es ein weiterer wesentlicher Unterschied gegenueber 53x.
In den Datasheets vom S5PC100 und S5PC110 steht zwar nicht viel drin. Beim S5PC100 wird von einem 3-Operand-ROP(ROP3??) und beim S5PC110 von einem 4-Operand-ROP(ROP4) geschrieben. Wahrscheinlich hat es gar nix damit zu tun.
In den Datasheets von TI wird natürlich direkt auf die Specs der Grafikeinheit eingegangen, da steht es wenigstens genau drin...ein OMAP4-Datasheet könnte Abhilfe schaffen.
mfg
€: Und da steht es doch im S5PC110-Manual.;)
...
• Provides eight parallel depth/ stencil tests per clock
...
Naja doch nur 8z-Tests.
Source: http://forum.xda-developers.com/showthread.php?p=7523949
Ich hab immer noch ein Fragezeichen ob SGX540 8 oder 16z check Einheiten hat. SGX543 und 545 haben 16z afaik. Falls auch 540 16z hat, ist es ein weiterer wesentlicher Unterschied gegenueber 53x.ist das nicht relativ egal? damit kann die HSR unit trotzdem noch sehr viel mehr pixel verarbeiten als die shader units, selbst bei einfachen shadern mit nur ein paar takten.
Ailuros
2010-08-06, 18:46:17
ist das nicht relativ egal? damit kann die HSR unit trotzdem noch sehr viel mehr pixel verarbeiten als die shader units, selbst bei einfachen shadern mit nur ein paar takten.
http://www.imgtec.com/News/Release/index.asp?NewsID=428
improved multi-sampling anti-aliasing performance
Jetzt aber zurueck zum Thema den ich selber bin am meisten schuld dass es jedesmal in solchen Threads OT geht.
Nakai
2010-08-06, 19:13:55
Naja NV muss wohl irgendwann auf Tegra setzen, denn ihre anderen Standbeine könnten wegbrechen. Der SOC-Markt ist ja wohl eher ein sehr wandelbarer Markt und sollte auch von NV offen sein, sofern sie ein gutes Produkt abliefern.
mfg
Ailuros
2010-08-07, 11:06:59
Naja NV muss wohl irgendwann auf Tegra setzen, denn ihre anderen Standbeine könnten wegbrechen. Der SOC-Markt ist ja wohl eher ein sehr wandelbarer Markt und sollte auch von NV offen sein, sofern sie ein gutes Produkt abliefern.
mfg
Das Problem ist aber dass sich der SoC Markt auf low PC/notebooks erweitern wird und somit die bisherigen IGPs ersetzen wird. Dafuer haben sowohl Intel als auch AMD schon zukuenftige Loesungen unter Entwicklung. NVIDIA kann momentan nichts mit ARM CPU IP fuer diesen Markt anstellen, ergo koennen sie sich lediglich erhoffen dass sie irgend etwas mit Zusteckzeug wie ION landen koennen. Anders NV's Verlust im IGP Markt koennen sie keineswegs durch Tegra in irgend einer Art decken.
Hier die bisherige Integrierung von Tegra1 und 2:
http://en.wikipedia.org/wiki/Tegra
Wie man mit solchem "Durchbruch" von zukuenftigem bis zu 50% Umsatz fuer NV blubbert ist mir schleierhaft. Einen Vergleich zu allem anderem im embedded Markt kann ich mir locker sparen.
Mit dem zukuenftigen Tegra3 (hoechstwahrscheinlich ein "GF9 Abkoemmling") gehen sie wohl endlich auf USC cores und GPGPU bzw. CUDA Unterstuetzung. Dass das Resultat aber wieder (auf netbooks/tablets begrenzt) womoeglich doch bescheidener sein wird als AMD's Ontario (welches verdaechtig nach DX11 riecht) ist dann ein weiteres Problem.
Bevor jetzt jemand sagt dass man DX11 vorruebergehend fuer diesen Markt nicht brauchen wird (und wird auch teilweise recht haben...), ist der eigentliche Widerspruch fuer NVIDIA selber dass man nicht im standalone GPU Markt sich als technologischer Vorreiter aufspielen kann und einem die Ohren vollstopft mit CUDA, PissX oder weiss der Geier was noch und im eingebetten Markt den kuerzesten im gesamten Markt feature-maessig zieht.
Wenn NV wirklich etwas in dem Markt anrichten will langfristig muessen sie endlich einsehen dass es stets Probleme geben wird wenn sie abwarten dass Architektur X auf embedded Hoehen geschrumptft werden. Entweder man entwickelt von Grund auf fuer diesen Markt oder sie werden stets der Konkurrenz um 1 oder sogar 2 Generationen hinterher-hinken und ihre embedded Designs werden so viel die area verpulvern dass es nicht mehr schoen ist.
Die Tegra2 GPU (mit dem ganzen cache Schnickschnack) nimmt bei 240MHz mehr Platz ein als GMA600@400MHz. Und ja natuerlich ist es Intel und nicht TSMC, aber in so viel qmm2 passt sogar ein 2MP@200MHz rein unter 40LP.
Das Cleverste wäre wohl wenn Nvidia ImgTec schluckt.
Das Cleverste wäre wohl wenn Nvidia ImgTec schluckt.
Das können sie vergessen, da viele BigPlayer das Potential längst erkannt haben und sich Teile gesichert haben. Intel hält AFAIK sogar 20% an IMG.
Triskaine
2010-08-07, 18:20:47
Dafür müssten Intel und Apple ihre Anteile an ImgTec hergeben, was sie mit an Sicherheit grenzender Wahrscheinlichkeit nicht tun würden.
Ailuros
2010-08-07, 18:58:46
Das Cleverste wäre wohl wenn Nvidia ImgTec schluckt.
Erstens steht IMG nicht zum Verkauf frei und schon gar nicht bei deren Aufschwung der letzten Zeit. Zweitens wenn sie zum Verkauf stehen wuerde waere der Preis relativ hoch, denn jegliche Aktie kostet nicht mehr ein paar britische pennies wie als Intel sich Aktien besorgte sondern ist in letzter Zeit konstant ueber 3.0 britische Pfund pro Aktie und das weltweite Personal kommt fast an die 600 Leute. Drittens waere es ein auch ziemlich merkwuerdiges Prestige-Ding fuer NVIDIA.
Man kann selber nichts anstaendiges im eingebetteten Markt auf die Beine stellen und man verpulvert dafuer Milliarden? Nach NVIDIA PR stinkt sowieso "tiling" und sie versaeumen es auch nicht selber zu erwaehnen in letzter Zeit und dazu kommt es gerade von Leuten die frueher zur Gigapixel Schmiede gehoerten.
Noch schlimmer wenn es wirklich so weit kommen wuerde und NV wuerde IMG kaufen, wuerden sie garantiert wieder nicht IP verkaufen. Wobei es dann wohl fraglich wird wer zum Henker von heutigen traditionellen IMG Partnern immer noch mit NV arbeiten wuerde.
NVIDIA koennte von Anfang an im embedded Markt IP verkaufen wenn sie es wollten, genauso wie sie im Konsolen-Markt sich damals angepasst haben und RSX IP an SONY verkauft haben. Es sollte sich nicht der Markt an NVIDIA anpassen, sondern NVIDIA an den Markt.
Und da ich schon Konsolen erwaehne: wieviel Chancen glaubst Du hat NV in diesem Markt ganze chips zu verkaufen heutzutage? NV's insgesamte Problem heutzutage liegt keineswegs im engineering sondern an den Herren die Entscheidungen treffen. Aendert sich da etwas fundamentales wird es auch wieder richtig bergauf gehen generell.
... insgesamte Problem heutzutage liegt keineswegs im engineering sondern an den Herren die Entscheidungen treffen. Aendert sich da etwas fundamentales wird es auch wieder richtig bergauf gehen generell.
auf wieviele Firmen das passt :D
Intel (Larrabee)
Sony (600Euro Konsole)
etc.
Aber es ist auch einfach auf jemanden der unten liegt einzuschlagen. Damals haben auch alle den Untergang von Imagination vorhergesehen als der Kyro3 starb.
YfOrU
2010-08-08, 16:07:09
Die genannten Unternehmen sind Multikonzerne mit vielen Geschäftsfeldern. Solange das Geschäft in den anderen Bereichen halbwegs läuft lassen sich auch größerer Fehltritte kompensieren.
Imagination ist wie die meisten früher am PC Markt aktiven GPU Entwickler in eine Nische abgetaucht und hat damit überlebt.
Die genannten Unternehmen sind Multikonzerne mit vielen Geschäftsfeldern. Solange das Geschäft in den anderen Bereichen halbwegs läuft lassen sich auch größerer Fehltritte kompensieren.Auch NVidia hat genug Masse um nicht so einfach zu kollabieren.
Imagination ist wie die meisten früher am PC Markt aktiven GPU Entwickler in eine Nische abgetaucht und hat damit überlebt.
Sie sind in einige Nischen abgetaucht bis es zufaellig klappte :) (Konsolen->dreamcast, gab doch paar news dass sie IGPs verkaufen wollen sobald sich ein investor findet, dann IGPs-IP licensing etc.)
Wobei die Zeit, _meiner_Meinung_ nach, fuer nvidia spielt, weil bei deferred Renderern immer noch das Problem der Tilebuffer besteht. Solange man kleine Mengen an Polygonen durch die Gegend schiebt, ist das irrelevant.
Aber die neuen SGX sollen 40MPoly/s schaffen (endlich nennenswert mehr als PSP, yay), angenommen man zeichnet auch was ordentliches, dann braucht man pro Dreieck 3 Vertices (bzw Ebenengleichungen oder sonstige Konstrukte, was schlussendlich auch bedeutet, dass es keine shared Daten gibt). Ein Vertex hat Position (float3), Tangent+BiTangent(2xfloat3),2UV sets(2xfloat2) -> 156byte/dreieck (ich spreche ueber Interpolatoren, nicht Vertex-Input).
bei 40MPolys und 30FPS ~ 10MPolys (ja ich runde sehr freundlich ab) -> 1.56GB/Frame, WENN man keinen Verschnitt haben sollte, es wird selbstverstaendlich viele Polys geben die mehrmals einsortiert werden, das kann man indiziert machen und Speicher sparen, aber die Bandbreite wird dennoch hoch bleiben.
Es wird wohl niemand 10MPolys nur auf den backbuffer pinseln, vieles wird vermutlich in shadows usw. draufgehen, einiges durch Klipping bzw Culling wegfallen. Aber es ist ja noch nicht ende mit der Performance und jetzt schon wird die Bandbreite die die Geometriedaten kosten weeeit mehr sein als was man beim Overdraw des Framebuffers spart (800x480 mit 3x overdraw und z+color -> 8.8MB/Frame).
Wenn NVidia es also schaffen sollte den Verbrauch auf <1W bei load zu senken, und, wie auf dem PC Sektor (RivaTNT mit 32Bit rendering vs Voodoos "18bit"), mehr Leistung bzw mehr Eye-Candy zeigt als die Konkurenz, haben sie gute chancen auf dem markt.
Meiner Meinung nach. (Nein, bin kein NVidia Fanboy, mir gehts total ab auf phones mit opengl ES 2.1 shader zu coden, SGX <3 ;) )
... hab das noch vor dem morgenkaffee gemacht, korrigiert mich ruhig wenn ich mich verzaehlt haben sollte.
Was mir noch im Kopf rumschwirrt: Bisher hat Sony immer eine schlechte wahl der GPUs bei ihren konsolen gehabt:
PSX vs N64
PS2 vs Xbox bzw Dreamcast
PS3 vs X360 (G70 vs unified shader mit EDRam)
PSP (laut homebrew Dokumentation TnL aber kein Klipping -> wtf?)
was auch immer Sony macht, falls es eine PSP2 gibt (ob Tegra oder SGX), ich werde es mal wieder als schlechte Wahl ansehen :)
Ailuros
2010-08-09, 13:45:45
Auch NVidia hat genug Masse um nicht so einfach zu kollabieren.
Da sich die Debatte momentan um Tegra dreht, sehe ich selbst bei Tegra3 keine fundamentale Aenderungen was einen generellen Aufschwung in diesem Markt betrifft.
Sie sind in einige Nischen abgetaucht bis es zufaellig klappte :) (Konsolen->dreamcast, gab doch paar news dass sie IGPs verkaufen wollen sobald sich ein investor findet, dann IGPs-IP licensing etc.)
An solche "Zufaelle" glaube ich persoenlich nicht. Nicht mit solchem Aufschwung. Was jetzt IGPs genau mit dem embedded Markt zu tun haben ist ein anderes Kapitel. Zwar genauso verdammt OT aber nur der Geschichte zu Liebe, IMG dachte an GPUs in Handys parallel mit Gigapixel (und spaeter fuer kurze Zeit) 3dfx und als MBX noch unter Entwicklung lag wurde parallel ein high end GPU Design entwickelt der aber nie das Tageslicht sah. Was jeglicher IHV an vaporware im Keller hat oder nicht oder welche und warum unterging ist nebenwichtig. IMG ist so oder so als erster IHV im embedded Markt angetanzt und liegt seither im Vorsprung. Und ja der Vorsprung ist natuerlich purer Zufall und die groessten Semi-Hersteller weltweit sind alle ahnungslose Deppen die sich nur so zufaellig ueber mittelwertige GPU IP und Papier-franzen ueberreden lassen.
Wobei die Zeit, _meiner_Meinung_ nach, fuer nvidia spielt, weil bei deferred Renderern immer noch das Problem der Tilebuffer besteht. Solange man kleine Mengen an Polygonen durch die Gegend schiebt, ist das irrelevant.
Aber die neuen SGX sollen 40MPoly/s schaffen (endlich nennenswert mehr als PSP, yay), angenommen man zeichnet auch was ordentliches, dann braucht man pro Dreieck 3 Vertices (bzw Ebenengleichungen oder sonstige Konstrukte, was schlussendlich auch bedeutet, dass es keine shared Daten gibt). Ein Vertex hat Position (float3), Tangent+BiTangent(2xfloat3),2UV sets(2xfloat2) -> 156byte/dreieck (ich spreche ueber Interpolatoren, nicht Vertex-Input).
bei 40MPolys und 30FPS ~ 10MPolys (ja ich runde sehr freundlich ab) -> 1.56GB/Frame, WENN man keinen Verschnitt haben sollte, es wird selbstverstaendlich viele Polys geben die mehrmals einsortiert werden, das kann man indiziert machen und Speicher sparen, aber die Bandbreite wird dennoch hoch bleiben.
Es wird wohl niemand 10MPolys nur auf den backbuffer pinseln, vieles wird vermutlich in shadows usw. draufgehen, einiges durch Klipping bzw Culling wegfallen. Aber es ist ja noch nicht ende mit der Performance und jetzt schon wird die Bandbreite die die Geometriedaten kosten weeeit mehr sein als was man beim Overdraw des Framebuffers spart (800x480 mit 3x overdraw und z+color -> 8.8MB/Frame).
In Echtzeit schaffen die jeweiligen SGX Varianten sowieso mehr Polys in Echtzeit als ein jeglicher Tegra. Und ich hab wirklich keine Lust mich weiter mit dem OT Zeug zu verzweigen.
Wo sind denn jegliche oeffentliche benchmarks von jeglichem Tegra ueberhaupt?
Wenn NVidia es also schaffen sollte den Verbrauch auf <1W bei load zu senken, und, wie auf dem PC Sektor (RivaTNT mit 32Bit rendering vs Voodoos "18bit"), mehr Leistung bzw mehr Eye-Candy zeigt als die Konkurenz, haben sie gute chancen auf dem markt.
Wenn es erstmal so weit kommt koennen wir dann darueber reden.
Meiner Meinung nach. (Nein, bin kein NVidia Fanboy, mir gehts total ab auf phones mit opengl ES 2.1 shader zu coden, SGX <3 ;) )
... hab das noch vor dem morgenkaffee gemacht, korrigiert mich ruhig wenn ich mich verzaehlt haben sollte.
Was mir noch im Kopf rumschwirrt: Bisher hat Sony immer eine schlechte wahl der GPUs bei ihren konsolen gehabt:
PSX vs N64
PS2 vs Xbox bzw Dreamcast
PS3 vs X360 (G70 vs unified shader mit EDRam)
PSP (laut homebrew Dokumentation TnL aber kein Klipping -> wtf?)
was auch immer Sony macht, falls es eine PSP2 gibt (ob Tegra oder SGX), ich werde es mal wieder als schlechte Wahl ansehen :)
Tegra steckt garantiert nicht im naechsten SONY handheld.
Dural
2010-08-09, 14:32:19
dafür in den nächsten VWs ;)
wie gross ist Tegra in 40nm überhaupt?
Ailuros
2010-08-09, 14:41:20
dafür in den nächsten VWs ;)
LOL
wie gross ist Tegra in 40nm überhaupt?
Ich hab die GPU auf etwas unter 10mm2 (mit cache) eingeschaetzt.
An solche "Zufaelle" glaube ich persoenlich nicht. Nicht mit solchem Aufschwung. Was jetzt IGPs genau mit dem embedded Markt zu tun haben ist ein anderes Kapitel. Zwar genauso verdammt OT aber nur der Geschichte zu Liebe, IMG dachte an GPUs in Handys parallel mit Gigapixel (und spaeter fuer kurze Zeit) 3dfx und als MBX noch unter Entwicklung lag wurde parallel ein high end GPU Design entwickelt der aber nie das Tageslicht sah. Was jeglicher IHV an vaporware im Keller hat oder nicht oder welche und warum unterging ist nebenwichtig. IMG ist so oder so als erster IHV im embedded Markt angetanzt und liegt seither im Vorsprung. Und ja der Vorsprung ist natuerlich purer Zufall und die groessten Semi-Hersteller weltweit sind alle ahnungslose Deppen die sich nur so zufaellig ueber mittelwertige GPU IP und Papier-franzen ueberreden lassen.ja, so war das in der tat, hat viele Jahre gedauert bis die Phones endlich brauchbare GPUs bekamen. bis dahin hat man alles in Software gemacht.
Erst apple hat dem ganzen mit dem mbx einen schwung gegeben, vorher waren die teuersten phones noch mit gammligen gpus oder software angetretten weil niemand der erste sein wollte der diese investition machen sollte.
Schau dir zum Beweis einfach die Spiele an die es vor dem iphone gab. Bestenfalls brew/mophun Software gezeichnete 100Polys/Frame wo selbst ein nds mehr brachte. meist aber nur crappy j2me 2d zeug.
IMG hat ewig niemanden brauchbaren zum licensieren bekommen. aber wenn du es genauer weisst, nur raus damit.
In Echtzeit schaffen die jeweiligen SGX Varianten sowieso mehr Polys in Echtzeit als ein jeglicher Tegra. Und ich hab wirklich keine Lust mich weiter mit dem OT Zeug zu verzweigen.
wenn sogar ein "IMG fanboy" das tilingbuffer Problem wegredet, ist das problem wohl sehr bekannt.
Wo sind denn jegliche oeffentliche benchmarks von jeglichem Tegra ueberhaupt?benchmarks von hypotetischen chips die die real aufkommenden SGX probleme exploiten? hmm... wo sind deine benchmarks wie der SGX mit steigenden polygonanzahlen skaliert wenn der tilingbuffer 1Mio+ polys halten muss?
Tegra steckt garantiert nicht im naechsten SONY handheld.
vermute ich auch, Sony geht immer den cumbersome way.
Ailuros
2010-08-09, 18:42:15
ja, so war das in der tat, hat viele Jahre gedauert bis die Phones endlich brauchbare GPUs bekamen. bis dahin hat man alles in Software gemacht.
Erst apple hat dem ganzen mit dem mbx einen schwung gegeben, vorher waren die teuersten phones noch mit gammligen gpus oder software angetretten weil niemand der erste sein wollte der diese investition machen sollte.
Schau dir zum Beweis einfach die Spiele an die es vor dem iphone gab. Bestenfalls brew/mophun Software gezeichnete 100Polys/Frame wo selbst ein nds mehr brachte. meist aber nur crappy j2me 2d zeug.
IMG hat ewig niemanden brauchbaren zum licensieren bekommen. aber wenn du es genauer weisst, nur raus damit.
Scheint als ob ich eine empfindliche Straene getroffen habe. Aber wenn's schon sein muss MBX hat so viele Millionen chips verkauft dass der Apple Deal lediglich die Kirsche auf der Torte war.
Guten Appetit: http://en.wikipedia.org/wiki/PowerVR
wenn sogar ein "IMG fanboy" das tilingbuffer Problem wegredet, ist das problem wohl sehr bekannt.
Es gibt hier nichts darueber zu debattieren. Und damit wir auch schoen beim Thema bleiben: http://en.wikipedia.org/wiki/Tegra
benchmarks von hypotetischen chips die die real aufkommenden SGX probleme exploiten? hmm... wo sind deine benchmarks wie der SGX mit steigenden polygonanzahlen skaliert wenn der tilingbuffer 1Mio+ polys halten muss?
Generell benchmarks oder zumindest etwas das Tegra2 so vorstellt dass man endlich sieht wie toll das Ding wirklich ist. Dank fehlender Integrierung hat man es schwer sowieso ein jegliches Tegra Geraet auf der GL Benchmark Datenbank als Beispiel zu finden. Im besten Fall vielleicht etwas vom ausgelatschten GoForce wo man schon damit Spielbarkeit in Q3A bei 1024 versprach wobei es aber in Echtzeit mit single digit framerates dahertrottelte.
Ausser Papierfranzen und nicht realistischem Marketing-bullshit konnte ich bis jetzt nichts von Tegra2 sehen. Spielbar wird das Ding in Quake3 heutzutage schon sein, aber eben nicht SO spielbar wie bei der Konkurrenz.
Du findest heute mehr Material fuer alles MBX bzw. SGX als bei jeglicher anderen embedded GPU und ich kann natuerlich auch verstehen warum es manche stoert.
Das tiling-buffer Maerchen hoere ich schon seit Jahren; dass aber ein Tegra mit vergleichsmaessiger Poly-Quaelerei noch brutaler abbricht erzaehl lieber den NV engineers bis sie endlich etwas anstaendiges auf die Beine stellen.
vermute ich auch, Sony geht immer den cumbersome way.
Na dann hat hoffentlich SONY diesmal mehr Grips und geht fuer ihre naechste Konsole auf AMD GPU IP.
=Floi=
2010-08-09, 18:51:45
aktuelle nv archiektur ist doch auch sehr gut?!
ein geschrinkter GF104 (@800mhz und 2gb vram) wäre in einer konsole sicherlich eine wucht.
Ailuros
2010-08-09, 19:08:45
aktuelle nv archiektur ist doch auch sehr gut?!
ein geschrinkter GF104 (@800mhz und 2gb vram) wäre in einer konsole sicherlich eine wucht.
Wenn SONY dann doch nicht am Ende etwas selber entwickelt haben sollte. Um das geht aber hier ueberhaupt nicht. Es soll ja angeblich Sony nur Gurken GPU IP in ihre handhelds bzw. Konsolen integrieren. Die erste Loesung die Sony nicht selber entwickelte war NVIDIA RSX; und weil es eben gerade jetzt so schoen passt es so hinzudrehen wie es passt muss SGX mir nichts Dir nichts die Gurke sein im Vergleich zu Tegra2, wobei es genau das Gegenteil ist.
Was ich aber bisher nicht beantwortet bekam und auch nicht bekommen werde ist warum seit der Tegra1 nicht viele grosse Semi Hersteller auf das Ding gestuerzt sind wenn es wirklich um so viel besser sein sollte. NV hat ja in Zwischenzeit den Preis um mehr als die Haelfte reduziert fuer Tegra2, nur will wohl keiner gern an die Angel. Entweder spinnt der gesamte Markt oder es wird NV mit dem "tiling stinkt" Maerchen irgendwann daran selber ersticken.
Ailuros
2010-08-10, 10:23:00
Und wenn man schon vom Teufel redet...erste Tegra Resultate:
http://www.glbenchmark.com/result.jsp?orderby=dvsg_best&brand=all&benchmark=glpro11
Compal NAZ-10
MSI Harmony
Hugo78
2010-08-10, 10:43:43
Das Vorserienmodell von MSI fand ich zwar jetzt nicht nicht überzeugend, aber rein von den Benches her, da rockt es doch.
Mal schauen wie das finale Produkt wird.
http://www4.pic-upload.de/thumb/10.08.10/xro8dzhlr8a5.jpg (http://www.pic-upload.de/view-6663594/255.jpg.html)
Ailuros
2010-08-10, 13:11:52
Das Vorserienmodell von MSI fand ich zwar jetzt nicht nicht überzeugend, aber rein von den Benches her, da rockt es doch.
Mal schauen wie das finale Produkt wird.
http://www4.pic-upload.de/thumb/10.08.10/xro8dzhlr8a5.jpg (http://www.pic-upload.de/view-6663594/255.jpg.html)
Dank texturing und texture size tests. Von irgend einer Geometrie-Ueberlegenheit sehe ich nicht das geringste. Fuer ein tablet mit 800*480 Aufloesung sind die Resultate zwar sehr gut aber auch nichts wirklich ausserodentliches. Wohingegen der Vergleich ziemlich merkwuerdig ist da das iPad eine Aufloesung von 1024*768 hat, oder anders etwas ueber 2x Mal so viel pixel zu fuellen.
Hugo78
2010-08-10, 13:29:03
Für eBooks, Bilder und Filme ist eine starke Geometrieeinheit doch eh Verschwendung.
Und Egoshooter aufm Touchpad ist wie, .... naja sich an Angie aufgeilen.
Das geht mal garnicht. :D
Ailuros
2010-08-10, 13:35:25
Für eBooks, Bilder und Filme ist eine starke Geometrieeinheit doch eh Verschwendung.
Und Egoshooter aufm Touchpad ist wie, .... naja sich an Angie aufgeilen.
Das geht mal garnicht. :D
Dann hocken wohl auch 2 ganze VS2.x Einheiten auf Tegra dumm rum :D
Für eBooks, Bilder und Filme ist eine starke Geometrieeinheit doch eh Verschwendung.
Und Egoshooter aufm Touchpad ist wie, .... naja sich an Angie aufgeilen.
Das geht mal garnicht. :D
Naja aber beim Energirverbrauch wird Tegra sicher nicht punkten können.
Also doch lieber mit Egoshooteranschi werben.
Hugo78
2010-08-10, 14:31:53
Naja aber beim Energirverbrauch wird Tegra sicher nicht punkten können.
Joo oder aber hält 10mal so lang wie die Konkurrenz. :uclap:
Also ohne Test eines finalen Produktes ...
Ailuros
2010-08-11, 13:49:47
Semi-OT und ja es wurde oefters in der Vergangenheit darueber diskuttiert:
http://www.xbitlabs.com/news/video/display/20100810170756_Nvidia_Needs_Access_to_x86_Technology_for_Long_Term_Survival_Anal ysts.html
LovesuckZ
2010-08-11, 13:53:11
Und wozu? AMD hat einen Marktanteil von 18-20%. Ein Dritter würde nämlich direkt gegen AMD und nicht gegen Intel gehen. Also kämpft man um 20% des Marktes. Schaut man sich AMD's Umsatzzahlen an, dann liegt nVidia nur 33% hinter der CPU Sparte von AMD.
nVidia braucht keine x86 Lizenz. Eher würde es mehr Sinn machen mit VIA eine Deal abzuschließen, dass nVidia die Chipsätze für ihre CPU produziert. Das wäre wesentlich sinnvoller.
Ailuros
2010-08-11, 14:09:32
Und wozu? AMD hat einen Marktanteil von 18-20%. Ein Dritter würde nämlich direkt gegen AMD und nicht gegen Intel gehen. Also kämpft man um 20% des Marktes. Schaut man sich AMD's Umsatzzahlen an, dann liegt nVidia nur 33% hinter der CPU Sparte von AMD.
nVidia braucht keine x86 Lizenz. Eher würde es mehr Sinn machen mit VIA eine Deal abzuschließen, dass nVidia die Chipsätze für ihre CPU produziert. Das wäre wesentlich sinnvoller.
Es geht um zukuenftige SoCs for notebooks/PCs. Tegra und ARM CPU IP sind nicht geeignet fuer so etwas, ergo waere ein jeglicher Einstieg NV's (egal wie) in diesen Markt ziemlich wichtig fuer sie selber.
Ich kann mir schwer vorstellen dass NV irgendwelche tolle Marktanteile haben koennte mit ION standalone Loesungen. Ergo ist irgend eine Loesung die NV in den PC/notebook SoC Markt einsteigen laesst durchaus wuenschenswert.
LovesuckZ
2010-08-11, 14:24:39
Es geht um zukuenftige SoCs for notebooks/PCs. Tegra und ARM CPU IP sind nicht geeignet fuer so etwas, ergo waere ein jeglicher Einstieg NV's (egal wie) in diesen Markt ziemlich wichtig fuer sie selber.
Es wird noch ewig dauern, bis Notebooks und PCs mit SoC ausgestattet werden. Alleine schon die benötigte Leistung lässt sich nichtmal annährend auf kleinstem Platz realisieren.
Und für Netbooks, Tablets und andere Geräte spielt ein Windows-System überhaupt keine Rolle. Hier geht es nur um den Konsum von Content. Und das schafft man auch sehr einfach mit ARM Prozessoren.
Ich kann mir schwer vorstellen dass NV irgendwelche tolle Marktanteile haben koennte mit ION standalone Loesungen. Ergo ist irgend eine Loesung die NV in den PC/notebook SoC Markt einsteigen laesst durchaus wuenschenswert.
Der Umsatz-Sparte ist mit 9400m/ION schlagartig gestiegen. Er hat sich verdoppelt gegenüber dem Vorjahr. Und ein ION-System reicht für eine Vielzahl von Anwendungen aus und eigenete sich perfekt für HTPCs.
MCP89 mit VIA CPU wäre wohl eine traumhafte Kombination. Damit könnte man vorallem AMD das Leben schwer machen.
Der Umsatz-Sparte ist mit 9400m/ION schlagartig gestiegen. Er hat sich verdoppelt gegenüber dem Vorjahr. Und ein ION-System reicht für eine Vielzahl von Anwendungen aus und eigenete sich perfekt für HTPCs.
Dürfte vor allem daran liegen, dass Apple damit viele Systeme ausgestattet hat(te).
Fällt aber bald weg. Ewig wird auch Apple nicht an C2D bei Mac Mini und Macbook (Pro) 13" festhalten.
Es wird noch ewig dauern, bis Notebooks und PCs mit SoC ausgestattet werden.
Es dauert auch ewig eine konkurrenzfähige x86 Architektur oder einen Fusion auf die Beine zu stellen. NV bricht schön langsam der Markt weg wenn hier nicht bald was unternommen wird.
Hugo78
2010-08-11, 17:49:28
Eine x86 Lizenz ist ohnehin utopisch für NV, denn die rückt Intel nicht raus.
VIA hat ja jetzt bei akteullen Vergleich grad mal 5 Jahre Aufschub erhalten.
Statt 2013, dürfen sie jetzt 2018 den bau von eigenen x86 CPUs einstellen.
D.h. es ist offensichtlich, dass Intel ohne Druck von Justitia, sich mit AMD als alleinen Mitbewerber völlig zufrieden gibt.
Dural
2010-08-11, 18:01:00
Es gibt doch schon lange keine "x86 Lizenz" mehr, viel eher dürfte das Problem an den ganzen weiteren Patenden / Befehlserweiterungen von Intel und AMD liegen um eine Konkurenzfähige CPU Herzustellen!
Hugo78
2010-08-11, 18:46:23
Sicher Intel und AMD haben eine Reihe von Crosslizenzen, die es spätestens nach Ablauf einer 5 Jahres Frist ermöglichen die CPU Technik des Mitbewerbers zunutzen.
Das schließt VIA und Andere aus.
Daran krankt aber sowieso jeder Bereich in der Forschung heute.
Wenn Patente wieder nach 5 oder 10 Jahren auslaufen würden, dann würde es in vielen Bereichen schneller vorangehen.
Man stelle sich vor, es gäbe ein Patent auf das Rad... dann würden Porsches hüpfen, Mercedesfahrer sind Kettenliebhaber und VW muss auf Luftkissen ausweichen.
Ailuros
2010-08-11, 19:37:47
Es wird noch ewig dauern, bis Notebooks und PCs mit SoC ausgestattet werden. Alleine schon die benötigte Leistung lässt sich nichtmal annährend auf kleinstem Platz realisieren.
Wenn "ewig" fuer komerzielle Verfuegbarkeit in 2011 steht, dann stimmt es auch. SoCs werden IGPs in absehbarer Zeit ersetzen und auf die Masche setzt sowohl Intel als auch AMD.
http://www.xbitlabs.com/news/video/display/20100806165804_AMD_s_Fusion_Processors_Are_Designed_to_Be_as_Fast_as_Discrete_GP Us_Company.html
Und für Netbooks, Tablets und andere Geräte spielt ein Windows-System überhaupt keine Rolle. Hier geht es nur um den Konsum von Content. Und das schafft man auch sehr einfach mit ARM Prozessoren.
Netbooks und tablets koennen keineswegs kurzfristig das Volumen eines IGP Ersatzes ersetzen. Es ist und wird eine Produkt-Kategorie unterhalb low end PC und notebook bleiben.
Der Umsatz-Sparte ist mit 9400m/ION schlagartig gestiegen. Er hat sich verdoppelt gegenüber dem Vorjahr. Und ein ION-System reicht für eine Vielzahl von Anwendungen aus und eigenete sich perfekt für HTPCs.
MCP89 mit VIA CPU wäre wohl eine traumhafte Kombination. Damit könnte man vorallem AMD das Leben schwer machen.
http://www.xbitlabs.com/news/video/display/20100728173918_Nvidia_Dramatically_Lowers_Revenue_Guidance_for_the_Quarter.html
Nvidia officially explained that the revenue shortfall occurred primarily in the consumer GPU business, resulting from increased memory costs and economic weakness in Europe and China. The increased solution cost of discrete GPUs led to a greater-than-expected shift to lower-priced GPUs and PCs with integrated graphics. Nevertheless, everything may not be that easy and straightforward.
Und wie der Gast oben schon sagte, mit Fusion und Intel's konkurrierenden SoCs im naechsten Jahr sieht es alles andere als rosig fuer NV aus.
Tegra kann als Platform den Verlust im low end PC/notebook Bereich leider nicht mehr gut machen. Erstens weil das Zeug zu bescheiden ist fuer low end PC und zweitens weil Intel alles andere als ratlos mit ihrem GMA600/Lincroft Zeug dastehen wird. GMA500 sah eine Integration von ueber 85 Geraeten, wobei Tegra1 nichtmal eine handvoll schaffte.
Selbst wenn es auf Gleichstand hier mit Intel kommen sollte, reicht es immer noch lange nicht aus fuer ein IGP Pflaster.
MOLES IN SANTA CLARA tell SemiAccurate that Nvidia's latest wonderchip, Tegra 3, has taped out. Expect the PR announcement storm to kick up soon, but don't look for product this year.
Tegra 3, aka T30, looks to be every bit as successful as the last two, with dozens of design win announcements expected soon. Once the chip is available, currently slated for mid-2011, expect most of those to vanish quicker than an overclocked Kin. Of those 'wins' that don't get sent to the big pile of underperforming chips in the sky we expect one or two to actually be from companies you have heard of. No pay for play there. Mostly.
http://www.semiaccurate.com/2010/08/12/tegra-3-tapes-out/
Ailuros
2010-08-13, 12:36:57
http://www.semiaccurate.com/2010/08/12/tegra-3-tapes-out/
Tegra3 ist zu weit entfernt und mit noch unbekannten Spezifikationen dass man irgendwelche Schlussvolgerungen schon heute ziehen kann. Ich hab lediglich gehoert dass es sich angeblich um ein GF9 Enkelkind handeln soll, welches auf USC cores, CUDA support und ~DX10 deuten koennte.
Am wichtigsten wird die verbrauchte die area bzw. Stromverbrauch fuer das Ding sein und das werden wir wohl erst Mitte 2011 nach der Ankuendigung herausfinden.
Wie dem auch sei:
In the mean time, Nvidia management is finding skapegoats while watching Tegra 2 volume pricing going from a mid-$30s asking price to $15 to $10. This price drop hasn't done the one thing they wanted it to, customers keep canceling 'design win' after 'design win'.
Die Preis-reduktion hab ich oben in einem vorigen Post vor Tagen schon erwaehnt und ist nichts Neues generell fuer diejenigen die sich mit dem Markt beschaeftigen. OMAP4 wird zwar hauptsaechlich smartphones sein, aber der Preis liegt irgendwo in der $13-14 Region wenn ich mich nicht irre mit hoeherer Leistung und um einiges niedrigerem Stromverbrauch.
Die Tegra3 GPU wird sich im naechsten Jahr mit SGX543/4 MPs pruegeln muessen. Momentan kann man schon Intel, Apple, SONY, TI und Renesas (NEC) zu den S5XT Lizenznehmern zaehlen.
Ich erwartete vor ca. 2 Jahren dass SGX's groesster Konkurrent Tegra sein wird. So wie es heute aussieht ist die einzige anstaendige Konkurrenz Qualcolmm's Snapdragon (denn das ARM Mali Zeug kann man ja wohl vergessen).
Ich erwartete vor ca. 2 Jahren dass SGX's groesster Konkurrent Tegra sein wird. So wie es heute aussieht ist die einzige anstaendige Konkurrenz Qualcolmm's Snapdragon (denn das ARM Mali Zeug kann man ja wohl vergessen).
Sind das nicht die ehemaligen ATi-Chips? Für mich unverständlich das man die verkauft hat. Aber man hofft wohl das man mit Fusion und x86 den Markt besser bedienen kann.
Ailuros
2010-08-13, 13:23:33
Sind das nicht die ehemaligen ATi-Chips? Für mich unverständlich das man die verkauft hat. Aber man hofft wohl das man mit Fusion und x86 den Markt besser bedienen kann.
Ja hauptsaechlich wurde bis jetzt der ehemalige Z430 integriert. Vom staerkeren Z460 Nachfolger hab ich noch nichts gesehen.
Kann sein dass AMD mit Ontario auch unterhalb tablets bzw. netbooks zielt, aber wie auch bei Tegra3 sollte man abwarten um zu sehen ob die Ontario SoCs auch wirklich vom Stromverbrauch fuer smartphones geeignet sind. Bisher ist alles Tegra eben leider nicht fuer smartphones geeignet (und es sieht auch nicht anders momentan fuer T3 aus) und da ist es eben wo der eigentliche fette Umsatz liegt.
Nebenbei liegt das eine Tegra2 Geraet immer noch an der GLBenchmark 1.1 Spitze, waerend das MSI Dingsda schnell auf Platz 4 gepurzelt ist. Ich weiss schon warum, hab aber versprochen die Klappe zu halten. SGX540 ist und bleibt kein anstaendiger Vergleich fuer T2 und es liegt noch ca. 30% mehr Leistung in den Dingern. Kishonti sollte sich beeilen und endlich an der GLBenchmark 2.0 Datenbank arbeiten. Mit so vielen verfuegbaren OGL_ES2.0 Geraeten sind ausgelatschte 1.1 scores eher langweilig.
Intel klotzt mal wieder: Moorestown-Nachfolger Medfield mit vierfachacher Grafikleistung?
http://www.hartware.net/news_49787.html
http://www.computerbase.de/news/hardware/prozessoren/intel/2010/august/details_moorestown-nachfolger_medfield/
Ailuros
2010-08-14, 19:18:12
Intel klotzt mal wieder: Moorestown-Nachfolger Medfield mit vierfachacher Grafikleistung?
http://www.hartware.net/news_49787.html
http://www.computerbase.de/news/hardware/prozessoren/intel/2010/august/details_moorestown-nachfolger_medfield/
Keine besondere Ueberraschung. Wenn Medfield SGX54x multi-core GPU IP enthaelt wie ich mir vorstelle, dann ist die 4x fache Grafikleistung auch nicht uebertrieben.
http://webcache.googleusercontent.com/search?q=cache:OtxcxHj54CQJ:software.intel.com/file/27519+penwell+site:intel.com&cd=3&hl=en&ct=clnk&gl=us&client=firefox-a
Medfield
(32nm)
Board Size: Reduced
SoC: 144 sq mm
Part count: reduced
Standby Power: Lower
Highly integrated SoC
Up to 4X graphics performance**
Further reduction in power
and improved battery life
** Compared to Menlow with Lincroft SKU at 400MHz and DDR2
LovesuckZ
2010-08-19, 13:34:51
LG Electronics on Thursday confirmed that it would be using a dual-core processor manufacturered by Nvidia for its line of Optimus smartphones later this year.
LG Goes With Nvidia Chip in New Smartphones (http://blogs.wsj.com/digits/2010/08/19/lg-goes-with-nvidia-chip-in-new-smartphones/)
stickedy
2010-08-19, 13:54:52
LG Goes With Nvidia Chip in New Smartphones (http://blogs.wsj.com/digits/2010/08/19/lg-goes-with-nvidia-chip-in-new-smartphones/)
Ohne PR von LG ist das quasi nichts wert ;) Let's wait and see... :)
Ailuros
2010-08-19, 14:51:22
Ohne PR von LG ist das quasi nichts wert ;) Let's wait and see... :)
Bisherige newsblurbs (und nicht nur einer) sprachen von Qualcolmm's Snapdragon (wie z.B. hier http://www.kokeytechnology.com/gadgets/cell-phonesmobile-phones/lg-optimus-q-android-phone-specs-vs-samsung-galaxy-s-i9000-captivate/
http://www.gsmarena.com/lg_optimus_q-3257.php
usw.).
Wie dem auch sei wenn es zu tablets kommt klingt mir Google Chrome fuer T2 ziemlich sicher: http://www.xbitlabs.com/news/mobile/display/20100818140346_Google_Developing_Chrome_Tablet_Report.html
und auch etwas OT: http://www.xbitlabs.com/news/mobile/display/20100817151532_Asustek_Admits_iPad_Success_Apple_iPad_Sales_Cannibalize_Sales_of _Eee.html
http://hartware.net/news_49829.html
AMD Fans heimlich gefilmt
Dural
2010-08-23, 13:23:00
@Ailuros
ich weis nicht was du immer über die leistung des Tegra herziehst, aber hier:
http://www.glbenchmark.com/result.jsp?orderby=dvsg_best&brand=all&benchmark=glpro11
gehören die Tegra zum schnellstem was es so gibt, oder über sehe ich was?!?
vileicht war der ursprungspreis von satten 30.- US Doller für so ein chip auch einfach komplett übertriben seitens NV, aber jetzt mit der preissenkung dürfte der chip sicher besser ankommen...
und was du immer mit diesen 10mm2 hast... sorry aber das ist doch völlig egal ob die GPU jetzt 5 oder 10mm2 gross ist bei diesen preisen zwischen 14-25 US Doller pro chip und in diesen mengen, da haben die an so mancher GPU weniger marge ;)
und laut den gerüchten werden ja kaum Tegra2 verkauft weil sie schlicht nicht in genügender menge lieferbar sind/waren, was durchaus sehr gut möglich sein kann bei den ganzen 40nm probleme von TSMC bis jetzt, in diesem bereich muss man halt gewisse mengen garantieren können und das über eine längere zeit sonst gibt es schlicht kein abschluss.
robbitop
2010-08-23, 13:39:41
Gibt's denn überhaupt schon Tegra2 Geräte? Mich interessiert, wie schnell der Cortex A9 wirklich ggü dem A8 ist.
Für Smartphones, MP3 Player und PMPs spielt die 3D-Leistung m.E. nur eine untergeordnete Rolle. Hauptsache 3D Beschleunigung für GUI und Videobeschleunigung. Alles andere (Browser = Mainapp!) macht eh die CPU aus.
Dural
2010-08-23, 13:47:24
laut NV werden/sollen die Tegra2 auch erst in diesem monat ausgeliefert werden, hiss es jedenfalls noch im april...
Ailuros
2010-08-23, 14:27:07
@Ailuros
ich weis nicht was du immer über die leistung des Tegra herziehst, aber hier:
http://www.glbenchmark.com/result.jsp?orderby=dvsg_best&brand=all&benchmark=glpro11
gehören die Tegra zum schnellstem was es so gibt, oder über sehe ich was?!?
1. Brauchen die Samsung Galaxy/Wave smartphones dringend ein firmware upgrade damit die Rangierung wieder anstaendiger gestaltet.
2. Solltest Du unter anderem auch die benutzte Aufloesung in Betracht nehmen, ausser Du findest mir irgend eine tolle Formel bei der es wurscht ist wenn man 2x Mal so viel pixels bearbeitet.
In dem Sinn nimm die bearbeiteten Pixels eines iPad und vergleich sie dann erst mit den 2 tablet scores.
vileicht war der ursprungspreis von satten 30.- US Doller für so ein chip auch einfach komplett übertriben seitens NV, aber jetzt mit der preissenkung dürfte der chip sicher besser ankommen...
Gut dann vergleich Stromverbrauch zwischen Tegra2 und konkurrierenden SoCs.
und was du immer mit diesen 10mm2 hast... sorry aber das ist doch völlig egal ob die GPU jetzt 5 oder 10mm2 gross ist bei diesen preisen zwischen 14-25 US Doller pro chip und in diesen mengen, da haben die an so mancher GPU weniger marge ;)
Wenn die area und noch weiter Stromverbrauch total egal waere dann waere es auch absurd es zu erwaehnen. Im embedded Markt ist es aber der wichtigste Faktor ueberhaupt und nochmal bis es sitzt die GPU im GMA600 taktet auf 400MHz bei unter 9 qmm.
und laut den gerüchten werden ja kaum Tegra2 verkauft weil sie schlicht nicht in genügender menge lieferbar sind/waren, was durchaus sehr gut möglich sein kann bei den ganzen 40nm probleme von TSMC bis jetzt, in diesem bereich muss man halt gewisse mengen garantieren können und das über eine längere zeit sonst gibt es schlicht kein abschluss.
Muss auch der Grund sein weil Tegra1 unter TSMC/65nm keinen besonderen Durchbruch sah oder?
NV kann froh sein wenn sie dieses Jahr nur einen Bruchteil verkaufen koennen im Vergleich zu Apple alleine und die letzteren laden schon in Q1 11' wieder nach.
und was du immer mit diesen 10mm2 hast... sorry aber das ist doch völlig egal ob die GPU jetzt 5 oder 10mm2 gross ist bei diesen preisen zwischen 14-25 US Doller pro chip und in diesen mengen, da haben die an so mancher GPU weniger marge ;)
Margen? Man sollte schon vorher das Gehirn einschalten. Ich denke man kann sich vorstellen das der Platz bei embedded Geräten sehr beschränkt ist und man um jeden mm² kämpfen muss. Zuviel Stromverbrauch ist dann ohnehin das Tonschlagargument, denn Platz für Kühlung hat dort niemand. Margen sind scheiß egal, das Ding ist zu groß und Stromhungrig im Vergleich zur Konkurrenz, fertig aus.
Dural
2010-08-23, 14:34:37
was hat die DIE grösse direkt was mit stromverbrauch zu tun, da muss man schon fragen wer dumm ist (in deinen worten) es kann durch aus klüger sein etwas in die breite zugehen gerade für eine bessere effizients...
@Ailuros
Apple iPad / 768 x 1024 = 786432 / 873 Frames
Apple iPhone 4 / 640 x 960 = 614400 / 1016 Frames
Compal NAZ-10 / 800 x 480 = 384000 / 1718 Frames
der tegra wäre auch nach der auflösung/frames rechnung schneller... :rolleyes: (wenn die frames 1:1 skalieren)
Man stelle sich vor, es gäbe ein Patent auf das Rad... dann würden Porsches hüpfen, Mercedesfahrer sind Kettenliebhaber und VW muss auf Luftkissen ausweichen.man stelle sich vor es gebe keine patente, kein copyright, kein etc. schau einfach nach china wie 'toll' es dort den forschungsanstalten geht die nicht vom staat finanziert werden.
ich will jedenfalls mp3, jpg etc. nicht missen.
richtig waere ein licensierungszwang oder zumindestens eine feste regelung zu welchen konditionen licensiert wird.
und dass man unterscheidet zwischen "must have" patenten wie eben das "rad" wie du sagst. und "nice to have" patenten wie es sie z.b. bei der speichertechnologie gibt, wo es genug alternativen gibt.
was hat die DIE grösse direkt was mit stromverbrauch zu tun, da muss man schon fragen wer dumm ist (in deinen worten) es kann durch aus klüger sein etwas in die breite zugehen gerade für eine bessere effizients...
Du hast es immer noch nicht verstanden. Du kannst mir ja gerne sagen wo man hier noch doppelt so viel Platz für einen Tegra2 aufbringen kann (iPhone4-Platine):
http://img291.imageshack.us/img291/6859/4ucc4kw4tnemnqrf.jpg
Du hast es immer noch nicht verstanden. Du kannst mir ja gerne sagen wo man hier noch doppelt so viel Platz für einen Tegra2 aufbringen kann (iPhone4-Platine):
Sorry, falsch hinein gestellt:
http://img291.imageshack.us/img291/6859/4ucc4kw4tnemnqrf.jpg
Nakai
2010-08-23, 14:52:27
Diesize != Package
T2 soll etwas über 50mm² groß sein.
Diesize != Package
T2 soll etwas über 50mm² groß sein.
Das ist schon klar.
Ailuros
2010-08-23, 15:00:09
was hat die DIE grösse direkt was mit stromverbrauch zu tun, da muss man schon fragen wer dumm ist (in deinen worten) es kann durch aus klüger sein etwas in die breite zugehen gerade für eine bessere effizients...
Es steht "noch weiter" in meinem Satz drin, was darauf deutet dass es nicht direkt verbunden ist. Wie dem auch sei OMAP4 ist der einzige SoC momentan der einen dual Cortex A9 enthaelt; vergleich den Stromverbrauch.
Apple iPad / 768 x 1024 = 786432 / 873 Frames
Apple iPhone 4 / 640 x 960 = 614400 / 1016 Frames
Compal NAZ-10 / 800 x 480 = 384000 / 1718 Frames
der tegra wäre auch nach der auflösung/frames rechnung schneller... :rolleyes: (wenn die frames 1:1 skalieren)
Bei 1024 sind es 2.048 x Mal mehr Pixels als bei 800*480. Wenn ich das Resultat vom NAZ-10 durch 2 Teile bekomm ich was genau? Und ja natuerlich ist es eine Milchmaedchen-rechnung in diesem Fall aber es aendert auch nichts an dem was ich eigentlich meine.
Tegra2 hat 2 PS, 2VS, 2TMUs bei 240MHz waehrend der SGX535 2 USC ALUs und 2 TMUs hat. Im iPhone4 IMHO bei ~200MHz und im iPad bei schaetzungsweise ~250MHz. Das bei einem dual Cortex 9 im T2 und einem A8 bei 1GHz im iPad. Fuer tablets schlaegt sich Tegra2 ziemlich gut gegen SGX535 nur eben nicht gegen Intel's GMA600 welches den 535 auf 400MHz getaktet hat und schon gar nicht gegen SGX540 der doppelt so viele pipelines hat.
Und falls Dir das Wort Integrierung nichts sagen sollte, Tegra1 (gleiche GPU wie in T2) war auf 120MHz getaktet und musste sich hauptsaechlich gegen Intel's GMA500 schlagen. SGX535@200MHz. Waren's 3 oder sogar 4 Geraete insgesamt fuer Tegra1? Allein vom GMA500 waren's knapp unter 90 Geraete die anderen Semis erstmal gar nicht mitberechnet.
@Ailuros
ich weis nicht was du immer über die leistung des Tegra herziehst, aber hier:
http://www.glbenchmark.com/result.jsp?orderby=dvsg_best&brand=all&benchmark=glpro11
gehören die Tegra zum schnellstem was es so gibt, oder über sehe ich was?!?
Hatte ich schon im Series5XT, Series6 usw.-Thread angemerkt:
Wenn ich mir die geringe Datenlage und die teilweise großen Unterschiede (bei gleicher Hardware) beim GL Benchmark anschaue, da schwindet bei mir echt das Vertrauen in die Ergebnisse...
Viele Bechmarks vom Compal NAZ-10 wurden von nur einer Person eingestellt..
Ohne Angaben von verwendeten Taktfrequenzen und Art/ Version des Betriebssystems sind die Ergebnisse vollkommen wertlos (Gerade Android-Version 2.1 und 2.2 sollen sich ja stark unterscheiden). Wer sagt denn, das die Ergebnisse des Compal NAZ-10 nicht mit Hilfe eines maximal übertakteten Gerätes erstellt wurden???
Ailuros
2010-08-23, 15:17:40
Hatte ich schon im Series5XT, Series6 usw.-Thread angemerkt:
Wenn ich mir die geringe Datenlage und die teilweise großen Unterschiede (bei gleicher Hardware) beim GL Benchmark anschaue, da schwindet bei mir echt das Vertrauen in die Ergebnisse...
Viele Bechmarks vom Compal NAZ-10 wurden von nur einer Person eingestellt..
Ohne Angaben von verwendeten Taktfrequenzen und Art/ Version des Betriebssystems sind die Ergebnisse vollkommen wertlos (Gerade Android-Version 2.1 und 2.2 sollen sich ja stark unterscheiden). Wer sagt denn, das die Ergebnisse des Compal NAZ-10 nicht mit Hilfe eines maximal übertakteten Gerätes erstellt wurden???
Und wie ich schon im anderen Thread sagte erscheinen mir persoenlich die T2 Resultate nicht uebertrieben. Die GalaxyS/Wave Resultate erscheinen mir dann eher (ueberhaupt im Vergleich zu allem SGX53x) um zumindest 30% zu bescheiden. In diesem Fall hab ich aber mit Absicht die Tegra2 Geraete nur mit einem tablet der Konkurrenz verglichen; denn Tegra2 smartphone SoC werden wohl nicht die gleichen CPU/GPU Frequenzen haben wie die beiden Dinger in den Tests.
YfOrU
2010-08-23, 15:20:18
was hat die DIE grösse direkt was mit stromverbrauch zu tun, da muss man schon fragen wer dumm ist (in deinen worten) es kann durch aus klüger sein etwas in die breite zugehen gerade für eine bessere effizients...
Ein solch eklatanter Unterschied spiegelt auch die Transistoranzahl wieder. Selbst wenn das bei (hypothetischer) Annahme nicht so wäre, es würde in diesem Umfang der Effizienz alles andere als zuträglich sein. Unnötig lange Signalwege...
@Ailuros
Apple iPad / 768 x 1024 = 786432 / 873 Frames
Apple iPhone 4 / 640 x 960 = 614400 / 1016 Frames
Compal NAZ-10 / 800 x 480 = 384000 / 1718 Frames
der tegra wäre auch nach der auflösung/frames rechnung schneller... :rolleyes: (wenn die frames 1:1 skalieren)
Bei der verfügbaren Speicherbandbreite ist der Unterschied kaum verwunderlich.
DDR2 667 (Tegra 2) / LPDDR1 (A4) <- das sind Welten
Zur Information,
A good OMAP 3640 vs snapdragon vs humming bird article:
http://forum.xda-developers.com/showthread.php?t=723340
Nur ist eben DDR2 667 selbst für Tabletts noch Mist. Angebracht wäre LPDDR1/2. Zweiteres kommt mit den Refreshs der aktuellen SoCs bzw. überarbeiteten Geräten.
LovesuckZ
2010-08-23, 16:49:40
Margen? Man sollte schon vorher das Gehirn einschalten. Ich denke man kann sich vorstellen das der Platz bei embedded Geräten sehr beschränkt ist und man um jeden mm² kämpfen muss. Zuviel Stromverbrauch ist dann ohnehin das Tonschlagargument, denn Platz für Kühlung hat dort niemand. Margen sind scheiß egal, das Ding ist zu groß und Stromhungrig im Vergleich zur Konkurrenz, fertig aus.
Gibt es denn schon ein Dual-Core Gerät auf dem Markt? Ihr haut euch hier die Grafikeinheit um die Ohren, vergesst aber, dass es sich hier auch um ein SoC mit Dual-Core ARM Prozessor handelt.
Gibt es denn schon ein Dual-Core Gerät auf dem Markt? Ihr haut euch hier die Grafikeinheit um die Ohren, vergesst aber, dass es sich hier auch um ein SoC mit Dual-Core ARM Prozessor handelt.
Nein, aus gutem Grund nicht. NV hätte lieber auf die Mobilität achten sollen.
Ailuros
2010-08-24, 08:56:19
Gibt es denn schon ein Dual-Core Gerät auf dem Markt? Ihr haut euch hier die Grafikeinheit um die Ohren, vergesst aber, dass es sich hier auch um ein SoC mit Dual-Core ARM Prozessor handelt.
Es gibt generell noch nichts sehenswertes auf dem Markt mit dual-core CPUs und schon gar nicht von Tegra2.
Wenn man alles in einen Topf wirft, dann ist es wohl klar dass man den Durchblick verliert. Der T2 mit bis zu 1GHz dual Cortex9 und 240MHz ist die tablet/netbook Variante und hier ist momentan der hauptsaechliche Konkurrent Apple und Intel. Apple's roadmap weiss Apple nur selber (obwohl es nicht schwer zu erraten ist dass sie auch auf die 9-er Bahn ab 2011 steigen werden) und Intel's ATOM CPUs sind schon bekannt. Wenn's nur um CPUs ginge dann bitte schoen ein netter OT link: http://www.xbitlabs.com/news/multimedia/display/20100823143610_Manufacturers_Start_to_Ship_Netbooks_Featuring_Dual_Core_Atom_Pro cessors.html
Sonst kommen smartphone SoCs wie OMAP4 von TI mit dual Cortex9 erst wohl auch ab 2011 der wohl eher Qualcolmm's SoC mit Z460 entgegen stehen wird.
Und wenn's schon muss wir wissen wohl alle wie ARM's CPU IP genau aussieht und diese wird in breiter Mehrzahl im embedded Markt benutzt. Diese wird nicht von NVIDIA selber entwickelt sondern lediglich integriert und wenn's in einem Tegra Thread ueber NV irgendwelche Interesse haben sollte, dann ist es wohl eher das Zeug dass NV selber fuer den SoC entwickelt (encoder, decoder, GPU, audio).
Das naechste was ich jetzt noch hoeren werde ist dass auf einer jeglicher Platform die CPU der wichtigste Anteil ist und der Rest nur zur Dekoration integriert wurde.
http://www.nvidia.com/docs/IO/90715/Tegra_Multiprocessor_Architecture_white_paper_Final_v1.1.pdf
Seite 5 und 6 u.a.
Eight Purpose Optimized Processors
Dural
2010-08-24, 11:44:40
Es gibt generell noch nichts sehenswertes auf dem Markt mit dual-core CPUs und schon gar nicht von Tegra2.
Wenn man alles in einen Topf wirft, dann ist es wohl klar dass man den Durchblick verliert. Der T2 mit bis zu 1GHz dual Cortex9 und 240MHz ist die tablet/netbook Variante und hier ist momentan der hauptsaechliche Konkurrent Apple und Intel. Apple's roadmap weiss Apple nur selber (obwohl es nicht schwer zu erraten ist dass sie auch auf die 9-er Bahn ab 2011 steigen werden) und Intel's ATOM CPUs sind schon bekannt. Wenn's nur um CPUs ginge dann bitte schoen ein netter OT link: http://www.xbitlabs.com/news/multimedia/display/20100823143610_Manufacturers_Start_to_Ship_Netbooks_Featuring_Dual_Core_Atom_Pro cessors.html
Sonst kommen smartphone SoCs wie OMAP4 von TI mit dual Cortex9 erst wohl auch ab 2011 der wohl eher Qualcolmm's SoC mit Z460 entgegen stehen wird.
Und wenn's schon muss wir wissen wohl alle wie ARM's CPU IP genau aussieht und diese wird in breiter Mehrzahl im embedded Markt benutzt. Diese wird nicht von NVIDIA selber entwickelt sondern lediglich integriert und wenn's in einem Tegra Thread ueber NV irgendwelche Interesse haben sollte, dann ist es wohl eher das Zeug dass NV selber fuer den SoC entwickelt (encoder, decoder, GPU, audio).
Das naechste was ich jetzt noch hoeren werde ist dass auf einer jeglicher Platform die CPU der wichtigste Anteil ist und der Rest nur zur Dekoration integriert wurde.
http://www.nvidia.com/docs/IO/90715/Tegra_Multiprocessor_Architecture_white_paper_Final_v1.1.pdf
Seite 5 und 6 u.a.
aber wie so reitest du immer auf der leistung und verbrauch rum wenn du selber sagst das es noch nichts gibt?
leistung kann gar nicht so schlecht sein, sicher nicht der überfliger aber sicher auch nicht so schlecht das der tegra nicht konkurenz fähig wäre, siehe auch benchmarks
verbrauch kann ich nicht beurteilen... da gibt es auch so weit ich das gesehen habe auch kein vergleich.
Ailuros
2010-08-24, 12:32:01
aber wie so reitest du immer auf der leistung und verbrauch rum wenn du selber sagst das es noch nichts gibt?
Weil es vielleicht rein zufaellig der Grund sein wird warum das Tegra2 Schicksal nicht besonders besser sein wird als dieses vom Tegra1? Ein kleiner Blick auf den Thread-titel zeigt dass sich der Thread hier um Tegra dreht.
leistung kann gar nicht so schlecht sein, sicher nicht der überfliger aber sicher auch nicht so schlecht das der tegra nicht konkurenz fähig wäre, siehe auch benchmarks
Was soll ich an den benchmarks genau sehen wenn Du selber nicht mal faehig bist diese richtig zu analysieren. Es gibt auf der Result-liste ein Kistchen wo man nach Aufloesung die Resultate auflisten kann.
Und nochmal bis es richtig sitzt: im embedded Markt ist Stromverbrauch am wichtigsten. Ergo zaehlt hier mehr wie NIE perf/W. Wie diese dann bei der Konkurrenz aussehen wird werden wir dann in der Zukunft schon sehen, aber fast die gleichen Debatten hatte ich auch bevor die Tegra1 Aera begann.
verbrauch kann ich nicht beurteilen... da gibt es auch so weit ich das gesehen habe auch kein vergleich.
Das werden fuer Dich als Kunden die grossen Hersteller entscheiden und glaub mir sie wissen wo's langgeht. Und es ist Gott sei Dank ein Markt wo faules Marketing, Erpressungen und idiotisches Verhalten eines jeglichen IHVs keinen guten Platz haben. Wenn sich NVIDIA nicht wie das uebliche Rotznaesschen verhalten haetten, haetten sie vielleicht den Nintendo handheld Deal vor ~5 Jahren gewonnen und es waere ein Deal mit einem Potential von >100M Einheiten gewesen der den ganzen Tegra R&D finanziert haette wie es eigentlich NV von Anfang an geplant hatte. Obwohl ich bezweifle dass es irgendwo einen Link gibt, hiess es seitens Nintendo dass sie nein sagten zu Tegra2 wegen zu hohem Stromverbrauch und BOM. Das zweite steht fuer bill of materials und Du kannst es Dir nachgoogeln wofuer es steht fuer SoCs.
Dural
2010-08-24, 13:51:03
......
und trotzdem gehört der tegra zum schnellsten was es derzeit gibt, da von zu wenig oder nicht kokurenz fähig zusprechen halt ich für fragwürdig...
NV gibt 500mWatt für Quake3 mit 60FPS+ an, sicher zu viel für ein smartphone (wenn man nicht gerade auf kurze akku laufzeiten bei kleinem volumen setzten möchte...) aber für alles andere OK! Du sagst ja selber das es noch keine Dual Core in smartphone gibt gerade wegen dem verbrauch, also? und so wie ich das verstanden habe soll es ja auch mehrere Tegra versionen geben betreffent einer low power version :)
Nintendo soll vor 5 jahren gegen Tegra2 entschiden haben wegen dem verbrauch?!? das kann nicht auf fakten sondern nur auf vermutungen / ziele seitens NV hindeuten!
......
NV gibt 500mWatt für Quake3 mit 60FPS+ an, sicher zu viel für ein smartphone (wenn man nicht gerade auf kurze akku laufzeiten bei kleinem volumen setzten möchte...) aber für alles andere OK! Du sagst ja selber das es noch keine Dual Core in smartphone gibt gerade wegen dem verbrauch, also? und so wie ich das verstanden habe soll es ja auch mehrere Tegra versionen geben betreffent einer low power version :)
TI gibt für einen SGX 530 @ 192MHz im AM3715 bei 100% Auslastung 106mW an. Bei Quake3 sollten es aber keine 100% Auslastung sein, sondern eher 60-80%.
Der Tegra braucht also anscheinend ca. 7x soviel Energie wie ein SGX!
Undertaker
2010-08-24, 15:12:41
Steckt in Tegra nicht noch einiges mehr als die GPU?
Ailuros
2010-08-25, 11:11:24
......
und trotzdem gehört der tegra zum schnellsten was es derzeit gibt, da von zu wenig oder nicht kokurenz fähig zusprechen halt ich für fragwürdig...
Seufz...ein Tegra2 liefert mit 240MHz auf der GPU in einem tablet Dingsbums gerade mal so viel wie ein ca. 200MHz SGX535 im iPhone4 welches ein smartphone ist. Wenn es Dir nichts sagen sollte (hier fehlt wo eher der Wille...) dann kann ich auch nicht wirklich weiterhelfen.
Nochmal Tegra2 wie Du es bei GLBenchmark siehst ist KEIN smartphone Material.
NV gibt 500mWatt für Quake3 mit 60FPS+ an, sicher zu viel für ein smartphone (wenn man nicht gerade auf kurze akku laufzeiten bei kleinem volumen setzten möchte...) aber für alles andere OK!
Und Intel's GMA600 (535) donnert bei ueber 100fps ueber die Buehne. GMA600= tablet/netbook Material und mir wird's so langsam zu bunt das gleiche Zeug immer wieder zu wiederholen.
Du sagst ja selber das es noch keine Dual Core in smartphone gibt gerade wegen dem verbrauch, also? und so wie ich das verstanden habe soll es ja auch mehrere Tegra versionen geben betreffent einer low power version :)
Tegra2 mit niedrigeren Frequenzen = niedrigere Leistung. Sitzt zumindest dieses oder muss ich das noch extra erklaeren? OMAP4 hat einen dual core Cortex fuer naechstes Jahr aber auch einen SGX540 mit doppelt so viel pipelines als 535.
Nintendo soll vor 5 jahren gegen Tegra2 entschiden haben wegen dem verbrauch?!? das kann nicht auf fakten sondern nur auf vermutungen / ziele seitens NV hindeuten!
Es ist Nintendo's Erklaerung und nicht meine. Nintendo ist in der Zwischenzeit mit DMP ziemlich gut ausgeruestet fuer das was sie wirklich brauchen. Jensen war derjenige der oefters mit Nintendo hints oeffentlich stichtelte vor Jahren und nicht ich. Er fragte sogar Sweeney bei einer oeffentlichen Vorstellung wie Tegra in einem Nintendo aussehen wuerde, worauf er aber keine Antwort bekam. Es ist kein Zufall dass sich bis vor kurzem Geruechte immer noch eine Zusammenarbeit zwischen Nintendo und NV wollten.
Es ist ergo wohl schwer nur irgend jemand's Hirngespinst gewesen.
Dural
2010-08-25, 13:12:59
mir wird es bald zu blöd...
das iPad kommt ja auch nicht ans iPhone ran... sagt das jetzt was aus?!?
und wenn du dir mal die einzel bench anschauen würdest, würdest du sehen das die Tegra GPU eigentlich immer haushoch gewinnt ausser bei der fill rate, da hat NV noch gewaltigen nachholbedarf...
wirklich fakten sehe ich bis jetzt noch keine die für dein zeug spricht, gerade auf den stromverbrauch bezogen!
ich meine wenn sogar LG mit Tegra smartphones kommen will kann das ding gar nicht so schlecht sein wie du ihn hinstellst
Ailuros
2010-08-25, 13:38:00
mir wird es bald zu blöd...
das iPad kommt ja auch nicht ans iPhone ran... sagt das jetzt was aus?!?
iPhone4 und iPad haben genau den gleichen A4 SoC nur mit verschiedenen Frequenzen und unterschiedlichen Aufloesungen.
und wenn du dir mal die einzel bench anschauen würdest, würdest du sehen das die Tegra GPU eigentlich immer haushoch gewinnt ausser bei der fill rate, da hat NV noch gewaltigen nachholbedarf...
BEI UNTERSCHIEDLICHEN AUFLOESUNGEN. Und nein wenn eine PC GPU in 1680*1080 30fps in bench X liefert dann ist es eben nicht vergleichbar mit einer anderen die in 1024*768 60fps liefert.
Sowohl die Tegra2 GPU als auch SGX535 haben jede 2 TMUs, da gibt es nicht nachzuholen; rohe Fuellrate kommt von 2 TMUs * Frequenz und diese ist unterschiedlich zwischen den beiden.
wirklich fakten sehe ich bis jetzt noch keine die für dein zeug spricht, gerade auf den stromverbrauch bezogen!
Wie gesagt Du und ich sind nicht die wirklichen Kunden in dem Fall sondern die finalen Geraete-Hersteller. "Mein Zeug" basiert auf ausfuehrliche Forschung im embedded Markt, waehrend Du blindlings auf einem benchmark score herumtrommelst den Du nicht mal richtig verstehen kannst.
ich meine wenn sogar LG mit Tegra smartphones kommen will kann das ding gar nicht so schlecht sein wie du ihn hinstellst
Es ist auf jeden Fall nicht besser als konkurrierende Loesungen und das von vielen Aspekten. Es kommt ein smartphone mit T2 (welches nichtmal sicher ist bis ich es wirklich von LG bestaetigt sehe)....du liebe Zeit. Dass der gesamte smartphone Markt mit Qualcolmm SoCs bzw. IMG GPU IP in der Zwischenzeit ueberschwemmt ist und wird heisst natuerlich dass alle Hersteller bloed sind. Eine Ausnahme macht keine Regel und bevor Du "hurra ein Geraetchen schreisst" waere es wohl angebrachter die GLBenchmark Datenbank genau durchzusuchen um zu sehen was in was genau steckt.
Allein was nur Apple an i-Quark verkauft hat bis heute gleicht einem so hohem Integrations-Volumen dass der noch nicht gesicherte LG Punkt ueber der Laecherlichkeit liegt.
***edit: uebrigens hat Kishonti ihre Resultate-Datenbank etwas besser organisiert. Sie teilt sich jetzt in "GLBenchmarkTeamTested" und "Community Uploads" welches auch erstmal die Zweifel des Gasts oben beseitigen sollte.
ich meine wenn sogar LG mit Tegra smartphones kommen will kann das ding gar nicht so schlecht sein wie du ihn hinstellst
LG wollte auch ein Moorestown Gerät bringen....
Ailuros
2010-08-25, 14:33:41
LG wollte auch ein Moorestown Gerät bringen....
Fett von Intel anfangs verworben und spaeter von LG als nur ein "Konzept-Geraet" abgestempelt.
Naja die Chancen von Tegra2 sind dann doch besser als die von Morrestown :D
Ailuros
2010-08-25, 15:07:18
Naja die Chancen von Tegra2 sind dann doch besser als die von Morrestown :D
Im gegebenen Fall ja; wie ich schon weiter oben sagte erwarte ich von LG dieses Jahr diverse smartphones auf OMAP3 (nicht 4) basierend, Snapdragon und vielleicht Tegra2; wobei die Mehrzahl fuer LG wohl eher auf Qualcolmm fallen koennte.
OMAP4 Geräte kommen doch dieses Jahr eh keine mehr... leider
Ailuros
2010-08-26, 12:24:06
OMAP4 Geräte kommen doch dieses Jahr eh keine mehr... leider
Aus gutem Grund; such Dir einen Vergleich ueber Herstellungsprozesse auf und es ist leicht zu sehen warum TI schwer mit ihren Prozessen zeitiger ankommen kann.
LovesuckZ
2010-08-30, 03:15:49
So what is a Super Phone? Today’s devices running processors around the 1GHz level are capable of HD 720p encode and decode of video and render graphics comparable to Sony’s PlayStation 2. Super Phones running dual core processors in the 1.5GHz to 2GHz range will be fully capable of 1080p encode & decode of HD video, capture 1080p video and capable of achieving console level 3D graphics.
Since then Tegra has evolved and is in its second generation called Tegra 2. From what I am hearing from OEMs Tegra 2 is gaining significant momentum in the super phone and tablet space. Qualcomm has been in the news as one of the leading mobile processors for these types of devices with their Snapdragon chip; however Tegra 2 is currently gaining with OEMs and ODMs due to its advantages in HD video processing, gaming, graphics capabilities, dual cores, multimedia features and current availability. It is important to note that these devices from LG running Tegra 2 will be the first dual-core mobile phones on the market. All of this is taking advantage of the ARM architecture, which has provided an important foundation for mobile and touch computing.
http://www.slashgear.com/2011-the-year-of-the-super-phone-2799210/
YfOrU
2010-08-30, 07:56:12
Handy-Chips für Intel
Infineon verkauft Wireless
Nach wochenlangen Verhandlungen kann der Dax-Konzern Infineon einen aufsehenerregenden Abschluss verkünden: Der Neubiberger Chip-Hersteller verkauft seine Handychipsparte komplett in die USA. Die Amerikaner legen 1,4 Mrd. Dollar in bar auf den Tisch. Infineon wird mit dem Verkauf deutlich schlanker.
http://www.n-tv.de/wirtschaft/Infineon-verkauft-Wireless-article1374981.html
Damit ist Intel endgültig wieder richtig ordentlich im SoC Geschäft dabei und verdient selbst an vielen ARM Geräten ohne SoCs aus eigener Produktion mit.
Mittelfristig hat jetzt selbst Intel eigene Baseband Produkte zur Integration...wer die nicht hat spielt nur in der zweiten Liga und das scheint bei Nvidia niemand einzusehen.
http://www.n-tv.de/wirtschaft/Infineon-verkauft-Wireless-article1374981.html
Damit ist Intel endgültig wieder richtig ordentlich im SoC Geschäft dabei und verdient selbst an vielen ARM Geräten ohne SoCs aus eigener Produktion mit.
Mittelfristig hat jetzt selbst Intel eigene Baseband Produkte zur Integration...wer die nicht hat spielt nur in der zweiten Liga und das scheint bei Nvidia niemand einzusehen.
Der Drops ist noch lange nicht gelutscht... Da geh ich jede Wette --> es werden einige Klagen wegen des zu geringen Preises eingehen. Gerade Siemens und seine Ableger sind ja für die Empfänglichkeit und Zahlung nicht legaler Zahlungen bekannt...
YfOrU
2010-08-30, 10:07:32
Intel war nicht der einzige Interessent und hat wohl auch am meisten geboten. Der Erlös durch den Verkauf ist zwar niedriger als erwartet, dafür ist aber immerhin die komplette Sparte über den Tisch gegangen. Andere wie Samsung waren nur an Teilbereichen interessiert.
http://www.heise.de/newsticker/meldung/Hannspree-zeigt-10-Zoll-Tablet-mit-Android-1069306.html
@Ail
wie Leistungsfähig ist Tegra2 im Vergleich mit Appels A4 oder dem was Samsung in seinem Galaxy Pad einsetzen wird?
Für Tablets scheint mir Tegra2 garnicht so schlecht zu sein oder irre ich mich?
Tegra 2 IGP und der SGX 540 im Galaxy Tab sollten nicht so weit auseinander liegen.
Hingegen steht bei der CPU nur ein A8-Core mit 1GHz zwei A9-Cores im Tegra 2 gegenüber.
Bei der CPU-Leistung zielt Nvidia schon in Richtung Atom-SoCs ab.
Ailuros
2010-09-07, 08:12:04
Tegra 2 IGP und der SGX 540 im Galaxy Tab sollten nicht so weit auseinander liegen.
SGX540 duerfte schon ein Stueck staerker sein.
Hingegen steht bei der CPU nur ein A8-Core mit 1GHz zwei A9-Cores im Tegra 2 gegenüber.
Stimmt.
Bei der CPU-Leistung zielt Nvidia schon in Richtung Atom-SoCs ab.
Single oder dual-core ATOM? :P
@Ail
wie Leistungsfähig ist Tegra2 im Vergleich mit Appels A4 oder dem was Samsung in seinem Galaxy Pad einsetzen wird?
Für Tablets scheint mir Tegra2 garnicht so schlecht zu sein oder irre ich mich?
Schlecht ist Tegra2 auf jeden Fall nicht; es ist ein high end SoC Design fuer die heutigen Verhaeltnisse ueberhaupt im Vergleich zu jeglichem momentanem Qualcolmm Zeug.
Komischerweise ist COMPAL einer der ersten Tegra2 Hersteller und dessen Vorstand meinte folgendes: http://www.xbitlabs.com/news/mobile/display/20100902235214_Apple_iPad_to_Leave_Behind_Competing_Slates_Next_Year_Compal.html
Apple weiss Software fuer ihre Geraete auszulegen und auch diese zu vermarkten. Schon in Q1 2011 soll der iPad Nachwuchs kommen.
Tegra2 fuer netbooks/tablets duerfte dank dual A9 insgesamt ein Stueck ober dem iPad liegen (wobei noch kein T2 Geraet mit 1024*768 wie das iPad laeuft) und wenn SAMSUNG ihre sw richtig optimiert hat ist ihr Ding ein Stueck schneller als T2. Bei SAMSUNG und sw bin ich aber nicht so zuversichtig denn "Apple" sind sie mit Sicherheit nicht. Hier haengt es aber auch davon ab bei Tegra2 wer Geraet X genau baut und wie ausgetueftelt die sw Unterstuetzung genau ist.
Noch ein Samsung Galaxy S smartphone review: http://www.anandtech.com/show/3891/samsung-epic-4g-review-the-fastest-android-phone wenn Du Dir das Ganze durchliest kann man leicht sehen warum u.a. Apple's iMist so erfolgreich ist.
http://www.heise.de/newsticker/meldung/LG-baut-Smartphones-mit-Dual-Core-Prozessoren-von-Nvidia-1073853.html
Die vergleichsweise hohe 3D-Leistung des von Nvidia "Ultra Low Power GeForce" genannten OpenGL-ES-2.0-Grafikkerns soll auch für Spiele ausreichen – ein wichtiger Aspekt für Microsofts Windows Phone 7.
http://www.heise.de/newsticker/meldung/LG-baut-Smartphones-mit-Dual-Core-Prozessoren-von-Nvidia-1073853.html
Jo die Meldung ist ganz frisch. So langsam scheint Tegra2 wirklich an fahrt aufzunehmen.
aylano
2010-09-07, 19:44:21
Ja, indem sie witzigerweise die selbe Taktik wie AMD-GPUs anwendet.
Also, die schnelle Nutzung von einer neuen Fertigung.
Nvidia hat momentan den Vorteil als erster die TSMC-40nm für ARM-Chips zu nutzen. Die Konkurrenten werden drauf reagieren (müssen).
Ein Grund, warum Qualcomm von anfang an 28nm-GF nutzen will, falls es dann verfügbar wird.
Also, den Einstieg haben sie mit einem geschickten Schachzug geschafft. Jetzt wird es interessant zu sehen, wie sie sich in diesem Markt behaupten können, das sie jetzt bzw in naher Zukunft ein ernstzunehmender Gegner sind, den man beachten muss & wird.
Immerhin ist Nvidia im Gegensatz zu Intel für Überraschungen & Innovationen gut.
Dass gerade Tegra den Atom ersetze, ist ein Klares Zeichen für Atom bzw Intel und vielleicht die ersten Anzeichen für den Beginn vom Ende des "Atom-Höhenflugs" , da Ontario dann im Netbook-Markt bald auch gehörig Durck machen wird.
Jetzt wäre es interessant zu, in wievielen Märkten Tegra bzw. Atom überhaupt eintreten könnte.
Schließlich hat Apple & Samsung seine eigene Chips. Nokia & Co weiß ich jetzt nicht.
Ailuros
2010-09-08, 11:00:57
Ja, indem sie witzigerweise die selbe Taktik wie AMD-GPUs anwendet.
Also, die schnelle Nutzung von einer neuen Fertigung.
Nvidia hat momentan den Vorteil als erster die TSMC-40nm für ARM-Chips zu nutzen. Die Konkurrenten werden drauf reagieren (müssen).
Ein Grund, warum Qualcomm von anfang an 28nm-GF nutzen will, falls es dann verfügbar wird.
Also, den Einstieg haben sie mit einem geschickten Schachzug geschafft. Jetzt wird es interessant zu sehen, wie sie sich in diesem Markt behaupten können, das sie jetzt bzw in naher Zukunft ein ernstzunehmender Gegner sind, den man beachten muss & wird.
Selbst Arun@B3D bestaetigt oeffentlich dass NV ihre R&D Kosten nicht decken werden koennen und es bestaetigt lediglich dass ich nicht der einzige bin der aehnliche Gefuehle von NV off the record kassiert. Nebenbei purzelte der originale forecast fuer T2 von $250Mio auf (hoffentlich) $125Mio und dieses hat nicht nur mit Deals zu tun aus denen nichts wurde sondern auch einer radikalen Preis-reduktion fuer die SoCs damit sie ueberhaupt anstaendig verkaufen koennen. Heute duerfte der Preis bei ca. $10-12 pro SoC liegen.
Sonst ziemlich gut getroffen. Ausser natuerlich dass NV auch hier in der Gnade von TSMC liegt, was dann aber auch heisst dass sie fuer Tegra2 u.a. einen noch groesseren Vorsprung mit 40G verloren haben da das Ding in etwa im gleichen Quartal wie GF100 in die Produktion ging. Und nein T2 ist nicht auf 40LP.
Immerhin ist Nvidia im Gegensatz zu Intel für Überraschungen & Innovationen gut.
NV vertraue ich viel mehr zu wenn es zur eigentlichen sw-Platform eines SoC kommt; diese ist unheimlich wichtig und nochmal hier glaenzt das Apple Beispiel. Anders hw von sich selber sagt gar nichts. Wenn Arun sich nicht verzettelt hat wird NV die ersten sein mit einem quad-core CPU SoC fuer ihre T3 Generation.
Wie dem auch sei Intel hat einen ziemlich sehenswerten Vorteil wenn es zu Prozess-technologie kommt. Neben den technischen Vorteilen ist fuer Intel selber die Herstellung auch um einiges billiger und sie entwickeln die CPUs selber. Der Grund wieso Intel den LG Deal verloren hat hat nichts mit der eigentlichen hw zu tun so wie es aussieht sondern eher ein royal-f*** up seitens Intel, welche aber auch nicht gerade auszuschliessen sind fuer NV. Falls aus dem Google/Motorola Deal fuer NV nichts werden sollte, kannst Du diesen in die gleiche royal-f*** up Kategorie wie LG/Intel verschachteln oder auch Nintendo/NV.
Dass gerade Tegra den Atom ersetze, ist ein Klares Zeichen für Atom bzw Intel und vielleicht die ersten Anzeichen für den Beginn vom Ende des "Atom-Höhenflugs" , da Ontario dann im Netbook-Markt bald auch gehörig Durck machen wird.
Bleibt das sw Problem; selbst von Charlie selber kommen eher negative Nachrichten seitens AMD fuer anstaendige Resourcen was Linux Unterstuetzung betrifft.
Jetzt wäre es interessant zu, in wievielen Märkten Tegra bzw. Atom überhaupt eintreten könnte.
Schließlich hat Apple & Samsung seine eigene Chips. Nokia & Co weiß ich jetzt nicht.
NOKIA hat eine aktive Abmachung mit Intel fuer die Zukunft aber ich bezweifle dass sie Texas Instruments dafuer aufgeben werden. Es ist stinknormal in diesem Markt dass grosse Semis bzw. Hersteller von mehr als einer Quelle einkaufen und in diese Kategorie faellt wohl auch SAMSUNG selber da sie auch ARM Mali GPU IP lizenziert haben.
Nebenbei Samsung's naechster Generation Orion wird einen dual A9 tragen fuer 2011, waehrend NV wie gesagt hoechstwahrscheinlich auf quad core setzen wird. Und damit sich das Ganze auch schoen als Kreis schliesst: der eigentliche Vorteil fuer NV ist nicht gerade ueberragend.
Samsung's Galaxy S smart-phones sind ohnehin schon staerker als tablet Tegra2 und es ist noch unbekannt ob sie fuer ihr Galazy tablet noch etwas hoeher takten. Im smart-phone Galaxy taktet der A8 auf 1GHz hat aber Luftraum nach Samsung selber bis zu ~<1.3GHz und T2's dual A9 fuer tablets taktet bei 1GHz.
aylano
2010-09-08, 12:32:59
Nebenbei purzelte der originale forecast fuer T2 von $250Mio auf (hoffentlich) $125Mio und ....
Für welchen Zeitraum/Quartal galt diese Prognose von $250 Mio?
Wobei diese Überheblichkeit ja bekannt ist.
Als ich das 1Q 2011 Call-Sktript las, konnte man sehr viel Unsicherheit und Hoffnung bei GPU-Prognosen rauslesen, sodass mich der Einbruch bei weitem nicht überraschte.
Heute duerfte der Preis bei ca. $10-12 pro SoC liegen.
Das ist ja das Problem von Nvidia & Intel. Nachdem sie in den letzten Jahren ihre Produkte zu Mond-Preisen aufgrund ihres Image verkauften konnten, dachten sie, sie können das auch im stark umkämpften ARM-Markt.
Der Grund wieso Intel den LG Deal verloren hat hat nichts mit der eigentlichen hw zu tun so wie es aussieht sondern eher ein royal-f*** up seitens Intel, welche aber auch nicht gerade auszuschliessen sind fuer NV. Falls aus dem Google/Motorola Deal fuer NV nichts werden sollte, kannst Du diesen in die gleiche royal-f*** up Kategorie wie LG/Intel verschachteln oder auch Nintendo/NV.
Den Text verstehe ich nicht.
Was meinst du mit royal-f*** up????????????????
Bleibt das sw Problem; selbst von Charlie selber kommen eher negative Nachrichten seitens AMD fuer anstaendige Resourcen was Linux Unterstuetzung betrifft.
Für den Netbook-Markt braucht man keine Linux-Unterstützung.
Aber du gibts mir gerade einen weiteren Grund, warum AMD momentan Bobcat nicht im Tablet(/Smartphone)-Markt einführt und dieses Wort momentan nicht in den Mund nimmt.
Mal sehen.
Während AMD den "28nm-Ontario"
mit HPP, zusätzlichen Stromspartechniken , SoC/new-Southbridge sowie north-Island-GPU den Chip auf Hardware- & Fertigungs-mäßig voll auf den Tablet/Smartphone-Markt konzentriert, muss/könnte/wird AMD in den nächsten 12 Monaten sich AMD von der Softwareseite in Sachen Linux & Co "voll Konzentriere" bzw. das beste draus machen.
PS: Interessanter Text von dir mit vielen nützlichen Informationen.
Ailuros
2010-09-08, 13:06:07
Für welchen Zeitraum/Quartal galt diese Prognose von $250 Mio?
Wobei diese Überheblichkeit ja bekannt ist.
Als ich das 1Q 2011 Call-Sktript las, konnte man sehr viel Unsicherheit und Hoffnung bei GPU-Prognosen rauslesen, sodass mich der Einbruch bei weitem nicht überraschte.
Zu grosse Herstellungs-kosten spielen auch ihre Rolle mit denn die TSMC/40G Saga ist ja bekannt. Kein Wunder T2 ging erst in Q1 2010 in die Massenproduktion.
Das ist ja das Problem von Nvidia & Intel. Nachdem sie in den letzten Jahren ihre Produkte zu Mond-Preisen aufgrund ihres Image verkauften konnten, dachten sie, sie können das auch im stark umkämpften ARM-Markt.
Intel will mir nichts dir nichts in den smartphone Markt eindringen. Ich weiss zwar nicht fuer wieviel sie Moorestown heute verkaufen, aber mit dem GMA500 war die Integration alles andere als Erbsen mit knapp unter 90 Geraeten (netbooks/MIDs), ihr eigenes CE Zeug mal zur Seite.
Den Text verstehe ich nicht.
Was meinst du mit royal-f*** up????????????????
Anders ein kolossaler Fehler der Intel den Deal gekostet hat. Intel und auch NV muessen irgendwann einsehen muessen dass man mit Mitarbeitern nicht so umgehen kann wie es einem gerade passt.
Für den Netbook-Markt braucht man keine Linux-Unterstützung.
Uhmmm selbst Intel hat angekuendigt dass es selbst auf Moorestown nichts mit windows wird. Welches OS wird denn hauptsaechlich fuer netbooks benutzt heutzutage?
Aber du gibts mir gerade einen weiteren Grund, warum AMD momentan Bobcat nicht im Tablet(/Smartphone)-Markt einführt und dieses Wort momentan nicht in den Mund nimmt.
Mal sehen.
Während AMD den "28nm-Ontario"
mit HPP, zusätzlichen Stromspartechniken , SoC/new-Southbridge sowie north-Island-GPU den Chip auf Hardware- & Fertigungs-mäßig voll auf den Tablet/Smartphone-Markt konzentriert, muss/könnte/wird AMD in den nächsten 12 Monaten sich AMD von der Softwareseite in Sachen Linux & Co "voll Konzentriere" bzw. das beste draus machen.
Nach dem was ich heute zugesteckt bekam fuer zukuenftige smart-phone SoCs und auch Ontario sieht es eher danach aus dass der GPU block in Ontario um einiges groesser ist als viele von Euch einzuschaetzen vermoegen. So wie es aussieht ist generell einfach DX11 Komplianz viel zu viel und kostet auch zu viel in die area um damit schon in 2011 in smart-phones einzusteigen.
Was AMD aber definitiv richtig gemacht hat mit Fusion generell, ist die Richtlinie dass man sich mehr auf GPU power als auf CPU power konzentriert. Diesen Trend erwarte ich jetzt von den meisten Semis in der absehbaren Zukunft und NV koennte unter den paar Aussnahmen hier liegen.
TheGoD
2010-09-08, 14:21:58
Samsung's Galaxy S smart-phones sind ohnehin schon staerker als tablet Tegra2 und es ist noch unbekannt ob sie fuer ihr Galazy tablet noch etwas hoeher takten. Im smart-phone Galaxy taktet der A8 auf 1GHz hat aber Luftraum nach Samsung selber bis zu ~<1.3GHz und T2's dual A9 fuer tablets taktet bei 1GHz.Du beziehst dich hier aber nur auf die GPU? Die CPU ist Samsung Singlecore A8 doch haushoch überlegen was im Endeffekt auch wichtiger ist als die Grafikleistung, die erstmal ausgenutzt werden muss. Davon abgesehen das T2 halt nicht für Smartphones geeignet ist natürlich.
Ailuros
2010-09-08, 14:54:50
Du beziehst dich hier aber nur auf die GPU? Die CPU ist Samsung Singlecore A8 doch haushoch überlegen was im Endeffekt auch wichtiger ist als die Grafikleistung, die erstmal ausgenutzt werden muss. Davon abgesehen das T2 halt nicht für Smartphones geeignet ist natürlich.
Sagte auch fast jedermann als es bekannt wurde dass der Apple A4 SoC nur einen A8 traegt; als aber die finalen Geraete in jederman's Hand kamen und man die wirkliche Effizienz der Geraete sah wurde es erdrueckend still.
Ein klein bisschen zur GPU:
Just in the broad case of Android doing more with the GPU as time goes by (and in the specific case of the Nexus One's scrolling list, using the GPU to help that is so obvious it hurts), yes. Obviously you can bottlenecked by different things at any given time, but the GPU is becoming a place where more of the work is done, and so just brute-forcing a level of performance simply by using it is doable for some things.
http://forum.beyond3d.com/showpost.php?p=1469385&postcount=15
Ich weiss es wird Zeit dauern bis jederman verstehen kann dass ein SoC im embedded Markt fundamentale Unterschiede zu einem PC als Beispiel hat, aber NVIDIA selber erwaehnt in ihrem Tegra2 white-paper 8 purpoze optimized processors. So kompliziert ist ein SoC und alle diese diversen Prozessoren reissen sich gegenseitig die Haare aus um die genau gleiche Bandbreite mehr als oefters zur gleichen Zeit.
Tiamat
2010-09-08, 19:23:38
Vielleicht hat LG auch erst zum Schluss vom Stromverbrauch des Atoms erfahren :biggrin:
Also wenn das mit der Preissenkung auf 15$ stimmt, dann seh ich für den Atom da überhaupt keine Existenzberechtigung mehr. Der Preis UND der Verbrauch sind also wesentlich besser wie beim x86 Kandidat, d.h da wird bald eine Flut an Geräten auf den Markt kommen. Und wenn sich dann erstmal die Softwarebasis auf die neuen Prozzis breitflächig darauf eingestellt hat und wenn dann Tegra3 mit dem 2*2Ghz ARM Cortex A9 gelauncht wird, dann wurde der Atom regelrecht aus dem Markt gespoilt.
Ailuros
2010-09-08, 20:51:24
Vielleicht hat LG auch erst zum Schluss vom Stromverbrauch des Atoms erfahren :biggrin:
Es gibt zwei Varianten vom Z600 mit verschiedenen Frequenzen. Das LG Dingsda haette die kleinere Version abbekommen.
Hoffentlich hat NV die Frequenzen auf T2 reduziert sonst will ich die Batterie-Laufzeit eines LG Optimus auch nicht wirklich sehen.
Also wenn das mit der Preissenkung auf 15$ stimmt, dann seh ich für den Atom da überhaupt keine Existenzberechtigung mehr. Der Preis UND der Verbrauch sind also wesentlich besser wie beim x86 Kandidat, d.h da wird bald eine Flut an Geräten auf den Markt kommen.
Zwischen $10 und 12 und da aber momentan andere SoCs mit gleichem Preis und um einiges niedrigerem Stromverbrauch anliegen wird gar nichts ueberflutet LOL.
Und wenn sich dann erstmal die Softwarebasis auf die neuen Prozzis breitflächig darauf eingestellt hat und wenn dann Tegra3 mit dem 2*2Ghz ARM Cortex A9 gelauncht wird, dann wurde der Atom regelrecht aus dem Markt gespoilt.
Lassen wir erstmal diese Generation anstaendig ausspielen, denn Intel hat sowieso immer noch nichts im smart-phone Markt verloren und Intel ist auch ein semi der sich schmerzenlos einen Larabee die Toilette herunterspuelen kann. NV hingegen muss jegliches ausbaden ob mittelmaessig oder nicht.
Was jetzt die naechste Generation betrifft nach T2/GMA600 haben wir noch Zeit genug Glaskugeln zu lesen.
Damit Du wieder schoen auf den Teppich zurueck kommst wenn NV selber einen Umsatz von $125Mio erwartet rechne selber aus was fuer einer Ueberschwemmung diese Summe genau gleichen koennte. Knapp ueber 10Mio Einheiten mal ganz grob geschaetzt? Ja so eine grosse "Ueberschwemmung". So viel verkauft Apple nur mit einem einzigen i-Sch***s Geraet.
Tiamat
2010-09-08, 23:35:28
10 Mio von NV ? Kein Problem, es gibt noch Qualcomm, Texas Instruments und Samsung. Jeder Hersteller, der jetzt ein modernes Gerät anbieten will, zum Preis von mehreren 100€ wird sicher keinen low-Budget SoC benutzen, weil die Konkurrenz schon neuere einsetzt. Brandneu werden Dual Core Smartphones sein.
Google leistet mit Android und Chrome OS die nötige Starthilfe. Ubuntu ist auch ready, aber zu Intel´s Glück rettet Microsoft die Lage wieder mit Windows Mobile 7. Ups, läuft das überhaupt auf x86 ;D
Klar Apple verdient natürlich an der ganzen Plattform, NV nur am SoC.
Aber Apple ist n gutes Beispiel. Für die kam ne Atomlösung überhaupt net in Frage, für NV und Google auch net, und das sind nicht gerade kleine Firmen.
Apple hat da ja wahnsinnig Gas gegeben. So stark, dass man schon fast den Eindruck hat, dass sie die Desktopentwicklung links liegen gelassen haben.
Der Zug ist nicht mehr aufzuhalten ..
Ailuros
2010-09-09, 08:37:09
10 Mio von NV ? Kein Problem, es gibt noch Qualcomm, Texas Instruments und Samsung. Jeder Hersteller, der jetzt ein modernes Gerät anbieten will, zum Preis von mehreren 100€ wird sicher keinen low-Budget SoC benutzen, weil die Konkurrenz schon neuere einsetzt. Brandneu werden Dual Core Smartphones sein.
Ich hab auch nicht behauptet dass dual core CPUs ueberfluessig sein werden. In vergangenen Debatten fanden andere es sogar fraglich wozu eine zukuenftige quad-core CPU notwendig waere. Und ja natuerlich teile ich die Meinung nicht denn von irgendwo muss die Leistung auch skalieren.
Die eigentliche Frage ist was danach kommen wird; so wie ich es sehe werden in SoCs CPU cores fuer die absehbare Zukunft schwer ueber 4 cores am Ende skalieren, ergo gibt es dann die andere Alternative GPU cores zu skalieren in einem SoC und diese natuerlich konstant mehr einzusetzen.
NV's Entscheidung zuerst die CPUs zu skalieren bis zur Tegra3 Generation ist merkwuerdig von ihrer eigenen Perspektive. Natuerlich muss man hier auch sagen dass ihre GPU blocks bisher ziemlich gross waren und es einfacher ist wenn es um Platzverteilung geht einen oder mehrere CPU cores in der Zukunft hinzuzufuegen. Tegra2 ist 49mm2 gross und knapp 1/5 ist der GPU block, waehrend im Vergleich die A9 cores jeweils klein und um einiges "billiger" sind in hw.
Google leistet mit Android und Chrome OS die nötige Starthilfe. Ubuntu ist auch ready, aber zu Intel´s Glück rettet Microsoft die Lage wieder mit Windows Mobile 7. Ups, läuft das überhaupt auf x86 ;D
Intel hat doch angegeben dass es nichts mit winblows und Moorestown werden wird? Zusammen mit NOKIA finanzieren sie research und das MeeGo Zeug.
Klar Apple verdient natürlich an der ganzen Plattform, NV nur am SoC.
Aber Apple ist n gutes Beispiel. Für die kam ne Atomlösung überhaupt net in Frage, für NV und Google auch net, und das sind nicht gerade kleine Firmen.
Apple hat da ja wahnsinnig Gas gegeben. So stark, dass man schon fast den Eindruck hat, dass sie die Desktopentwicklung links liegen gelassen haben.
Der Zug ist nicht mehr aufzuhalten ..
Tja Apple verdient auch ein Schweinegeld von ihrem application center. Die eigentliche Frage ist nicht was Apple genau macht sondern was andere machen koennen hier wirklich aktiver zu konkurrieren. Apple hat von nichts ploetzlich einen Marktanteil von 14% im smart-phone Markt. Im Vergleich zu NOKIA's Prozentual zwar nichts besonderes, aber an Stelle von NOKIA wuerde ich mich nicht so leicht zuruecklehnen denn weder ihre zeitige N8 und/oder N900 koennen wirklich jemand aus den Socken reissen.
Wenn's nach mir geht darf der Zug gerne weiterfahren, nur mit mehr Passagieren bitteschoen ;)
Boxee Box ditches NVIDIA's Tegra 2 for Intel CE4100
http://www.engadget.com/2010/09/13/boxee-box-ditches-nvidias-tegra-2-for-intel-ce4100-pre-orders/
http://www.anandtech.com/show/3912/boxee-box-the-inside-story/6
stickedy
2010-09-13, 18:25:07
Boxee Box ditches NVIDIA's Tegra 2 for Intel CE4100
http://www.engadget.com/2010/09/13/boxee-box-ditches-nvidias-tegra-2-for-intel-ce4100-pre-orders/
http://www.anandtech.com/show/3912/boxee-box-the-inside-story/6
Hmm, ein Intel-Chip kann Video-Decoding besser als eine nVidia-GPU? Na Respekt...
Bucklew
2010-09-13, 18:27:28
Hmm, ein Intel-Chip kann Video-Decoding besser als eine nVidia-GPU? Na Respekt...
Naja, der CE4100 ist auch ein kleines bisschen größer als ein Tegra.
stickedy
2010-09-13, 18:30:20
Was aber wohl hauptsächlich der CPU geschuldet sein sollte bzw. dürfte...
dildo4u
2010-09-13, 18:31:55
Ist Terga so viel schwächer als ein ion 1?Bei meinem Atom System mit Ion 1 komm ich auf 9% CPU Auslastung bei 1080p h264 mit dem VLC Player.
Was aber wohl hauptsächlich der CPU geschuldet sein sollte bzw. dürfte...
Denke eher dem verwendeten VXD.
Was steckt genau drin?
http://www.imgtec.com/powervr/powervr-vxd.asp
Evtl. noch das Zusammenspiel zw. VXD und CPU.
stickedy
2010-09-13, 18:43:00
Denke eher dem verwendeten VXD.
Was steckt genau drin?
http://www.imgtec.com/powervr/powervr-vxd.asp
Evtl. noch das Zusammenspiel zw. VXD und CPU.
Oh, OK, ich hab nicht dran gedacht, dass in dem Intel-Gewächs PowerVR-Technik werkelt. Das erklärt das ganze natürlich :)
Bucklew
2010-09-13, 20:07:05
Ist Terga so viel schwächer als ein ion 1?Bei meinem Atom System mit Ion 1 komm ich auf 9% CPU Auslastung bei 1080p h264 mit dem VLC Player.
Äpfel? Birnen? ;)
Ailuros
2010-09-14, 12:54:55
Oh, OK, ich hab nicht dran gedacht, dass in dem Intel-Gewächs PowerVR-Technik werkelt. Das erklärt das ganze natürlich :)
Ob es sich wirklich um PowerVR VXD handelt bin ich mir nicht sicher beim CE4100. In Moorestown steckt mit Sicherheit ein VXD drin.
Wie dem auch sei hat CE4100 einen fixed function video decoder:
http://forum.beyond3d.com/showpost.php?p=1471488&postcount=304
Nope and nope. They have fixed function decoders that support H.264, but apparently there's bitrate problems. The CE4100 has a dedicated video decoder and doesn't use the x86.
Hmm, ein Intel-Chip kann Video-Decoding besser als eine nVidia-GPU? Na Respekt...
Tegra2 schleusst decoding auch nicht ueber die GPU; der SoC hat auch einen dedizierten video decoder nur eben schwaechelt er bei hohen bitrates fuer H264. Wenn es um GPU video decoding ginge waere auch die CE4100 im Vorsprung da diese auf 400MHz taktet waehrend die T2 GPU auf lediglich 240MHz.
Ist Terga so viel schwächer als ein ion 1?Bei meinem Atom System mit Ion 1 komm ich auf 9% CPU Auslastung bei 1080p h264 mit dem VLC Player.
Wenn ich mich nicht irre sind es auf ION stets bis zu 16 "CUDA cores" oder SPs bei zumindest 1.1GHz. Die ALUs in Tegra2 kann man erstmal nicht "CUDA" cores nennen weil es sich nur um FP24 pixel shader ALUs handelt und es sind lediglich 2 bei magerer 240MHz Frequenz. Ein ION Dingsbums darf locker etliche Watts verbrauchen waehrend aus gutem Grund jegliches T2 sich lediglich im milliWatt Bereich bewegen darf. Dedizierte video decoders auf beiden Platformen natuerlich zur Seite. Es gibt guten Grund warum es meistens diese gibt weil es eben Bloedsinn ist fuer das ziemlich einfache Zeug weder eine CPU noch eine GPU damit zu beschaeftigen.
Ein heutiger PowerVR VXD braucht lediglich 50MHz fuer einen 720p stream und etwas unter 100MHz fuer einen 1080ps stream. Frequenz geht bis zu ueber 266MHz aber dann reden wir schon ueber mehrere parallele HD streams.
...Wenn es um GPU video decoding ginge waere auch die CE4100 im Vorsprung da diese auf 400MHz taktet waehrend die T2 GPU auf lediglich 240MHz.
sind das nicht komplett unterschiedliche chips? was soll da die MHz angabe aussagen?
Wenn ich mich nicht irre sind es auf ION stets bis zu 16 "CUDA cores" oder SPs bei zumindest 1.1GHz. Die ALUs in Tegra2 kann man erstmal nicht "CUDA" cores nennen weil es sich nur um FP24 pixel shader ALUs handelt und es sind lediglich 2 bei magerer 240MHz Frequenz.
ich glaube es gibt keine Minimum MHz vorgabe damit sich etwas CUDA core nennen darf.
Die Architektur ist auch komplett unterschiedlich, da von 16 vs 2 zu reden ist Unsinn. Tegra pipelines sind eher mit ATIs momentanen GPUs als mit G80-Fermi zu vergleichen, entsprechend kann eine Pipeline vektor instructions verarbeiten.
Ailuros
2010-09-14, 13:44:51
sind das nicht komplett unterschiedliche chips? was soll da die MHz angabe aussagen?
Beide GPUs haben jeweils zwei ALUs.
ich glaube es gibt keine Minimum MHz vorgabe damit sich etwas CUDA core nennen darf.
Das nicht. Aber nur FP24 (PS) ALU im Tegra2 ist wohl eher ein grosses "no go" fuer CUDA, OpenCL oder jegliches heterogeneous processing.
Die Architektur ist auch komplett unterschiedlich, da von 16 vs 2 zu reden ist Unsinn. Tegra pipelines sind eher mit ATIs momentanen GPUs als mit G80-Fermi zu vergleichen, entsprechend kann eine Pipeline vektor instructions verarbeiten.
Radeons kommen seit geraumer Zeit mit FP32 ALUs, ergo wohl auch kein guter Vergleich. Und auf solche Einzelheiten bin ich natuerlich nicht gegangen sonst haette ich dann auch gleich sagen koennen dass die SGX pipelines sowohl als skalare als auch als vektor Einheiten bedient werden koennen.
Bucklew
2010-09-14, 18:33:11
Tegra2 schleusst decoding auch nicht ueber die GPU; der SoC hat auch einen dedizierten video decoder nur eben schwaechelt er bei hohen bitrates fuer H264. Wenn es um GPU video decoding ginge waere auch die CE4100 im Vorsprung da diese auf 400MHz taktet waehrend die T2 GPU auf lediglich 240MHz.
Ist halt für kleine mobile Geräte mit wenig Speicher gedacht (was hohe Bitraten ziemlich ausschließt) und nicht für einen HTPC.
Andererseits kann man auch lesen, dass für die Boxee die Software XMBC gedacht war, die es gar nicht für ARM gibt (die Portierung ist erst geplant). Wenn das bisher als die Planung war (wie bauen eine Box mit einer Hardwareplattform, die unsere geplante Software gar nicht beherrscht und hoffne, dass sie rechtzeitig portiert wird), dann gute Nacht. Aber von D-Link würde mich das nicht wundern...
Boxee die Software XMBC gedacht war
Boxee gibt es schon ewig. Ist ein Fork von XBMC, den es wie gesagt nicht erst seit gestern gibt und auch für alle möglichen OS zum kostenlosen Download bereit steht.
Aber wie du richtig schriebst: XBMC und Boxee sind auf x86 entstanden und werden dort genutzt. Selbst das Ur-XBMC auf der alten XBOX ist schon auf x86 gelaufen.
-> Support dürfte für d-Link einfacher sein.
Bucklew
2010-09-14, 18:47:09
Boxee gibt es schon ewig. Ist ein Fork von XBMC, den es wie gesagt nicht erst seit gestern gibt und auch für alle möglichen OS zum kostenlosen Download bereit steht.
Boxee (Software) != Boxee (Hardware)
Letzteres meinte ich.
Boxee (Software) != Boxee Box (Hardware)
fixed.
Letzteres meinte ich.
Dann benenne es auch richtig.
http://www.boxee.tv/box
Bucklew
2010-09-14, 19:34:00
fixed.
Dann benenne es auch richtig.
http://www.boxee.tv/box
Geschenkt, dann halt Boxee Box. Sollte aus dem Kontext schon verstanden werden ;)
Ailuros
2010-09-15, 15:28:30
Ist halt für kleine mobile Geräte mit wenig Speicher gedacht (was hohe Bitraten ziemlich ausschließt) und nicht für einen HTPC.
Wie klein ist denn ein netbook bzw. tablet genau? Es handelt sich hier nicht um smart-phones wo der Stromverbrauch sich in milliWatt Werten halten muss. CE4100 duerfte zwar teurer sein als Tegra2 (ich traue Intel keine $10 Preise fuer das Ding zu), aber wenn's auf dem ersten geht dann heisst es eher dass NV ihren decoder auf T2 einfach zu bescheiden gestaltet hat.
VXD theoretische Leistung:
http://www.imgtec.com/factsheets/powervr/POWERVR_VXD_Video_Decoder_IP_Core_Family.pdf
ich weis nicht was du immer über die leistung des Tegra herziehst, aber hier:
http://www.glbenchmark.com/result.jsp?orderby=dvsg_best&brand=all&benchmark=glpro11
gehören die Tegra zum schnellstem was es so gibt, oder über sehe ich was?!?
Die Tegra-Geräte sind in den letzten Wochen aber ganz schön abgesackt im Ranking.... :confused:
Ailuros
2010-09-16, 10:42:33
Die Tegra-Geräte sind in den letzten Wochen aber ganz schön abgesackt im Ranking.... :confused:
Ich sagte doch vor einiger Zeit dass GalaxyS Leistung nachladen wird und der Prozess duerfte immer noch nicht vollstaendig sein. Die GalaxyS Dinger an der Spitze sind aber immer noch lediglich smart-phones.
Wie dem auch sei das Toshiba AC100 Dynabook AZ basiert auf T2 und gibt unter 1024*600 1417 Punkte in dem Bench-bums. Hingegen das Hardkernel ODROID-T (dev-device) gibt unter 1360*768 "nur noch" 1110 Punkte bei aber 70% mehr pixels wie im ersten Fall. Wenn fuer's letztere noch ein firmware update kommt, wird es dann wohl noch besser aussehen.
GLBenchmark ist so eine Sache fuer sich nichtdestominder. Wenn endlich Tegra2 Geraete verfuegbar sein werden, erwarte ich trotz allem sehenswerte Leistungssteigerungen gegen jegliche Konkurrenz wo immer dual Cortex A9 CPUs einen Unterschied machen werden.
Semi OT
Echt krass, wie sich weltweit in der Blogwelt die Meldung verbreitet, dass Tegra 2 noch nicht erhältlich ist. Vielleicht sind es ja nicht die riesen Mengen, aber das Toshiba AC100 kann man doch kaufen??
Ailuros
2010-09-23, 09:34:19
Semi OT
Echt krass, wie sich weltweit in der Blogwelt die Meldung verbreitet, dass Tegra 2 noch nicht erhältlich ist. Vielleicht sind es ja nicht die riesen Mengen, aber das Toshiba AC100 kann man doch kaufen??
Ja das Toshiba tablet sollte erhaeltlich sein. Ich hab keine Ahunung was mit "erhaeltlich" genau gemeint wird. NV's groesstes Problem ist dass es den anfangs angegebenen design-wins nicht aus allen etwas geworden ist. Das Risiko zu fruehzeitig anzukuendigen muss eben NV's PR/marketing Abteilungs jetzt schlucken.
LovesuckZ
2010-09-23, 11:18:14
Huch? Seit der CES kommen doch fast monatlich neue Design-Ankündigungen dazu. Der einzige Absprung war Boxee.
Toshiba's AC100 wurde nicht auf der CES angekündigt und ist trotzdem das erste käufliche Device.
Ailuros
2010-09-23, 11:21:00
Huch? Seit der CES kommen doch fast monatlich neue Design-Ankündigungen dazu. Der einzige Absprung war Boxee.
Es war eben nicht der einzige.
Toshiba's AC100 wurde nicht auf der CES angekündigt und ist trotzdem das erste käufliche Device.
Besser so.
LovesuckZ
2010-09-23, 11:32:54
Es war eben nicht der einzige.
Und welche sind noch abgesprungen oder kommen nicht auf dem Markt?
Ailuros
2010-09-23, 11:46:27
Und welche sind noch abgesprungen oder kommen nicht auf dem Markt?
Frag NVIDIA. Ich hole mir so oder so nur bunte "Geruechte" aus dem Internet. Und wenn Du schon dabei bist, frag sie auch warum ihre finanzielle forecasts fuer Tegra sich ploetzlich halbiert haben.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.