Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs
Blediator16
2012-11-09, 14:43:32
In der Tat. Bei den GPUs zwar später dran, doch Designwins machen alles wieder wett. Stark gemacht von NV. Liegt dem Management Produkte unterzubringen, die nicht das non plus ultra darstellen. Respekt
Ailuros
2012-11-10, 07:54:13
Erntezeit.
Nvidia reports a third of its business is now 'non-PC,' doubles tablet shipments from a year ago
http://www.theverge.com/2012/11/9/3621708/nvidia-q3-2012-earnings-tegra-growth
Schon erstaunlich wo sie überall T3 unterbringen konnten.
Immer noch verdammt wenig im Vergleich zu jeglicher Projektion. Ja SFF SoCs haben die daemliche Eigenschaft dass man sie sogar in Kuehlschraenken bzw. Tankautomaten integrieren kann, aber das ist eine Realitaet die schon fast ein Jahrzent alt ist.
Sonst kann es der Author auch uebertreiben:
Three years ago, only 7 percent of its revenue came from outside the PC enclosure, whereas today the company is among the leaders in driving the shift to mobile devices.
Bis zum Komma stimmt's, nach dem Komma ist es immer noch brutal uebertriebener Bullshit. Der SFF Markt haette so skaliert wie bis heute ob mit oder ohne NVIDIA am Ball und "definiert" haben sie bis heute nicht besonders viel.
Ailuros
2012-11-10, 14:30:09
http://www.xbitlabs.com/news/cpu/display/20121108215621_Nvidia_Denver_Is_Custom_ARMv8_64_Bit_Processor_with_Secret_Sauce. html
Nightspider
2012-11-10, 19:21:57
Gibts was Neues zu Tegra 4?
Mit 4*ARM15 Cores wird das Teil ja ganz schön groß werden. Erst recht, wenn die GPU halbwegs mit der Konkurenz aus iPad 3&4 mithalten soll.
Release ist nicht vor 2.Q13 zu erwarten oder?
Hugo78
2012-11-10, 20:19:32
Auf der CES anfang Januar wird es sicher was Offizielles geben.
Release wird sicher primär an der Verfügbarkeit hängen, und hier hatte TSMC für Q1 2013 grade mal verprochen, dass die Engpässe mit Q1 Geschichte sein sollen.
Also Q2 als Release allgemein oder als Verfügbarkeit der ersten T4 Tablets/Handys, ist sicher eine realistische Erwartungshaltung.
Ailuros
2012-11-12, 07:21:01
Gibts was Neues zu Tegra 4?
Mit 4*ARM15 Cores wird das Teil ja ganz schön groß werden. Erst recht, wenn die GPU halbwegs mit der Konkurenz aus iPad 3&4 mithalten soll.
Release ist nicht vor 2.Q13 zu erwarten oder?
NV ist generell besser beraten wenn ihre SoCs generell so gut platziert sind gegen die Konkurrenz wie T3. Nun gut die Konzentration koennte etwas mehr in Richtung GPU gehen fuer meinen Geschmack, denn wenn quad A15 stimmt deutet es nicht besonders in die Richtung.
Und wen schert in 2013 eigentlich iPad3 immer noch. Da Rogue innerhalb 2013 erscheinen wird, wird man sich eher nach dem Massstab richten.
Ailuros
2012-12-14, 08:30:37
http://www.xbitlabs.com/news/cpu/display/20121213132626_Nvidia_Project_Denver_Will_Not_Compete_for_Micro_Servers.html
Ailuros
2012-12-17, 08:40:59
http://www.xbitlabs.com/news/mobile/display/20121215113848_Nvidia_Set_to_Reveal_Next_Generation_Tegra_Wayne_and_Grey_Chips_a t_CES.html
The company is cautious about the actual timeframe when those designs are set to reach the market as it takes an extended amount of time for smartphone makers to build in new SoCs into their designs.
“I would set design win expectation carefully; I tried this last year as well,” said Mr. Evenden.
Considering the fact that it takes a long time for smartphone developers to integrate new SoCs into their products, end-users should probably expect one or two handsets with Tegra “Grey” and/or smartphones/tablets with Tegra “Grey” in late calendar Q1 or even in Q2 2013. More smartphones with the new Tegra chips inside should probably be expected in the second half of the year.
boxleitnerb
2012-12-17, 09:31:57
Tegra macht angeblich immer noch Verluste, obwohl man sich so langsam auf die Gewinnzone zubewegt:
And while Nvidia's consumer products business (CPB), which houses its Tegra mobile chip business is not yet profitable, it is growing quickly, and losses are narrowing. In Q3 2013, CPB revenues grew by 27.64%, and the company's operating losses in that division narrowed to 17.18% of revenue, down from 23.88% of revenue a year ago.
http://seekingalpha.com/article/1056401-nvidia-as-a-takeover-target
Ailuros
2012-12-17, 09:54:00
Der Artikel ist nicht nur wegen dem Tegra quote interessant; wie dem auch sei wenn nicht im naechsten FYI im uebernaechsten wird Tegra IMHO wohl keine rote Zahlen mehr ergeben. Erstens schrumpft der SFF Markt zunehmend und zweitens wird die Grey (mainstream SoC) und Icera (LTE) Kombination fuer um einiges hoehere Volumen beitragen. Hoehere Volumen bedeuten auch nicht immer hoehere Margen, deshalb ist es auch ziemlich schwer ohne weitere Daten den eigentlichen break-even-point aus der Glaskugel herauszulesen.
boxleitnerb
2012-12-17, 10:11:51
Gibts diese Auflistung nach Verlust/Gewinn der einzelnen Segmente irgendwo vollständig?
Ailuros
2012-12-17, 10:16:23
Gibts diese Auflistung nach Verlust/Gewinn der einzelnen Segmente irgendwo vollständig?
Ich bin zu faul mir das Ganze durchzulesen: http://www.sec.gov/Archives/edgar/data/1045810/000104581012000060/nvda2013q310q.htm
...aber kann durchaus sein dass es erwaehnt wird.
boxleitnerb
2012-12-17, 10:21:53
Da stehts drin, danke.
Die Marge hat aber scheinbar abgenommen, denn bei 50 Mio zusätzlichem Umsatz im Vergleich zum letzten Jahr hat man nur 4 Mio weniger Verlust gemacht. Also Verlust um ca. 10% reduziert bei 20% gesteigertem Umsatz.
AnarchX
2012-12-17, 16:59:54
Tegra Wayne Spezifikationen Slide:
http://www.chiphell.com/thread-616838-1-1.html
Eagle ist der Codename für Cortex A15.
72 Graphics Cores? Passt nicht ganz zu den CUDA-GPUs?
2x 2 TMUs mit je 9 Vec4 ALUs?
boxleitnerb
2012-12-17, 17:13:57
Bild geht nicht :)
AnarchX
2012-12-17, 17:38:42
Wohl ein Hotlink-Schutz. Im Link sieht man nach einem Refresh das Bild.
Eventuell sind bei der GPU Pixel- und Vertex-Shader weiterhin getrennt: 12 (Vec4) PS + 6 (Vec4) VS = 72 "Cores".
dildo4u
2012-12-17, 17:50:37
http://www.abload.de/img/t4sed2k.jpg
Ailuros
2012-12-18, 08:14:15
Tegra Wayne Spezifikationen Slide:
http://www.chiphell.com/thread-616838-1-1.html
Eagle ist der Codename für Cortex A15.
72 Graphics Cores? Passt nicht ganz zu den CUDA-GPUs?
2x 2 TMUs mit je 9 Vec4 ALUs?
Bis jetzt (T20/T30) standen cores fuer ALU lanes. Das Ding duerfte schon fast DX10 oder voll DX10 sein, ergo machen USC ALUs mehr Sinn (auf Folge zu Deinem Post nach diesem).
Hoechstwahrscheinlich und stets IMHO:
4*SIMD16 + n*SFUs
Da SFUs theoretisch einen einzelnen FLOP beitragen koennen, haben ALLE marketing Divisionen diesen Unsinn nach ARM (fuer Mali T6xx) nachgemacht. Kurz: bei PowerVR Rogue, ARM Mali T6xx, Adreno3xx und NV Wayne duerfte die wahre Basis fuer jeglichen cluster ein SIMD16 sein.
Eine quad TMU duerfte wohl stimmen und zumindest auf hw Niveau steht die ULP GF im Wayne in etwa auf Adreno320 und Mali T604 Hoehe. Beide duerften IMHO 4*SIMD16 haben (mit jeweils einer TMU pro SIMD), wobei Adreno320 bei =/>400MHz und T604 bei 533MHz taktet.
ULP GF/Wayne duerfte IMO bei 500-520MHz schaetzungsweise liegen.
Auf hw Ebene ist die Wayne GPU im Vergleich zu den anderen zwein keine besondere Ueberraschung; was aber Adreno, Mali und co. in dem Fall fuer Unruhe sorgen koennte ist NV's compiler/Treiber Erfahrung und Effizienz ueberhaupt fuer alles windows.
***edit: wichtig ist zu bemerken dass NV fuer Wayne nicht TSMC's 28LP benutzt sondern 28HPL.
*****edit Nr.2: uebrigens ist es wohl in der Zwischenzeit klar dass die uralte Tegra roadmap die Wayne lediglich als 2x Mal schneller als Tegra3 anzeigte Muelltonnen-Material. Wie sich jetzt die NV marketing bis zu 6x Mal GPU Leistung in Wayne im Vergleich zu T30 wiederspiegelt bleibt abzusehen. Im schlimmsten Fall koennte sich der SoC in GLBenchmark2.5 etwas ueber MaliT604 platzieren und im besten etwas ueber iPad4.
ich hatte auf mehr GPU Power gehofft... :(
Ailuros
2012-12-18, 11:10:44
ich hatte auf mehr GPU Power gehofft... :(
Kann durchaus sein dass der slide auch ein fake ist; wie ich schon bei B3D sagte hat der slide komischerweise fuer den GeForce block ganze 240 borgo sphinxter(tm) Quadrate.
Kann sein dass irgend ein Spassvogel sich einfach gedacht hat 12 cores Tegra3 * 6 = 72 cores. Ich kann aber nicht ausschliessen dass das Ding echt ist.
Sonst weiss ich wirklich nicht wie viel GPU Leistung jeder von einem small form factor SoC erwartet. Weniger als GK208 wird es auf jeden Fall sein.
naja mal abwarten würd ich da sagen ;)
zur CES weiß man vielleicht schon mehr
Ailuros
2012-12-18, 12:46:47
naja mal abwarten würd ich da sagen ;)
zur CES weiß man vielleicht schon mehr
Gut dann sag ich anders auf Folge zu meinem letzten Satz im vorigen Post: die Wayne ULP GF kann nicht groesser sein als der gesamte SoC ;)
Nightspider
2012-12-18, 13:51:06
Schade ist trotzdem das man bei der GPU wohl am Ende nur grob auf iPad 4 Niveau landen wird.
AnarchX
2012-12-18, 13:57:01
Mit dem HPL-Prozess kann man die GPU vielleicht auch in Richtung 700-800MHz boosten lassen. ;)
Ailuros
2012-12-18, 14:06:22
Mit dem HPL-Prozess kann man die GPU vielleicht auch in Richtung 700-800MHz boosten lassen. ;)
A15 cores (und sogar 4 davon) sind ziemlich stromhungrig.
Gut dann sag ich anders auf Folge zu meinem letzten Satz im vorigen Post: die Wayne ULP GF kann nicht groesser sein als der gesamte SoC ;)
welch wahres Wort :biggrin:
Dural
2012-12-18, 14:43:19
4+1 Core und keine 4+4 Core wie es von vielen derzeit so hoch gelobt wird, interessant.
ich denke das ich mit T4 in die HD tablet welt einsteigen werde.
Schade ist trotzdem das man bei der GPU wohl am Ende nur grob auf iPad 4 Niveau landen wird.
hat dafür aber (wieder) die besser CPU.
und da wäre ich mir noch nicht mal so sicher, HPL ist seitens NV doch mal eine kampfansage!
Undertaker
2012-12-18, 15:30:24
A15 cores (und sogar 4 davon) sind ziemlich stromhungrig.
Das wäre für den GPU-Boost zunächst nicht weiter problematisch. Ich denke nicht, dass Spiele alle 4 A15-Cores wirklich vollständig auslasten. Dadurch gewinnt man TDP-Reserven, die wiederum einen hohen maximalen Boost für die GPU erlauben. Das gilt natürlich auch für alle anderen Quad-Core-SoCs.
Ailuros
2012-12-19, 10:01:55
Das wäre für den GPU-Boost zunächst nicht weiter problematisch. Ich denke nicht, dass Spiele alle 4 A15-Cores wirklich vollständig auslasten. Dadurch gewinnt man TDP-Reserven, die wiederum einen hohen maximalen Boost für die GPU erlauben. Das gilt natürlich auch für alle anderen Quad-Core-SoCs.
3D ist unter den wichtigsten Stellen wo man heutzutage mehr Chancen hat quad core CPUs auf SFF SoCs mehr auszulasten. Uebrigens unterstuetzen A15 cores nicht per se asynchrone Taktung, ergo wenn NV es beibehalten will muessen sie es ueber sw regeln; kann sein dass man die wichtigsten Vorteile von asynchroner Taktung zwischen cores so erreicht aber ich warte lieber ab es in Echtzeit zu beurteilen da Samsung im Gegensatz bei ihren quad A15 SoCs auf 4+4 big.LITTLE setzt. Samsung's Argumente fuer nur big.LITTLE und ueberhaupt keine asynchrone Taktung ueberzeugen mich auch nicht unbedingt. Abwarten und Tee trinken.
Sonst hat NV bisher auf brutal aggressive GPU Frequenzen gesetzt bis zu Tegra3 eben weil die GPUs auch vergleichsmaessig zur Konkurrenz sonst ziemlich schwach gewesen waeren. 520MHz fuer die GPU im T3 unter 40nm ist nicht gerade wenig und man sieht solche Frequenzen bei der Konkurrenz nur unter 32 bzw. 28nm je nach Fall. Du bekommst mit einem Tegra2 tablet schon leicht ueber 6 Stunden Laufzeit unter 3D, waehrend es sich bei Tegra3 (je nach CPU und GPU Frequenz) es eher zwischen 4 und <5 Stunden liegt. Es ist eben auch nicht so dass NV wohl die CPU cores im Wayne wieder nur auf T3 Nivaeu takten werden sondern hoeher.
Im Wayne duerfte man davon ausgehen dass die GPU diesmal zumindest um 5x Mal mehr ALU lanes hat als im T3 (es kann auch 6x oder sogar um einiges mehr sein). Wenn jetzt die Frequenz wieder uebermaessig hoch liegt kann mir gerne jemand erzaehlen dass sie nicht wieder die Konkurrenz im Bereich GPU unterschaetzt haben, denn dass Frequenz gegen Breite ueberhaupt in GPUs eine bessere Idee generell waere wenn es zum Stromverbrauch kommt muss mir erstmal jemand beweisen.
Von "boost" hat AnarchX uebrigens nichts erwaehnt und es waere auch nicht besonders ideal fuer kleine SoCs IMO. Da auch NVIDIA wie alle anderen diesmal wohl clusters in der GPU haben wird, waere es eine sehr gute Idee wenn man einzelne clusters bei sehr niedrigem load total abschalten koennte neben der niedrigeren Frequenz bei den aktiven clusters.
AnarchX
2012-12-21, 08:00:41
This patchset adds initial support for the NVIDIA's new Tegra 114 SoC (T114) based on the ARM Cortex-A15 MP.
http://www.phoronix.com/scan.php?page=news_item&px=MTI1OTA
4+1 Core und keine 4+4 Core wie es von vielen derzeit so hoch gelobt wird, interessant.
!
Theoretisch dürfte die big.Little-Lösung für das OS unsichtbar sein, was wohl bei NVs Companion nicht der Fall ist, wie Win8 RT zeigt.
Von "boost" hat AnarchX uebrigens nichts erwaehnt und es waere auch nicht besonders ideal fuer kleine SoCs IMO. Da auch NVIDIA wie alle anderen diesmal wohl clusters in der GPU haben wird, waere es eine sehr gute Idee wenn man einzelne clusters bei sehr niedrigem load total abschalten koennte neben der niedrigeren Frequenz bei den aktiven clusters.
Wobei ein Powermanagement der GPU durchaus mehr Takt zugestehen kann, wenn z.B. die A15-Kerne nur auf ~1GHz laufen.
Aber mit 64SPs (MAD) @500-600MHz dürfte man schon in einem vernünftigen Bereich liegen.
Ailuros
2012-12-21, 08:36:44
Wobei ein Powermanagement der GPU durchaus mehr Takt zugestehen kann, wenn z.B. die A15-Kerne nur auf ~1GHz laufen.
Aber mit 64SPs (MAD) @500-600MHz dürfte man schon in einem vernünftigen Bereich liegen.
Das ergibt aber dann einen verdammt CPU limitierten SoC mit sehr geringer durchschnittlichen Leistungs-steigerung. Bei single threading ist man um ein gutes Stueck langsamer als mit quad A9@1.4GHz und bei voller Auslastung quasi Gleichstand. Ich halte sogar 1.7GHz zu konservativ und erwarte eher etwas knapp unter oder bei 2GHz fuer die CPU zumindest.
Bei der GPU haengt IMHO mehr von der compiler/Treiber Effizienz ab, als der sterilen Anzahl der Einheiten. Auf der hw Seite duerfte man bei vergleichbarem Takt zur ULP GF/T3 doppelt so viel Texel-fuellrate haben, um 8x Mal so viel fragment Leistung und um einiges mehr Bandbreite. Es reicht selbst im Durchschnitt um einen Faktor =/>3.0x schneller zu sein als die GPU im T3 um selbst MaliT604 zu uebertreffen.
dildo4u
2013-01-07, 05:57:36
http://live.theverge.com/live-from-nvidia-ces-2013/
http://d35lb3dl296zwu.cloudfront.net/uploads/photo/image/9198/vld2198.jpg
http://d35lb3dl296zwu.cloudfront.net/uploads/photo/image/9207/vld2223.jpg
http://d35lb3dl296zwu.cloudfront.net/uploads/photo/image/9208/vld2228.jpg
http://d35lb3dl296zwu.cloudfront.net/uploads/photo/image/9232/vld2343.jpg
Nvidia eigenes 4G Modem.
http://d35lb3dl296zwu.cloudfront.net/uploads/photo/image/9236/vld2364.jpg
Tegra 4 Konsole direkt von Nvidia
http://d35lb3dl296zwu.cloudfront.net/uploads/photo/image/9245/vld2393.jpg
Nightspider
2013-01-07, 06:54:58
Die Präsentation ist mehr als anstrengend. Der wiederholt alles 10 mal.
Und die Tegra 4 Konsole ist meiner Meinung nach eine Totgeburt. Wer soll sowas kaufen?
Bin mal gespannt ob er gleich noch den Preis davon nennen wird.
mr coffee
2013-01-07, 07:07:14
Das interessante an der Konsole ist das Streaming vom PC, allerdings leider nur in 720p wie es aussieht. Aber nicht schlecht für die Leute, welchen den PC nicht mit dem TV per HDMI verbinden können.
Nightspider
2013-01-07, 07:11:35
Die Frage ist wie lagfrei das ist. Würde mich wundern, wenn es lagfreier wäre als bei der Wii-U.
Scheinbar wird das Signal über das Haus-Wlan übertragen. Das ist sicherlich nicht so schnell wie bei der Wii-U direkt von der Konsole auf das Gamepad.
mr coffee
2013-01-07, 07:15:22
Ja, LAG ist ein Thema genauso wie der Controller, der müsste auf jeden Fall kompatibel zum XBox-Controller sein.
Nightspider
2013-01-07, 07:20:11
Wirklich leicht und bequem sieht Nvidia Shield ja nicht aus.
Und wirklich billig wird das Teil bestimmt auch nicht.
Hugo78
2013-01-07, 07:40:59
Für mich das interessanteste Detail an T4.
http://d35lb3dl296zwu.cloudfront.net/uploads/photo/image/9217/vld2262.jpg
http://d35lb3dl296zwu.cloudfront.net/uploads/photo/image/9220/vld2272.jpg
Palpatin
2013-01-07, 08:10:42
Das interessante an der Konsole ist das Streaming vom PC, allerdings leider nur in 720p wie es aussieht. Aber nicht schlecht für die Leute, welchen den PC nicht mit dem TV per HDMI verbinden können.
Glaub ich nicht das nur 720p geht. Mit Splashtop 2 lassen sich ja schon ganz gut 1080p streamen, viel fehlt da nicht mehr auf WIIU.
AnarchX
2013-01-07, 08:27:56
the shaders aren't unified, the majority are 20-bit pixel shader cores though. No idea on the ratio yet.
http://www.anandtech.com/show/6550/more-details-on-nvidias-tegra-4-i500-5th-core-is-a15-28nm-hpm-ue-category-3-lte
:ugly:
Das war dann wohl doch die naheliegendeste Erklärung für die Shaderanzahl...
Und der Companion-Core wirkt leider auch nicht mehr so überzeugend im Vergleich zu big.LITTLE, welches wohl keine zusätzliche Softwareunterstützung benötigt.
Godmode
2013-01-07, 09:10:52
Wirklich leicht und bequem sieht Nvidia Shield ja nicht aus.
Und wirklich billig wird das Teil bestimmt auch nicht.
Da geb ich dir recht. Irgendwie finde ich das Streamen aber interessant. Sicher nicht für jedes Spiel geeignet, aber bei einigen durchaus vorstellbar. Latenzen sind wohl das Thema.
Den Benchmark zum Tegra4 finde ich total lächerlich. 25 webpages auf einem mobile... :facepalm:
80mm^2 ist eigentlich ziemlich fett für einen Mobile Chip, oder?
Undertaker
2013-01-07, 09:42:39
Apple A6X: 123 mm². ;)
Godmode
2013-01-07, 09:47:04
Apple A6X: 123 mm². ;)
Ok bin da nicht wirklich auf dem Laufenden, thx. Das ist ein deutlicher unterschied, der sich sicherlich auch auf den Verbrauch auswirkt.
Dural
2013-01-07, 09:56:03
NV hat mit dem T4 ja saubere Arbeit geleistet, echt klasse Teil.
Das einzige was etwas "stört" ist der 4+1 und nicht 4+4 wie bei anderen Quad Core SoC, jedoch muss sich erst noch zeigen welche version besser ist und ob eine version auch nachteile hat.
80mm2 ist mal extrem klein für so eine SoC.
Hugo78
2013-01-07, 10:27:50
Und der Companion-Core wirkt leider auch nicht mehr so überzeugend im Vergleich zu big.LITTLE, welches wohl keine zusätzliche Softwareunterstützung benötigt.
Ein paar Zeilen Code sind billiger als zusätzliche Chipfläche.
Den Benchmark zum Tegra4 finde ich total lächerlich. 25 webpages auf einem mobile... :facepalm:
Was wäre den ein besserer "Real Life Benchmark", den man im Rahmen einer Veranstaltung für DAUs herzeigen kann?
AnarchX
2013-01-07, 10:35:35
Ein paar Zeilen Code sind billiger als zusätzliche Chipfläche.
Mit wohl ~2mm² Die-Size sind 4 Cortex A7-Cores vernachlässigbar bzw. vergleichbar groß wie 1x A15: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9006569#post9006569
Und mit ein paar Zeilen Code ist es wohl nicht getan, wie man am fehlenden Companion unter Windows RT sieht, wo Tegra3 in Microsoft eigenem Surface Tab sitzt.
big.LITTLE als eine Form zusätzlicher Power-State ist imo einem transparenten Single-Core deutlich überlegen. Wenn dann hätte man wohl am besten beides implementieren sollen: 4+1 A7 + 4x A15.
Godmode
2013-01-07, 10:47:04
Ein paar Zeilen Code sind billiger als zusätzliche Chipfläche.
Was wäre den ein besserer "Real Life Benchmark", den man im Rahmen einer Veranstaltung für DAUs herzeigen kann?
Zb. die Ladezeit von bestimmten Spielen?
nampad
2013-01-07, 10:47:34
Wirklich leicht und bequem sieht Nvidia Shield ja nicht aus.
Und wirklich billig wird das Teil bestimmt auch nicht.
Leicht ok, da haste recht. Aber unbequem? Das Ding ist quasi ein 360 Controller mit Clamshell Bildschirm und ist damit um Längen bequemer als jeder verfügbare Handheld.
Dural
2013-01-07, 10:50:59
Mit wohl ~2mm² Die-Size sind 4 Cortex A7-Cores vernachlässigbar bzw. vergleichbar groß wie 1x A15: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9006569#post9006569
Und mit ein paar Zeilen Code ist es wohl nicht getan, wie man am fehlenden Companion unter Windows RT sieht, wo Tegra3 in Microsoft eigenem Surface Tab sitzt.
big.LITTLE als eine Form zusätzlicher Power-State ist imo einem transparenten Single-Core deutlich überlegen. Wenn dann hätte man wohl am besten beides implementieren sollen: 4+1 A7 + 4x A15.
wenn es so viel besser ist, warum hat es dan NV nicht gmacht?
ARM drüfte doch so wie so Kopieren&Einfügen sein, der zeit aufwand kann es somit wohl kaum sein.
Zb. die Ladezeit von bestimmten Spielen?
da kommt es aber auch sehr auf den verwendeten speicher drauf an.
YfOrU
2013-01-07, 11:11:02
NV hat mit dem T4 ja saubere Arbeit geleistet, echt klasse Teil.
Naja. Analog zu Tegra3 wieder der Weg des geringsten Widerstandes. Solides Produkt aber herausragend ist das nicht.
Hugo78
2013-01-07, 11:18:26
Zb. die Ladezeit von bestimmten Spielen?
Ob Spiel XY jetzt ne Sekunde länger zum laden braucht, das interessiert auf einer DAU-Messe wie der CES doch keine Sau, dass ist kein Core-Gaming Event.
Die wollen sehen wie flüssig und flink die mobile Welt von morgen im Alltag sein kann, anhand von alltäglichen Beispielen.
Und genau wegen sowas, ist dann auch so ein Feature wie "One Shot" HDR so wichtig.
Zeig dem nicht NERD, dem technikfernen DAU, wo jetzt der Vorteil für ihn liegt.
Also ein "Video/Foto After Effects" Programm/Benchmark würde mir spontan einfallen, den man bringen könnte, sollte es sowas geben.
Wo man zeigt, "Hey schaut her mit Tegra4 könnt ihr eure Bilder unterwegs mit wenigen Klicks und vorallem doppelt so schnell wie bei der Konkurrenz, verschönern ehe ihr das Zeug bei eurem "Sozialen Netzwerk" hochladet".
Mit wohl ~2mm² Die-Size sind 4 Cortex A7-Cores vernachlässigbar bzw. vergleichbar groß wie 1x A15: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9006569#post9006569
Ok, das die so klein sind ist mir entgangen.
In dem Fall steht big.Little natürlich besser da.
=Floi=
2013-01-07, 11:20:39
ich erkenne auf den bildern von T4 nur 5 A15 cores. :confused:
das modem hat ja auch einen?! das mit dem FPGA modem ist ja ne richtig geile sache.
ich denke das mit den webpages zeigt auch die power des modems, welches hier bei anderen limitieren könnte.
Nightspider
2013-01-07, 11:29:16
Von mir aus hätte Tegra 4 ruhig so groß sein können wie Apples A6X.
Ein noch schnellerer GPU Teil (+50%) hätte Tegra4 wirklich zu einem Monster gemacht.
Aber scheinbar will man Tegra 4 wieder in jedes billig-Tablet bringen und so die Marge erhöhen.
Ist wohl klüger auch wenn ich es schade finde das Tegra 4 kein "Über"-SoC wird und Unified Shader fehlen.
Ich bin auch mal auf den Stromverbrauch gespannt. Companion Core hin oder her - die 4 A15 Cores werden ordentlich Saft ziehen.
Man beachte den großen Kühlkörper auf dem Tegra 4 im Projekt Shield.
ich denke das mit den webpages zeigt auch die power des modems, welches hier bei anderen limitieren könnte.
Wohl kaum. Der Test wurde garantiert mit Wlan gemacht. Oder ist das Wlan Modem auch in dem i500?
Eggcake
2013-01-07, 11:39:26
Naja, WLAN limitiert trotzdem bei vielen Geräten. Beim N10 jedoch wohl weniger:
http://images.anandtech.com/graphs/graph6440/51556.png
Insgesamt bin ich jetzt auch nicht wahnsinnig begeistert - ich hätte bei der GPU etwas mehr erwartet...
boxleitnerb
2013-01-07, 11:42:32
Warum hat man da keine Kepler-Cores reingebastelt? 7 Jahre nach den ersten Unified Cores noch sowas?
robbitop
2013-01-07, 11:49:54
Naja A6X ist 32 nm. In 28 nm wäre A6X nur ~100 sqmm groß.
Dass sie nichts zur GPU Performance gesagt haben, spricht IMO Bände. Wir sicher deutlich fixer sein als Tegra 3, aber nicht fixer als A6X. Sonst hätten sie damit sicherlich auch angegeben. :)
4x A15 ist natürlich brutal. Allerdings bringt es meistens genauso wenig wie 4xA9. Besser wäre die Fläche wohl in der GPU aufgehoben gewesen.
Was mich wundert: Keine Unified Shader? Ist das noch immer dieser alte SM3 Kram oder was völlig neues?
SGX554 sollte technologisch ja dann doch ein ganzes Stück weiter sein, was ja widerum auch Transistoren kostet.
Warum hat man da keine Kepler-Cores reingebastelt? 7 Jahre nach den ersten Unified Cores noch sowas?
Naja das müsste schon eine andere Architektur sein. Kepler ist kein SFF Design. Und Designs lassen sich nicht beliebig nach oben oder unten skalieren hinsichtlich Takt und Leistungsaufnahme.
boxleitnerb
2013-01-07, 11:52:02
Tegra ist schon die vierte Generation jetzt, da hätte man für so ein wichtiges Standbein des Unternehmens schon was "Richtiges" entwickeln können finde ich. Aber gut, wenn die Leistung und der Verbrauch trotzdem passen, was solls.
Eggcake
2013-01-07, 12:00:04
Ich fands schon beim T3 "witzig", dass NV gerade bei der GPU total hinterherhinkte. Das dürfte beim T4 wiederum der Fall sein. Klar, sie konnten aufschliessen, aber das dürfte nicht lange halten.
mboeller
2013-01-07, 13:03:50
ich erkenne auf den bildern von T4 nur 5 A15 cores. :confused:
das modem hat ja auch einen?! das mit dem FPGA modem ist ja ne richtig geile sache.
ich denke das mit den webpages zeigt auch die power des modems, welches hier bei anderen limitieren könnte.
das Softmodem ist ein Zusatzchip und nicht integriert.
mboeller
2013-01-07, 13:04:40
Warum hat man da keine Kepler-Cores reingebastelt? 7 Jahre nach den ersten Unified Cores noch sowas?
Ja sehr enttäuschend. Vor allem die 20bit PS-Shader. pfui!
noch ein quote von Heise (http://www.heise.de/newsticker/meldung/Nvidia-Tegra-4-mit-vier-Cortex-A15-Kernen-1778066.html):
Nvidia nennt für die gleichzeitig angekündigte Spielkonsole Shield mit 5-Zoll-Display und 38-Wattstunden-Akku bis zu 24 Stunden Akkulaufzeit bei der Videowiedergabe; das entspricht einer mittleren Leistungsaufnahme von 1,6 Watt für das gesamte Gerät.
Beim Spielen soll die Shield allerdings bloß 5 bis 10 Stunden durchhalten; dann beträgt die Leistungsaufnahme also 3,8 bis 7,6 Watt im Mittel.
Sparsam ist was anderes.
=Floi=
2013-01-07, 13:12:53
das Softmodem ist ein Zusatzchip und nicht integriert.
auf dem bild sind 6 A15 zu sehen
5 auf tegra 4 und einer auf dem (22nm?) i500?! ist das alles photoshop?
Screemer
2013-01-07, 13:15:13
das können aktuelle ulv systeme bieten. wie sind die im leistungsvergleich?
Dural
2013-01-07, 13:17:16
min. 5h ist doch mal einen guten wert, weis nicht was du hast.
mboeller
2013-01-07, 13:20:07
auf dem bild sind 6 A15 zu sehen
5 auf tegra 4 und einer auf dem (22nm?) i500?! ist das alles photoshop?
wo siehst du einen 6. A15 beim Tegra4?
http://www.heise.de/imgs/18/9/6/6/0/4/6/Tegra4-CES-Praesi-600.jpg-25e5ef82d74e6545.jpeg
Image ist von Heise.de Link: http://www.heise.de/newsticker/meldung/Nvidia-Tegra-4-mit-vier-Cortex-A15-Kernen-1778066.html
Wie gesagt das Softmodem ist ein Zusatzchip:
http://www.heise.de/imgs/18/9/6/6/0/4/6/i500-Softmodem.jpg-8de757c5226fb34f.jpeg
Aber wahrscheinlich reden wir nur aneinander vorbei.
Ailuros
2013-01-07, 13:20:50
Warum hat man da keine Kepler-Cores reingebastelt? 7 Jahre nach den ersten Unified Cores noch sowas?
AnarchX: Houston we have a problem :biggrin:
boxleitnerb
2013-01-07, 13:22:55
Eigentlich hab ich es nicht gern, wenn man sich über mich lustig macht. Ja vielleicht hab ich damit was Dummes geschrieben, und? Kann jedem mal passieren.
mboeller
2013-01-07, 13:26:29
ich glaube kaum das sich Ailuros über dich lustig gemacht hat. Eher über Nvidia. OpenCL ist damit wieder nicht möglich und dieses Jahr soll es mit OpenCL so richtig los gehen. Nvidia läuft damit der Konkurrenz wieder mal hinterher (wie schon beim Tegra3 als sie die NEON-Erweiterung "vergessen" haben).
boxleitnerb
2013-01-07, 13:29:13
Bei euch weiß man nie. No hard feelings :D
Godmode
2013-01-07, 13:29:27
Eigentlich hab ich es nicht gern, wenn man sich über mich lustig macht. Ja vielleicht hab ich damit was Dummes geschrieben, und? Kann jedem mal passieren.
Ich denke eher er meint: Scheisse jetzt habens sie es entdeckt.
Ailuros
2013-01-07, 13:33:09
Naja A6X ist 32 nm. In 28 nm wäre A6X nur ~100 sqmm groß.
Dass sie nichts zur GPU Performance gesagt haben, spricht IMO Bände. Wir sicher deutlich fixer sein als Tegra 3, aber nicht fixer als A6X. Sonst hätten sie damit sicherlich auch angegeben. :)
4x A15 ist natürlich brutal. Allerdings bringt es meistens genauso wenig wie 4xA9. Besser wäre die Fläche wohl in der GPU aufgehoben gewesen.
Was mich wundert: Keine Unified Shader? Ist das noch immer dieser alte SM3 Kram oder was völlig neues?
SGX544 sollte technologisch ja dann doch ein ganzes Stück weiter sein, was ja widerum auch Transistoren kostet.
Du meinst wohl SGX554 fuer iPad4/A6X? Es gibt auch einen gewissen Redundanz-Grad wenn man 4 volle cores auf MP4 skaliert welches sowohl Vor- als auch Nachteile hat.
So wie es aussieht besteht die ULP GF aus 4 Vec4 FP20 PS + 2 Vec4 FP32 VS ALUs und ja ich fress einen Besen wenn das Tier mehr als 4 TMUs (1 TMU/Vec4 PS ALU) und 16 z/stencil hat.
Bei einem 554MP4 hast Du nicht nur 8 Vec4 USC ALUs sondern 8 TMUs und 64 z/stencil Einheiten. TMUs sind teurer als die fetteren bzw. USC ALUs.
Naja das müsste schon eine andere Architektur sein. Kepler ist kein SFF Design. Und Designs lassen sich nicht beliebig nach oben oder unten skalieren hinsichtlich Takt und Leistungsaufnahme.
Behauptet der Depp des Dorfes hier schon seit etlichen paar Seiten zurueck aber manche wollten einfach dem Bumsbloedsinn von Hernn Valich glauben schenken. Dass sie nicht mal so weit G8x gegangen sind ist trotz allem eine ziemlich brutale Enttaeuschung; wieder kein GPGPU bzw. OpenCL und es sieht wohl so aus als ob OpenGL_ES3.0 Spezifikationen ziemlich laecherlich sein werden selbst im Vergleich zu DX10.
Bei euch weiß man nie. No hard feelings :D
Es war AnarchX der schon fast ueberzeugt klang dass Wayne Kepler ALUs haben wird und hatte nichts mit Deinem Post per se zu tun. Der Quark in Tegra4 ist nichtmal auf NV4x Nivaeu und keinen besonderen Schritt weiter wie jetzt schon 4 GPU Generationen in der Reihe.
Dural
2013-01-07, 13:33:16
das mit der GPU ist ja wirklich schade, ging eigentlich davon aus das da unified shader drin sind, computerbase spricht ja auch von Cuda Kernen :rolleyes:
nichts destotrotz dürfe der Tegra4 derzeit sicher einer der schnellsten SoC sein :rolleyes:
Ailuros
2013-01-07, 13:35:44
wo siehst du einen 6. A15 beim Tegra4?
Aber wahrscheinlich reden wir nur aneinander vorbei.
Jemand sollte mir auf die Beine helfen, wo hockt der GPU block in dem Ding? (ehrliche Frage).
boxleitnerb
2013-01-07, 13:36:22
Was hat Nvidia dann geritten, es so zu machen? Die Ressourcen haben sie, das Geld haben sie, die Erfahrung haben sie. Das ergibt doch von vorn bis hinten keinen Sinn :confused:
Dural
2013-01-07, 13:37:53
Jemand sollte mir auf die Beine helfen, wo hockt der GPU block in dem Ding? (ehrliche Frage).
oben links und rechts?
ich zähle je 36 Kerne = die 72 die NV angibt :confused:
und die sehen alle gleich aus, wie kann das sein? hat T4 wirklich keine US?
edit:
oder ist das cache?
Hugo78
2013-01-07, 13:40:00
Welche "Killer App" braucht OpenCL, wenn man vier A15 Kerne hat?!
Ailuros
2013-01-07, 13:40:49
das mit der GPU ist ja wirklich schade, ging eigentlich davon aus das da unified shader drin sind, computerbase spricht ja auch von Cuda Kernen :rolleyes:
nichts destotrotz dürfe der Tegra4 derzeit sicher einer der schnellsten SoC sein :rolleyes:
Die ersten GPU benchmarks reichen nichtmal an peak Mali T604 Leistung. Kann sein dass die Treiber noch etwas Arbeit brauchen, aber nach was besonderem sieht es nicht aus.
Eine quad CPU ist hauptsaechlich u.a. nutzvoll in 3D/gaming; von da her einer der schnellsten SoCs wohl eher nicht sondern eher so konkurrenzfaehig wie T3 im Vergleich zur Konkurrenz ueberhaupt was alles unter 28nm von anderen noch vorliegt.
Knuddelbearli
2013-01-07, 13:42:10
Was hat Nvidia dann geritten, es so zu machen? Die Ressourcen haben sie, das Geld haben sie, die Erfahrung haben sie. Das ergibt doch von vorn bis hinten keinen Sinn :confused:
zu teuer
tegra 4 scheint ja wie tegra 3 auf pure masse an designwins ( eben durch preis ) ausgelegt zu sein
obwohl die kosten dann pro stück gering wären ist scheinbar doch zu teuer
aber das kein opencl geht ist echt sowas von fail, naja vielleicht wollen sie so amd künstlich ausbremsen ^^
Ailuros
2013-01-07, 13:49:52
oben links und rechts?
ich zähle je 36 Kerne = die 72 die NV angibt :confused:
und die sehen alle gleich aus, wie kann das sein? hat T4 wirklich keine US?
edit:
oder ist das cache?
Wenn ich mich mit die shots auskennen wuerde, wuerde ich nicht fragen. Keine Ahnung, aber es sind 36 quadrate links und 36 rechts. Auf jeden Fall falls es tatsaechlich die GPU sein sollte, dann nimmt sie diesmal verdammt viel die area unter 28nm ein, womit der vorige Punkt von robbitop ueber GPU Transistoren gleich wieder verfaellt.
Dural
2013-01-07, 13:53:47
Die ersten GPU benchmarks reichen nichtmal an peak Mali T604 Leistung. Kann sein dass die Treiber noch etwas Arbeit brauchen, aber nach was besonderem sieht es nicht aus.
Eine quad CPU ist hauptsaechlich u.a. nutzvoll in 3D/gaming; von da her einer der schnellsten SoCs wohl eher nicht sondern eher so konkurrenzfaehig wie T3 im Vergleich zur Konkurrenz ueberhaupt was alles unter 28nm von anderen noch vorliegt.
Naja das hast du damals auch schon bei T3 gesagt, und als ich mein Asus Prime im Dezember 2011 bekommen habe gab es quasi nichts schnelleres auf dem Markt, die GPU war gut doppelt so schnell wie in meinem Galaxy S2 Handy.
Wenn NV schnell liefern kann, dürfte die Leistung schon passen.
robbitop
2013-01-07, 13:55:04
Du meinst wohl SGX554 fuer iPad4/A6X?
Natürlich. Tippfehler. :)
Es gibt auch einen gewissen Redundanz-Grad wenn man 4 volle cores auf MP4 skaliert welches sowohl Vor- als auch Nachteile hat.
Absolut. Aber die Nachteile scheinen absolut gering zu sein. Die skalieren ja recht gut bisher.
So wie es aussieht besteht die ULP GF aus 4 Vec4 FP20 PS + 2 Vec4 FP32 VS ALUs und ja ich fress einen Besen wenn das Tier mehr als 4 TMUs (1 TMU/Vec4 PS ALU) und 16 z/stencil hat.
Von Tegra 4? Und wie kommt man dann auf 72 Shadercores? Das müssten doch eher 18x Vec4 sein. Auf dem Dieshot sah es auch nach mehr ALUs aus.
Bei einem 554MP4 hast Du nicht nur 8 Vec4 USC ALUs sondern 8 TMUs und 64 z/stencil Einheiten. TMUs sind teurer als die fetteren bzw. USC ALUs.
Waren es nicht 8x Vec4 pro Kern? Also 32x Vec4 ALUs beim 554MP4?
Naja das hast du damals auch schon bei T3 gesagt, und als ich mein Asus Prime im Dezember 2011 bekommen habe gab es quasi nichts schnelleres auf dem Markt, die GPU war gut doppelt so schnell wie in meinem Galaxy S2 Handy.
Wenn NV schnell liefern kann, dürfte die Leistung schon passen.
Das Problem ist, dass Tegra 4 ihr Nextgen SoC für 2013 ist. Und der schließt offenbar nichteinmal auf die Spitze der Current Gen von 2012 auf. 2013 kommen mit Rogue ganz andere Geschosse.
Ailuros
2013-01-07, 14:01:02
Welche "Killer App" braucht OpenCL, wenn man vier A15 Kerne hat?!
Als Beispiel bekommst Du auf einer GPU gegen einer CPU doppelt so viel Leistung bei half so viel Stromverbrauch unter image processing. Wie sicher bist Du Dir in dem Fall dass gerade ein quad A15 Gespann bei 1.9GHz eine besonders gute Idee sein soll?
Sonst:
http://www.engadget.com/2013/01/04/opencl-mod-for-the-kindle-fire-hd/
For its part, Imagination explained to us that the main thing holding mobile device manufacturers back from OpenCL is fear: the fear of giving third-party devs too much control over the GPU too early on, with the risk of devices becoming bricked or unstable. Imagination reckons that the popularity of mobile OpenCL adoption will grow during 2013 but won't take off properly until the year after.
Lese ich zum ersten Mal aber die Erklaerung kann ich schon verstehen. Anders NV bleibt dabei sich lediglich auf den lowest common denominator fuer SoC GPUs zu begrenzen. Aber da mich die Frage oben ehrlich genommen ziemlich nervt: ich bin mir sicher dass es ein brutaler Fehlschlage seitens NV USC ALUs seit G80 einzubauen oder? Fuer welche desktop "killer app" brauchst Du denn nochmal genau GPGPU?
Absolut. Aber die Nachteile scheinen absolut gering zu sein. Die skalieren ja recht gut bisher.
Ja nur skalieren clusters besser :P
Von Tegra 4? Und wie kommt man dann auf 72 Shadercores? Das müssten doch eher 18x Vec4 sein. Auf dem Dieshot sah es auch nach mehr ALUs aus.
4*Vec16 mein Tippfehler diesmal.
Waren es nicht 8x Vec4 pro Kern? Also 32x Vec4 ALUs beim 554MP4?
Ja. Es sind aber auch 2 TMUs/core.
mboeller
2013-01-07, 14:02:11
oben links und rechts?
ich zähle je 36 Kerne = die 72 die NV angibt :confused:
und die sehen alle gleich aus, wie kann das sein? hat T4 wirklich keine US?
edit:
oder ist das cache?
ich quote mal Rys von IMG (im Beyond3D-Forum gepostet):
In that case the annotated die shot is completely fabricated, since all 72 GPU cores have the same synthesis. Not entirely unexpected given the Tegra 2 and 3 die shots were also made up.
robbitop
2013-01-07, 14:04:57
Das dachte ich mir schon fast. Keine GPU sieht so auf Dieshots aus und außerdem wären manche Signalwege dann wohl auch zu weit.
Ailuros
2013-01-07, 14:13:09
Das dachte ich mir schon fast. Keine GPU sieht so auf Dieshots aus und außerdem wären manche Signalwege dann wohl auch zu weit.
Mir geht es lediglich wie gross der GPU block in etwas relativ zur insgesamten SoC die area ist. Bei ~1/4 fuer die GPU frag ich mich ernsthaft warum sie sich die USCs gespart haben. Klingt aber wohl eher danach als ob selbst dieses mit Absicht aufgeblasen wurde um falsche Eindruecke zu generieren.
=Floi=
2013-01-07, 14:16:41
wo siehst du einen 6. A15 beim Tegra4?
http://www.heise.de/imgs/18/9/6/6/0/4/6/Tegra4-CES-Praesi-600.jpg-25e5ef82d74e6545.jpeg
Image ist von Heise.de Link: http://www.heise.de/newsticker/meldung/Nvidia-Tegra-4-mit-vier-Cortex-A15-Kernen-1778066.html
Wie gesagt das Softmodem ist ein Zusatzchip:
http://www.heise.de/imgs/18/9/6/6/0/4/6/i500-Softmodem.jpg-8de757c5226fb34f.jpeg
Aber wahrscheinlich reden wir nur aneinander vorbei.
Die gelben quadrate sehe ich als die cpu-cores. alle 6 stück sehen gleich aus. nur der auf dem i500 hat den cache wo anders.
5x beim T4 und 1x beim i500.
Twodee
2013-01-07, 14:29:42
Die gelben quadrate sehe ich als die cpu-cores. alle 6 stück sehen gleich aus. nur der auf dem i500 hat den cache wo anders.
5x beim T4 und 1x beim i500.
ich finde nur 5 gelbe quadrate :confused:
Eggcake
2013-01-07, 14:32:54
T4 und Softmodem sind 6 insgesamt, aber ich würde niemals aus den Dieshots auf einen A15 core beim Softmodem schliessen - das wäre wohl etwas Overkill ? :>
=Floi=
2013-01-07, 14:36:34
die bilder sind wohl einfach gefaked, weil der 5. core im T4 auch keinen sinn ergibt. die cores sehen aber alles gleich aus. theoretisch also A15.
Ailuros
2013-01-07, 14:48:10
die bilder sind wohl einfach gefaked, weil der 5. core im T4 auch keinen sinn ergibt. die cores sehen aber alles gleich aus. theoretisch also A15.
Es sind 5 A15 cores; es ist eben kein big.LITTLE config sondern ein niedriger getakteter companion core ebenso wie in Tegra3. Uebrigens wird der SoC unter 28HPL hergestellt waehrend das i500 softmodem unter 28HP hergestellt wird.
***edit: nicht dass ich selber eine Ahnung hatte wie es mit OGL_ES3.0 aussehen wird, aber keine Komplianz fuer die Tegra4 GPU. Wer will jetzt nochmal genau X GPU als "alt" bezeichnen?
mboeller
2013-01-07, 15:00:55
Die gelben quadrate sehe ich als die cpu-cores. alle 6 stück sehen gleich aus. nur der auf dem i500 hat den cache wo anders.
5x beim T4 und 1x beim i500.
Jetzt verstehe ich vorauf du hinauswillst.
Darauf gibt es 2 Antworten:
1. Rys noch einmal:
In that case the annotated die shot is completely fabricated, since all 72 GPU cores have the same synthesis. Not entirely unexpected given the Tegra 2 and 3 die shots were also made up.
und 2. dieses Bild in dem man sieht, das die i500 CPU wesentlich kleiner ist als die A15 in dem Tegra4:
http://www.notebookcheck.com/typo3temp/pics/7c98b57118.jpg
Spasstiger
2013-01-07, 15:24:28
Ist die folgende Einschätzung seitens heise nicht sehr optimistisch?
Die GPU-Performance des Tegra 4 beziffert Nvidia nicht genau, doch es sind 72 statt wie beim Tegra 3 bloß 12 "Custom Cores" vorhanden. Wie auch einige andere Tablet-SoCs dürfte der Tegra 4 damit leistungsfähiger sein als die noch aktuelle Generation der Spielkonsolen Xbox 360 und Playstation 3, deren Technik aus den Jahren 2006/2007 stammt.
Mal abgesehen, dass die Xbox 360 bereits 2005 rauskam, kann ich mir nicht vorstellen, dass irgendein Tablet-SoC die GPU-Leistung der Xbox 360 bereits übertrifft.
und 2. dieses Bild in dem man sieht, das die i500 CPU wesentlich kleiner ist als die A15 in dem Tegra4:
http://www.notebookcheck.com/typo3temp/pics/7c98b57118.jpg
Da passt doch was nicht, der Softmodem-CPU-Core sieht auf dem Dieshot vom Layout her genau identisch zu den A15-Cores des Tegra 4 aus. Entweder wurden die Dieshots manipuliert oder die Skalierung stimmt nicht.
YfOrU
2013-01-07, 15:36:48
Da passt doch was nicht, der Softmodem-CPU-Core sieht auf dem Dieshot vom Layout her genau identisch zu den A15-Cores des Tegra 4 aus. Entweder wurden die Dieshots manipuliert oder die Skalierung stimmt nicht.
Bekannt ?:
https://www.google.de/search?q=malen+nach+zahlen&hl=de&tbo=d&source=lnms&tbm=isch&sa=X&ei=UN3qUPaBM4rJhAes74CwBg&ved=0CAoQ_AUoAA&biw=1920&bih=971#hl=de&tbo=d&tbm=isch&sa=1&q=malen+nach+zahlen+&oq=malen+nach+zahlen+&gs_l=img.3..0l10.7732.7732.0.7950.1.1.0.0.0.0.85.85.1.1.0...0.0...1c.1.lxzmij7B_ r0&bav=on.2,or.r_gc.r_pw.r_cp.r_qf.&fp=78543ecd13a26f2&bpcl=40096503&biw=1920&bih=971
;)
Knuddelbearli
2013-01-07, 15:37:05
imho viel zu optimistisch von heise
anderes beispiel wegen xbox
http://www.computerbase.de/news/2013-01/nvidia-treibt-mit-grid-das-cloud-gaming-voran/
Ein Rack mit 20 Servern und 240 GPUs erreicht den Angaben von Nvidia zufolge eine Rechenleistung von rund 200 Teraflops, was ungefähr der Leistung von 700 Xbox 360 entspricht.
240 top gpus nur 700fache xbox leistung?
glaube den medien nichts was du nicht selbst überprüft hast ...
iFanatiker
2013-01-07, 15:37:39
Was hat Nvidia dann geritten, es so zu machen? Die Ressourcen haben sie, das Geld haben sie, die Erfahrung haben sie. Das ergibt doch von vorn bis hinten keinen Sinn :confused:
Doch. Wieder mal absolut genial für den Vertrieb und Vermarktung des SoCs.
Im "neuen" (auf SoC bezogen) 28nm Prozess ist alles an komplexer Logik ja immer ein höheres Risiko (-> höheres Preis) und für die Vermarktung ist: Quadcore CPU > "dicke" GPU (vor allem weil Joe Sixxpack nVidia vom Notebook und Desktop kennt und davon augeht Geforce >> Mali oder sonst irgendeiner Kramm).
Sprich: nVidia setzt lieber auf höhere Verfügbarkeit und die Zugkraft von Quadcore (weil 4 besser als 2) und des eigenen Brands bei Joe Sixxpack. :biggrin:
Aber ehrlich...die nVidia Fraktion:
nVidia bringt eine mobile Spielekonsole und dann die Frage wieso GPU Leistung wichtig ist? :freak:
AnarchX
2013-01-07, 15:53:09
imho viel zu optimistisch von heise
anderes beispiel wegen xbox
http://www.computerbase.de/news/2013-01/nvidia-treibt-mit-grid-das-cloud-gaming-voran/
240 top gpus nur 700fache xbox leistung?
glaube den medien nichts was du nicht selbst überprüft hast ...
Die Kiste hat nur 200 TFLOPs, als wohl nur GK107-GPUs, wovon dann aber wohl 4 Stück auf einer Steckkarte sind. Vielleicht eine neue Lösung zwischen VGX K1 und K2 (http://www.nvidia.de/object/vgx-vdi-graphics-cards-de.html).
4*Vec16 mein Tippfehler diesmal.
Aber mit einer zu CUDA-vergleichbaren 1D-Ausführung? Ansonsten könnte man wohl die Einheiten kaum auslasten?
robbitop
2013-01-07, 16:10:04
Im Fall von Vec16 ALUs wird das schon "1D" sein analog zu G8x.
Ailuros
2013-01-07, 17:07:14
Ist die folgende Einschätzung seitens heise nicht sehr optimistisch?
Wenn's nur um sterile GFLOPs auf Papier geht, wenn man die T4 GPU auf 1.5GHz taktet wohl nicht :P Sonst bleibt natuerlich noch das "Problemchen" dass man wohl um die gleiche Fuellrate zu erreichen noch ein paar GHz dazustecken muss.
Mal abgesehen, dass die Xbox 360 bereits 2005 rauskam, kann ich mir nicht vorstellen, dass irgendein Tablet-SoC die GPU-Leistung der Xbox 360 bereits übertrifft.
Es wird noch ein Weilchen dauern, aber davon ist die T4 GPU noch ein ziemlich grosses Stueck entfernt; nicht mal annaehernd PS3/RSX Nivaeu.
Aber mit einer zu CUDA-vergleichbaren 1D-Ausführung? Ansonsten könnte man wohl die Einheiten kaum auslasten?
Die GPU spielt doch wieder nur die dekorative Rolle selbst im marketing und das mit Absicht. Alles was man wissen muss ist dass sie "72 cores" hat und schluss damit. Die ersten geleakten Resultate bei Kishonti die aber schnell wieder verschwunden sind zeigten Leistung unter dieser von T604. Nun gut es kann durchaus sein dass die finalen Resultate besser aussehen, aber hingegen hat T604 4*SIMD16 bei 533MHz (und ja man koennte sagen dass es ARM's erster Versuch mit USC ALUs ist und nicht besonders gelungen sonst wuerde T624 mit gleich so viel Einheiten nicht 50% mehr Leistung versprechen...), aber ich versteh die Parallelisierung zu CUDA bzw. G80 sowieso nicht.
NV hatte NIE und nirgends bis zum G80 irgendwelche FP20 PS ALUs; nur FP16/32 split precision ALUs und ja es waren stets vector ALUs. Es wuerde mich sogar kein bisschen wundern wenn ALLE SFF GPUs fuer's texturing ALU resources mitbenuetzen wuerden wie beim Mali400 und das ist dann eher NV3x/4x Material.
mboeller
2013-01-07, 17:39:52
Die ersten geleakten Resultate bei Kishonti die aber schnell wieder verschwunden sind zeigten Leistung unter dieser von T604.
Ist ja auch kein Wunder. Mit getrennten VS und PS Einheiten sieht Tegra4 im GLB2.5 kein Land. Zum Vergleich: Der Mali 400MP4 ist ja ähnlich aufgebaut und wird bei dem neuen Benchmark aufgrund der hohen VS-Belastung ebenfalls nach hinten durchgereicht.
http://www.anandtech.com/show/6121/glbenchmark-25-performance/2
Dural
2013-01-07, 17:47:01
das wären aber immer noch ein paar Millionen und somit sicher nicht nichts, zudem ich mir vorstellen könnte das die Marge im Auto Sektor sicher höher ausfallen könnte als bei Smartphones.
Meinst du so was wie die Sache mit dem Audi "Deal" (oder wars BMW?), wo sich jetzt vor kurzem rausgestellt hat, dass das so ziemlich nen fettes Luftschloss war, und nur sehr wenige nVidia Tegras verbaut wurden? ;D
hmm Quelle?
In der ursprünglichen Meldung hiess es, das Audi in den High-End Navis Tegra einsetzten wird, NV soll Audi auch bei der Software unterstützt haben, und man sich bei Bewehrung vorstellen könnte das im ganzen VW Konzern zu übernehmen.
Was daraus wurde weis ich jedoch nicht.
Übrigens:
http://www.nvidia.de/object/automotive-partner-innovation-de.html
wie ein "fettes Luftschloss" sieht das für mich ja nicht aus.
Ailuros
2013-01-07, 17:47:39
Ist ja auch kein Wunder. Mit getrennten VS und PS Einheiten sieht Tegra4 im GLB2.5 kein Land. Zum Vergleich: Der Mali 400MP4 ist ja ähnlich aufgebaut und wird bei dem neuen Benchmark aufgrund der hohen VS-Belastung ebenfalls nach hinten durchgereicht.
http://www.anandtech.com/show/6121/glbenchmark-25-performance
Miserabler Vergleich; Mali400 kann leider die VS nicht skalieren lediglich die fragment cores bzw. PS ALUs. Selbst ein Mali400MP4 hat immer noch eine Vec2 VS ALU welche selbst im Vergleich zur Tegra2 GPU (1 Vec4 VS) immer noch miserabel ist. Beim T4 erwarte ich wie gesagt von den "72 cores" 2 Vec4 VS ALUs welches schon das vierfache einer Mali VS ALU darstellen und unter normalen Umstaenden nicht der begrenzende Faktor sein sollte.
Scheiss auch auf GPGPU fuer 2013, aber kein OGL_ES3.0?
Skysnake
2013-01-07, 17:56:51
Es war der Kaugummi von jedem NV fan zum T3 launch; aber man wird wohl so viel Grips haben zu verstehen dass Audi eben nicht (im Gegensatz z.B. zu smartphones) dutzende von Autos weltweit pro Jahr verkaufen kann. Selbst wenn der gesamte Volkswagen Konzern N SoC in alle verkauften Autos einbauen wuerde ist das insgesamte Volumen immer noch laecherlich klein.
Aber genug mit dem OT.
Es ging dabei ja aber nicht um die absolute Menge, also X Mio chips, sondern darum, das anstatt der Tegra3 chips, die angekuendigt wurden, was ganz anderes verbaut wurde.
Also praktisch so, als wuerde man sagen, das Iphone38 bekommt nen Tegra 64, am ende bekommen aber nur 10% der Dinger wirklich den Chip, und der Rest eben was ganz anderes. Jetzt verstaendlicher?
Dural
2013-01-07, 18:02:13
Es ging dabei ja aber nicht um die absolute Menge, also X Mio chips, sondern darum, das anstatt der Tegra3 chips, die angekuendigt wurden, was ganz anderes verbaut wurde.
Also praktisch so, als wuerde man sagen, das Iphone38 bekommt nen Tegra 64, am ende bekommen aber nur 10% der Dinger wirklich den Chip, und der Rest eben was ganz anderes. Jetzt verstaendlicher?
Quelle?
http://www.nvidia.de/object/automotive-infotainment-navigation-de.html
Skysnake
2013-01-07, 18:02:30
Die Kiste hat nur 200 TFLOPs, als wohl nur GK107-GPUs, wovon dann aber wohl 4 Stück auf einer Steckkarte sind. Vielleicht eine neue Lösung zwischen VGX K1 und K2 (http://www.nvidia.de/object/vgx-vdi-graphics-cards-de.html).
Aber mit einer zu CUDA-vergleichbaren 1D-Ausführung? Ansonsten könnte man wohl die Einheiten kaum auslasten?
Ne, nach den Bildern aus dem Stream/Folien, siehts nach 4 K10 + 4 K20 pro blade aus. mit gleicher Bestueckung und 4 Karten kommt man ja auch schlecht auf 12 GPUs/Blade.
Da muessten es schon 3 GPUs pro Karte sein, es sind aber nur 2 ersichtlich auf den Bildern.
Ailuros
2013-01-07, 18:06:14
das wären aber immer noch ein paar Millionen und somit sicher nicht nichts, zudem ich mir vorstellen könnte das die Marge im Auto Sektor sicher höher ausfallen könnte als bei Smartphones.
Embedded ist eher das brutale Gegenteil wenn es zu Margen kommt; erstens ist der Markt nicht so 'cut-throat' wie SFF und zweitens sind die Ansprueche (sowohl fuer hw und sw) meistens ziemlich konservativ.
Es sind uebrigens nicht Tegra3 fuer die Audis.
In der ursprünglichen Meldung hiess es, das Audi in den High-End Navis Tegra einsetzten wird, NV soll Audi auch bei der Software unterstützt haben, und man sich bei Bewehrung vorstellen könnte das im ganzen VW Konzern zu übernehmen.
Was daraus wurde weis ich jedoch nicht.
Audi wird in der Zwischenzeit fuer infotainment SoCs zwischen NVIDIA und Texas Instruments quasi geteilt und ich bezweifle dass die VW Gruppe je irgendwelche Exklusivitaet egal wem garantieren wuerde.
Black-Scorpion
2013-01-07, 18:08:42
Gerade bei Meldungen die auf einer Nvidia Seite stehen sollte man sich hüten die als Wahrheit zu betrachten. ;)
AnarchX
2013-01-07, 18:10:48
Ne, nach den Bildern aus dem Stream/Folien, siehts nach 4 K10 + 4 K20 pro blade aus. mit gleicher Bestueckung und 4 Karten kommt man ja auch schlecht auf 12 GPUs/Blade.
Da muessten es schon 3 GPUs pro Karte sein, es sind aber nur 2 ersichtlich auf den Bildern.
Irgendwo ist da wohl ein Fehler in den Informationen von NV. 200 TFLOPs und 700x Xbox 360 passen, aber dann dürften es wie gesagt nicht mehr als GK107-GPUs sein. So hoch sollte der Encoding-Overhead nicht sein. :ugly:
dildo4u
2013-01-07, 18:12:23
Tesla S scheint Tegra 3 zu nutzen vielleicht nicht die Masse aber mit Abstand das interessantes Auto der letzten Jahrzehnte vor allem Technologisch.
http://youtu.be/AOdsTuaJEfc
Dural
2013-01-07, 18:14:10
http://www.automobilwoche.de/article/20121002/NACHRICHTEN/121009982/1325/tegra-prozessor-fur-den-golf-vii
http://stadt-bremerhaven.de/der-neue-audi-a3-mit-tegra-chipsatz-und-12-ghz/
http://automobilwoche.de/article/20121002/REPOSITORY/121009982/1293/tegra-prozessor-fur-den-golf-vii
http://www.tomshardware.de/Audi-Infotainment-Fahrassistent-Nvidia-Tegra,news-246866.html
übrigens sind wir hier sehr OT ;)
fondness
2013-01-07, 18:17:46
Ja sehr enttäuschend. Vor allem die 20bit PS-Shader. pfui!
Was nur 20 bit PS? Damit erfüllt man nicht mal SM2.
dildo4u
2013-01-07, 18:18:50
Was nur 20 bit PS? Damit erfüllt man nicht mal SM2.
Kann nich sein sie hatten Hawken auf dem Chip laufen.(UE 3.0)
fondness
2013-01-07, 18:27:09
Kann nich sein sie hatten Hawken auf dem Chip laufen.(UE 3.0)
Kann man ja machen. Deswegen würde die Präzision der Pixelshader trotzdem nicht mal für SM2 reichen.
Ich finde es ziemlich enttäuschend wie wenig die GPU-Schmiede Nvidia in punkto GPU abliefert. Die Konkurrenz wird damit weiterhin einen Schritt voraus sein.
Auch ansonsten ist der Chip wenig aufregend. Die CPU-Cores sind Standard A15 wie sie jeder lizenzieren kann. Das Modem ist nicht mal integriert, warum eigentlich?
deekey777
2013-01-07, 18:29:59
Seit wann genau interessiert das Shadermodell außerhalb von DirectX?
fondness
2013-01-07, 18:32:18
Seit wann genau interessiert das Shadermodell außerhalb von DirectX?
Muss dich ja nicht interessieren. Ich finde es trotzdem erwähnenswert das man hier derart spart. Programmiert werden die Chips natürlich nicht unter DX.
Wie sieht es hier bei Chips der Konkurrenz aus?
M4xw0lf
2013-01-07, 19:00:54
Kann nich sein sie hatten Hawken auf dem Chip laufen.(UE 3.0)
Lief es auf dem Tegra-Teil oder wurde es gestreamt?
dildo4u
2013-01-07, 19:06:06
Lief es auf dem Tegra-Teil oder wurde es gestreamt?
Lief auf dem Chip,NFS und AC3 war vom PC.Es sah auch deutlich abgespeckt vom PC aus.
http://d35lb3dl296zwu.cloudfront.net/uploads/photo/image/9273/vld2517.jpg
iFanatiker
2013-01-07, 20:01:13
Audi wird in der Zwischenzeit fuer infotainment SoCs zwischen NVIDIA und Texas Instruments quasi geteilt und ich bezweifle dass die VW Gruppe je irgendwelche Exklusivitaet egal wem garantieren wuerde.
Bisschen genauer:
Es gibt ja unterschiedliche Generationen der Infotainment System bei der VAG. Im neusten Modul was jetzt für die ganzen Modelle auf der MQB Plattform kommt (also A3, Golf VII, Leon III, Octavia III, ) soll wohl nur AFAIK nVidia Tegra 3 zum Einsatz kommen. Ebenso soll für die potentielle MLB Evo Plattform (nächster A4) nVidia gute Chancen haben. Unter anderem um auch eben bei dem Infotainment System den Plattform Gedanken zu "huldigen". nVidia dürfte wohl ziemlich die Hosen runtergelassen haben aber von der Menge ist es schon viel vor allem eben auch längerfristig.
Natürlich kann sich dies wieder bei einer Modellpflege ändern usw. aber erstmal ist nVidia da drin. Und man sollte hier wirklich nicht drüber lachen. Bisher hat ja nVidia kaum "ernsthaft" hier was unterbekommen. Klar, damals bei der F22 usw. gab es ja so kleine Erfolge aber jetzt ist schon man ganz gut drin in der Industrie Sparte.
Dural
2013-01-07, 20:38:14
die Tegra2 haben sich in den Audis wohl bewährt ;)
das nenne ich übrigen sehr gutes marketing, wenn man es sogar schaft, dass ein automagazin von seinem neuen SoC berichtet, Hut ab! :eek:
http://www.automobilwoche.de/article/20130107/NACHRICHTEN/130109958/1280/nvidia-stellt-neuen-prozessor-vor
Edit:
Erstes Tegra 4 Tablet
http://www.computerbase.de/news/2013-01/vizio-zeigt-10.1-und-7-zoll-tablet-mit-tegra-4-quad-core/
Ailuros
2013-01-07, 21:57:14
Seit wann genau interessiert das Shadermodell außerhalb von DirectX?
Erstens interessiert es wenn man windows Platformen anzielt sehr wohl und zweitens nur OGL_ES2.0 ist auch nicht das tollste selbst fuer eine SFF Platform.
iFanatiker,
Es ist nicht dass es ein kleiner Deal ist mit den Audis oder generell dem VAG Konzern. Es ist und bleibt aber im grossen Bild wenn man bedenkt was andere im embedded Bereich generell erreichen genauso viel Erbsen wenn es zu Volumen kommt wie auch immer noch in smartphones fuer NVIDIA.
Einfacher ich weiss schon was der deal wert ist nur weigere ich mich in einer Maus ploetzlich einen Elephanten zu sehen.
deekey777
2013-01-07, 23:10:40
Erstens interessiert es wenn man windows Platformen anzielt sehr wohl und zweitens nur OGL_ES2.0 ist auch nicht das tollste selbst fuer eine SFF Platform.
Das fehlende Shadermodell 2 interessiert keinem, wenn man einwendet, dass ein Spiel, das auf der UE3 basiert, die wiederum auf dem PC mindestens 2.X verlangt (also die X800-Generation). Oder was hat dieser Einwand in der Handheld-Welt zu suchen?
Aber ja: Was ist mit Windows RT? Nun, irgendwie wurde das beim Tegra 3 gelöst, warum sollte das beim Tegra 4 ein Problem sein?
Wenn Tegra 3 im Surface RT steckt, dann beherrscht es D3D10 Feature Level 9.3, damit beherrscht es vs_2_a/ps_2_b. Das wird irgendwie auch für den Tegra 4 gelten. Aber wie sieht es dann mit der Performance auf einem Windows RT Gerät aus? Dies wäre einen Einwand wert.
Eggcake
2013-01-08, 10:19:46
Wie stark GPU limitiert ist eigentlich ein GLBenchmark (z.B. mit einem One X mit T3 oder N4 mit S4 Pro) ? Weiss das jemand?
Ailuros
2013-01-08, 11:14:44
Das fehlende Shadermodell 2 interessiert keinem, wenn man einwendet, dass ein Spiel, das auf der UE3 basiert, die wiederum auf dem PC mindestens 2.X verlangt (also die X800-Generation). Oder was hat dieser Einwand in der Handheld-Welt zu suchen?
Aber ja: Was ist mit Windows RT? Nun, irgendwie wurde das beim Tegra 3 gelöst, warum sollte das beim Tegra 4 ein Problem sein?
Wer behauptete ueberhaupt dass T3 NICHT SM3.0 vollfuellt? Es geht um die eigentliche Effizienz der Architektur selber (unified vs. non unified ALUs) und von einem Punkt ab der fehlenden internen Praezision in den pixel shaders. Eben weil USCs im desktop gar nichts beigetragen haben bisher, weigere ich mich solche Fragen ausfuehrlicher zu beantworten.
OGL_ES3.0 kompliant ist Tegra4 auf jeden Fall nicht, weil es FP32 sowohl in fragment als auch in vertex shaders vorraussetzt. Es ist das mobile API sowohl fuer Android und auch fuer anderen Platformen, ergo denk zwei Mal nach auf was ich gerade hier deute.
Wenn Tegra 3 im Surface RT steckt, dann beherrscht es D3D10 Feature Level 9.3, damit beherrscht es vs_2_a/ps_2_b. Das wird irgendwie auch für den Tegra 4 gelten. Aber wie sieht es dann mit der Performance auf einem Windows RT Gerät aus? Dies wäre einen Einwand wert.
DX9_L3 dank Haarspalterei ist DX11 certified DX9 und ja siehe oben es beherrscht SM3.0. Du beantwortest Deine Frage wohl selber und eben nicht fuer windowsRT spezifisch sondern eher windows8 oder hoeher. Wenn hier Intel, AMD und andere langfristig zunehmend Boden gewinnen kann NV in der Zukunft lange herumheulen warum die Sterne schlecht gegen sie standen.
Schau mal in den Qualcomm thread rein was die zweite S4 Generation verspricht und es wird in naechsten Zeit so einiges update geben wo es auf mehreren Stellen ziemlich weh tun wird.
Wie stark GPU limitiert ist eigentlich ein GLBenchmark (z.B. mit einem One X mit T3 oder N4 mit S4 Pro) ? Weiss das jemand?
Ziemlich ALU limitiert; da FLOPs zwischen verschiedenen Architekturen meistens wenn nicht immer schlecht vergleichbar sind hilft es nicht fuer irgendwelche Milchmaedchen-Rechnungen.
DirectX 9 hat doch immer mindestens FP24 verlangt
AnarchX
2013-01-08, 11:24:39
Vielleicht mehrere Takte um die Genauigkeit zu erhöhen?
Ailuros
2013-01-08, 11:42:20
DirectX 9 hat doch immer mindestens FP24 verlangt
Weiss der Geier was sie angestellt haben aber T3 ist schon DX9_L3 afaik. Es ist ja auch nicht so dass sie irgendwie irgendwo etwas genaueres angeben darueber, man erfaehrt die Mehrzahl ueber dritte. Mich wuerde es auch nicht wundern wenn die alle Tegra GPUs stehts ueber FP24 bzw. 24bit Z Praezision faehig waren und man es lediglich absichtlich reduziert hat um Leistung dazuzugewinnen.
Skysnake
2013-01-08, 11:43:28
Oder man setzt wieder mal auf Spezifikationen nen Haufen?
Ich würde es nVidia ja zutrauen, dass Sie dennoch drauf laufen lassen, auch wenn man die Spezifikationen nicht erfüllt...
deekey777
2013-01-08, 11:54:26
DirectX 9 hat doch immer mindestens FP24 verlangt
Bei Anandtech heißt es:
NEW: the shaders aren't unified, the majority are 20-bit pixel shader cores though. No idea on the ratio yet.
Wie ist das zu verstehen: Sind wirklich alle PS-Kerne 20-bit-Einheiten oder die meisten davon?
Ailuros
2013-01-08, 11:57:38
Oder man setzt wieder mal auf Spezifikationen nen Haufen?
Ich würde es nVidia ja zutrauen, dass Sie dennoch drauf laufen lassen, auch wenn man die Spezifikationen nicht erfüllt...
Seit wann ist Microsoft so grosszuegig geworden? Nichtdestominder haben sie selber T3 fuer Ihr Surface gewaehlt. Wenn sie es NV geschenkt haetten dann haetten sie auch NV auch gleich DX11.1 Komplianz schenken koennen obwohl ein bisschen hier und da fehlt.
Bei Anandtech heißt es:
Wie ist das zu verstehen: Sind wirklich alle PS-Kerne 20-bit-Einheiten oder die meisten davon?
VS ALUs muessen FP32 sein; was Anand nicht wagen will ist einzuschaetzen wie viele von den 72 ALU lanes zu VS gehoeren. Wie ich schon sagte IMHO 64 PS + 8 VS.
deekey777
2013-01-08, 12:03:55
VS ALUs muessen FP32 sein; was Anand nicht wagen will ist einzuschaetzen wie viele von den 72 ALU lanes zu VS gehoeren. Wie ich schon sagte IMHO 64 PS + 8 VS.
64 PS oder 16 Vec4-PS? Kreativ kann jeder zählen.
Acht VS hatte damals die 7900GTX und damit auch der RSX.
Ailuros
2013-01-08, 12:38:14
64 PS oder 16 Vec4-PS? Kreativ kann jeder zählen.
64 PS ALU lanes insgesamt. Ob diese jetzt 4*Vec16 oder 16*Vec4 sein werden ist ziemlich wurscht.
Acht VS hatte damals die 7900GTX und damit auch der RSX.
Reiner Zufall IMO.
Spasstiger
2013-01-08, 13:42:24
Tegra 4 im GLBenchmark?
http://forum.xda-developers.com/showthread.php?t=2087129
Im Egypt-HD-Test zwar 3-mal so schnell wie Tegra 3 (vgl. (http://www.anandtech.com/show/6126/glbenchmark-25-performance-on-ios-and-android-devices)), aber klar langsamer als der PowerVR SGX 554MP4 im iPad 4.
dildo4u
2013-01-08, 13:53:33
Im Bereich des Mali-T604/Adreno 320(S4Pro)
http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro25&D=Google+Nexus+10
http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro25&D=Google+Nexus+4
Passt damit haben die Spiele Entwickler ne große Zielgruppe es werden einige Android Phones ein S4Pro nutzen.(Droid DNA,Sony Xperia Z,Nexus4,LG Optimus G)
Ailuros
2013-01-08, 18:54:30
Tegra 4 im GLBenchmark?
http://forum.xda-developers.com/showthread.php?t=2087129
Im Egypt-HD-Test zwar 3-mal so schnell wie Tegra 3 (vgl. (http://www.anandtech.com/show/6126/glbenchmark-25-performance-on-ios-and-android-devices)), aber klar langsamer als der PowerVR SGX 554MP4 im iPad 4.
War schon von der ersten geleakten Infos klar dass sich T4 leicht unter Adreno320 einrichtet und ein gutes Stueck unter MaliT604. Ich hab noch eine kleine Vorbehalte da es sich um die ersten Resultate handelt und die finalen scores nach etwas Treiber/compiler tuning doch noch etwas besser ausfallen.
Nix mit Kepler und mit Sicherheit auch keine extravagante GPU Frequenz da die 4*A15@1.9GHz eben nicht gerade wenig verdonnern. Dazu brauchte man weder insider infos noch eine Glaskugel.
Insgesamt macht es zu T4 einen genauso gut positionierten (insgesamt) SoC wie T3, aber wohl keinesfalls den Mega-GPU-Durchbruch den so manche erwarteten.
Ein quote von Arun@B3D:
http://forum.beyond3d.com/showpost.php?p=1691771&postcount=383
But you should care about image quality. Tegra 3 didn't support framebuffer compression, so to save bandwidth they only supported (or at least exposed?) a pitiful 16-bit depth buffer. That leads to quite a lot of depth precision issues... I hope they at least added framebuffer compression and 24-bit depth for this generation, or it'll be a complete joke (and ideally MSAA). In my mind this leads to a fundamental flaw of the architecture: it's an IMR but it's not fast enough at doing a Z-Only prepass (because of bandwidth, depth rate, and geometry performance) so you need (unrealistically?) good front-to-back ordering to get good performance on complex workloads. And even then I suspect they waste more time than they should on rejecting pixels for perfectly front-to-back ordered scenes that have high overdraw as they have no Hier-Z of any kind...
BTW, one remaining question for Tegra 4 (if they've kept basically the exact same architecture) is whether the higher number of "cores" is a result of a higher ALU:[TMU/ROP] ratio since I can't see how they'd have enough bandwidth for that many units otherwise...
Reiner Zufall IMO.
Zufall nicht, denn das Verhältnis von Pixel-Last zu Vertex-Last ist bei mobilen Chips ähnlich wie heute bei Tegra.
Aber die Architekturen sind wohl nicht verwandt, und wenn nur entfernt.
Eggcake
2013-01-09, 12:12:53
http://www.bit-tech.net/news/hardware/2013/01/07/nvidia-tegra-4/1
Performance boosts and new features aside, the Tegra 4 system-on-chip also includes some significant improvements to the power draw: in what Nvidia somewhat vaguely describes as 'common use cases,' Tegra 4 chips should draw around 45 per cent less power than a Tegra 3 - translating into 14 hours of HD video playback on a reference smartphone handset.
YfOrU
2013-01-09, 12:24:34
40->28nm und ein verbesserter Decoder. Über die tatsächliche Leistungsaufnahme (CPU/GPU Last) sagt das so ziemlich nichts aus.
Eggcake
2013-01-09, 12:29:28
Das ist mir klar. Ich bezweifle dass das Ding unter Last weniger verbrauchen wird als ein T3...
Ailuros
2013-01-09, 12:43:49
Zufall nicht, denn das Verhältnis von Pixel-Last zu Vertex-Last ist bei mobilen Chips ähnlich wie heute bei Tegra.
Aber die Architekturen sind wohl nicht verwandt, und wenn nur entfernt.
Verdammt vereinfacht ist es eine brute force pipeline a la NV1x mit NV4x Faehigkeiten.
Gandharva
2013-01-09, 12:47:22
40->28nm und ein verbesserter Decoder. Über die tatsächliche Leistungsaufnahme (CPU/GPU Last) sagt das so ziemlich nichts aus.
40->28nm und ein verbesserter Decoder. Über die tatsächliche Leistungsaufnahme (CPU/GPU Last) sagt das so ziemlich nichts aus.
Dem Endkunden ist doch völlig egal wie genau die längere Akkulaufzeit erreicht wird. "14 hours of HD video playback" ist schon ne Ansage im Vergleich zu aktuellen Geräten.
mboeller
2013-01-09, 13:30:38
"14 hours of HD video playback" ist schon ne Ansage im Vergleich zu aktuellen Geräten.
Gibt es dazu eine Aussage von Nvidia, oder haben sich das die Leute bit-tech einfach zusammengereimt?
Blediator16
2013-01-09, 14:20:44
Ich würde behaupten, dass NV soetwas in einer Präsentation auch ausschlachten würde. Ich kann mir absolut nicht vorstellen, dass man so eine Zahl selbst nie ermittelt hat.
dildo4u
2013-01-09, 14:30:09
20 Stunden im Form von Shield wenn streaming genutzt wird was ja vergleichbar mit Video ist.
http://youtu.be/T0MuXQwbTl0?t=8m25s
Die akku Kapazität dürfte sich im Bereich 10 Zoll Tabelt bewegen.
Screemer
2013-01-09, 14:34:04
mal davon abgesehen, dass bei videoplayback das display wohl die größere rolle als der soc bzgl. der akku-laufzeit hat.
Ein 5" Display sollte auch deutlich weniger Energie aufnehmen als 7" oder gar 10". Wenn es auf einem TV gestreamt wird, dann fällt sogar das Display als größter Leistungsfresser ganz weg.
mboeller
2013-01-09, 14:52:15
Die akku Kapazität dürfte sich im Bereich 10 Zoll Tabelt bewegen.
kommt darauf an:
http://www.anandtech.com/show/5663/analysis-of-the-new-apple-ipad/3
Dachte nicht, das das new iPad einen so massiven Akku hat.
Label
2013-01-09, 15:37:36
heise:
Stam bestätigte, dass Tegra 4 48 Pixel Shader und 24 Vertex Shader hat. Damit hat Nvidia die Kernzahl des ULP GeForce im Vergleich zu Tegra 3 schlicht versechsfacht.
Wieviel Textureinheiten Tegra 4 hat, wollte Stam allerdings nicht verraten, aber immerhin, dass die ULP GeForce pro Takt vier farbige Pixel ausgibt.
http://www.heise.de/newsticker/meldung/3D-Leistung-Tegra-4-unterliegt-der-GPU-im-iPad-4-1780135.html
Ailuros
2013-01-09, 15:44:51
....und groessere caches...quasi die gleiche GPU wie im originalen Tegra(1) lediglich mit mehr Einheiten.
Auf die Frage, weshalb man noch immer keine Unified-Shader-Architektur biete, erklärte Nick Stam, dass eine solche Architektur aus Nvidias Sicht schlicht noch keinen Sinn mache. Unified Shader seien wesentlich komplexer, damit größer und führen zu einer höheren Leistungsaufnahme. So sei es für Nvidia bis dato noch effizienter, eigenständige Pixel-Shader- und Vertex-Shader-Kerne zu nutzen.
BULLSHIT ^2.
Label
2013-01-09, 15:54:02
Mal abgesehehen von Project Shield habe ich erst ein anderes Gerät gesehen:
http://www.theverge.com/2013/1/7/3845608/vizio-10-inch-tablet-combines-tegra-4-android-thin-body
Kommen weitere Vorstellungen erst bei der MWC im Februar in Barcelona?
robbitop
2013-01-09, 16:00:31
BULLSHIT ^2.
Es kommt drauf an. Wir wissen ja noch gar nicht wieviel Fläche die GPU einnimmt. Aber immerhin passen 5x A15 + die GPU drauf in 80 sqmm. Die Leistung ist jetzt nicht beeindruckend. Aber auch nicht super schlecht.
Ich weiß nicht, auf welches Ergebnis die USC GPUs mit der Restfläche (80 sqmm minus 5x A15 minus I/O) gekommen wären.
Ich nehme an, dass ein Mali T604 und ein Adreno 320 und ein IMG SGX543MP4 (ungefähr ähnliche Leistung) wohl deutlich mehr Fläche benötigen. Da hätte, nehme ich an (!!), dann keine 5x A15 mehr hineingepasst (dessen Sinn ich sowieso stark hinterfrage).
Das gleiche war ja im PC auch so bis man durch Shrinks dorthin kam, dass USCs sich ab 2006 lohnten.
SFF SoCs sind ja quasi analog zu ASICS aus den PCs der Vergangenheit (weil das TDP Budget so eingeschränkt ist).
Wobei der Abstand versucht wird zu verkürzen, in dem man SoCs überproportional zu den Verbesserungen der Eigenschaften (Größe, Takt, TDP) durch Shrinks wachsen lässt. Und zwar so sehr, dass man nun schon Tablet SoCs und Phone SoCs aufteilen muss (was ja auch Sinn macht).
Ein ARM SoC war vor ein paar Jahren noch bei < 1 W. Heutige High End ARM SoCs haben < 5 W. (selbiges passierte bei PC ASICs auch nach dem Jahrtausendwechsel)
IMO hat Nick Stam zumindest nicht ganz Unrecht.
Label
2013-01-09, 16:04:48
Die A15-Kerne allein brauchen wohl ca. 10% der Tegra 4 Fläche:
http://forums.anandtech.com/showpost.php?p=34463501&postcount=1
=Floi=
2013-01-09, 16:28:46
du musst den cache auch noch dazunehmen! der cache ist auch so groß wie die cpu selbst...
frühere socs waren grob gesagt auch dreck. schaut euch alte handys an. was da damals ging war quasi ein witz. ein wenig gui und ne langame kamera. Die brlieben doch jahrelang quasi stehen und kommen erst jetzt richtig aus den puschen. Es macht auch keinen sinn, an der leistungsaufnahme zu sparen, wenn man auch einen ausreichendan akku verbauen kann. siehe ipad.
dem kunden ist es egal, wie groß der chip ist. es zählt die leistung. An T4 sieht man wie stark hier apple wieder vorgelegt hat.
warum bringt nv eigentlich keine cpu benchmarks? zumindest da müssten sie ja ganz gut mithalten können.
wie sieht es denn bei arm mit einer anderen cache hirachie aus? wäre es nicht sinnvoll hier alle cores an einen cache anzubinden?
dildo4u
2013-01-09, 16:35:33
warum bringt nv eigentlich keine cpu benchmarks? zumindest da müssten sie ja ganz gut mithalten können.
wie sieht es denn bei arm mit einer anderen cache hirachie aus? wäre es nicht sinnvoll hier alle cores an einen cache anzubinden?
Es gab Browser Benches.
http://d35lb3dl296zwu.cloudfront.net/uploads/photo/image/9208/vld2228.jpg
robbitop
2013-01-09, 16:36:45
Die A15-Kerne allein brauchen wohl ca. 10% der Tegra 4 Fläche:
http://forums.anandtech.com/showpost.php?p=34463501&postcount=1
Das ist aber ohne L2 Cache und entsprechendem IO. Schau mal auf nvidias Die Shot.
Außerdem sind die SoCs mit den USCs trotz entweder weniger A15s (Exynos 5 mit Mali T604) oder kleineren Kraits (Qualcomm Snapdragon S4pro mit Adreno 320) deutlich größer.
Apples A6x wäre in 28 nm ca. 100 sqmm groß. Deren Swift Kerne sind aber auch deutlich kleiner als A15 Kerne. SGX544 MP4 ist natürlich auch schneller als Tegra 4, braucht aber offenbar ~20 sqmm mehr. Also 25 % vom ganzen Tegra 4 SoC.
Ein niedrigerer Techlevel spart immer Transistoren. Immer. Die Frage ist eben, welche Techlevel wird im Moment wirklich im SFF wirklich gebraucht wird. Ich glaube, dass D3D10 L9.3 wohl im Moment für alle Spiele und Apps genügt. Es ist also nur eine gewisse (Mindest-)Performance gefragt. Alles andere wird dann (heute) einfach kaum genutzt.
Es gab Browser Benches.
http://d35lb3dl296zwu.cloudfront.net/uploads/photo/image/9208/vld2228.jpg
Die aber sinnlos waren. Hui ich öffne 35 Tabs schneller als du. Was für ein sinnvoller Nutzen... Da nutzen die 4x CPUs natürlich was. Entscheidend ist aber, wie schnell ein Tab geladen werden kann.
Hugo78
2013-01-09, 16:43:23
BULLSHIT ^2.
Was er nicht sagt, aber wir alle wissen, ist die Frage nach der Wirtschaftlichkeit.
Nvidia geht auf Nummer sicher, wächst langsam mit einem kleinen Chip der die allgemein, aktuellen Bedürfnisse befriedigt.
Da ist im sprichwörtlichen Sinn kein Platz für feuchte Nerd Träume, a la GPGPU, von dennen "Otto Normal" Null Komma Gar-Nichts in dem Zeitraum bis zur nächsten Tegra Gen. hat.
Nicht in einem Markt in dem Platzhirsch Qualcomm 10x größer ist und noch zehn andere neben Nvidia um Anteile kämpfen.
Ausserdem hat man mit Denver noch ein SoC in der Mache, die eher die Kundschaft anspricht, welche heute schon GPGPU brauchen.
dildo4u
2013-01-09, 16:48:33
Die aber sinnlos waren. Hui ich öffne 35 Tabs schneller als du. Was für ein sinnvoller Nutzen... Da nutzen die 4x CPUs natürlich was. Entscheidend ist aber, wie schnell ein Tab geladen werden kann.
Die Seiten wurden hintereinander geladen nich gleichzeitig,also ist die Zeit Pro Seite natürlich entscheidend.Das Geheimniss ist hier teilweise das Chrome für Android auf na alten Version hängt 18 umd genau zu sein die sind am Desktop bei 23.Nvidia nutzt die Ur Android Version vermutlich mit na neueren Webkit Version.
5:50
http://www.youtube.com/watch?v=sH-9lqzBbAw&feature=share&list=UUHuiy8bXnmK5nisYHUd1J5g
robbitop
2013-01-09, 16:53:03
Die Seiten wurden hintereinander geladen nich gleichzeitig,also ist die Zeit Pro Seite natürlich deutlich kürzer.
5:50
http://www.youtube.com/watch?v=sH-9lqzBbAw&feature=share&list=UUHuiy8bXnmK5nisYHUd1J5g
Dann kann etwas mit dem Ergebnis nicht stimmen. Das Nexus 10 hat einen Exynos 5 mit 2x ARM A15 mit leicht niedrigerem Takt. Ein Tab braucht 1,x Kerne. In dem Benchmarkt ist er doppelt so schnell. Das ergibt nur Sinn, wenn 4x CPUs ausgelastet werden und das geht nicht durch das serielle Laden von nur einem Tab. Vieleicht wurden gewisse Dinge schon im Hintergrund vorgeladen.
Ich bin auf AnandTech Benchmarks gespannt.
Eggcake
2013-01-09, 17:31:12
Also ich mag mich noch an T3 benches erinnern wo die Auslastung der Kerne beim Laden von Seiten gezeigt wurden. Da wurden durchaus alle belastet - ich weiss allerdings nicht ob das ein speziell angepasster Browser von NV war.
robbitop
2013-01-09, 17:44:50
Keine vierkern Cortex A9 CPU war im Browser schneller als die doppelkerner. Belastet oder nicht. Das ist wohl nur Taskswitch und eine "angepasste" Anzeige. :)
deekey777
2013-01-09, 17:58:34
http://images.anandtech.com/doci/6548/Nvidia2013CES-811.jpg
http://www.anandtech.com/show/6548/nvidia-ces-2013-press-event-live-blog
09:05PM PST - Cortex A15 should be way faster than Swift
09:04PM PST - Not showing a huge perf advantage over iPad 4 for some reason
09:03PM PST - Chrome for the Nexus 10 vs. Browser for the Tegra 4 tablet
09:03PM PST - Uhh...the two are running different browsers
09:03PM PST - 50 seconds for the Nexus 10
09:03PM PST - compared to...
09:03PM PST - to load 25 unique web pages
09:03PM PST - 27 seconds for Tegra 4
09:03PM PST - Tegra 4 is done
09:03PM PST - 20 vs 13
09:02PM PST - It's on #14 vs. #9
09:02PM PST - Tegra 4 is flying through it
09:02PM PST - The test begins
09:02PM PST - Web pages are loaded from a local server
09:02PM PST - Nexus 10 uses Exynos 5 Dual (5250): 2 x Cortex A15s running at 1.7GHz
09:02PM PST - will load 25 web pages
09:01PM PST - Two tablets, one Nexus 10 and one with Tegra 4
09:01PM PST - About to show Tegra 4 performance
Und das Wichtigste:
09:05PM PST - Something is very weird about these results
Ailuros
2013-01-09, 18:59:51
Es kommt drauf an. Wir wissen ja noch gar nicht wieviel Fläche die GPU einnimmt. Aber immerhin passen 5x A15 + die GPU drauf in 80 sqmm. Die Leistung ist jetzt nicht beeindruckend. Aber auch nicht super schlecht.
Angenommen der GPU block ist ca. 1/4 der SoC die area (der fabrizierte die shot deutet auf mehr hin) sind wir schaetzungsweise bei 20mm2@28nm. Ich bin sogar grosszuegig denn wenn ich NV's floorplan glauben schenken sollte ist es um einiges mehr fuer die GPU.
Ich weiß nicht, auf welches Ergebnis die USC GPUs mit der Restfläche (80 sqmm minus 5x A15 minus I/O) gekommen wären.
Ich nehme an, dass ein Mali T604 und ein Adreno 320 und ein IMG SGX543MP4 (ungefähr ähnliche Leistung) wohl deutlich mehr Fläche benötigen. Da hätte, nehme ich an (!!), dann keine 5x A15 mehr hineingepasst (dessen Sinn ich sowieso stark hinterfrage).
Ich wiederhol nicht nochmal dass Apple verdammt grosszuegig ist mit der die area auf ihren SoCs; nirgends auf irgendwelchen Tegras sind die A9 CPU Bloecke so gigantisch wie auf A5 bzw. A5X. Wenn jetzt praktisch alle Bloecke ziemlich grosszuegig ausgelegt sind dann beinflusst es natuerlich auch zu einem Grad den GPU block. Sonst geht der Aepfel/Birnen Vergleich noch ein gutes Stueck weiter wenn man Samsung 45nm mit TSMC 28nm vergleicht. Aber da solche kunterbunte Vergleiche gelten werden warten wir etwas ab bis Intel's Clovertrail+ smartphones antanzen (Lenovo hat schon eins angekuendigt mit einem 5.5" display) und wir werden dann sehen wie es im Bereich perf/mW, perf/mm2 genau aussehen kann, egal um wieviel kleiner bzw. besser Intel's Prozess sein wird.
Woher kommt die Weissheit genau dass Adreno320 mehr Flaeche einnimmt? Klar verdonnert der letzte nicht gerade wenig Strom fuer smartphones, aber da NV eben NICHT die Anzahl der Einheiten fuer Wayne smartphones reduzieren wird heisst es runter mit der Frequenz damit sie nicht einen schlimmeren Fall haben. Uebrigens sind die caches ziemlich gross fuer die GPU.
Ja natuerlich ist MaliT604 um einiges groesser; das Ding beherrscht auch natives FP64 in seinen ALUs. Zwar eine Schnappsidee als design Entscheidung IMHO, aber mit pissat FP24 ALUs wuerde ich es nicht wagen zu vergleichen.
Das gleiche war ja im PC auch so bis man durch Shrinks dorthin kam, dass USCs sich ab 2006 lohnten.
Mit Rogue wird die Ganze Geschichte um zich Male peinlicher werden und falls es nicht offensichtlich sein sollte: Qualcomm, IMG, ARM und Vivante haben USC ALUs. Alle schaffen es nur NV weiss es mal wieder "besser".
SFF SoCs sind ja quasi analog zu ASICS aus den PCs der Vergangenheit (weil das TDP Budget so eingeschränkt ist).
Wobei der Abstand versucht wird zu verkürzen, in dem man SoCs überproportional zu den Verbesserungen der Eigenschaften (Größe, Takt, TDP) durch Shrinks wachsen lässt. Und zwar so sehr, dass man nun schon Tablet SoCs und Phone SoCs aufteilen muss (was ja auch Sinn macht).
Ein ARM SoC war vor ein paar Jahren noch bei < 1 W. Heutige High End ARM SoCs haben < 5 W. (selbiges passierte bei PC ASICs auch nach dem Jahrtausendwechsel)
IMO hat Nick Stam zumindest nicht ganz Unrecht.
Ja aber sicher hat Stam nicht unrecht; in der ausgekapselten Tegra Welt von NVIDIA sicher nicht. In der selben Welt sind Sachen wie early-Z, hier-Z bzw. tiling totaler Ueberfluss und alles nur ueber gigantische caches zu loesen die uebertollste Loesung ueberhaupt. In der gleichen Welt ist Multisampling ebenso ueberfluessig und coverage sampling (mit dem sich in der Zwischenzeit kein Arsch mehr im desktop beschaeftigt) das gelbst vom Ei. Sicher ich werde alles was ich durch die Jahre ueber GPUs generell als Laie gelernt habe abkreuzen, eben weil NV's marketing daemliche Entschuldigungen braucht fuer einen design den sie ueber VIER SoC Generationen mit sich schleppen. Wuerden sie aehnliches im desktop anrichten wuerde ich liebend gerne wissen ob manche von Euch so leicht Entschuldigungen dafuer finden koenntet.
Was er nicht sagt, aber wir alle wissen, ist die Frage nach der Wirtschaftlichkeit.
Nvidia geht auf Nummer sicher, wächst langsam mit einem kleinen Chip der die allgemein, aktuellen Bedürfnisse befriedigt.
Da ist im sprichwörtlichen Sinn kein Platz für feuchte Nerd Träume, a la GPGPU, von dennen "Otto Normal" Null Komma Gar-Nichts in dem Zeitraum bis zur nächsten Tegra Gen. hat.
Nicht in einem Markt in dem Platzhirsch Qualcomm 10x größer ist und noch zehn andere neben Nvidia um Anteile kämpfen.
Ausserdem hat man mit Denver noch ein SoC in der Mache, die eher die Kundschaft anspricht, welche heute schon GPGPU brauchen.
Bis zu Tegra3 waren es ein Architekt und ein RTL engineer und ja Du liest richtig nur 2 verdammte Leute im GPU Tegra engineering team weil der Rest fuer Fermi bzw. Kepler entfernt wurde. Dass sie es damals schafften noch eine Vec4 PS ALU in die T3 GPU zu stecken war ein Wunder. Schon seit einiger Zeit wurden resources wieder zum Tegra team geschleusst und es donnerte von allen Daechern dass sich tolles mit Wayne aendern wird. Ja ein paar Kerle haben sie zurueckgeschickt aber eben nicht so viel um eine neue GPU Generation auf die Beine zu bekommen. So viel zur Wirtschaftlichkeit.
Und lass mir Qualcomm bitte zur Seite; wenn Vivante als Gegenbeispiel als neue mini GPU IP Schmiede USC ALUs reinstecken kann dann sollte es auch NV koennen. Der Ironie zu Liebe hat Vivante nicht mal einen kleineren Marktanteil wenn es zur Intergrierung kommt als NVIDIA.
Hugo78
2013-01-09, 19:13:18
Gut dann ist es Fachkräftemangel, auch das ist eine Art von wirtschaftlich schwierigen Rahmenbedingungen.
Aber hey, AMD hat ja grad ein paar GPU Engineers gefeuert, die sollen sich gleich mal gleich bei NV melden aber pronto! :biggrin:
Ailuros
2013-01-09, 19:19:28
Gut dann ist es Fachkräftemangel, auch das ist eine Art von wirtschaftlich schwierigen Rahmenbedingungen.
Aber hey, AMD hat ja grad ein paar GPU Engineers gefeuert, die sollen sich gleich mal gleich bei NV melden aber pronto! :biggrin:
NV fehlt es nicht an Personal insgesamt. Es ist lediglich die Spinnerei des obrigen Management schuld die zu so daemlichen design-Entscheidungen fuehrt. Es wird mich keiner ueberzeugen koennen dass NV nicht die resources und Erfahrung hat jeglichen SFF GPU IHV daemlich in die Ecke zu stellen.
Hugo78
2013-01-09, 20:53:13
Ach weißt du, es ist immer einfach auf "den/die da Oben" zuzeigen.
Doch im Fall von Nvidia ist mir das etwas zu einfach, also ansonst wären sie schon vor 10 Jahren wieder verschwunden.
Nvidia ist erst in den letzten Jahren stark gewachsen, insbesondere was die Belegschaft angeht und gute Leute die was drauf haben, wachsen auch nicht auf Bäumen.
Nutzt ja nix, wenn man zwei Machern, noch zehn Nasen zur Seite stellt, die halten nur auf.
Aber gut, eventuell sagt sich Jensen ja tatsächlich, mit Blick auf das Combi-Home/Inet-Cloud-Ökosystem aus "Shild", "Geforce Grid", "GeForce Experience"
und das ominöse "Project Thor" das sie sich da zusammenschustern, dass Tegra dafür (erstmal) nicht viel GPU Power braucht.
GPGPU auf SoC Level, wird mMn. eh die Aufgabe von "Project Denver" und Tegra bekommt halt erstmal eine Reihe von "billigen" Fixed Function Units statt "General Purpose" Zeug,
dass man sicher mit mehr Manpower entwickeln muss, bzw. was bei Denver in zukunft abfällt, fließt dann erst bei Tegra mit ein.
Ne andere Erklärung kann ich mir jetzt nicht zusammenreinem, wenn Jensen persönlich dafür verantwortlich ist,
die Tegra GPU altbacken zulassen, obwohl er Mittel und Manpower dafür hätte.
FelixPaul
2013-01-09, 21:42:07
Ailuros scheint einen guten Riecher gehabt zu haben. Nvidia fliegt ihr Tegra 4 jetzt schon gewaltig um die Ohren. Die dummen Sprüche machen es nicht besser, passen aber ins Konzept.
Die ganze Story auf Heise: 3D-Leistung: Tegra 4 unterliegt der GPU im iPad 4 (http://www.heise.de/newsticker/meldung/3D-Leistung-Tegra-4-unterliegt-der-GPU-im-iPad-4-1780135.html)
fondness
2013-01-09, 21:52:53
Ailuros scheint einen guten Riecher gehabt zu haben. Nvidia fliegt ihr Tegra 4 jetzt schon gewaltig um die Ohren. Die dummen Sprüche machen es nicht besser, passen aber ins Konzept.
Die ganze Story auf Heise: 3D-Leistung: Tegra 4 unterliegt der GPU im iPad 4 (http://www.heise.de/newsticker/meldung/3D-Leistung-Tegra-4-unterliegt-der-GPU-im-iPad-4-1780135.html)
"Wie hoch die TDP von Tegra 4 genau ist, wollte Nick Stam nicht verraten. Allerdings erklärte er, dass der Chip unter Volllast "4, 5 oder 6 Watt" verbrauche – sofern alle Kerne arbeiten. "
Bin ich der einzige dem das verdammt viel vorkommt? Damit ist man doch selbst gegen einen AMD Temash chancenlos, vom Featurelevel ganz zu schweigen.
dildo4u
2013-01-09, 22:17:14
Unter Last ist das Stichwort abseits einer Konsole nutzt man selten ständig dem Kompletten Chip(GPU und CPU),im Smartphone/Tabelt Alltag spielt der zusätzliche Sparcore ne größere Rolle was den durchschnittlichen Akkuverbrauch angeht.(Video gucken,Surfen,email lesen,Nachrichten empfangen etc) Da Nvidia im Gegensatz zu AMD auch Smartphones anpeilt können sie kein zu hohen Durchschnittverbauch haben,da sie sonsts nicht Konkurrenzfähig wären.Samsung nutzt das selbe Konzept wie Nvidia,deren 8Core SOC hat 4 A15 und 4 A7 Cores was den Durchschnittsverbauch senken soll.
But Samsung says that it can cut power consumption by up to 70 percent compared to the Exynos 5 Dual by being able to tackle common jobs with the lower-voltage A7 cores, which means — far more than the Exynos 5 Dual — we could see it fit inside smartphones.
http://www.theverge.com/2013/1/9/3855478/samsung-announces-8-core-exynos-5-octa-mobile-processor
Tegra 3 5 Core Demo.
http://youtu.be/4dZsS-C6f2Q
Knuddelbearli
2013-01-09, 23:58:44
Smartphone werden aber auch zum spielen genutzt, und die spiele werden immer aufwendiger da kommt der verbrauch dann sicher ganz gut durch,
Bin aber mal echt gespannt auf die ersten Tablets mit T4 und Tamesh ( vielleicht gibt es sogar baugleiche bis auf den sock? *hoff* )
Screemer
2013-01-10, 00:14:29
mal vom propagierten projekt shield abgesehen. da ist der soc 90% der zeit unter volldampf.
Konami
2013-01-10, 05:25:34
Ist es eigentlich zuviel verlangt, dass irgendein SoC-Hersteller im vernünftigen Rahmen bleibt? 2x A15/2x A7 wäre mal ein guter SoC für Smartphones. Immer noch etwas stromhungrig in 28nm, aber zumindest halbwegs in Ordnung.
Aber nein, es müssen gleich 4x A15 sein. Nächstes Jahr sehen wir wahrscheinlich überall A57-Octocores. Akkulaufzeit: 5 Minuten.
Knuddelbearli
2013-01-10, 05:58:31
die 2+2 kommen schon noch
gnahr
2013-01-10, 07:09:49
tegra hat doch auch seinen companion-core für die eingabeerkennung und zum ideln.
oder willst du mit den dualcores dem spitzenlast-verbrauch durch leistungssenkung entgegentretten? ;)
Hugo78
2013-01-10, 08:00:13
2x A15/2x A7 wäre mal ein guter SoC für Smartphones.
Von Nvidia kommt ja noch "Tregra Grey", ein Dualcore mit integrierten LTE.
http://www.xbitlabs.com/news/mobile/display/20121114223730_Nvidia_Working_on_Two_New_Tegra_Chips_Wayne_and_Grey.html
robbitop
2013-01-10, 08:45:43
Angenommen der GPU block ist ca. 1/4 der SoC die area (der fabrizierte die shot deutet auf mehr hin) sind wir schaetzungsweise bei 20mm2@28nm. Ich bin sogar grosszuegig denn wenn ich NV's floorplan glauben schenken sollte ist es um einiges mehr fuer die GPU.
Nvidias Dieshot ist nicht zu gebrauchen, da fabriziert und nicht echt. ;)
Ich stelle bisher nur Tatsachen fest: zeige mir einen SoC, der diese GPU Leistung (unabhängig von den Features) bei 80 sqmm schafft. Ich kenne keinen. Hinzu kommt, dass das Ding viel mehr Fläche für die CPU verballert, als alle anderen.
Wo soll sonst die Differenz herkommen, wenn nicht aus der antiquierten GPU mit wenig Features?
Wenig Features = weniger Transistorverbrauch. Für gleiche Leistung brauchst du weniger Transistoren. Das war schon immer so.
Es ist ja nicht so, dass derzeit großartig GPGPU, FP32+, etc pp gebraucht wird.
Verstehe mich nicht falsch. Ich bin kein Fan eines solchen Ansatzes. Aber aus ökonomischer Sicht, ist das sicher keine falsche Entscheidung. Das Abhalten von nicht unbedingt notwendigen Features macht den SoC offenbar relativ schlank und lässt dennoch genug Raum für 5x A15 (was ich für nicht sinnvoll halte!).
Ich wiederhol nicht nochmal dass Apple verdammt grosszuegig ist mit der die area auf ihren SoCs; nirgends auf irgendwelchen Tegras sind die A9 CPU Bloecke so gigantisch wie auf A5 bzw. A5X. Wenn jetzt praktisch alle Bloecke ziemlich grosszuegig ausgelegt sind dann beinflusst es natuerlich auch zu einem Grad den GPU block. Sonst geht der Aepfel/Birnen Vergleich noch ein gutes Stueck weiter wenn man Samsung 45nm mit TSMC 28nm vergleicht. Aber da solche kunterbunte Vergleiche gelten werden warten wir etwas ab bis Intel's Clovertrail+ smartphones antanzen (Lenovo hat schon eins angekuendigt mit einem 5.5" display) und wir werden dann sehen wie es im Bereich perf/mW, perf/mm2 genau aussehen kann, egal um wieviel kleiner bzw. besser Intel's Prozess sein wird.
Im Prinzip müssten wir, um wirklich sinnvoll weiter analysieren zu können, richtige Dieshots vom Tegra 4, Snapdragon und Exynos haben.
Apple war ja nur ein Beispiel unter vielen.
Ich vermute aber, dass die Tegra 4 GPU bei ähnlicher Leistung vom Rest (bei weniger Features!) weniger Transistoren und weniger Leistungsaufnahme hat. Dazu muss man weder Sherlock Holmes noch Albert Einstein heißen. :D
Woher kommt die Weissheit genau dass Adreno320 mehr Flaeche einnimmt? Klar verdonnert der letzte nicht gerade wenig Strom fuer smartphones, aber da NV eben NICHT die Anzahl der Einheiten fuer Wayne smartphones reduzieren wird heisst es runter mit der Frequenz damit sie nicht einen schlimmeren Fall haben. Uebrigens sind die caches ziemlich gross fuer die GPU.
Es ist ja ohne das Wissen über klare Größen der GPU Blöcke nur Stochern im Dunklen mit Vermutungen.
Aber die o.g. Indizien sprechen dafür: "Kerngröße SoC + Leistung GPU + 5x A15" und natürlich "weniger Features kosten weniger Transistoren".
Ich gebe zu, das ist nichts weiter als eine Milchmädchenrechnung. Aber es würde mich wirklich überraschen, wenn es anders wäre. Und genau in diesem Punkt verstehe ich Nvidia (was nicht heißt, dass ich es gutheiße - aber Nvidia interessiert es sicher nicht groß, was die Nerds gutheißen und was nicht - das Produkt erreichte ganz offenbar mit niedriger Kerngröße ihr Performanceziel, welches wirklich in Ordnung für die Größe ist - sogar sehr gut für diese Größe).
Ja natuerlich ist MaliT604 um einiges groesser; das Ding beherrscht auch natives FP64 in seinen ALUs. Zwar eine Schnappsidee als design Entscheidung IMHO, aber mit pissat FP24 ALUs wuerde ich es nicht wagen zu vergleichen.
Kleinvieh macht auch Mist. Von einer SM2 GPU zu einer USC D3D10 GPU íst es schon ein ziemlicher Sprung mit unter anderem auch vielerlei Kleinigkeiten (die sich im Gesamten aufaddieren).
Bei gleicher Leistung (Features mal ausgenommen - die Features, die im Moment von Spielen in SFF gebraucht werden hat Tegra 4) brauchst du für einen USC einfach wesentlich mehr Transistoren.
Irgendwann steigt das angeforderte Techlevel von Spielen und du erreichst die Ziele mit einer alten GPU nicht mehr oder Effekte brauchen unglaublich lange. Dann überholt die neuere GPU die Effizienz der alten. Aber soweit sind die Spiele eben in SFF noch nicht. Warum also Transistoren verballern, denkt sich NV. Für Techdemos? ;)
Mit Rogue wird die Ganze Geschichte um zich Male peinlicher werden und falls es nicht offensichtlich sein sollte: Qualcomm, IMG, ARM und Vivante haben USC ALUs. Alle schaffen es nur NV weiss es mal wieder "besser".
Rogue wird auch deutlich mehr Transistoren kosten als Serie 5. Die Rechenleistung steigt natürlich aber auch enorm. Aber: sind die heutigen Android Spiele schon so weit, dass sie von dieser Rechenleistung auch profitieren? IMO nicht. Man schaue sich SGX554 vs 543 an. Ersterer hat 2x arithmetische Leistung und holt im iPad 4 ~20-30 % davon ab.
Die Rechenleistung noch mehr zu steigern ist gut für zukünftiges. Aber für "heute" wird sie nicht ausgenutzt. "zukünftig" kann nvidia nach Bedarf das ändern.
Nochmal: du brauchst mich nicht überzeugen, dass die anderen GPUs besser sind. Da stimme ich dir zu. Ich versuche nur, Nvidias Gründe zu verstehen. Und verständlich sind sie schon, wenn weniger Transistoren bei gleicher Leistung und ausreichendem Featureset das Ergebnis sind. Die machen das ganz sicher nicht aus Spaß. Nvidia könnte, wenn sie wollten sicherlich mit Leichtigkeit USC GPUs liefern. Und ich vermute auch mit Leichtigkeit mit IMG mithalten. Immerhin haben sie ein extrem hohes Know How und extrem viel Manpower. USC ist für NV absolut kalter Kaffe.
Aber eventuell liegt Nvidias Fokus gar nicht darauf GPU Performance Leader um jeden Preis zu sein. Vieleicht möchten sie günstige SoCs anbieten, die ersteinmal Marktanteil hereinholen. Nvidia hat im Gegensatz zu allen anderen SoCs keinen Hersteller, der ihre GPUs um jeden Preis verbaut (Exynos - Samsung Galaxy, Qualcomm - HTC, Ax-Reihe - Apple).
Ja aber sicher hat Stam nicht unrecht; in der ausgekapselten Tegra Welt von NVIDIA sicher nicht. In der selben Welt sind Sachen wie early-Z, hier-Z bzw. tiling totaler Ueberfluss und alles nur ueber gigantische caches zu loesen die uebertollste Loesung ueberhaupt. In der gleichen Welt ist Multisampling ebenso ueberfluessig und coverage sampling (mit dem sich in der Zwischenzeit kein Arsch mehr im desktop beschaeftigt) das gelbst vom Ei. Sicher ich werde alles was ich durch die Jahre ueber GPUs generell als Laie gelernt habe abkreuzen, eben weil NV's marketing daemliche Entschuldigungen braucht fuer einen design den sie ueber VIER SoC Generationen mit sich schleppen. Wuerden sie aehnliches im desktop anrichten wuerde ich liebend gerne wissen ob manche von Euch so leicht Entschuldigungen dafuer finden koenntet.
Warum müssten sie sich für etwas entschuldigen? Nvidia ist ein Gewinnorientiertes Unternehmen. Sie haben mit Sicherheit ein Target für: Performance, Features und Cost.
Und ich nehme an, dass das anders aussieht, als bei allen anderen. Eventuell liegt es eher bei Cost. Indiz dafür ist, dass Tegra SoCs immer ziemlich klein sind. Sie haben im Moment halt keine große Marktstellung. Wenn sie jetzt um jeden Preis einen riesigien SoC bauen, der alles wegbläst, könnten sie damit voll auf die Nase fliegen und Verlust machen. R&D gehört auch dazu.
Und lass mir Qualcomm bitte zur Seite; wenn Vivante als Gegenbeispiel als neue mini GPU IP Schmiede USC ALUs reinstecken kann dann sollte es auch NV koennen. Der Ironie zu Liebe hat Vivante nicht mal einen kleineren Marktanteil wenn es zur Intergrierung kommt als NVIDIA.
NV kann das ziemlich sicher. Offenbar planen sie anderes. Für 80 sqmm ist Tegra 4 absolut in Ordnung.
Mal eine andere Frage: in welchen SoCs steckt eigentlich Vivante?
iFanatiker
2013-01-10, 08:53:56
"Wie hoch die TDP von Tegra 4 genau ist, wollte Nick Stam nicht verraten. Allerdings erklärte er, dass der Chip unter Volllast "4, 5 oder 6 Watt" verbrauche – sofern alle Kerne arbeiten. "
Vier A15 Kerne schlucken nun mal viel. Der Exynos 5 dürfte auch bis zu 4 Watt schaffen. Apple hat sich ja nicht umsonst für ein Custom Design entschieden. Das A15 Design ist ja eben mehr in Richtung Energie Effiziente Micro Server usw. ausgerichtet und nicht nur primär für Smartphones und Tablets. Somit liegt eben die Schuld nicht bei nVidia bzw. im Prozess. Apple hatte sich eben für ein Custom CPU Design und nVidia eben halt für weniger GPU entschieden um dieses Problem mit dem A15 Design zu umschiffen. :biggrin:
Gipsel
2013-01-10, 08:59:42
Ich stelle bisher nur Tatsachen fest: zeige mir einen SoC, der diese GPU Leistung (unabhängig von den Features) bei 80 sqmm schafft. Ich kenne keinen.Wissen wir schon, wie groß Kabini ist? Vermutlich doch nur wenig größer. Und einen Feature- oder Performancevergleich sollte man da besser gar nicht anfangen. :rolleyes:
robbitop
2013-01-10, 09:12:11
Die CPU Kerne von Jaguar sind doppelt so groß, wie ein A15. Dementsprechend macht er ihn auch platt.
Die GPU von Bobcat ist so ~ SGX543 MP4. Die Tamesh GPU hat nicht so viele SPs wie Kabini wegen der TDP. Die soll eher im Bereich von Bobcat liegen.
Tegra 4 liegt im Bereich von SGX 543 MP4. Tegra 4 ist 80 sqmm groß und Kabini/Tamesh IIRC 113 sqmm.
Hat Kabini wirklich alle Komponenten im Kern, die auch bei ARM SoCs enthalten sind? Sound, USB, anderen I/O, Southbridge etc pp oder gehört zum Kabini noch ein Chipsatz? Falls ja, reichen die 113 sqmm noch nicht aus für den Vergleich.
Knuddelbearli
2013-01-10, 09:16:55
Kabini ist ein SoC also alles enthalten UMTS ist beim tegra 4 ja auch extra ( im gegensatz zu Apple? )
und würde mich serh überraschen wenn sie bei Tamesh Shader deaktiviere. Lieber 20% weniger GPU takt als 50% weniger Einheiten
also GPU seitig sehe ich AMD deutlich vorne gegenüber T4, und durch die größeren CPUs dürfte sich GPU DIE kaum unterschieden ( falls sie wirklich shader deaktivieren dürfte die GPU sogar kleiner sein wenn man dei deaktivierten rausrechnet, und das wo sogar du meinst sie wären dann noch gleichauf )
mboeller
2013-01-10, 09:26:39
Die CPU Kerne von Jaguar sind doppelt so groß, wie ein A15.
Woher weißt du das?
Sag jetzt aber nicht von Hans de Vries. ;)
Er benutzt nämlich für die Größenermittlung des A15 den photoshopten "Die-Shot" von Nvidia.
Gipsel
2013-01-10, 09:27:52
Tegra 4 ist 80 sqmm groß und Kabini/Tamesh IIRC 113 sqmm.Wo hast Du denn die 113mm² her? Ich hätte jetzt auf etwas weniger getippt (knapp 100, mit 113 mm² könnten die wirklich Dual Channel reinpacken). Zum SoC wurde ja schon was gesagt. Und bei der Grafik (das war ja Dein eigentlicher Punkt, auf den ich geantwortet habe; wie Du richtig sagst, sind Kabinis CPU-Kerne etwas größer) denke ich mal, daß die ULP-GeForce in Tegra4 nicht den Hauch einer Chance gegen zwei GCN CUs besitzt und bei den Features ist es ein no contest (DX9 irgendwas vs. DX11.1).
mboeller
2013-01-10, 09:31:14
Wo soll sonst die Differenz herkommen, wenn nicht aus der antiquierten GPU mit wenig Features?
Wenig Features = weniger Transistorverbrauch. Für gleiche Leistung brauchst du weniger Transistoren. Das war schon immer so.
Sehe ich genau anders rum. Wenn Nvidia wirklich 48 PS und 24 VS im Tegra4 hat, dann verballern sie hier massiv Transitoren für lau. Die 24 VS werden sich ziemlich oft langweilen, und das sind dann sogar die aufwendigeren FP32 ALUs die sich hier langweilen.
mboeller
2013-01-10, 09:32:43
Wo hast Du denn die 113mm² her? Ich hätte jetzt auf etwas weniger getippt (knapp 100, mit 113 mm² könnten die wirklich Dual Channel reinpacken). Zum SoC wurde ja schon was gesagt. Und bei der Grafik (das war ja Dein eigentlicher Punkt, auf den ich geantwortet habe; wie Du richtig sagst, sind Kabinis CPU-Kerne etwas größer) denke ich mal, daß die ULP-GeForce in Tegra4 nicht den Hauch einer Chance gegen zwei GCN CUs besitzt und bei den Features ist es ein no contest (DX9 irgendwas vs. DX11.1).
Hans de Vries: http://semiaccurate.com/forums/showpost.php?p=174715&postcount=121
iFanatiker
2013-01-10, 09:44:04
Kabini ist ein SoC also alles enthalten UMTS ist beim tegra 4 ja auch extra ( im gegensatz zu Apple? )
Beim Kabini ist die gesammte I/O Palette im SoC integriert? Seit wann? Ich dacht bei Temesh wird nur die Southbridge zusammen mit der APU auf das gleiche Package gebracht und die Frage ist wie AMD zu seiner TPD Angabe kommt.
robbitop
2013-01-10, 09:44:05
Woher weißt du das?
Sag jetzt aber nicht von Hans de Vries. ;)
Er benutzt nämlich für die Größenermittlung des A15 den photoshopten "Die-Shot" von Nvidia.
Hans wird schon wissen was er tut. Der ist selbst ehemaliger Chiparchtekt.
Und selbst wenn es nicht stimmen sollte: Jaguar wird so oder so deutlich größer als A15 sein. Bei dem Performanceunterschied geht das gar nicht anders. Insofern ist der genaue Faktor zwischen beiden auch ersteinmal nebensächlich.
robbitop
2013-01-10, 09:49:32
Wo hast Du denn die 113mm² her? Ich hätte jetzt auf etwas weniger getippt (knapp 100, mit 113 mm² könnten die wirklich Dual Channel reinpacken).
Hans de Vries hat den vermessen.
Zum SoC wurde ja schon was gesagt. Und bei der Grafik (das war ja Dein eigentlicher Punkt, auf den ich geantwortet habe; wie Du richtig sagst, sind Kabinis CPU-Kerne etwas größer) denke ich mal, daß die ULP-GeForce in Tegra4 nicht den Hauch einer Chance gegen zwei GCN CUs besitzt und bei den Features ist es ein no contest (DX9 irgendwas vs. DX11.1).
Naja - aber ich nehme an, Tamesh braucht noch einen Chipsatz. Damit hinkt der Vergleich. Dann kann man locker noch ein paar x 10 sqmm draufpacken.
Wenn du das alles in die GPU steckst bei Tegra sieht es anders aus.
Bisher hört man, dass die GPU bei Tamesh durch Takt und Einheitenreduzierung auf Bobcats GPU Level kommt. Und da ist, wenn man den 543 MP4 Quervergleich zieht auch Tegra 4 nun in etwa.
Vieleicht ist Tamesh auch noch schneller. Aber es sind 30 sqmm mehr und das ohne den Chipsatz noch zu berücksichtigen. Vieleicht kommt man so im Endeffekt auf 50 sqmm Differenz. Und das sind immerhin 62 % mehr Fläche als Tegra 4. Pumpe das in die GPU und das Ergebnis sieht anders aus.
Ist doch klar, dass Transistoren irgendwo auch in Leistung wandern.
fondness
2013-01-10, 09:51:58
Im Prinzip müssten wir, um wirklich sinnvoll weiter analysieren zu können, richtige Dieshots vom Tegra 4, Snapdragon und Exynos haben.
Apple war ja nur ein Beispiel unter vielen.
Das ist ohnehin nicht vergleichbar, denn das Modem ist bei Tegra 4 nach wie vor extern.
Jaguar wird so oder so deutlich größer als A15 sein. Bei dem Performanceunterschied geht das gar nicht anders.
Das Design spielt schon auch eine Rolle, so ist es auch nicht. Ein Bobcat benötigt weniger Fläche als ein 45nm Atom. Ein Jaguar benötigt 3.1mm² pro Core, ich wage zu bezweigeln das ein A15 wesentlich kleiner ist.
Naja - aber ich nehme an, Tamesh braucht noch einen Chipsatz. Damit hinkt der Vergleich. Dann kann man locker noch ein paar x 10 sqmm draufpacken.
Wenn du das alles in die GPU steckst bei Tegra sieht es anders aus.
Das kein Chipsatz mehr benötigt wird wurde schon x mal gesagt.
Bisher hört man, dass die GPU bei Tamesh durch Takt und Einheitenreduzierung auf Bobcats GPU Level kommt. Und da ist, wenn man den 543 MP4 Quervergleich zieht auch Tegra 4 nun in etwa.
Das Teil ist voll FeatureLevel11_1 kompatible und hat unified shader.
robbitop
2013-01-10, 09:55:59
Kabini ist ein SoC also alles enthalten UMTS ist beim tegra 4 ja auch extra ( im gegensatz zu Apple? )
Die Yangtze FCH gehört noch zu Tamesh. Bei Tegra 4 fehlt nur das Modem. Und das ist, wäre es nativ, winzig. Ein FPGA muss natürlich ein extra Chip sein. Und anscheinend enthält FCH kein Modem, also muss das auch nochmal extra dazu.
also GPU seitig sehe ich AMD deutlich vorne gegenüber T4, und durch die größeren CPUs dürfte sich GPU DIE kaum unterschieden ( falls sie wirklich shader deaktivieren dürfte die GPU sogar kleiner sein wenn man dei deaktivierten rausrechnet, und das wo sogar du meinst sie wären dann noch gleichauf )
Na klar ist AMD vorn. Wenn du aber alles aufeinander rechnest, hat Kabini auch deutlich mehr Fläche für alles zur Verfügung.
Kabini enthält keinen FCH (Funktionalität bei ARM SoCs enhalten) und auch kein Modem offenbar.
Das ist ohnehin nicht vergleichbar, denn das Modem ist bei Tegra 4 nach wie vor extern.
Das interessiert mich bei einem Die Shot nicht. Dann kann man nämlich gezielt schauen, wie groß die GPU bei jedem SoC ist.
Btw bist du dir sicher, dass Exynos, AX, Snapdragon das Modem alle im SoC haben?
Das Design spielt schon auch eine Rolle, so ist es auch nicht. Ein Bobcat benötigt weniger Fläche als ein 45nm Atom.
Das liegt mitunter am Prozess: http://www.chip-architect.com/news/2010_09_04_AMDs_Bobcat_versus_Intels_Atom.html
TSMC kann deutlich bessere Dichten erzielen als Intel. Das liegt an der Dichte der Verdrahtungsebenen. Da ist TSMC zumindest bei 4x nm deutlichst besser als Intel.
Ein Jaguar benötigt 3.1mm² pro Core, ich wage zu bezweigeln das ein A15 wesentlich kleiner ist.
Ein A15 kostet ohne Cache 1,6 sqmm. Es wäre ein verdammt schlechtes Design von ARM, dass bei deutlich niedrigerer IPC und schlankerer ISA nicht deutlich weniger Fläche bräuchte als Jaguar. Ich bitte dich...
Das kein Chipsatz mehr benötigt wird wurde schon x mal gesagt.
Vom x maligen Wiederholen wird es aber nicht wahrer. Zum Kabini/Tamesh gehört offenbar die Yangtze FCH. Das ist ein Chipsatz.
edit: offenbar doch integriert.
fondness
2013-01-10, 10:00:08
Die Yangtze FCH gehört noch zu Tamesh.
Der ist integriert.
Vom x maligen Wiederholen wird es aber nicht wahrer. Zum Kabini/Tamesh gehört offenbar die Yangtze FCH. Das ist ein Chipsatz.
Wenn man einfach das Gegenteil behauptet ist es deswegen auch nicht korrekt. Es gibt dutzende AMD-Folien in denen die Chips mit "real-SoC" bezeichnet werden, es gibt genug Artikel wo von "integrated Yangtze FCH" gesprochen wird. Klar kann man alles anzeifeln solange nicht gelauncht wurde. Wir werden es bald sehen.
robbitop
2013-01-10, 10:13:52
Der ist integriert.
Wenn man einfach das Gegenteil behauptet ist es deswegen auch nicht korrekt. Es gibt dutzende AMD-Folien in denen die Chips mit "real-SoC" bezeichnet werden, es gibt genug Artikel wo von "integrated Yangtze FCH" gesprochen wird. Klar kann man alles anzeifeln solange nicht gelauncht wurde. Wir werden es bald sehen.
Du hast Recht. Habe das "integrated" erst später gelesen. Habe meinen Post korrigiert.
Es ist schon extrem gut, was AMD mit Kabini/Temash geleistet hat. Keine Frage. Im Vollausbau ist es aber auch eine ganz andere TDP Klasse. Aber der muss eben, um in den 5,x W Envelope reinzupassen auch ganz schön abspecken. Dann ist auf einmal nur noch 1 GHz drin, niedrigere GPU Taktraten, weniger Einheiten.
4x A15 passen dort hingegen mit 1,9 GHz hinein - da wird der IPC Vorteil superschnell wegschmelzen. Würde Tegra noch die 33 sqmm mehr für die GPU verbrutzeln, bin ich mir sicher, dass er auch hier die Situation anders aussähe.
Dural
2013-01-10, 10:19:36
Immerhin erklärte er aber, warum man sich für das nun vorgestellte Design entschieden hat. Denn mit den fünf verbauten Cortex-A15-Kernen weicht man von ARMs Big.Little-Konzept ab, das die Zusammenarbeit von A15 und A7 vorsieht. Stam zufolge sei der Tegra-4-SoC so in der Lage, auch dann noch mit dem sogenannten Companion-Core auszukommen, wenn Big.Little-SoCs von den schwächeren auf die leistungsstärkeren CPU-Kerne schalten. Allerdings wies er darauf hin, dass der fünfte A15-Kern in einigen kleineren Details von den vier anderen abweicht, um Energie zu sparen – auch der Maximaltakt soll geringer ausfallen.
Neue Informationen gab es auch bezüglich der „72 Kerne“ der GPU. Dabei handelt es sich um 48 Pixel- und 24 Vertex Shader. Auf die Verwendung von Unified Shadern habe man aus Platzgründen verzichtet, so Stam.
http://www.computerbase.de/news/2013-01/nvidia-nennt-weitere-details-zum-tegra-4/
robbitop
2013-01-10, 10:22:00
Dafür zieht der Companion aber auch vermutlich mehr Leistung und ist nicht transparent für den Sheduler (Windows RT). Außerdem kann man die "normalen" A15 Kerne auch bei Teillast niedriger Takten (in dem Bereich, wo die A7 schon zu langsam sind).
Ich empfinde die ARM Lösung als die elegantere Lösung.
Dural
2013-01-10, 10:27:33
also wenn ich die aussage von NV richtig deute, soll der A7 wohl zu langsam im teil last bereich sein, und somit schnell mal die A15 kerne aktiv werden.
somit kann ich mir schon vorstellen das die NV version mit 5x A15 kernen in diesem last bereich sogar effizienter arbeiten können.
fondness
2013-01-10, 10:27:43
Btw bist du dir sicher, dass Exynos, AX, Snapdragon das Modem alle im SoC haben?
Sicher bin ich mir nur beim Snapdragon, die anderen rücken dazu leider keine Infos raus.
Dafür zieht der Companion aber auch vermutlich mehr Leistung und ist nicht transparent für den Sheduler (Windows RT).
Wieso nicht? Das behauptet NVIDIA immer.
mboeller
2013-01-10, 10:31:36
Bisher hört man, dass die GPU bei Tamesh durch Takt und Einheitenreduzierung auf Bobcats GPU Level kommt. Und da ist, wenn man den 543 MP4 Quervergleich zieht auch Tegra 4 nun in etwa.
woher hast du denn den Schwachfug her?
Schau dir mal auf der vorletzten Seite der letzten AMD-Präsentation die Fußnote 12 an: http://de.slideshare.net/AMD/presentations
da steht beim 3DMark Vantage P:
Bobcat z60: 455 Punkte
Temash A6-1450: 981 Punkte ....also mehr als doppelt so schnell
Und der A6-1450 ist ein Quadcore mit 1GHz und nur ~5W TDP!!
Deinorius
2013-01-10, 10:39:14
also wenn ich die aussage von NV richtig deute, soll der A7 wohl zu langsam im teil last bereich sein, und somit schnell mal die A15 kerne aktiv werden.
somit kann ich mir schon vorstellen das die NV version mit 5x A15 kernen in diesem last bereich sogar effizienter arbeiten können.
Was ist mit dem Cortex A9 als Companion Core? Der HAT ja funktioniert. Ist der nicht für 28 nm designt und das hätte einen Mehraufwand bedeutet?
robbitop
2013-01-10, 10:45:45
Wieso nicht? Das behauptet NVIDIA immer.
Bei Tegra 3 und Windows RT geht es IIRC laut Anandtech nicht.
robbitop
2013-01-10, 10:47:19
woher hast du denn den Schwachfug her?
Schau dir mal auf der vorletzten Seite der letzten AMD-Präsentation die Fußnote 12 an: http://de.slideshare.net/AMD/presentations
da steht beim 3DMark Vantage P:
Bobcat z60: 455 Punkte
Temash A6-1450: 981 Punkte ....also mehr als doppelt so schnell
Und der A6-1450 ist ein Quadcore mit 1GHz und nur ~5W TDP!!
Ich meine aber Ontario und nicht Zacate. Und das kommt schon gut hin, da Zacate nur 40 SPs hat und Ontario 80 SPs (und IIRC mehr Takt).
Das ist ja toll. Finde ich gut. Aber die Frage stellt sich, wie ein 1 GHz Jaguar Quadcore sich gegen einen 1,9 GHz Cortex A15 Quadcore schlägt...
mboeller
2013-01-10, 10:56:49
Ich meine aber Ontario und nicht Zacate. Und das kommt schon gut hin, da Zacate nur 40 SPs hat und Ontario 80 SPs (und IIRC mehr Takt).
Da steht aber was anderes:
http://www.notebookcheck.net/AMD-Z-Series-Z-60-Tablet-Processor.83198.0.html
Deinorius
2013-01-10, 10:57:23
Ich meine aber Ontario und nicht Zacate. Und das kommt schon gut hin, da Zacate nur 40 SPs hat und Ontario 80 SPs (und IIRC mehr Takt).
Erstens ist Zacate der leistungsfähigere und nicht Ontario und zweitens haben beide 80 SPs!
So wie hier angegeben! (http://en.wikipedia.org/wiki/AMD_Fusion#Brazos_.28ultra-portable.29)
robbitop
2013-01-10, 11:26:45
Andersherum - Brainfart - ich meinte den großen (blöde Codenamen) Zacate. Der hat richtigerweise 80 SPs aber auch massiv höhere Taktraten.
Insgesamt wird Temash sicher auf GPU Seite schneller sein als Tegra 4. CPU ... ggf Gleichstand durch 1,9 GHz vs 1,0 GHz. Dafür hat Tamesh aber auch 33 sqmm mehr Platz auf dem Kern.
Skysnake
2013-01-10, 11:33:27
Die Yangtze FCH gehört noch zu Tamesh. Bei Tegra 4 fehlt nur das Modem. Und das ist, wäre es nativ, winzig. Ein FPGA muss natürlich ein extra Chip sein. Und anscheinend enthält FCH kein Modem, also muss das auch nochmal extra dazu.
Du vergisst dabei allerdings, das nVidia ja groß rumkotzt, dass das FPGA-Modem ja sogar kleiner! sein soll als ein FFU Modem der Konkurrenz.
Das macht für mich nur in dem Fall sinn, in dem man eben zur Laufzeit in den FPGA eben nur die Funktionen rein packt, die man gerade braucht. Bei so nem kleinen FPGA dauert das umschreiben sicherlich auch nur sehr sehr kurze Zeit.
fondness
2013-01-10, 11:41:31
Insgesamt wird Temash sicher auf GPU Seite schneller sein als Tegra 4. CPU ... ggf Gleichstand durch 1,9 GHz vs 1,0 GHz. Dafür hat Tamesh aber auch 33 sqmm mehr Platz auf dem Kern.
Es geht nicht nur darum das man schneller ist. Die GPU in Temash ist voll DX11.1, OpenCL kompatibel, unterstützt jede Menge HSA-Features, davon ist Tegra 4 Lichtjahre entfernt. Bei der CPU vergisst du das Temesh einen Turbo hat, ergo wird er bei Singel Threaded deutlich davon ziehen und gerade das ist für die Usability wichtig.
Duplex
2013-01-10, 11:44:10
Jetzt nachdem AMD Temasch gezeigt hat will doch sowieso niemand mehr den Tegra mist kaufen, das wird ein reinfall, erst recht wegen ARM :( :rolleyes:
YfOrU
2013-01-10, 12:39:41
Jetzt nachdem AMD Temasch gezeigt hat will doch sowieso niemand mehr den Tegra mist kaufen, das wird ein reinfall, erst recht wegen ARM :( :rolleyes:
Nvidia hat eine ISA Lizenz wie auch Qualcomm und Apple. Das es mittelfristig abseits von Low-Cost, Eigenbedarf (gleichzeitig Hersteller von Endgeräten) und Embedded nur über eigene CPU Designs läuft ist bei so ziemlich jedem Marktteilnehmer angekommen.
IMHO versucht man bei Nvidia mit minimalsten Aufwand, geringer Chipfläche und bunten Marketing weiter auf Zeit zu spielen. Mit Tegra 3 hat das recht gut funktioniert wobei der Schlüssel die 40nm Fertigung war. Diesen Vorteil (Verfügbarkeit gegenüber der Konkurrenz) gibt es bei dieser Generation so nicht mehr und dementsprechend wird es fast nur über den Preis gehen.
Mancko
2013-01-10, 12:52:07
Nvidia hat eine ISA Lizenz wie auch Qualcomm und Apple. Das es mittelfristig abseits von Low-Cost, Eigenbedarf (gleichzeitig Hersteller von Endgeräten) und Embedded nur über eigene CPU Designs läuft ist bei so ziemlich jedem Marktteilnehmer angekommen.
IMHO versucht man bei Nvidia mit minimalsten Aufwand, geringer Chipfläche und bunten Marketing weiter auf Zeit zu spielen. Mit Tegra 3 hat das recht gut funktioniert wobei der Schlüssel die 40nm Fertigung war. Diesen Vorteil (Verfügbarkeit gegenüber der Konkurrenz) gibt es bei dieser Generation so nicht mehr und dementsprechend wird es fast nur über den Preis gehen.
Mit gerade mal etwas über 80qmm DIE size und wahrscheinlich auch überschaubaren Entwicklungskosten dürfte der Preis ja nicht das Problem sein.
robbitop
2013-01-10, 12:58:24
Tja nur für Andorid (welches im Moment Marktführer ist) wird x86 keiner einsetzen. Im Moment haben sie nur Windows RT. Leider.
fondness
2013-01-10, 13:06:06
Tja nur für Andorid (welches im Moment Marktführer ist) wird x86 keiner einsetzen. Im Moment haben sie nur Windows RT. Leider.
Das verdrehst du jetzt aber doppelt. Erstens gibt es Android für x86 (es gibt ja auch entsprechende Intel Smartphones) und zweitens lauft auf einem x86 SoC eben nicht nur Windows RT sondern eben auch die "Vollversion".
robbitop
2013-01-10, 13:15:08
Das verdrehst du jetzt aber doppelt. Erstens gibt es Android für x86 (es gibt ja auch entsprechende Intel Smartphones) und zweitens lauft auf einem x86 SoC eben nicht nur Windows RT sondern eben auch die "Vollversion".
Oh mein gott - ja sorry für den Brainfart. Ich meinte Windows (ohne RT).
Wobei bei Android dann doch sicher die Apps alle emuliert werden müssen oder? Die sind doch alle für ARM kompiliert. Genauso sind die OS Updates dann auch nicht Nexus-like, weil dort das ganze OS für x86 kompiliert werden muss, wenn es eine neue Version gibt.
Dural
2013-01-10, 13:23:43
x86 hat im smartphone bereich eh schon verloren, der zug ist schon längst abgefahren. Intel kann sich eventuell noch ein bisschen "einkaufen" und AMD kann froh sein das sie einem abnehmen finden der die chips nicht fast geschenkt einkauft... im tablet bereich sieht es nicht ganz so schlimm aus, aber auch da haben wie eine deutliche übermacht seitens ARM.
daher frage mich was die alberne x86 vs ARM diskussion hier soll :rolleyes:
YfOrU
2013-01-10, 13:36:51
Mit gerade mal etwas über 80qmm DIE size und wahrscheinlich auch überschaubaren Entwicklungskosten dürfte der Preis ja nicht das Problem sein.
Da gibt es sicherlich Spielraum. Die Frage ist allerdings wie viel denn Mediatek, Rockchip etc. haben bezogen auf das untere Preissegment inzwischen recht ordentliche Produkte.
x86 hat im smartphone bereich eh schon verloren, der zug ist schon längst abgefahren.
Bei den kurzen Zyklen und der Anzahl an Menschen auf diesem Planeten welche heute bereits froh sein können wenn sie überhaupt ein Mobiltelefon besitzen ist "Zug abgefahren" mehr als abwegig.
fondness
2013-01-10, 13:37:59
Wobei bei Android dann doch sicher die Apps alle emuliert werden müssen oder? Die sind doch alle für ARM kompiliert.
Apps die mit dem Dalvik VM SDK entwicklt wurden laufen nativ auf x86, nur die NDk-Anwendungen benötigen Anpassungen.
Genauso sind die OS Updates dann auch nicht Nexus-like, weil dort das ganze OS für x86 kompiliert werden muss, wenn es eine neue Version gibt.
Einen neue Version zusätzlich für x86 zu kompilieren ist wohl das geringste Problem.
Gandharva
2013-01-10, 13:48:10
Wobei bei Android dann doch sicher die Apps alle emuliert werden müssen oder?
Die sind doch alle für ARM kompiliert. Genauso sind die OS Updates dann auch nicht Nexus-like, weil dort das ganze OS für x86 kompiliert werden muss, wenn es eine neue Version gibt.
Kein allzu großes Problem dank ARM Binary Translator. Seit Juli hat Android-x86 den sogar schon fest integriert. Früher musste man da immer mit libhuidini rumpatchen. ~75% der erhältlichen Apps benötigen den nichtmal. Die laufen Out of the Box auf x86 Geräten.
http://www.anandtech.com/show/5770/lava-xolo-x900-review-the-first-intel-medfield-phone/3
x86 hat im smartphone bereich eh schon verloren, der zug ist schon längst abgefahren.
Der Smartphone Zug ist noch nichtmal angefahren.
Gipsel
2013-01-10, 14:28:02
Es ist schon extrem gut, was AMD mit Kabini/Temash geleistet hat. Keine Frage. Im Vollausbau ist es aber auch eine ganz andere TDP Klasse. Aber der muss eben, um in den 5,x W Envelope reinzupassen auch ganz schön abspecken. Dann ist auf einmal nur noch 1 GHz drin, niedrigere GPU Taktraten, weniger Einheiten.In den 5.x W-Modellen bekommt man einen Quadcore und auch die volle Grafik. Gespart wird außer am CPU-/GPU-Takt an der Frequenz des Speichers, der Anzahl der USB- und SATA-Ports bzw. auch deren Geschwindigkeit. Die DualCore-Variante soll mit unter 4 W TDP auskommen.
4x A15 passen dort hingegen mit 1,9 GHz hinein - da wird der IPC Vorteil superschnell wegschmelzen.Erst mal sehen, wie stark die A15 gethrottelt werden müssen. Nur mal so als Referenz, Anandtech hat mal einen Dual Core A15 ziemlich genau (CPU- und GPU-Part einzeln!) vermessen (http://www.anandtech.com/show/6536/arm-vs-x86-the-real-showdown/13). Das Ding hat zwar Mali-Grafik und wird in Samsungs 32nm HKMG-Prozeß produziert, läuft dafür aber auch nur mit 1,7GHz. Riesige Sprünge in der Energieeffizienz sind also eher nicht zu erwarten.
Das Ergebnis war, daß bei Volllast auf der CPU die 4W (allein für den CPU-Teil) bereits geknackt werden können. Das Ding ist also bei Last auf beiden Kernen im Prinzip ständig am Throtteln (auch bereits nur mit CoreMark ohne jegliche GPU-Last), um in den 4.x W offizieller TDP zu bleiben. Da die Regelung nicht instantan passiert (sondern mit einer gewissen Zeitkonstante), hat es Anandtech geschafft, das Ding kurzfristig auf ~8W Stromverbrauch zu bringen (mit gleichzeitiger CPU und GPU-Last, die GPU alleine kann auch knapp 4W ziehen), bevor das Throttling der CPU einsetzt (Takt geht dann von 1,7GHz auf 800 MHz runter). Und das war wohlgemerkt nur ein DualCore. Ich kann mir nicht vorstellen, daß die Situation mit der doppelten Anzahl von A15-Kernen so viel rosiger aussieht.
Kurz: Ein A15-Kern zieht auch ordentlich Strom, wenn man ihn über einem gewissen Takt betreibt. Wirklich sparsam ist der auch nur im LV-Modus mit 1GHz Takt oder so, bei 1,9GHz verbraucht der vermutlich nicht wesentlich weniger als ein Jaguar-Kern bei sagen wir mal irgendwo im Bereich 1,1-1,4GHz (ziemlich schwer zu sagen ohne einen ausgefeilten Test).
Ich meine aber Ontario und nicht Zacate. Und das kommt schon gut hin, da Zacate nur 40 SPs hat und Ontario 80 SPs (und IIRC mehr Takt).
Andersherum - Brainfart - ich meinte den großen (blöde Codenamen) Zacate. Der hat richtigerweise 80 SPs aber auch massiv höhere Taktraten.Immer noch nicht richtig. Ontario und Zacate haben beide 80 SPs (genau wie die Hondo-Tablet-Versionen inklusive der 4,5W Version Z-60 (http://www.amd.com/DE/PRODUCTS/NOTEBOOK/APU/Pages/tablet.aspx#/3)), Zacate taktet die nur höher. Genauso wird auch Temash eher nur den Takt verringern.
robbitop
2013-01-10, 14:52:00
Und du meinst, ein Tamesh wird bei Belastung aller Kerne + GPU nicht throtteln? IIRC begann das Throtteln des Exynos 5 nur in synthetischen Fällen, als gezielt möglichst hohe Last erzeugt wurde. Aber nicht in RL Situationen / Benchmarks. Oder?
Screemer
2013-01-10, 15:03:08
der sollte eben bei belastung aller kerne und 1ghz im 5w bereich bleiben. bei st und teillast gehts dann dank turbo aufwärts. also genau der andere weg.
YfOrU
2013-01-10, 15:33:19
Und du meinst, ein Tamesh wird bei Belastung aller Kerne + GPU nicht throtteln? IIRC begann das Throtteln des Exynos 5 nur in synthetischen Fällen, als gezielt möglichst hohe Last erzeugt wurde. Aber nicht in RL Situationen / Benchmarks. Oder?
Eben doch. Bei GPU Last gehen die A15 Kerne runter auf 800Mhz:
http://www.anandtech.com/show/6536/arm-vs-x86-the-real-showdown/13
Multitasking mit CoreMark und Modern Combat 3. Die Anwendung im Vordergrund bestimmt welcher Part (CPU bzw. GPU) den größten Teil der TDP verbraten darf. Daher dann auch die 8W Peak. Verhält sich also genauso wie viele x86 Produkte welche mit einer eigentlich zu geringen TDP auskommen müssen (um beides parallel voll ausfahren zu können). Somit sitzen viele ARM Lizenznehmer auf einen Schlag im gleichen Boot wie AMD und Intel. Performance kostet eben. Das die Überscheidung schon bei 32/28nm derart deutlich wird hab ich allerdings nicht erwartet (->22nm) denn das öffnet AMD und Intel die Tür ein ganzes Stück früher.
Dural
2013-01-10, 15:46:11
Menschen auf diesem Planeten welche heute bereits froh sein können wenn sie überhaupt ein Mobiltelefon besitzen ist "Zug abgefahren" mehr als abwegig.
aha und was verbauen die grossen smartphone hersteller in ihren geräten genau? natürlich ihre eigene ARM SoC und die chinesen haben ja jetzt auch ihre eigenen ARM SoC :wink:
und von der ganzen ARM software basis fange ich lieber erst mal gar nicht an ;)
Skysnake
2013-01-10, 15:56:04
Die Chinesen haben MIPS nicht arm :rolleyes:
YfOrU
2013-01-10, 16:10:48
aha und was verbauen die grossen smartphone hersteller in ihren geräten genau? natürlich ihre eigene ARM SoC und die chinesen haben ja jetzt auch ihre eigenen ARM SoC :wink:
und von der ganzen ARM software basis fange ich lieber erst mal gar nicht an ;)
Wie groß ist die denn in der Realität abseits von nativen Spielen wirklich (Android, WP)? Relativ überschaubar und viele Entwicklungen laufen sowieso Cross-Platform (OS). Da zusätzlich x86 mitzunehmen dürfte kaum ein Beinbruch sein denn wir sprechen hier im Regelfall nicht über Software im (PC) Umfang von MS Office. Als Beispiel passt im übrigen ganz gut Windows 8 und RT. Die Basis der jeweiligen Ökosysteme wird von der ISA unabhängiger denn das verspricht ein breiteres Produktspektrum und mehr Flexibilität.
Hugo78
2013-01-10, 17:20:46
Die Chinesen haben MIPS nicht arm :rolleyes:
Er wird Huawei und ZTE meinen, oder gibt es schon Smartphones mit MIPS?
robbitop
2013-01-10, 17:24:08
der sollte eben bei belastung aller kerne und 1ghz im 5w bereich bleiben. bei st und teillast gehts dann dank turbo aufwärts. also genau der andere weg.
Richtig ... sollte. Etwas offizielles gibt es dazu nicht. Aber ob es auch so sein wird bei 5 W. Das bleibt abzuwarten und nachzumessen.
robbitop
2013-01-10, 17:29:47
Eben doch. Bei GPU Last gehen die A15 Kerne runter auf 800Mhz:
http://www.anandtech.com/show/6536/arm-vs-x86-the-real-showdown/13
Multitasking mit CoreMark und Modern Combat 3. Die Anwendung im Vordergrund bestimmt welcher Part (CPU bzw. GPU) den größten Teil der TDP verbraten darf. Daher dann auch die 8W Peak. Verhält sich also genauso wie viele x86 Produkte welche mit einer eigentlich zu geringen TDP auskommen müssen (um beides parallel voll ausfahren zu können). Somit sitzen viele ARM Lizenznehmer auf einen Schlag im gleichen Boot wie AMD und Intel. Performance kostet eben. Das die Überscheidung schon bei 32/28nm derart deutlich wird hab ich allerdings nicht erwartet (->22nm) denn das öffnet AMD und Intel die Tür ein ganzes Stück früher.
CoreMark + 1 Spiel gleichzeitig sind natürlich nicht synthetisch und völliger RL Alltag für ein Tablet/Smartphone... ;)
YfOrU
2013-01-10, 18:22:04
CoreMark + 1 Spiel gleichzeitig sind natürlich nicht synthetisch und völliger RL Alltag für ein Tablet/Smartphone... ;)
Schau dir die von mir verlinkte Seite vom Test und die Messergebnisse bitte genau an. Modern Combat 3 ohne Coremark hat fast ein identisches TDP Limit zu Modern Combat 3 mit Coremark im Hintergrund. Gleiches gilt für Coremark im Vordergrund nur ist hier die CPU primär für die Leistungsaufnahme verantwortlich.
-> Der CPU steht bei GPU Last ungefähr 1/4 des maximalen TDP Budgets zur Verfügung. Das ist nie und nimmer ausreichend um throtteln zu verhindern. In der Praxis macht dieser Ansatz der dynamischen Verteilung innerhalb der TDP auch Sinn aber eben nur wenn man absolut ans Limit gehen will bzw. muss. Das ist bezogen auf ARM durchaus eine neue Kategorie und in der bewegen sich auch so Unternehmen wie AMD und Intel.
Skysnake
2013-01-10, 18:53:37
Er wird Huawei und ZTE meinen, oder gibt es schon Smartphones mit MIPS?
Dann hat er sich unglücklich ausgedrückt
Dural
2013-01-10, 19:21:34
ehm nicht wirklich :rolleyes:
und es gibt ja noch andere als die oben zwei erwähnten.
Du vergisst dabei allerdings, das nVidia ja groß rumkotzt, dass das FPGA-Modem ja sogar kleiner! sein soll als ein FFU Modem der Konkurrenz.
Das macht für mich nur in dem Fall sinn, in dem man eben zur Laufzeit in den FPGA eben nur die Funktionen rein packt, die man gerade braucht. Bei so nem kleinen FPGA dauert das umschreiben sicherlich auch nur sehr sehr kurze Zeit.
Wer hat denn bitte jemals von FPGA geredet? Imho sind das einfach DSPs.
Skysnake
2013-01-10, 20:00:20
Soweit ich verstanden hab, ist das Ding "ein programmierbares FPGA" ich habs aber nur sehr am Rande verfolgt, da ich es eher weniger spannend finde, und eh nicht beeinflussen kann
Ailuros
2013-01-10, 20:05:17
Nvidias Dieshot ist nicht zu gebrauchen, da fabriziert und nicht echt. ;)
Ergo wollen sie uns zeigen dass die GPU die area GROESSER ist als sie eigentlich ist. Akzeptiere ich voll als Entschuldigung, aber 72 ALUs bei NV's typischen Frequenzen werden nicht klein sein.
Ich stelle bisher nur Tatsachen fest: zeige mir einen SoC, der diese GPU Leistung (unabhängig von den Features) bei 80 sqmm schafft. Ich kenne keinen. Hinzu kommt, dass das Ding viel mehr Fläche für die CPU verballert, als alle anderen.
Nur weil bei Dir der einzige Vergleichsfaktor Apple und danach die Sintflut ist, heisst es bei weitem nicht dass unter 80mm2@28nm nicht sogar bessere insgesamt Leistung moeglich ist. Weisst Du sonst wie gross die anderen 28nm SoC sind? Denn wenn man solche Behauptungen aufstellt muss man auch wissen wie die jeweiligen Groessen auch genau aussehen.
Mehr die area verballert NV nicht fuer ihre CPUs im Vergleich zu Apple, aber wenn man mit Absicht wichtige Einzelheiten uebersieht kommt man natuerlich auch ziemlich schnell zu oberflaechlichen verbalen Tunereien auf einer tabula rasa.
Wo soll sonst die Differenz herkommen, wenn nicht aus der antiquierten GPU mit wenig Features?
Wenig Features = weniger Transistorverbrauch. Für gleiche Leistung brauchst du weniger Transistoren. Das war schon immer so.
Es ist ja nicht so, dass derzeit großartig GPGPU, FP32+, etc pp gebraucht wird.
Nochmal denn ich scheine wohl gegen eine Wand zu schreiben: NV hatte stets verdammt hohe Frequenzen in ihren SoCs fuer die GPUs und hohe Frequenzen sind NIE umsonst. ULP/GF - T3 liegt bei 520MHz maximal unter 40LP waehrend Apple mit denen Du gerne vergleichst unter 45nm nie ueber 250MHz fuer die GPU gingen. Bei einer effizienten Architektur muss man eben nichts zum Verzweiflungshebel der Frequenz greifen der nie umsonst ist.
Du kannst mich gerne ueberzeugen dass die 24 VS stets vollausgelastet sein werden und dass keine hw Redundanz damit verbunden waere und Du kannst auch ebenso versuchen das Frequenz-Zeug oben zu kontern aber man koennte kinderleicht mit vergleichbarer die area wie heute eine effizientere und flexiblere GPU gestalten als der heutige muede Kaese. Wieviel die area von der GPU verschwendet genau die noch groessere GPU cache in T4 und wieso waere stinknormales early z + tiling eine um zich billigere Loesung insgesamt?
ULP GeForces sind eine verdammt lange Kette an zu vielen tradeoffs und der eigentliche Gewinn an die area ist eben nicht der Rede wert und nein die vorigen Daten ueber das eigentliche Personal im Tegra team sind nicht aus meinem Hintern gezogen so viel kann ich Dir garantieren und ich kann Dir auch sogar einen Namen dafuer dahinter stecken weil er nicht mehr bei NV arbeitet.
Verstehe mich nicht falsch. Ich bin kein Fan eines solchen Ansatzes. Aber aus ökonomischer Sicht, ist das sicher keine falsche Entscheidung. Das Abhalten von nicht unbedingt notwendigen Features macht den SoC offenbar relativ schlank und lässt dennoch genug Raum für 5x A15 (was ich für nicht sinnvoll halte!).
A15 cores sind zwar um einiges groesser als A9 cores, aber A9 cores sind unter 28nm so winzig dass es nicht der Rede wert ist. Anders ein A15 core duerfte mehr oder weniger unter 28nm in der single A9/40nm Region liegen.
Im Prinzip müssten wir, um wirklich sinnvoll weiter analysieren zu können, richtige Dieshots vom Tegra 4, Snapdragon und Exynos haben.
Apple war ja nur ein Beispiel unter vielen.
Krait ist um zich male sparsamer in die area und Stromverbrauch als ein A15. Krait und Swift sind custom cores und eben ziemlich schlecht vergleichbar als CPUs zu A15. Wuessten Qualcomm, Apple und NVIDIA nicht welche Nachteile A15 genau haben wuerden sie auch nicht unendliche Resourcen in custom CPU Entwicklung schuetten. Nebenbei hat Krait etwas zusaetzliche Logik fuer asynchrone CPU Frequenzen, setzt aber nicht auf big.little bzw. Varianten davon und ist insgesamt um einiges sparsamer als Eagle.
Ich vermute aber, dass die Tegra 4 GPU bei ähnlicher Leistung vom Rest (bei weniger Features!) weniger Transistoren und weniger Leistungsaufnahme hat. Dazu muss man weder Sherlock Holmes noch Albert Einstein heißen. :D
Tut mir leid Albert bzw. Sherlock aber es gibt momentan nur Tegra2 tablets die ueber 6 Stunden Batterie-laufzeit haben unter 3D. Bei Tegra3 wird es in der Mehrzahl um =/>2 Stunden weniger. Wie waere es mit ein paar Daten zur Abwechslung ausserhalb von einfachen Bauchgefuehlen Herr Holmes?
Es ist ja ohne das Wissen über klare Größen der GPU Blöcke nur Stochern im Dunklen mit Vermutungen.
Aber die o.g. Indizien sprechen dafür: "Kerngröße SoC + Leistung GPU + 5x A15" und natürlich "weniger Features kosten weniger Transistoren".
Ich gebe zu, das ist nichts weiter als eine Milchmädchenrechnung. Aber es würde mich wirklich überraschen, wenn es anders wäre. Und genau in diesem Punkt verstehe ich Nvidia (was nicht heißt, dass ich es gutheiße - aber Nvidia interessiert es sicher nicht groß, was die Nerds gutheißen und was nicht - das Produkt erreichte ganz offenbar mit niedriger Kerngröße ihr Performanceziel, welches wirklich in Ordnung für die Größe ist - sogar sehr gut für diese Größe).
Milchmaedchenrechnungen reichen mir eben nicht aus tut mir leid.
Kleinvieh macht auch Mist. Von einer SM2 GPU zu einer USC D3D10 GPU íst es schon ein ziemlicher Sprung mit unter anderem auch vielerlei Kleinigkeiten (die sich im Gesamten aufaddieren).
Bei gleicher Leistung (Features mal ausgenommen - die Features, die im Moment von Spielen in SFF gebraucht werden hat Tegra 4) brauchst du für einen USC einfach wesentlich mehr Transistoren.
Irgendwann steigt das angeforderte Techlevel von Spielen und du erreichst die Ziele mit einer alten GPU nicht mehr oder Effekte brauchen unglaublich lange. Dann überholt die neuere GPU die Effizienz der alten. Aber soweit sind die Spiele eben in SFF noch nicht. Warum also Transistoren verballern, denkt sich NV. Für Techdemos? ;)
Ich schick morgen eine e-mail an NVIDIA sie sollen fuer die naechsten 4 desktop GPU Generationen bitteschoen gar nichts mehr weiterentwickeln auf feature level weil wir keine "techdemos" mehr brauchen. Ich rede hier nicht mit meinem 8-jaehrigen Neffen sondern mit jemand von dem ich erwarte dass er eine gewissen Ahnung von technologischer Entwicklung hat und ueberhaupt GPUs. Und nein es wird die Welt eben nicht zweischienig laufen weil es Deiner Argumentation jetzt gerade so passt: was fuer desktop gilt gilt auch hier auch und NVIDIA ist eben KEIN CPU IHV ergo erwarte ich auch analoges Verstaendnis.
Sonst wiederhole ich nicht nochmal den gleichen Brei immer und immer wieder nur weil Du nicht einsehen willst dass es eine Reihe an Faktoren um die ULP GeForce gibt die unnoetig Transistoren fressen. Ich wuerde von Dir zumindest erwarten es einsehen zu koennen dass wenn man konstant front to back alles super-sortieren muss (wobei das Optimum nie erreicht werden kann) es auch ziemlich viel Strom verballert insgesamt fuer den SoC und nicht nur die GPU. Caches, Frequenzen und der ganze restliche Brei noch mit. DX10 (und nicht DX10.1) auf einer sparsamen G8x Schiene haette durchaus ausgereicht und man haette eben die Abhaengigkeit der TMUs von den ALUs beibehalten welches sowieso mainstream auf SFF GPUs ist.
Rogue wird auch deutlich mehr Transistoren kosten als Serie 5.
Ja eben weiterer Milchmaedchen-rechnungs Bullshit. Man kann solche Designs beliebig nach unten skalieren. Gerade weil alle Rogue SoCs so gigantisch sind hat LG bei CES einen smartTV damit vorgezeigt.
Die Rechenleistung steigt natürlich aber auch enorm. Aber: sind die heutigen Android Spiele schon so weit, dass sie von dieser Rechenleistung auch profitieren? IMO nicht.
Ist es nicht scheissegal wenn man sowieso den Vorsprung im Bereich perf/mm2 und perf/mW hat?
Man schaue sich SGX554 vs 543 an. Ersterer hat 2x arithmetische Leistung und holt im iPad 4 ~20-30 % davon ab.
In GLbenchmark2.5 sind es fast 2x Mal so viel Leistung und ja Leistung in gestrigen mobilen Spielen ist in solchen Faellen wohl nicht der Messstab. Spiele werden zunehmend ALU und Geometrie-lastiger werden.
Die Rechenleistung noch mehr zu steigern ist gut für zukünftiges. Aber für "heute" wird sie nicht ausgenutzt. "zukünftig" kann nvidia nach Bedarf das ändern.
Wie waere es mit triangle setups, z/stencil values, TMUs und vielleicht sogar antialiasing? Soll ich wetten 5x coverage sampling fuer Tegra4 gegen 8x MSAA fuer Rogue.
Nochmal: du brauchst mich nicht überzeugen, dass die anderen GPUs besser sind. Da stimme ich dir zu. Ich versuche nur, Nvidias Gründe zu verstehen. Und verständlich sind sie schon, wenn weniger Transistoren bei gleicher Leistung und ausreichendem Featureset das Ergebnis sind. Die machen das ganz sicher nicht aus Spaß. Nvidia könnte, wenn sie wollten sicherlich mit Leichtigkeit USC GPUs liefern. Und ich vermute auch mit Leichtigkeit mit IMG mithalten. Immerhin haben sie ein extrem hohes Know How und extrem viel Manpower. USC ist für NV absolut kalter Kaffe.
Aber eventuell liegt Nvidias Fokus gar nicht darauf GPU Performance Leader um jeden Preis zu sein. Vieleicht möchten sie günstige SoCs anbieten, die ersteinmal Marktanteil hereinholen. Nvidia hat im Gegensatz zu allen anderen SoCs keinen Hersteller, der ihre GPUs um jeden Preis verbaut (Exynos - Samsung Galaxy, Qualcomm - HTC, Ax-Reihe - Apple).
Dann liess gefaelligst auf das wichtigste rein denn ich hab diesmal nicht viel zwischen den Linien sondern ziemlich klipp und klar geschrieben. Wenn NV selber lack of resources off the record zugiebt und derjenige der es verraten hat auch der eigentliche Suendenbock fuer NV war und jetzt nicht mehr bei ihnen arbeitet kann ich es Dir nicht klarer machen. Ich bestehe darauf da ich mir darueber sicher bin und es bis heute keiner verleugnet hat.
Warum müssten sie sich für etwas entschuldigen? Nvidia ist ein Gewinnorientiertes Unternehmen. Sie haben mit Sicherheit ein Target für: Performance, Features und Cost.
Tegra macht noch keinen Gewinn und es wird mit T4 auch noch nicht anders werden. Den einen Suendenbock haben sie schon entlassen obwohl die eigentliche Verantwortung ganz woanders liegt.
Und ich nehme an, dass das anders aussieht, als bei allen anderen. Eventuell liegt es eher bei Cost. Indiz dafür ist, dass Tegra SoCs immer ziemlich klein sind. Sie haben im Moment halt keine große Marktstellung. Wenn sie jetzt um jeden Preis einen riesigien SoC bauen, der alles wegbläst, könnten sie damit voll auf die Nase fliegen und Verlust machen. R&D gehört auch dazu.
Nicht genug Resourcen. Siehe oben.
NV kann das ziemlich sicher. Offenbar planen sie anderes. Für 80 sqmm ist Tegra 4 absolut in Ordnung.
Um fast die Kosten zu decken sicher.
Mal eine andere Frage: in welchen SoCs steckt eigentlich Vivante?
Freescale hat sie lizenziert fuer embedded welches kein kleiner deal ist und sonst hauptsaechlich chinesischer billig-Quark. Vivante GPU IP ist ein design der den originalen Larabee zur Scham verdruecken koennte; tipp: die engineers bei Vivante hatten hauptsaechlich Erfahrung mit CPUs. Leistungsmaessig zwar ziemlich blah, aber die die area duerfte auch ziemlich bescheiden sein wenn ihre eigenen Daten stimmen.
Skysnake
2013-01-10, 20:43:27
Also wenn die Sache mit den 2 Arbeitern und der Entlassung stimmt, dann :down:
Das ist doch klar, dass da nicht viel bei rum kommt.... Wie sollen die groß was schaffen? Und dann noch ans Bein pinkeln... Die sollten froh sein, das mit so wenig Manpower überhaupt was bei rum kam, was funktioniert....
Irgendwie haut mich Tegra4 von anfang an nicht vom Hocker gehauen, und je länger ich drüber nachdenke, und je länger ich Meinungen dazu lese, um so mehr komme ich zu dem Entschluss, das Tegra4 absolut kein Fortschritt zu Tegra3 ist im Vergleich zur Konkurrenz. Eventuell sogar ein Rückschritt. Ich erwarte auf jeden Fall keinen Durchbruch bei nVidia mit Tegra4.
Und bei der Sache mit Shield muss ich mir eh an den Kopf langen... Vor allem nach so Aussagen wie: "Das Ding wird nicht billig/verscherbelt weil wir die nicht subventionieren können wie die Konsolen, weil wir von den Games nichts haben, also muss die Hardware schon Gewinn machen"
Sorry, aber unter den Vorraussetzungen ist doch klar, das sich kaum wer das kauft. Warum auch? Um Android Games zu zocken? ;D
Der Witz wr gut.
Locuza
2013-01-10, 20:48:24
Irgendwie klingt es besonders "doof" im Zusammenhang mit Shield.
Eine Konsole von nvidia mit der schlechtesten GPU?
Wie sieht es dann mit der Tegra Zone aus, wenn alle Konkurrenten mit OGLES3 laufen und USA haben?
Also tolle Aussichten mit einem Tegra 4 Handy oder mit Shield, sollte es nicht unbedingt geben.
Skysnake
2013-01-10, 20:51:47
Das kommt ja noch dazu...
Aber selbst wenn Sie die stärkste Hardware hätten, wer kauft sich denn bitte son Ding, nur um Andoid Games drauf zu zocken. Das Ding wird ja sicherlich unter 300€ kosten wie ich nVidia kenne...
Das ist doch echt Geld verbrennen.
dildo4u
2013-01-10, 20:54:42
Irgendwie klingt es besonders "doof" im Zusammenhang mit Shield.
Eine Konsole von nvidia mit der schlechtesten GPU?
Wie sieht es dann mit der Tegra Zone aus, wenn alle Konkurrenten mit OGLES3 laufen und USA haben?
Also tolle Aussichten mit einem Tegra 4 Handy oder mit Shield, sollte es nicht unbedingt geben.
Tegra 4 bewegt sich im High-End Android Bereich was die GPU angeht,erst jetzt kommen Modelle mit S4Pro auf den Markt die vergleichbar sind.(Nexus 4,Sony's 1080p Handy etc)
Es wird also viele Geräte in dem Bereich geben also ist das als Zielplattform für Spielentwickler nicht schlecht.
Skysnake
2013-01-10, 21:00:27
Also soweit ich das jetzt alles richtig verfolgt habe, ist T4 auf Seiten der GPU ca auf dem Stand von aktuellen Produkten. Die neuen Produkte der Konkurrenz kommen ja aber erst noch, und T4 Produkte gibts auch noch nicht zu kaufen, das wird auch noch Monate dauern...
dildo4u
2013-01-10, 21:02:07
Also soweit ich das jetzt alles richtig verfolgt habe, ist T4 auf Seiten der GPU ca auf dem Stand von aktuellen Produkten. Die neuen Produkte der Konkurrenz kommen ja aber erst noch, und T4 Produkte gibts auch noch nicht zu kaufen, das wird auch noch Monate dauern...
Die kommen 2014 wie gesagt Modelle mit S4Pro kommen erst jetzt in "Masse" in den Markt,die meisten sind auf einem Jährlichen Zyklus.Tegra 4 hat in jedem Fall Q2-Q4 2013.
Was noch dazu kommt das Iphone 5 liegt auch in dem Bereich der Zielmarkt ist damit in jedem Fall gigantisch.
Ailuros
2013-01-10, 21:14:03
Die kommen 2014 wie gesagt Modelle mit S4Pro kommen erst jetzt in "Masse" in den Markt,die meisten sind auf einem Jährlichen Zyklus.Tegra 4 hat in jedem Fall Q2-Q4 2013.
Wann kam denn S4 auf den Markt genau? Ich komm bei jaehrlicher Kadenz auf ganz was anderes.
Dem weiteren bullshit zu Liebe:
http://www.brightsideofnews.com/news/2013/1/9/tegra-4-gpu-specs-disappoint2c-nvidia-in-defensive-mode.aspx
....und es stehen auch ein paar Einzelheiten ueber die Freescale/Vivante/BMW Masche drin, da robbi mich ueber Vivante fragte.
dildo4u
2013-01-10, 21:17:02
Wann kam denn S4 auf den Markt genau? Ich komm bei jaehrlicher Kadenz auf ganz was anderes.
Der S4 Dual-Core mit einer wesentlich schwächeren GPU kam viel früher jo(Q1 2012) ich meine den S4Pro(Quad) mit Andreno 320.(Q4 2012)
http://en.wikipedia.org/wiki/Snapdragon_%28system_on_chip%29
Bis aufs Nexus 4(Kaum Verfügbar) kann man hier zu Lande noch kein Handy mit S4Pro kaufen.
Ailuros
2013-01-10, 21:22:54
Tegra 4 bewegt sich im High-End Android Bereich was die GPU angeht,erst jetzt kommen Modelle mit S4Pro auf den Markt die vergleichbar sind.(Nexus 4,Sony's 1080p Handy etc).
High end ist wohl eher eine Kombination aus high end Faehigkeiten und high end Leistung. Wenn man sich auf denn lowest common denominator begrenzt reizt man wohl schlecht Entwickler damit an. Ein paar "Gefallen" dank desktop Relationen erreicht man schon aber nichts Hals und Bein-brechendes bei so elendigen Volumen.
Es wird also viele Geräte in dem Bereich geben also ist das als Zielplattform für Spielentwickler nicht schlecht.
Das klingt schon fast schon als ob Tegra GPUs die pre-dominante hw je wahren oder in absehbarer Zeit sein werden. Maerz 2012 waren es 3.2%, wobei IMG bei >50% insgesamt lag. Ist es vielleicht ein doppelt so hohes Prozentual in 2013 faellt wohl auch keiner dafuer vom Hocker ueberhaupt da Samsung und Qualcomm die eigentlichen Android smartphone Giganten sind. Bei iOS auch keine Chance. Euren Optimismus muss mal jemand teilen koennen.
Der S4 Dual-Core mit einer wesentlich schwächeren GPU kam viel früher jo(Q1 2012) ich meine den S4Pro(Quad) mit Andreno 320.(Q4 2012)
Ja und? Wieso gab es rein zufaellig damals mit 28nm Probleme und wo genau waren NV's SoC unter 28nm unter diesem Zeitpunkt? Adreno225 ist sogar staerker als T3 sowohl von der GPU als auch der CPU Seite.
Nebenbei ist device integration ausserhalb jeglicher Kontrolle von jeglichem SoC Hersteller ergo besteh erstmal auf timeframes wenn Du erste T4 Geraete erstmal auf Regalen siehst.
dildo4u
2013-01-10, 21:26:22
High end ist wohl eher eine Kombination aus high end Faehigkeiten und high end Leistung. Wenn man sich auf denn lowest common denominator begrenzt reizt man wohl schlecht Entwickler damit an. Ein paar "Gefallen" dank desktop Relationen erreicht man schon aber nichts Hals und Bein-brechendes bei so elendigen Volumen.
Das stimmt alles aber ich hab erst das iphone 5 vergessen,das liegt auch in dem Bereich der Markt ist also gigantisch das Featureset ist dort auch nicht besser als Tegra 4.
Skysnake
2013-01-10, 22:36:23
Das klingt schon fast schon als ob Tegra GPUs die pre-dominante hw je wahren oder in absehbarer Zeit sein werden. Maerz 2012 waren es 3.2%, wobei IMG bei >50% insgesamt lag. Ist es vielleicht ein doppelt so hohes Prozentual in 2013 faellt wohl auch keiner dafuer vom Hocker ueberhaupt da Samsung und Qualcomm die eigentlichen Android smartphone Giganten sind. Bei iOS auch keine Chance. Euren Optimismus muss mal jemand teilen koennen.
Und wenn man eben bedenkt, wer die Rivalen sind, dann wirds ja noch fragwürdiger, warum man als "Neueinsteiger" in diesen hart umkämpften Markt rein will...
An wen will man denn liefern?
Aplle? No chance
Samsung? no Chance
Damit sind die mit Abstand größten schon mal weg, und dann gibts eben noch so Gegner wie Qualcomm und TI...
Wie will man unter den Vorraussetzung mit auch noch vom Featureset her nicht mehr aktuellen Chips bitte schön einen Marktanteil von 10% oder mehr erwerben?
Sind überhaupt Marktanteile von 10% jemals realistisch? Wenn nein, kann man damit überhaupt unter berücksichtigung der R&D Kosten jemals Gewinn mit der Sparte machen?
Die anderen stehen ja nicht still...
Und vor allem, wenn nVidia jetzt sagt, Unified Shader wären zu Stromhungrig und platzraubend, was passiert denn dann, wenn Sie die Dinger wirklich bringen müssen, weil es der Markt einfach verlangt? Dann haben sie die "Nachteile" (wenn man ihren Ausführungen glaubt), die anderen aber nicht, die die ja schon Unified Shader haben....
Die Lücke zu den anderen wird also eher größer als kleiner...
Das was nVidia da gerade macht ist doch nichts Halbes und nichts Ganzes... Ich verstehs wirklich nicht, was sich Huang da denkt, wie das weiter gehen soll...
EDIT:
Ich hab mir mal den Spaß gemacht nVidias Aktienkurs an zu schauen:
Vor der CES schön gestiegen, und seid dem 07.01.2013 nur gefallen. Inzwischen um 7%
AMD hat um 1,6% nochmal zugelegt. Das sind dann seid ihrem Tief zwischen 09.11.2012 und 24.11.2012 bereits rund 40% Kurssteigerung....
Hab ich schon erwähnt, das ich mir genau das Aktien von denen kaufen wollte?.... Hätte ich es nur getan....
|MatMan|
2013-01-10, 23:21:02
Das was nVidia da gerade macht ist doch nichts Halbes und nichts Ganzes... Ich verstehs wirklich nicht, was sich Huang da denkt, wie das weiter gehen soll...
Eigentlich machen sie genau das richtige, sich auf ihr Kerngeschäft konzentrieren, damit Maxwell den KNC Nachfolger genauso verhaut wie Kepler den aktuellen. Man ist anscheinend mit minimalem Aufwand in einem umkämpften Markt präsent, der für sie keinen Gewinn abwirft. Würde man Gewinn machen, wenn man 2-3x so viel Manpower und R&D reinsteckt? Wäre es wirklich besser das Kerngeschäft wegen Tegra zu gefährden?
Anscheinend setzt man wirklich auf Denver + Maxwell und spielt so lange auf Zeit. Der SoC ist "good enough" für den Markt. Ja das Marketing will ihn als Highend verkaufen. Ja es ist langweilig. Ja man erwartet von nVidia mehr, aber wäre es mittelfrisitg wirklich besser für die Firma etwas anderes zu tun? Bisher geht ging der Firma wirtschaftlich zumindest ganz gut, also kann das Management nicht alles falsch gemacht haben.
Ailuros
2013-01-10, 23:36:18
Das stimmt alles aber ich hab erst das iphone 5 vergessen,das liegt auch in dem Bereich der Markt ist also gigantisch das Featureset ist dort auch nicht besser als Tegra 4.
Nur wird zum Zeitpunkt wo AP40 in smartphones auftaucht es sich wohl gegen das naechste iPhone schlagen muessen. Sonst wenn es zur GPU kommt ist das featureset um einiges besser im iPhone5.
Und wenn man eben bedenkt, wer die Rivalen sind, dann wirds ja noch fragwürdiger, warum man als "Neueinsteiger" in diesen hart umkämpften Markt rein will...
An wen will man denn liefern?
Aplle? No chance
Samsung? no Chance
NV konkurriert als SoC Hersteller gegen Samsung, Qualcomm, Intel und dergleichen. Gute Chancen haben sie langfristig schon, aber es dauert eben bis man sich etabliert welches auch fuer Intel gilt. NV ist sogar ein paar Schritte weiter und verlangt auch keine so hohen Preise fuer ihre SoCs wie Intel.
Damit sind die mit Abstand größten schon mal weg, und dann gibts eben noch so Gegner wie Qualcomm und TI...
TI und ST sind weg vom Fenster langfristig was SFF betrifft; embedded aber nicht.
Wie will man unter den Vorraussetzung mit auch noch vom Featureset her nicht mehr aktuellen Chips bitte schön einen Marktanteil von 10% oder mehr erwerben?
Sind überhaupt Marktanteile von 10% jemals realistisch? Wenn nein, kann man damit überhaupt unter berücksichtigung der R&D Kosten jemals Gewinn mit der Sparte machen?
Die anderen stehen ja nicht still...
Ich war mal grosszuegig und hab doppelt so viel Volumen fuer NV's 28nm Generation behauptet aber hauptsaechlich wegen Grey welches in einer ganz anderen Kategorie spielt.
Und vor allem, wenn nVidia jetzt sagt, Unified Shader wären zu Stromhungrig und platzraubend, was passiert denn dann, wenn Sie die Dinger wirklich bringen müssen, weil es der Markt einfach verlangt? Dann haben sie die "Nachteile" (wenn man ihren Ausführungen glaubt), die anderen aber nicht, die die ja schon Unified Shader haben....
Die Lücke zu den anderen wird also eher größer als kleiner...
Das was nVidia da gerade macht ist doch nichts Halbes und nichts Ganzes... Ich verstehs wirklich nicht, was sich Huang da denkt, wie das weiter gehen soll...
EDIT:
Ich hab mir mal den Spaß gemacht nVidias Aktienkurs an zu schauen:
Vor der CES schön gestiegen, und seid dem 07.01.2013 nur gefallen. Inzwischen um 7%
AMD hat um 1,6% nochmal zugelegt. Das sind dann seid ihrem Tief zwischen 09.11.2012 und 24.11.2012 bereits rund 40% Kurssteigerung....
Hab ich schon erwähnt, das ich mir genau das Aktien von denen kaufen wollte?.... Hätte ich es nur getan....
Meine Kritik ist und bleibt im Bereich der GPU beschraenkt. NV haette um einiges mehr leisten koennen. Leistung ist groesstenteils ziemlich konkurrenzfaehig, Stromverbrauch akzeptabel und im guten Ganzen ziemlich gut positionierte SoCs aber einfach nichts besonderes und schon gar nichts was irgendwie an eine wirkliche GeForce erinnert. USCs sind ja nicht das einzige Problem. Heutzutage eine GPU ohne anstaendige Bandbreiten-schonende Logik zu liefern ist einfach idiotisch; es verdonnert unnoetig Strom und ueberhaupt in einem Markt wo dieser das alpha und omega ist. Noch schlimmer die paar Spiele die fuer Tegra optimiert wurden sind auch nicht gerade ein Kinderspiel fuer die jeweiligen ISVs; und eben hier wird es gerade zum boomerang denn man kritisiert ja stets tilers dass Entwickler zu viel anpassen muessen damit es anstaendig auf diesen geht.
Offizielle Marketinglinie seit Tegra 1 war dass tiling nur bis DX7 Sinn macht und unter DX10 keine USCs. Von da ab kann jeder glauben was er will.
Eigentlich machen sie genau das richtige, sich auf ihr Kerngeschäft konzentrieren, damit Maxwell den KNC Nachfolger genauso verhaut wie Kepler den aktuellen. Man ist anscheinend mit minimalem Aufwand in einem umkämpften Markt präsent, der für sie keinen Gewinn abwirft. Würde man Gewinn machen, wenn man 2-3x so viel Manpower und R&D reinsteckt? Wäre es wirklich besser das Kerngeschäft wegen Tegra zu gefährden?
Anscheinend setzt man wirklich auf Denver + Maxwell und spielt so lange auf Zeit. Der SoC ist "good enough" für den Markt. Ja das Marketing will ihn als Highend verkaufen. Ja es ist langweilig. Ja man erwartet von nVidia mehr, aber wäre es mittelfrisitg wirklich besser für die Firma etwas anderes zu tun? Bisher geht ging der Firma wirtschaftlich zumindest ganz gut, also kann das Management nicht alles falsch gemacht haben.
Stimmt alles bis zum letzten Satz; wenn ich Dir nur ehlendige resourcen goenne als obriges management und Dich dann entlasse weil jemand die Verantwortung tragen muss fuer N Misserfolg gegen den Scheiss die man bisher Analysten versprochen hatte aber nicht erreicht hat, "gewinnt" man zwar als obriges Management aber ob es wirklich fair oder anstaendig ist ist dann wohl ein ganz anderes Kapitel.
Skysnake
2013-01-11, 00:06:34
Meine Kritik ist und bleibt im Bereich der GPU beschraenkt. NV haette um einiges mehr leisten koennen. Leistung ist groesstenteils ziemlich konkurrenzfaehig, Stromverbrauch akzeptabel und im guten Ganzen ziemlich gut positionierte SoCs aber einfach nichts besonderes und schon gar nichts was irgendwie an eine wirkliche GeForce erinnert.
Genau DAS ist doch aber der springende Punkt. Man kommt praktisch von 0, da muss man was besonderes sein, damit die Leute/Firmen einen haben WOLLEN. Wenn ich dann noch gute Preise mache, dann greifen die Firmen auch zu. Das ist um so wichtiger, wenn eh schon ein großes Teil des Marktes schlicht verschlossen ist (Apple+Samsung).
Aber was macht nVidia aktuell? Die versuchen rein über den Preis zu gehen, und machen damit Jahr um Jahr um Jahr Verlust. Das kann man sich auf Dauer einfach nicht erlauben. Gleichzeitig wächst der Marktanteil nicht wirklich signifikant an. Also so, dass Sie am Markt wirklich eine Rolle spielen würden, und nicht nur eine Niesche besetzen.
Wo ist da die Perspektive? Das SOC Geschäft ist ein hartes Geschäft. Wer würde denn noch aktuell zu nem Tegra4 greifen, wenn Sie soweit die Preise anheben würden, dass Sie Gewinn machen? Und was ist, wenn Sie nen gleichwertiges Featureset bringen, um Konkurrenzfähig zu sein, wie viel größer werden Sie dann, und wieviel mehr R&D kostet das? Wie hoch müssen dann erst die Preise, und vor allem wer kauft dann noch?
Ich seh da halt für nVidia 0 Perspektive, wirklich vernünftig einen Fuß rein zu bekommen.
Vor allem, was ist wenn China wirklich ihre MIPS-Schiene voll durchzieht, und den Markt vor allem von unten her anfeuert? Die Chinesen juckts nicht all zu sehr, wenn Sie nicht die riesen Gewinne machen. Sieht man ja schön bei den Solarzellen, und bei der IT-Hardware sehe ich ähnliches auf uns zurollen.
Deswegen, das was nVidia aktuell macht ist nichts Halbes und nichts Ganzes. Sie verharren mehr oder weniger am Fleck. Einem Fleck der auf dem absteigenden Ast ist.
Ailuros
2013-01-11, 00:16:02
Mensch Du mit Deinem MIPS Koller. Ich hab mal ein paar wahre CPU engineers darueber angesprochen und das meiste ist wirklich nicht das gelbste vom Ei wenn man sich wirklich erstmal ernsthaft damit beschaeftigt. Ein paar ernsthafte Macken hat der Design schon und sie sind jetzt erst auf SIMD gekommen. Im verruecktesten Fall schafft es IMG die IP besser hinzubiegen und dreht es Apple billiger an als ARM aber ich glaube solchen Mist erst wenn ich es sehe. Im Normalfall bedient IMG langfristig damit den chinesischen billig-Bums-SoC Markt was sie so oder so schon erfolgreich mit ihrem existierendem IP portofolio machen. Mediatek, HiSilicon, Allwinner und Ingenic sind alles chinesische Lizenznehmer.
Deswegen, das was nVidia aktuell macht ist nichts Halbes und nichts Ganzes. Sie verharren mehr oder weniger am Fleck. Einem Fleck der auf dem absteigenden Ast ist.
Dass sie erstmal custom CPUs (u.a. auch 64bit Prozessoren) basierend auf ARM instruction sets entwickeln ist erstmal ein Schritt in die richtige Richtung. Dieses hat dann langfristig eher groessere PC/notebook SoCs als Ziel kann aber auch SFF SoCs locker bedienen. Mann nennt wohl alles SoC in der Zukunft Tegra. Alles andere als ein absteigender Ast.
|MatMan|
2013-01-11, 00:17:42
Stimmt alles bis zum letzten Satz; wenn ich Dir nur ehlendige resourcen goenne als obriges management und Dich dann entlasse weil jemand die Verantwortung tragen muss fuer N Misserfolg gegen den Scheiss die man bisher Analysten versprochen hatte aber nicht erreicht hat, "gewinnt" man zwar als obriges Management aber ob es wirklich fair oder anstaendig ist ist dann wohl ein ganz anderes Kapitel.
Ja, jemanden als Sündenbock zu entlassen ist natürlich nicht toll! Als Außenstehender bekommt man solche Details halt nicht mit... :frown:
Auf einem absteigenend Ast sehen ich Tegra auch nicht, von T2 zu T3 ging es doch deutlich bergauf, nicht bergab. T4 im Bundle mit i500 zu einem guten Preis wird sicherlich für einige Handy/Tablet Hersteller interessant sein, solange man nicht allzu spät damit im Markt ankommt.
Ailuros
2013-01-11, 00:22:11
Ja, jemanden als Sündenbock zu entlassen ist natürlich nicht toll! Als Außenstehender bekommt man solche Details halt nicht mit... :frown:
Wer das Zeug verfolgt weiss auch wie der Herr heisst. Die Entschuldigung von den typischen NV fanboys war dass er nicht genug enthusiastisch fuer seinen job war und ich haette kotzen koennen. Wenn er wirklich so talentlos gewesen waere haette er nicht im Handumdrehen nicht sofort sogar eine bessere Stelle woanders gefunden.
Auf einem absteigenend Ast sehen ich Tegra auch nicht, von T2 zu T3 ging es doch deutlich bergauf, nicht bergab. T4 im Bundle mit i500 zu einem guten Preis wird sicherlich für einige Handy/Tablet Hersteller interessant sein, solange man nicht allzu spät damit im Markt ankommt.
Grey fuer mainstream SoCs und ueberhaupt billige smartphones mit LTE wird noch mehr Gold wert sein; deshalb erwarte ich auch dass sie ihren Markanteil wieder verdoppeln koennten.
***edit: ich hab mir die gespeicherten Resultate der Dalmore Platform nochmal angesehen und es wird wohl doch diesmal auf T4 4xMultisampling unterstuetzt. Dass momentan fast die Haelfte der Leistung verpuffert wird macht es nicht besonders nutzvoll aber es laeuft erstmal (wenn nicht der Treiber noch etwas arbeit braucht). Ich werde aber den Verdacht nicht los dass die Anzahl der TMUs gleich geblieben sind welches aber ziemlich merkwuerdig waere fuer so viel mehr Einheiten. Abwarten bis zu finalen Resultaten...
Gipsel
2013-01-11, 01:11:42
CoreMark + 1 Spiel gleichzeitig sind natürlich nicht synthetisch und völliger RL Alltag für ein Tablet/Smartphone... ;)
Schau dir die von mir verlinkte Seite vom Test und die Messergebnisse bitte genau an. Modern Combat 3 ohne Coremark hat fast ein identisches TDP Limit zu Modern Combat 3 mit Coremark im Hintergrund. Gleiches gilt für Coremark im Vordergrund nur ist hier die CPU primär für die Leistungsaufnahme verantwortlich.Es ist sogar noch einen Tick schlimmer. Die CPU throttelt auch schon mit nur CoreMark ohne Modern Combat. Das ist hier der orangene Bereich:
http://images.anandtech.com/reviews/SoC/Intel/CTvKrait/nexus10-multitasking-annotated.png
Der Verbrauch des CPU-Teils springt immer auf gut 4W, dann setzt das Throttling ein (man sieht sogar die einzelnen Taktstufen!). Ist die Leistungsaufnahme unter einen bestimmten Wert gesunken (offensichtlich temperaturabhängig, weil er anfangs nicht ganz so weit herunterregelt wie später) springt es immer wieder kurzzeitig auf die 4,5W oder so und es beginnt von neuem. Die Stufen und die Zeitkonstante sind offenbar die gleichen wie beim Throttling durch zusätzliche GPU-Last, es ist also sehr sicher Throttling.
-> Der CPU steht bei GPU Last ungefähr 1/4 des maximalen TDP Budgets zur Verfügung. Das ist nie und nimmer ausreichend um throtteln zu verhindern. In der Praxis macht dieser Ansatz der dynamischen Verteilung innerhalb der TDP auch Sinn aber eben nur wenn man absolut ans Limit gehen will bzw. muss. Das ist bezogen auf ARM durchaus eine neue Kategorie und in der bewegen sich auch so Unternehmen wie AMD und Intel.
Ja, die obige Grafik ist wie gesagt für einen SoC mit nur zwei A15-Kernen bei 1,7GHz gemessen. 1,9 GHz bei einem Quad-A15 in einer TDP von 4 W ist also praktisch sowas wie der SingleCore Turbo-Wert. Mit Vollast auf allen Kernen ist das wohl nie und nimmer zu halten, bei GPU-Last erst recht nicht, wenn der Exynos das schon nicht mit nur zwei A15-Kernen schafft. Oder man liegt bei 15-20W TDP für den kompletten SoC inkl. Grafik und IO (also da, wo Kabini auch die gleichen Taktraten auffahren kann).
Hugo78
2013-01-11, 05:48:22
Grey fuer mainstream SoCs und ueberhaupt billige smartphones mit LTE wird noch mehr Gold wert sein; deshalb erwarte ich auch dass sie ihren Markanteil wieder verdoppeln koennten.
Oder halt "billige" aber überzeugende HW Features, wie eine funktionierende HDR Cam.
Fotos sind für jeden da draußen ein elementares Feature bei einem Handy.
Und sollte das "One Shot" Feature nicht nur auf den PR Slides gut aussehen,
sondern auch in den Tests so überzeugen wie von Nvidia propagiert, dann wird es das, ...
Für mich das interessanteste Detail an T4.
http://d35lb3dl296zwu.cloudfront.net/uploads/photo/image/9217/vld2262.jpg
http://d35lb3dl296zwu.cloudfront.net/uploads/photo/image/9220/vld2272.jpg
robbitop
2013-01-11, 08:40:10
Schau dir die von mir verlinkte Seite vom Test und die Messergebnisse bitte genau an. Modern Combat 3 ohne Coremark hat fast ein identisches TDP Limit zu Modern Combat 3 mit Coremark im Hintergrund. Gleiches gilt für Coremark im Vordergrund nur ist hier die CPU primär für die Leistungsaufnahme verantwortlich.
-> Der CPU steht bei GPU Last ungefähr 1/4 des maximalen TDP Budgets zur Verfügung. Das ist nie und nimmer ausreichend um throtteln zu verhindern. In der Praxis macht dieser Ansatz der dynamischen Verteilung innerhalb der TDP auch Sinn aber eben nur wenn man absolut ans Limit gehen will bzw. muss. Das ist bezogen auf ARM durchaus eine neue Kategorie und in der bewegen sich auch so Unternehmen wie AMD und Intel.
Ja das stimmt. Und das zweifle ich auch nicht an. Aber Exynos 5 scheint nicht zu throtteln wenn nur das Spiel läuft - und genau das ist entscheidend. Performance in RL Cases. Ob er nun durch sein TDP Limit begrenzt ist oder nicht. (mir ist klar, und das habe ich auch schon desöfteren in letzter Zeit gepostet, dass die SoC Hersteller, die SoCs schneller wachsen lassen, als die Shrinks es hergeben und somit immer weiter die Grenze verschieben. Analog zu ASICs im PC Markt)
Ich nehme auch an, dass Coremark analog zu Prime (CPU) oder Furmark (GPU) die CPU wirklich extrem auslastet und das kein RL Case darstellt.
Man sieht aber gut, warum Apple die A15 Kerne gemieden hat...
Skysnake
2013-01-11, 09:00:48
Dass sie erstmal custom CPUs (u.a. auch 64bit Prozessoren) basierend auf ARM instruction sets entwickeln ist erstmal ein Schritt in die richtige Richtung. Dieses hat dann langfristig eher groessere PC/notebook SoCs als Ziel kann aber auch SFF SoCs locker bedienen. Mann nennt wohl alles SoC in der Zukunft Tegra. Alles andere als ein absteigender Ast.
Kanns sein, dass du mit deinen letzten paar Posts versuchst durch die Blume zu sagen, das Project Denver bzgl der CPU genau (sehr ähnlich) aussieht wie der Tegra4?
Meintest ja was von wegen 20W, wenn alle Cores voll durchpowern. Das wäre ja bei sowas wie Project Denver jetzt kein Beinbruch.
Der GPU Teil müsste halt anders aussehen. Mich wunder allerdings der letzte Satz gerade. Wenn ich richtig mit der Andeutung liege, ist dann etwa Project Denver "tot"?
Ailuros
2013-01-11, 13:09:20
Kanns sein, dass du mit deinen letzten paar Posts versuchst durch die Blume zu sagen, das Project Denver bzgl der CPU genau (sehr ähnlich) aussieht wie der Tegra4?
Meintest ja was von wegen 20W, wenn alle Cores voll durchpowern. Das wäre ja bei sowas wie Project Denver jetzt kein Beinbruch.
Denver ist ein NV custom CPU core basierend auf ARM's 64bit core instruction sets. Wie robbitop oben schon erwaehnt es gibt sehr guten Grund wieso Qualcomm und seit neuestem Apple custom CPU cores entwickeln eben weil A15 u.a. ziemlich stromhungrig ist.
Der GPU Teil müsste halt anders aussehen. Mich wunder allerdings der letzte Satz gerade. Wenn ich richtig mit der Andeutung liege, ist dann etwa Project Denver "tot"?
Nein Du hast mich falsch verstanden; eigentlich sollte man ultra low power SFF SoCs nicht in den gleichen Topf werfen wie desktop/notebook SoCs eben weil es Welten an Unterschieden zwischen den beiden gibt. Wenn aber NV schon so viel resourcen auflegt custom cores zu entwickeln waere es verdammt merkwuerdig wenn sie diese nur fuer PC und nicht auch fuer SFF SoCs benutzen wuerden. Dass dann alles unter der Sparte "Tegra" moeglicherweise laufen wird ist dann nicht besonders absurd. Project Denver war und ist stets fuer 20nm TSMC projeziert und daran hat sich nie etwas geaendert; anders es wird noch mehr als 1 Jahr dauern bis wir etwas von den Denver custom CPUs etwas sehen werden. Bis dahin muss eben - wie auch im desktop fuer Maxwell mit Denver cores integriert 28nm aushalten.
***edit:
http://www.fudzilla.com/home/item/30101-tegra-4-designs-expected-in-late-q1-13
Ab Q2 wenn alles nach Plan laeuft; Frequenzen scheinen noch nicht final zu sein.
Ailuros
2013-01-11, 23:23:07
GPU-Leistung wird wohl um einiges besser sein bei finalen Resultaten als das Zeug dass vorzeitig heraussickerte.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.