Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs
Skysnake
2013-08-09, 14:57:56
tegra steht weiterhin schlecht bei den aktuellen zahlen da. ich denke nv wird deshalb so früh wie möglich auf t5 umsteigen wollen. nur so haben sie eine chance und bisher scheint t4 ein stromschlucker zu sein.
nVidia hat wohl endlich gerafft, dass der SFF Markt nicht der Desktop/Mobile GPU Markt ist....
Die ziehen halt niemand die Wurst vom Brot mit ihrer veralteten Technik (Featureset). Den Namen nVidia können Sie sich da einfach in die Haare schmieren...
Wenn nVidia wirklich dran beleibt und nicht wieder überheblich wird, können Sie sogar noch die Trendwende schaffen mit Tegra. So langsam müssen Sie es aber schaffen, denn irgendwann ist der Zug halt auch abgefahren...
falscher Thread...
Undertaker
2013-08-09, 15:45:48
Ich denke nicht das wir es uns hier anmaßen können, derartiges besser einschätzen zu können als die entsprechenden Personen bei Nvidia oder einem beliebigen anderen Hersteller. (Btw, das Featureset ist im Vergleich zum Perf/Watt Problem um Potenzen unwichtiger). Bei Tegra 4 lief sicherlich nicht alles nach Plan, sowohl was das Erscheinungsdatum als auch was den Stromverbrauch betrifft.
Ist denn eigentlich bekannt, welche Revision der A15-Kerne bei Tegra 4, Exynos 5250 und 5410 zum Einsatz kommt?
Skysnake
2013-08-09, 16:20:29
In diesem Fall doch. Es macht einfach keinen Sinn. nVidia sagt hier definitiv nicht die volle Wahrheit. Da wäre ich eventuell sogar für bereit meine HAnd für ins Feuer zu legen.
Es macht einfach keinen Sinn! Das wäre als ob ein Automobilhersteller sagen würde wir haben unser Auto 10% sparsamer gemacht, indem wir das Gewicht um 10% erhöht haben... Da fasste dir einfach an den Kopf und sagst dass das nicht geht, und da muss der Hersteller auch die Hosen runter lassen, ansonsten bleibt es unglaubwürdig.
Hugo78
2013-08-09, 17:40:39
Jetzt mal Spass und jegliche Bevorzugungen zur Seite; wem wuerdest Du zwischen NV und QCOM fuer so ein Geraet eher vertrauen?
Vertrauen bezogen auf "wer hat die besseren WinRT Treiber?" => NV
Vertrauen bezogen auf Abhören per NSA? => keiner Firma der Welt, weil die Welt US-Gesetzen unterliegt.
Aber für Microsoft wäre unabhänig davon es ebend noch ein weiterer Spyware Skandal, wenn irgend jemand mit Namen,
Qualcomms S800 kritisch und öffentlichkeitswirksam untersucht. Kann MS sich nicht leisten.
Ob das jetzt was mit ihrer Entscheidung für Tegra 4 im Surface 2 zutun hat, sei jetzt mal dahingestellt.
Eher noch tippe ich halt auf Treiberprobleme bei QCOM, weil das die einfachste Erklärung ist, noch vor Lieferengpässen und Co.
Undertaker
2013-08-09, 18:04:14
In diesem Fall doch. Es macht einfach keinen Sinn. nVidia sagt hier definitiv nicht die volle Wahrheit. Da wäre ich eventuell sogar für bereit meine HAnd für ins Feuer zu legen.
Es macht einfach keinen Sinn! Das wäre als ob ein Automobilhersteller sagen würde wir haben unser Auto 10% sparsamer gemacht, indem wir das Gewicht um 10% erhöht haben...
Worauf sprichst du da an? Nvidia hat (wohlweislich?) in Bezug auf Tegra 4 eigentlich immer nur auf die Performance gepocht, Perf/Watt Vergleiche gab es kaum (und schon gar keine wirklich seriösen). Das die Leistungsaufnahme und damit das Throttling sogar in einem Tablet so extrem ausfallen, kann aber eigentlich nicht geplant gewesen sein. Ob das nun ein Tegra 4 spezifisches Problem ist oder der Cortex A15 in seiner jetzigen Revision viel energiehungriger geworden ist als von ARM versprochen, ist natürlich schwer zu sagen.
Eher noch tippe ich halt auf Treiberprobleme bei QCOM, weil das die einfachste Erklärung ist, noch vor Lieferengpässen und Co.
Ich sage mal: Preis.
Blediator16
2013-08-09, 18:26:19
Also sind wir zum Schluss gekommen, dass NV den Deal bekommen hat nicht, weil sie billiger waren, sondern weil andere mal wieder irgendwo schlechter? :D
Ailuros
2013-08-09, 19:15:59
Worauf sprichst du da an? Nvidia hat (wohlweislich?) in Bezug auf Tegra 4 eigentlich immer nur auf die Performance gepocht, Perf/Watt Vergleiche gab es kaum (und schon gar keine wirklich seriösen). Das die Leistungsaufnahme und damit das Throttling sogar in einem Tablet so extrem ausfallen, kann aber eigentlich nicht geplant gewesen sein.
Das erste was man bei einem SFF SoC "plant" ist der Stromverbrauch und dann kommt alles andere. Wenn man so viel und so dicht in knapp 80mm2 verpackt dann kann es einfach nicht sparsam und schon gar nicht wenn man mit der Dampfwalze mehrmals ueber die GPU Tranistoren faehrt um dann auch noch bei 672MHz zu takten.
Ob das nun ein Tegra 4 spezifisches Problem ist oder der Cortex A15 in seiner jetzigen Revision viel energiehungriger geworden ist als von ARM versprochen, ist natürlich schwer zu sagen.
Wieso ist es kein T4 spezifisches Problem? Nimm ein iPad4 zur Hand und spiel z.B. eine Stunde Infinity Blade2; das Geraet wird zwar spuerbar waermer in der Hand aber es throttelt nirgends.
Eines der Marketing-Punkte von NV bei der T4 Vorstellung war perf/mm2 welches total idiotisch war so wie es praesentiert wurde. Ja Apple, Qualcomm und Samsung gehen sehr grosszuegig mit die area um, aber man braucht auch unter normalen Umstaenden kein fancoil um diese vom extremem throtteln abzuhalten (obwohl Adreno320 am Anfang diesbezueglich etwas anfaellig war aber wohl eher dank daemlicher Implementierung vom governor chip).
Perf/mW ist das alpha und omega in diesem Markt und es gibt guten Grund wieso NV bei der Logan GPU eben genau DIESEN Punkt beruehrten.
Wenn der wahre Suendenbock im gegebenen Fall ARM's A15 war/ist dann tut es mir leid daran wird sich wohl auch nichts im besondes grossem Ausmass bei Logan aendern. Was uns NV zeigte ist eine naechster Generation 28nm mobile GPU die bei gleicher Leistung um ca. 2.8x weniger verbraucht als eine 32nm iPad4 voriger Generation GPU (wenn Apple nicht noch anderen Mist an die GPU rail verbunden haben sollte). Ja *schulterzuck* tschuldige aber Aepfel gegen Birnen. Wie gesagt gegen Adreno330 haben sie nicht Logan verglichen aus verstaendlichen Gruenden und auch nicht die T4 GPU gegen die iPad4 GPU.
Um es mal nuechtern und realistisch zu halten: ich nehm NV den Hut ab und beuge mich vor dem OGL4.4 featureset; fuer den gesamten Rest will ich finale echte Vergleiche sehen, denn das daemliche ist eben dass sich die Geschichte sonst konstant wiederholt und eben hinter dem kunterbuntem Blahblahblah am Ende nichts als nur Weihrauch steckt eben weil die gesamte Konkurrenz eben auch weiterentwickelt.
Neosix
2013-08-09, 19:24:44
Kurzer zwischen Frage von mir. Wird der "nackte" A15 eigentlich sonst irgend wo neben T4 verbaut, dass man diesen Punkt eben überprüfen könnte?
Ailuros
2013-08-09, 19:31:56
Kurzer zwischen Frage von mir. Wird der "nackte" A15 eigentlich sonst irgend wo neben T4 verbaut, dass man diesen Punkt eben überprüfen könnte?
Wie meinen? Der Exynos5250 von Samsung hat 2*A15 cores ohne companion core und ohne "LITTLE" A7 cores. A15 cores sind schon ziemlich stromhungrig, nur ist auch NV's 4+1 Implementierung davon einzigartig. Vielleicht wird in Zukunft ein Tegra5 gegen z.B. Exynos5420 vielleicht Sinn machen (auf reiner CPU Ebene wenn moeglich).
Skysnake
2013-08-09, 19:34:57
Worauf sprichst du da an? Nvidia hat (wohlweislich?) in Bezug auf Tegra 4 eigentlich immer nur auf die Performance gepocht, Perf/Watt Vergleiche gab es kaum (und schon gar keine wirklich seriösen). Das die Leistungsaufnahme und damit das Throttling sogar in einem Tablet so extrem ausfallen, kann aber eigentlich nicht geplant gewesen sein. Ob das nun ein Tegra 4 spezifisches Problem ist oder der Cortex A15 in seiner jetzigen Revision viel energiehungriger geworden ist als von ARM versprochen, ist natürlich schwer zu sagen.
Vergiss es bitte, falscher Thread -.-:uhammer2:
Neosix
2013-08-09, 19:56:59
Wie meinen? Der Exynos5250 von Samsung hat 2*A15 cores ohne companion core und ohne "LITTLE" A7 cores. A15 cores sind schon ziemlich stromhungrig, nur ist auch NV's 4+1 Implementierung davon einzigartig. Vielleicht wird in Zukunft ein Tegra5 gegen z.B. Exynos5420 vielleicht Sinn machen (auf reiner CPU Ebene wenn moeglich).
Mir war so, dass Samsung ebenfalls ne Abwandlung vom A15 verwendet, deswegen die Frage. Danke!
Ailuros
2013-08-09, 20:12:56
Mir war so, dass Samsung ebenfalls ne Abwandlung vom A15 verwendet, deswegen die Frage. Danke!
Das Problem mit dem 5250 (nur 2*A15) ist das jegliche "Spar-CPU-core" fehlt um es selbst verkorkst mit NV's T4 zu vergleichen und der 5410 im GalaxyS4 (4*A15+4*A7) hat zu viele hw bugs fuer meinen Geschmack fuer jeglichen Vergleich. Wie gesagt ein Vergleich zwischen Exynos5420 und Tegra5 koennte vielleicht mehr Sinn machen.
Ronny145
2013-08-09, 20:29:13
Idle Maximum: 6,1 Watt
Last Maximum: 13,2 Watt
= 7,1 Watt, abzüglicher von Wandlern etc. also höchstens 6 Watt. Mehr lässt sich wie man sieht passiv einfach nicht abführen. Wo eine reale TDP ohne Throttling liegen würde? Schwer zu sagen. Aber wie Ailuros schon sagte, gedrosselt wird überall. Natürlich unterscheidet sich das Ausmaß.
Notebookcheck gibt für Idle 2.5/4.7/6.1W an. Wo liegen die Unterschiede? So große Schwankungen kann ich mir nicht vorstellen, vielleicht ist kurz die Last im Idle hoch, würde dann den Max Idle Wert verfälschen.
Neosix
2013-08-09, 20:35:48
Das Problem mit dem 5250 (nur 2*A15) ist das jegliche "Spar-CPU-core" fehlt um es selbst verkorkst mit NV's T4 zu vergleichen und der 5410 im GalaxyS4 (4*A15+4*A7) hat zu viele hw bugs fuer meinen Geschmack fuer jeglichen Vergleich. Wie gesagt ein Vergleich zwischen Exynos5420 und Tegra5 koennte vielleicht mehr Sinn machen.
Na mal sehen ob dieser Vergleich dann 2H 2014/Anfang 2015 noch so interessant ist.
Hab jetzt kurz nach A15 Nachfolger gesucht. Die A50 Serie mit A53 und A57 ist ja für 20nm und drunter gedacht.
http://abload.de/img/screen20shot202012-10exyju.png
Quelle: http://www.anandtech.com/show/6420/arms-cortex-a57-and-cortex-a53-the-first-64bit-armv8-cpu-cores
Dann heißt es A5x vs Tegra5.
ps. in diesem Zusammenhang find ich ganz interessant, das auf Folie 2 direkt von 2.4 und 4.4 Konzept geredet wird. Ich glaubt wir haben uns vor über einem Jahr mal über A15 und deren Strom hunger unterhaltet. Ob das eine Fehlentwicklung ist das ein Einzellner Kern nicht mehr generell auf wenig verbrauch getrimmt wird. Hier wird wohl von Anfang an auf ein Konzept mit Stromsparcores gesetzt.
Hugo78
2013-08-09, 20:41:50
Notebookcheck gibt für Idle 2.5/4.7/6.1W an. Wo liegen die Unterschiede? So große Schwankungen kann ich mir nicht vorstellen, vielleicht ist kurz die Last im Idle hoch, würde dann den Max Idle Wert verfälschen.
Beim iPad 4 sind es gar 8,4 Watt als Idle Max.
http://www.notebookcheck.com/Test-Apple-iPad-4-Tablet.83847.0.html
y33H@
2013-08-09, 21:57:12
@ Neosix
Die neuen Cortex kommen schon mit 28 nm.
Undertaker
2013-08-09, 22:09:07
Das erste was man bei einem SFF SoC "plant" ist der Stromverbrauch und dann kommt alles andere.
Logisch, nur habe ich so den Verdacht, dass sich diese Planung eben nicht so ganz erfüllt hat. Das selbst ein Tablet die Abwärme nicht abführen kann und nach Minuten(!) in einem normalen 3D-Programm(!) throttelt (OK, warme Umgebungstemperatur), ist wohl kaum von Anfang an geplant gewesen.
Wieso ist es kein T4 spezifisches Problem?
Weil schon der Exynos 5250 viel zu heiß wurde und wohl auch der Exynos 5410 relativ stark throttelt. Mehr erhältliche A15-Implementierungen sind mir nicht bekannt. Wenn alle throtteln drängt sich für mich der Verdacht auf, dass das Problem evtl. beim A15 liegt, der sein gestecktes Power Taget aus welchen Gründen auch immer verfehlt.
Notebookcheck gibt für Idle 2.5/4.7/6.1W an. Wo liegen die Unterschiede? So große Schwankungen kann ich mir nicht vorstellen, vielleicht ist kurz die Last im Idle hoch, würde dann den Max Idle Wert verfälschen.
http://www.notebookcheck.com/Wie-wir-testen.1948.0.html
Display, WLAN, evtl. Energiesparprofile.
Hugo78
2013-08-09, 22:39:53
Beim Thema Verbrauch, da sieht man beim aktuellen HTC One Mini Test,
am Vergleich HTC One Mini vs. Samsung S4 Mini, wie brutal das Display die Laufzeit bestimmt.
Beide Geräte haben einen idenisches QCOM S400 (edit: das One Mini taktet sogar etwas langsamer) und auch der Rest der Hardware unterscheidet sich nicht übermässig,
ausser ebend dem Display, was im Laufzeitentest zu einen Unterschied von rund 6 Stunden führt.
- http://www.computerbase.de/artikel/handys/2013/htc-one-mini-im-test/5/
Blediator16
2013-08-10, 01:29:28
Beim Thema Verbrauch, da sieht man beim aktuellen HTC One Mini Test,
am Vergleich HTC One Mini vs. Samsung S4 Mini, wie brutal das Display die Laufzeit bestimmt.
Beide Geräte haben einen idenisches QCOM S400 (edit: das One Mini taktet sogar etwas langsamer) und auch der Rest der Hardware unterscheidet sich nicht übermässig,
ausser ebend dem Display, was im Laufzeitentest zu einen Unterschied von rund 6 Stunden führt.
- http://www.computerbase.de/artikel/handys/2013/htc-one-mini-im-test/5/
Ich weiß nicht. Wenn da die Google Edition getestet worden wäre ok, aber die Unterschiede in der Software spielen da mit Sicherheit auch mit rein.
Hugo78
2013-08-10, 07:39:06
Beide kommen mit Android 4.2.2 und der Laufzeittest wird bei CB per Videoschleife durchgeführt.
Sense 5 und TouchWiz sollten hier garkeine Rolle spielen und ich geh mal davon aus, das CB drauf achtet, WLAN usw. bei allen Geräten im Laufzeittest, gleich zubehandeln.
Ailuros
2013-08-10, 13:16:47
Logisch, nur habe ich so den Verdacht, dass sich diese Planung eben nicht so ganz erfüllt hat. Das selbst ein Tablet die Abwärme nicht abführen kann und nach Minuten(!) in einem normalen 3D-Programm(!) throttelt (OK, warme Umgebungstemperatur), ist wohl kaum von Anfang an geplant gewesen.
Beim 5410 hast Du eine abvoegelte Implementierung das ist dann etwas anderes; in allen anderen Faellen kann das Endresultat (ohne hw bugs) zwar vom eigentlichen Ziel (power target) schwanken aber die Schwankung ob nach oben oder unten ist so gering dass sie nicht der Rede wert ist. Anders unter normalen Bedingungen liegt man nicht ploetzlich um sagen wir mal 40-50% ausserhalb vom power target.
Am Rand es heisst fuer SFF mobile= PPA und eben in der Reihenfolge:
Power
Performance
Area
Weil schon der Exynos 5250 viel zu heiß wurde und wohl auch der Exynos 5410 relativ stark throttelt. Mehr erhältliche A15-Implementierungen sind mir nicht bekannt. Wenn alle throtteln drängt sich für mich der Verdacht auf, dass das Problem evtl. beim A15 liegt, der sein gestecktes Power Taget aus welchen Gründen auch immer verfehlt.
Wie gesagt der 5250 hat weder big.LITTLE noch eine companion core wie Tegra. Andes alles laeuft hier zwangsmaessig ueber die 2*A15 cores.
Waere ARM nicht bekannt gewesen wie stromhungrig A15 core sind haetten sie nie big.LITTLE entwickelt. Es war ergo ein Problem dass schon beim auslegen des A15 IP Konzepts bekannt war.
Eine logische Bruecke zum obrigen: area ist im insgesamten Bild verglichen zu Verbrauch und Leistung am wenigsten wichtig. NV hatte und hat aber nicht unbedingt den Luxus groessere SoCs zu entwickeln hoechstwahrscheinlich um den BOM zu reduzieren (steht aber auch zur Debatte offen).
Tegra4i sollte im Vergleich zum T4 um einiges besser dastehen, ergo kommt gleich nochmal die "daemliche" Frage von mir wieso NV nicht schon seit langem auf =/<mainstream SoCs gezielt hat sondern bisher nur teure high end tablet SoCs geliefert hat. NVIDIA ist sehr populaer auch in China; geb den Chinesen $5-$10 SoCs fuer billige smartphones und tablets und dazu in grossen Mengen und jegliches Mediatek wuerde sich schnell ueber die Schultern glotzen muessen.
In einem Markt wo man keinen Standfuss hat faengt man so klein wie moeglich an; wenn man sich dann etabliert haut man dann auch mit voller Pulle ein. Ich bin mir sicher dass Du die finanziellen Resultate fuer Tegra fuer das vergangene Quartal gesehen hast. Ich frag nochmal "quo vadis Jensen", denn wenn sie es NICHT schaffen sollte mit T4i den verlorenen Boden gutzumachen koennte es ziemlich gefaehrlich werden fuer 2014. Im gegebenen Fall ist das Problem bei NV IMHO dass das Management sofort zu extremen Loesungen kommt; sie hatten ein Fermi Problem vor X Jahren und man zog die Hosen runter vom Tegra team. Heute hat Tegra ein deutlicheres Problem ergo Hosen runter fuer mainstream PC GPU. Kann man keine feinere Balance haben damit eine der beiden Seiten nicht darunter zu extrem leiden muss?
Denn hier genau liegt mein groesstes Fragezeichen: bis jetzt macht NV mit ihren verrueckt hohen GPU Margen guten Gewinn und kann jeglichen Tegra Verlust kinderleicht decken. Vernachlaessigt man aber das erste eigentlich treibende Geschaeft tanzt man IMO Lambada auf einem Drahtseil.
Na mal sehen ob dieser Vergleich dann 2H 2014/Anfang 2015 noch so interessant ist.
Hab jetzt kurz nach A15 Nachfolger gesucht. Die A50 Serie mit A53 und A57 ist ja für 20nm und drunter gedacht.
http://abload.de/img/screen20shot202012-10exyju.png
Quelle: http://www.anandtech.com/show/6420/arms-cortex-a57-and-cortex-a53-the-first-64bit-armv8-cpu-cores
Dann heißt es A5x vs Tegra5.
ps. in diesem Zusammenhang find ich ganz interessant, das auf Folie 2 direkt von 2.4 und 4.4 Konzept geredet wird. Ich glaubt wir haben uns vor über einem Jahr mal über A15 und deren Strom hunger unterhaltet. Ob das eine Fehlentwicklung ist das ein Einzellner Kern nicht mehr generell auf wenig verbrauch getrimmt wird. Hier wird wohl von Anfang an auf ein Konzept mit Stromsparcores gesetzt.
Wer sagt dass es bei ARM A53/7 cores fundamental besser sein wird als bei den heutigen A15/7 cores? ARM's Angaben fuer die A5x cores liegen eher in den Frequenz-/Verbrauchs-relativen Reduzierungen die man fuer 28 auf 20nm ausrechnen koennte.
Nebenbei kotzt mich ARM und ihre interne Politik verdammt an. Selbst off the record darf keiner etwas sagen und bei Anfrage bekommt man stets den gleichen trockenen marketing Dreck aufgetischt wie der in oeffentlichen Folien. Im Gegensatz kann man von den NV Kerlen so manches off the record herausquetschen und das daemliche ist dann auch eben dass die jeweiligen engineers bei anderen IHVs auch verdammt ehrlich sind ueber jegliche Wehwehchen oder Probleme.
Es gibt kein falsches Konzept daran mehr die area FUER weniger Stromverbrauch zu opfern. Schau Dir NVIDIA's GK110 genauer an: dass Ding hat insgesamt 960 FP64 ALUs die unter normalen Umstaenden nur dumm herumhocken. NV war es lieber dass die chips etwas geworden sind als N% mehr Strom zu verbrauchen als mit einem 4:1, 3:1 oder 2:1 SP/DP ration aus den gleichen ALUs.
Undertaker
2013-08-10, 14:10:29
Anders unter normalen Bedingungen liegt man nicht ploetzlich um sagen wir mal 40-50% ausserhalb vom power target.
Das heißt, Tegra 4 soll von Anfang an mit der Notwendigkeit einer aktiven Kühlung geplant gewesen sein?
Wie gesagt der 5250 hat weder big.LITTLE noch eine companion core wie Tegra. Andes alles laeuft hier zwangsmaessig ueber die 2*A15 cores.
Waere ARM nicht bekannt gewesen wie stromhungrig A15 core sind haetten sie nie big.LITTLE entwickelt. Es war ergo ein Problem dass schon beim auslegen des A15 IP Konzepts bekannt war.
big.LITTLE ist irrelevant, wenn wir von Throttling unter Volllast reden. Das Konzept dient lediglich dazu, den höheren Verbrauch der A15-Kerne unter Leerlauf und Teillast abzufangen. Meine Spekulation war aber, dass der A15 unter Last sein ursprünglich geplantes Ziel verfehlt – und nochmal, darauf deuten für mich sowohl Tegra 4 als auch die beiden Exynos hin.
Ailuros
2013-08-10, 14:33:49
Das heißt, Tegra 4 soll von Anfang an mit der Notwendigkeit einer aktiven Kühlung geplant gewesen sein?
Project Shield bei seinem chalkboard design auf jeden Fall schon.
big.LITTLE ist irrelevant, wenn wir von Throttling unter Volllast reden. Das Konzept dient lediglich dazu, den höheren Verbrauch der A15-Kerne unter Leerlauf und Teillast abzufangen.
Ja und nein denn es ist alles verdammt relativ. Um so etwas zu beantworten muesste ich erstmal wissen ob ein 5410 oder jeglicher big.LITTLE SoC A15 oder A7 Kerne in einem der neuesten benchmarks fuer 3D z.B. einschaltet? Frag mal einen mobilen Spiel-entwickler was unter den meisten Faellen genau eingesetzt wird in Spielen. Ich bin zwar kein Profi aber mich hat schon mehr als einer Entwickler bis jetzt versichtert dass sie mit quadA7 bei ~800MHz durchaus klar kommen in Spielen.
Meine Spekulation war aber, dass der A15 unter Last sein ursprünglich geplantes Ziel verfehlt – und nochmal, darauf deuten für mich sowohl Tegra 4 als auch die beiden Exynos hin.
Ich hab bisher nur von Problemen mit Toshiba T4 tablets gelesen welches wie schon erwaehnt nicht das erste Mal ist mit Toshiba und vorigen Tegra SoCs. Fuer mich bleibt erstmal abzusehen ob es ein ausgekapseltes Toshiba Phaenomaen ist oder eher ein generelles Problem.
Du hast im 5250 uebrigens auch einen T604@533MHz der bis zu 4W verdonnern kann; hast Du in dem Fall einen maximalen Verbrauch von bis zu 8W fuer das Nexus10 ist wohl nicht nur die CPU der Suendenbock hier sondern eher 50-50 oder?
Nochmal bisherige T4 tablets haben alle CPU bei 1.8GHz und GPU bei 605MHz; nur im Shield sind es 1900/672MHz (bis jetzt).
***edit: uebrigens zum Thema winRT, Asus will nach Anand nichts mehr von winRT tablets wissen: http://www.anandtech.com/show/7213/asus-reports-disappointing-vivotab-rt-sales-stops-making-rt-tablets
dildo4u
2013-08-11, 14:55:08
Shield Test mit massig Benches.
http://www.eurogamer.net/articles/digitalfoundry-nvidia-shield-review
boxleitnerb
2013-08-11, 14:58:39
Wenn man sich die Ergebnisse so anschaut, sollte Tegra 4 nicht doch sehr effizient sein? Ich frage mich, warum Nvidia nicht den Takt massiv nach unten korrigiert, so dass man ähnliche Leistung wie die Konkurrenz hat, aber eben auch niedrigere TDP als vorher. Für Tablets und Phones jedenfalls.
dildo4u
2013-08-11, 15:14:10
Der Gegner ist ja der Snapdragon S800 nicht der S600 wie im dem Test,da dürfte T4 den Takt brauchen um vorne zu bleiben.
boxleitnerb
2013-08-11, 15:17:09
Wo ist der S600 drin?
dildo4u
2013-08-11, 15:21:01
GS4 und HTC One mit mehr Takt im S4.(1.9Ghz) Der S800 geht bis 2.3Ghz.
http://en.wikipedia.org/wiki/Snapdragon_%28system_on_chip%29#Snapdragon_600
boxleitnerb
2013-08-11, 15:30:05
Naja Tegra 4 ist ja überall deutlich vorne, da machen die ca. 20% mehr Takt beim S800 den Bock nicht fett. Nvidia könnte den Takt auf 1.5 GHz senken und wäre immer noch sehr gut dabei bei niedrigeren Spannungen und Verbrauch.
deekey777
2013-08-11, 16:16:34
...
fondness
2013-08-11, 16:24:50
Naja Tegra 4 ist ja überall deutlich vorne, da machen die ca. 20% mehr Takt beim S800 den Bock nicht fett. Nvidia könnte den Takt auf 1.5 GHz senken und wäre immer noch sehr gut dabei bei niedrigeren Spannungen und Verbrauch.
Der S800 ist nicht bloß ein Taktupdate. Außerdem ist der Vergleich ohnehin unfair, Tegar 4 hat in Shield eine aktive Kühlung und kann dadurch natürlich den Takt dauerhaft halten, während die anderen Chips wegen ihres TDP-Limits trotteln.
Neosix
2013-08-11, 16:29:27
S800 hat auserdem einen Adreno 330 GPU drin.
GPU
Updated Adreno 330 GPU delivers up to 50% increase in graphics performance [im Vergleich zum 320].
Support for advanced graphic and compute APIs, including OpenGL ES 3.0, DirectX, OpenCL, Renderscript Compute and FlexRender™3
boxleitnerb
2013-08-11, 16:34:54
Der S800 ist nicht bloß ein Taktupdate. Außerdem ist der Vergleich ohnehin unfair, Tegar 4 hat in Shield eine aktive Kühlung und kann dadurch natürlich den Takt dauerhaft halten, während die anderen Chips wegen ihres TDP-Limits trotteln.
Die Frage ist, wie sehr die throtteln bzw. wie groß der Einfluss der Kühlung letztlich wirklich ist. Ein Tegra mit 1.5 GHZ bräuchte wahrscheinlich gar keine aktive Kühlung mehr. Ich kann mir durchaus vorstellen, dass bei gleicher erlaubter/konfigurierter TDP S800 und Tegra 4 recht ähnlich performen.
fondness
2013-08-11, 16:39:52
Die Frage ist, wie sehr die throtteln bzw. wie groß der Einfluss der Kühlung letztlich wirklich ist. Ein Tegra mit 1.5 GHZ bräuchte wahrscheinlich gar keine aktive Kühlung mehr. Ich kann mir durchaus vorstellen, dass bei gleicher erlaubter/konfigurierter TDP S800 und Tegra 4 recht ähnlich performen.
Tegar 4 ist Lichtjahre von der Perf/Watt eines S800 entfernt. ;)
Die 1,8Ghz braucht man auch locker um mit den 2,3Ghz Krait 400 Kernen eines S800 gleichzuziehen. S800 hat allerdings eine TDP von 2.5-3W und deutlich mehr Features sowie die schnellere GPU.
boxleitnerb
2013-08-11, 18:26:42
Tegar 4 ist Lichtjahre von der Perf/Watt eines S800 entfernt. ;)
Die 1,8Ghz braucht man auch locker um mit den 2,3Ghz Krait 400 Kernen eines S800 gleichzuziehen. S800 hat allerdings eine TDP von 2.5-3W und deutlich mehr Features sowie die schnellere GPU.
Das solltest du mal belegen mit Benchmarks, wo gleichzeitig Takt und Verbrauch gemessen werden. In den Benchmarks sehe ich eine ca. 50% höhere CPU-Performance bei 1.9 GHz vs 1.9 GHz vs S600 (Geekbench). Wie stark der S600 gethrottelt wird (und ob das in dem Fall überhaupt passiert ist) bleibt unklar. Daher wäre ich mit solchen unbelegten Absolutaussagen vorsichtig. Laut Ronny145 gibt Qualcomm auch gar keine TDP für ihre SoCs an, wenn ich mich recht erinnere, eher eine SDP. Die verlinkten Benchmarks von Shield zeigen eine 50-100% höhere GPU-Performance für Tegra 4 als der S600. Leg 50% durch Adreno 330 drauf wie von Neosix verlinkt, das reicht höchstens für Gleichstand.
Black-Scorpion
2013-08-11, 18:36:28
Warum sollen eigentlich immer andere Beweise für ihre Aussagen bringen? Du spekulierst einfach ins blaue und bringst nicht einen Beweis dafür.
boxleitnerb
2013-08-11, 18:41:42
Das sagst du ja selbst - ich spekuliere, ich stelle hier keine Absolutaussagen auf. Wer das tut, sollte auch was in der Hinterhand haben. Können wir jetzt zum Thema zurück oder möchtest du mich weiter beschießen? Mach das doch per PN, wenn du den Drang verspürst.
mboeller
2013-08-11, 18:59:49
Weiß eigentlich wer, welches RAM beim Shield im Einsatz ist?
LautiFixit/Notebookcheck (http://www.notebookcheck.com/iFixit-Teardown-Nvidia-Shield.98652.0.html) ist folgendes RAM im Einsatz:
http://www.skhynix.com/products/computing/view.jsp?info.ramKind=19&info.serialNo=H5TC4G63AFR
Leider kenne ich mich mit der Nomenklatur beim RAM nicht so dass ich nicht sagen kann welche Geschwindigkeit im Einsatz ist.
Kann da wer weiterhelfen?
Ein paar Quellen behaupten ja, es wäre LP-DDR3-1866 Speicher im Einsatz. Wenn das stimmt hätte Shield natürlich eine ziemliche hohe Bandbreite zur Verfügung, oder?
y33H@
2013-08-11, 20:01:31
Die verbauten H5TC4G63AFR-RDA gehen theoretisch bis DDR3-1866 bei CL12.
Ailuros
2013-08-11, 21:10:49
Das solltest du mal belegen mit Benchmarks, wo gleichzeitig Takt und Verbrauch gemessen werden.
Was genau gibt es zu belegen wenn man gerade ein sagen wir mal aktiv gekuehltes tablet wie Shield (welches eben nicht mehr in die bis zu 5W TDP Kategorie gehoert sondern um einiges hoeher) gegen smartphone S800 SoCs vergleicht? Mit fan und Foen bekommt T4 bei voller Taktung und vollem TDP 24 fps in 1080p GLB2.7, waehrend ein S800 smartphone wie das GalaxyS4 bei 26 fps liegt. Nimmt man jetzt ein smartphone ohne industriellen Luefter mit T4 wie z.B. das Xiaomi M3 sind wir schon bei ca 16 fps welches im Vergleich zu den vorigen 26 einen Unterschied von ueber 62% ausmachen.
In den Benchmarks sehe ich eine ca. 50% höhere CPU-Performance bei 1.9 GHz vs 1.9 GHz vs S600 (Geekbench). Wie stark der S600 gethrottelt wird (und ob das in dem Fall überhaupt passiert ist) bleibt unklar. Daher wäre ich mit solchen unbelegten Absolutaussagen vorsichtig.
A15 ist Takt fuer Takt auch Leistungstaerker als ein jeglicher Krait, hat aber dafuer auch einen beschisseneres perf/mW ratio.
Laut Ronny145 gibt Qualcomm auch gar keine TDP für ihre SoCs an, wenn ich mich recht erinnere, eher eine SDP. Die verlinkten Benchmarks von Shield zeigen eine 50-100% höhere GPU-Performance für Tegra 4 als der S600. Leg 50% durch Adreno 330 drauf wie von Neosix verlinkt, das reicht höchstens für Gleichstand.
Na willkommen in der SFF Welt; kau Dich erstmal am obrigen fest, informier Dich etwas besser und dann koennen wir weiter darueber diskuttieren.
Smartphone SoCs liegen in allen Faellen im 2.5-3W Bereich; im Gegenfall wird so lange gethrottelt bis man auf dem Nivaeu liegt.
Sonst taktet bisher nur Shield bei 1900 CPU/672 GPU mit aktiver Kuehlung in der Kiste und einer bombastischen Batterie. Alle bisherigen tablets und smartphones die auf T4 basieren takten auf 1800/605. In GLB2.7 schwankt die Leistung der letzteren zwischen 16 und 17 fps waehrend nur Shield aus verstaendlichen Gruenden mit 24 fps ankommt. Mit der Logik kann ich einen heatsink und einen fan auf einen Adreno320 schnallen und ihn auf ueber 500MHz takten um der ULP GF im T4 den Hintern zu versohlen.
Hugo78
2013-08-11, 22:21:14
@Ailuros
Vom Xiaomi MI 3 gibt es doch noch gar keine Reviews?!
lastshady
2013-08-11, 23:25:40
@Ailuros
Vom Xiaomi MI 3 gibt es doch noch gar keine Reviews?!
Aber nach der Gl-Benchmark seite gibts doch genug tegra 4 resultate die zeigen,dass nur der shield mit seinem fan sich von den andere t4 absetzt.
Ailuros
2013-08-12, 10:23:22
@Ailuros
Vom Xiaomi MI 3 gibt es doch noch gar keine Reviews?!
Es gibt noch keine offiziellen GLB2.7 Resultate, aber frag mich was das folgende genau sein soll:
http://gfxbench.com/device.jsp?benchmark=gfx27&D=Xiaomi%20MI%203
Bei 1800/605MHz ist der Unterschied in GLB2.5 offscreen auch normal (Shield hat neuere Treiber):
http://gfxbench.com/compare.jsp?D1=Xiaomi+MI+3&D2=NVidia+Shield&cols=2
Dural
2013-08-12, 10:24:38
Ich sage schon seit dem Nexus 10 das ein Quad A15 in 28nm nicht für ein Smartphone geeignet ist. Bei diesem Gerät wurde dies ganz klar ersichtlich.
Ich behaupte jetzt sogar das der T4 wahrscheinlich sogar im Verhältnis sparsam ist, man es aber leider nichts sieht.
Es geht in 28nm eben halt nicht besser.
Qualcomm hat die viel sparsameren CPU Kerne, sieht man auch gut am hohen Takt. Wie um alles in der Welt will man so Rückschlüsse auf die GPU schlissen? Wenn die vier A15 Kerne schon fast das ganze TDP Budget auffressen... und ich kann euch eins sagen, T5 falls er in 28nm kommt, dürfte ziemlich sicher da auch ein Problem haben um sich in Smartphones platzieren zu können, NV bringt nicht ohne Grund einen T4i
Ailuros
2013-08-12, 10:38:07
Qualcomm hat die viel sparsameren CPU Kerne, sieht man auch gut am hohen Takt. Wie um alles in der Welt will man so Rückschlüsse auf die GPU schlissen? Wenn die vier A15 Kerne schon fast das ganze TDP Budget auffressen...
Na dann leg es mir mal schwarz auf weiss wieviel TDP jegliches Geraet genau hat und wieso nicht bis zur Haelfte von der GPU kommen soll.
und ich kann euch eins sagen, T5 falls er in 28nm kommt, dürfte ziemlich sicher da auch ein Problem haben um sich in Smartphones platzieren zu können, NV bringt nicht ohne Grund einen T4i
Wenn T5/tablet wieder mit 4+1 A15 kommt dann spricht theoretisch auch nichts gegen einen "T5i" mit 4+1 A9R4, eben beide lediglich hoeher getaktet.
robbitop
2013-08-12, 11:12:46
Ich gehe mal davon aus, dass ein Snapdragon ähnlich viel TDP hat wie ein A15, wenn er auf die gleiche Geschwindigkeit kommen soll. Im S4 sind 2,3 GHz Kerne enthalten (die nötig sind, um mit A15 Kernen von 1,9 GHz?? mithalten zu können).
Vorteil der Dinger ist halt, dass sie bei Teillast nicht so viel nehmen und man keine "Little" Kerne benötigt.
Ailuros
2013-08-12, 11:32:54
Es waere tatsaechlich schoen wenn reviewer zwei vergleichbare Geraete mit vollgeladener Batterie durch die exakt genau gleiche Routine ziehen wuerden, z.B. video, browsing und etwas 3D, bei jeglichem am Ende den Batteriezustand notieren und natuerlich auch insgesamt fuer den ganzen parcour. Vorraussetzung natuerlich dass display Helligkeit mit den richtigen Werkzeugen so gut wie moeglich angepasst werden. Wird wohl nicht sooo schwer sein.
Der weitere Vorteil ist dann eben auch dass IHVs fuer solche beliebige Faelle nicht so optimieren koennen wie in jeglichem synthetischem benchmark.
AffenJack
2013-08-12, 22:19:27
Wenn T5/tablet wieder mit 4+1 A15 kommt dann spricht theoretisch auch nichts gegen einen "T5i" mit 4+1 A9R4, eben beide lediglich hoeher getaktet.
Kommt ganz auf den Prozess an indem "T5i" kommen sollte. Da der wohl erst 2015 in Geräten zu finden sein sollte, könnte es sogar schon 20 nm werden und da könnte wiederrum A15 bei nicht zu hohen Taktraten schon möglich sein.
Ich gehe mal davon aus, dass ein Snapdragon ähnlich viel TDP hat wie ein A15, wenn er auf die gleiche Geschwindigkeit kommen soll. Im S4 sind 2,3 GHz Kerne enthalten (die nötig sind, um mit A15 Kernen von 1,9 GHz?? mithalten zu können).
Das ist durchaus die Frage, ob man A15 überhaupt so effizient kriegt. Anandtech hat ja gezeigt, dass der Exynos 5250 bei Vollast mit 2 A15 Kernen bei 1,7ghz fast 3mal soviel verbraucht wie 2 Krait-Cores mit 1,5ghz. Allerdings ist das natürlich schlecht vergleichbar, da unter anderem 32nm gegen 28nm. Nen Test S800 gegen 5420 wäre sehr interessant.
Es waere tatsaechlich schoen wenn reviewer zwei vergleichbare Geraete mit vollgeladener Batterie durch die exakt genau gleiche Routine ziehen wuerden, z.B. video, browsing und etwas 3D, bei jeglichem am Ende den Batteriezustand notieren und natuerlich auch insgesamt fuer den ganzen parcour. Vorraussetzung natuerlich dass display Helligkeit mit den richtigen Werkzeugen so gut wie moeglich angepasst werden. Wird wohl nicht sooo schwer sein.
Klingt nach einer wissenschaftlichen Testmethode mit einer Genauigkeit von +-50%. :biggrin:
Knuddelbearli
2013-08-13, 05:55:26
wie ist das eigebntlich bei handys wenn die am netz hängen. wird wie wie bei notebooks dann direkt der strom vom netzteil genommen oder wird dort immer die batterie ent und beladen?
falls ersteres könnte man es ja so testen
Skysnake
2013-08-13, 06:30:32
Gibt es beides, wie so oft. Alles technisch mögliche wird irgendwann auch mal von irgend jemand gemacht ;)
Heutzutage läufts meines Wissens nach aber im Allgemeinen so, dass der Akku außen vor bleibt, wenn man am NEtz hängt. Das soll ihn schonen. Früher wurde es aber zumindest zeitweise definitiv über den Akku gemacht. Daher kommt auch noch der Rat bei Laptops, denn Akku zu entfernen wenn man am Netz hängt, um ihn nicht fortwährend Lagezyklen aus zu setzen.
robbitop
2013-08-13, 09:05:13
Das ist durchaus die Frage, ob man A15 überhaupt so effizient kriegt. Anandtech hat ja gezeigt, dass der Exynos 5250 bei Vollast mit 2 A15 Kernen bei 1,7ghz fast 3mal soviel verbraucht wie 2 Krait-Cores mit 1,5ghz. Allerdings ist das natürlich schlecht vergleichbar, da unter anderem 32nm gegen 28nm. Nen Test S800 gegen 5420 wäre sehr interessant.
Der Exynos 5250 basiert nicht nur auf einem veralteten Prozess - es ist auch noch die erste Implementierung des A15. Da würde ich noch nicht all zu viel drauf geben.
Ailuros
2013-08-13, 10:16:18
Klingt nach einer wissenschaftlichen Testmethode mit einer Genauigkeit von +-50%. :biggrin:
Ich waere mit den Milchmaedchen-ergebnissen als Leser/Verbraucher besser informiert als mit den bisheringen unendlichen synthetischer benchmark Orgien.
Wie sieht denn das Prozentual bei Antutu aus oder besser was genau soll der Mist nochmal messen? :freak:
Ailuros
2013-08-15, 17:47:00
Und das Asus Eee Pad mit vollen Frequenzen wie Shield (1900/672MHz), erreicht aber nicht die Leistung vom letzten: http://gfxbench.com/device.jsp?benchmark=gfx27&D=Asus+Eee+Pad+%28Tegra+4%2C+retina%29&testgroup=system
Na warum wohl? :rolleyes:
Sonst supergaehn: http://www.xbitlabs.com/news/mobile/display/20130814230251_First_Nvidia_Tegra_4i_Based_Smartphones_Due_in_Calendar_2014_Chie f_Executive.html
fondness
2013-08-15, 17:54:11
Sonst supergaehn: http://www.xbitlabs.com/news/mobile/display/20130814230251_First_Nvidia_Tegra_4i_Based_Smartphones_Due_in_Calendar_2014_Chie f_Executive.html
LOL, war nicht der angebliche Grund für die Verschiebung von Tegra4 ein vorziehen von Tegra 4i?
Ailuros
2013-08-15, 17:55:54
LOL, war nicht der angebliche Grund für die Verschiebung von Tegra4 ein vorziehen von Tegra 4i?
Kann nicht sein; NV weiss und kann alles.
Skysnake
2013-08-15, 18:43:19
supergaehn: http://www.xbitlabs.com/news/mobile/display/20130814230251_First_Nvidia_Tegra_4i_Based_Smartphones_Due_in_Calendar_2014_Chie f_Executive.html
Das soll jetzt ein schlechter Scherz sein oder nicht??? :ugly:
Mal ganz im Ernst. Sie die DUMM? Hat denen einer ins Hirn geschissen?!?
Das Modem ist noch nicht zertifiziert, und die rechnen dieses Jahr nicht mehr mit Produktion, aber Februar-März mit ersten Handys??? Sicher?
Das Ding ist doch wieder total veraltet wenns raus kommt.... Genau wie mit ihrer tollen HDR-Bilder-Technik da, die die Konkurrenz sogar schneller in Geräten hatte wie sie selbst...
Meine Fresse, ich dachte das Modem ist durch... Die haben deswegen ja extra ne Firma gekauft... Und jetzt sowas... OMFG!
Wann soll denn dann T5i erst kommen??? 2015?
Gipsel
2013-08-15, 19:35:54
Ohne Zertifizierung können sie nichts verkaufen. Aber man kann zu nVs Gunsten annehmen, daß die Smartphone-Hersteller schon fleißig designen und auch nV schon vorher zu produzieren anfängt. Das ist ja so'ne Art Softmodem, sprich, man sollte alles per Firmware hinbiegen können, bis es paßt.
Skysnake
2013-08-15, 20:29:18
Sollte...
Ich sehs schon kommen, das irgendwas nicht passt. Kann mir eh nicht vorstellen, wie die ohne Analogkram auskommen wollen aber gut. Wir werden es sehen.
Dural
2013-09-04, 19:08:50
endlich kommt ASUS mit dem T4:
Neues Transformer Pad
http://www.computerbase.de/news/2013-09/asus-new-tranformer-pad-mit-tegra-4-und-dock/
17h Laufzeit mit dem Zusatz Akku, wenn ich mich richtig erinnere hat mein Transformer mit T3 auch etwa so viel.
Ailuros
2013-09-05, 08:43:21
endlich kommt ASUS mit dem T4:
Neues Transformer Pad
http://www.computerbase.de/news/2013-09/asus-new-tranformer-pad-mit-tegra-4-und-dock/
17h Laufzeit mit dem Zusatz Akku, wenn ich mich richtig erinnere hat mein Transformer mit T3 auch etwa so viel.
Bei 31+16= 47Wh kein besonderes Wunder; fragt sich nur 17h mit was genau :P
Dural
2013-09-05, 10:47:40
Mein Prime hat 25 + 22 = 47Wh also exakt gleich viel :)
Zudem ist die Display Auflösung deutlich geringer als beim neuen.
quelle: http://www.notebookcheck.com/Test-Asus-Eee-Pad-Transformer-Prime-TF201-Tablet-MID.69587.0.html
T4 ist wohl doch nicht so ein schluckspeckt wie es viele glauben möchten, zudem bei einem Tablet das Display mit Abstand am meisten Strom Verbraucht.
sicher wird er schon etwas mehr verbrauchen als ein T3, aber nichts was es nicht schon gibt.
Nvidia kommt mit der Produktion von Shield nicht hinterher
http://www.computerbase.de/news/2013-09/nvidia-kommt-mit-der-produktion-von-shield-nicht-hinterher/
:confused:
Mancko
2013-09-05, 11:02:38
http://www.computerbase.de/news/2013-09/nvidia-kommt-mit-der-produktion-von-shield-nicht-hinterher/
:confused:
Das ist Neuland für die. Ich würde das im Gesamtzusammenhang sehen. Bisher hatte Nvidia kein Direktgeschäft mit privaten Endverbrauchern. Vertriebs- und Servicestrukturen müssen bei Shield ganz anders aussehen als bei den anderen Nvidia Produkten. Insofern dürfte der Lernprozess wohl noch etwas dauern. Sollten sie aber auch an weiteren Endverbraucherprodukten wie z.B. einem Tablet arbeiten, dann hilft die bis dahin gemachte Erfahrung mit dem Testballon Shield natürlich schon.
Ailuros
2013-09-05, 11:06:55
Das ist Neuland für die. Ich würde das im Gesamtzusammenhang sehen. Bisher hatte Nvidia kein Direktgeschäft mit privaten Endverbrauchern. Vertriebs- und Servicestrukturen müssen bei Shield ganz anders aussehen als bei den anderen Nvidia Produkten. Insofern dürfte der Lernprozess wohl noch etwas dauern. Sollten sie aber auch an weiteren Endverbraucherprodukten wie z.B. einem Tablet arbeiten, dann hilft die bis dahin gemachte Erfahrung mit dem Testballon Shield natürlich schon.
Ich bin mir sicher dass NV andersrum den Luxus haben wuerde eine Uebermenge von Shield Geraeten herzustellen nur damit sie am Ende auf diesen sitzen bleiben. Natuerlich ist die gesamte Herstellung so verdammt gering wie auch moeglich; so daemlich ist NV nun auch wieder nicht.
Dural
2013-09-05, 11:07:10
naja, für mich hört sich das eher so an: "die dinger will keiner" :rolleyes:
das Gerät für sich finde ich ja noch OK, aber der Preis dürften sehr vielen einfach zu viel sein.
Ailuros
2013-09-05, 11:12:07
naja, für mich hört sich das eher so an: "die dinger will keiner" :rolleyes:
Ist doch wurscht im gegebenen Fall; hauptsache sie verkaufen alles was sie herstellen.
das Gerät für sich finde ich ja noch OK, aber der Preis dürften sehr vielen einfach zu viel sein.
Jetzt ehrlich wieso sollte sich heutzutage jemand nach einer jeglichen handheld Konsole oder Derivat umdrehen wenn es so viele tablet Angebote gibt die auch mehr koennen als nur Spiele spielen?
Dural
2013-09-05, 11:15:08
ganz einfach: die Steuerung!
zudem dürfe es ziemlich sicher viel besser in der Hand liegen als alle Tablet und Smartphone die es so gibt.
Skysnake
2013-09-05, 11:16:54
Ich bin mir sicher dass NV andersrum den Luxus haben wuerde eine Uebermenge von Shield Geraeten herzustellen nur damit sie am Ende auf diesen sitzen bleiben. Natuerlich ist die gesamte Herstellung so verdammt gering wie auch moeglich; so daemlich ist NV nun auch wieder nicht.
Mich würde eher interessieren, ob Sie überhaupt schon die Vorbestellungen ausgeliefert haben...
robbitop
2013-09-05, 11:37:59
Shield ist IMO sowieso nur wegen der Fernsteuerung des PCs interessant. Die Casual Games kann man eh in der Pfeife rauchen. Aber im Bett eine Runde AAA PC Games zu spielen, ist schon verdammt lässig.
IMO sind 5" aber fast ein bisschen wenig dafür.
Ailuros
2013-09-05, 12:05:59
Shield ist IMO sowieso nur wegen der Fernsteuerung des PCs interessant. Die Casual Games kann man eh in der Pfeife rauchen. Aber im Bett eine Runde AAA PC Games zu spielen, ist schon verdammt lässig.
IMO sind 5" aber fast ein bisschen wenig dafür.
Kein Wunder dass in den westlichen Laendern die Bevoelkerungs-raten NICHT steigen :biggrin:
Badner1972
2013-09-05, 12:38:27
Kein Wunder dass in den westlichen Laendern die Bevoelkerungs-raten NICHT steigen :biggrin:
Lach ,der war gut!! Es steckt aber auch ein kleiner Funken Wahrheit mit drin:wink:
Ailuros
2013-09-05, 12:52:00
Lach ,der war gut!! Es steckt aber auch ein kleiner Funken Wahrheit mit drin:wink:
Es steckt mehr als nur ein kleiner Funken daran; NV haette ein Shield fuer $99 entwickeln sollen nur fuer Indien und China. Die koennen es auch mehr brauchen und dabei waere der Name des Produkts noch angebrachter. Ob und wie es die Verkaufsraten fuer Kondome beinflussen wuerde in solch einem Fall kann man wohl schwer einschaetzen.
tobor
2013-09-07, 21:41:18
Jetzt ehrlich wieso sollte sich heutzutage jemand nach einer jeglichen handheld Konsole oder Derivat umdrehen wenn es so viele tablet Angebote gibt die auch mehr koennen als nur Spiele spielen?
Weil Tatschskriensteuerung kein Ersatz für einen Controller ist?
Ailuros
2013-09-07, 21:42:49
Weil Tatschskriensteuerung kein Ersatz für einen Controller ist?
Erklaer das mal der Mehrzahl der Verbraucher denn es sind anscheinend diese die damit nicht uebereinstimmen.
aufkrawall
2013-09-07, 21:46:29
Erklaer das mal der Mehrzahl der Verbraucher denn es sind anscheinend diese die damit nicht uebereinstimmen.
Gibt die Geld für Spiele aus?
Chinesen jedenfalls schon mal nicht.
Ailuros
2013-09-07, 21:51:13
Gibt die Geld für Spiele aus?
Chinesen jedenfalls schon mal nicht.
Es war keine Trickfrage; ich wuerde denken dass jeder hier die Antwort schon schon weiss. Egal ob die Ergonomie auf tablets/smartphones bekloppt ist, seit diese in Massen erschienen sind u.a. auch 3D tauglich sind hat der handheld Konsolen Markt abgenommen. Ich kann selber nicht anstaendig ein Spiel auf den Dingern spielen entweder mit der daemlichen Daumendrueckerei oder tilt vom Geraet weil ich wohl zu stark an keyboard/mice/wheels bin und zu alt :P Ich hab aber auch nie etwas von handhelds generell gehalten.
aufkrawall
2013-09-07, 22:09:37
Ich hab vor dem Smartphone gar nicht mobile gezockt (nur als Kind halt Nintendo), in meinem Fall wurd also nix verdrängt. Schätze mal, das ist meist so. Find den Tatsch-Fummel aber auch suboptimal, im Vergleich würd ich immer lieber mit was Pad-Ähnlichem spielen. Nur hätt ich das halt nicht dabei und würd es auch nicht extra kaufen, ist somit wieder sinnbefreit.
Sich mit nem Tablet zum Zocken auf der Couch lümmeln ist auch was für Rentner. Mag sein, dass das zunehmend gemacht wird, aber wie viele der Spiele dafür sind ähnlich ertragreich wie AAA-Multiplatformer?
Ist doch ein ekelhaft langweiliger Markt und eine Blase ist eine Blase...
http://finance.yahoo.com/echarts?s=ZNGA+Interactive#symbol=znga;range=2y;compare=;indicator=volume;chartt ype=area;crosshair=on;ohlcvalues=0;logscale=off;source=undefined;
Würde dem Markt nach meinem subjektiven Empfinden jetzt nicht die Riesenzukunft geben, wie es der Hype manchmal erscheinen lässt.
So was wie BF4 wird uns auf dem PC sicherlich noch lange erhalten bleiben und Crowdfunding-Titel werden die Platform auch auf.
Die Girlies sind eh zu dusselig, für ihre Farm ne Mikrotransaktion durchzuführen. :tongue:
Ne AAA-Produktion will ich auch nicht auf nem Zwergen-Display spielen/streamen, ist immersionstechnisch doch ein Irrläufer.
Nur ne Krücke, bis VR massentauglicher ist.
Hugo78
2013-09-07, 22:15:02
endlich kommt ASUS mit dem T4:
Neues Transformer Pad
http://www.computerbase.de/news/2013-09/asus-new-tranformer-pad-mit-tegra-4-und-dock/
17h Laufzeit mit dem Zusatz Akku, wenn ich mich richtig erinnere hat mein Transformer mit T3 auch etwa so viel.
Mein Prime hat 25 + 22 = 47Wh also exakt gleich viel :)
Zudem ist die Display Auflösung deutlich geringer als beim neuen.
quelle: http://www.notebookcheck.com/Test-Asus-Eee-Pad-Transformer-Prime-TF201-Tablet-MID.69587.0.html
T4 ist wohl doch nicht so ein schluckspeckt wie es viele glauben möchten, zudem bei einem Tablet das Display mit Abstand am meisten Strom Verbraucht.
sicher wird er schon etwas mehr verbrauchen als ein T3, aber nichts was es nicht schon gibt.
So "Pi mal Daumen" eher sogar weniger als T3, denn das bessere Display hat bisher immer mehr verbraucht.
Ich kenn jedenfalls kein Gerät, wo ein pixelstärkeres Display weniger verbraucht, ausser man verbaut OLED statt LCD.
Nur ne Krücke, bis VR massentauglicher ist.
Das ist der Punkt.
Wenn VR sich durchsetzt (im ausgereifen Slim design) und Handys auch mal wieder ne handvoll Knöpfe haben dürfen zum spielen, schaut die Welt ganz anders aus.
Ailuros
2013-09-08, 08:58:32
Würde dem Markt nach meinem subjektiven Empfinden jetzt nicht die Riesenzukunft geben, wie es der Hype manchmal erscheinen lässt.
So was wie BF4 wird uns auf dem PC sicherlich noch lange erhalten bleiben und Crowdfunding-Titel werden die Platform auch auf.
Die Girlies sind eh zu dusselig, für ihre Farm ne Mikrotransaktion durchzuführen. :tongue:
Ne AAA-Produktion will ich auch nicht auf nem Zwergen-Display spielen/streamen, ist immersionstechnisch doch ein Irrläufer.
Nur ne Krücke, bis VR massentauglicher ist.
Wenn der Markt keine Zukunft hat dann werden aber die meisten grossen Semis gewaltig schrumpfen am Ende, NV inklusive eben weil es keinen logischen Ausweg geben wird dass jeweilige Firmen weiterwachsen wuerden. Den Fehler den Du hier machst ist Dich ausschliesslich auf 3D Spielchen und Kiddo-Kram zu konzentrieren und das ist dann eben alles wofuer man eine GPU im SFF mobile Markt braucht? Falsch.
Tablets/smartphones haben nicht nur die Verkaufszahlen fuer handhelds reduziert sondern ueberhaupt smartphones radikal den Markt von billig digi-cams. Frueher oder spaeter wird der letzte auch sich so stark reduzieren dass er keine besonderen Investitionen mehr wert sein wird. Hersteller werden sich halt eben hauptsaechlich auf teure high end/Profi-Loesungen begrenzen muessen. Und ja man braucht sehr wohl eine GPU dafuer und sogar zunehmend da imaging eben ein gutes Gebiet fuer GPU compute und ergo GPGPU sein wird.
Lediglich nur ein Beispiel von vielen, aber die Welt wird zunehmend mobil werden und waehrend vor einem Jahrzehnt Handys es noch schwer hatten einfachen Text zu bearbeiten sind smartphones heute sogar leistungsfaehiger und effizienter als die PCs der Zeit.
Fuehrt der SFF Strom in eine Sackgasse kannst Du schon jetzt beruhigt NV's Licht ausknipsen denn mit den PC/HPC GPU Verkaufsraten der Zukunft werden sie NICHT ueberleben koennen, eben weil auch PC/notebook SoCs zunehmend groesser werden werden und es noch ein weiterer Kopfschmerz fuer standalone GPUs sein wird.
Sonst wird das high end tablet der Zukunft sogar als Werkzeug eines Profi dienen einem Kunden z.B. ein CAD Resultat zu praesentieren, eben weil man es in so kleine form factor dann quetschen koennen wird. Der naechste hw Schrei fuer SFF SoC mobile ist ray tracing in den GPUs und nein tut mir leid nichts davon ist eine Uebertreibung.
Skysnake
2013-09-08, 10:47:53
Fuehrt der SFF Strom in eine Sackgasse kannst Du schon jetzt beruhigt NV's Licht ausknipsen denn mit den PC/HPC GPU Verkaufsraten der Zukunft werden sie NICHT ueberleben koennen, eben weil auch PC/notebook SoCs zunehmend groesser werden werden und es noch ein weiterer Kopfschmerz fuer standalone GPUs sein wird.
Standalone GPU hat selbst im HPC-Bereich keine echte Zukunft. Auch da wird man SOCs reinen dGPUs vorziehen.
mboeller
2013-09-08, 16:16:05
Standalone GPU hat selbst im HPC-Bereich keine echte Zukunft. Auch da wird man SOCs reinen dGPUs vorziehen.
Fehlt dafür nicht ein effizienter Bus um die einzelnen SOC's zu "verschalten"? IMHO fehlt ein Nachfolger für HT3.
Skysnake
2013-09-08, 16:35:39
HT ist tot. Mich würde es schwer überraschen, wenn da noch was kommen sollte.
Ansonsten gibt es ja QPI von Intel, was im Prinzip ja auf PCI-E aufsetzt auf der physikalischen Ebene, und AMD wird sicherlich was ähnliches bringen.
Aktuell kann man über HT ja auch PCI-E tunneln. Also von daher ist der Schritt ja nicht groß. Die Interfaces dürfen ja durchaus propritär sein. Intel juckt es ja eh nicht.... :down:
Von daher stellt sich die Frage nicht. AMD muss ja irgendwas bringen für ihre CPUs, das kannste auch in die SOCs packen, und wenn du lustig bist auch in die dGPUs...
Intel könnte XeonPhi auch mit QPI ausstatten. Dann würde das Ding halt nur mit ihren CPUs laufen. So what.
Avalox
2013-09-09, 00:29:50
Und das Asus Eee Pad mit vollen Frequenzen wie Shield (1900/672MHz), erreicht aber nicht die Leistung vom letzten: http://gfxbench.com/device.jsp?benchmark=gfx27&D=Asus+Eee+Pad+%28Tegra+4%2C+retina%29&testgroup=system
Bin ja echt überrascht. Microsofts neuer RT Versuch nutzt scheinbar auch einen Tegra 4.
OgrEGT
2013-09-09, 06:36:38
Der naechste hw Schrei fuer SFF SoC mobile ist ray tracing in den GPUs und nein tut mir leid nichts davon ist eine Uebertreibung.
Wie soll das denn gehen? Oder besser gefragt wann? Um das in ordentlicher Auflösung zu schaffen benötigt man für die Rechenleistung Unmengen an Strom... Das lezte System an das ich mich erinnere benötigte für Q4 in HD 2 3Ghz Xeon Quadcores...
Oder meinst Du Cloud RT?
AffenJack
2013-09-09, 08:20:59
Wie soll das denn gehen? Oder besser gefragt wann? Um das in ordentlicher Auflösung zu schaffen benötigt man für die Rechenleistung Unmengen an Strom... Das lezte System an das ich mich erinnere benötigte für Q4 in HD 2 3Ghz Xeon Quadcores...
Ailuros glaubt an die schönen Marketingfolien von IMG und das Durchsetzen deren Raytracing Beschleunigers. Ich habe da auch meine Zweifel.
mboeller
2013-09-09, 08:22:05
Wie soll das denn gehen? Oder besser gefragt wann? Um das in ordentlicher Auflösung zu schaffen benötigt man für die Rechenleistung Unmengen an Strom... Das lezte System an das ich mich erinnere benötigte für Q4 in HD 2 3Ghz Xeon Quadcores...
Oder meinst Du Cloud RT?
guckst du hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9899896&postcount=79
Ailuros
2013-09-09, 11:27:47
Ailuros glaubt an die schönen Marketingfolien von IMG und das Durchsetzen deren Raytracing Beschleunigers. Ich habe da auch meine Zweifel.
RT liegt unter Entwicklung fuer die naechste GPU Generation. Es ist noch nichtmal die heute Serie6 richtig erschienen ergo wohl erst 3-4 bis zur Ankuendigung der naechsten Serie7 Generation und Integrierung auf keinen Fall vor 6 Jahre von heute.
Apple meckert schon heute und falls es IMG es nicht schaffen sollte, lizenzieren sie halt wo anders. Ich glaube selber gar nichts ich weiss was IMG's Kunden haben wollen, und dagegen gibt es nichts einzuwenden. Ob es jetzt von IMG oder NV im gegebenen Fall kommt ist scheissegal.
Nebenbei wurden die chips fuer die Caustic Schleudern fuer workstations unter 90nm hergestellt. Bis zu <16nm kann man das Zeug schon relativ locker in SFF GPU ALUs packen.
***edit:
Mist sogar frueher als ich dachte... :P
http://www.tomshardware.com/reviews/powervr-mips-stanford-arm,3602-3.html
It was also revealed that future Rogue GPUs will include Ray Tracing technology via a Hardware Ray Tracing Unit (RTU) to allow for the dynamic handling of lighting effects. In addition to potential benefits to realism, Imagination says the RTU will help enable no-compromise GPU compute, as the graphics core handles rendering and general-purpose processing. The addition of this feature is a direct reflection of Imagination's view that the GPU is the coming decade's silicon process driver, will occupy up to 50 percent of leading-edge SoCs, and offer performance that scales linearly with area. Sounds like the opinion of a few other companies we cover...
Sieht aus als ob Apple's Druck und Drohungen sich doch durchgesetzt haben.
Gaestle
2013-09-09, 12:44:34
Sind die Tegra-Treiber eigentlich so gut (und die Qualcomm-Treiber so schlecht), dass es unter WinRT auf einen Gleichstand zwischen S800 und T4 kommt?
Ailuros
2013-09-09, 12:55:50
Sind die Tegra-Treiber eigentlich so gut (und die Qualcomm-Treiber so schlecht), dass es unter WinRT auf einen Gleichstand zwischen S800 und T4 kommt?
QCOMs Treiber haben leider immer noch etwas das Nachsehen wenn es zu windows kommt; der Adreno330 taktet im Nokia Geraet wohl schwer auf vollen 450MHz sondern um etwas weniger. T4 liefert weniger Leistung im Surface2 als "Wayne" wobei aber beim letzten die GPU bei nur 340MHz taktete.
Gaestle
2013-09-09, 16:00:31
QCOMs Treiber haben leider immer noch etwas das Nachsehen wenn es zu windows kommt; der Adreno330 taktet im Nokia Geraet wohl schwer auf vollen 450MHz sondern um etwas weniger. T4 liefert weniger Leistung im Surface2 als "Wayne" wobei aber beim letzten die GPU bei nur 340MHz taktete.
T4 liegt unter T3? Oder ist das ein Tippfehler? "Wayne" ist doch T4, oder?
Die Qualcomm-Treiber wirken also (auch) auf die Frequenz. Aber wenn ein Tablet mit S800 und T4 zur Auswahl steht, und alles in der Nähe einer Steckdose stattfindet, was wäre die bessere Wahl?
robbitop
2013-09-09, 16:45:29
Was will Apple denn mit Raytracing? Und vor allem im SFF? Das spielt doch heute (außerhalb vom Rapid Prototyping für die Produktentwicklung) praktisch keine Rolle.
Avalox
2013-09-09, 22:11:01
Sind die Tegra-Treiber eigentlich so gut (und die Qualcomm-Treiber so schlecht), dass es unter WinRT auf einen Gleichstand zwischen S800 und T4 kommt?
Sieht eher so aus, als ob der Abstand auch bei nVidia gewahrt bleibt.
http://www.abload.de/img/surfwyot8.png
Hugo78
2013-09-09, 23:12:43
Na ja das Surface 2 kommt erst am 23. September.
- http://www.computerbase.de/news/2013-09/microsoft-laedt-zur-vorstellung-des-surface-2/
Diese Pre-Release Benches haben bei NV selten aussagekraft, wo NV doch oft auf den Punkt genau erst mit optimierten Treibern kommt.
Shield benutzt Android, Surface 2 Win RT, also Vergleichbarkeit schaut anders aus.
Gaestle
2013-09-10, 08:35:48
Es wird vermutlich vor allem andere Gründe haben:
Wer sich nun wundert, warum der NVIDIA-Chipsatz, anders als zuletzt beispielsweise in der SHIELD-Konsole oder im auf dem MWC gezeigten Referenz-Tablet, im ASUS-Tablet nicht ganz so rennt, dem sei erklärt, das NVIDIA bei der SHIELD — wie von uns vermutet — designtechnisch tun konnten, was für die Entfaltung des vollen Leistungspotenzials notwendig war. So wird SHIELD beispielsweise aktiv gekühlt, was in aktuellen Tablets nicht mehr zum Standard gehört (mal abgesehen vom Surface Pro).
Quelle: http://www.androidnext.de/news/nvidia-shield-tegra-4-ifa-2013/
Aktive Kühlung heißt Taktschraube.
Außerdem kommt SHIELD anscheinend sowieso nur in homöophatischen Dosen. Dann kann man nicht nur takten, sondern auch noch selektieren. Das lohnt sich vor allem dann, wenn man SHIELD weniger als Produkt, sondern mehr als Marketing interpretiert.
Im selben Artikel wird für das (Android?)-TransformerPad mit Tegra4 ein AnTuTu-Wert von ca. 30K ausgespuckt. Mit dem S800 sollen es (laut dem selben Artikel) 34K sein. D.h. der Unterschied liegt in dem Beispiel bei ca. 10%. Nun ist die Frage, wie repräsentativ AnTuTu eigentlich für die gesamte Systemleitung ist (und wie stark die IHVs für einzelne Benchmarks optimieren) und ob diese 10% aufgrund der möglicherweise unterschiedlichen Treiberqualität bei WinRT verschwinden.
Ailuros
2013-09-10, 09:06:44
Was will Apple denn mit Raytracing? Und vor allem im SFF? Das spielt doch heute (außerhalb vom Rapid Prototyping für die Produktentwicklung) praktisch keine Rolle.
Was will den Microsoft mit Tessellation in Handys genau und welches der beiden ist weniger oder mehr absurd? Als ich vor einiger Zeit noch glaubte dass RT erst mit Serie7 kommen wuerde meinte Demirug im Technologie Forum dass es "zu spaet" sei.
Der ueblichen Daemlichkeit zu Liebe: kann die Logan GPU schon ein guten Schuss ray tracing oder nicht? Und wie schon IMG selber in ihrem whitepaper behauptet: wenn RT keinen einzigen Stromverbrauch-Vorteil bringen sollte dann ist man auch schoen daemlich es ueberhaupt zu implementieren.
Sieht eher so aus, als ob der Abstand auch bei nVidia gewahrt bleibt.
http://www.abload.de/img/surfwyot8.png
Wayne ergo T4 taktet in dem windows8 Test hier bei halber GPU Frequenz:
http://gfxbench.com/device.jsp?benchmark=gfx27&D=NVidia+Tegra+4+%28Wayne%29&testgroup=overall
Beim 330 ist es eben NICHT die halbe Frequenz.
Gaestle
2013-09-10, 09:46:21
Wayne ergo T4 taktet in dem windows8 Test hier bei halber GPU Frequenz:
http://gfxbench.com/device.jsp?benchmark=gfx27&D=NVidia+Tegra+4+%28Wayne%29&testgroup=overall
Beim 330 ist es eben NICHT die halbe Frequenz.
Wird es bei T4 in Tablets auch in Zukunft bei (etwa) der halben Frequenz bleiben, oder sehen wir eher die normalen T4-Frequenzen?
Ailuros
2013-09-10, 10:00:59
Wird es bei T4 in Tablets auch in Zukunft bei (etwa) der halben Frequenz bleiben, oder sehen wir eher die normalen T4-Frequenzen?
Alle bisherigen echte T4 tablets takten bei 1800MHz CPU und 605MHz GPU. Ich kann mir keinen Grund vorstellen warum Microsoft brutal runtertakten wuerde ausser sie wollen nur eine <2000mAH Batterie verbauen.
Es sind Testlaeufe fuer Adreno330 und T4 fuer winRT bis jetzt und dafuer ist die volle Frequenz nicht notwendig.
robbitop
2013-09-10, 10:16:10
Raytracing ist noch sinnfreier als Tesselation. Ersteres wird IMO wesentlich länger nicht zum Einsatz kommen. Ist das so ein Checklistfeature, was jetzt in die Geräte soll?
Ailuros
2013-09-10, 10:32:31
Raytracing ist noch sinnfreier als Tesselation.
Es ist alles "Bloedsinn" und "Ueberfluss" bis jemand ankommt und angibt fuer was A, B oder C sinnvoll sein kann. Ich bin selber ratlos momentan, aber ich kann mir schwer vorstellen dass jetzt ploetzlich alle spinnen und mit hw nur so herumschmeissen. Im Fall von Microsoft ist das gesamte DX11.2 API im Ueberschuss im Vergleich zu OGL_ES3.0 welches irgendwo auf DX10 Nivaeu liegt; nur weil M$ ihre OSs bald vereinen will muss der hw Zusatz auch in SFF GPUs.
Ersteres wird IMO wesentlich länger nicht zum Einsatz kommen. Ist das so ein Checklistfeature, was jetzt in die Geräte soll?
Ja IMG, NV und womoeglich auch andere haben nichts besseres zu tun als ihre Architekturen mit unnuetzem Scheiss aufzupumpen dass keiner brauchen wird.
IMG behauptet in dem whitepaper hier: https://97da0272-a-62cb3a1a-s-sites.googlegroups.com/site/raytracingcourse/Low%20Power%20Raytracing.pdf?attachauth=ANoY7comCxTKiddbtZD5P2qfQ9PSOSFasGkk8RIp VPbWZDfrYdunio_c5oGZ-v-ORzFsZ7nxE_Sp8_WBUPFyx9qBiP-uE90fDsZyEsoSvnt8Rh470LxnJV5NU1vK-MTxC5pdLdzEzffx90FmT25h9p2Ph_VolswX-S2a3_Iz2V4JtHAyS1NxRpxzLSfjw5boCgDsJyXTDwWnSeQS2heYqOmtpn3esmU1-iFKJQAqIJ9GY8l3ueUxpKo%3D&attredirects=0
dass fuer manche Effekte RT billiger ist als multipass rasterizing. Es steht auch nichts absurdes sonst in den slides und in einem dieser sieht uebrigens schoen dass TEX in der USC ALU steckt (wofuer Du vor einiger Zeit gefragt hast ob es irgendwo eine Indizie dafuer gibt), wobei manche slides sogar ziemlich viel ueber die Rogue pipeline verraten ;)
Skysnake
2013-09-10, 10:39:25
Kann man sich mit RT nicht viele FFUs aus der normalen Rasterizer Pipeline sparen?
Ailuros
2013-09-10, 10:44:12
Dumme aber ehrliche Frage: FFU steht fuer?
robbitop
2013-09-10, 10:50:56
Fixed Function Units.
Ailuros
2013-09-10, 10:54:38
Fixed Function Units.
LOL offensichtlicher geht's gar nicht; warum nicht For Future Use? :D
Spass beiseite Skysnake an welchen ff Einheiten wuerde RT genau sparen?
Skysnake
2013-09-10, 11:12:00
Keine Ahnung, ich bin in der RT-Pipeline nicht drin, da es ja aber durchaus brauchbare Softwarelösungen gibt, gibt es sicherlich etwas, was man weglassen kann.
Wie gesagt, es war eine ehrlich gemeinte Frage! Ich kenn mich mit Hardware RT da einfach überhaupt nicht aus.
Wenn man viele FFUs weglassen kann, drängt sich aber halt der HSA Anzatz an, wobei GPU und CPU dann eben im Optimalfall völlig transparent für den Entwickler/Nutzer sind.
Unter dem HSA Gedanke kann RT durchaus deutlich sinnvoller sein, weil man eventuell einiges an FFUs einsparen kann. Was besseres fällt mir allerdings auch nicht ein.
OgrEGT
2013-09-11, 02:23:49
Sorry for OT
Mal ne vlt blöde Frage. Wieviele Rechenoperationen sind für ein RT gerendertes Bild notwendig (bsp Q4) in HD bei 60Fps? Welche Rechenleistung wird ergo für RT benötigt und welche Hardware kann diese wie effizient bei welchem Stromverbrauch bereit stellen?
Wie weit sind wir also von RT auf aktuellen GPUs entfernt?
mboeller
2013-09-11, 07:17:45
Mist sogar frueher als ich dachte... :P
http://www.tomshardware.com/reviews/powervr-mips-stanford-arm,3602-3.html
Vielleicht sind IMG und Apple ja auf das hier scharf:
It was also revealed that future Rogue GPUs will include Ray Tracing technology via a Hardware Ray Tracing Unit (RTU) to allow for the dynamic handling of lighting effects. In addition to potential benefits to realism, Imagination says the RTU will help enable no-compromise GPU compute, as the graphics core handles rendering and general-purpose processing. The addition of this feature is a direct reflection of Imagination's view that the GPU is the coming decade's silicon process driver, will occupy up to 50 percent of leading-edge SoCs, and offer performance that scales linearly with area. Sounds like the opinion of a few other companies we cover...
Wenn die GPU bei GPGPU wesentlich effizienter werden sollte ist das doch auch ein guter Grund für die RTU unit. Raytracing ist dann nur der "Aufhänger".
Ailuros
2013-09-11, 08:47:03
Vielleicht sind IMG und Apple ja auf das hier scharf:
Wenn die GPU bei GPGPU wesentlich effizienter werden sollte ist das doch auch ein guter Grund für die RTU unit. Raytracing ist dann nur der "Aufhänger".
Koennte durchaus sein; zwar hat ray tracing mit ray casting nichts direkt zu tun aber wenn man schon mit rays "herumschiesst" ist der Weg auch nicht mehr sooo lang. Genug aber mit dem IMG OT, mir geht es hauptsaechlich ueber die Zukunft und ob NV in der Logan GPU auch schon RT hat u.a.\
Am Rand Logan soll wieder auf A15 setzen aber diesmal unter der R4 Revision und 28HPM. Wenn alles nach Plan gelaufen ist koennte man sogar den Vorteil eines ganzen process node genueber der heutigen Generation quetschen.
Hugo78
2013-09-18, 17:57:25
Nvidia zeigt Tegra Note als Grundlage für Android-Tablets
http://www.hardwareluxx.de/index.php/news/consumer-electronics/tablets/27922-nvidia-zeigt-tegra-note-als-grundlage-fuer-android-tablets.html
Ailuros
2013-09-18, 21:28:40
Nvidia zeigt Tegra Note als Grundlage für Android-Tablets
http://www.hardwareluxx.de/index.php/news/consumer-electronics/tablets/27922-nvidia-zeigt-tegra-note-als-grundlage-fuer-android-tablets.html
Muss ich das jetzt zu den design wins dazuzaehlen oder nicht? :weg:
Hugo78
2013-09-19, 21:57:46
Das ist dir überlassen.
Aber apropos design win, HP hat noch zwei neue T4 Tablets am Start.
Ein 7" auf Basis von Tegra Note und ein 8".
http://www.notebookcheck.com/HP-Android-Tablets-HP-Slate-7-Extreme-Slate-7-HD-Slate-8-Pro-und-Slate-10-HD-sowie-Omni-10-und-Pavilion-11-x2-mit-Windows.102142.0.html
Blediator16
2013-09-19, 23:42:57
Naja HP kann man nicht unbedingt zu den festen Größen im Tab Geschäft zählen.
Hugo78
2013-09-20, 00:07:19
Wenns danach geht sind alle außer Samsung und Apple unwichtig.
Dural
2013-09-20, 09:32:58
Mit einem halben Jahr Verspätung kommen die ersten Tablets, Toll :freak:
Ich warte T5 ab und hoffe das es da besser klappen wird (endlich mal)
Nur T3 war pünktlich und zu gleich NV grösster Erfolg bis jetzt, da sollte NV doch ein Licht aufgehen ;)
Ailuros
2013-09-20, 11:39:00
Das ist dir überlassen.
Aber apropos design win, HP hat noch zwei neue T4 Tablets am Start.
Ein 7" auf Basis von Tegra Note und ein 8".
http://www.notebookcheck.com/HP-Android-Tablets-HP-Slate-7-Extreme-Slate-7-HD-Slate-8-Pro-und-Slate-10-HD-sowie-Omni-10-und-Pavilion-11-x2-mit-Windows.102142.0.html
Ein paar hundert tausend fuer jeden von diesen ja und?
Wenns danach geht sind alle außer Samsung und Apple unwichtig.
Stimmt auch unter Bedingungen; ich wuerde noch Amazon Kindle und Google Nexus dazuzaehlen, aber danach die Sintflut wenn es zu jeglichen anstaendigen Verkaufszahlen kommt bis jetzt.
dildo4u
2013-09-23, 18:52:29
Surface 2 mit Tegra 4
http://www.theverge.com/2013/9/23/4761878/surface-2-hands-on-with-microsofts-new-windows-rt-tablet-that-doesnt
Scheint jetzt erträglich zu sein vom Speed her.
Ailuros
2013-09-24, 08:34:45
Surface 2 mit Tegra 4
http://www.theverge.com/2013/9/23/4761878/surface-2-hands-on-with-microsofts-new-windows-rt-tablet-that-doesnt
Scheint jetzt erträglich zu sein vom Speed her.
Die Frage ist eher wieso ich so ein Ding einem vollen win8.1 Baytrail tablet bevorzugen sollte.
Dural
2013-09-24, 10:00:02
Gewicht?
Weniger Strom Verbrauch?
Preis?
:confused:
Ich halte schon die 650g für ein Tablet zu viel, ein 900g Tabelt möchte ich nicht mal geschenkt. :rolleyes:
Ailuros
2013-09-24, 10:12:17
Gewicht?
Weniger Strom Verbrauch?
Preis?
:confused:
Ich halte schon die 650g für ein Tablet zu viel, ein 900g Tabelt möchte ich nicht mal geschenkt. :rolleyes:
http://www.anandtech.com/show/7362/microsoft-announces-surface-pro-2-surface-2-shipping-october-22
Gewicht und Verbrauch sollten ok sein fuer so ein Geraet, der $449 MSRP (trotz 1080p display) fuer die 32GB Variante aber nicht fuer meinen Geschmack; fuer 64GB dann $549. Zwar hat das Asus Baytrail tablet eine beschissene Aufloesung aber mit vollem win8.1 mit 64GB bei $399.
dildo4u
2013-09-24, 10:30:49
Wayne ich find's cool das Nvidia den Deal behalten hat,vermutlich bringen sie bei der 3 Version T5 unter und dann wirds richtig interessant,da Nvidia Meilen vor jeder ARM Konkurrenz ist was Treiber und SDK's für DX11 und Compute ist.
Ailuros
2013-09-24, 11:01:42
Wayne ich find's cool das Nvidia den Deal behalten hat,vermutlich bringen sie bei der 3 Version T5 unter und dann wirds richtig interessant,da Nvidia Meilen vor jeder ARM Konkurrenz ist was Treiber und SDK's für DX11 und Compute ist.
Na lass mal erstmal diese Generation ausrollen um abzusehen wie der zweite "Surface" Versuch von M$ sich verkaufen wird.
Sonst hoere ich schon seit jedem neuen Tegra launch von feuchten Traeumen aus denen aber daemlicherweise am Ende nichts wird eben genau weil die gesamte Konkurrenz wohl doch nicht so daemlich ist wie sich manche vorstellen.
Vor 1-1.5 Jahr hiess es Tegra4 mit der grossen Wendung, der tollen GPU Leistung dem einem und dem anderen Furz waehrend alleine Apple in ein paar Tagen so viele iphones verkauft hat wie sich NV T4 SoC Verkaeufe fuer's gesamte Jahr von allen "grossen" design wins erhofft. Dafuer ist Logan der "weisse Gandalf auf dem weissen Ross" der schlagartig den gesamten Markt umwerfen wird....:eek: :rolleyes: :freak:
fondness
2013-09-24, 11:04:24
Wayne ich find's cool das Nvidia den Deal behalten hat,vermutlich bringen sie bei der 3 Version T5 unter und dann wirds richtig interessant,da Nvidia Meilen vor jeder ARM Konkurrenz ist was Treiber und SDK's für DX11 und Compute ist.
Da T5 wohl noch immer die stromschluckenden A15 Cores verwenden wird, sehe ich hier wenig Hoffnung. Da hat T4i wohl mehr Potential. Aber es bleibt dabei, wenn NV im High-End mit spielen will braucht es Custom-Cores. Im Lowend sind die Chinesen wohl preislich unschlagbar.
UNd wie Ailuros schon sagte: Seit es Bay-Trail gibt ist ein solches ARM-Win8 Tablet noch uninteressanter geworden. Bay-Trail ist diesem ARM-SoC in jeder Hinsicht überlegen, benötigt wohl sogar weniger Strom als diese A15-Cores und erlaubt eine vollwertige Win8-Version.
Ailuros
2013-09-24, 11:11:52
Da T5 wohl noch immer die stromschluckenden A15 Cores verwenden wird, sehe ich hier wenig Hoffnung. Da hat T4i wohl mehr Potential. Aber es bleibt dabei, wenn NV im High-End mit spielen will braucht es Custom-Cores. Im Lowend sind die Chinesen wohl preislich unschlagbar.
Stimmt auch nicht ganz; Logan hat R4 A15 cores unter 28HPM, ergo mach mal einen langen Rueckzieher was das T4 Potential betrifft. Was NV wohl ihren fans NICHT erzaehlt hat ist wieviel GPU Leistung genau in den 2W TDP envelope genau passen und nein es sind eben nicht annaehernd 400GFLOPs :P
Ailuros
2013-09-30, 13:22:26
Die anderen moechten es wohl nicht lesen/hoeren aber es enspricht schon der Realitaet:
https://dolphin-emu.org/blog/2013/09/26/dolphin-emulator-and-opengl-drivers-hall-fameshame/
Terrarist
2013-09-30, 17:42:08
Naja, keine Überraschung das mit dem Dolphin Emu. Aber ich finds schon frech die Treiber zu kritisieren wenn es dann doch die eigene Herangehensweise ist die da nicht kompatibel ist. Man gibt es ja selbst mehr oder weniger zu:
Sadly, using recent, advanced OpenGL features also meant we got to discover how bad some graphics drivers actually are at doing their job. It turns out very few applications use some parts of the OpenGL standard we need to rely on to accurately emulate a GameCube GPU.
WTF? Warum sollen die Treiberentwickler denn auf DEREN Wünsche Rücksicht nehmen wenn A, niemand sonst diese Funktionen braucht und auch niemand danach verlangt hat, und B, es deren Aufgabe ist für die Funktionen zu sorgen wenn sie die Einzigen sind die diese Funktionen nutzen (wollen).
Ailuros
2013-09-30, 17:48:39
Naja, keine Überraschung das mit dem Dolphin Emu. Aber ich finds schon frech die Treiber zu kritisieren wenn es dann doch die eigene Herangehensweise ist die da nicht kompatibel ist. Man gibt es ja selbst mehr oder weniger zu:
WTF? Warum sollen die Treiberentwickler denn auf DEREN Wünsche Rücksicht nehmen wenn A, niemand sonst diese Funktionen braucht und auch niemand danach verlangt hat, und B, es deren Aufgabe ist für die Funktionen zu sorgen wenn sie die Einzigen sind die diese Funktionen nutzen (wollen).
Der ganze writeup hat so manche zwielichtige Stellen. Um es mal am Schopf zu packen Tegra4 unterstuetzt NICHT OGL_ES3.0 voll und sie haben es nichtmal selber ausprobiert wie sie selber eingestehen:
http://forum.beyond3d.com/showpost.php?p=1790538&postcount=1743
They're aware it doesn't support OpenGL ES 3.0. They've reviewed the extensions nVidia has exposed and feel that those are sufficient for their needs. It's true that it's an assumption on their part that nVidia's mobile drivers will be superior based on their drivers for very different discrete GPU parts.. but there's probably some truth to that.
Personally I find this whole driver shootout from the Dolphin people blown out of proportion. They're rightfully annoyed that the features they want aren't supported, but given that OpenGL ES 3.0 has barely been available in anything and there hasn't been a strong demand for games to migrate to it it's no surprise that the support isn't stellar (and it's not some great catastrophe - it's also no surprise that no one else is whining). Their needs in trying to emulate a console that had low level access to the GPU using a high level API are esoteric and not really representative of what game developers must have to get a game out.
Aber es ist eben dann schon Material mit dem NV fanboys links und rechts herumschmeissen.
Skysnake
2013-09-30, 18:23:23
Wie jetzt? Hält nVidia nicht die Specs der API ein, die Sie angeben zu unterstützen oder wie?
Wenn ja, wäre das echt eine Unverschämtheit.
Undertaker
2013-09-30, 18:48:18
Wie jetzt? Hält nVidia nicht die Specs der API ein, die Sie angeben zu unterstützen oder wie?
Sagen sie doch gar nicht.
"Tegra 4 / 4i processors do not explicitly support OpenGL ES 3.0 API "
http://www.nvidia.com/docs/IO/116757/Tegra_4_GPU_Whitepaper_FINALv2.pdf
Ailuros
2013-09-30, 20:38:58
Wie jetzt? Hält nVidia nicht die Specs der API ein, die Sie angeben zu unterstützen oder wie?
Wenn ja, wäre das echt eine Unverschämtheit.
Zuerst lesen, dann tippen :P Entwickler wollen eine Konsole emulieren und schreiben ueber die Qualitaet von OGL_ES3.0 Treibern von diversen Herstellern.
https://el.dolphin-emu.org/blog/2013/09/26/dolphin-emulator-and-opengl-drivers-hall-fameshame/?cr=el
NV kommt unter "excellent" an waehrend sie selber schreiben:
Given that our experience with mobile drivers has been… less than good (this article will talk about that in details later), we are really curious to see how good NVIDIA drivers for the Tegra 4 SoC are. We couldn’t get hold of a device powered by Tegra 4 yet (they are expensive!), but we are really curious to see how Dolphin would perform on them, given that the bottleneck for Dolphin on Android is now mostly GPUs and their drivers.
Wie schon erwaehnt stehen die Idioten selber ein dass sie nie ein T4 probiert haben weil es zu teuer ist (huh?) und da es um ES3.0 Treiber geht ist T4 sowieso nicht OGL_ES3.0 kompliant.
Und dann geht es weiter mit allen anderen IHVs die GPUs liefern. Dass z.B. die Qualcomm GPU Treiber ziemlich beschissen sind ist nichts Neues.
LordDeath
2013-09-30, 20:47:47
Weitere Nvidia-Bonuspunkte: Update: 6h after posting this article, three people from NVIDIA independently contacted us with contact info in case we needed to report anything related to their driver. While this doesn't really help most of the open source world, it will definitely help us in the future! Thanks, NVIDIA!
Natürlich wäre es aber noch schöner, wenn ein Nvidia-Mitarbeiter denen eine Nvidia Shield schickt. :D
Hugo78
2013-09-30, 22:18:34
Wie schon erwaehnt stehen die Idioten selber ein dass sie nie ein T4 probiert haben weil es zu teuer ist (huh?)
Man kann als kleiner OpenSoure Bitschubser nicht jede HW haben, dass ist doch völlig normal.
Sie schreiben auch, dass Android erst kürzlich für sie ein Thema ist.
Windows XP bis 8, Linux, Mac OS X und jetzt auch noch mit Android unterstützen sie mehr Plattformen, als die meisten Spieleentwickler.
Und btw T4 wayne ... in 3-6 Monaten gibt es Tegra 5 und mit seinem KeplerGPU Abkömmling wird das SoC höchstwahrscheinlich ein Musterschüler in Sachen Featureset und Treiber.
Ailuros
2013-10-01, 10:09:45
Man kann als kleiner OpenSoure Bitschubser nicht jede HW haben, dass ist doch völlig normal.
Sie schreiben auch, dass Android erst kürzlich für sie ein Thema ist.
Windows XP bis 8, Linux, Mac OS X und jetzt auch noch mit Android unterstützen sie mehr Plattformen, als die meisten Spieleentwickler.
Die Herren sind so oder so nicht repraesentativ fuer das was normale Entwickler wirklich brauchen oder nicht.
Und btw T4 wayne ... in 3-6 Monaten gibt es Tegra 5 und mit seinem KeplerGPU Abkömmling wird das SoC höchstwahrscheinlich ein Musterschüler in Sachen Featureset und Treiber.
Wenn's nach NV oder deren fanboys ginge war jegliche vorige Tegra Generation und auch GoForce davor ein Musterschueler fuer irgend etwas ausser irgendwelchem anstaendigem Verkaufsvolumen. Und es ist eben gerade das Volumen dass jeglichen ISV bzw. Entwickler interessiert. Wenn selbst ein pissat IP startup wie VIVANTE fast 10x Mal so hohen Marktanteil hat als NV's Tegra fuer's vergangene Jahr und die wirklich grossen Markanteile bei jeweils ueber 30x Mal so viel liegen, solltest Du Dich ernsthaft fragen wie man erstmal zu anstaendigem Marktanteil kommt und dann wird alles andere erst zaehlen.
mboeller
2013-10-01, 13:43:56
Und btw T4 wayne ... in 3-6 Monaten gibt es Tegra 5 und mit seinem KeplerGPU Abkömmling wird das SoC höchstwahrscheinlich ein Musterschüler in Sachen Featureset und Treiber.
....frei nach dem Motto: die Zukunft stirbt zuletzt. :biggrin:
edit:
ich habe seit einiger Zeit den Eindruck, das Nvidia für den SFF-Bereich das falsche "Mindset" hat.
Sie sind es aus dem GPU-Bereich gewohnt ihre (End-)Kunden mit Features und Höchstleistung zu beeindrucken. Deshalb hat der Tegra4 wahrscheinlich auch 4 A15 + eine GPU mit 672MHz (boä...so schnell ;) ).
Beim SFF-Bereich wo ihre Kunden jedochs große OEMs sind funktioniert das aber nicht.
Irgendwie habe ich den Eindruck das sie das noch nicht richtig kapiert haben. Deshalb jetzt auch der Vorstoß bzgl. Tegra-Tablet, Shield etc.. um ihre Endkunden zu beeindrucken. Das hilft ihnen bei den OEMs nur herzlich wenig.
Dural
2013-10-01, 13:59:35
@Ailuros
Ich weis nicht was du immer hast, aber die Verkaufszahlen des T3 waren beeindruckend, das ding war quasi überall drin ausser eben halt bei den zwei grossen Samsung und Apple. Und wir alle wissen das es fast ein ding der Unmöglichkeit ist, da rein zu kommen. Gab es nicht sogar mal zahlen die gesagt haben das 70% aller Android Tablets einen Tegra drin hatten? Die einzige Baustelle die NV bis jetzt hatte waren die ständigen Verzögerungen und die Smartphones. Letzters dürfte sich mit T4i verbessern und an den Verzögerungen dürften sie ja schon länger Arbeiten, NV hat schon mehrfach gesagt das es ihnen jeweils zu lange dauert bis erste Geräte auf dem Markt sind.
Ihr glaubt doch nicht ernsthaft das ein OEM das Featureset eines SoC interessiert? Das ist zu 99% der Kunden die diese Geräte kaufen völlig egal!
Da sind die Kosten und Treiber Qualitäten / Software Pack doch deutlich wichtiger.
Ailuros
2013-10-01, 14:04:50
Die Logan GPU liegt sicher was das featureset betrifft auf dem richtigen Weg (besser geht's ja wirklich nicht), aber es bleibt abzusehen ob der Rest dann auch stimmen kann. Die eine Seite ist dass NV tatsaechlich immer noch nicht den ULP SoC Markt geschnallt hat (Teufel nichtmal die Kerle in Tegra's Marketing Abteilung wissen wo es wirklich lang geht) und die andere sind eben so "nebenwichtige" Sachen wie perf/mW, perf/$ und andere solche Einzelheiten.
NV ist in einem Teufelskreis der wirklich nicht einfach ist; mit =/<10Mio SoCs pro Jahr kann man keine geringe Herstellungskosten erreichen, ergo so lange man keine grosse Volumen hat kann man auch den Verkaufspreis des SoCs nicht zu weit in die roten Zahlen reduzieren.
Fuer Logan haben wir ein kunterbuntes video bekommen dass zeigt dass die GPU bei 18 fps in GLB2.7 "nur" 900mW verbratet. Als ich damals schon behauptete dass es im Angesicht selbst vom kommenden iPhone nichts mehr besonderes ist wollte es keiner so richtig glauben. Die wahre Aufforderung fuer alles Logan wird sowieso erst in H2 2014 kommen; bis dann werden sich die bisherigen "ooohs und ahhhs" dann schon wieder maessigen.
Dural
2013-10-01, 14:12:06
das ist der lauf der Entwicklung, es wird immer was neueres und besseres kommen. ist halt so.
für NV wird entscheidend sein wie schnell die Geräte auf den Markt kommen. Umso schneller Geräte damit auf dem Markt sind, umso mehr wird man verkaufen können.
Ailuros
2013-10-01, 14:13:08
@Ailuros
Ich weis nicht was du immer hast, aber die Verkaufszahlen des T3 waren beeindruckend, das ding war quasi überall drin ausser eben halt bei den zwei grossen Samsung und Apple.
10 verbitterte Millionen. Was soll daran toll sein?
Aber auch mal hier von Jon Peddie fuer's vergangene Jahr eine oeffentliche Statistik gegen den "ueberall drin" Duennschiss:
http://jonpeddie.com/publications/mobile-devices-and-the-gpus-inside/
http://jonpeddie.com/images/uploads/publications/newchart%20PR.png
Ausser dem Nexus7 deal der ungefaehr 60% ihres jaehrlichen Volumens betrag war es dann auch schon alles.
Und wir alle wissen das es fast ein ding der Unmöglichkeit ist, da rein zu kommen. Gab es nicht sogar mal zahlen die gesagt haben das 70% aller Android Tablets einen Tegra drin hatten?
Was verstehst Du unter Volumen genau nicht? Falls es immer noch nicht hilft die Tabelle oben als Augenoeffner.
Die einzige Baustelle die NV bis jetzt hatte waren die ständigen Verzögerungen und die Smartphones. Letzters dürfte sich mit T4i verbessern und an den Verzögerungen dürften sie ja schon länger Arbeiten, NV hat schon mehrfach gesagt das es ihnen jeweils zu lange dauert bis erste Geräte auf dem Markt sind.
Ja sonst ist NV's tablet Geschaeft "nur" von Erfolgen "gekroent" in letzter Zeit; lass mich mal sehen der Nexus7 Nachfolger 2013 hat einen Qualcomm SoC ergo erstmal zumindest um die 5-6Mio Stueck im Eimer. Amazon's neueste tablets haben alle Qualcomm SoCs drin wobei Amazon zumindest 10Mio pro Jahr verkauft. Touche fuer QCOM von fast Null tablet Markanteil steht NV ploetzlich mit ein paar hundert tausend Verkaufsvolumen pro design win da. In welche Realitaet hast Du Dich ueberhaupt reinreden lassen? Im schlimmsten Fall schau Dir nochmal die Tegra relevanten finanziellen Resultaten vom vergangenen Quartal an fuer einen weiteren Augenoeffner.
Cubitus
2013-10-01, 14:13:19
Tegra 4 kommt so langsam in die Gänge. Mal schauen was der Abverkauf der neuen Tablet-Gen so bringt.
Besonders auf das Tegra Note bin ich gespannt, welches ja für 200 Dollar gehandelt werden sollte.
Der Wayne besitzt jetzt schon eine sehr gute Leistung.
Die neuste PowerVR Gen6 "Rouge" wischt schon mit dem Tegra 4 keine "Böden" mehr auf!
Dafür liegen die beiden Chips von der Leistung her viel zu nahe beieinander. Ich kann mich noch erinnern wie das damals bei Tegra 2 gegen die 5er Serie (SGX535) war. Da sah der Tegra 2 kein Land mehr.
Ich vermute Nvidia wird mit der fünften Tegra Genration zum ersten mal den Chips von PowerVR überlegen sein.
Dann werden die großen Firmen/Fertiger schon wieder anbeißen.. Da immer nur das Schnellste für die Mobilen Geräte gut genug ist.
Das der T5 dann auch OGL ES 3+ bzw. mssaa beherrscht gehört dann natürlich zum guten Ton.
Die Adreno 330 von Qualcomm wird ebenfalls massive Probleme bekommen. T4 spielt da jetzt schon in der gleichen Liga mit, wie ja auch diverse Benchmarks bezeugen.
Ich denke der 5er wird so einschlagen wie die 8800er GTX damals ^^
Dural
2013-10-01, 14:21:25
@Ailuros
ich habe gesagt T3, T4 hab ich mit keinem Wort erwähnt, das der viel zu spät dran ist, ist wohl kein Geheimnis. Zudem Qualcomm richtig starke Produkte derzeit hat.
Und ich weis sehr wohl, auch ohne deine Studien das in fast allen High-End Android Tablets damals ein Tegra drin war. Als das Nexus 7 kam war die Lebensdauer des T3 von mir aus gesehen schon am ende, das Nexus 7 war quasi nur noch ein Bonus. T3 kam mit Asus im November 2011 auf den Markt, ist dir das eigentlich bewusst?
NV konnte auch rein gar nichts dafür, dass damals (wie heute) fast nur iPads gekauft wurden, sonst wäre das deutlich anders ausgegangen.
Skysnake
2013-10-01, 14:25:52
Zuerst lesen, dann tippen :P Entwickler wollen eine Konsole emulieren und schreiben ueber die Qualitaet von OGL_ES3.0 Treibern von diversen Herstellern.
https://el.dolphin-emu.org/blog/2013/09/26/dolphin-emulator-and-opengl-drivers-hall-fameshame/?cr=el
NV kommt unter "excellent" an waehrend sie selber schreiben:
Wie schon erwaehnt stehen die Idioten selber ein dass sie nie ein T4 probiert haben weil es zu teuer ist (huh?) und da es um ES3.0 Treiber geht ist T4 sowieso nicht OGL_ES3.0 kompliant.
Und dann geht es weiter mit allen anderen IHVs die GPUs liefern. Dass z.B. die Qualcomm GPU Treiber ziemlich beschissen sind ist nichts Neues.
Ich habs nicht genau verstanden, daher wars auch ne Frage, sieht man an dem ? am Ende vom Satz :P
Also was ist jetzt genau SAche. Unterstützt nVidia nun etwas nicht "richtig", was Sie eigentlich laut FEatureset eigentlich sollten, oder wünschen sich die Entwickler einfach nur einen besseren Support? So wikrlich verstanden habe ich das bis jetzt noch nicht, und nein, ich hab jetzt atm auch nicht wirklich die Muse mit die WOT da durch zu lesen.
Danke schonmal für die Mühe.
Ailuros
2013-10-01, 14:29:48
Tegra 4 kommt so langsam in die Gänge. Mal schauen was der Abverkauf der neuen Tablet-Gen so bringt.
Im besten Fall liegt das Tegra Geschaeft flach wie NV selber projezierte.
Der Wayne besitzt jetzt schon eine sehr gute Leistung.
Die neuste PowerVR Gen6 "Rouge" wischt schon mit dem Tegra 4 keine "Böden" mehr auf!
Rogue. Sonst wuerde ich an Deiner Stelle nicht ein smartphone mit einem <1600mAh Batterie mit einem aktiv gekuehlten Shield mit einer Monsterbatterie vergleichen.
Dafür liegen die beiden Chips von der Leistung her viel zu nahe beieinander. Ich kann mich noch erinnern wie das damals bei Tegra 2 gegen die 5er Serie (SGX535) war. Da sah der Tegra 2 kein Land mehr.
Quatsch. Die ULP GF im T2 war mehr oder weniger auf SGX540 Nivaeu (wobei dieser ein gutes Stueck schneller war als der 535 dank doppelt so vielen ALUs) aber auch nur bei 333MHz fuer die ULP GF gegen 200MHz fuer SGX540. So bald der 540 in die =/>300MHz getaktet wurde nahm er Abstand von der ULP GF im T2.
Ich vermute Nvidia wird mit der fünften Tegra Genration zum ersten mal den Chips von PowerVR überlegen sein.
Welchen von der ganzen Ausswahl denn genau? Und wenn ich frage worauf es basiert ist es mit Sicherheit auch nicht mehr als nur ein Bauchgefuehl. Logan wird auf 28HPM hergestellt, Apple's naechste Generation als Gegenbeispiel 20nm. Und um es klarer zu machen die ULP SoC Logan GPU wird sich auf 2W TDP begrenzen muessen und das bedeutet weit unter den 975MHz auf die NV angedeutet hat.
Das der T5 dann auch OGL ES 3+ bzw. mssaa beherrscht gehört dann natürlich zum guten Ton.
MSAA gibt es auch auf T4 mit ziemlich grossem Leistungseinbruch. Momentan gibt es nur OGL_ES3.0, welches sowieso mehr oder weniger auf DX10 Nivaeu liegt. Die Logan GPU wird ohne Zweifel auf OpenGL4.2 liegen.
Ailuros
2013-10-01, 14:46:39
@Ailuros
ich habe gesagt T3, T4 hab ich mit keinem Wort erwähnt, das der viel zu spät dran ist, ist wohl kein Geheimnis. Zudem Qualcomm richtig starke Produkte derzeit hat.
Im JPR link steht drin welchen Zeitraum es genau betrifft.
Und ich weis sehr wohl, auch ohne deine Studien das in fast allen High-End Android Tablets damals ein Tegra drin war. Als das Nexus 7 kam war die Lebensdauer des T3 von mir aus gesehen schon am ende, das Nexus 7 war quasi nur noch ein Bonus. T3 kam mit Asus im November 2011 auf den Markt, ist dir das eigentlich bewusst?
Es sind nicht mehr als 10Mio insgesamt von dem was oeffentlich raussickerte.
NV konnte auch rein gar nichts dafür, dass damals (wie heute) fast nur iPads gekauft wurden, sonst wäre das deutlich anders ausgegangen.
Jetzt verkauft QCOM ueber Nacht mit einem Schlag mehr tablets als NV je bisher pro Jahr verkauft hat. Irgend etwas muss wohl an QCOM liegen.
1. Wenn QCOM sagt verfuegbar ab X, dann stimmt X auch.
2. Volumen, Volumen und nochmal Volumen. Niedrigere Herstellungskosten = kleinerer BOM.
usw. usw.
Wie gesagt mit einem Schlag hat QCOM fuer dieses Jahr um die 10-15Mio tablet Verkaufsvolumen geschnappt. Kein LTE und sonst nichts.
Skysnake
2013-10-01, 15:16:30
1. Wenn QCOM sagt verfuegbar ab X, dann stimmt X auch.
Allein das ist ein riesiger Makel bei nVidia. Die hatten in letzter Zeit egal wo man hin schaut viel zu viele Verspätungen/Verschiebungen. Das ist im SFF einfach tödlich. Ich kann absolut verstehen, warum sich das OEMs sehr sehr kritisch zeigen. Ich würde da auch eher nen paar $ weniger Gewinn machen, aber auf einen verlässlichen Partner setzen, als noch das letzte raus quetschen, und dann am Ende mit heruntergelassenen Hosen dastehen und X Millionen miese machen, weil man die Hardware dann nicht mehr so abgesetzt bekommt wie geplant, weil "veraltet". Die SFF-Welt ist halt noch extrem schnelllebig.
Blediator16
2013-10-01, 15:18:38
Gibt es ausser dem Shield irgendwo gute Tests zum T4 ohne vollkommen realitätsferner Versuchsaufbauten? Ein Tab oder Smartphone Test?
Undertaker
2013-10-01, 15:25:36
Es gibt da noch das Toshiba Excite (http://www.notebookcheck.com/Test-Toshiba-eXcite-Pro-AT10LE-A-108-Tablet.98288.0.html), welches aber ziemlich heiß läuft. Toshiba will da wohl noch etwas nachpatchen, aber keine Ahnung, ob das schon geschehen ist.
Ailuros
2013-10-01, 15:55:53
Es gibt da noch das Toshiba Excite (http://www.notebookcheck.com/Test-Toshiba-eXcite-Pro-AT10LE-A-108-Tablet.98288.0.html), welches aber ziemlich heiß läuft. Toshiba will da wohl noch etwas nachpatchen, aber keine Ahnung, ob das schon geschehen ist.
Ueber die restlichen T4 tabs gibt es zwar keine reviews an die ich mich erinnern kann aber ich hab auch nirgends ueber Probleme bzw. Beschwerden fuer diese bisher gelesen oder gehoert.
YfOrU
2013-10-01, 15:59:40
Die Adreno 330 von Qualcomm wird ebenfalls massive Probleme bekommen. T4 spielt da jetzt schon in der gleichen Liga mit, wie ja auch diverse Benchmarks bezeugen.
Solange Smartphones mit S800 (Adreno330) tendenziell flotter sind als ein aktiv gekühlter Tegra 4 (->Shield) sehe ich das nicht so.
http://gfxbench.com/result.jsp?benchmark=gfx27&data-source=1&version=all&test=478&text-filter=&order=median&os-Android=true&arch-ARM=true&arch-MIPS=true&arch-x86=true&base=device
PS: -> Adreno420 steht für den S800 Refresh (1H/2014, weiterhin 28nm HPm) fest.
Die neuste PowerVR Gen6 "Rouge" wischt schon mit dem Tegra 4 keine "Böden" mehr auf!
Dafür liegen die beiden Chips von der Leistung her viel zu nahe beieinander. Ich kann mich noch erinnern wie das damals bei Tegra 2 gegen die 5er Serie (SGX535) war. Da sah der Tegra 2 kein Land mehr.
Das 5S ist ein recht kompaktes 4 Zoll Smartphone. A7 liegt somit bezogen auf die TDP deutlich unter den großen T4 Tablets und Shield.
Cubitus
2013-10-01, 16:29:37
I
Rogue. Sonst wuerde ich an Deiner Stelle nicht ein smartphone mit einem <1600mAh Batterie mit einem aktiv gekuehlten Shield mit einer Monsterbatterie vergleichen.
Bei der Shield ging man eben davon aus das mit diesem Gerät auch wirklich viel gespielt wird und das Gerät ohne aktive Kühlung, wohl öfters an der Hitze-Drosselungs- Grenze kratzen würde.
Zudem wäre ein Handheld, welchem nach 2 Stunden der Saft ausgehen würde, wohl ziemlich nutzlos. ;). Außerdem ist die aktive Kühlung ziemlich moderat.
Ob die neuen Tablets auch mit so einem fetten Akku daher kommen bzw. ebenfalls auch auf eine aktive Kühlung setzen, bezweifle ich. Da der Einsatz-Zweck wohl eher im surfen, lesen, Youtube usw. gesehen wird.
Leider finde ich keine Reviews die auf einen Vergleich der Batterie Dauer bei Smartphones hinweisen. Für den T4 gibt es zu wenig Smartphone-Modelle
Quatsch. Die ULP GF im T2 war mehr oder weniger auf SGX540 Nivaeu (wobei dieser ein gutes Stueck schneller war als der 535 dank doppelt so vielen ALUs) aber auch nur bei 333MHz fuer die ULP GF gegen 200MHz fuer SGX540. So bald der 540 in die =/>300MHz getaktet wurde nahm er Abstand von der ULP GF im T2.
Ach mist ich habe es verwechselt, meinte natürlich den SGX543MP.
Da ich damals, als ich mir ein Ipad 3 gegönnt hatte, auch ein Optimus Speed besaß. Und gegen dem 543er stank der T2 wirklich ab.
Welchen von der ganzen Ausswahl denn genau? Und wenn ich frage worauf es basiert ist es mit Sicherheit auch nicht mehr als nur ein Bauchgefuehl. Logan wird auf 28HPM hergestellt, Apple's naechste Generation als Gegenbeispiel 20nm. Und um es klarer zu machen die ULP SoC Logan GPU wird sich auf 2W TDP begrenzen muessen und das bedeutet weit unter den 975MHz auf die NV angedeutet hat.
Ich meinte gegen den G6430 welcher atm im neuen 5s steckt.
Ich weiß es nicht in wie weit sich da noch die TDP einhalten lässt.
Aber Leistung schreckt ja nicht vor fetten Akkus zurück. Siehe andere Tablets. Bei den Phablets z.b wird ja auch schon ein größerer Akku eingesetzt.
MSAA gibt es auch auf T4 mit ziemlich grossem Leistungseinbruch. Momentan gibt es nur OGL_ES3.0, welches sowieso mehr oder weniger auf DX10 Nivaeu liegt. Die Logan GPU wird ohne Zweifel auf OpenGL4.2 liegen.
Ich habe MSAA auf dem T4 noch nicht zum Laufen gebracht. Werde ich weiter testen.
Solange Smartphones mit S800 (Adreno330) tendenziell flotter sind als ein aktiv gekühlter Tegra 4 (->Shield) sehe ich das nicht so.
http://gfxbench.com/result.jsp?benchmark=gfx27&data-source=1&version=all&test=478&text-filter=&order=median&os-Android=true&arch-ARM=true&arch-MIPS=true&arch-x86=true&base=device
PS: -> Adreno420 steht für den S800 Refresh (1H/2014, weiterhin 28nm HPm) fest.
Das 5S ist ein recht kompaktes 4 Zoll Smartphone. A7 liegt somit bezogen auf die TDP deutlich unter den großen T4 Tablets und Shield.
Ich denke nicht das eine aktive Kühlung unbedingt nötig ist ;)
Der Chip ist im GFX Bench 2 FPS langsamer, könnten auch unter Mess-Toleranzen sein. Das Nexus 5 liegt z.b unter der Shield.
Aber da die Shield schon so eine tolle aktive Kühlung und einen fetten Akku besitzt hat versuche ich mich mal am ocen ^^
Zudem kann auch ein schlankes 5s überhitzen. Und der Akku ist bei exzessiven Spielen sowieso schnell leer ;)
robbitop
2013-10-01, 17:25:31
Bei gleicher TDP wischt Rogue den Boden mit T4 auf. Und hinzukommt, dass das Techlevel von Rogue (was ja auch Transistoren kostet) deutlich höher ist als das von T4.
Hugo78
2013-10-01, 17:28:16
Ich habs nicht genau verstanden, daher wars auch ne Frage, sieht man an dem ? am Ende vom Satz :P
Also was ist jetzt genau SAche. Unterstützt nVidia nun etwas nicht "richtig", was Sie eigentlich laut FEatureset eigentlich sollten, oder wünschen sich die Entwickler einfach nur einen besseren Support? So wikrlich verstanden habe ich das bis jetzt noch nicht, und nein, ich hab jetzt atm auch nicht wirklich die Muse mit die WOT da durch zu lesen.
Danke schonmal für die Mühe.
Ja klar, du hast sonst immer Zeit für ein Aufsatz über zehn Seiten, wenn es darum geht Nvidias Ableben herbei zuschreiben. :ulol4:
Aber bitte, in aller Kürze:
Die Entwickler des Dolphin Emulators loben Nvidias OGL Treiber als "Excellent".
Intels und der freie "Mesa" Treiber bekommen von ihnen ein Gut.
AMD ist eher durchschnittlich, ARM Mali schlecht und "Horrible" geht an Qualcomm mit ihrer Adreno OGL Lösung.
Das hat bei ihnen aber nicht primär was mit Tegra zutun, mobile Plattformen bedienen die Jungs erst seit kurzem.
Ailuros
2013-10-01, 18:00:33
Bei der Shield ging man eben davon aus das mit diesem Gerät auch wirklich viel gespielt wird und das Gerät ohne aktive Kühlung, wohl öfters an der Hitze-Drosselungs- Grenze kratzen würde.
Zudem wäre ein Handheld, welchem nach 2 Stunden der Saft ausgehen würde, wohl ziemlich nutzlos. ;). Außerdem ist die aktive Kühlung ziemlich moderat.
Es aendert keine bisschen etwas daran dass ein smartphone mit einem >tablet TDP Geraet nicht vergleichbar sind weil sie eben nicht in die gleiche Verbrauchs-kategorie gehoeren. Wenn etwas zumindest 4x Mal so viel verbrauchen darf dann ist es kein Vergleich.
Ob die neuen Tablets auch mit so einem fetten Akku daher kommen bzw. ebenfalls auch auf eine aktive Kühlung setzen, bezweifle ich. Da der Einsatz-Zweck wohl eher im surfen, lesen, Youtube usw. gesehen wird.
Leider finde ich keine Reviews die auf einen Vergleich der Batterie Dauer bei Smartphones hinweisen. Für den T4 gibt es zu wenig Smartphone-Modelle.
Das iPad4 ist genauso schnell wie T4 tablets mit passiver Kuehlung; sonst werden wir wohl das iPad5 abwarten muessen oder? Ich kann Dir aber garantieren dass das letztere keinen Luefter und heatsink eingebaut hat und auch nicht bis zum kotzen throttelt.
Ach mist ich habe es verwechselt, meinte natürlich den SGX543MP.
Da ich damals, als ich mir ein Ipad 3 gegönnt hatte, auch ein Optimus Speed besaß. Und gegen dem 543er stank der T2 wirklich ab.
Ja nur war die direkte Konkurrenz zur ULP GF nach wie vor SGX540. Ein einziger 543 ist schon um die 40% schneller Takt fuer Takt und jetzt nochmal das Ganze x4 fuer 4 cores (MP4).
Ich meinte gegen den G6430 welcher atm im neuen 5s steckt.
Ich weiß es nicht in wie weit sich da noch die TDP einhalten lässt.
Aber Leistung schreckt ja nicht vor fetten Akkus zurück. Siehe andere Tablets. Bei den Phablets z.b wird ja auch schon ein größerer Akku eingesetzt.
Nimm bloss kein Gift drauf dass eine GPU in einem Geraet mit einer <1600mAH Batterie jetzt ploetzlich 3 oder 4W verbraucht.
Welchen phablets genau? Entschuldige aber irgendwo generalisiert Du mir zu viel und schmeisst zu viel OT in einen Topf. Ich hab ein 5" phablet hier mit 1080p Aufloesung mit einer 2000mAH Batterie die mir auch bei ziemlich intensivem Verbrauch auch einen Tag anhaelt.
Ich habe MSAA auf dem T4 noch nicht zum Laufen gebracht. Werde ich weiter testen.
Na um die 40-50% wirst Du schon an Leistung verlieren.
Ich denke nicht das eine aktive Kühlung unbedingt nötig ist ;)
Der Chip ist im GFX Bench 2 FPS langsamer, könnten auch unter Mess-Toleranzen sein. Das Nexus 5 liegt z.b unter der Shield.
Kategorisier mal nach GPU in der Kishonti Datenbank und dann drueck mal auf NVIDIA Tegra und es wird kinderleicht zu sehen sein welchen Abstand dank aktiver Kuehlung Shield im Vergleich zu selbst T4 tablets genau nimmt. Es faengt bei 16 fps an und endet ganz oben bei maximal 19 fps in GLB2.7 im allerbesten Fall.
Und wenn Du schon beim "testen" mit jeglichen T4 Geraet bist lass es mal 10x Mal an der Reihe GLB2.7 dicht nacheinander laufen und sag mal was beim letzten genau herauskommt.
Aber da die Shield schon so eine tolle aktive Kühlung und einen fetten Akku besitzt hat versuche ich mich mal am ocen ^^
Zudem kann auch ein schlankes 5s überhitzen. Und der Akku ist bei exzessiven Spielen sowieso schnell leer ;)
Noch besser leg das Shield Dingsbums in den obrigen loops neben ein 5s mit gleicher Anzahl von loops. Mal sehen wie stark und wie schnell das eine von den beiden throtteln wird.
Die Entwickler des Dolphin Emulators loben Nvidias OGL Treiber als "Excellent".
Ich hab persoenlich bis jetzt PowerVR's OGL_ES3.0 Treiber nie ausprobiert; aber da die bisherigen 2.0er Treiber ausgezeichnet sind markiere ich diese auch unter "excellent" eben weil ich total objektiv sein will in dem Fall und keineswegs voreingenommen. Merkst Du was?
Intels und der freie "Mesa" Treiber bekommen von ihnen ein Gut.
AMD ist eher durchschnittlich, ARM Mali schlecht und "Horrible" geht an Qualcomm mit ihrer Adreno OGL Lösung.
Das hat bei ihnen aber nicht primär was mit Tegra zutun, mobile Plattformen bedienen die Jungs erst seit kurzem.
Es stimmt auch mehr oder weniger in seiner Mehrzahl, aber ich persoenlich wuerde NIE etwas als "ausgezeichnet" bezeichnen wenn ich keine Erfahrung davon habe oder zuverlaessiges feedback dafuer. Die Jungs wollen umsonst ein Geraetchen von NV haben damit sie arbeiten koennen; man kann es auch durch einfache Anfrage erreichen mit einem e-mail und nicht potentieller *ahem*-Leckerei.
Hugo78
2013-10-01, 18:13:11
@Ailuros
Du bewertest das aus deiner "SFF embedded" Sicht.
Der diesen Blogeintrag geschrieben hat, denkt aber primär nur an den Desktop.
Ailuros
2013-10-01, 18:20:47
@Ailuros
Du bewertest das aus deiner "SFF embedded" Sicht.
Der diesen Blogeintrag geschrieben hat, denkt aber primär nur an den Desktop.
Ich bewerte es nach meiner eigenen Moral, und die ist auch verdammt eigenartig.
Ich fahr heute einen Golf und bin sehr zufrieden mit dem Karren; es heisst also dass jeder zukuenftige Golf genauso gut sein wird?
OGL_ES3.0 ist ueberigens ein SFF API und hat ueberhaupt NICHTS mit desktop zu tun. NV ist normalerweise wirklich gut mit sw ergo sind ihre OpenCL Treiber das beste dass ich dort draussen finden kann. Korrigier mich gerne wenn ich irgendwo uebertreibe oder voreingenommen klinge... :rolleyes:
Hugo78
2013-10-01, 18:27:14
Gut OGL_ES3.0 mag ja eine SFF API sein.
Aber die beispielgebenden Systemempfehlungen für ihren Emulator sind so garnicht SSF.
- https://de.dolphin-emu.org/docs/faq/#what-cpu-do-i-need-emulate-games-dolphin
Ein gutes System wäre immernoch ein Phenom II X4 955 + 8800GT.
Ein exzellentes System wäre ein i5-2500k + HD 6850 oder besser.
Ailuros
2013-10-01, 18:45:02
Es ist nicht so dass wir uns nicht verstehen. Uebrigens ist NV in solchen Faellen NIE geizig gewesen und ist es auch heute wohl nicht. Mit einem einfachem e-mail koennte man es regeln.
Skysnake
2013-10-01, 18:54:22
Ja klar, du hast sonst immer Zeit für ein Aufsatz über zehn Seiten, wenn es darum geht Nvidias Ableben herbei zuschreiben. :ulol4:
Aber bitte, in aller Kürze:
Die Entwickler des Dolphin Emulators loben Nvidias OGL Treiber als "Excellent".
Intels und der freie "Mesa" Treiber bekommen von ihnen ein Gut.
AMD ist eher durchschnittlich, ARM Mali schlecht und "Horrible" geht an Qualcomm mit ihrer Adreno OGL Lösung.
Das hat bei ihnen aber nicht primär was mit Tegra zutun, mobile Plattformen bedienen die Jungs erst seit kurzem.
So viel hab ich auch verstanden, mir gings jetzt rein darum, über was Sie da genau meckern, und was das Problem ist. Die Erleuterungen von euch klangen so, als ob was nicht gehen würde, was eigentlich gehen sollte.
Und ja ich nehm mir teilweise zu viel Zeit etwas zu schreiben, dann ist das Interesse aber auch da ;) Das hier tangiert mich nur ganz ganz ganz ganz ganz am Rande, und so verworren wie das war, über das ihr geredet habt, lieste und verstehste das auch nicht mal eben in 5 min, und >30min in so was grad reinstecken, wenn ihr euch eh schon damit beschäftigt habt, dann kann man doch dieses Wissen nutzen. Oder nicht? ;)
Ailuros
2013-10-02, 09:33:42
http://www.androidheadlines.com/2013/09/xiaomi-mi3-snapdragon-800-variant-delayed-tegra-4-version-track-oct-15-release.html
XiaoMi announced their newest flagship, the Mi3, on September 5th. They are producing the Mi3 with two different chipsets. The Tegra 4 version will be carried by China Mobile with TS-CDMA connectivity. XiaoMi is also making a Snapdragon 800 variant designed to run on China’s WCDMA/GSM networks.
The problem is, the company has not even begun production of the Snapdragon 800 version. While XiaoMi’s CEO Lei Jun has confirmed that the Tegra 4 Mi3 will be available for purchase on October 15th, the Snapdragon 800 version will not be up for sale anytime soon.
XiaoMi’s co-founder and vice president Zhou Guang Ping said that production of the Snapdragon 800 Mi3 has not started yet. The reason for the delay is that the Snapdragon 800 SoC they are using isn’t ready for the device yet. Current devices powered by a Snapdragon 800 chip are running the MSM8974 version. XiaoMi is working on putting the MSM8974AB, also known as the MSM8974Pro, in their Mi3 flagship. They haven’t completed work on getting the Mi3 up and running with the MSM8974Pro and that’s why this version of the device has been delayed, according to Chinese tech site.
Avalox
2013-10-23, 01:32:43
Nvidia mit Shield 2 und Logan SoC schon zum Januar in der Pipe?
http://phandroid.com/2013/10/21/nvidia-shield-2/
Ailuros
2013-10-23, 08:27:38
Nvidia mit Shield 2 und Logan SoC schon zum Januar in der Pipe?
http://phandroid.com/2013/10/21/nvidia-shield-2/
NV hat doch selber angegeben schon vor einiger Zeit angegeben, dass sie in Q1 14' einen eigenes Geraet mit Logan auftischen wollen. Ohne eigentlichen fruehen design win wird eben NVIDIA einen design win mit NVIDIA haben :D
Aber ich kann ihre Verzweiflung schon verstehen gerade jetzt beim iPad Air launch :P
Hugo78
2013-10-29, 14:29:28
Surface 2 Test
http://www.computerbase.de/artikel/tablets/2013/microsoft-surface-pro-2-und-surface-2-im-test/
Ailuros
2013-10-30, 10:51:25
Surface 2 Test
http://www.computerbase.de/artikel/tablets/2013/microsoft-surface-pro-2-und-surface-2-im-test/
Da es eigentlich sowohl um Surface 2 und Surface 2 PRO geht, beide sind ausgezeichnete Geraete aber leider beide viel zu teuer. Es haette erstmal GAR NICHTS dagegen gesprochen wenn das Surface 2 mit windows 8.1 angekommen waere und selbst dann ist es im Vergleich zur Baytrail/8.1 Konkurrenz immer noch zu teuer.
Skysnake
2013-10-30, 10:53:31
Mit win8.1 auf dem Surface haste aber ein Problem..
Du kannst nur noch Sachen aus dem Store installieren :down:
Einer vom Lehrstuhl hat ein Surface mit win RT, wenn ich das richtig verstanden habe, und der kann einige Sachen jetzt nicht mehr nutzen nach dem Update...
Ailuros
2013-10-30, 11:02:03
Mit win8.1 auf dem Surface haste aber ein Problem..
Du kannst nur noch Sachen aus dem Store installieren :down:
Einer vom Lehrstuhl hat ein Surface mit win RT, wenn ich das richtig verstanden habe, und der kann einige Sachen jetzt nicht mehr nutzen nach dem Update...
Ich verstehe selbst beim zweiten durchlesen nicht was Du genau sagen willst. Ich meinte nirgends dass man auf dem Surface2 win8.1 nachladen sollte oder sonst etwas; lediglich dass es mit 8.1 unter default besser aufgehoben waere als mit RT. windowsRT ist die eigentliche Sackgasse die die originalen Surface Geraete zum totalen FLOP verbannte.
Dural
2013-10-30, 11:04:08
Der ach so schlechter T4 steht plötzlich doch nicht so schlecht da wie es viele jetzt 6monate lang gepredigt haben :wink:
Und von wegen langsam, sogar etwas schneller als das Nexus 7 v2 :P
Der Verbrauch scheint auch nicht so extrem schlecht zu sein:
Dass ARM und Windows RT aber auch von Vorteil sein können, zeigt sich bei der Laufzeit des Surface 2. Neun Stunden im Video-Dauertest und knapp fünf Stunden im Browser-Test stehen am Ende auf der Uhr. Im Video-Dauertest halten nur die Geräte mit Dock sowie das iPad mini länger durch.
Übrigens wer ein X86 Tablet kauft hat doch nicht alle Tassen im Schrank ;) 900g ist für ein Tablet einfach deutlich zu schwer! Da kann man sich gleich ein Ultrabook kaufen.
Ailuros
2013-10-30, 11:07:22
Der ach so schlechter T4 steht plötzlich doch nicht so schlecht da wie es viele jetzt 6monate lang gepredigt haben :wink:
Und von wegen langsam, sogar etwas schneller als das Nexus 7 v2 :P
Der Verbrauch scheint auch nicht so extrem schlecht zu sein:
Übrigens wer ein X86 Tablet kauft hat doch nicht alle Tassen im Schrank ;) 900g ist für ein Tablet einfach deutlich zu schwer!
Wo taktet denn Deiner Meinung nach die CPU und GPU in diesem im Vergleich zu Shield? Ja zuck die Schultern und schau noch mal nach dass die GPU nur ehlendige 16 fps in GLB2.7 erreicht (wobei Shield bei 24 fps liegt :P ) ; falls es nicht klar genug sein sollte ein iPhone5S oder S800 erreichen ca. 70% mehr GPU Leistung und das in smartphones.
Das Asus Transformer T100 Baytrail tablet mit win8.1 wiegt knapp 500 gramm ohne den dock und faengt bei $349 an und ja ich hab nicht alle Tassen im Schrank weil Du zu faul bist Dich auf dem laufendem im Netz fuer solche Themen zu halten :P
Skysnake
2013-10-30, 11:13:05
Ich verstehe selbst beim zweiten durchlesen nicht was Du genau sagen willst. Ich meinte nirgends dass man auf dem Surface2 win8.1 nachladen sollte oder sonst etwas; lediglich dass es mit 8.1 unter default besser aufgehoben waere als mit RT. windowsRT ist die eigentliche Sackgasse die die originalen Surface Geraete zum totalen FLOP verbannte.
Das Surface wegen Win8.1 RT eh verbrannte Erde ist.
Mit der Limitierung auf den Shop ist das Ding tot. Ich würde das Surface (1&2) daher komplett aus der Diskussion raus nehmen.
robbitop
2013-10-30, 11:18:58
Dazu muss man sagen, dass das Nexus 7 2013 auch nur mit niedriger Frequenz taktet. Ein Qualcomm S800 ist massiv schneller. Intels Baytrail ist schon verdammt schnell.
Ailuros
2013-11-02, 18:29:00
http://gfxbench.com/device.jsp?benchmark=gfx27&D=NVidia+Tegra+GK20A+%28laguna%29&testgroup=gl
Na was haben wir denn hier? :biggrin:
Hugo78
2013-11-02, 18:34:33
hmm..
Max CPU Freq 2321 MHz
Klingt nach was über Tegra 4. :D
Ailuros
2013-11-02, 18:37:49
hmm..
Klingt nach was über Tegra 4. :D
Gott im Himmel..
GL_ARB_bindless_texture
...schon die erste Linie im Link schreit nach DX11.0 :rolleyes: :D
Hugo78
2013-11-02, 20:32:14
Ach im SFF Bereich fühl ich mich wieder jung, denn hier darf man idR. noch ganz unschuldig rein auf die MHz gucken um "zu wissen" das X schneller als Y ist. :ulol:
Mancko
2013-11-02, 21:05:31
http://gfxbench.com/device.jsp?benchmark=gfx27&D=NVidia+Tegra+GK20A+%28laguna%29&testgroup=gl
Na was haben wir denn hier? :biggrin:
Klingt nach einem leckeren Kepler Core im Tegra :)
Ailuros
2013-11-03, 17:03:04
Klingt nach einem leckeren Kepler Core im Tegra :)
Yep. Codenamed Laguna oder GK20A.
AnarchX
2013-11-03, 17:46:53
Vielleicht gibt es von Shield 2 dann auch eine SLI-Version mit zuschaltenbaren GK208. Vor großen Akkus und aktiver Kühlung schreckt man ja nicht zurück. ;D
Ailuros
2013-11-04, 08:16:23
Vielleicht gibt es von Shield 2 dann auch eine SLI-Version mit zuschaltenbaren GK208. Vor großen Akkus und aktiver Kühlung schreckt man ja nicht zurück. ;D
Dafuer waere mir dann die CPU viel zu langweilig.
Skysnake
2013-11-10, 00:42:53
http://wccftech.com/senior-analyst-tells-nvidia-sell-business-tegra/#ixzz2kBFv7uds
Die ersten Analysten wollen, das nVidia sich von der Tegra-Sparte trennt. ;D
Da sehen wohl einige nicht, das man damit den einzigen Ast abstoßen würde, der sich zum Festklammern für die Zukunft aktuell bietet. Ohne die Tegra Sparte schlägt nVidia nämlich voll die Matrox Marschrichtung ein, und das ist eine ohne, die in die Bedeutlungslosigkeit führt...
Wenn ich den Artikel aber richtig versteh, wurde T5 eingestellt und man will direkt auf T6 setzen oder wie? :ugly:
Versteh ich das grad einfach nicht, ist das einfach Schwachsinn, oder doch was dran?
Ailuros
2013-11-10, 07:17:34
Miserable Quelle und auch verdammt schwer zu glauben. Tegra6/Parker duerfte der erste SoC mit einem custom Denver core sein und einem Maxwell Ableger unter 16nm FinFET. Um das Ding vorzuziehen muessten sie wohl auf 20SoC umschwingen. Oder Logan kommt doch spaeter als erwartet und man spielt mal wieder mit dem nach vorne bzw. nach hinten Mist rum um das Publikum zu verwirren...
Sonst dass Analysten einen Verkauf der Tegra Sparte vorschlagen kann ich durchaus glauben bei den Zahlen, aber ich persoenlich halte es fuer eine Schnappsidee. Wer wuerde es denn ueberhaupt kaufen wollen und was genau hat Tegra so einzigartiges dass andere SoC Hersteller nicht haben? Texas Instruments hat ihre ULP SoC Sparte auch zu verkaufen versucht hat aber zu nichts gefuehrt und diese war selbst an ihrem Ende um einiges erfolgreicher als Tegra je war.
IMHO sollten Analysten erstmal die Klappe halten und abwarten ob Tegra4i irgendwelches Land fassen kann. Fuer mich liegt der Weg fuer Tegra zum Erfolg nicht in high end SoCs.
Gaestle
2013-11-10, 11:10:36
analysten sehen vor allem den kurzfristigen gewinn und kaum die langfristige strategie. Ein anderer ceo hat in einem völlig anderen zusammenhang von der notwendigkeit von "overinvestment" gesprochen, wenn man eine sache anschieben will oder muss. Diese dinge zahlen sich aber oft erst jahre später aus, und es ist erst jahre später tödlich, wenn man solche investments verpasst. Man muss wege konsequent gehen und schwierigkeiten überwinden und den weg dabei immer adaptiv weiterentwickeln. nv1 war auch kein erfolg.
das alles passt aber nicht zum "horizont" von analysten, der oft nur bis zu den nächsten / übernächsten quartalszahlen reicht und in der einschätzung dieser quartalszahlen immer rückwärtsgerichtet ist.
Mancko
2013-11-10, 13:10:52
analysten sehen vor allem den kurzfristigen gewinn und kaum die langfristige strategie. Ein anderer ceo hat in einem völlig anderen zusammenhang von der notwendigkeit von "overinvestment" gesprochen, wenn man eine sache anschieben will oder muss. Diese dinge zahlen sich aber oft erst jahre später aus, und es ist erst jahre später tödlich, wenn man solche investments verpasst. Man muss wege konsequent gehen und schwierigkeiten überwinden und den weg dabei immer adaptiv weiterentwickeln. nv1 war auch kein erfolg.
das alles passt aber nicht zum "horizont" von analysten, der oft nur bis zu den nächsten / übernächsten quartalszahlen reicht und in der einschätzung dieser quartalszahlen immer rückwärtsgerichtet ist.
Der Analyst hat halt vergessen sich mal Nvidia's Geschichte anzusehen vom Day 1 an. Manchmal ist der Weg halt steinig und man braucht einen langen Atem. Außerdem soll Nvidia ruhig mal weiter Aktien zurückkaufen wie aktuell auch bestätigt, dann ist es eh egal was Analyst A oder B so alles zu erzählen hat.
Skysnake
2013-11-10, 16:00:43
Miserable Quelle und auch verdammt schwer zu glauben. Tegra6/Parker duerfte der erste SoC mit einem custom Denver core sein und einem Maxwell Ableger unter 16nm FinFET. Um das Ding vorzuziehen muessten sie wohl auf 20SoC umschwingen. Oder Logan kommt doch spaeter als erwartet und man spielt mal wieder mit dem nach vorne bzw. nach hinten Mist rum um das Publikum zu verwirren...
Ja für mich ist das auch recht schwer zu verdauen, aber ich würde es nicht einfach von der Hand wischen. Ansonsten kann ich zu der Quelle nichts sagen. Ich hab das auch nur irgendwo aufgeschnappt und hier halt gepostet, weil ich dachte das wäre doch ganz interessant.
Sonst dass Analysten einen Verkauf der Tegra Sparte vorschlagen kann ich durchaus glauben bei den Zahlen, aber ich persoenlich halte es fuer eine Schnappsidee. Wer wuerde es denn ueberhaupt kaufen wollen und was genau hat Tegra so einzigartiges dass andere SoC Hersteller nicht haben? Texas Instruments hat ihre ULP SoC Sparte auch zu verkaufen versucht hat aber zu nichts gefuehrt und diese war selbst an ihrem Ende um einiges erfolgreicher als Tegra je war.
IMHO sollten Analysten erstmal die Klappe halten und abwarten ob Tegra4i irgendwelches Land fassen kann. Fuer mich liegt der Weg fuer Tegra zum Erfolg nicht in high end SoCs.
/sign
analysten sehen vor allem den kurzfristigen gewinn und kaum die langfristige strategie. Ein anderer ceo hat in einem völlig anderen zusammenhang von der notwendigkeit von "overinvestment" gesprochen, wenn man eine sache anschieben will oder muss. Diese dinge zahlen sich aber oft erst jahre später aus, und es ist erst jahre später tödlich, wenn man solche investments verpasst. Man muss wege konsequent gehen und schwierigkeiten überwinden und den weg dabei immer adaptiv weiterentwickeln. nv1 war auch kein erfolg.
das alles passt aber nicht zum "horizont" von analysten, der oft nur bis zu den nächsten / übernächsten quartalszahlen reicht und in der einschätzung dieser quartalszahlen immer rückwärtsgerichtet ist.
Das Problem ist nur, nVidia hat bisher versucht mit möglichst wenig Aufwand was zu reisen... Huang dachte wohl, Tegra verkauft sich allein, weil da nVidia drauf steht, genau so wie es bei den Desktop-GPUs der Fall ist....
Huang hat bisher den Ultra-Mobile-Markt einfach nicht verstanden. Mit T5 scheint man aber ENDLICH! richtig Geld in die Hand zu nehmen, und eben die nötigen Investitionen zu tätigen, um überhaupt eine realistische Chance zu haben, in dem Markt Fuß zu fassen.
Bleibt halt nur die Frage, ob sich nVidia nicht schon den Namen ruiniert hat mit ihren ständigen Verschiebungen und Relativierungen, wenn dann mal Produkte auf den MArkt kommen. Als OEM im Ultra-Mobile-Bereich würde ich nVidia als alles bezeichnen, aber nicht als verlässlichen Partner.
Ergo muss ihr Produkt deutlich besser sein als das der Konkurrenz, damit ich mich auf Sie einlasse. Ein unzuverlässiger Partner kann ich mir im Ultra-Mobile-Bereich nämlich nicht leisten. Da entscheiden Wochen/Monate über Top und Flop!
Ailuros
2013-11-10, 16:04:27
Der Analyst hat halt vergessen sich mal Nvidia's Geschichte anzusehen vom Day 1 an. Manchmal ist der Weg halt steinig und man braucht einen langen Atem. Außerdem soll Nvidia ruhig mal weiter Aktien zurückkaufen wie aktuell auch bestätigt, dann ist es eh egal was Analyst A oder B so alles zu erzählen hat.
NV als startup ist aber auch nicht vergleichbar zu heutigen Konstanten; nicht nur haben sich die Zeiten radikal geaendert aber damals waren GPU IHVs eigentlich alle kleine startups. Mit Tegra ist NV in einen Markt eingestiegen wo eigentlich die groessten semiconductor Hersteller miteinander konkurrieren.
Analysten Perskeptiven sind immer kurzsichtig, egal ob diese mit der Vergangenheit oder der Zukunft zu tun hat.
boxleitnerb
2013-11-22, 10:30:33
Nvidia will weiter an der Highend Strategie für Tegra festhalten.
http://www.fudzilla.com/home/item/33205-nvidia-reiterates-high-end-soc-strategy
Liest sich irgendwie wie eine Entschuldigung so nach dem Motto "wir wollen ja, aber wir können nicht, weil in den Lowend-Bereichen die Konkurrenz zu stark ist"...
Ailuros
2013-11-22, 11:07:54
Nvidia will weiter an der Highend Strategie für Tegra festhalten.
http://www.fudzilla.com/home/item/33205-nvidia-reiterates-high-end-soc-strategy
Liest sich irgendwie wie eine Entschuldigung so nach dem Motto "wir wollen ja, aber wir können nicht, weil in den Lowend-Bereichen die Konkurrenz zu stark ist"...
Bullshit-hoch-10.
1. Ist die Konkurrenz im high end kleiner? Wie, mit was oder wann will NV denn je mit high end tablets gegen Apple als Beispiel direkt konkurrieren?
2. MediaTek und Qualcomm sind seit neuestem dynamisch in den tablet Markt eingestiegen und jeder der beiden hat sich zumindest 10% Marktanteil eingeraeumt waehrend NV nach etlichen Jahren NIE so weit kam und ja QCOM's tablet design wins sind durchaus high end.
3. Grey bzw. Tegra4i ist mainstream/low end je nach Perspektive. Ich will mir nicht vorstellen dass dieses eine Eintagsfliege war. Will uns das obrige Management vielleicht sagen dass sie die Linie storniert haben und damit sogar T4i und sind zu feige es einzugestehen oder was?
Ja sie haben wohl endlich im Logan/Tegra5 eine wuerdige GPU fuer den Namen NVIDIA aber das reicht noch lange nicht fuer einen jeglichen Erfolg. Und der Hornochse der den ULP SoC Markt mit jeglichem desktop vergleicht sollte der Zugang zu jeglichem keyboard verboten werden. :rolleyes:
Hugo78
2013-11-22, 11:10:34
Nvidia will weiter an der Highend Strategie für Tegra festhalten.
http://www.fudzilla.com/home/item/33205-nvidia-reiterates-high-end-soc-strategy
Liest sich irgendwie wie eine Entschuldigung so nach dem Motto "wir wollen ja, aber wir können nicht, weil in den Lowend-Bereichen die Konkurrenz zu stark ist"...
Wenn selbst QCOM es nicht einfach hat, wäre es doch ein Verlust mit Ansage, wenn Nvidia hier auf Teufel komm raus auf Marge aus wäre.
Aus dem MediaTek Thema:
QCOM kann nicht so leicht so billig verkaufen wie MediaTek und nebenbei ist MTK alles andere als winzig. Nachdem sie MStar aufgekauft haben duerften sie einer der groessten TV-SoC provider weltweit sein.
Hugo78
2013-11-22, 11:19:44
Bullshit-hoch-10.
1. Ist die Konkurrenz im high end kleiner? Wie, mit was oder wann will NV denn je mit high end tablets gegen Apple als Beispiel direkt konkurrieren?
Apple kauft keine SoCs ein, von daher wayne?!
2. MediaTek und Qualcomm sind seit neuestem dynamisch in den tablet Markt eingestiegen und jeder der beiden hat sich zumindest 10% Marktanteil eingeraeumt waehrend NV nach etlichen Jahren NIE so weit kam und ja QCOM's tablet design wins sind durchaus high end.
Sie haben auch ein super breites Angebot.
QCOM verkauft auch immernoch 45nm SoCs als zb. S4 Play.
3. Grey bzw. Tegra4i ist mainstream/low end je nach Perspektive. Ich will mir nicht vorstellen dass dieses eine Eintagsfliege war. Will uns das obrige Management vielleicht sagen dass sie die Linie storniert haben und damit sogar T4i und sind zu feige es einzugestehen oder was?
Mit eigenem Modem fällt auch im Mainstream was ab, aber das taugt bei dem umkämpften Markt nur um den Umsatz hochzuhalten, nicht den Gewinn. Ergo Focus bleibt bei High End, alles andere wirft aus Nvidias Position heraus keinen Gewinn ab.
Ja sie haben wohl endlich im Logan/Tegra5 eine wuerdige GPU fuer den Namen NVIDIA aber das reicht noch lange nicht fuer einen jeglichen Erfolg. Und der Hornochse der den ULP SoC Markt mit jeglichem desktop vergleicht sollte der Zugang zu jeglichem keyboard verboten werden. :rolleyes:
Na ja man hat im gesamten PC GPU Markt auch nur 16,3% Marktanteil, stellt massiv Leute ein, wo andere entlassen und fährt dennoch Gewinne ein.
http://www.computerbase.de/news/2013-11/gpu-markt-intel-und-nvidia-legen-zu-amd-verliert/
Also wenn der PR Mensch sagt, man bedient nicht 70% des PC Marktes, hat er Recht.
Skysnake
2013-11-22, 11:27:56
Du musst aber die breite Masse den Marktes mit bedienen, um auf Stückzahlen zu kommen. nVidia hat bisher versucht auf Sparflame SOCs zu entwickeln, was nicht geklappt hat. Also müssen Sie jetzt richtig Geld rein kippen. Damit die Chippreise dann aber nicht explodieren, musste große Stückzahlen absetzen. Mit nur High-End schaffste das nicht.
Denn Ailuros hat schon Recht. Gegen Apple kann man nicht konkurrieren, und so die auch nicht in Versuchung führen den eigenen Chip ein zu setzen. Du hast also einen Großteil des High-End Marktes schon verloren, bevor du überhaupt in den Ring gestiegen bist.
Die High-End Schiene ist auch VERDAMMT! Gefährlich. Wenn du nur auf einen kleinen Bereich setzt, und dann eben nicht einschlägst, dann bricht dir das schneller das Genick als du schauen kannst.
EDIT:
In dem Fudzilla Link ist ja ein Part auch der Hammer :ugly:
The same philosophy applies to Tegra. The low-end and mid-range space is much more competitive, so Nvidia doesn’t want to take on the likes of Mediatek and Qualcomm.
und
Nvidia can’t and won’t target high-volume markets.
Ok, jetzt sinds zwei Sachen, aber egal :tongue:
Was leider nicht klar ist, ob das jetzt nur die Meinung des Autors oder von Csongor ist. Die Ansage, as man nicht mit Mediatek und Qualcomm konkurrieren kann, wäre ne glatte Bankrotterklärung für mich.
Und der zweite Teil klingt für mich nach: Wir wollen die Holzhammermethode benutzen, weil wir möglichst viel aus dem Desktop nutzen wollen, und das nur für die obersten 5% des Marktes taugt.
Voodoo6000
2013-11-22, 11:35:28
Ich mal gespannt wie es mit dem Tegra weitergeht. Der Tegra 4 war ja ein Flop(technisch und Finanziell). Außerdem drängen mit MediaTek und AMD auch neue große Spieler in das Segment ein. Tegra 5/6 muss deutlich besser werden wenn man den eigenen High End Ansprüchen gerecht werden will. Ansonsten werden SOCs wie der S800 weiter Kreise um NV drehen.(und Qualcomm bringt ja auch noch neue SOCs). Außerdem setzt WP auf Qualcomm und Samsung auf die eigen SOCs bzw. momentan auch auf Qualcomm bis sie den besten Soc haben bzw. genug Kapazitäten für die Herstellung des eigen.
Ailuros
2013-11-22, 18:49:31
Apple kauft keine SoCs ein, von daher wayne?!
Natuerlich kauft Apple keine SoCs ein, aber Apple hat nach wie vor den groessten high end Marktanteil. Die Frage war wie und mit was NV gegen jemand wie Apple konkurrieren will. Apple entwickelt ihre SoCs selber und dazu ist ihr neuester A7 wohl das heisseste Eisen von der CPU und GPU Seite, mit den Volumen die sie herstellen ist ihr Herstellungs-BOM laecherlich klein, sie haben ihr eigenes OS, ihren eigenen erfolgreichen applications store....reicht so viel? Qualcomm stellt auch in brutalen Massen her, Samsung und Intel haben ihre eigenen foundries etc etc. von all dem hat NVIDIA genau was um mir nichts dir nichts auf dem high end SoC Markt zu beharren?
Sie haben auch ein super breites Angebot.
QCOM verkauft auch immernoch 45nm SoCs als zb. S4 Play.
Ich sagte tablet Markt; QCOM ist seit neuestem in diesen eingedrungen und es sind S4 PRO bis S800 SoCs; 28LP bzw. 28HPM hat nichts mit dem 45nm low end Mist zu tun.
Mit eigenem Modem fällt auch im Mainstream was ab, aber das taugt bei dem umkämpften Markt nur um den Umsatz hochzuhalten, nicht den Gewinn. Ergo Focus bleibt bei High End, alles andere wirft aus Nvidias Position heraus keinen Gewinn ab.
Das klingt schon fast so als haette NV je selbst einen Cent am high end Markt verdient; ich sehe nur rote Zahlen die mit der Zeit wachsen und nicht kleiner in Richtung Gewinn tendieren. Ihr erfolgreichstes Tegra Jahr war mit Tegra3 und 10 Mio Einheiten. Angenommen sie haben im Durchschnitt bei $15/SoC verkauft sind es 15Mio Umsatz.
Haetten sie im Gegensatz als einfaches Beispiel 100Mio Stueck fuer $5/SoC verkauft haette es 500Mio Umsatz bedeutet. Kommt bei Deinem Rechner etwas anderes raus? Und sag mir jetzt bloss nicht "unmoeglich" weil es eben genauso BS sein wird wie alles andere. Mediatek ist "juenger" im ULP SoC Markt als NVIDIA und sie sind momentan bei 200Mio SoCs/Jahr mit steigender Tendenz.
Na ja man hat im gesamten PC GPU Markt auch nur 16,3% Marktanteil, stellt massiv Leute ein, wo andere entlassen und fährt dennoch Gewinne ein.
http://www.computerbase.de/news/2013-11/gpu-markt-intel-und-nvidia-legen-zu-amd-verliert/
Also wenn der PR Mensch sagt, man bedient nicht 70% des PC Marktes, hat er Recht.
Hast Du ueberhaupt gelesen was Du gerade zitiert hast? Ich sagte deutlich dass der PC Markt nicht vergleichbar ist zum ULP SoC Markt. Was hat das um Himmel's Willen genau mit dem obrigen zu tun?
Skysnake
2013-11-22, 19:58:23
Ich sagte tablet Markt; QCOM ist seit neuestem in diesen eingedrungen und es sind S4 PRO bis S800 SoCs; 28LP bzw. 28HPM hat nichts mit dem 45nm low end Mist zu tun.
Das ist es halt auch. Ist ja nicht so, als ob die Gegner nur Low-End machen würden, und High-End links liegen lassen würden. Die decken teils von oben bis unten alles ab, oder sind zumindest bestrebt genau das zu machen.
Ailuros
2013-11-22, 20:03:44
Das ist es halt auch. Ist ja nicht so, als ob die Gegner nur Low-End machen würden, und High-End links liegen lassen würden. Die decken teils von oben bis unten alles ab, oder sind zumindest bestrebt genau das zu machen.
Seit das Xiaomi M3 in China erschienen ist scheinen sich die Dinger wie warme Semmeln zu verkaufen. Gut nur die non LTE Variaten vom M3 haben T4, die anderen einen S800 SoC, aber NVIDIA ist kein Unbekannter in China bzw. generell im fernen Osten.
Hugo78
2013-11-22, 21:33:55
@Ailuros
Nvidia braucht eine profitable Nische als Zulieferer solang man im SSF Markt mitspielen darf.
Und die bietet der High End Markt viel eher als der rein am Preis orientierte Low und Mainstream Markt.
Dabei ist der Aufbau eines eignen Ökosystems garkeine schlechte Idee, um aus dieser reinen Zulieferecke rauszukommen,
warum soll man auch den dicken Teil der Wertschöpfung anderen überlassen...
Gegen Apple, Samsung und Intel, kann man nicht anstinken, aber QCOM als Zulieferer kann man kurzfristig meistern und ein gleichwertiges Paket anbieten.
Zumindest solang bis Intel dann QCOM, Nvidia und einfach jeden Anderen abseits von Apple und Samsung im High End platt macht, als Lieferant für SoCs in 2-5 Jahren.
Der ganz billige Bereich wird dann vom chinesischen oder indischen Herstellern bedient.
Und ja MediaTek ist aus Taiwan, aber das sind auch nur rechte Chinesen, die keinen Bock auf ihre linksverdrehten Brüder vom Festland hatten.
Ailuros
2013-11-23, 09:03:19
@Ailuros
Nvidia braucht eine profitable Nische als Zulieferer solang man im SSF Markt mitspielen darf.
Und die bietet der High End Markt viel eher als der rein am Preis orientierte Low und Mainstream Markt.
NVIDIA braucht Volumen um Markanteil zu gewinnen; haben sie dieses dann erstmal erreicht dann koennen sie kinderleicht mit einem ultra high end design zuschlagen. High end ist teuer ergo bringt nur geringe Volumen und der Anteil des Markts ist mit bei weit besseren Loesungen momentan vollgepflastert.
Dabei ist der Aufbau eines eignen Ökosystems garkeine schlechte Idee, um aus dieser reinen Zulieferecke rauszukommen,
warum soll man auch den dicken Teil der Wertschöpfung anderen überlassen...
Und welchen Marktanteil soll dieses "Oekosystem" genau ansprechen? Theoretisch ist zwar alles toll aber Unsummen in ein Oekosystem zu schmeissen mit einem einstelligen Marktanteil ist schlicht laecherlich.
Gegen Apple, Samsung und Intel, kann man nicht anstinken, aber QCOM als Zulieferer kann man kurzfristig meistern und ein gleichwertiges Paket anbieten.
Weil QCOM irgendwie sehenswert "kleiner" ist als all die vorerwaehnten oder weil sie zu wenig Marktanteil haben? Und auch noch kurzfristig ROFL :D Wann war es das letzte Mal dass Du Dir eine Statistik angeshen hast wieviel Marktanteil Qualcomm genau hat? Rate mal wieviel von dem bombastischen Prozentual genau "high end" ist...ja genau eben.... :rolleyes:
Sonst wenn jemand so viele Mio SoCs wie QCOM herstellt ist der Herstellungspreis so laecherlich klein wie bei Apple. Wenn man nur 10, 20 oder sogar 30Mio SoCs herstellt weil man sich nur auf high end konzentriert kostet jeglicher SoC um wieviel genau mehr in der Herstellung?
Wenn Du irgendwo/irgendwie eine parallele zum desktop ziehen willst, dann hat dort NVIDIA eine komplette Pallette von low end PC GPUs bis zu verdammt teuren Quadros/Teslas fuer Profi-Maerkte. Ja alles high end hat hohe Margen aber auch verdammt niedrige Volumen und fuer den eigentlichen PC/notebook Marktanteil von NVIDIA und die eigentliche R&D Finanzierung kommt von allem ab performance GPU und unterhalb.
Zumindest solang bis Intel dann QCOM, Nvidia und einfach jeden Anderen abseits von Apple und Samsung im High End platt macht, als Lieferant für SoCs in 2-5 Jahren.
Steck Dir eins in den Kopf: es wird sich in den naechsten Jahren so viel aendern dass sich viele die Augen reiben werden muessen. Es gibt neue Staerken im Markt und die lassen sich sehr schwer meistern. Die Wintel goldene Aera ist vorbei.
Der ganz billige Bereich wird dann vom chinesischen oder indischen Herstellern bedient.
Und ja MediaTek ist aus Taiwan, aber das sind auch nur rechte Chinesen, die keinen Bock auf ihre linksverdrehten Brüder vom Festland hatten.
Es ist scheissegal woher MTK kommt und was sie bedienen; sie haben spaeter als NVIDIA mit dem ULP Markt angefangen und haben heute verdammt hohe Wachstumsraten. 200Mio SoCs/Jahr und 10% vom weltweiten Android tablet Markt u.v.a. Im gegebenen Fall ist es lediglich ein Parade-Beispiel wie weit man mit low end genau kommen kann bzw. wie man schnell zu hohen Markanteilen kommt.
Aber wenn es nur um Jensen's daemlichen Parade-stolz gehen muss hoffe ich ehrlich dass er sich an dem Mist nicht noch mehr die Zaehne ausbeisst.
AffenJack
2013-11-23, 10:47:00
Steck Dir eins in den Kopf: es wird sich in den naechsten Jahren so viel aendern dass sich viele die Augen reiben werden muessen. Es gibt neue Staerken im Markt und die lassen sich sehr schwer meistern. Die Wintel goldene Aera ist vorbei.
Ja es wird sich viel ändern die nächsten Jahre und die Zukunft ist ziemlich ungewiss, wer sich da durchsetzen wird. Aber du unterschätzt offensichtlich Intel. Mit TickTock nun bei Atom und 14nm/10nm Fertigung hat man das Potential SoCs zu bauen an die kein Konkurent rankommt und die sich auch gut verkaufen werden. Im schlimmsten Falle geht Intel in einen Preiskampf, wo sie die anderen dank Preisvorteil verdrängen. Nur weil Intel Ewigkeiten gebraucht hat um aufzuwachen und zu merken, dass sie mehr investieren müssen, heisst es nicht dass deren Ära vorbei ist.
Nvidia dagegen hat schon eher das Problem. Wenn man nicht mit Logan oder spätestens mit Parker und eigenen Cores aufn guten Marktanteil kommt sehe ich für sie in dem Markt schwarz.
Man muss auch sehen, wie sich der Smartphonemarkt weiter entwickelt. Im Moment haben wir praktisch unbegrenztes Wachstum, aber das wird auch nicht ewig anhalten. In 4,5 Jahren könnte sich das deutlich verlangsamen und ein Marktanteilkampf ausbrechen und da kann Intel spätestens seine Stärken ausspielen.
Hugo78
2013-11-23, 11:30:53
NVIDIA braucht Volumen um Markanteil zu gewinnen; haben sie dieses dann erstmal erreicht dann koennen sie kinderleicht mit einem ultra high end design zuschlagen.
Nur weil man No Name Leuten low End Standardkost mit Quad ARM A7 und abgespeckter SGX 544MP zum Selbstkostenpreis en Masse andreht,
werden nicht High End Leute wie ferngesteuert auch den neuen MTK big.Little Chip kaufen, wenn sie dagegen einen S800 haben können.
Ausser natürlich QCOM beliefert diese Firmen nicht mit S800, wie im Falle HTC.
Steck Dir eins in den Kopf: es wird sich in den naechsten Jahren so viel aendern dass sich viele die Augen reiben werden muessen. Es gibt neue Staerken im Markt und die lassen sich sehr schwer meistern. Die Wintel goldene Aera ist vorbei.
Intel ist doch garnicht auf Microsoft angewiesen um im Adroidmarkt alles platt zumachen, sobald sie mit ihrem Design überall mithalten können.
Intel hat mittlerweile auch ein eigenes LTE Modem für ihre 22nm SoCs, was bisher ja der Stolperstein war im Markt und LTE+ ist für irgendwann 2014 angekündigt. Und sie werden weiter aufholen, in allen Bereichen.
Natürlich greift Samsung aktuell 90% der Gewinne aller Androidgeräte ab. Ihre Marktdurchdringung ist beispiellos.
Aber ihre eigenen SoC Designs sind mau und sie sind pragmatisch genug, sich nicht Zulieferer zuverschließen, wenn der das bessere Angebot hat. Zumal Intel auch en Masse liefern kann.
Es ist scheissegal woher MTK kommt und was sie bedienen; sie haben spaeter als NVIDIA mit dem ULP Markt angefangen und haben heute verdammt hohe Wachstumsraten. 200Mio SoCs/Jahr und 10% vom weltweiten Android tablet Markt u.v.a. Im gegebenen Fall ist es lediglich ein Parade-Beispiel wie weit man mit low end genau kommen kann bzw. wie man schnell zu hohen Markanteilen kommt.
Und morgen kommt ein Festlandchinese oder Inder und verkloppt die selbe Standardkost fürn halben Cent weniger, dann wars das wieder mit den Wachstumsraten.
Da unten ist man austauschbar, da zählt nur der Preis.
Ailuros
2013-11-23, 17:46:17
Ja es wird sich viel ändern die nächsten Jahre und die Zukunft ist ziemlich ungewiss, wer sich da durchsetzen wird. Aber du unterschätzt offensichtlich Intel. Mit TickTock nun bei Atom und 14nm/10nm Fertigung hat man das Potential SoCs zu bauen an die kein Konkurent rankommt und die sich auch gut verkaufen werden. Im schlimmsten Falle geht Intel in einen Preiskampf, wo sie die anderen dank Preisvorteil verdrängen. Nur weil Intel Ewigkeiten gebraucht hat um aufzuwachen und zu merken, dass sie mehr investieren müssen, heisst es nicht dass deren Ära vorbei ist.
Ich unterschaetze Intel nirgends nur sind sie auch ploetzlich in einen Markt eingetreten wo sie eben NICHT das "be all end all" sind und jegliche Form von CPU IP den ULP Semis ziemlich grosse Vorteile gibt.
Uebrigens sagte ich "wintel Aera" und ebenso wie oben ist eben Microsoft in der Zukunft nicht mehr was es bis heute war im Vergleich zu Google. Andere Landschaft, andere Konstanten, andere Verteilung und ja das ist dann tatsaechlich das Ende einer Aera.
Nvidia dagegen hat schon eher das Problem. Wenn man nicht mit Logan oder spätestens mit Parker und eigenen Cores aufn guten Marktanteil kommt sehe ich für sie in dem Markt schwarz.
Jensen weiss sich schon zu wenden und obwohl das Schiff momentan schon ziemlich im Sturm wackelt wird er es schon zu Land bringen. Es wird aber auch wie im Fall oben kein Intel "Effekt" sein. Anders ob Intel CPU oder NVIDIA GPU wird es jeweils nicht NUR eine AMD CPU oder eine AMD GPU als einzigen Konkurrenten geben.
Man muss auch sehen, wie sich der Smartphonemarkt weiter entwickelt. Im Moment haben wir praktisch unbegrenztes Wachstum, aber das wird auch nicht ewig anhalten. In 4,5 Jahren könnte sich das deutlich verlangsamen und ein Marktanteilkampf ausbrechen und da kann Intel spätestens seine Stärken ausspielen.
IP wird weiterhin in Wichtigkeit dazugewinnen, eben weil Samsung, Qualcomm, Mediatek und all die anderen eben nicht den Luxus, Bock und engineering talent haben selber CPUs oder GPUs zu entwickeln. Intel kann im besten Fall genauso wie NVIDIA oder jegliche andere SoC Hersteller lediglich SoCs verkaufen, mit standalone CPUs wie im desktop ist es wohl aus.
Nur weil man No Name Leuten low End Standardkost mit Quad ARM A7 und abgespeckter SGX 544MP zum Selbstkostenpreis en Masse andreht,
werden nicht High End Leute wie ferngesteuert auch den neuen MTK big.Little Chip kaufen, wenn sie dagegen einen S800 haben können.
Ausser natürlich QCOM beliefert diese Firmen nicht mit S800, wie im Falle HTC.
Der MTK6592 (der uebrigens Mali GPU IP hat) den Mediatek's Partner gerade in Produkten auf die Regale schicken hat u.a. design wins wie ein phablet von SONY, insgesamt moment ueber 20 design wins.
Und was heisst bei Dir ueberhaupt "abgespeckter" 544MP? GPU IP ist verdammt variabel und das ist eben gerade der Vorteil von jeglichem IP (sei es jetzt ARM, IMG, Vivante oder weiss der Geier was) dass man von einem core bei niedriger Frequenz bis zu etlichen cores bei hoher Frequenz steigern kann.
Der big.LITTLE chip names MT8135 ist ein tablet applications processor, ist noch nicht erschienen in Geraeten aber MTK hat 15Mio chips vorbestellt bis Ende des Jahres.
Intel ist doch garnicht auf Microsoft angewiesen um im Adroidmarkt alles platt zumachen, sobald sie mit ihrem Design überall mithalten können.
Intel hat mittlerweile auch ein eigenes LTE Modem für ihre 22nm SoCs, was bisher ja der Stolperstein war im Markt und LTE+ ist für irgendwann 2014 angekündigt. Und sie werden weiter aufholen, in allen Bereichen.
Natürlich greift Samsung aktuell 90% der Gewinne aller Androidgeräte ab. Ihre Marktdurchdringung ist beispiellos.
Aber ihre eigenen SoC Designs sind mau und sie sind pragmatisch genug, sich nicht Zulieferer zuverschließen, wenn der das bessere Angebot hat. Zumal Intel auch en Masse liefern kann.
Siehe meine Antwort zu Affenjack's Post oben.
Und morgen kommt ein Festlandchinese oder Inder und verkloppt die selbe Standardkost fürn halben Cent weniger, dann wars das wieder mit den Wachstumsraten.
Da unten ist man austauschbar, da zählt nur der Preis.
Nach all den Jahren wuerde ich denken dass man dazugelernt hat. Es waren mal die Amis und Europaeer vor sehr langer Zeit die technisch alles versorgten und alles aus Japan war lachhafter Krampf. Dann haben sich die Japaner aufgekrempelt, haben an die Koreaner verloren. Danach kommen vielleicht die Chinesen und dann die Indier....juckt mich kein bisschen und es ist auch nicht besonders relevant. Es war erst vor kurzem wo NV selber betonte wie wichtig fuer sie Maerkte wie der chinesische wirklich sind.
Der ULP SoC Markt explodiert weiterhin und es gibt noch genug Platz fuer viele andere Spieler wenn sie nur ihre Karten richtig spielen. Ob Ihr es jetzt einsehen wollt oder nicht NVIDIA hat bis jetzt nur Scheiss gebaut in dem Markt und man kann es auch am laecherlichen Marktanteil sehen. Eben weil NVIDIA bis jetzt alles "richtig" macht schrumpfte ihr Marktanteil im letzten Jahr anstatt dass er ansteigt.
wird Logan schon 64Bit Kerne besitzen oder erst die Denver-Core's?
http://www.hartware.de/news_59318.html
AnarchX
2013-11-29, 15:17:14
Logan wird doch weiter auf Cortex A15 setzen -> 32-Bit.
Ailuros
2013-11-29, 15:40:09
wird Logan schon 64Bit Kerne besitzen oder erst die Denver-Core's?
http://www.hartware.de/news_59318.html
Logan = 4+1 A15 @2.3GHz
Parker = Denver + Maxwell Enkelkind
Die Quelle vom link ist uebrigens "digitimes" :rolleyes:
Undertaker
2013-12-08, 10:24:26
Ich zitiere mal aus einem anderen Thread:
Logan/T5 = 28HPm, Parker/T6 = 16 FinFET
Kein 20nm non-FinFET Tegra?
Dural
2013-12-08, 11:57:46
nv wird sich nie, ich wiederhole nie im low coast soc markt etablieren können.
die high-end strategie ist die einzig richtige für nv. nv braucht auch gar keinen hohen marktanteil, für was auch da nv mit billig kram eh nichts verdienen kann.
Skysnake
2013-12-08, 12:40:28
Ähm.... ja.
Was sind denn die Leute(Firmen) bereit für einen SOC zu zahlen? 30$? 50$? oder gar mehr?
Und was muss dann das Gerät kosten? 500$+? 1000$+?
Und wer soll das dann produzieren und vermarkten?
Apple? Hahaha dreimal kurz gelacht..
Samsung? Möglich, möglich, aber das wird richtig richtig schwer da rein zu kommen. Ganz abgesehen, dass die auch selbst Chips entwickeln, und man also erstmal die an sich schlagen muss.
Wer bleibt dann noch?
Nokia? ;D Ach ich vergaß, die sind ja mit Intel verheiratet
HTC? Jo, die könnten eventuell so was machen, wobei die sich erstmal stabilisieren müssen. Die Geschäfte liefen 2012/13 nicht wirklich so knalle bei denen. Also auch eher fraglich, ob Sie da große Risiken eingehen wollen/können
Sony? Puh puh. Schwer zu sagen. Sony ist auch schwer angeschlagen. Ob man sich da traut gegen Samsung und Apple an zu treten? Die letzte Zeit war man damit eigentlich eher weniger erfolgreich.
Und den ganzen Rest kannste eh knicken für den High-End Markt....
Und was lernen wir daraus? VERGISS ES!
Ohne den Low-End Markt, sind die Entwicklungskosten einfach viel zu hoch. Das kannste knicken im Smartphone und Tablet markt. Apple greift einfach einen zu großen Marktanteil insbesondere im High-End bereits ab, ohne das man auch nur die geringste Chance hätte da auch nur einen Chip zu verkaufen....
Damit steigen die Stückfixkosten pro Chip noch weiter an. Das bricht dir einfach das Genick.
Ohne Low-End kannste nicht überleben im Consumerbereich.
nVidia wird das bei den dGPUs auch noch schmerzlich zu spüren bekommen. Die Entwicklungskosten steigen und der Markt schrumpft ständig. Das ist ne beschissene Ausgangslage für dGPU.
Dural
2013-12-08, 13:46:28
apple apple apple... ist auch nicht mehr das was es mal war, und wird in zukunft garantiert weiter abgeben müssen.
übrigens halte ich ihre soc so wie so für überbewertet, da hinter steckt auch sicher ein total optimiertes betriebssystem und treiber. unter android würde das sicher etwas anders aussehen.
was nv braucht ist jedes jahr pünktlich ein high-end soc und nicht wie wir es mit t4 erlebt haben mit einigen verzögerungen. t4 hätte zeitgleich mit s600 erscheinen müssen und nicht wie jetzt sogar etwas nach s800. da wäre t4 garantiert auch viel beser in den markt gekommen. das die hersteller rückblickent den s800 gewählt haben anstelle t4 verwunder doch nimanden, besser lieferbar und schneller.
Nakai
2013-12-08, 14:32:45
apple apple apple... ist auch nicht mehr das was es mal war, und wird in zukunft garantiert weiter abgeben müssen.
übrigens halte ich ihre soc so wie so für überbewertet, da hinter steckt auch sicher ein total optimiertes betriebssystem und treiber. unter android würde das sicher etwas anders aussehen.
was nv braucht ist jedes jahr pünktlich ein high-end soc und nicht wie wir es mit t4 erlebt haben mit einigen verzögerungen. t4 hätte zeitgleich mit s600 erscheinen müssen und nicht wie jetzt sogar etwas nach s800. da wäre t4 garantiert auch viel beser in den markt gekommen. das die hersteller rückblickent den s800 gewählt haben anstelle t4 verwunder doch nimanden, besser lieferbar und schneller.
Sicherlich wäre T4 besser angekommen, aber im Vergleich zu den meisten anderen SOCs war der T4 schon veraltet bevor er auf dem Markt gekommen ist.
NV muss eine eigene CPU-Architektur auf dem ARMv7/v8-ISA bringen. Cortex A15 ist zu energieineffizient.
NV muss endlich eine gute GPU-Architektur bringen. Mit T5 solls ja endlich eine Kepler-artige Architektur Einzug erhalten. Schade, dass jegliche Konkurrenz schon auf diesem technologischem Schritt ist(Adreno, Rogue, Vivante GC, Mali).
NV muss alle APIs unterstützen. Derzeit ist man in allen Belangen hintendran und wird es auch in vielen Belangen bleiben.
NV muss endlich mal liefern und nicht ankündigen.
Sicherlich ist vieles nicht sonderlich auschlaggebend für einen guten SOC, aber die Summe machts. NV kann gerne im Highend-Sektor verweilen, aber im mittleren und unterem Bereich muss endlich auch was geliefert werden. Stückzahlen, Lieferfristen und Support ist da viel wichtiger als irgendein Highend-SOC. Nvidia will da doch nur nicht rein, weil die Margen wertlos sind. Gewinn macht man über Stückzahlen und Marktanteil. Wenn NV da endlich ihren Ruf festigen könnte(Produktlebenszyklen sind kurz, das geht relativ schnell, wenns mal klappt), könnte der Highend-Bereich damit auch gepusht werden. Es ist einfach nicht der GPU-Bereich, bei dem Prozente im einstelligem Bereich ausschlaggebend sind. Featureset, ungefähre Performance und Stückzahlen sind wichtig. Da machts derzeit sogar AMD besser.(ja ne, eher doch NV )
Avalox
2013-12-08, 15:03:05
übrigens halte ich ihre soc so wie so für überbewertet,
Das ist so Quatsch. Die CPU des A7 ist eine völlig neue Dimension. Der IPC der CPU übertrifft die in allen vergleichbaren SoCs bei weiten. Die GPU ist natürlich dazu gekauft und damit natürlich nicht grundsätzlich exklusiv, aber der CPU Kern ist tatsächlich eine andere Liga. Diese nicht nur auf den Takt bezogen, sondern auch absolut.
Natürlich ist der CPU Kern als solches nicht der alleinige Faktor, den die Größe des Kerns und damit der Aufwand ist immer zu berücksichtigen.
So liegt der A7 insgesamt als SoC mit seinen nur zwei CPU Kernen sehr gut im Rennen, ist gesamt aber natürlich weit weniger spektakulär, als es die einzelne CPU heraus gestellt ist.
Die Qualcomm Krait Kerne sind ja die, die inzwischen die schlechteste IPC aller Top ARM Kerne bietet.
Der große Vorteil von Qualcomm ist das integrierte LTE Modem, diese gekoppelt mit einen performanten und energiesparenden CPU Kern und einer hohen GPU Leistung.
CPU und GPU sind allerdings dort keine wirklich abgehobenen Eigenschaften des Qualcomm SoCs, diese Ausnahmeerscheinung bekommen die SoCs erst durch das integrierte Modem. Was einerseits den Preis senkt und andererseits die Systeme vereinfacht. Die Pads schwimmen auf der Welle des Herstellers dann mit und werden aus der gleichen Geschäftsbeziehung versorgt.
In nächster Zeit treten noch ganz andere Hersteller auf den Plan und der SoC Markt wird allgemein wieder bunter werden.
Der mit Abstand wichtigste Faktor für die nV SoCs ist es ein vernümftiges Modem in den SoC zu integrieren. Das ist weit entscheidender als der CPU, oder der GPU Kern.
Ailuros
2013-12-08, 20:22:02
apple apple apple... ist auch nicht mehr das was es mal war, und wird in zukunft garantiert weiter abgeben müssen.
Da es hier um NV geht kann NV von Apple's Gewinnmargen nur so traeumen.
übrigens halte ich ihre soc so wie so für überbewertet, da hinter steckt auch sicher ein total optimiertes betriebssystem und treiber. unter android würde das sicher etwas anders aussehen.
Um einiges weniger ueberwertet als der bisherigen T3 bzw. T4 Scheiss als weitere Beispiele. Was hat denn NV tolles praesentiert bis jetzt um sich zu differenzieren? Im Vergleich zum T4 ist der A7 ein Technologie- und Effizienz-Vorbild auf allen Fronten.
was nv braucht ist jedes jahr pünktlich ein high-end soc und nicht wie wir es mit t4 erlebt haben mit einigen verzögerungen. t4 hätte zeitgleich mit s600 erscheinen müssen und nicht wie jetzt sogar etwas nach s800. da wäre t4 garantiert auch viel beser in den markt gekommen. das die hersteller rückblickent den s800 gewählt haben anstelle t4 verwunder doch nimanden, besser lieferbar und schneller.
Na erzaehl mal was so toll an T4 liegt dass ein jeglicher Sx00 ihm nicht den Hintern glohreich im Bereich perf/mW und auch noch zusaetlich LTE versohlt. Wenn Qcom ueber 30x Mal so viel Marktanteil hat wie NV und Milliarden in die Geschichte schuettet kann NV ziemlich lange wie eine Feldmaus einen Elephanten wie Qcom versuchen anzubruellen.
Skysnake
2013-12-09, 11:14:35
Ja und für nVidia ist das Problem ja dabei auch noch, dass Qcom dabei eben nicht drauflegt, sondern Gewinne macht.
Und selbst wenn nVidia mehr Geld reinkippt als jetzt und ein Produkt schafft, das genau so gut wie die von QCom oder marginal besser, wird ihnen das nicht viel helfen. QCom ist ein verlässlicher Partner, den man kennt usw usw. nVidia hat sich genau zum Gegenteil gemausert.
Einem Partner bei dem man schon damit rechnet, dass das mit den Roadmaps nichts wird. :(
nVidia kämpft da in meinen Augen ein bischen mit den gleichen Problemen wie AMD im dGPU Markt. Das Image ist schon hinüber.
Undertaker
2013-12-09, 12:39:11
Na erzaehl mal was so toll an T4 liegt dass ein jeglicher Sx00 ihm nicht den Hintern glohreich im Bereich perf/mW und auch noch zusaetlich LTE versohlt.
Fairerweise sollte man allerdings bemerken, dass Tegra 4 (~80 mm²) im Vergleich zum Snapdragon 800 (~120 mm²) und Apple A7 (~100mm² und auch kein Modem) ziemlich klein ist. Wo wäre ein breiterer Tegra 4 mit weniger Takt und 28nm HPM wohl gelandet? Nvidia wollte offensichtlich einen High-End-Chip zu möglichst geringen Produktionskosten und hat dies mit einer erhöhten Leistungsaufnahme erkauft.
Ailuros
2013-12-09, 13:12:20
Fairerweise sollte man allerdings bemerken, dass Tegra 4 (~80 mm²) im Vergleich zum Snapdragon 800 (~120 mm²) und Apple A7 (~100mm² und auch kein Modem) ziemlich klein ist. Wo wäre ein breiterer Tegra 4 mit weniger Takt und 28nm HPM wohl gelandet? Nvidia wollte offensichtlich einen High-End-Chip zu möglichst geringen Produktionskosten und hat dies mit einer erhöhten Leistungsaufnahme erkauft.
Fairerweise auch andersrum sind im Vergleich zur Kombination [die area + transistor density] wohl sterile die area ziemlich wurscht. Stell Dir mal vor wenn es wirklich stimmt dass die ULP GF im T4 nur ~10mm2 gross ist wie sie das Ganze zusammengequetscht haben und dass auch noch bei der bei weit aggressivsten GPU Frequenz im ganzen Markt.
Was fuer eine Batterie-Groesse hast Du im iPhone5S im Vergleich zum Xiaomi M3 und wie lange haelt jeweilige unter 3D genau aus?
Sonst koenntest Du Dir Produktionskosten etwas leichter ausrechnen wenn wir wuessten wie die yields fuer Tegra4 aussehen. Eine sehr hohe Packdichte koennte eventuell ziemlich schlechte Nachrichten fuer yields heissen und hier gibt es auch kein "binning" wie bei GPUs wo man eventuell Einheiten abschalten koennte. Du wurdest auf die zu hohe Abwaerme in T4 Geraeten sogar vor mir aufmerksam; woher kommt die genau nochmal? Egal mit welcher Packdichte werden NV's Herstellungskosten stets hoeher sein als bei Deinen anderen zwei Beispielen und ich weiss auch nicht wieso sie so stark auf den Rums bestehen.
Skysnake
2013-12-09, 13:14:34
Das wäre aber selten dämlich Perf/mW ist so ziemlich die wichtigste Metrik überhaupt im ultra Mobile Bereich.
Ganz nebenbei sollte man sich mal darüber Gedanken machen, was das denn bedeutet, wenn nVidia breitere Chips bauen muss, um zu konkurrieren. Damit steigen die Kosten/Chip noch weiter an für Sie, Sie müssen also noch weiter mit den Preisen runter, um genug ab zu setzen.
DAS! ist doch auch das Problem von nVidia. Sie setzen schlicht zu wenige Chips ab. Die Marge pro Chip kann noch so groß sein wie Sie wollen. Sie bekommen nicht mal die Fixkosten rein...
Ailuros
2013-12-09, 13:30:28
Nebenbei halte ich es zwar auch nicht besonders wahrscheinlich aber Grey/T4i keinen Nachfolger zu entwickeln wuerde auch heissen dass ein ziemlich grosses Markt-segment augegeben wird....:confused:
Skysnake
2013-12-09, 13:52:05
Wieso, gibts die Dinger schon zu kaufen, für OEMs?
Man kann nur etwas aufgeben, was man bereits gemacht hat.
Undertaker
2013-12-09, 14:03:31
Fairerweise auch andersrum sind im Vergleich zur Kombination [die area + transistor density] wohl sterile die area ziemlich wurscht. Stell Dir mal vor wenn es wirklich stimmt dass die ULP GF im T4 nur ~10mm2 gross ist wie sie das Ganze zusammengequetscht haben und dass auch noch bei der bei weit aggressivsten GPU Frequenz im ganzen Markt.
Na das ist doch genau das was ich sage: Tegra 4 wurde imo zu agressiv in einen möglichst kleinen Die gepresst, das killt die Energieeffizienz. Oder bist du etwa nicht der Ansicht, dass ein >100mm² Tegra 4 mit zusätzlichen Einheiten, niedrigerer Frequenz und HPM-Fertigung deutlich konkurrenzfähiger wäre? :confused:
Ich denke allerdings auch, dass Nvidia derartige Überlegungen im Voraus ebenfalls angestellt hat. Und sich dann bewusst dafür entschieden hat, lieber direkt auf große Tablets zu zielen, wo die Abwärme gerade noch handlebar ist (das Toshiba Excite läuft nach den letzten Patches ganz gut, Surface 2 zeigt ebenfalls kein in dieser Klasse übermäßiges Throttling). Denn stellen wir uns vor, man hätte in mehr Transistoren oder Fläche investiert und wäre trotzdem nicht in der Breite in Smartphones hinein gekommen...
YfOrU
2013-12-09, 15:16:15
Denn stellen wir uns vor, man hätte in mehr Transistoren oder Fläche investiert und wäre trotzdem nicht in der Breite in Smartphones hinein gekommen...
Wäre in größeren Umfang nur möglich gewesen wenn Tegra 4 mit Icera 410 zu einem attraktiven Preis gebündelt worden wäre. Die (LTE) Baseband war aber nicht verfügbar und steht bei Nvidia bis heute auf "Sampling now".
Das wird auch in Zukunft schwierig denn der ein oder andere Konkurrent verschenkt praktisch die Baseband im Paket und im Low-Cost/Mainstream wird durch die Bank integriert. Um Volumen zu generieren ist T4i deshalb auch der richtige Ansatz -> Low-Cost/Mainstream. Allerdings ist der Wettbewerb in dem Segment noch viel härter. Ernsthafte Gewinne wird es hier auf absehbare Zeit nicht geben denn Unternehmen wie Mediatek, Samsung, Intel und Qualcomm haben das Messer zwischen den Zähnen. Intel will als Beispiel um jeden Preis Marktanteile und die werden ihre SoCs wenn es sein muss indirekt verschenken und können sich so einen Preiskampf auch langfristig leisten.
Gegen das was hier ansteht war jede Abwärtsspirale im klassischen PC CPU/Chipset Bereich Kindergarten. Allerdings ist das nun wirklich seit Jahren absehbar und trotzdem ist man bei Nvidia in diesen Markt eingestiegen.
Undertaker
2013-12-09, 17:52:16
Wäre in größeren Umfang nur möglich gewesen wenn Tegra 4 mit Icera 410 zu einem attraktiven Preis gebündelt worden wäre. Die (LTE) Baseband war aber nicht verfügbar und steht bei Nvidia bis heute auf "Sampling now".
..und genau deshalb könnte sich Nvidia für die aktuelle Strategie entschlossen haben: Hohe Leistung zu möglichst geringem Herstellungpreis, aber eben auf Kosten der Leistungsaufnahme. Damit sind Smartphones außen vor, aber die Margen im Tablet-Segment profitieren.
fondness
2013-12-09, 17:59:10
Die geringe Die-Größe ist doch wohl nur ein Resultat der fehlenden Features (Modem, GPU). DIe Leistungsaufnahme eine Folge der hohen Taktraten.
Undertaker
2013-12-09, 18:40:02
Ich glaube nicht, dass das Modem beim S800 auch nur annähernd ~40 mm² frisst. Gerade GPU-seitig (was meinte Ailuros, 10 mm²?) baut die Konkurrenz massiv breiter, selbst wenn man fehlende Features einrechnet.
fondness
2013-12-09, 18:48:14
Ich glaube nicht, dass das Modem beim S800 auch nur annähernd ~40 mm² frisst. Gerade GPU-seitig (was meinte Ailuros, 10 mm²?) baut die Konkurrenz massiv breiter, selbst wenn man fehlende Features einrechnet.
Die CPU übernimmt man eh direkt von ARM. Die GPU ist Featuremäßig unterlegen und nur durch ihre hohen Taktraten leistungsmäßig halbwegs dabei - klar das die deutlich kleiner ist als bei der Konkurrenz. Schwer zu sagen wie viel das Modem benötigt, aber so winzig wird so ein LTE-Modem auch nicht sein.
Ailuros
2013-12-09, 19:18:51
Na das ist doch genau das was ich sage: Tegra 4 wurde imo zu agressiv in einen möglichst kleinen Die gepresst, das killt die Energieeffizienz. Oder bist du etwa nicht der Ansicht, dass ein >100mm² Tegra 4 mit zusätzlichen Einheiten, niedrigerer Frequenz und HPM-Fertigung deutlich konkurrenzfähiger wäre? :confused:
Ich habe lediglich das Bauchgefuehl dass genau der gleiche SoC bei relativ groesserer die area sparsamer (Verbrauch) sein koennte.
Ich denke allerdings auch, dass Nvidia derartige Überlegungen im Voraus ebenfalls angestellt hat. Und sich dann bewusst dafür entschieden hat, lieber direkt auf große Tablets zu zielen, wo die Abwärme gerade noch handlebar ist (das Toshiba Excite läuft nach den letzten Patches ganz gut, Surface 2 zeigt ebenfalls kein in dieser Klasse übermäßiges Throttling). Denn stellen wir uns vor, man hätte in mehr Transistoren oder Fläche investiert und wäre trotzdem nicht in der Breite in Smartphones hinein gekommen...
Und eben gerade hier ist wo S600/S800 SoCs die eigentliche vorigen potentiellen NV deals problemlos aufgesaugt hat. Rechnet man den Google Nexus 7 2013 deal mit dem Amazon deal zusammen hat QCOM ueber Nacht ein Potential um doppelt so viel tablet SoCs zu verkaufen als NV mit T3.
..und genau deshalb könnte sich Nvidia für die aktuelle Strategie entschlossen haben: Hohe Leistung zu möglichst geringem Herstellungpreis, aber eben auf Kosten der Leistungsaufnahme. Damit sind Smartphones außen vor, aber die Margen im Tablet-Segment profitieren.
Wieso sollen die Herstellungskosten moeglichst gering sein wenn die Herstellungs-yields ein grosser Unbekannte sind, oder sollten wir davon ausgehen dass Tegra SoCs Wundertueten sind und 100% wafer yields haben?
Ich glaube nicht, dass das Modem beim S800 auch nur annähernd ~40 mm² frisst. Gerade GPU-seitig (was meinte Ailuros, 10 mm²?) baut die Konkurrenz massiv breiter, selbst wenn man fehlende Features einrechnet.
NV behauptete selber in ihrem Marketing T4 Bumsmaterial dass die ULP GF in diesem nur um die 10mm2 wiegt. Wenn man die die area von Tegra2@40G mit der Anzahl der Einheiten mit T4@28nm vergleicht dann muss die Packdichte um etliche Male gestiegen sein und ich meine jetzt nicht nur 2x Mal. Ausser natuerlich NV erzaehlte mal wieder Mist was auch nicht total ausschliessen kann.
Sonst insgesamt faellt Deine tablet-SoC Anpassungs-These fuer T4 mit dem Vergleich zum Apple A7 so schnell durch wie man gerade noch blinken kann.
Die CPU übernimmt man eh direkt von ARM. Die GPU ist Featuremäßig unterlegen und nur durch ihre hohen Taktraten leistungsmäßig halbwegs dabei - klar das die deutlich kleiner ist als bei der Konkurrenz. Schwer zu sagen wie viel das Modem benötigt, aber so winzig wird so ein LTE-Modem auch nicht sein.
Es gibt leider ausserhalb von Apple's Quark sonst fast keine SoC die shots zu sehen. Ich hab zwar keine Ahnung wie gross die GPU auf S800 z.B. ist aber unter 30mm2 wuerde ich sie nicht einschaetzen. Sagt mir auch nichts nicht nur wegen der wesentlichen architekturellen Unterschiede aber auch der Tatsache dass Transistoren-Anzahlen der grosse Unbekannte hier sind. Auf jeden Fall ist die default Frequenz des Adreno330 bei 450MHz im Vergleich zu 605MHz von der ULP GF in T4 Geraeten ausserhalb Shield. Dass was QCOM bzw. ihre Partner nicht ehrt ist die endlose Bescheisserei in benchmarks.
Undertaker
2013-12-09, 19:20:52
Sonst insgesamt faellt Deine tablet-SoC Anpassungs-These fuer T4 mit dem Vergleich zum Apple A7 so schnell durch wie man gerade noch blinken kann.
Nun, es ist ja andersherum kein großes Problem, einen Smartphone-tauglichen SoC (bzw. genauer gesagt einen SoC, der bzgl. Leistung und Verbrauch in diesem Bereich seinen Sweet-Spot hat) mit etwas mehr Takt auch in ein Tablet zu verfrachten. Und das Apple den Vorteil des überlegenen CPU-Custom-Cores und einer neueren GPU hat, ist natürlich auch unstrittig.
Letztlich gilt es nur klarzustellen: Ein Perf/Watt-Vergleich sollte immer auch die Chipfläche berücksichtigen.
Wieso sollen die Herstellungskosten moeglichst gering sein wenn die Herstellungs-yields ein grosser Unbekannte sind, oder sollten wir davon ausgehen dass Tegra SoCs Wundertueten sind und 100% wafer yields haben?
Das habe ich doch nirgends gesagt? Ich rede erst einmal nur von der jeweils bekannten Chipfläche. Das Thema Packdichte vs. Yields wird doch bei jedem Hersteller im Vorfeld so optimiert, dass die resultierenden Kosten pro nutzbarem Chip minimal werden.
Ailuros
2013-12-09, 19:38:50
Nun, es ist ja andersherum kein großes Problem, einen Smartphone-tauglichen SoC (bzw. genauer gesagt einen SoC, der bzgl. Leistung und Verbrauch in diesem Bereich seinen Sweet-Spot hat) mit etwas mehr Takt auch in ein Tablet zu verfrachten. Und das Apple den Vorteil des überlegenen CPU-Custom-Cores und einer neueren GPU hat, ist natürlich auch unstrittig.
Letztlich gilt es nur klarzustellen: Ein Perf/Watt-Vergleich sollte immer auch die Chipfläche berücksichtigen.
Wird ein T4 stromsparender wenn ich ihn direkt fuer perf/mW gegen A7 Vergleiche wenn ich mitbedenke dass der letzte um ca. 25% groesser ist? Wir wissen dass A7 1Mrd. Transistoren hat, fuer T4 hat aber keiner von uns die geringste Ahnung.
Das habe ich doch nirgends gesagt? Ich rede erst einmal nur von der jeweils bekannten Chipfläche.
Und ich sage nichts anderes als dass diese Einzelheit fast wertlos ist wenn es zum Vergleich mit anderen SoCs kommt.
Das Thema Packdichte vs. Yields wird doch bei jedem Hersteller im Vorfeld so optimiert, dass die resultierenden Kosten pro nutzbarem Chip minimal werden.
Eine zu hohe Packdichte kann u.a. auch zum Grund werden dass wafer yields geringer werden. Wenn Du es als SoC designer uebertreibst und mir zu viele Transistoren reinknallst und am Ende nur 50% yields/wafer hast anstatt sagen wir mal 70% in anderen Faellen (Vorsicht frei erfundene Zahlen) dann ist es schon ein gewaltiger Unterschied und nein den Unterschied wird Dir natuerlich keine foundry ausgleichen. Wieso auch ueberhaupt?
Undertaker
2013-12-09, 20:06:25
Und ich sage nichts anderes als dass diese Einzelheit fast wertlos ist wenn es zum Vergleich mit anderen SoCs kommt.
Tut mir leid, da habe ich eine andere Ansicht. Ja, wir kennen die Yields nicht, da aber alle Hersteller das gleiche Ziel haben – nämlich ihren Chip so preiswert wir möglich zu produzieren – ist keiner so blöd, für ein paar Prozent Flächeneinsparung eine drastische Yield-Reduzierung in Kauf zu nehmen. Ein "simples" Optimierungsproblem. Ich gehe also nicht davon aus, dass es bei einem der jeweils seit Monaten in breiter Massenproduktion (und einem ausgereiften Prozess!) befindlichen SoCs gigantische Yield-Probleme gibt (und schon gar nicht solche, die absichtlich zwecks höherer Packdichte in Kauf genommen werden, da das wirtschaftlich keinen Sinn ergibt) – zumindest nicht so relevant das man sagen kann, der Kostenunterschied zwischen einem 80, 100 und 120 mm² SoC sei sei vollkommen wertlos. Das sind immerhin Differenzen von 25 und 50 Prozent, die man irgendwo in dieser Größenordnung auch bei den Produktionskosten spürt.
Wird ein T4 stromsparender wenn ich ihn direkt fuer perf/mW gegen A7 Vergleiche wenn ich mitbedenke dass der letzte um ca. 25% groesser ist?
Definitiv ja. Was kann man mit 25 Prozent mehr Fläche alles anstellen? z.B. mal eben die GPU verdoppeln oder verdreifachen und die Taktfrequenzen im gleichen Maß absenken. Natürlich spart das Energie. Ich wage nicht, konkrete Zahlen aufzustellen, aber diese qualitative Aussage ist ohne Zweifel möglich. Ich gehe übrigens auch davon aus, dass der A7 auch bei gleicher Fläche noch effizienter wäre, aber einen Teil des Perf/Watt-Unterschiedes "erkauft" Apple im wahrsten Sinne des Wortes. Das war bei früheren, größeren A*x-Chips ja noch extremer. ;)
Ailuros
2013-12-09, 20:44:51
Tut mir leid, da habe ich eine andere Ansicht. Ja, wir kennen die Yields nicht, da aber alle Hersteller das gleiche Ziel haben – nämlich ihren Chip so preiswert wir möglich zu produzieren – ist keiner so blöd, für ein paar Prozent Flächeneinsparung eine drastische Yield-Reduzierung in Kauf zu nehmen. Ein "simples" Optimierungsproblem. Ich gehe also nicht davon aus, dass es bei einem der jeweils seit Monaten in breiter Massenproduktion (und einem ausgereiften Prozess!) befindlichen SoCs gigantische Yield-Probleme gibt (und schon gar nicht solche, die absichtlich zwecks höherer Packdichte in Kauf genommen werden, da das wirtschaftlich keinen Sinn ergibt) – zumindest nicht so relevant das man sagen kann, der Kostenunterschied zwischen einem 80, 100 und 120 mm² SoC sei sei vollkommen wertlos. Das sind immerhin Differenzen von 25 und 50 Prozent, die man irgendwo in dieser Größenordnung auch bei den Produktionskosten spürt.
Nix da mit einfachem Optimierungsproblem; NV hat uns die Ohren mit bullshit vollgeschossen wie toll perf/mm2 (und dabei sogar sind die Daten der Konkurrenz alle mit Absicht uebertrieben falsch) und nirgends gibt es selbst einen Schimmer von perf/mW Vergleichen. Ein S800 verbraucht weniger obwohl er groesser ist; ein A7 verbraucht auch weniger obwohl er auch groesser ist.
Sonst stellen sowohl QCOM und auch Apple dank bombastischen Volumen um einiges billiger her; ergo koennen sie sich so oder so groessere Flaechen leisten.
Definitiv ja. Was kann man mit 25 Prozent mehr Fläche alles anstellen? z.B. mal eben die GPU verdoppeln oder verdreifachen und die Taktfrequenzen im gleichen Maß absenken. Natürlich spart das Energie. Ich wage nicht, konkrete Zahlen aufzustellen, aber diese qualitative Aussage ist ohne Zweifel möglich. Ich gehe übrigens auch davon aus, dass der A7 auch bei gleicher Fläche noch effizienter wäre, aber einen Teil des Perf/Watt-Unterschiedes "erkauft" Apple im wahrsten Sinne des Wortes. Das war bei früheren, größeren A*x-Chips ja noch extremer. ;)
Apple benutzt dank der vergangenen Intrisity Philosophie Methoden die mit Absicht mehr die area verbraten um mehr Strom zu sparen; auf A7 zwar diametrisch weniger, aber es ist stets da. So lange T4 im absoluten Nachteil in Sachen perf/mW liegt zu all seinen konkurierenden SoCs, kannst Du mir lange erzaehlen was fuer einen angeblichen "Vorteil" T4 gegenueber A7 haben soll trotz 20mm2 mehr die area beim letzten.
Undertaker
2013-12-09, 20:54:22
Nix da mit einfachem Optimierungsproblem; NV hat uns die Ohren mit bullshit vollgeschossen wie toll perf/mm2 (und dabei sogar sind die Daten der Konkurrenz alle mit Absicht uebertrieben falsch) und nirgends gibt es selbst einen Schimmer von perf/mW Vergleichen.
Na warum wohl: Weil Perf/Watt besch...eiden ist, das bestreitet ja keiner. :tongue: Bis auf 1-2 Folien ggü. Tegra 3 gab es afair wirklich keinerlei Erwähnungen von Leistungsaufnahme oder Perf/Watt.
So lange T4 im absoluten Nachteil in Sachen perf/mW liegt zu all seinen konkurierenden SoCs, kannst Du mir lange erzaehlen was fuer einen angeblichen "Vorteil" T4 gegenueber A7 haben soll trotz 20mm2 mehr die area beim letzten.
Wenn, dann sehe ich T4 nur bei den Produktionskosten im Vorteil, versteh mich also nicht falsch. Ich betreibe hier nur "Ursachenforschung". ;)
Skysnake
2013-12-09, 22:02:34
..und genau deshalb könnte sich Nvidia für die aktuelle Strategie entschlossen haben: Hohe Leistung zu möglichst geringem Herstellungpreis, aber eben auf Kosten der Leistungsaufnahme. Damit sind Smartphones außen vor, aber die Margen im Tablet-Segment profitieren.
Du meinst also, Sie haben sich bewusst dafür entscheiden praktisch nichts zu verkaufen, und damit noch mehr Verlust zu machen als zuvor mit der Tegra Sparte?
Die haben einfach nicht erwartet, dass die Konkurrenz so schnell voran geht, weil Sie den MArkt noch immer nicht verstanden hatten... Wenn man sich anschaut, was für T5 angekündigt wird, kann man hoffen, dass Sies so langsam gerallt haben, aber da muss man erst schauen.
Das "bischen" mehr DIE-Size bei der Konkurrenz kannste dir auch sonst wo hin schieben. Die Sparen einfach an den Stückfixkosten durch R&D pro Chip einfach so viel schon durch die MAsse ein, dass das dann auch egal ist. nVidia verkauft einfach zu wenig!
Bei den Stückzahl müssten Sie, damit der Preis gerechtfertigt ist, den Sie verlangen müssten, um zumindest keinen Verlust zu machen die gesamte Konkurrenz in Grund und Boden stampfen in bezug auf Perf/W UND! max Perf. Das wird aber never! ever! passieren bei der Konkurrenz.
Die CPU übernimmt man eh direkt von ARM. Die GPU ist Featuremäßig unterlegen und nur durch ihre hohen Taktraten leistungsmäßig halbwegs dabei - klar das die deutlich kleiner ist als bei der Konkurrenz. Schwer zu sagen wie viel das Modem benötigt, aber so winzig wird so ein LTE-Modem auch nicht sein.
Son LTE-Modem wird schon ziemlich groß sein und vor allem auch nicht ganz unproblematisch in der Produktion. Ist halt hauptsächlich Analogtechnik, und Analogtechnik ist pfui BÄH!
Dural
2013-12-09, 23:22:57
apple war, als sie noch stink normale A9 core verwendet haben schon deutlich schneller als die andriod konkurrenz.
wie schon gesagt würde ich dringend davon abraten soc mit unterschiedlichen betriebssysteme zu vergleichen.
das gilt übrigens auch für den verbrauch, den auch da hat das betriebssystem und treiber erheblichen einfluss.
Skysnake
2013-12-09, 23:42:41
Und das interessiert wo genau?
Wenn nVidia 50% mehr Akkulaufzeit bei gleicher LEistung versprechen würde, würde sich Apple auch auf nen Deal mit nVidia einlassen.
Nur das wird halt nie passieren.
mboeller
2013-12-10, 06:59:54
Ich glaube nicht, dass das Modem beim S800 auch nur annähernd ~40 mm² frisst. Gerade GPU-seitig (was meinte Ailuros, 10 mm²?) baut die Konkurrenz massiv breiter, selbst wenn man fehlende Features einrechnet.
Arun auf Beyond3d:
A bit more than one year before tape-out, i500 was expected to be measure ~15mm2 with about ~10mm2 of that being the baseband itself (as opposed to peripheral logic and I/O). The MDM9200 was 91.4mm2 on 45nm so you might indeed expect a 150Mbps baseband on 28nm to add about 30-40mm2 (or 3-4x as much as i500's baseband).
http://beyond3d.com/showpost.php?p=1757459&postcount=446
mboeller
2013-12-10, 07:10:34
Die haben einfach nicht erwartet, dass die Konkurrenz so schnell voran geht, weil Sie den MArkt noch immer nicht verstanden hatten... Wenn man sich anschaut, was für T5 angekündigt wird, kann man hoffen, dass Sies so langsam gerallt haben, aber da muss man erst schauen.
IMHO:
Nvidia hat den Markt aus meiner Sicht wirklich noch nicht verstanden. Sie haben zB. immer noch nicht kapiert, das es unerheblich ist wieviele Fanboys sie in den Foren haben die den T4 oder jetzt T5 "in den Himmel loben".
Ihre neuen Kunden für ihre SoC's sind nun einmal die OEM's und die müssen sie "befriedigen", nicht den Endkunden. Aber anscheinend wollen sie ihr SoC Geschäft genauso aufziehen wie ihr GPU-Geschäft....das wird scheitern.
Der T4 ist ein sehr gutes Beispiel für die falsche GPU-Strategie. Bei GPU's versucht man den Endkunden mit Highend zu ködern damit er hinterher die Lowend- und Midrange-Karten kauft (der Massenmarkt eben). Beim T4 hat Nvidia das gleiche probiert.....was bei OEM's natürlich nicht funktioniert.
Und alles was ich zum T5 bisher so gelesen habe deutet an, das sie das OEM-Geschäft immer noch nicht verstanden haben, da sie immer noch versuchen die Endkunden zu beeindrucken. Nett für uns, schlecht fürs Geschäft.
Ailuros
2013-12-10, 08:01:15
Na warum wohl: Weil Perf/Watt besch...eiden ist, das bestreitet ja keiner. :tongue: Bis auf 1-2 Folien ggü. Tegra 3 gab es afair wirklich keinerlei Erwähnungen von Leistungsaufnahme oder Perf/Watt.
Perf/mW ist von Grund auf schon beschissen wenn man A15 Kerne benutzt und dazu ersetzt eben 4+1 (stets IMHO) eben nicht etwas wie big.LITTLE.
Von dem abgesehen hat NV ihre eigene Integrierungs-methode und kann bei einer sturen CPU IP Lizenz auch nichts besonderes an den A15 Kernen aendern. Die Problematik die ich hier stelle ist ob sie wirklich nicht unter diesen Bedingungen etwas anders haetten vorgehen sollen mit der GPU im T4.
Nochmal ich halte mich nur streng an oeffentlichen Daten; vom alten Tegra2 shot schaetzte man die GPU bei ca. 9mm2@40G TSMC ein ergo ca. 1/5 von den insgesamt ~40mm2/40G. Diese GPU hatte 1 Vec4 PS + 1 Vec VS, 2 TMUs bei 333MHz (peak).
Jetzt gibt NV selber an dass die GPU im T4 lediglich ~10mm2 wiegt unter 28nm bei 9x Mal so viel ALUs, 2x Mal so viel TMUs und >2xMal so viel Takt und jetzt muss mir jemand mal erzaehlen wie das klappen sollte ohne dass man Transistoren bis zum kotzen so dicht wie moeglich aneinander quetscht.
Wenn, dann sehe ich T4 nur bei den Produktionskosten im Vorteil, versteh mich also nicht falsch. Ich betreibe hier nur "Ursachenforschung". ;)
Tegra4 kostete um einiges mehr in Herstellung als Tegra3 trotz kleinerem Prozess, primaer weil 28nm eben teurer war. Und der "Vorteil" soll wo genau sein wenn man wafer fuer ein paar Millionen operative chips vorbestellt waehrend die andere Konkurrenten die wie hier erwaehnen etliche hunderte von Millionen pro Jahr im Plan haben?
Ich hab auch nicht das geringste gegen Deine Argumentation denn sie ist so gesund wie sie von jedem Gespraechspartner sein sollte, aber bei jeglicher "Ursachenforschung" musst Du mir auch u.a. erklaeren warum der Stromverbrauch so hoch ausgefallen ist und auch weil die meisten nichts von dem Ding wissen wollen. Die handvoll von x00.000 deals bis jetzt bringen wirklich nichts.
apple war, als sie noch stink normale A9 core verwendet haben schon deutlich schneller als die andriod konkurrenz.
wie schon gesagt würde ich dringend davon abraten soc mit unterschiedlichen betriebssysteme zu vergleichen.
das gilt übrigens auch für den verbrauch, den auch da hat das betriebssystem und treiber erheblichen einfluss.
Es ist zwar nicht so dass es keinen legitimen Punkt beim obrigen gibt, aber es ist nun auch so dass A15 ARM cores ziemlich beschissen sind wenn es zu Stromverbrauch kommt. Daran kann NV und jegliches NV leider wenig aendern. Noch dazu kommt dass 4+1 auch nicht soo viel retten kann und dass eben zufaelligerweise Qualcomm mit ihren eigenene custom CPU cores genauso wie Apple mit ihren custom CPU cores ein besseres perf/mW erreichen koennen.
Erstens gibt es benchmarks die sowohl auf iOS als auch Android laufen und zweitens ist es im Qualcomm Beispiel oben Android gegen Android und NV muss eben leider in den bitteren A15 Kaese auch mit T5 beissen bis wenn sie endlich (wenn ueberhaupt) endlich das Denver (Duke Nukem Forever) Zeug erscheint.
IMHO:
Nvidia hat den Markt aus meiner Sicht wirklich noch nicht verstanden. Sie haben zB. immer noch nicht kapiert, das es unerheblich ist wieviele Fanboys sie in den Foren haben die den T4 oder jetzt T5 "in den Himmel loben".
Ihre neuen Kunden für ihre SoC's sind nun einmal die OEM's und die müssen sie "befriedigen", nicht den Endkunden. Aber anscheinend wollen sie ihr SoC Geschäft genauso aufziehen wie ihr GPU-Geschäft....das wird scheitern.
Der T4 ist ein sehr gutes Beispiel für die falsche GPU-Strategie. Bei GPU's versucht man den Endkunden mit Highend zu ködern damit er hinterher die Lowend- und Midrange-Karten kauft (der Massenmarkt eben). Beim T4 hat Nvidia das gleiche probiert.....was bei OEM's natürlich nicht funktioniert.
Und alles was ich zum T5 bisher so gelesen habe deutet an, das sie das OEM-Geschäft immer noch nicht verstanden haben, da sie immer noch versuchen die Endkunden zu beeindrucken. Nett für uns, schlecht fürs Geschäft.
Selbst wenn sie es richtig verstanden haetten (und nein ich stimme mit dem meisten oben nicht ueberein) nach dem obrigen haetten sie wie viele Chancen in einem Markt wo IP den absoluten Vorteil einraeumt?
Sonst koennte die Logan GPU tatsaechlich etwas daran aendern wenn es auch im >5W tablet Bereich fuer windows tablets gegen Intel's SoCs punkten koennen. Fuer smartphones muss dann T4i eine anstaendige Summe an mainstream smartphone design wins einraeumen. Obwohl ich auch fuers letzte Zweifel habe wenn QCOM schon A53 low end 64bit CPUs in H1 14' ausrollen will; wenn man schon eingesehen hat wie verdammt effizient fuer perf/mW heutige A7 cores sind, werden A53 configs nicht allzu viel ueberraschen.
fondness
2013-12-10, 13:34:30
Sonst koennte die Logan GPU tatsaechlich etwas daran aendern wenn es auch im >5W tablet Bereich fuer windows tablets gegen Intel's SoCs punkten koennen.
Ein Windows-Tablet ohne x86 ist völlig uninteressant und eigentlich zum scheitern verurteilt.
Ailuros
2013-12-10, 14:04:22
Ein Windows-Tablet ohne x86 ist völlig uninteressant und eigentlich zum scheitern verurteilt.
Gibt es einen besonderen Grund dafuer?
fondness
2013-12-10, 14:08:36
Gibt es einen besonderen Grund dafuer?
Schau dir die Verkaufzahlen an. Es hat schon seinen Grund das niemand mehr außer MS selbst noch ein RT-Gerät anbietet. Und selbst MS hat den Namen RT sicherheitshalber gestrichen.
Ein Windows-Tablet kaufe ich mir wegen der gigantischen Softwarebasis, man kann dieselben Programme wie bei einem Desktop-PC ausführen.
ARM-Windows führt dieses zentrale Argument ad absurdum, zumal der App-Store von Windows winzig ist im Vergleich zu Apple und Android.
Ailuros
2013-12-10, 14:22:19
Schau dir die Verkaufzahlen an. Es hat schon seinen Grund das niemand mehr außer MS selbst noch ein RT-Gerät anbietet. Und selbst MS hat den Namen RT sicherheitshalber gestrichen.
Ich dachte ich bekomm irgend einen halbwegs technischen Grund als das obrige. RT ist M$s eigene Missgeburt und interessiert mich auch nicht. Die Frage waere wieso man mit einem ARM basierenden SoC jeder Art NICHT windows betreiben koennte.
Ein Windows-Tablet kaufe ich mir wegen der gigantischen Softwarebasis, man kann dieselben Programme wie bei einem Desktop-PC ausführen.
ARM-Windows führt dieses zentrale Argument ad absurdum, zumal der App-Store von Windows winzig ist im Vergleich zu Apple und Android.
Nochmal mir ist scheissegal was M$ angestellt hat oder anstellen wird. Gibt es einen besonderen Grund warum ein SoC mit einer ARM CPU und einer DX11 GPU nicht win8/8.1 betreiben koennte?
Erzaehl mal wieso alle GPU IHVs im ULP SoC Markt ploetzlich mit DX11.x GPUs ankommen, weil man Tessellation ploetzlich auf einen Bums-smartphone braucht oder was?
Intel's Baytrail mag zwar ziemlich gut positioniert sein momentan fuer low end win8.1 tablets, aber ich brauch etwas mehr Material was dagegen sprechen wuerde dass es auch bald windows tablet SoCs von Qualcomm und auch anderen geben wird.
Avalox
2013-12-10, 14:27:24
Schau dir die Verkaufzahlen an. Es hat schon seinen Grund das niemand mehr außer MS selbst noch ein RT-Gerät anbietet. Und selbst MS hat den Namen RT sicherheitshalber gestrichen.
Ein Windows-Tablet kaufe ich mir wegen der gigantischen Softwarebasis, man kann dieselben Programme wie bei einem Desktop-PC ausführen.
ARM-Windows führt dieses zentrale Argument ad absurdum, zumal der App-Store von Windows winzig ist im Vergleich zu Apple und Android.
Die x86 Tablet Verkäufe sind aber auch nicht toll, die Entwicklerbasis gar rückläufig.
Auf dem ARM Windows Tablets laufen faktisch die selben Anwendungen, die auch auf einem x86 Tablet laufen. Von einigen Ausnahmen wie Webbrowser, die MS bei RT verboten hat, mal abgesehen.
Die Softwarebasis von der du sprichst, ist allesamt nicht Tablet geeignet.
Ein RT Tablet ist schon der richtige Weg und da sind die ARM Geräte immer noch, bzw. immer weiter mit deutlich mehr Sexappeal unterwegs.
Die interessanten Funktion, wie der beeindruckend Stylus Support des Tegra 4, oder die Farbkorrektur des Displays in Echtzeit werde im Surface 2 gar nicht benutzt. Ich bin mir nicht mal sicher ob im Surface 2 überhaupt der Energiesparkern des Tegra benutzt wird. Im Vorgänger RT Surface war es jedenfalls noch nicht der Fall.
Will sagen, dass ist bei MS auch durchaus noch ausbaubar, bei den ARM Geräten.
Für Microsoft wäre das Spiel sehr riskant die Arm Seite abzuschreiben, was sie ja auch ausdrücklich nicht tun.
fondness
2013-12-10, 14:32:57
Ich dachte ich bekomm irgend einen halbwegs technischen Grund als das obrige. RT ist M$s eigene Missgeburt und interessiert mich auch nicht. Die Frage waere wieso man mit einem ARM basierenden SoC jeder Art NICHT windows betreiben koennte.
Nochmal mir ist scheissegal was M$ angestellt hat oder anstellen wird. Gibt es einen besonderen Grund warum ein SoC mit einer ARM CPU und einer DX11 GPU nicht win8/8.1 betreiben koennte?
Erzaehl mal wieso alle GPU IHVs im ULP SoC Markt ploetzlich mit DX11.x GPUs ankommen, weil man Tessellation ploetzlich auf einen Bums-smartphone braucht oder was?
Intel's Baytrail mag zwar ziemlich gut positioniert sein momentan fuer low end win8.1 tablets, aber ich brauch etwas mehr Material was dagegen sprechen wuerde dass es auch bald windows tablet SoCs von Qualcomm und auch anderen geben wird.
OKay dann habe ich dich falsch verstanden.
YfOrU
2013-12-10, 15:20:50
Die interessanten Funktion, wie der beeindruckend Stylus Support des Tegra 4, oder die Farbkorrektur des Displays in Echtzeit werde im Surface 2 gar nicht benutzt.
Das ist nette Software aber nichts was explizit nur mit einem Tegra SoC möglich ist.
Ich bin mir nicht mal sicher ob im Surface 2 überhaupt der Energiesparkern des Tegra benutzt wird. Im Vorgänger RT Surface war es jedenfalls noch nicht der Fall.
Wird wohl auch nie passieren denn das von Nvidia gewählte Konzept hat am Markt keine große Zukunft.
Avalox
2013-12-10, 16:08:09
Das ist nette Software aber nichts was explizit nur mit einem Tegra SoC möglich ist.
Was heisst nur nette Software? Bei allen anderen ist es Hardware.
Nur Software ist der Vorteil.
Das Signalprocessing wird eben nicht dediziert gerechnet, sondern in der GPU des SoCs.
Der Effekt ist eine unerreichte Genauigkeit, bei stink-normalen Touchscreens.
Als Nebeneffekt kannst du deinen Kugelschreiber als Stylus verwenden. Ziemlich cool.
Solange es die anderen nicht machen ist es theoretisch, dass es im Surface 2 nicht gemacht wurde ist dagegen dumm. Aber vielleicht hat nVidia entsprechendes auch nicht für Windows portiert, was wohl eher wahrscheinlich ist.
Wird wohl auch nie passieren denn das von Nvidia gewählte Konzept hat am Markt keine große Zukunft.
Na ja. Es haben noch ganz anderer Sachen am Markt keine Zukunft. Ändert aber nichts daran, dass der entsprechende SoC im hier und jetzt verbaut wurde. Andere können es ja auch.
YfOrU
2013-12-11, 15:12:02
Der Effekt ist eine unerreichte Genauigkeit, bei stink-normalen Touchscreens.
Der kommt primär über die hohe Zahl an Samples. Genau deshalb habe ich nette Software geschrieben denn die Erkennungsrate scheint man ziemlich gut im Griff zu haben.
Na ja. Es haben noch ganz anderer Sachen am Markt keine Zukunft. Ändert aber nichts daran, dass der entsprechende SoC im hier und jetzt verbaut wurde. Andere können es ja auch.
Die hierfür verantwortliche Implementierung kommt zwangsläufig von Nvidia:
This management is handled by NVIDIA’s Dynamic Voltage and Frequency Scaling (DVFS) and CPU Hot-Plug management software and does not require any other special modifications to the operating system.
http://www.nvidia.com/content/PDF/tegra_white_papers/tegra-whitepaper-0911b.pdf
So wie ich das sehe fährt Nvidia den Windows RT Support schlichtweg auf Sparflamme und macht entsprechend nur das notwendigste.
robbitop
2013-12-11, 16:52:34
Kernfläche ist für das Produkt als Kunde nicht entscheidend. Nur für die Herstellungskosten des Herstellers. Tests aind für Kunden gemacht. Den Kunden interessieren die Herstellungskosten aber nicht. Den Kunden interessiert Leistung, Leistungsaufnahme, Features und Kaufpreis des Geräts. Da machen ein paar sqmm aber keinen Unterschied.
Hätte, wenn und aber interessiert auch nicht. Tegra 4 hat eine ziemlich hohe TDP - da wäre nicht mehr Einheiten drin gewesen. Insofern ist die Fläche uninteressant.
Undertaker
2013-12-12, 10:18:59
Kernfläche ist für das Produkt als Kunde nicht entscheidend. Nur für die Herstellungskosten des Herstellers. Tests aind für Kunden gemacht. Den Kunden interessieren die Herstellungskosten aber nicht. Den Kunden interessiert Leistung, Leistungsaufnahme, Features und Kaufpreis des Geräts. Da machen ein paar sqmm aber keinen Unterschied.
Seit wann macht die Chipfläche keinen Unterschied mehr? Wäre im GPU-Bereich auch ein GK107 mit GK104 vergleichbar, wenn man beide über Takt auf die gleiche Performance bringt (ja, das Beispiel ist zur Verdeutlichung überspitzt)? Gerade in einem Markt mit derart kleinen Margen wird um jeden einzelnen mm² gerungen. Und da der Endkundenpreis ganz selbstverständlich mit den Herstellungs- und Verkaufspreisen des einzelnen SoCs korreliert, kann man die Fläche (oder auch den eingesetzten Prozess) eben nicht vollends ausklammern. Ich wage die Behauptung, dass die Energieeffizienz bei einem SoC, speziell bei Teilen wie der GPU, beinahe linear mit der Fläche skaliert werden kann.
Ailuros
2013-12-12, 10:31:08
Seit wann macht die Chipfläche keinen Unterschied mehr? Wäre im GPU-Bereich auch ein GK107 mit GK110 vergleichbar, wenn man beide über Takt auf die gleiche Leistungsaufnahme zwingt (ja, das Beispiel ist zur Verdeutlichung überspitzt)? Gerade in einem Markt mit derart kleinen Margen wird um jeden einzelnen mm² gerungen. Und da der Endkundenpreis ganz selbstverständlich mit den Herstellungs- und Verkaufspreisen des einzelnen SoCs korreliert, kann man die Fläche (oder auch den eingesetzten Prozess) eben nicht vollends ausklammern.
Ich stimme seiner Vereinfachung auch nicht zu. Einem Kunden wie Xiaomi ist aber Stromverbrauch bzw. SoC Preis um zich Male wichtiger als die area (und ja dieses stets innerhalb Grenzen).
Ich hab sowieso eher den Verdacht dass sie so stur auf ~80mm2 aus anderen Gruenden bleiben die im automotive Segment vergraben sein koennten.
Ich wage die Behauptung, dass die Energieeffizienz bei einem SoC, speziell bei Teilen wie der GPU, beinahe linear mit der Fläche skaliert werden kann.
Nein weil eben Flaeche != Flaeche ist wenn nicht eine Unzahl von Konstanten zumindest vergleichbar sind. Flaeche von sich aus ist nur eine sterile Variable von vielen fuer solche Formeln.
Undertaker
2013-12-12, 10:38:32
Nein weil eben Flaeche != Flaeche ist wenn nicht eine Unzahl von Konstanten zumindest vergleichbar sind. Flaeche von sich aus ist nur eine sterile Variable von vielen fuer solche Formeln.
Das war jetzt nicht auf den Konkurrenzvergleich bezogen, sondern auf ein und denselben Chip – bleiben wir bei Tegra 4: Bei einem hypothetischen Budget von vielleicht 100 statt 80 mm² hätte man (neben einer Senkung der Packdichte) auch mehr ALUs bei weniger Takt verbauen und damit die Effizienz auf Kosten des Herstellungspreises steigern können. Bist du da anderer Ansicht? :confused:
Ailuros
2013-12-12, 10:45:42
Ich hab mich nicht ausfuerhlich damit beschaeftigt aber NV hat im automotive infotainment Markt ein paar repeat deals anscheinend erreicht in dem man den vorigen SoC mit einem neuem ersetzen kann. Ich hab nicht besonders viel in das Zeug reingelesen, ergo koennte auch auf dem falschen Bein liegen, aber ich verdaechtige eher dass sie aus diesem Grund auf 80mm2 sowohl auf T3 als auch T4 geblieben sind.
Das war jetzt nicht auf den Konkurrenzvergleich bezogen, sondern auf ein und denselben Chip – bleiben wir bei Tegra 4: Bei einem hypothetischen Budget von vielleicht 100 statt 80 mm² hätte man (neben einer Senkung der Packdichte) auch mehr ALUs bei weniger Takt verbauen und damit die Effizienz auf Kosten des Herstellungspreises steigern können. Bist du da anderer Ansicht? :confused:
Schon; hilft aber nichts wenn man zu moeglichen Schnapps-Idee-Versprechungen wie oben kommt.
Skysnake
2013-12-12, 13:09:18
Die DIE Size hat damit aber nicht wirklich was zu tun.
Das Package muss Pinkompatibel sein. Was natürlich auch gewisse Grenzen für den DIE vorgibt bzgl Größe ;)
Ailuros
2013-12-12, 16:44:11
Die DIE Size hat damit aber nicht wirklich was zu tun.
Direkt nicht nein.
Das Package muss Pinkompatibel sein. Was natürlich auch gewisse Grenzen für den DIE vorgibt bzgl Größe ;)
Siehste? ;)
Dural
2013-12-13, 09:50:35
T5 vielleicht doch schon in 20nm, TSMC hat die Massen Produktion von 20nm für Q1 (ab Januar!) bestätigt:
http://www.digitimes.com/news/a20131212PD211.html
Könnte für NV, sofern sie genügend Chips liefern können ein richtiger Kassenschlager werden.
Ailuros
2013-12-13, 13:59:25
Nach meinen Infos wird Logan unter 28HPm hergestellt.
Ailuros
2014-01-03, 08:04:18
http://www.3dnews.ru/assets/external/illustrations/2012/01/10/622610/3.jpg
Wer gerade den Atem angehalten hat, die slide ist uralt und gehoerte zum originalen Echelon Paket. NV hat wohl Denver weiterentwickelt denn wenn es dem Diagramm entsprechen wuerde, wuerde es eher schlecht aussehen.
mboeller
2014-01-03, 11:26:57
steht da nicht links unten x0/24/11 wäre also der 24. Oktober 2011. So alt wäre das aber nicht.
Ailuros
2014-01-03, 11:34:45
steht da nicht links unten x0/24/11 wäre also der 24. Oktober 2011. So alt wäre das aber nicht.
Gutes Auge, aber es muss nicht unbedingt ein Datum sein (obwohl man es nicht ausschliessen kann). Wenn's aber Denver wirklich in etwa so aussieht, wundere ich ernsthaft was so besonderes daran liegen koennte.
Ailuros
2014-01-03, 15:17:06
http://www.fudzilla.com/home/item/33558-nvidia-heading-for-a-spanking-this-year
http://www.fudzilla.com/home/item/33560-nvidia-holds-ces-press-event-at-amd-kaveri-hotel
Ausser GK20A/Laguna bzw. der Logan GPU gibt es wirklich nichts wofuer man aufrichtig sitzen koennte fuer all das was die Firma verkuenden will und das bedauernde "aber" liegt schon wieder im ersten Link.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.