Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs
-/\-CruNcher-/\-
2014-07-27, 20:34:37
Und ich dachte ehrlich dass es eine stinknormale Android 4.4 Installation ist nur mit Xiaomi's eigenem UI. Wenn man anfaengt selbst nachzuinstallieren vergeht mir dann auch gleich der Appetit. Es zockte mich selber in den Fingern bei dem so niedrigen Preis. Scheiss drauf in irgendwo einer Woche sollte das MiPad meines Kumpels ankommen und ich hoffe ich kann mal schnell damit herumfuchteln.
Zur not Aptoide und Co
aber ich würde mir eigentlich ziemlich sicher sein das nichts von Nvidias Software Back und Frontend auf dem Mipad vorhanden sein wird was Shield und Co angeht, da kann man nur K1 testen und das auch eher bescheiden nehme ich an.
Nvidia hat wahrscheinlich auch kein gleich ausgestatetes K1 Tablet zum Start zugelassen wenn man sieht wie beschnitten das Mipad ist in seiner Ausführung.
Heimatsuchender
2014-07-27, 20:51:07
Shield, auch wenn es teurer ist. Aber das Mipad holt man sich eher nur, wenn man Lust hat daran etwas rumzufrickeln. Die ganzen Googledienste, sogar der Playstore müssen erst mehr oder weniger umständlich installiert werden. Die Software ist im Moment auch noch nicht der Hit und Xiaomi konnte wohl so früh launchen, weil sie am Anfang eher nen Betatest mit den Nutzern gemacht haben. Mittlerweile soll das allerdings schon besser sein.
Aber prinzipiell würde ich erstmal warten, bis es ordentliche Reviews vom Shield gibt. Das Display sollte schon gut sein und die Akkulaufzeit relativ in Ordnung.
Ist das immer noch so mit dem Google-Zeug? Dann fällt das MiPad raus. Die Zeiten, in denen ich rumgeflasht und gefrickelt habe, sind vorbei.
tobife
-/\-CruNcher-/\-
2014-07-27, 20:56:08
Das rumgefrickel ist nicht das Problem aber die Extreme Hardware reduktion :(
Ailuros
2014-07-27, 22:02:57
Das rumgefrickel ist nicht das Problem aber die Extreme Hardware reduktion :(
Welche HW Reduktion genau?
-/\-CruNcher-/\-
2014-07-28, 00:05:52
Stylus
HDMI
GPS
zumindestens HDMI hätte ich erwartet und wer weiss wie sie am GPU takt rumdrehen und welche güte die K1 haben.
Und den Load der Source Engine das schaft auch Intel locker ;)
Dural
2014-07-28, 09:20:56
Ich glaube 10 Jahr alte Games sind wohl kaum eine Referenz für ein heutiger SoC. :wink:
hasebaer
2014-07-28, 09:39:45
Und den Load der Source Engine das schaft auch Intel locker ;)
Das Dell hat auch kein HDMI und die Stifteingabe soll nicht fehlerfrei arbeiten.
Dann wird es sehr warm und taktet in dem Fall auch ordentlich runter.
Bei der gleichzeitigen Belastung durch Prime95 und FurMark startet die CPU mit 750 MHz und 45 Grad Celsius, während die CPUGPU mit 300 MHz bei 72 Grad Celsius arbeitet. Sowohl die CPU als auch die GPU können diese Werte während des Tests aufrechterhalten. Am Ende des Stresstests haben sich die Temperaturen der CPU und GPU bei 50 bzw. 74 Grad Celsius eingependelt.
- http://www.notebookcheck.com/Test-Dell-Venue-8-Pro-Tablet.108273.0.html
CPU Basis sind 1330Mhz und 1830Mhz mit Turbo.
GPU Basis sind 313Mhz und 688Mhz mit Turbo.
Also im Zweifel liegen MiPad und Venue 8 Pro gleich auf wenn das OS egal.
Und das MiPad hat immernoch die fettere Auflösung mit 2048×1536 ggü. 1.280 x 800 Pixel.
Ailuros
2014-07-28, 10:02:31
Stylus
HDMI
GPS
zumindestens HDMI hätte ich erwartet und wer weiss wie sie am GPU takt rumdrehen und welche güte die K1 haben.
Und den Load der Source Engine das schaft auch Intel locker ;)
Ich sehe kein hw Reduktion was den SoC betrifft und wir sind hier im TEGRA SYSTEM ON CHIP THREAD sondern nur Deinen ueblichen OT Scheiss und endlose irrelevante youtube videos. Die videos wurden aus verstaendlichen Gruenden entfernt, und wenn Du Dir die daemliche Angewohnheit nicht abgewoehnst verpunkte ich von jetzt ab jeden solchen Fall.
----------------------------------------------------------------------------------------------------------------------------------
***edit:
NV Shield tablet jetzt auch in der Kishonti Datenbank: http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=NVIDIA%20Shield%20tablet
deekey777
2014-07-28, 13:08:31
Watch Us Play Modern Combat 5 On The Nvidia Shield Tablet [All Done] (http://kotaku.com/watch-us-play-modern-combat-5-on-the-nvidia-shield-tabl-1611364206?utm_campaign%3DSocialflow_Kotaku_Facebook&utm_source%3DKotaku_Facebook&utm_medium%3DSocialflow)
hasebaer
2014-07-28, 13:24:32
Bei Shootern kann man nur hoffen das der Steam Controller bald erscheint und auch Wifi Direct unterstützt, wie der Shield Controller oder letzter auch in einer Steam Controller-artigen Version kommt.
Blediator16
2014-07-28, 14:51:20
Watch Us Play Modern Combat 5 On The Nvidia Shield Tablet [All Done] (http://kotaku.com/watch-us-play-modern-combat-5-on-the-nvidia-shield-tabl-1611364206?utm_campaign%3DSocialflow_Kotaku_Facebook&utm_source%3DKotaku_Facebook&utm_medium%3DSocialflow)
Das Spiel zeigt wieso es kein Android/ios Gaming als Ersatz für die richtigen Portables gibt.
Dural
2014-07-28, 15:20:23
und wie zeigt das spiel das?
finde es jetzt auch nichts spezielles, sehe aber zu alten shooter auf dem PC keinen grossen unterschied.
deekey777
2014-07-28, 15:36:25
Das Spiel zeigt wieso es kein Android/ios Gaming als Ersatz für die richtigen Portables gibt.
Hast du es schon durch?
Blediator16
2014-07-29, 17:43:11
http://www.anandtech.com/show/8296/the-nvidia-shield-tablet-review/7
Anand hat ein Review gebracht. Die Laufzeit unter GPU Anwendungen ist sehr niedrig wie es aussieht, was die Leistung irgendwie doch relativiert. Verbrauch scheint doch nicht so niedrig zu sein wie erwartet auch wenn nicht so hoch wie behauptet.
Ailuros
2014-07-29, 17:54:41
http://www.anandtech.com/show/8296/the-nvidia-shield-tablet-review/7
Anand hat ein Review gebracht. Die Laufzeit unter GPU Anwendungen ist sehr niedrig wie es aussieht, was die Leistung irgendwie doch relativiert. Verbrauch scheint doch nicht so niedrig zu sein wie erwartet auch wenn nicht so hoch wie behauptet.
Also 11 Stunden mit wifi hat afaik NV auch behauptet, ergo liegt daran erstmal nichts krummes. Sonst sind die ca. 2.5 Stunden Batterie-Laufzeit bei heavy 3D vollkommen akzeptabel. So hohe Leistung ist eben nicht umsonst.
Was interessant waere ist wie die Laufzeit aussehen wuerde wenn man die GPU theoretisch sagen wir mal um 15% runtertakten wuerde.
Undertaker
2014-07-29, 17:55:50
Man könnte jetzt sagen, Kraft kommt von Kraftstoff... In Relation zur Performance und dem nicht einmal 20 Wh großen Akku scheint die GPU schon effizient zu sein, denn auch mit halber Taktrate wäre die Performance noch High End würdig. Schön wäre da ein entsprechend angepasster Energiesparmodus für einfache Spiele. Die WLAN Laufzeit kann sich imo sehr gut sehen lassen.
AffenJack
2014-07-29, 17:59:00
Ziemlich überzüchtet das Ding, man hätte wohl lieber auch auf etwas niedrigeren Taktraten bleiben sollen, aber wollte unbedingt noch eins aufs Mipad drauf setzen, deshalb wundert mich die Akkulaufzeit jetzt nicht.
@Undertaker, das hat man ja sowieso. Nicht umsonst sollen Spiele wie Angry Birds länger halten. Außerdem kann man ja nen Framelimiter anschmeißen. Da wäre die Laufzeit auch ganz interessant.
Blediator16
2014-07-29, 17:59:35
2 Stunden reine Spielzeit für ein portable gaming device ist natürlich der Brüller und wie das mit gesenkten Taktraten aussieht sollte erst getestet werden bevor man mal wieder Lobgesänge ablässt. In dieser Form ist einzig die Leistung beeindruckend mehr auch nicht.
Ailuros
2014-07-29, 18:03:19
Ziemlich überzüchtet das Ding, man hätte wohl lieber auch auf etwas niedrigeren Taktraten bleiben sollen, aber wollte unbedingt noch eins aufs Mipad drauf setzen, deshalb wundert mich die Akkulaufzeit jetzt nicht.
Wuerde sich relativ einfach loesen durch sw wenn es NV nur will.
2 Stunden reine Spielzeit für ein portable gaming device ist natürlich der Brüller und wie das mit gesenkten Taktraten aussieht sollte erst getestet werden bevor man mal wieder Lobgesänge ablässt. In dieser Form ist einzig die Leistung beeindruckend mehr auch nicht.
Nur weil es NV als solches verkauft oder vermarktet heisst es noch lange nicht dass es auch wirklich ein gaming tablet ist. Ich sehe ein stinknormales high end Android tablet. Und ja natuerlich gibt es hier dann ein Oxymoron, aber NV's Tegra Marketing Abteilung war bis jetzt auch nicht fuer ihre Genialitaet bekannt :P
Beim direkten Vergleich haelt ein iPad mini retina nicht um soooo viel laenger an waehrend der K1 immer noch bis zu 2.4x Mal so viel Leistung bringt; die wirklich faire Frage ist wie sich das Shield bzw. MiPad gegen die kommende Apple tablet Generation stellen koennen.
fondness
2014-07-29, 18:10:10
http://www.anandtech.com/show/8296/the-nvidia-shield-tablet-review/7
Anand hat ein Review gebracht. Die Laufzeit unter GPU Anwendungen ist sehr niedrig wie es aussieht, was die Leistung irgendwie doch relativiert. Verbrauch scheint doch nicht so niedrig zu sein wie erwartet auch wenn nicht so hoch wie behauptet.
Na wer hätte das gedacht, ähnliches habe ich ja schon erwartet/befürchtet. Leistung gibt es eben nicht umsonst und in diesem Marktsegment zählt die Leistung nichts ohne die Leistungsaufnahme.
Ailuros
2014-07-29, 18:22:11
http://www.anandtech.com/show/8296/the-nvidia-shield-tablet-review/5
In this device, the GPU can run anywhere between 72 MHz to 852 MHz.
Bei bis zu 852MHz wundert mich das Ganze natuerlich wenig; damit es aber "nur" 31.7 fps in Manhattan offscreen erreicht koennte auch daran liegen dass es doch zu heiss wird, denn ich hoere von Leuten mit Jeston von etwas hoeheren Zahlen.
Bei 650MHz waeren es theoretisch "nur" noch 24 fps....hmmmm :rolleyes:
Dural
2014-07-29, 18:31:13
wenn das ding wie von NV versprochen nicht runter taktet ist das ein Exzellentes Ergebnis.
Der K1 dreht ja regelrecht kreise um jeden anderen aktuellen SoC. :smile:
Unicous
2014-07-29, 18:34:39
Cool. Vor ein paar Tagen, als ich mich noch über die "Soll"- Akkulaufzeiten aufgeregt habe ( im Nvidia Bullshit Flappy Bird Test wahrscheinlich) ging man noch davon aus dass es 5h sind. Jetzt ist es die Hälfte und dass ist auch voll die Hammer-Laufzeit, voll geil was Nvidia da gezimmert hat.:rolleyes:
JHH macht es wirklich immer allen Recht, egal was er verzapft.:freak:
Dural
2014-07-29, 18:38:18
Schwachsinn, NV hat immer gesagt das es nur 3h in Games mit starker Belastung sind.
Die Akkulaufzeit soll zehn Stunden beim Schauen von HD-Videos und drei bis fünf Stunden beim Spielen betragen – je nachdem, wie anfordernd der Titel ist
http://www.computerbase.de/2014-07/nvidia-shield-tablet-tegra-k1-hands-on/
Ailuros
2014-07-29, 18:40:03
Schwachsinn, NV hat immer gesagt das es nur 3h in Games mit starker Belastung sind.
Ach ja wo denn? Darf ich auf einen link hoffen der es auch beweisst? ;D
http://www.computerbase.de/2014-07/nvidia-shield-tablet-tegra-k1-hands-on/
Touche; bei solitaire sind es wohl ueber 12 Stunden :P
Dural
2014-07-29, 18:41:28
siehe oben...
Unicous
2014-07-29, 18:58:31
Jaja. Ich laber natürlich Schwachsinn.
http://www.pcworld.com/article/2455682/hands-on-with-nvidias-shield-tablet-a-slick-experience-on-the-small-and-big-screen.html
Nvidia claims that the Shield tablet will yield about 10 hours of video playback or between 5 and 6 hours of gameplay, depending on whether games are played directly on the tablet itself.
In power terms, because that's a concern with any game-centric tablet, we've been told the Shield Tablet will last from two to four[s] hours before needing a recharge, depending on how graphics heavy the games are. For watching video, it should last up to 10 hours.
http://www.pocket-lint.com/news/129872-nvidia-shield-tablet-could-be-android-games-console-we-actually-want-and-here-s-why
http://www.gizmodo.co.uk/2014/07/nvidia-shield-tablet-hands-on-steam-game-streaming-on-a-slate/
Equipped with a 1975mAh battery, the tablet is good for between 3 to 5 hours of Android gaming (depending on the demands of the game), and 10 hours of video playback.
The Shield tablet will yeild 10 hours of battery life for video playback and 5 to 6 hours for gaming.
http://www.techienews.co.uk/9715488/nvidia-takes-wraps-gaming-dedicated-shield-tablet/
Nvidia claims the Shield Tablet battery will last for up to 10 hours of video playback, or around 6 hours when playing heavy-graphics games.
http://www.cnet.com/products/nvidia-shield-tablet/
Meine Fresse, das Nvidia Marketing muss ja riesig lange Nasen haben.
Und jetzt Dural, erzähl mir bitte noch mal, wer hier Schwachsinn redet.:rolleyes:
-/\-CruNcher-/\-
2014-07-29, 19:46:32
für 2000 mAh wären 6 stunden phenomenal wenn man konstant 30 fps bei 1080p zu grunde legt, glaube nur das das niemand selbst bei Nvidia glaubt was die Medien hier verzapfen :D
Zumal sie reden ja immer von ihrem Streaming aber daten in wie weit das dann nochmal additional Strom frisst in ihrem Nvenc DSP Fehlanzeige bis jetzt ;)
AffenJack
2014-07-29, 20:02:17
Jaja. Ich laber natürlich Schwachsinn.
Meine Fresse, das Nvidia Marketing muss ja riesig lange Nasen haben.
Und jetzt Dural, erzähl mir bitte noch mal, wer hier Schwachsinn redet.:rolleyes:
Ich seh in den Aussagen eher, dass Dural recht hat. Es gibt genug Seiten die klar 3-5 Stunden geschrieben haben, wie deine Links auch zeigen. Wahrscheinlich hat Nvs Marketing mit zahlen rumgeworfen und einige ham dann nur 5 Stunden geschrieben, aber ich bin immer nur von 3 h ausgegangen und weiß nicht, was dich daran so überrascht wie deine Links auch zeigen.
Undertaker
2014-07-29, 20:09:12
Beim direkten Vergleich haelt ein iPad mini retina nicht um soooo viel laenger an waehrend der K1 immer noch bis zu 2.4x Mal so viel Leistung bringt; die wirklich faire Frage ist wie sich das Shield bzw. MiPad gegen die kommende Apple tablet Generation stellen koennen.
Na, wenn Apple in 20nm keine spürbar bessere Effizienz erreicht wäre das doch ziemlich bescheiden. Wie gesagt: Gegenüber der versammelten 28nm Konkurrenz sind die FPS/Watt doch sehr ansehnlich.
-/\-CruNcher-/\-
2014-07-29, 20:14:44
+ Metal Effizienz gegenüber OpenGL ES nicht zu vergessen, mann muss das alles schon im gesammten betrachten ;)
Ailuros
2014-07-29, 20:31:36
Na, wenn Apple in 20nm keine spürbar bessere Effizienz erreicht wäre das doch ziemlich bescheiden. Wie gesagt: Gegenüber der versammelten 28nm Konkurrenz sind die FPS/Watt doch sehr ansehnlich.
Sind Tegra tablets immer bis Apple's neue Ladung erscheint. Diesmal ist der Pegel hoher als zuvor angelegt worden. Prozesse sind nur das letzte Hilfsmittel. Man kann eine beschissene oder gute Architektur auf jedem Prozess herstellen.
Stimmen die Gerüchte dann ist A8 unter 20SoC um ca 1/4el kleiner als K1. Ja und?
Anders ist A8 effizienter als K1 ist wohl 20SoC der letzte Faktor den jemand interessiert. Im Gegenfall hat Apple einfach Pech gehabt.
Undertaker
2014-07-29, 20:53:05
Stimmen die Gerüchte dann ist A8 unter 20SoC um ca 1/4el kleiner als K1.
Der Flächenunterschied ist in jedem Fall kleiner als der Skalierungsfaktor zwischen beiden Prozessen, soll heißen: A8 hat erheblich mehr Transistoren. Uns selbige sind unter 20nm obendrein noch schneller und sparsamer, das würde ich nicht ausblenden.
Und zur Vergangenheit: T4 stand gegen A6X weit schlechter da als K1 gegen A7. Sowohl was die Effizienz, als auch was die absolute Performance betrifft.
Unicous
2014-07-29, 21:16:35
Ich seh in den Aussagen eher, dass Dural recht hat. Es gibt genug Seiten die klar 3-5 Stunden geschrieben haben, wie deine Links auch zeigen. Wahrscheinlich hat Nvs Marketing mit zahlen rumgeworfen und einige ham dann nur 5 Stunden geschrieben, aber ich bin immer nur von 3 h ausgegangen und weiß nicht, was dich daran so überrascht wie deine Links auch zeigen.
Immer nur von 3h ausgegangen? Bis zum 22. Juli war "offiziell" noch nicht mal klar, dass es ein Shield Tablet gab und du bist schon immer davon ausgegangen?:confused: Ich glaube eher du bist mit Captain Hindsight verwandt.:freak:
Die Artikel sind alle Hands-Ons und Nvidia hat sicherlich noch einen Marketing-Fuzzie vorbeischneien lassen.
Und: die Artikel sind (bis auf einen) alle vom 22. Juli 2014. Nun erkläre mir mal diese Diskrepanzen.
Man muss Marketing nicht relativieren. Es ist nicht das erste Mal und wird nicht das letzte Mal sein, dass Nvidia bei Spezifikationen lügt.
Das ist eigentlich kein Problem. Jeder in der Industrie lügt oder biegt sich die Szenarien zurecht. Aber das passiert halt wenn man die Lüge nicht konsequent durchhält.
Dural
2014-07-29, 21:23:18
die offiziellen angaben von nv waren klar und deutlich.
und überhaupt, 5h bei dieser Leistung in 28nm?!? das wäre die ganze konkurenz um ca. den Faktor 4 geschlagen und das im selben Prozess, das war nie und nimmer zu erwarten :wink:
Ailuros
2014-07-29, 21:25:42
Der Flächenunterschied ist in jedem Fall kleiner als der Skalierungsfaktor zwischen beiden Prozessen, soll heißen: A8 hat erheblich mehr Transistoren. Uns selbige sind unter 20nm obendrein noch schneller und sparsamer, das würde ich nicht ausblenden.
Woher willst Du wissen welche Packdichte jeder hat? Apple hat sogar 165mm2 SoCs verschmerzt da ist es ziemlich egal ob X oder Y Prozess.
Und zur Vergangenheit: T4 stand gegen A6X weit schlechter da als K1 gegen A7. Sowohl was die Effizienz, als auch was die absolute Performance betrifft.
Acj ja wie viele Meilen Unterschied denn genau? Das iPad4 liegt bei 19 GPS in GLB2.7, Shield1 bei 24 GPS und alle Hersteller die T4 integriert haben (ohne aktive Kühlung natürlich) liegen bei 16-17fps Durchschnitt. Und nein ein T4 tablet verbraucht zwar mehr als ein iPad4 aber auch nicht eine Unmenge mehr.
Das Mi3 mit T4 ist dann schon eine andere Geschichte. Momentan hab ich ein MiPad von Xiaomi die traditionell zu aggressiv mit DVFS sind und ein NV tablet. Die fette Dame hat bei mir ausgesungen wenn K1 tablets von anderen Herstellern erscheinen werden.
Unicous
2014-07-29, 21:26:47
die offiziellen angaben von nv waren klar und deutlich.
und überhaupt, 5h bei dieser Leistung in 28nm?!? das wäre die ganze konkurenz um ca. den Faktor 4 geschlagen und das im selben Prozess, das war nie und nimmer zu erwarten :wink:
:rolleyes:
Was ist an "Nvidia claims" so missverständlich. Erkläre es mir bitte?
Undertaker
2014-07-29, 21:42:24
Acj ja wie viele Meilen Unterschied denn genau? Das iPad4 liegt bei 19 GPS in GLB2.7, Shield1 bei 24 GPS und alle Hersteller die T4 integriert haben (ohne aktive Kühlung natürlich) liegen bei 16-17fps Durchschnitt. Und nein ein T4 tablet verbraucht zwar mehr als ein iPad4 aber auch nicht eine Unmenge mehr.
Wie du schon schreibst: T4 hatte trotz Mehrverbrauch nicht einmal einen Leistungsvorteil (zumindest passiv nicht). Die ersten Modelle stürzten bei Dauerlast sogar ab, das Throttling war in jedem Fall weit ausgeprägter. Selbst wenn wir T4 und K1 den gleichen Volllastverbrauch zuschreiben, liegt der Effizienzsprung bei Faktor 3 und mehr. Da ist mir kein vergleichbares Beispiel aus der jüngeren Vergangenheit bekannt, wo das in nur einem Jahr erreicht wurde.
Woher willst Du wissen welche Packdichte jeder hat? Apple hat sogar 165mm2 SoCs verschmerzt da ist es ziemlich egal ob X oder Y Prozess.
Die Aussage, dass der A8 in 20nm mehr Transistoren als K1 haben wird, lässt sich auch ohne genaue Angaben zur Packdichte tätigen. Schon A7 soll ja bei etwa 1 Mrd. liegen, die höhere Packdichte in 20nm ist bekannt. Ich nenne keine Zahlen, aber die qualitative Situation iat klar.
Ailuros
2014-07-29, 21:51:30
Der Effizienz-sprung ist normal wenn man bedenkt dass sie von vec4 zu skalaren USC ALUs wandelten und diesmal auf 121 statt 80mm2 SoC die estate sind wobei offensichtlich ein fetter Brocken mehr an die GPU ging. Das sogar auf fast gleichem Prozess und Du hast hier zwischen Aurora und GK20A einen G70 vs. G80 Effekt auch was die Bildqualität betrifft.
Ailuros
2014-07-29, 21:57:42
Die Aussage, dass der A8 in 20nm mehr Transistoren als K1 haben wird, lässt sich auch ohne genaue Angaben zur Packdichte tätigen. Schon A7 soll ja bei etwa 1 Mrd. liegen, die höhere Packfdichte in 20nm ist bekannt. Ich nenne keine Zahlen, aber die qualitative Situation iat klar.
Und wenn es 90mm2@20nm vs. 121mm2@28nm sein sollte, macht es welchen Unterschied genau in Transistoren-Mengen?
AffenJack
2014-07-29, 21:58:47
Immer nur von 3h ausgegangen? Bis zum 22. Juli war "offiziell" noch nicht mal klar, dass es ein Shield Tablet gab und du bist schon immer davon ausgegangen?:confused: Ich glaube eher du bist mit Captain Hindsight verwandt.:freak:
Die Artikel sind alle Hands-Ons und Nvidia hat sicherlich noch einen Marketing-Fuzzie vorbeischneien lassen.
Und: die Artikel sind (bis auf einen) alle vom 22. Juli 2014. Nun erkläre mir mal diese Diskrepanzen.
Man muss Marketing nicht relativieren. Es ist nicht das erste Mal und wird nicht das letzte Mal sein, dass Nvidia bei Spezifikationen lügt.
Das ist eigentlich kein Problem. Jeder in der Industrie lügt oder biegt sich die Szenarien zurecht. Aber das passiert halt wenn man die Lüge nicht konsequent durchhält.
Immer, in Bezug nach der Vorstellung am 22, aber ich weiß ja, dass du nen Faible dafür hast Sachen anders zu verstehen und dir irgendwas rauszusuchen. Eigentlich hätte man sich das aber wirklich auch davor denken können, denn das Mipad mit niedrigeren Taktraten und größeren Akku hält nun auch nicht gerade lange. Für alle Menschen, die paar Hands-Ons gelesen haben wars nicht überraschend und klar, dass es nunmal so sein wird. Wieso manche 5 Stunden und mehr geschrieben haben, weiß ich nicht, aber der Großteil der Reviews die ich gelesen hatte wie CB, Notebookcheck usw hatten die 3 Stunden stehen und da glaube ich kaum, dass es eine Lüge war. Aber da du es anscheinend nicht geschafft hat mehrere Reviews zu lesen, tut es mir leid, dass dich diese Nachricht so erschüttert und hoffe du wirst irgendwann noch drüber hinweg kommen.
Unicous
2014-07-29, 22:19:21
Das sind alles Hands Ons. Wie oft denn noch. Und auch ich habe "ein paar" gelesen. Wo denkst du habe ich die 5 Stunden her?
Wenn Nvidia claims dasteht, wo denkst du kommt diese Behauptung her? Aus dem Hintern des Autoren?
Aber gut. Du wusstest seit dem 22. Juli schon immer dass es nur 3 Stunden... halt 2 1/2 Stunden sind also lassen wir es dabei.
AffenJack
2014-07-29, 22:36:39
Jo lassen wir das, es verbraucht halt ne Menge, aber hat auch ne gute Leistung. Interessant wirds noch wie es bei weniger fordernden Spielen wird.
Außerdem sollte doch so langsam mal etwas über Denver bekannt werden. Es kann doch nicht sein, dass Nv wohl am 11.8 die Denver-Architektur auf der Hotchips vorstellt und noch nix nach außen gelangt ist davor.
Ailuros
2014-07-29, 22:45:00
Ich hoffe Charlie behauptet nicht hinter der paywall dass Erista und co A53 Kerne haben, denn ich könnte ein solches "told you so" nicht aushalten....
robbitop
2014-07-29, 23:43:35
A53 und nicht Denver? WTF? Ist da etwa ein Bu-Bu mit der Denver µ-Arch passiert?
hasebaer
2014-07-29, 23:54:39
Mich würde es nicht überraschen, wenn Erista auf der CES im Januar wieder in zwei Versionen vorstellt wird, so wie auch Logan aka K1.
Ein 4+1 A53 Erista, weiterhin in 28HPm.
Und ein Dual Core Denver Erista in 20SoC.
Parker ist dann ein 4+1 Denver in 16FF.
Ailuros
2014-07-30, 08:00:06
A53 und nicht Denver? WTF? Ist da etwa ein Bu-Bu mit der Denver µ-Arch passiert?
Es ist ein Charlie/SA Geruecht dass im forum drueben immer wieder auftaucht. Erstens halte ich es fuer totalen bullshit, und zweitens falls etwas daran liegen sollte darf der Kaiser seinen Hintern gefaelligst endlich in Rente schicken.
Mich würde es nicht überraschen, wenn Erista auf der CES im Januar wieder in zwei Versionen vorstellt wird, so wie auch Logan aka K1.
Ein 4+1 A53 Erista, weiterhin in 28HPm.
Und ein Dual Core Denver Erista in 20SoC.
Parker ist dann ein 4+1 Denver in 16FF.
Es gibt nur einen 20SoC Erista SoC; wie kommst Du auf 4+1?
Undertaker
2014-07-30, 08:10:32
Und wenn es 90mm2@20nm vs. 121mm2@28nm sein sollte, macht es welchen Unterschied genau in Transistoren-Mengen?
20nm lag glaube ich bei ca. 90% mehr Packdichte (Plus Minus). Da bleibt auch bei dem von dir genannten Beispiel noch einiges über. Nicht zu vergessen ist wie gesagt aber auch der Verbrauchs- und Taktvorteil eines neueren Prozesses.
Ailuros
2014-07-30, 08:25:28
20nm lag glaube ich bei ca. 90% mehr Packdichte (Plus Minus). Da bleibt auch bei dem von dir genannten Beispiel noch einiges über. Nicht zu vergessen ist wie gesagt aber auch der Verbrauchs- und Taktvorteil eines neueren Prozesses.
Apple hat bis jetzt NIE extravagante Frequenzen benutzt noch die Packdichte an den Rand der Toleranz vom jeglichen Prozess gejagt. A7 liegt bei 9.9Mio/mm2 waehrend man locker auf sogar bis zu 14Mio/mm2 treiben unter 28nm kann, wenn man wirklich auf Glatteis tanzen will.
Bei konservativen eingeschaetzten 16Mio/mm2 unter 20SoC sind es 1.44 Mrd. Transistoren fuer den A8. Wenn Du jetzt natuerlich im Gegensatz glauben willst dass NV unter 28HPm beim K1 bei "nur" 9.9Mio/mm2 geblieben sind kein Problem, nur hab ich das "Bauchgefuehl" dass es ein gutes Stueck mehr ist. Alles natuerlich spekulativ aber Deine These dass Apple nicht falsch liegen kann oder darf unter 20SoC ist nahezu absurd; wenn der A8 in geleakten Photos weit ueber 100mm2 aussehen wuerde dann ja. Sonst haetten sie theoretisch auch einen ~145mm2 grossen SoC unter 28nm verkraften koennen. Und hier ist dann eben NICHT so dass man gleich 145 gegen 121mm2 vergleichen kann in dem man die Unterschiede in Packdichte einfach uebersieht.
Einen high end GPU chip in 2015 wuerde ich schon bei bis zu 20Mio/mm2 unter 20SoC erwarten; einen SoC aber und ueberhaupt von Apple dann wohl eher nicht. Ausser es ist irgend ein IHV so bloed und will ultrabeschissene yields geniessen ueberhaupt beim eigentlichen Massenproduktions-start von 20SoC.
Dural
2014-07-30, 09:08:38
halte es auch für gut möglich das M1 zuerst mit A53 kommt.
die zeitspanne zwischen K1 Denver und M1 Denver wäre einfach zu klein mit rund einem halben jahr. bis vor "kurzem" wusste auch keiner das es zwei K1 geben wird.
hasebaer
2014-07-30, 09:23:27
halte es auch für gut möglich das M1 zuerst mit A53 kommt.
die zeitspanne zwischen K1 Denver und M1 Denver wäre einfach zu klein mit rund einem halben jahr.
Das was auch mein Hintergedanke, sowie die 20SoC Kosten.
K1 Denver kommt jetzt erst, und in Geräten nicht vor anfang Q4 14' und immernoch in 28HPM.
Und im Q1 15' soll dann schon ein 20SoC M1 Dual Core Denver folgen (?!), dass klingt nicht nach Nvidia, denn so schnell löst man nun auch wieder keine Produkte ab.
Zumal die Kunden ja dann die Wahl haben ob zwischen Quad und Dual Core 64Bit und auch wenn A53 kein Alleinstellungsmerkmal ist, so ist es auch kein Nachteil.
QCOM & der Rest der Android Welt haben auch nichts besseres zu dem Zeitpunkt.
Die Maxwell GPU allein wird ne Weile reichen, hauptsache 64bit und schnell lieferbar.
Ailuros
2014-07-30, 09:34:29
halte es auch für gut möglich das M1 zuerst mit A53 kommt.
die zeitspanne zwischen K1 Denver und M1 Denver wäre einfach zu klein mit rund einem halben jahr. bis vor "kurzem" wusste auch keiner das es zwei K1 geben wird.
Wenn Erista keine Denver Kerne hat, dann hat auch 64bit K1 keine.
Undertaker
2014-07-30, 09:57:12
Sonst haetten sie theoretisch auch einen ~145mm2 grossen SoC unter 28nm verkraften koennen.
Nein, da wie gesagt die Packdichte nicht der einzige Vorteil ist. Frequenzen und Leistungsaufnahme kommen noch dazu. Ob die Kosten pro Transistor am Ende vielleicht etwas über einem 28nm Derivat liegen, kann Apple als wohl einzigem Hersteller vergleichsweise egal sein.
Ailuros
2014-07-30, 10:31:59
Nein, da wie gesagt die Packdichte nicht der einzige Vorteil ist. Frequenzen und Leistungsaufnahme kommen noch dazu.
Apple wird wohl nicht vorhaben die A8 GPU weder auf 950 noch auf 850MHz zu takten, obwohl der Gedanke durchaus interessant waere.
Der Punkt hier ist dass Apple generell konservativ entwickelt (Flaeche) und auch taktet. Hoehere als bisherige Frequenzen sind natuerlich nicht auszuschliessen, aber eine 180-gradige Wendung halt ich fuer Bloedsinn.
Wenn die 1800mAH Batterie fuer's iPhone6 stimmt, dann ist es gerade so viel mehr Batterie um den etwas groesseren display zu decken und sonst nicht mehr. Anders es gibt keine einzige Indizie fuer radikalere Verbrauchs-steigerungen.
deekey777
2014-07-30, 11:08:31
Wie hoch müsste ein GX6650 takten, um die Krone (außerhalb von Metal) zu halten? Wobei eher mit einem G6630 zu rechnen ist.
Ailuros
2014-07-30, 11:15:08
Wie hoch müsste ein GX6650 takten, um die Krone (außerhalb von Metal) zu halten? Wobei eher mit einem G6630 zu rechnen ist.
Mit dem heutigen Treiber wohl 850MHz :biggrin::freak:
Undertaker
2014-07-30, 15:00:10
Apple wird wohl nicht vorhaben die A8 GPU weder auf 950 noch auf 850MHz zu takten, obwohl der Gedanke durchaus interessant waere.
Der Punkt hier ist dass Apple generell konservativ entwickelt (Flaeche) und auch taktet. Hoehere als bisherige Frequenzen sind natuerlich nicht auszuschliessen, aber eine 180-gradige Wendung halt ich fuer Bloedsinn.
Das wollte ich auch nicht implizieren. Aber: Was unter 20nm als konservative Taktrate durchgeht, wäre unter 28nm schon ambitioniert. Und was unter 20nm eine konservative Packdichte ist, wirst du unter 28nm überhaupt nicht erreichen.
Ailuros
2014-07-30, 15:28:20
Das wollte ich auch nicht implizieren. Aber: Was unter 20nm als konservative Taktrate durchgeht, wäre unter 28nm schon ambitioniert. Und was unter 20nm eine konservative Packdichte ist, wirst du unter 28nm überhaupt nicht erreichen.
Ja aber stets fuer Apple 28nm vs. Apple 20nm.
Die Apple A7 GPU taktet auf irgendwo 450MHz und die CPU im iPadAir bis zu 1400MHz. Soll ich Dir eine Liste machen von heutigen GPU Frequenzen unter 28nm von der gesamten Konkurrenz oder ist der Punkt klar genug? Die breiteste Mehrzahl von heutigen 28nm SoCs selbst im mainstream und low end takten ihre GPUs bei zumindest 600MHz.
Undertaker
2014-07-30, 16:09:47
...was den Transistorbedarf bei Apple (indirekt) erhöht, dafür aber die Energieeffizienz weiter verbessert. An dem Punkt, dass 20nm nunmal ein (von Apple sicher nicht ganz billig erkaufter) klarer Vorteil für den A8 ist, ändert das rein gar nichts. Und nur auf diesen Punkt wollte ich hinaus. :wink:
Ailuros
2014-07-30, 16:18:38
...was den Transistorbedarf bei Apple (indirekt) erhöht, dafür aber die Energieeffizienz weiter verbessert. An dem Punkt, dass 20nm nunmal ein (von Apple sicher nicht ganz billig erkaufter) klarer Vorteil für den A8 ist, ändert das rein gar nichts. Und nur auf diesen Punkt wollte ich hinaus. :wink:
Wenn man fuer Entschuldigungen sucht weil A doch nicht so glohreich am Ende gegen B aussehen koennte, ist natuerlich immer der Prozess, das krumme feng shui, die Sterne oder sonst noch etwas daran schuld.
Es ist wohl eher so dass NV den K1 etwas konservativer haette takten koennen, dann waere die Energieeffizienz auch besser gewesen ohne dass der Leistungsverlust ein Beinbruch gewesen waere.
Bei der Blamage an Leistung in einem smartphone sicher nicht:
http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=LG%20G3%20%28F460%29
Undertaker
2014-07-30, 16:35:13
Wenn man fuer Entschuldigungen sucht weil A doch nicht so glohreich am Ende gegen B aussehen koennte, ist natuerlich immer der Prozess, das krumme feng shui, die Sterne oder sonst noch etwas daran schuld.
Ich habe gerade starke Probleme nachzuvollziehen, warum du die unbestreitbaren Vorteile eines fortschrittlicheren Fertigungsprozesses so vehement zu leugnen versuchst. Zumal es um keinerlei quantitative Bewertung geht, sondern nur die schlichte Erkenntnis, dass dies der Fall ist. Fällt es so schwer, das einzugestehen? :)
Es ist wohl eher so dass NV den K1 etwas konservativer haette takten koennen, dann waere die Energieeffizienz auch besser gewesen ohne dass der Leistungsverlust ein Beinbruch gewesen waere.
Klar hätte man. Taktpotentiale nicht auszunutzen ist allerdings eine Frage der Kosten, schließlich opfert man dafür dann Performance, die man zuvor über Chipfläche erkauft hat. Wie ich schon sagte, wären abgestimmte Energieprofile für anspruchslosere Spiele eine recht gute Lösung. Als ineffizient würde ich die GPU übrigens auch bei der Shield 2 Taktrate nicht bezeichnen, ähnlich schnell sind z.B. nur HD 4400 oder die schnellste Beema Modelle - mit jeweils 15 Watt TDP wohlgemerkt. Das ist Minimum Faktor zwei mehr als K1.
fondness
2014-07-30, 16:56:31
Ich habe gerade starke Probleme nachzuvollziehen, warum du die unbestreitbaren Vorteile eines fortschrittlicheren Fertigungsprozesses so vehement zu leugnen versuchst. Zumal es um keinerlei quantitative Bewertung geht, sondern nur die schlichte Erkenntnis, dass dies der Fall ist. Fällt es so schwer, das einzugestehen? :)
Also bis dato ist der 20nm Prozess ziemlich umstritten und Vorteil müssen erst gezeigt werden.
Dural
2014-07-30, 17:11:21
wenn er nicht besser wäre, hätte ihn Apple nicht erkauft. es macht null sinn einen neuen (und teuren) prozess zu verwenden wenn er nicht besser ist. ;)
Unicous
2014-07-30, 17:20:08
"Besser" ist also die Metrik die man heutzutage also benutzt ohne konkret werden zu müssen.:rolleyes:
Fakt ist: Die Vorteile neuer Nodes schrumpfen seit Jahren und die wichtigste Metrik Kosten erhöht sich stetig.
Aber:Apple braucht 20nm weil es einfach nichts Anderes gibt und sie nicht noch ein Jahr warten können.
Sie brauchen die Chips für ihre Produktkadenz. Apple geht es nicht um Innovation sondern um Produkte. Neue Produkte jedes Jahr. Immer ein wenig besser, immer eine Nummer höher, oder s drangepappt. 2x soviel von dem, 10x besser als die Konkurrenz und das für den gleichen Preis.
Time To Market und Just in/on Time ist die wichtigste Metrik und bei Apple ist es wahrscheinlich sogar das ungeschriebene Gesetz.
Dural
2014-07-30, 17:22:51
wenn man jedes jahr ein neuen Produkt bringen will (oder muss) setzt man erst recht auf das aktuell bekannte und verwendet neues wenn es "rund läuft" es sei den man benötigt etwas besseres als eben das alt bekannte ;)
Unicous
2014-07-30, 17:30:48
Du setzt Apple mit anderen Firmen gleich. Apple hat aber eine Sonderstellung. Sie sagen "Shut up and take my money i want your fabs." Diese Investitionen holen sie sich dann durch fette Margen bei ihren Produkten wieder. Um aber sagen zu können wir haben doppelt soviel von dem und vier Mal so viel davon brauchen sie entweder ein besseres Design und/oder einen neuen Prozess.
Für andere Firmen sind diese Kosten aber prohibitiv, weil sie mit ganz anderen Margen arbeiten. Apple ist irgendwas in den 50ern ,60ern wenn ich mich nicht irre. Andere Firmen sind z.T. in den 30ern bis 40ern. Die bleiben dann auf 28nm für eine Weile und versuchen das Design anzupassen. Bei Qualcomm ist es ähnlich wie bei Apple. Die schwenken auch nicht aus Jux und Dollerei wahrscheinlich auf Samsung um.
dildo4u
2014-07-30, 17:34:36
Gibt eigentlich schon Infos ob den näste Tegra Maxwell in 28nm nutzt?Muss ja eigentlich wenn sie Mitte 2015 ein neuen SOC bringen wollen.
Undertaker
2014-07-30, 17:38:03
Aber:Apple braucht 20nm weil es einfach nichts Anderes gibt und sie nicht noch ein Jahr warten können.
Wenn 28nm auch nur halbwegs gleichwertig wäre, hätten sie ja problemlos einen größeren Chip in diesem Prozess entwickeln können. Allein der Fakt, das Apple sich mit viel Geld Kapazitäten in 20nm sichert (und auch die Yield-Risiken eines jeden neuen Prozesses riskiert), bestätigt die Vorteile. Bei SoCs ist nun einmal einzig Apple in der Position, ein Produkt mit derart luxoriöser Marge zu produzieren, dass man sich das zu einem solch frühen Zeitpunkt leisten kann.
Also bis dato ist der 20nm Prozess ziemlich umstritten und Vorteil müssen erst gezeigt werden.
Umstritten, weil zu teuer. Bei gleichen Kosten pro Transistor und unbegrenzten Kapazitäten würde wohl kein SoC-Hersteller vorerst bei 28nm HPM bleiben.
Unicous
2014-07-30, 17:51:38
Wie kommst du darauf, dass 100mm² SoCs Yield-Probleme hätten?
Undertaker
2014-07-30, 17:55:11
In einem nagelneuen Prozess wird auch ein 100mm² SoC nicht von Beginn an 90%+ erreichen. In jedem Fall geht man als erster Hersteller immer das größte Risiko ein, dass etwas nicht genau nach Plan verläuft oder die angepeilten Taktraten bei der veranschlagten Spannung auch erreicht werden. Ohne Aussicht auf einen entsprechenden Nutzen wäre kein Hersteller bereit, das sowie die zusätzlichen Kosten in Kauf zu nehmen.
Ailuros
2014-07-30, 17:56:09
Ich habe gerade starke Probleme nachzuvollziehen, warum du die unbestreitbaren Vorteile eines fortschrittlicheren Fertigungsprozesses so vehement zu leugnen versuchst. Zumal es um keinerlei quantitative Bewertung geht, sondern nur die schlichte Erkenntnis, dass dies der Fall ist. Fällt es so schwer, das einzugestehen? :)
Weil sie noch nirgends garantiert sind ausser Du hasst Einzelheiten ueber A8 die noch keiner weiss vielleicht?
Rein zufaellig gehoeren K1 und A8 zur quasi gleichen SoC Generation.
Klar hätte man. Taktpotentiale nicht auszunutzen ist allerdings eine Frage der Kosten, schließlich opfert man dafür dann Performance, die man zuvor über Chipfläche erkauft hat. Wie ich schon sagte, wären abgestimmte Energieprofile für anspruchslosere Spiele eine recht gute Lösung.
K1 ist um 50% groesser als T4, ergo kann K1 auch durchaus ueberleben wenn es "nur" 2.5xMal so schnell sein wuerde als T4.
Profile sind eine Loesung, aber haben im gegebenen Fall nichts mit dem Teil der Debatte zu tun.
Als ineffizient würde ich die GPU übrigens auch bei der Shield 2 Taktrate nicht bezeichnen, ähnlich schnell sind z.B. nur HD 4400 oder die schnellste Beema Modelle - mit jeweils 15 Watt TDP wohlgemerkt. Das ist Minimum Faktor zwei mehr als K1.
Hat auch nichts mit dem obrigen zu tun. Wenn es jemand Sorgen machen sollte ob Apple bessere SoCs entwickeln kann, werde ich nicht nein sagen und nein das aendert auch nicht meine Meinung bezueglich fruitco und ihren Wuchermargen.
Prozess-Technologie ist kein Allerheilmittel sondern macht eine gute Architektur etwas besser; eine beschissene Architektur wird nur weniger besser und um das geht es mir und nichts anderes. Und wenn's schon sein muss da Apple ein paar hundert Mio Geraete mit A8 bedienen wird haben sie wohl auch ganz andere Prioritaeten die mir auch nicht immer schmecken.
***edit: was soll ein Faktor 2x genau sein, die TDP? Nie und nimmer.
Mit solchen Laufzeiten http://gfxbench.com/subtest_results_of_device.jsp?D=NVIDIA+Shield+tablet&id=559&benchmark=gfx30 bei einer 5100mAh Batterie ist der maximale Verbrauch - thermal throtting inklusive garantiert nicht unter 10W.
dildo4u
2014-07-30, 18:18:11
PCGH Shield Tablet Test
http://www.pcgameshardware.de/Shield-Tablet-Tablet-259245/Tests/Test-Review-1130383/
Die zocken z.b HL2 in 1920*1200.
Video
http://youtu.be/yGM1VINIEXc?list=UULzxS5DdWLFg_979UABJ2Gw
Undertaker
2014-07-30, 19:48:18
Mit solchen Laufzeiten http://gfxbench.com/subtest_results_of_device.jsp?D=NVIDIA+Shield+tablet&id=559&benchmark=gfx30 bei einer 5100mAh Batterie ist der maximale Verbrauch - thermal throtting inklusive garantiert nicht unter 10W.
Weil Speicher, Display, WLAN etc. ja von Luft und Liebe leben. :freak: Nur mal so: Ein etwas größeres 10,6 Zoll Surface Pro mit 15 Watt SoC kommt locker über 30 Watt. Ein iPad Mini Retina kommt auch auf über 8 Watt bei 3D-Last. Jetzt nochmal der Effizienzvergleich, d.h. die fps/Watt...
Hat auch nichts mit dem obrigen zu tun. Wenn es jemand Sorgen machen sollte ob Apple bessere SoCs entwickeln kann, werde ich nicht nein sagen
CPU-seitig? Sicherlich. Was die GPU-Effizienz bei gleicher Fertigung und gleichem Transistorcount angeht, hätte ich schon eher Zweifel...
Mr.Ice
2014-07-30, 19:48:46
PCGH Shield Tablet Test
http://www.pcgameshardware.de/Shield-Tablet-Tablet-259245/Tests/Test-Review-1130383/
Die zocken z.b HL2 in 1920*1200.
Video
http://youtu.be/yGM1VINIEXc?list=UULzxS5DdWLFg_979UABJ2Gw
Ich hab mir eins bestellt :D
Also versteh ich das richtig. Ich spiel gestreamte Pc-games um die 30 FPS ? bei 1920*1080
Ailuros
2014-07-30, 20:09:32
Weil Speicher, Display, WLAN etc. ja von Luft und Liebe leben. :freak: Nur mal so: Ein etwas größeres 10,6 Zoll Surface Pro mit 15 Watt SoC kommt locker über 30 Watt. Ein iPad Mini Retina kommt auch auf über 8 Watt bei 3D-Last. Jetzt nochmal der Effizienzvergleich, d.h. die fps/Watt...
Und K1 liegt auch nicht unter 15W wenn es um wahres TDP geht; alleine die GPU bei 850MHz liegt bei 8W TDP; ausser Du willst mir einreden der Rest verbraucht gar nichts. Ein Faktor 2x ist es noch lange nicht ausser wir reden hier ueber SDP.
CPU-seitig? Sicherlich. Was die GPU-Effizienz bei gleicher Fertigung und gleichem Transistorcount angeht, hätte ich schon eher Zweifel...
Ach da erreicht 20SoC wohl keine "Wunder" oder? :biggrin: Sowohl Rogue als auch GK20A haben in etwa die gleiche pro FLOP Effizienz bis jetzt zumindest nach Gfxbench3.0 Resultaten; es ist eher ARM, QCOM und Vivante die ein gutes Stueck darunter liegen.
***edit: es ist wohl kein Geheimnis mehr dass die Apple A7 GPU um die 200Mio Transistoren wiegt.
Sonst sehe ich immer noch keine Tegra GPU die in einem smartphone 13 fps in Manhattan erreicht mit nur einer laecherlichen 1600mAh Batterie bei ca. 2 Stunden Laufzeit. 130 Minuten schaetzt Gfxbench3.0 fuer das Shield tablet bei einer 5100mAh Batterie. Ja sicher ist das letzte ein tablet, aber Apple's mini retina haelt mit einer 6200mAh Batterie immer noch 310 Minuten durch. Man kann nicht alles haben und 3D ist tatsaechlich nicht umsonst.
Undertaker
2014-07-30, 20:42:05
Und K1 liegt auch nicht unter 15W wenn es um wahres TDP geht; alleine die GPU bei 850MHz liegt bei 8W TDP; ausser Du willst mir einreden der Rest verbraucht gar nichts. Ein Faktor 2x ist es noch lange nicht ausser wir reden hier ueber SDP.
Dann kennst du dich bei Intel nicht aus. Parallele CPU- und GPU-Volllast bei vollen Taktraten gibt Intels TDP-Definition bei den ULVs auch nicht her. Auch in normalen 3D-Anwendungen, GLBench/DXBench inklusive, liegst du an den vollen 15 Watt. Und bei einer "wahren" TDP liegt auch ein A7 weit jenseits der 10 Watt Grenze (Anandtech: ~8 Watt idle-load-Delta CPU-only(!) möglich).
Ach da erreicht 20SoC wohl keine "Wunder" oder? :biggrin:
Wieso, ich schrieb doch von Prozess-bereinigten Werten. Um mal konkrete Werte für die 20nm SoC Vorzüge zu nennen: TSMC verspricht 30% höhere Taktraten bzw. (heißt hier vermutlich "oder") 25% weniger Leistungsaufnahme. Und da hat man noch keinen einzigen Transistor mehr verbaut, was bei einer 90% höheren Packdichte ein breiteres Design und damit niedrigere Taktraten -> bessere Effizienz erlaubt. Aber ja, Apple investiert hier Milliarden ohne davon einen Vorteil zu haben...
Ailuros
2014-07-30, 22:44:40
Dann kennst du dich bei Intel nicht aus. Parallele CPU- und GPU-Volllast bei vollen Taktraten gibt Intels TDP-Definition bei den ULVs auch nicht her. Auch in normalen 3D-Anwendungen, GLBench/DXBench inklusive, liegst du an den vollen 15 Watt. Und bei einer "wahren" TDP liegt auch ein A7 weit jenseits der 10 Watt Grenze (Anandtech: ~8 Watt idle-load-Delta CPU-only(!) möglich).
Bei mir ist TDP = TDP. Wo immer Du was anderes meinst musst Du es schon klar machen damit wir uns ueberhaupt verstehen koennen.
Ja natuerlich liegt auch ein A7 ueber 10W TDP nur passt das Ding sowohl in ein tablet als auch in ein smartphone. K1 eben nur in ein tablet und das auch nicht gerade ohne besondere Muehe.
Wieso, ich schrieb doch von Prozess-bereinigten Werten. Um mal konkrete Werte für die 20nm SoC Vorzüge zu nennen: TSMC verspricht 30% höhere Taktraten bzw. (heißt hier vermutlich "oder") 25% weniger Leistungsaufnahme. Und da hat man noch keinen einzigen Transistor mehr verbaut, was bei einer 90% höheren Packdichte ein breiteres Design und damit niedrigere Taktraten -> bessere Effizienz erlaubt. Aber ja, Apple investiert hier Milliarden ohne davon einen Vorteil zu haben...
Was TSMC verspricht ist deren Marketing-Scheiss und ich bin gegen den Dreck genauso allergisch egal von welcher Firma er genau kommt. Markting ist eben schoengeredeter BS; nicht mehr und nicht weniger. Nur weil sie bis zu 90% versprechen heisst es auch nicht dass man es erreichen kann oder das Apple daran interessiert ist so weit zu gehen.
Apple weiss schon was sie machen, sonst haetten sie Samsung mit dem TSMC "Spaziergang" zu einem noch laecherlicheren Vertrag als dem originalen gezwungen. Wer Dir erzaehlt hat dass Apple irgendwelche Milliarden in TSMC investiert hat soll einpacken und die Finger vom keyboard weglassen. Muss eben genau der Grund sein weil seit Monaten TSMC hinter Apple's Hintern rannte um auch einen 16FF Vertrag mit ihnen zu gewinnen.
FYI sind die 20SoC yields momentan alles andere als befriedigend und Du kannst lange raten ob Apple oder TSMC im groesseren Bild der eigentliche grosse Verlierer ist. In der Zwischenzeit muss ich wohl auch ein e-mail an NV engineering schicken und ihnen erzaehlen wie schlecht die Effizienz auf allem 28nm Maxwell genau ist und sein wird damit sie sich auch wieder Mal amuesieren koennen.
Dass 20SoC als Prozess das gelbste vom Ei ist glaubst aber wirklich nur Du.
Undertaker
2014-07-30, 23:56:21
Bei mir ist TDP = TDP.
Na dann, was genau ist denn "die" offizielle TDP bei K1? Ach, die gibt es nicht (ich kenne mindestens 4 verschiedene Werte)? Dann reim dir nicht einfach einen Wert nach eigenen Kriterien zusammen. Und wenn doch, dann bitteschön die gleichen bei der Konkurrenz anlegen. Niemand hier hat behauptet, K1 passt perfekt in ein Smartphone, was übrigens auch am wenigsten mit der GPU zusammenhängen dürfte (deren Lastverbrauch lässt sich noch am einfachsten über den Takt skalieren). Kernpunkt war, dass die Leistungsaufnahme in einem sehr gesunden Verhältnis zur Performance steht, trotz der potentiell ineffizient hohen Taktrate der Tabletmodelle.
Nur weil sie bis zu 90% versprechen heisst es auch nicht dass man es erreichen kann oder das Apple daran interessiert ist so weit zu gehen.
Vielleicht hast du überlesen das ich geschrieben habe, dass es hier nicht um eine Quantifizierung geht. Zieh von TSMCs Zahlen den üblichen Marketingbonus ab, das summierte Ergebnis aus Packdichte, Minderverbrauch und/oder Mehrtakt ist weit entfernt davon unter den Tisch gekehrt zu werden. Die potentiell schlechteren Yields habe ich, wie du wohl auch überlesen hast, schon zuvor angesprochen, die höhere Kosten sind ebenso bekannt. Wenn du nun nicht 1 und 1 zusammen zählen kannst oder Apple für so blöd hälst, all das ohne den erheblichen Mehrwert in puncto Energieeffizienz in Kauf zu nehmen, solltest du dich vielleicht bei Apple bewerben und dein Wissen dort teilen. :D 20nm wird einer der entscheidenden Gründe für die Effizienzsteigerung beim A8 sein, das hat mit zusätzlichen architekturellen Verbesserungen erst einmal nichts weiter zu tun.
Ailuros
2014-07-31, 08:37:38
Na dann, was genau ist denn "die" offizielle TDP bei K1? Ach, die gibt es nicht (ich kenne mindestens 4 verschiedene Werte)? Dann reim dir nicht einfach einen Wert nach eigenen Kriterien zusammen.
Gilt genauso fuer Dich, ergo ist der Faktor 2x von Dir auch aus der Luft gegriffen. Sonst gibt es einen Graph von NVIDIA selber wo sie 40 FLOPs/W von der GPU fuer K1 angeben und 60 FLOPs/W fuer Erista.
192*2*0.85GHz = 326.40 / 40 = 8.16W bon apetit....
Mal sehen was ein echter Entwickler dazu zu sagen hat:
http://forum.beyond3d.com/showpost.php?p=1863389&postcount=2689
Absolutely no errors here. Nvidia themselves provide the numbers and they are inarguable.
The SoC at both CPU and GPU in full load has a 33W TDP which is artificially throttled down to either 17W or 12W depending on the model and divided between the CPUs or the GPU depending on CPU prioritization or GPU prioritization. This is all limited by thermals and what not, but that's the situation. The tablet has the 17W max "effective" TDP scenario because of the higher GPU frequency of 853MHz.
This is straight out of the electrical design power driver of the K1 which is in charge of managing the power budget of the chip.
Aber Dir wird NVIDIA wohl einen "anderen" electrical design power driver zugesteckt haben wo nur 5W drinsteht damit ihr ja keinen Herzinfarkt bekommt.
Und wenn doch, dann bitteschön die gleichen bei der Konkurrenz anlegen.
Die Konkurrenz hat keine so grosse Sorgen wie NVIDIA irgend einen Marktanteil zu erreichen. NV muss hier dazugewinnen und daher duerfen sie keine Fehler machen.
Niemand hier hat behauptet, K1 passt perfekt in ein Smartphone, was übrigens auch am wenigsten mit der GPU zusammenhängen dürfte (deren Lastverbrauch lässt sich noch am einfachsten über den Takt skalieren). Kernpunkt war, dass die Leistungsaufnahme in einem sehr gesunden Verhältnis zur Performance steht, trotz der potentiell ineffizient hohen Taktrate der Tabletmodelle.
Dann laeuft "Effizienz" bei Dir offensichtlich zweischienig oder besser nur dann wenn es gerade passt. Jeder IHV hat sein eigenes Business-modell. Das von Apple ist verdammt erfolgreich bis jetzt, das von NVIDIA bis jetzt eben nicht.
Nein die Leistung ist eben NICHT steril zu betrachten in diesem Markt sondern nur in Kombination zum Stromverbrauch. Der Stromverbrauch koennte geringer sein bei geringerer Leistung wobei sagen wir mal 20% weniger Leistung oder so immer noch bedeuten wuerde dass es verdammt schnell ist. NV hat es einfach auf ihrem eigenen tablet uebertrieben, etwas was ich persoenlich nicht von anderen tablet Herstellern erwarte und auch nicht vom HTC Volantis ausser sie hatten Zeit ein paar Einzelheiten zu aendern und noch mehr Strom zu sparen.
Google wird wohl nicht so leicht so hoch anlegen und das zaehlt bei mir als Pluspunkt. In meinem Buch ist es eben NICHT N Leistung egal zu welchem Preis.
Vielleicht hast du überlesen das ich geschrieben habe, dass es hier nicht um eine Quantifizierung geht. Zieh von TSMCs Zahlen den üblichen Marketingbonus ab, das summierte Ergebnis aus Packdichte, Minderverbrauch und/oder Mehrtakt ist weit entfernt davon unter den Tisch gekehrt zu werden.
Ich hab anstatt +90% dann +60% benutzt welches ziemlich realistisch klingt fuer Apple's uebliche Strategie. 16Mio/mm2 Packdichte unter 20SoC bei den angeblichen 90mm2 macht 1.44Mrd. Transistoren. Wenn es annaehernd stimmen sollte dann ist der Unterschied in Transistoren bei K1 nicht der Rede wert. Sonst muss ich wohl NOCHMAL erwaehnen dass 20SoC nicht so viel Strom spart gegenueber 28nm wie jeder erwarten wuerde und ist auch eines der groessten Gruende warum NV und AMD vorruehergehend (?) nichts von diesem fuer GPU chips wissen wollen.
Die potentiell schlechteren Yields habe ich, wie du wohl auch überlesen hast, schon zuvor angesprochen, die höhere Kosten sind ebenso bekannt. Wenn du nun nicht 1 und 1 zusammen zählen kannst oder Apple für so blöd hälst, all das ohne den erheblichen Mehrwert in puncto Energieeffizienz in Kauf zu nehmen, solltest du dich vielleicht bei Apple bewerben und dein Wissen dort teilen. :D
Trotzdem kommen wir keinen millimeter weiter und man sieht es auch gleich weiter unten.
20nm wird einer der entscheidenden Gründe für die Effizienzsteigerung beim A8 sein, das hat mit zusätzlichen architekturellen Verbesserungen erst einmal nichts weiter zu tun.
Weil Du es so haben willst? Wenn es keine wesentlichen Effizienz-steigerungen im A8 in der Architektur gibt, dann kann Dir 20SoC gar nichts retten ueberhaupt nicht im beschissenen Zustand wo es eigentlich mometan ist.
Falls A8 wirklich am Ende effizienter als K1 erscheinen sollte (ich bin noch nichtmal darueber ueberzeugt LOL ) dann lassen wir natuerlich die Ausrede von 20SoC gelten wenn es zum gruenen feng shui sonst nicht passen sollte.
deekey777
2014-07-31, 08:56:48
PCGH Shield Tablet Test
http://www.pcgameshardware.de/Shield-Tablet-Tablet-259245/Tests/Test-Review-1130383/
Die zocken z.b HL2 in 1920*1200.
Wenn HL2 bereits auf MiPad in voller Auflösung läuft, warum nicht?
Die Grafikeinheit ist aktuell die schnellste auf dem Markt.
Undertaker
2014-07-31, 08:59:09
Gilt genauso fuer Dich, ergo ist der Faktor 2x von Dir auch aus der Luft gegriffen.
Nein, ist er nicht. Wenn du einem K1 15 Watt TDP zuschreibst, kannst du diesen Wert für einen Haswell-ULV bei Volllast auf CPU und GPU bei gleichzeitig vollen Turbo-Taktraten grob verdoppeln. Ich kann's dir auch gerne per PN belegen, da du dich hier offensichtlich nicht wirklich auskennst.
Nein die Leistung ist eben NICHT steril zu betrachten in diesem Markt sondern nur in Kombination zum Stromverbrauch.
Wiederhole doch nicht nur, was ich seit dutzenden Postings predige. Ich rede jetzt zum mindestens zehnten Male davon, dass ich die Performance im Kontext der vorliegenden Leistungsaufnahme bewerte. Wenn ein Chip die Konkurrenz um >Faktor 2 abledert, ist ein entsprechender Mehrverbrauch vollständig berechtigt.
Ich hab anstatt +90% dann +60% benutzt welches ziemlich realistisch klingt fuer Apple's uebliche Strategie. 16Mio/mm2 Packdichte unter 20SoC bei den angeblichen 90nm macht 1.44Mrd. Transistoren.
Mal abgesehen davon, dass auch die 20% mehr Transistoren deiner Schönrechnerei eben nicht vernachlässigbar sind (und es mit anderen Werten schnell +30 oder +40% sind), vergisst du weiterhin die Vorteile pro Transistor. Und wenn Apple die Packdichte bewusst weniger ausreizt, als dies theoretisch möglich wäre, dann nur, weil man dadurch andere Vorteile wie z.B. eine nochmals verbesserte Taktbarkeit erreicht.
Falls A8 wirklich am Ende effizienter als K1 erscheinen sollte (ich bin noch nichtmal darueber ueberzeugt LOL ) dann lassen wir natuerlich die Ausrede von 20SoC gelten wenn es zum gruenen feng shui sonst nicht passen sollte.
Denkst du wirklich so schwarz-weiß oder passt alles andere nur nicht in dein Weltbild? "20nm SoC macht aus einem miesen Design kein tolles" (oder wie du es oben eben formuliert hast), solche Parolen kannst du am Stammtisch bringen. Die Wahrheit ist eher, dass der Prozess im Vergleich zu 28nm HPM je nach Randbedingungen für einen mittleren, zweistelligen Prozentsatz an Effizienzsteigerungen gut ist, Punkt.
Btw: Du merkst sicherlich, dass ich mich deinem wenig umgänglichen Diskussionsstil anpasse (wie man in den Wald hineinruft...) – von mir aus können wir das gerne ändern, dafür müsstest du aber bitte auch auf ein etwas sachlicheres Niveau wechseln. :)
Ailuros
2014-07-31, 09:12:03
Nein, ist er nicht. Wenn du einem K1 15 Watt TDP zuschreibst, kannst du diesen Wert für einen Haswell-ULV bei Volllast auf CPU und GPU bei gleichzeitig vollen Turbo-Taktraten grob verdoppeln. Ich kann's dir auch gerne per PN belegen, da du dich hier offensichtlich nicht wirklich auskennst.
Dann lies mal genau Nebu's quote durch von B3D den Du vielleicht beim tippen durch den edit nicht miterwischt hast.
Wiederhole doch nicht nur, was ich seit dutzenden Postings predige. Ich rede jetzt zum mindestens zehnten Male davon, dass ich die Performance im Kontext der vorliegenden Leistungsaufnahme bewerte. Wenn ein Chip die Konkurrenz um >Faktor 2 abledert, ist ein entsprechender Mehrverbrauch vollständig berechtigt.
Der Stromverbrauch ist zu hoch und die Batterie-Laufzeit zu klein. 3-5 Stunden sind vollkommen akzeptabel in meinem Buch. Knapp ueber 2 Stunden im schlimmsten Fall eben NICHT. Und nein es wuerde keine Kopfstaende vorraussetzen aus den 2 Stunden auf 3 Stunden Laufzeit zu gehen im schlimmsten Fall.
Mal abgesehen davon, dass auch die 20% mehr Transistoren deiner Schönrechnerei eben nicht vernachlässigbar sind (und es mit anderen Werten schnell +30 oder +40% sind), vergisst du weiterhin die Vorteile pro Transistor. Und wenn Apple die Packdichte bewusst weniger ausreizt, als dies theoretisch möglich wäre, dann nur, weil man dadurch andere Vorteile wie z.B. eine nochmals verbesserte Taktbarkeit erreicht.
Welche Vorteile genau?
Denkst du wirklich so schwarz-weiß oder passt alles andere nur nicht in dein Weltbild? "20nm SoC macht aus einem miesen Design kein tolles" (oder wie du es oben eben formuliert hast), solche Parolen kannst du am Stammtisch bringen. Die Wahrheit ist eher, dass der Prozess im Vergleich zu 28nm HPM je nach Randbedingungen für einen mittleren, zweistelligen Prozentsatz an Effizienzsteigerungen gut ist, Punkt.
Nochmal welche Vorteile genau? Wenn Du keine Antworten zu solchen Fragen hast, dann lass lieber Du die Finger weg vom keyboard.
Btw: Du merkst sicherlich, dass ich mich deinem wenig umgänglichen Diskussionsstil anpasse (wie man in den Wald hineinruft...) – von mir aus können wir das gerne ändern, dafür müsstest du aber bitte auch auf ein etwas sachlicheres Niveau wechseln. :)
Sachlicher als der Nebu quote geht es gar nicht. Gegen die Null an Dokumentation die ich von Dir bekomme ist es schon um einiges mehr.
Undertaker
2014-07-31, 09:29:50
Dann lies mal genau Nebu's quote durch von B3D den Du vielleicht beim tippen durch den edit nicht miterwischt hast.
Die Werte hat er jetzt aus seiner Schuhgröße? Mehr als allerhöchstens ~7-8 Watt für den SoC kannst du dauerhaft in einem Umfeld wie dem Shield-Tablet thermisch nicht abführen. Wer etwas anderes behauptet, hat schlicht keine Ahnung von der Materie. In der Größenordnung wird also auch der Verbrauch in TRex/Manhattan liegen, während ein HD 4400 Chip hier rund 15 Watt verbrät. Faktor zwei, wie ich sagte. Schon bei 15 Watt hast du in typisches Ultrabooks mit Heatpipes, Alu/Kupferkühlkörper und Lüfter schnell Temperaturen jenseits von 90 °C.
Welche Vorteile genau?
Hapert es mit dem Lesen? Wenn Apple die Packdichte bewusst etwas absenkt, verbessert das im Gegenzug die Taktbarkeit. Dazu das höhere Transistor-Budget in 20nm SoC und die höheren Schaltgeschwindigkeiten bzw. die geringere Leistungsaufnahme. Und auch das wiederhole ich nochmal: In Summe ein Effizienzgewinn im mittleren zweistelligen Prozenzbereich, der da zu erwarten ist.
Nochmal welche Vorteile genau? Wenn Du keine Antworten zu solchen Fragen hast, dann lass lieber Du die Finger weg vom keyboard.
Vielleicht nimmst du dir hier mal eine Auszeit, wenn außer abgedroschenen Parolen – mal wieder – keinerlei sinnvoller Inhalt kommt.
Ailuros
2014-07-31, 09:39:58
Die Werte hat er jetzt aus seiner Schuhgröße? Mehr als allerhöchstens ~7-8 Watt für den SoC kannst du dauerhaft in einem Umfeld wie dem Shield-Tablet thermisch nicht abführen. In der Größenordnung wird also auch der Verbrauch in TRex/Manhattan liegen. Schon bei 15 Watt hast du in typisches Ultrabooks mit Heatpipes, Alu/Kupferkühlkörper und Lüfter schnell Temperaturen jenseits von 90 °C.
Es zitiert ein erfahrener Entwickler aus dem power driver von NV selber. Ich hab nie persoenlich 33W TDP fuer K1 behauptet oder angedeutet nur eben mehr als 15W weil ein realistischer Anwendungsfall ist fuer einen ULP SoC. Und unter diesen Daten gilt der Faktor 2x eben wohl nicht.
http://forum.beyond3d.com/showpost.php?p=1863398&postcount=2691
Hapert es mit dem Lesen? Wenn Apple die Packdichte bewusst etwas absenkt, verbessert das im Gegenzug die Taktbarkeit. Dazu das höhere Transistor-Budget in 20nm SoC und die höheren Schaltgeschwindigkeiten bzw. die geringere Leistungsaufnahme. Und auch das wiederhole ich nochmal: In Summe ein Effizienzgewinn im mittleren zweistelligen Prozenzbereich, der da zu erwarten ist.
Zum allerletzten Mal: Apple reizt weder Packdichte noch Frequenz-potential je aus. Ja der Gewinn wird zweistellig sein aber bei ist die Effizienz Steigerung bei frei erfundenen Zahlen 70% insgesamt bei A8@20SoC vs. A7@28HKMG dann koennten 50 davon von der Architektur kommen und 20 vom Prozess und dieses stets kleineres Prozentual macht Dir den verdammten Braten eben nicht fett.
Vielleicht nimmst du dir hier mal eine Auszeit, wenn außer abgedroschenen Parolen – mal wieder – keinerlei sinnvoller Inhalt kommt.
Versuch in den naechsten Stunden so oft wie moeglich auf F5 zu druecken, damit Dir ja kein i-Tuepfelchen entgeht und Du uns im Gegensatz mit durchaus sinnvollem Inhalt ueberschwemmst.
Undertaker
2014-07-31, 09:49:57
Es zitiert ein erfahrener Entwickler aus dem power driver von NV selber. Ich hab nie persoenlich 33W TDP fuer K1 behauptet oder angedeutet nur eben mehr als 15W weil ein realistischer Anwendungsfall ist fuer einen ULP SoC. Und unter diesen Daten gilt der Faktor 2x eben wohl nicht.
Vielleicht solltest du im B3D auch mal andere Postings lesen:
A few errors here.
First the power used is for the whole tablet (display, memory, network, etc) and not just the SOC.
Second the battery is rated as 5197 mAh, 3.8V chemistry (19.75 Whr) and since the tablet lasted 2.246 hours (full out gaming) means that the whole tablet was using 8.8 watts (19.75 / 2.246).
Hier mal mit belastbaren, nachvollziehbaren Zahlen, die du auch so im Netz findest. 8,8 Watt für das gesamte Tablet(!). Da bleiben sub 6 Watt für den SoC. Ein HD 4400 Haswell erreicht in 3D-Anwendungen durch den variablen Turbo dagegen seine spezifizierten 15 Watt, das lässt sich simpel auslesen.
Zum allerletzten Mal: Apple reizt weder Packdichte noch Frequenz-potential je aus. Ja der Gewinn wird zweistellig sein aber bei ist die Effizienz Steigerung bei frei erfundenen Zahlen 70% insgesamt bei A8@20SoC vs. A7@28HKMG dann koennten 50 davon von der Architektur kommen und 20 vom Prozess
Na, so langsam packst du es ja vielleicht doch noch. Wie du schon sagst, deine Zahlen sind frei erfunden; wie sehr du mit Schätzungen daneben liegst, hast du gerade bei K1 ja schon zur Genüge bewiesen, also verschieben wir die Quantifizierung vorerst und bleiben bei der Erkenntnis, dass sich dieser Faktor eben nicht wegdiskutieren lässt.
Versuch in den naechsten Stunden so oft wie moeglich auf F5 zu druecken, damit Dir ja kein i-Tuepfelchen entgeht und Du uns im Gegensatz mit durchaus sinnvollem Inhalt ueberschwemmst.
Bitte mehr von diesem OT-Mist, mit der du diesen Thread gewaltig voranbringst und deine geballte Kompetenz (not) nachdrücklich unterstreichst.
Btw: Ich plädiere erneut für sachlichere Umgangsformen, aber wie gesagt – das hängt ganz von dir ab. :)
Ailuros
2014-07-31, 09:57:48
Vielleicht solltest du im B3D auch mal andere Postings lesen:
Hier mal mit belastbaren, nachvollziehbaren Zahlen, die du auch so im Netz findest. 8,8 Watt für das gesamte Tablet(!). Da bleiben sub 6 Watt für den SoC. Ein HD 4400 Haswell erreicht in 3D-Anwendungen durch den variablen Turbo dagegen seine spezifizierten 15 Watt, das lässt sich simpel auslesen.
Und dabei zitiert Nebu direkt die Daten aus dem power driver. Du hast mich wirklich ueberzeugt.... :rolleyes: Ich traue einem Entwickler mehr als dem NV fanboy der dort rumfurzt tschuldigung.
Na, so langsam packst du es ja vielleicht doch noch. Wie du schon sagst, deine Zahlen sind frei erfunden; wie sehr du mit Schätzungen daneben liegst, hast du gerade bei K1 ja schon zur Genüge bewiesen, also verschieben wir die Quantifizierung vorerst und bleiben bei der Erkenntnis, dass sich dieser Faktor eben nicht wegdiskutieren lässt.
Nochmal:
1. Ich weiss NICHT wie effizient A8 genau ist; er koennte auch im Nachteil zu K1 liegen. Klarer geht es nicht.
2. Das groesste Prozentual bei einer grossen Effizienzsteigerung + kleinerem Prozess geht stets an die architekturellen Erweiterungen.
3. Da (1) noch unbekannt ist sollte es klar sein dass es frei erfundene Prozentuale sind (wenn ich es auch noch betone fuer die extra Blinden), es aendert aber an (2) nicht das geringste.
Bitte mehr von diesem OT-Mist, mit der du diesen Thread gewaltig voranbringst und deine geballte Kompetenz (not) nachdrücklich unterstreichst.
Btw: Ich plädiere erneut für sachlichere Umgangsformen, aber wie gesagt – das hängt ganz von dir ab. :)
Ich bin mit meiner Inkompetenz in diesem Feld voll zufrieden. Da Du aber wirklich kein i-Tuepfelchen entgehen laesst bist Du am Ende auch kein Parade-beispiel mehr. Wenn es sich besser anfuehlt kann ich Dich auch als Experten in Zukunft ansprechen.
Undertaker
2014-07-31, 10:11:59
Und dabei zitiert Nebu direkt die Daten aus dem power driver.
Ähm ja. Ich zitiere erneut:
It's not because the driver can output 33W that K1 consumes all of it... :rolleyes:
Wenn die Argumentation darauf basiert, kannst du sie in die Tonne werfen. Geh doch mal auf die ganz objektiven Messwerte der Laufzeit samt zugehöriger Rückrechnung auf die Leistungsaufnahme über den Energieinhalt des Akkus ein. Passt das nicht ins Weltbild oder warum scheinst du das zu übersehen?
2. Das groesste Prozentual bei einer grossen Effizienzsteigerung + kleinerem Prozess geht stets an die architekturellen Erweiterungen.
Obwohl uns dafür bislang weitere Infos fehlen, würde ich diese Spekulation vermutlich sogar teilen – auf genaue Zahlen sollte man aber verzichten. Ich freue mich ja schon das du zwischenzeitlich immerhin erkannt hast, dass der Prozess ein entscheidender Effizienzfaktor ist, nicht mehr und nicht weniger.
Wenn es sich besser anfuehlt kann ich Dich auch als Experten in Zukunft ansprechen.
Vor deinem Schatten erschrecken doch sogar die Ingenieure von Apple und Nvidia, da kann ich mich nicht mit messen. :)
Ailuros
2014-07-31, 10:36:53
Ähm ja. Ich zitiere erneut:
Wenn die Argumentation darauf basiert, kannst du sie in die Tonne werfen. Geh doch mal auf die ganz objektiven Messwerte der Laufzeit samt zugehöriger Rückrechnung auf die Leistungsaufnahme über den Energieinhalt des Akkus ein. Passt das nicht ins Weltbild oder warum scheinst du das zu übersehen?
Nochmal ich sagte oder behauptete NIE dass K1 so viel verbraucht, aber es ist eben nun mal so dass die anderen erwaehnten Platformen keinen zweifachen TDP haben.
Obwohl uns dafür bislang weitere Infos fehlen, würde ich diese Spekulation vermutlich sogar teilen – auf genaue Zahlen sollte man aber verzichten. Ich freue mich ja schon das du zwischenzeitlich immerhin erkannt hast, dass der Prozess ein entscheidender Effizienzfaktor ist, nicht mehr und nicht weniger.
Das Erkenntnis gab es schon immer weil der Prozess stets nur mit geringen Prozentualen in solchen Faellen beitraegt und ich hab es mehr als einmal wiederholt. Da wir klipp und klar nicht von einem einfachem shrink reden sondern einer neuen Architektur kommt die ueberzeugende Mehrzahl und das um weit groessere Prozentual von der Architektur selber, ausser A8 ist einfach eine Fehl-entwicklung.
Haette NV GM107 auf 20nm ausgelegt waeren die heutigen +70% peak Vorteil im Vergleich zu GK107 womoeglich bei +90 oder sogar 100%.
Vor deinem Schatten erschrecken doch sogar die Ingenieure von Apple und Nvidia, da kann ich mich nicht mit messen. :)
Du wirst doch nicht ernsthaft glauben wollen dass mich so etwas emotional beruehrt. Sonst wuerde ich auch nie in den Wald reinbruellen wenn ich Angst vor meinem eigenem Echo haette.
Bogen: wenn A8 effizienter sein sollte als K1 dann liegt der groesste Anteil an den Architektur-bedingten Aenderungen, wenn Du ueberhaupt den Apple engineers ihre harte Schufterei selbst im geringsten anerkennen willst.
mboeller
2014-07-31, 10:43:21
Witzig...da hat Charlie ja fast recht gehabt. 33W sind schon sehr extrem...ich bin ja bisher von ~16W TDP ausgegangen. Die Daten die Nebuchadnezzar in seinem letzten Posting eingefügt hat sind aber ziemlich überzeugend. :)
Undertaker
2014-07-31, 10:56:52
Nochmal ich sagte oder behauptete NIE dass K1 so viel verbraucht, aber es ist eben nun mal so dass die anderen erwaehnten Platformen keinen zweifachen TDP haben.
Die TDP ist heute nurmehr der Punkt, an dem ein Chip (idR aus thermischen Gründen) vom Verbrauch abgeregelt wird. Long-term passiert das beim Shield Tablet angesichts eines Last-Gesamtverbrauches von etwa 8,8 Watt bei vielleicht 6 Watt. Plus minus je nach Display, WLAN und sonstigen Verbrauchern.
Bei diesen rund 6 Watt erreicht K1 noch gut 56 fps im TRex Onscreen, praktisch kein Abfall gegenüber dem Ausgangszustand (je nach Quelle 55-58 fps onscreen, rund 65 fps offscreen).
Ein HD 4400 Haswell liegt bei rund 60 fps, konstant, und benötigt dabei recht genau seine 15 Watt TDP auch real. Oder um noch mehr Vergleichswerte zu bringen: Die schnellsten Beema liegen bei rund 50 fps und ziehen dabei knapp 10 Watt.
Nur um meine Aussage des Faktor zwei ggü. der HD 4400 mal konkret zu untermauern.
Dural
2014-07-31, 11:12:21
Wird hier jetzt seitenweise über TDP vs. real Watt diskutiert? :rolleyes: ich muss doch nicht wohl sagen das die TDP seit Jahrzenten nichts mit dem realen Verbrauch zu tun hat?!?
und die 33Watt dürfte ein rein Theoretischer Wert sein, ich wage es zu bezweifeln das es nur irgend eine Android Anwendung gibt die das nur ansatzweisse erreichen könnte. :rolleyes:
und manchmal frage ich mich echt ob es wirklich keinen gesunden Menschen Verstand mehr gibt?!? 33Watt in einem 8" Tablet... das ding würde davon schmelzen. :P und wie Undertaker vorgerechnet hat kann man durch die Akku Grösse und Laufzeit ziemlich exakt ausrechnen was das Tablet verbraucht. :wink:
Ich frage mich ernsthaft wie so gerade bei den Tegra SoC immer wieder diese Sinnlose Diskussion wegen dem Verbrauch entflammt. :confused:
Interessanterweise immer von den selben User, da kann man fast denken das die NV keinen Erfolg in diesem Markt gönnen.
Die aktuellen Test haben längt bewiesen das der K1 um den Faktor 2 effizienter ist als alles was derzeit auf dem Markt ist und das im selben Prozess. Das zeigt für mich das die anderen bis jetzt in diesem Bereich ziemlich geschlampt haben. Aber komischerweise gibt es bei den anderen dieser Verbrauchs Theater nie... Ich wette sobald der A8 draussen ist wird über TDP und realen max Verbrauch kein einziges Wort darüber verloren. :biggrin:
NV grösste Baustelle ist sicher ihr Denver und über das sollte man Diskutieren.
Ailuros
2014-07-31, 11:31:35
Die TDP ist heute nurmehr der Punkt, an dem ein Chip (idR aus thermischen Gründen) vom Verbrauch abgeregelt wird. Long-term passiert das beim Shield Tablet angesichts eines Last-Gesamtverbrauches von etwa 8,8 Watt bei vielleicht 6 Watt. Plus minus je nach Display, WLAN und sonstigen Verbrauchern.
Bei diesen rund 6 Watt erreicht K1 noch gut 56 fps im TRex Onscreen, praktisch kein Abfall gegenüber dem Ausgangszustand (je nach Quelle 55-58 fps onscreen, rund 65 fps offscreen).
Ein HD 4400 Haswell liegt bei rund 60 fps, konstant, und benötigt dabei recht genau seine 15 Watt TDP auch real. Oder um noch mehr Vergleichswerte zu bringen: Die schnellsten Beema liegen bei rund 50 fps und ziehen dabei knapp 10 Watt.
Nur um meine Aussage des Faktor zwei ggü. der HD 4400 mal konkret zu untermauern.
Ja nur verfurzt sich das Ganze kinderleicht in albernen "SDP" oder sonst noch Definierungen. [Klammer auf] Der spezifische Haswell war auch nie annaehernd fuer tablets konzipiert so wie er ist und er liegt auch eine Generation zurueck. Intel interessiert es momentan lediglich Allwinner, Mediatek und Rockchip im low cost tablet Markt direkt anzugreifen ergo brauchen sie auch so oder so keinen high end tablet chip. [/Klammer zu]
Der Author bei Anand hat die 135 Minuten Laufzeit fuer das Shield tablet durch Gfxbench3.0 gemessen welches heisst dass die Applikation vor dem start das Batterie-Prozentual eintraegt, 30x Mal durch T-Rex on screen laeuft und danach nochmal das Batterie-Prozentual eintraegt, um dann auszurechnen wie lange das Geraet unter T-Rex anhalten wuerde. Es ist nichts anderes als eine Indizie und hier alle drei bisherigen relevanten Eintraege: http://gfxbench.com/subtest_results_of_device.jsp?D=NVIDIA+Shield+tablet&id=559&benchmark=gfx30
Nebenbei musst Du auch wirklich zu 100% sicher sein dass die Batterie auch zu 100% korrekt ausgelesen wird.
Schau Dir mal Nebu's zitierte Werte genau an und gruebel mal selber nach ob ein Durschnitts-Verbrauch von =/>7W fuer den gesamten SoC wirklich realistisch ist. Es muesste auch wiederrum heissen dass die GPU im Durchschnitt auf nur 180MHz taktet.
Realistisch gesehen muesste Haswell bei seinem hoechsten Verbrauchswert ca. 2x Mal so viel verbrauchen als K1 bei seinem hoechsten Verbrauchswert.
Unicous
2014-07-31, 11:41:22
Witzig...da hat Charlie ja fast recht gehabt. 33W sind schon sehr extrem...ich bin ja bisher von ~16W TDP ausgegangen. Die Daten die Nebuchadnezzar in seinem letzten Posting eingefügt hat sind aber ziemlich überzeugend. :)
Muahaha. Und wirklich jeder hat geglaubt, inklusive mir, dass Charlie mal wieder BS labert um was Kontroverses und total "Investigatives" zu schreiben (basierend auf einem Notebooknetzteil). 33 Watt theoretische Max TDP ist echt herrlich.
@Dural
Du checkst irgendwie nicht dass es seit Jahren das Wunder der konfigurierbaren TDP gibt. D.h. K1 könnte in anderen Formfaktoren durchaus mehr verbraten als in einem 7" Tablet...z.B. in einem Auto. Dass der Wert künstlich auf einen duetlich niedrigeren Wert per Treiber "gedrosselt" wird sollte doch klar sein.
Undertaker
2014-07-31, 11:47:11
Der Author bei Anand hat die 135 Minuten Laufzeit fuer das Shield tablet durch Gfxbench3.0 gemessen welches heisst dass die Applikation vor dem start das Batterie-Prozentual eintraegt, 30x Mal durch T-Rex on screen laeuft und danach nochmal das Batterie-Prozentual eintraegt, um dann auszurechnen wie lange das Geraet unter T-Rex anhalten wuerde. Es ist nichts anderes als eine Indizie und hier alle drei bisherigen relevanten Eintraege: http://gfxbench.com/subtest_results_of_device.jsp?D=NVIDIA+Shield+tablet&id=559&benchmark=gfx30
Nebenbei musst Du auch wirklich zu 100% sicher sein dass die Batterie auch zu 100% korrekt ausgelesen wird.
Ja, darauf muss man vertrauen, das gilt für die längeren Laufzeiten bei der Konkurrenz aber genauso. Etwas über zwei Stunden Laufzeit bei voller 3D-Last dürften nicht zu optimistisch sein und ergeben damit die errechneten 8,8 Watt Gesamtverbrauch, die wiederum auf rund 6 Watt für den SoC schließen lassen. Das passt übrigens auch sehr gut zu dem, was man für den vorliegenden Formfaktor als realistisch abführbar ansetzen kann.
Schau Dir mal Nebu's zitierte Werte genau an und gruebel mal selber nach ob ein Durschnitts-Verbrauch von =/>7W fuer den gesamten SoC wirklich realistisch ist. Es muesste auch wiederrum heissen dass die GPU im Durchschnitt auf nur 180MHz taktet.
...womit klar sein sollte, dass du auf diese Tabelle praktisch nichts geben kannst. Es gilt, die realen ~6 Watt bei ~56 fps TRex/Onscreen FHD zu bewerten.
Realistisch gesehen muesste Haswell bei seinem hoechsten Verbrauchswert ca. 2x Mal so viel verbrauchen als K1 bei seinem hoechsten Verbrauchswert.
Die Formulierung finde ich etwas verwirrend, aber ja: Bei ähnlicher GPU-Leistung zieht die HD 4400 locker das doppelte der K1 GPU. Ich sage ja schon seit Ewigkeiten, dass Intels GPUs nicht wirklich effizient sind; gegenüber AMD kann man das vor allem über den weit sparsameren CPU-Part ausgleichen, ARM-SoCs waren bislang keine Konkurrenz.
Ailuros
2014-07-31, 12:09:14
Ja, darauf muss man vertrauen, das gilt für die längeren Laufzeiten bei der Konkurrenz aber genauso. Etwas über zwei Stunden Laufzeit bei voller 3D-Last dürften nicht zu optimistisch sein und ergeben damit die errechneten 8,8 Watt Gesamtverbrauch, die wiederum auf rund 6 Watt für den SoC schließen lassen. Das passt übrigens auch sehr gut zu dem, was man für den vorliegenden Formfaktor als realistisch abführbar ansetzen kann.
Natuerlich gilt es fuer alle ohne jegliche Ausnahme. Ich kann mir nicht vorstellen wie man einen solchen test entwickeln koennte ohne dass es Luecken bzw. Zweifel dafuer gibt.
...womit klar sein sollte, dass du auf diese Tabelle praktisch nichts geben kannst. Es gilt, die realen ~6 Watt bei ~56 fps TRex/Onscreen FHD zu bewerten.
Kommt drauf an was man genau wissen will.
Aus der Treiber-Tabelle:
/*mW budget gpu(khz) mem(khz) budget gpu(khz) mem(khz) pthrot(mW) */
{15000, {10000, 180000, 933000}, {4000, 648000, 933000 }, 7880 },
Drei Mal darfst Du raten wofuer pthrot (mW) genau steht. Bei 15W TDP throttelt der SoC auf knapp 8W runter.
Die Formulierung finde ich etwas verwirrend, aber ja: Bei ähnlicher GPU-Leistung zieht die HD 4400 locker das doppelte der K1 GPU. Ich sage ja schon seit Ewigkeiten, dass Intels GPUs nicht wirklich effizient sind; gegenüber AMD kann man das vor allem über den weit sparsameren CPU-Part ausgleichen, ARM-SoCs waren bislang keine Konkurrenz.
Es geht nicht um Intel GPUs Effizienz per se denn selbst Mediatek schafft es vergleichbares GPU IP besser zu integrieren; wie gesagt Intel hat die Dinger nie fuer ultra thin tablets entwickelt. Jegliche solche Logik ist genauso daemlich wie der Vergleich vom Tegra marketing zwischen Tesla K40 und Tegra K1 fuer FLOPs/W.
Damit die Geschichte endlich ein Ende nimmt: wie viel verbraucht real ein Haswell mit HD4400 maximal bei T-Rex?
Undertaker
2014-07-31, 12:22:36
Kommt drauf an was man genau wissen will.
Also ich für meinen Teil will die reale GPU-Effizienz im Tablet-Umfeld bewerten. Dafür interessiert der Verbrauch sowie die Performance; beides können wir anhand des Shield Tablets nun halbwegs exakt ableiten. Ob wir nun über 5,5 Watt, 6 Watt oder 7 Watt im TRex Bench bei den bekannten Frameraten reden – geschenkt.
Es geht nicht um Intel GPUs Effizienz per se denn selbst Mediatek schafft es vergleichbares GPU IP besser zu integrieren; wie gesagt Intel hat die Dinger nie fuer ultra thin tablets entwickelt.
[...]
Damit die Geschichte endlich ein Ende nimmt: wie viel verbraucht real ein Haswell mit HD4400 maximal bei T-Rex?
Die 15 Watt einer HD 4400 sind für ein Ultra-Thin Tab natürlich auch viel zu viel. Da sind wir dann eher bei der HD 4200, die bei ~8 Watt (SoC gesamt) und 40 fps im TRex offscreen liegt.
Zum Realverbrauch der HD 4400 in TRex: Wie gesagt, die liegt (ausreichende aktive Kühlung vorausgesetzt) bei relativ konstanten ~60 fps und 15 Watt Leistungsaufnahme (gesamter Chip). Die CPU-Last in dem Bench ist äußerst gering, darum kann das Power Budget zum Großteil von der GPU vereinnahmt werden, die wiederum mehr oder weniger ihren Maximaltakt von 1000 - 1100 MHz erreicht.
hasebaer
2014-07-31, 12:23:08
Es muesste auch wiederrum heissen dass die GPU im Durchschnitt auf nur 180MHz taktet.
Die K1 GPU schaft mit nur 180Mhz Takt, 60fps im T-Rex Offscreen?
Undertaker
2014-07-31, 12:36:47
Sehr sicher nicht. ;) Ohne genau nachzurechnen, was wird es dafür etwa brauchen...? Vielleicht 700 MHz?
Ailuros
2014-07-31, 13:05:20
Also ich für meinen Teil will die reale GPU-Effizienz im Tablet-Umfeld bewerten. Dafür interessiert der Verbrauch sowie die Performance; beides können wir anhand des Shield Tablets nun halbwegs exakt ableiten. Ob wir nun über 5,5 Watt, 6 Watt oder 7 Watt im TRex Bench bei den bekannten Frameraten reden – geschenkt.
Man kann schon nutzvolles von der Tabelle ableiten, naehmlich wo und wie genau K1 throttelt.
Die 15 Watt einer HD 4400 sind für ein Ultra-Thin Tab natürlich auch viel zu viel. Da sind wir dann eher bei der HD 4200, die bei ~8 Watt (SoC gesamt) und 40 fps im TRex offscreen liegt.
Zum Realverbrauch der HD 4400 in TRex: Wie gesagt, die liegt (ausreichende aktive Kühlung vorausgesetzt) bei relativ konstanten ~60 fps und 15 Watt Leistungsaufnahme (gesamter Chip). Die CPU-Last in dem Bench ist äußerst gering, darum kann das Power Budget zum Großteil von der GPU vereinnahmt werden, die wiederum mehr oder weniger ihren Maximaltakt von 1000 - 1100 MHz erreicht.
Nein ich fragte um den peak Verbrauchswert; im Fall vom K1 koennte es durchaus laut Tabelle oben um die 15W sein wobei der Treiber automatisch auf knapp 8W zurueckrudert. Wenn der 4400 in TRex maximal dann 30W verbraucht dann natuerlich touche.
Ailuros
2014-07-31, 13:06:36
Die K1 GPU schaft mit nur 180Mhz Takt, 60fps im T-Rex Offscreen?
Gott hilf nein sonst haetten wir mit einem Effizienz-wunder zu tun. Man kann aber anhand der Tabelle sagen dass die GPU im absoluten Durchschnitt bei ca. 650MHz taktet.
AffenJack
2014-07-31, 13:12:19
Nein ich fragte um den peak Verbrauchswert; im Fall vom K1 koennte es durchaus laut Tabelle oben um die 15W sein wobei der Treiber automatisch auf knapp 8W zurueckrudert. Wenn der 4400 in TRex maximal dann 30W verbraucht dann natuerlich touche.
Nun, dann kommt die Preisfrage, was throttelt der Treiber da um von 15W auf 8W zu kommen? Der Takt isses ja nicht.
hasebaer
2014-07-31, 13:16:32
Gott hilf nein sonst haetten wir mit einem Effizienz-wunder zu tun. Man kann aber anhand der Tabelle sagen dass die GPU im absoluten Durchschnitt bei ca. 650MHz taktet.
Ich wollt schon sagen, dass ich langsam nichts mehr kapiere, bei eurem Diskurs.
Weil der Akku ja keine 20Wh hat und bei 33W wäre der nach weniger als 40min am Ende, nur per SoC allein, ohne Display ect...
Und auf der anderen Seite hält das Teil doch seinen Takt recht konstant über 100min und fällt die letzten 30min nicht dramatisch ab.
141 Runs im T-Rex je 55s
http://images.anandtech.com/doci/8296/TRexRunDownGraph_575px.PNG
Da ergeben die 7W fürs SoC oder 8,8W fürs gesamte Tablet, die auch " A1xLLcqAgt0qc2RyMz0y" errechnete wieder mehr Sinn bzw. müssen zutreffen.
Ailuros
2014-07-31, 13:19:43
Nun, dann kommt die Preisfrage, was throttelt der Treiber da um von 15W auf 8W zu kommen? Der Takt isses ja nicht.
Ne gute Frage fuer einen engineer im gegebenen Fall. Ich verdaechtige daber dass doch die Frequenzen zurueckfallen sonst waere die Beschreibung DVFS (dynamic voltage & frequency scaling) fuer solche SoCs wohl total fehl am Platz.
Das was ich vor dem MiPad launch hinter den Kulissen bekommen habe ist dass Xiaomi ziemlich aggressives DVFS anwendet. Einen grossen Unterschied in den Resultaten vom Shield tablet zum MiPad sehe ich nicht, ergo gilt es wohl auf vergleichbarem Grad fuer beide.
Undertaker
2014-07-31, 13:19:55
Die Werte in der Tabelle lassen sich nicht auf die Praxis übertragen, das muss auch Ailuros mal zugeben. Über Akkugröße und Laufzeit lässt sich der Verbrauch auf +-1 Watt eingrenzen, aus den fps können wir von mir aus 650 MHz GPU-Takt ableiten – das passt hinten und vorne nicht mit der Tabelle zusammen.
Ne gute Frage fuer einen engineer im gegebenen Fall. Ich verdaechtige daber dass doch die Frequenzen zurueckfallen sonst waere die Beschreibung DVFS (dynamic voltage & frequency scaling) fuer solche SoCs wohl total fehl am Platz.
Wenn dem so wäre, würde sich das in der Performance zeigen, die laut mehreren Quellen aber mehr oder weniger konstant bleibt.
Das was ich vor dem MiPad launch hinter den Kulissen bekommen habe ist dass Xiaomi ziemlich aggressives DVFS anwendet. Einen grossen Unterschied in den Resultaten vom Shield tablet zum MiPad sehe ich nicht, ergo gilt es wohl auf vergleichbarem Grad fuer beide.
Schau nochmal nach, das MiPad schneidet long-term drastisch schlechter ab, hier geht der Takt (aber auch die Leistungsaufnahme, siehe Laufzeit) um einiges nach unten. Die Tabelle passt aber auch da nicht.
Ailuros
2014-07-31, 13:34:29
Die Werte in der Tabelle lassen sich nicht auf die Praxis übertragen, das muss auch Ailuros mal zugeben. Über Akkugröße und Laufzeit lässt sich der Verbrauch auf +-1 Watt eingrenzen, aus den fps können wir von mir aus 650 MHz GPU-Takt ableiten – das passt hinten und vorne nicht mit der Tabelle zusammen.
Es ist nichts mehr als eine weitere Indizie.
Wenn dem so wäre, würde sich das in der Performance zeigen, die laut mehreren Quellen aber mehr oder weniger konstant bleibt.
Bei 853MHz liegen sie auf jeden Fall nicht mehr LOL :biggrin:
Undertaker
2014-07-31, 13:43:01
Es ist nichts mehr als eine weitere Indizie.
Es ist mehr als ein Indiz, von Akkugröße und Laufzeit auf die Leistungsaufnahme zu schließen. Die größte Schwankungsbreite sehe ich noch darin, wieviel man von den ~8,8 Watt Gesamtverbrauch für den SoC veranschlagt.
Bei 853MHz liegen sie auf jeden Fall nicht mehr LOL :biggrin:
Wir wissen auch nicht, bei welcher Frequenz das Tab den ersten Run durchläuft. Fest steht anhand der Messwerte aber, das der GPU-Takt über der Zeit nahezu konstant bleiben muss.
Undertaker
2014-07-31, 17:15:37
Köstlich. Echte Messungen von Jetson, also der nicht einmal sonderlich auf low-power optimierten Entwicklungsplattform:
http://www.phoronix.com/forums/showthread.php?99849-NVIDIA-Tegra-K1-Compared-To-AMD-AM1-APUs&p=416287#post416287
TEST1 : glmark2 -s 1920x1080 --off-screen
Score : 282 (Intel Celeron J1900@2.9GHz = 151)
Power Measurements:
Base : 0.22A ( 2.67W)
Peak : 0.62A ( 7.53W)
Observed Avg. : 0.35A ( 4.25W)
I have yet to observe > 12W total system draw under any workload.
Soviel dazu... Vor allem Charlie machen die Werte dort mal wieder ziemlich lächerlich. :D
Ailuros
2014-07-31, 18:07:57
Köstlich. Echte Messungen von Jetson, also der nicht einmal sonderlich auf low-power optimierten Entwicklungsplattform:
http://www.phoronix.com/forums/showthread.php?99849-NVIDIA-Tegra-K1-Compared-To-AMD-AM1-APUs&p=416287#post416287
Soviel dazu...
Nur lese ich den quote von NV fanboys in diversen fora schon seit dem Mai. Es ist eben so dass es sich um eine geballte Konspiration gegen NV handelt und Tegras nie wirklich Land sehen genau wegen dem :rolleyes:
Das was im Treiber zu lesen ist, ist eine zweifellose Tatsache, von da ab ist es lediglich eine Sache der Interpretation. Es sollte wohl klar sein dass ein Charlie es so negativ wie moeglich ausnutzt und damit kunterbunt uebertreibt und das extreme Gegenteil kommt dann eben vom anderen Ende und versucht es elegant unter den Teppich zu kehren.
Komischerweise wurde es drueben bei B3D wieder gepostet und die giftgruenen Spechte greifen gerade einen eher ernsthaften Entwickler unter dem Guertel an. Entschuldige wenn ich jetzt nicht feire dass der angebliche "Spinner" entlarvt wurde und auch ziemlich froh bin dass ich zu der gruenen Dreckbande bei B3D nicht dazugehoere.
AffenJack
2014-07-31, 18:17:23
Ne gute Frage fuer einen engineer im gegebenen Fall. Ich verdaechtige daber dass doch die Frequenzen zurueckfallen sonst waere die Beschreibung DVFS (dynamic voltage & frequency scaling) fuer solche SoCs wohl total fehl am Platz.
Und bei vollen Taktraten von CPU, GPU ist man dann bei 33W die magisch auf 17W gethrottelt werden? Das passt doch alles hinten und vorne nicht.
Hier wird im Thread über ne Tabelle diskuttiert und keiner von uns hat die blasseste Ahnung, was diese Tabelle aussagen soll. Bevor das geklärt ist, ist ne Diskussion um Werte darin völlig sinnlos.
Da verbleibe ich erstmal auch lieber bei den gemessenen Jetson Werten bzw dem auszurechnenden Verbrauch der Tablets.
Hübie
2014-07-31, 18:26:17
Warum legen die das Teil nicht einfach mal ein paar Stunden mit einem Benchmark hin und lassen ne Kamera aufzeichnen wann aus geht? Dann kann man zumindest die Laufzeit bestimmen statt zu errechnen. Und den Verbrauch kann man ja nun mit selbst geschriebenen Programmen bestimmen, da die Stromstärke gemessen wird.
Ailuros
2014-07-31, 18:39:51
Und bei vollen Taktraten von CPU, GPU ist man dann bei 33W die magisch auf 17W gethrottelt werden? Das passt doch alles hinten und vorne nicht.
Hier wird im Thread über ne Tabelle diskuttiert und keiner von uns hat die blasseste Ahnung, was diese Tabelle aussagen soll. Bevor das geklärt ist, ist ne Diskussion um Werte darin völlig sinnlos.
Da verbleibe ich erstmal auch lieber bei den gemessenen Jetson Werten bzw dem auszurechnenden Verbrauch der Tablets.
Man ist eher in TRex wohl gleich bei 15W TDP wobei die GPU den Vorsprung vom insgesamten power budget nimmt und alles andere auf insgesamt 7W SoC reguliert. Ich tappe hier auf Glatteis weil ich eben nicht sicher bin wie es wirklich funktioniert aber irgendwie so verstehe ich es.
Undertaker
2014-07-31, 18:45:56
Man ist eher in TRex wohl gleich bei 15W TDP wobei die GPU den Vorsprung vom insgesamten power budget nimmt und alles andere auf insgesamt 7W SoC reguliert.
Wie genau soll das Sinn ergeben? Woher stammen 15 Watt TDP, wenn das gesamte Tablet nur 8,8 Watt aus dem Akku zieht und der SoC damit bei roundabout 6 Watt liegen muss? Was für eine Regulierung senkt die Leistungsaufnahme, ohne dabei die Performance zu mindern? Das wäre ja reinste Zauberei.
Es ist eben so dass es sich um eine geballte Konspiration gegen NV handelt
[...]
Komischerweise wurde es drueben bei B3D wieder gepostet und die giftgruenen Spechte greifen gerade einen eher ernsthaften Entwickler unter dem Guertel an.
Ich kenne diesen "Entwickler" nicht; wer aber einem passiv gekühlten Tablet-SoC eine TDP von 33 Watt zuschreibt, hat schlicht und ergreifend keinen blassen Schimmer, von was er da redet.
Unicous
2014-07-31, 19:10:13
Undertaker, kannst du jetzt mal bitte mit dem Blödsinn aufhören. Weder Ailuros noch Nebuchadnezzar behaupten dass ein Tablet 33 Watt verbraucht, das saugst du dir aus den Finger um hier eine Kontroverse zu konstruieren. Finde ich persönlich langsam peinlich diese Diskussion.
K1 scheint laut Treiber eine TDP von 33 Watt zu besitzen. Ob das ein Überberbleibsel aus den Test- und Validierungstagen ist, keine Ahnung. Aber es scheint so im Treiber zu stehen.
Dieser Wert wird noch einmal künstlich per Treiber runtergesetzt und ist dazu auch noch vom Abwärmeverhalten des jeweiligen Endprodukts abhängig.
Ein Haswell kann das auch und im Endeffekt ist es nicht anderes als TDP, cTDP und SDP Gedöns.
Vllt. hat er es auch hierher?
https://android.googlesource.com/kernel/tegra.git/+/android-tegra-3.10/arch/arm/mach-tegra/tegra12_edp.c
Da sieht man auch dass es eine cTDP von 12 bzw. 9 Watt gibt.
TD580D/CD580M/SD580N
GPU MaxF 853000 KHz
CPU MaxBudget 12000 mW
*/
/*mW CPU intensive load GPU intensive load */
/*mW budget gpu(khz) mem(khz) budget gpu(khz) mem(khz) pthrot(mW)*/
{5000, {1500, 108000, 933000 }, {1500, 108000, 933000 }, 1116 },
{6000, {3000, 108000, 933000 }, {3000, 108000, 933000 }, 2109 },
{7000, {4000, 108000, 933000 }, {3000, 180000, 933000 }, 2589 },
{8000, {5000, 108000, 933000 }, {3000, 252000, 933000 }, 3068 },
{9000, {6000, 180000, 933000 }, {2500, 396000, 933000 }, 3630 },
{10000, {7000, 108000, 933000 }, {3500, 396000, 933000 }, 4425 },
{11000, {7000, 252000, 933000 }, {4000, 468000, 933000 }, 5301 },
{12000, {8000, 180000, 933000 }, {3000, 540000, 933000 }, 5348 },
{13000, {9000, 108000, 933000 }, {5000, 540000, 933000 }, 6969 },
{14000, {10000, 108000, 933000 }, {3500, 612000, 933000 }, 6846 },
{15000, {10000, 180000, 933000 }, {4000, 648000, 933000 }, 7880 },
{16000, {11000, 180000, 933000 }, {3500, 684000, 933000 }, 8120 },
{17000, {12000, 108000, 933000 }, {4000, 708000, 933000 }, 9024 },
{18000, {12000, 252000, 933000 }, {3000, 756000, 933000 }, 9252 },
{19000, {12000, 252000, 933000 }, {4000, 756000, 933000 }, 10046 },
{20000, {12000, 396000, 933000 }, {5000, 756000, 933000 }, 10873 },
{21000, {12000, 468000, 933000 }, {3500, 804000, 933000 }, 10909 },
{22000, {12000, 540000, 933000 }, {4000, 804000, 933000 }, 11306 },
{23000, {12000, 540000, 933000 }, {4000, 853000, 933000 }, 12696 },
{24000, {12000, 612000, 933000 }, {5000, 853000, 933000 }, 13524 },
{25000, {12000, 612000, 933000 }, {5000, 853000, 933000 }, 13524 },
{26000, {12000, 684000, 933000 }, {6000, 853000, 933000 }, 14452 },
{27000, {12000, 708000, 933000 }, {7000, 853000, 933000 }, 15002 },
{28000, {12000, 708000, 933000 }, {8000, 853000, 933000 }, 16030 },
{29000, {12000, 756000, 933000 }, {8000, 853000, 933000 }, 16311 },
{30000, {12000, 756000, 933000 }, {8000, 853000, 933000 }, 16311 },
{31000, {12000, 756000, 933000 }, {8000, 853000, 933000 }, 16311 },
{32000, {12000, 804000, 933000 }, {9000, 853000, 933000 }, 16883 },
{33000, {12000, 804000, 933000 }, {10000, 853000, 933000 }, 17721 },
};
Undertaker
2014-07-31, 19:24:37
Undertaker, kannst du jetzt mal bitte mit dem Blödsinn aufhören. Weder Ailuros noch Nebuchadnezzar behaupten dass ein Tablet 33 Watt verbraucht, das saugst du dir aus den Finger um hier eine Kontroverse zu konstruieren.
Bevor du mir "Blödsinn" unterstellst, lies doch erst einmal die betreffenden Kommentare (hier von Nebuchadnezzar):
http://abload.de/img/unbenannt2ez33.png (http://abload.de/image.php?img=unbenannt2ez33.png)
K1 scheint laut Treiber eine TDP von 33 Watt zu besitzen. Ob das ein Überberbleibsel aus den Test- und Validierungstagen ist, keine Ahnung. Aber es scheint so im Treiber zu stehen.
Da steht nicht einmal das Wort TDP, bis jetzt konnte auch keiner wirklich erläutern, was das für Werte genau sind.
Wäre es nicht langsam an der Zeit, dass man sich auf die realen Werte besinnt? Wir haben jetzt nicht nur den Gesamtverbrauch des Shield-Tablets mit 8,8 Watt im GLBench, sondern auch noch eine Reihe von Messwerten für Jetson K1. Dazu jeweils die bekannten Performancewerte.
Und ich kann mich nur wiederholen: Jeder der glaubt, dass ein passiv gekühltes Tablet <10 Zoll auch nur 10 Watt eines SoCs dauerhaft abführen könnte, hat keine Ahnung von der Thematik. Passive Haswell-Tablets mit 11-13 Zoll regeln idR irgendwo bei 6-8 Watt ab.
AffenJack
2014-07-31, 19:50:03
K1 scheint laut Treiber eine TDP von 33 Watt zu besitzen. Ob das ein Überberbleibsel aus den Test- und Validierungstagen ist, keine Ahnung. Aber es scheint so im Treiber zu stehen.
Dieser Wert wird noch einmal künstlich per Treiber runtergesetzt und ist dazu auch noch vom Abwärmeverhalten des jeweiligen Endprodukts abhängig.
Ein Haswell kann das auch und im Endeffekt ist es nicht anderes als TDP, cTDP und SDP Gedöns.
Nicht nur Haswell sondern alle Chips heutzutage, daher auch wenn die 33W TDP sind, ist der Wert völlig wertlos. Es gibt ja kein Produkt mehr auf dem Markt was nicht nach cTDP ausgerichtet ist, wenn mans genau nimmt. Turbos usw sind da ja nur andere Formen davon.
Ailuros
2014-07-31, 20:41:17
Wie genau soll das Sinn ergeben? Woher stammen 15 Watt TDP, wenn das gesamte Tablet nur 8,8 Watt aus dem Akku zieht und der SoC damit bei roundabout 6 Watt liegen muss? Was für eine Regulierung senkt die Leistungsaufnahme, ohne dabei die Performance zu mindern? Das wäre ja reinste Zauberei.
Wenn Du eine bessere Erklärung anhand dem Inhalt der Tabelle hast dann rueck raus damit. Der letzte Wert rechts ist der reale SoC Verbrauch, der erste ganz links der volle theoretische TDP bevor irgend etwas gedrosselt wird. Zeigefinger ganz links auf 15000 und dann die komplette Linie durchlesen.
These nochmal wie folgend: Treiber bemerkt eine anspruchsvolle GPU bound Applikation wie TRex und wählt eine relativ hohe GPU Frequenz. 650MHz als Beispiel steht bei 15W, wobei der Treiber CPU cores vielleicht ausschaltet und die aktiven davon einfach so niedrig taktet bis der wahre SoC Verbrauch auf 7W liegt - letzter Wert ganz rechts.
Ich kenne diesen "Entwickler" nicht; wer aber einem passiv gekühlten Tablet-SoC eine TDP von 33 Watt zuschreibt, hat schlicht und ergreifend keinen blassen Schimmer, von was er da redet.
Ich bin mir aber sicher dass Du die NV trolls bei B3D kennst oder? Ich werde Dir Nebu noch seine Erfahrung vorstellen. Frag ihn selber. Er hat auf jeden Fall nichts mit irgend einem IHV zu tun noch hat er je irgendwelche Bevorzugungen gezeigt. Es war der Herr der an die Luft brachte dass big.LITTLE auf Exynos nicht richtig läuft.
Da Du sowieso die Debatte drüben verfolgst behauptet er gar nichts absurdes noch ist er ein Fremder zur Materie. Im Notfall frag Ihn doch einfach wie es wirklich läuft, er scheut sicher nicht davon ab es zu erklären. Wenn wir hier nichts weiter lernen dann ist der Mist hier sinnlos und dia ganzen Aufruefe zu groesserer Sachlichkeit wohl umsonst.
***edit: verdammte Daumentipperei...
Undertaker
2014-07-31, 21:13:08
Wenn Du eine bessere Erklärung anhand deem Inhalt der Tabelle hast dann rueck raus damit.
Eine Möglichkeit wäre, dass es hier um elektrische Spitzenwerte in einem beliebig kurzen Zeitraum geht. Oder um theoretische Maximalverbräuche, errechnet aus zulässigen Maximalwerten für Strom und Spannung. Die TDP ist bekanntermaßen eine rein thermische Größe, gemittelt über eine bestimmte zeitliche Periode, die darum vollkommen anders (aber immer niedriger) ausfallen wird.
These nochmal wie folgend: Treiber bemerkt eine anspruchsvolle GPU bound Applikation wie TRex und wählt eine relativ hohe GPU Frequenz. 650MHz als Beispiel steht bei 15W, wobei der Treiber CPU cores vielleicht ausschaltet und die aktiven davon einfach so niedrig taktet bis der wahre SoC Verbrauch auf 7W liegt - letzter Wert ganz rechts.
Wenn du bei konstanter CPU-Last einzelne CPU-Kerne deaktivierst oder heruntertaktest, ändert das am Verbrauch praktisch nichts. Selbst bei einem Desktop-Quad mit Faktor 20 höherer Leistungsaufnahme spart das bescheidene 1-2 Watt.
-/\-CruNcher-/\-
2014-07-31, 21:16:14
Köstlich. Echte Messungen von Jetson, also der nicht einmal sonderlich auf low-power optimierten Entwicklungsplattform:
http://www.phoronix.com/forums/showthread.php?99849-NVIDIA-Tegra-K1-Compared-To-AMD-AM1-APUs&p=416287#post416287
Soviel dazu... Vor allem Charlie machen die Werte dort mal wieder ziemlich lächerlich. :D
Das liegt genau im jetzigen Intel Bay Trail bereich für ihre 8 zoll WIn 8.1 tablet platform oder etwa nicht ?
Ailuros
2014-07-31, 21:19:36
Nein zum letzten; ULP SoCs haben heutzutage sehr fortschrittliches clock und power gating. Bei GPUs ist es noch bunter da diese noch flexibler sind. NV selber erwähnt einiges in K1 slides darüber.
Undertaker
2014-07-31, 21:22:42
Nein zum letzten; ULP SoCs haben heutzutage sehr fortschrittliches clock und power gating. Bei GPUs ist es noch bunter da diese noch flexibler sind. NV selber erwähnt einiges in K1 slides darüber.
Dem habe und wollte ich nicht widersprechen. :confused: Wie gesagt, auch 4 A15 Kerne, die bei 2,2 GHz idlen, verbraten nicht sonderlich viel Leistung. Damit kannst du keine 8 Watt Differenz zwischen 7 und 15 Watt erklären, allenfalls einige dutzend bis hundert Milliwatt.
AffenJack
2014-07-31, 21:24:51
These nochmal wie folgend: Treiber bemerkt eine anspruchsvolle GPU bound Applikation wie TRex und wählt eine relativ hohe GPU Frequenz. 650MHz als Beispiel steht bei 15W, wobei der Treiber CPU cores vielleicht ausschaltet und die aktiven davon einfach so niedrig taktet bis der wahre SoC Verbrauch auf 7W liegt - letzter Wert ganz rechts.
Dir ist schon klar, dass du damit mehr oder weniger die Funktionsweise eines jeden SoC, APU auf dem Markt beschreibst und das daher nix besonderes ist? Alle Chips bei den sich CPU,GPU das Powerbudget teilen variieren je nach Auslastung GPU/CPU Takt.
Wenn du bei konstanter CPU-Last einzelne CPU-Kerne deaktivierst oder heruntertaktest, ändert das am Verbrauch praktisch nichts. Selbst bei einem Desktop-Quad mit Faktor 20 höherer Leistungsaufnahme spart das bescheidene 1-2 Watt.
Wie kommst du darauf? Ich geh von aus das ändert Menge, die Kerne gehen mit Takt runter und verringern die Voltage. Nicht umsonst gibt die CPU/GPU Turbo Funktionen bei Intel/AMD je nachdem was gerade mehr Power braucht.
Gpus und Cpus hatten früher doch keine Idle-taktabsenkung und haben selbst beim nichts tun nen Haufen verbraucht.
-/\-CruNcher-/\-
2014-07-31, 21:25:00
Nein zum letzten; ULP SoCs haben heutzutage sehr fortschrittliches clock und power gating. Bei GPUs ist es noch bunter da diese noch flexibler sind. NV selber erwähnt einiges in K1 slides darüber.
Ich werds mir besser verkneifen jetzt ein Video zu posten, das hab ich allerdings auch schon im Bay Trail thread selbst dort sieht man die 4W bei Tomb Raider 2013 von Intels eigener Probe
Wenn man bei Cherry Trail von einer Effizienzsteigerung von 2x ausgeht die Intel ja anscheinend beim selben verbrauch anpeilt (und worauf ihre reasearch hinweise bezüglich optimierungen der gpu liegen) für demnächst kann man schon gut die zahlen ermitteln wo dann Cherry Trail gegen K1 liegen wird.
Undertaker
2014-07-31, 21:35:37
Wie kommst du darauf? Ich geh von aus das ändert Menge, die Kerne gehen mit Takt runter und verringern die Voltage. Nicht umsonst gibt die CPU/GPU Turbo Funktionen bei Intel/AMD je nachdem was gerade mehr Power braucht.
Gpus und Cpus hatten früher doch keine Idle-taktabsenkung und haben selbst beim nichts tun nen Haufen verbraucht.
Power Gating. Ungenutzte Chipteile werden eh abgeklemmt, das dürften auch aktuelle Cortex-Architekturen beherrschen.
Ailuros
2014-07-31, 22:08:56
Dir ist schon klar, dass du damit mehr oder weniger die Funktionsweise eines jeden SoC, APU auf dem Markt beschreibst und das daher nix besonderes ist? Alle Chips bei den sich CPU,GPU das Powerbudget teilen variieren je nach Auslastung GPU/CPU Takt.
Hat jemand behauptet dass K1 kein SoC ist oder dass NV im Vakuum entwickelt? Wenn meinn Brei annähernd stimmt, sollte es klar sein dass es so auf jedem SoC verläuft.
Du hast mich über die Tabelle gefragt und ich hab versucht zu antworten. Stets mit der Vorwarnung dass ich als Laie kein Grundwissen darüber habe.
AffenJack
2014-08-01, 00:26:43
Power Gating. Ungenutzte Chipteile werden eh abgeklemmt, das dürften auch aktuelle Cortex-Architekturen beherrschen.
Ja gut, wobei da auch schwer zu sagen ist, was ARM alles implementiert hat. Ich kann mir vorstellen, dass die Kraits gerade deshalb im Stromverbrauch soviel besser waren am Anfang, weil sie das besser implementiert hatten. Das ist dann ne Sache die mit den neuen Revisionen vll besser wurde.
Hat jemand behauptet dass K1 kein SoC ist oder dass NV im Vakuum entwickelt? Wenn meinn Brei annähernd stimmt, sollte es klar sein dass es so auf jedem SoC verläuft.
Du hast mich über die Tabelle gefragt und ich hab versucht zu antworten. Stets mit der Vorwarnung dass ich als Laie kein Grundwissen darüber habe.
Jop, ich hab gefragt, aber mittlerweile bei mehreren Seiten Diskussion hier denke ich mir die Tabelle führt nur zu unnützen Diskussionen. Nichtmal bei den taktraten da kann man sich sicher sein, mit der Tabelle, obwohl die auf max 700 mhz hindeuten würde. Sonst mag die Tabelle das Powermanagement beschreiben, aber im Endeffekt ist nur wichtig was hinten rauskommt und egal was da vorher stehen mag.
Gibts eigentlich keine Androidtools die den GPU Takt über nen Zeitraum ordentlich auslesen können oder testet das nur niemand?
Ailuros
2014-08-01, 11:11:05
Jop, ich hab gefragt, aber mittlerweile bei mehreren Seiten Diskussion hier denke ich mir die Tabelle führt nur zu unnützen Diskussionen. Nichtmal bei den taktraten da kann man sich sicher sein, mit der Tabelle, obwohl die auf max 700 mhz hindeuten würde. Sonst mag die Tabelle das Powermanagement beschreiben, aber im Endeffekt ist nur wichtig was hinten rauskommt und egal was da vorher stehen mag.
Gibts eigentlich keine Androidtools die den GPU Takt über nen Zeitraum ordentlich auslesen können oder testet das nur niemand?
Ich hab Arun@B3D aus gutem Grund gern:
http://forum.beyond3d.com/showpost.php?p=1863625&postcount=2712
This is a strange discussion.
TDP is irrelevant. It's *supposed* to be a THERMAL parameter - therefore the TDP of the SoC in isolation without considering considering software and temperature throttling is of questionable value. For hardware, it makes more sense to talk of "peak power" and "real-world power" as opposed to TDP in my opinion.
And higher peak power isn't necessarily worse. For example more specialised logic (even just video decoder versus doing on the CPU!) means higher peak consumption, but potentially lower average consumption for a given workload (assuming the right dynamic-static power trade-off). And the notion of "unrestricted" is equally bizarre as every chip is necessarily restricted by its power circuitry among other things.
On the other hand, it's clear that 7W is *not* K1's "peak power". It's the "real-world power" for a stressful workload but GFXBench is clearly not a power virus. If you can get 7W in GFXBench on the Shield Tablet, I can easily imagine 25W+ for a true power virus (CPU+GPU). Again, I'm not sure why anyone should care unless you're designing the power circuitry...
Einfacher geht's gar nicht.
***edit: nicht das ich wuesste aber es koennte durchaus eine geben. Ich ne Zeit lang mit dem Ding hier herumgespielt: http://blog.imgtec.com/powervr/powervr-graphics-sdk-tools-explained-introducing-pvrmonitor um zu sehen inwiefern wie die jeweiligen "Balken" fuer die CPU & GPU cores ausshen. Ist zwar nur fuer PVR GPUs in SoCs aber etwas aehnliches duerfte es schon geben fuer Android generell fuer CPUs zumindest.
Ailuros
2014-08-08, 16:18:55
Shield tablet battery life update bei Anand:
http://www.anandtech.com/show/8329/revisiting-shield-tablet-gaming-ux-and-battery-life
Mancko
2014-08-09, 10:43:53
Passt zwar nicht ganz hierein.
Gute Quartalszahlen von Nvidia mit ordentlichem Gewinn.
http://nvidianews.nvidia.com/News/NVIDIA-Financial-Results-for-Second-Quarter-Fiscal-2015-b88.aspx
Tegra scheint sich auch langsam zu erholen. Der Trend geht zumindest moderat nach oben.
Hübie
2014-08-09, 11:40:37
Na ja passt irgendwie schon da man es ja nun schwarz auf weiß hat dass VW im Golf und Passat künftig Tegra verwendet. Schaut man sich vergangene Absatzzahlen besagter Fahrzeuge an (fast) kann man sagen dass es ein besserer Deal ist als AMD mit den Konsolen ;) Dazu kommen noch Dinge wie Renderfarmen/Workstations aus nVidias Hand (oder sagen wir eher von HP).
mboeller
2014-08-09, 13:11:05
http://blog.gsmarena.com/xiaomi-mi-pad-7-9-hands/
http://blog.gsmarena.com/htc-flountervolantis-specs-leak-gets-certified-south-korea/
Unicous
2014-08-09, 13:36:21
Passt zwar nicht ganz hierein.
Gute Quartalszahlen von Nvidia mit ordentlichem Gewinn.
http://nvidianews.nvidia.com/News/NVIDIA-Financial-Results-for-Second-Quarter-Fiscal-2015-b88.aspx
Tegra scheint sich auch langsam zu erholen. Der Trend geht zumindest moderat nach oben.
http://www.xbitlabs.com/images/news/2013-08/nvidia_revenue_split_q2_fy2014.png
Um eine wirkliche Trendwende aufzuweisen, müssten sie einfach mal an den 200 Mio. kratzen und das jedes Vierteljahr. Die Tegra -Sparte blutet Geld aus(hemorrhaging money) und wenn es Jensen nicht langsam mal auf die Reihe bekommt verblutet sie. Es reicht nicht sich an etwas lukrativere Quartale von vor zwei Jahren heranzurobben. Ich sehe da bislang keine Erholung sondern Rumdümpeln auf niedrigem Niveau nach dem katastrophalem FQ 2'14.
Dural
2014-08-09, 13:50:38
T4 war halt ein flop, willst du das die nächsten jahre ständig wiederholen? mit den deals die nv mit k1 hat wird es wohl eher richtung 300mio gehen.
viel interessanter finde ich da das qualcomm modem im nexus 8
Skysnake
2014-08-09, 13:59:49
Warten wir erstmal ab, was da wirklich am Ende bei rum kommt...
Btw.
Seh ich das eigentlich richtig, dass der höhere Gewinn etwa genau so groß ist, wie die Reduktion auf der Aktivseite?
Ailuros
2014-08-09, 14:22:31
Na ja passt irgendwie schon da man es ja nun schwarz auf weiß hat dass VW im Golf und Passat künftig Tegra verwendet. Schaut man sich vergangene Absatzzahlen besagter Fahrzeuge an kann man sagen dass es ein besserer Deal ist als AMD mit den Konsolen ;) Dazu kommen noch Dinge wie Renderfarmen/Workstations aus nVidias Hand (oder sagen wir eher von HP).
Dann hast Du wohl verpasst wie gross die 3 Konsolen deals für AMD sind (rate mal um wieviel teurer ein jeweiliger AMD SoC ist und gleichzeitig wie viele Autos pro Jahr verkauft werden).
Nicht nur Du sondern andere auch reimt Euch so viel Mist zusammen dass ich mir die Haare ausreissen konnte. Erstens kommen die besseren Tegra Zahlen vom T4/T4i hauptsächlich und verdammt wenig davon von K1, ergo ist es zwar ein Flop gewesen aber auch kein Disaster. Zweitens hat NV nirgends und nie irgendwelche exclusive deals im automotive gelandet und nur weil die anderen nicht mit BS werben um ihre Aktionäre zu verblenden heisst es noch lange nichts.
K1 kam Ende Juni in geringen Mengen vom Laufband und das sollte reichen dass es jemand ein leuchtet was für was steht. Und ja mit K1 wird es noch besser aber selbst wenn sie zu Gewinn kommen dann verdammt gering.
Skysnake
2014-08-09, 14:33:26
Ich habe gestern auch einen recht interessanten Vortrag von einem Vertreter von BOSCH bzgl Chipentwicklung gehört, und es gab praktisch zwei grundlegende Aussagen bzgl Automotiv <-> Mobile
1. Kosten Kosten Kosten bei beiden Bereichen sehr wichtig, genau wie auch Time-to-Market
2. Das normale Mobile Zeug kannste im Automotive nicht verbauen, weil die halt alles zwingend bis 125°C verifiziert haben wollen, und alles was irgendwie mit der Sicherheit zu tun hat, sich ständig selbst kontrollieren muss, und mindestens einfach redudant sein muss.
Ich seh absolut nicht, wie nvidia da mehr als Infotainment verwirklichen will.
Ailuros
2014-08-09, 14:53:56
Es gibt schon Verträge und dazu ziemlich gute, nur ist NV nicht allein im automotive und es werden auch nicht etliche dutzend Millionen Autos pro Jahr mit N Lösung verkauft. TI, Renesas, Freescale u.a. betreiben den Markt mit wenig resources aus gutem Grund.
Mancko
2014-08-09, 14:57:00
Automotive ist ja nur ein Baustein. Ich würde da jetzt nicht zu viel hineininterpretieren. Im Endeffekt brauch Nvidia Automotive, Tablets und Handheld Gaming Devices + eventuell ein paar TVs um für die Tegra Sparte so viel Umsatz zu generieren, dass sie sich trägt. Mit K1 ist zumindest mal eine gute Grundlage geschaffen das Segment zu stabilisieren und nach vorne zu bringen. Große Gewinne würde ich da jetzt nicht erwarten. Das wird IMHO erst überhaupt mit dem Nachfolger möglich sein, wenn nichts daneben geht.
In Summe ist aber fakt, dass Nvidia nach wie vor sehr ordentliche schwarze Zahlen schreibt. Negativszenarien die da über die letzten Jahre gemahlt wurden habe sich in keinster Weise bestätigt. AMD auf der anderen Seite ist wieder in roten Zahlen und nicht ansatzweise auf der finanziellen Seite konkurrenzfähig. Ohne Geldgeber wäre AMD heute bereits ein beerdigtes oder zerschlagenes Unternehmen.
Abschließend noch der Hinweis, aber das kann sich jeder selber ausmalen, dass Tegra K1 und seine Gaming Performance sowie die Bemühungen von Google, Valve &Co. schon sehr deutliche Tendenzen aufzeigen, wo der Konsolen/Mobile Gaming Markt in 3 bis 5 Jahren sein wird. Die klassische Zweiteilung zwischen Sony und M$ bzw. Dreiteilung wenn man noch Nintendo dazu nimmt wird nicht zu halten sein. Sprich der Markt wird sich über deutlich mehr Wettbewerber freuen dürfen. Gut für den Kunden und es tun sich zukünftig eine Menge Optionen für IHVs insbesondere abseits von M$ und Sony auf.
Ailuros
2014-08-09, 17:20:01
Automotive ist ja nur ein Baustein. Ich würde da jetzt nicht zu viel hineininterpretieren.
Komischerweise ist es nach Jensen selber der einzige Markt in dem sie bis jetzt erfolgreich sind mit Tegra.
Im Endeffekt brauch Nvidia Automotive, Tablets und Handheld Gaming Devices + eventuell ein paar TVs um für die Tegra Sparte so viel Umsatz zu generieren, dass sie sich trägt.
Gaming braucht Volumen; mit welchem Zauberstab das Volumen und von wo kommen soll kann auch noch keiner definieren.
Mit K1 ist zumindest mal eine gute Grundlage geschaffen das Segment zu stabilisieren und nach vorne zu bringen. Große Gewinne würde ich da jetzt nicht erwarten. Das wird IMHO erst überhaupt mit dem Nachfolger möglich sein, wenn nichts daneben geht.
Also wird Deiner Meinung nach Erista sich in sagen wir mal 100Mio tablets verkaufen oder?
In Summe ist aber fakt, dass Nvidia nach wie vor sehr ordentliche schwarze Zahlen schreibt. Negativszenarien die da über die letzten Jahre gemahlt wurden habe sich in keinster Weise bestätigt.
Die Negativ-szenarien sprachen alle davon dass NV mit Tegra nicht besonders weiter kommen wird wenn sie nicht ihre Strategie aendern. Sie hatten einen ehlendigen "peak" mit Tegra3 und irgendwo 10Mio Einheiten pro Jahr, dann rutschte die Affaere wieder in den Keller und jetzt versuchen sie mit einem zugegeben sehr gutem SoC erstmal den verlohrenen Boden wieder gutzumachen. Wenn Du darin einen "glohreichen" Verlauf siehst dann bitte. Ich hoere schon seit GoForce dass ja der naechste Schub wird alles platt rennen blah blah blah und am Ende wird doch nichts daraus.
Im gegebenen Fall haben leider die Schwarzmaler insgesamt recht und NV kaempft ueber etliche Jahre die Sparte ueber Wasser zu halten.
AMD auf der anderen Seite ist wieder in roten Zahlen und nicht ansatzweise auf der finanziellen Seite konkurrenzfähig. Ohne Geldgeber wäre AMD heute bereits ein beerdigtes oder zerschlagenes Unternehmen.
Interessiert die Debatte eigentlich wenig.
Abschließend noch der Hinweis, aber das kann sich jeder selber ausmalen, dass Tegra K1 und seine Gaming Performance sowie die Bemühungen von Google, Valve &Co. schon sehr deutliche Tendenzen aufzeigen, wo der Konsolen/Mobile Gaming Markt in 3 bis 5 Jahren sein wird. Die klassische Zweiteilung zwischen Sony und M$ bzw. Dreiteilung wenn man noch Nintendo dazu nimmt wird nicht zu halten sein. Sprich der Markt wird sich über deutlich mehr Wettbewerber freuen dürfen. Gut für den Kunden und es tun sich zukünftig eine Menge Optionen für IHVs insbesondere abseits von M$ und Sony auf.
Die Anzahl der Wettbewerber hat deutlich nachgelassen in den letzten Jahren und wird auch noch mehr nachlassen. Sonst fuer die hoffnunngslosen Romantiker stirbt die Hoffnung stets als letzte.
Hübie
2014-08-09, 18:31:47
Dann hast Du wohl verpasst wie gross die 3 Konsolen deals für AMD sind (rate mal um wieviel teurer ein jeweiliger AMD SoC ist und gleichzeitig wie viele Autos pro Jahr verkauft werden).
Nicht nur Du sondern andere auch reimt Euch so viel Mist zusammen dass ich mir die Haare ausreissen konnte. Erstens kommen die besseren Tegra Zahlen vom T4/T4i hauptsächlich und verdammt wenig davon von K1, ergo ist es zwar ein Flop gewesen aber auch kein Disaster. Zweitens hat NV nirgends und nie irgendwelche exclusive deals im automotive gelandet und nur weil die anderen nicht mit BS werben um ihre Aktionäre zu verblenden heisst es noch lange nichts.
K1 kam Ende Juni in geringen Mengen vom Laufband und das sollte reichen dass es jemand ein leuchtet was für was steht. Und ja mit K1 wird es noch besser aber selbst wenn sie zu Gewinn kommen dann verdammt gering.
Ich bezog mich eher auf die Relation zwischen der Quantität von AMDs Deal zu der von NVidia mit den deutschen Automarken und den resultierenden Gewinnen. Auch in Bezug auf Bekanntheitsgrad.
Ich hatte drei Kinder hier und musste mich kurz fassen. Also bevor du deine Haare ausreißt frag doch lieber noch mal genauer nach ;)
Oh und ich habe das Wörtchen "fast" im obigen Text vergessen. Das setze ich gleich mal.
Tegra ist mitten in einer Neuausrichtung also werden wir nächstes Jahr Ergebnisse sehen. Dann kannst du gerne Haare ausreißen weil ich so eine Aussage tätige.
Tegra hat momentan noch den Nachteil nicht skalierbar bzw modular zu sein. Das soll sich künftig ändern. 2012 munkelte man Tegra wachse künftig sogar in den Tesla - Markt hinein. Ebenso wurde viel von industrial embedded gequasselt. Kommt wohl langsam. Hab da irgendwas von Siemens gehört. Die machen ja schon in der Cloud rum...
Ich respektiere stets dein Wort, aber geh mal nich gleich so in die Vollen, Ailuros ;)
Ailuros
2014-08-09, 22:19:12
Ich bezog mich eher auf die Relation zwischen der Quantität von AMDs Deal zu der von NVidia mit den deutschen Automarken und den resultierenden Gewinnen. Auch in Bezug auf Bekanntheitsgrad.
Ich hatte drei Kinder hier und musste mich kurz fassen. Also bevor du deine Haare ausreißt frag doch lieber noch mal genauer nach ;)[
In meinem Alter gibt nicht mehr viel auszureissen und es war eher auf den T4 Flop von Dural bezogen. Sonst sind die deals für Tegra im automotive nicht so hoch wie es Jensen klingen lässt. Jeder mit Insider knowledge im automotive wird es Dir bestätigen. Ja es gibt sehr gute Verträge, ja das Interesse an Tegras ist sehr hoch und nein es geht nicht jeder Vertrag an NV.
Oh und ich habe das Wörtchen "fast" im obigen Text vergessen. Das setze ich gleich mal.
Tegra ist mitten in einer Neuausrichtung also werden wir nächstes Jahr Ergebnisse sehen. Dann kannst du gerne Haare ausreißen weil ich so eine Aussage tätige.
Tegra hat momentan noch den Nachteil nicht skalierbar bzw modular zu sein. Das soll sich künftig ändern. 2012 munkelte man Tegra wachse künftig sogar in den Tesla - Markt hinein. Ebenso wurde viel von industrial embedded gequasselt. Kommt wohl langsam. Hab da irgendwas von Siemens gehört. Die machen ja schon in der Cloud rum...
I got news for you... Tegra ist in Zukunft genauso mausetot für Smartphones wie auch NVs Server Plane dafür. Der Rest für HPC hat mit Volumen nichts im selben Satz verloren.
Ich respektiere stets dein Wort, aber geh mal nich gleich so in die Vollen, Ailuros ;)
Da ich auf einen hint von jemand weiter geforscht habe hat NV schon mehrere automotive Verträge verloren weil sie u.a. ihre SoCs nicht lange genug herstellen. Komische Einzelheit gell? ;)
hasebaer
2014-08-09, 22:25:37
Da ich auf einen hint von jemand weiter geforscht habe hat NV schon mehrere automotive Verträge verloren weil sie u.a. ihre SoCs nicht lange genug herstellen. Komische Einzelheit gell? ;)
Also deshalb kommt ein Lamborghini Huracán anno 2014 immernoch mit Tegra 3, ok. :biggrin:
Ailuros
2014-08-09, 22:31:50
Also deshalb kommt ein Lamborghini Huracán anno 2014 immernoch mit Tegra 3, ok. :biggrin:
Wann wurde das spezifische Modell fertig entwickelt? In 2014 bestimmt nicht.
hasebaer
2014-08-09, 22:34:15
Ja schon klar, aber bei 200.000€ für das Geschoß nur ein alter 40nm Tegra 3 war schon verwunderlich.
Wie lang wohl mag TSMC noch 40nm Kapazitäten anbieten?
Ailuros
2014-08-09, 22:42:10
Ja schon klar, aber bei 200.000€ für das Geschoß nur ein alter 40nm Tegra 3 war schon verwunderlich.
Wie lang wohl mag TSMC noch 40nm Kapazitäten anbieten?
Verdammt lange so wie mit Prozessen aussieht. 40nm ist sogar "modern" im Vergleich zum 65nm dass immer noch benutzt wird.
Askingar
2014-08-09, 23:03:24
Wäre Nvidia so clever gewesen und hätte openCL implentiert, dann hätte man auch bestimmte lukrative Angebote mitnehmen können.
"Wieso flog der Tegra bei BMW raus?"
Was ist der Grund? Wie wir aus dem Umfeld von Nvidia erfahren haben, war es schlicht und ergreifend die mangelnde Unterstützung für OpenCL, das ebenso wie OpenGL, OpenGL ES und DirectX 11.0. nicht unterstützt wird – nicht einmal die eigene proprietäre CUDA-Architektur...
http://www.elektroniknet.de/automotive/infotainment/artikel/94160/
Selbst Schuld! Da haben sich die Hersteller wohl was anderes vorgestellt.
Dural
2014-08-09, 23:30:29
findes immer wieder lustig das es immer wieder user gibt die behaupten das tegra ein finanz grab für nv sei, die entwicklung von einem 100mm2 soc muss ja wahnsinnig teuer sein erst recht wenn man die ersten vier versionen einen eigenen grafikcore aus dem 2004 verwendet und mit der 5. version eine neuere aus dem eigenen haus verwendet... ach ja die sündhaft teuren cpu cores hab ich ja noch vergessen... das einzige was bis jetzt viel gekostet hat war lte und denver, beim ersten bin ich mir nicht ganz sicher was wir da noch sehen werden und beim zeiten gibt es bis jetzt noch nichts auf den markt, die kosten für denver kann man bis jetzt wohl kaum den 5 tegras zu schreiben.
manche user hier wiederholen seit fast jahren die selben sinnlosen leier... war wird sie dadurch aber immer noch nicht. komisch finde ich dazu noch das der konsolen deal von amd positiv ins licht gestellt wird und viel besser als die tegras deals sein sollen, das sieht man in jedem quartal ja schön wer die gewinne einfährt und wer im schnitt keine 56% gewinn hat...
Ailuros
2014-08-09, 23:30:35
Die Geschichte ist uralt und bezog sich auf T3.
Askingar
2014-08-09, 23:52:21
Daher unterscheiden sich die zukünftigen K1 Versionen, im Automtive Bereich kommt wohl der Tegra-K1-VCM zum Einsatz. Audi setzt hier große Hoffung auf das VCM, da deren MMI-MIB in Zukunft auf die Schnittstelle aufsetzt. http://www.elektroniknet.de/halbleiter/prozessoren/artikel/104387/
http://www.elektroniknet.de/typo3temp/pics/6d3c1ed4aa.jpg
Tegra wird immer mit Microsofts Surface in Verbindung gebracht und deren Verlustgeschäft von ca. 900 Millionen (Abschreibungen), daher wird suggeriert Tegra wäre ein Flopp. Das kann man nach so kurzer Zeit sicher nicht sagen. Der Verlust seitens Microsoft hat mit Nvidia aber tatsächlich wenig zu tun.
Hübie
2014-08-10, 01:00:34
In meinem Alter gibt nicht mehr viel auszureissen und es war eher auf den T4 Flop von Dural bezogen. Sonst sind die deals für Tegra im automotive nicht so hoch wie es Jensen klingen lässt. Jeder mit Insider knowledge im automotive wird es Dir bestätigen. Ja es gibt sehr gute Verträge, ja das Interesse an Tegras ist sehr hoch und nein es geht nicht jeder Vertrag an NV.
X-D Ich weiß ja nicht wie alt du bist, aber klingt aaaalt.
I got news for you... Tegra ist in Zukunft genauso mausetot für Smartphones wie auch NVs Server Plane dafür. Der Rest für HPC hat mit Volumen nichts im selben Satz verloren.
Ja mag sein. Das war nur ne Aussage eines Marketing-fuzzies 2012. Wer eine blühende Fantasie hat kann sich die buntesten Dinge ausmalen. Ich denke dass damit sowas wie ein Arbiter für HPC-cluster gemeint ist. Datamanagement ist ja das aufkommende Thema.
Da ich auf einen hint von jemand weiter geforscht habe hat NV schon mehrere automotive Verträge verloren weil sie u.a. ihre SoCs nicht lange genug herstellen. Komische Einzelheit gell? ;)
Die Aussage kann ich nicht zuordnen. ;) Ich weiß dass BMW mit Quadro designed, aber deshalb müssen die ja nicht gleich Tegra verbauen.
Skysnake
2014-08-10, 09:36:51
Ja schon klar, aber bei 200.000€ für das Geschoß nur ein alter 40nm Tegra 3 war schon verwunderlich.
Wie lang wohl mag TSMC noch 40nm Kapazitäten anbieten?
Ewig. Wenn brennen alle 40nm lines ab, als das TSMC die komplett einstellt.
TSMC bietet sogar noch >=500nm Prozesse an. Wie ich am Freitag erfahren habe nutzt auch Bosch für Automotiv noch >=500nm Prozesse für Sensoren usw.
Das sind inzwischen wirklich etwas exotische Prozesse für HighVoltage usw, aber z.B. 130nm ist noch absolut im Gebrauch, auch bei Logikchips, auch wenn sich 65nm zum Wald und Wiesen Prozess inzwischen gemausert hat.
Verdammt lange so wie mit Prozessen aussieht. 40nm ist sogar "modern" im Vergleich zum 65nm dass immer noch benutzt wird.
Siehe oben, es wird sogar noch viel viel viel älteres genutzt. Auf die wirklich ganz aktuelles Nodes gehen an sich nur sehr wenige sehr große Firmen, die sich auch nen kaputten Chip mal leisten könnten, ohne direkt Pleite zu gehen. Ganz zu schweigen von den explodierenden Designkosten.
Die Aussage kann ich nicht zuordnen. ;) Ich weiß dass BMW mit Quadro designed, aber deshalb müssen die ja nicht gleich Tegra verbauen.
nVidia hat kein Bock 10-20 Jahre ihre Chips anbieten zu müssen. Im Automotiv musste das aber. Stell dir mal vor, nen 10 Jahre altes Auto hat nen Schaden am Infotainmentsystem, das integriert ist in die Anzeige für Tacho usw. Du hat kein Ersatzteil, und darfst dein 10 Jahre altes Auto deswegen verschrotten. DEN Shitstorm willste nicht erleben.
Askingar
2014-08-10, 10:32:47
Im Automotivebereich sind das eher Volumenverträge. Das heisst, der Hersteller liefert so viele Einheiten wie die Kalkulation des Autobauers aussagt. Dazu zählen die Einheiten die als Ersatzteilreserve gelten, gleich mit.
Bei BMW z.B. werden Baugruppen auch durch moderne Einheiten ersetzt, wenn sie den selben Benutzerumfang bieten. Kann hier nur Teile der Klimaautomatik/Steuerung nennen. Nach aussen siehts gleich aus, im Innern kann schon mal ein anderer (neuerer) Chip verbaut sein.
Mancko
2014-08-10, 14:51:40
Komischerweise ist es nach Jensen selber der einzige Markt in dem sie bis jetzt erfolgreich sind mit Tegra.
Jensen übertreibt gerne. Ist als CEO auch sein gutes Recht. Er macht immer ordentlich Stimmung. In den USA ist das auch nicht unüblich. Vorträge und Reden haben dort immer Entertainment Charakter, ausser vielleicht in den Behörden oder der Administration in Washington. Rory Read ist doch nicht anders. Er macht auch gern Musik. Der Laden ist trotzdem wieder rot, sprich hat sich nicht wirklich weiterentwickelt. Der Zuwachs auf der einen Seite wird durch weiteres Ausbluten auf der anderen Seite aufgefressen.
Gaming braucht Volumen; mit welchem Zauberstab das Volumen und von wo kommen soll kann auch noch keiner definieren.
Das Volumen wird kommen darauf kannst wetten oder meinst Du MS und Sony werden ihre Kundschaft mit den statischen Konsolen bei der kommenden Generation halten können? Ich habe da meine Zweifel. Die werden wohl oder übel in den sauren Apfel beißen müssen und einen bestimmten Anteil abgeben müssen, insbesondere Microsoft. Der Android Gaming Markt wird von ein paar Schwergewichten gepusht (Google und Valve). Insbesondere Google hat unendlich viel Asche zur Verfügung.
Also wird Deiner Meinung nach Erista sich in sagen wir mal 100Mio tablets verkaufen oder?
Ich habe keine Ahnung wieviel sich Erista verkaufen wird. Erista ist noch nicht raus. Ich habe lediglich gesagt, dass mit K1 (beide Varianten) Nvidia m.E. es noch nicht schaffen wird das Segment profitabel zu machen. Das ist frühestens mit dem Nachfolger möglich.
Die Negativ-szenarien sprachen alle davon dass NV mit Tegra nicht besonders weiter kommen wird wenn sie nicht ihre Strategie aendern. Sie hatten einen ehlendigen "peak" mit Tegra3 und irgendwo 10Mio Einheiten pro Jahr, dann rutschte die Affaere wieder in den Keller und jetzt versuchen sie mit einem zugegeben sehr gutem SoC erstmal den verlohrenen Boden wieder gutzumachen. Wenn Du darin einen "glohreichen" Verlauf siehst dann bitte. Ich hoere schon seit GoForce dass ja der naechste Schub wird alles platt rennen blah blah blah und am Ende wird doch nichts daraus.
Von einem glohreichen Verlauf habe ich nicht geschrieben. Und die Negativszenarien zu Nvidia gibt es seit AMD und Intel APUs bauen. Bis jetzt schröpft Nvidia weiter ordentlich Gewinne ab und schraubt Margen nach oben und AMD macht weiter Verluste und Intel wird weiter Geld an Nvidia bezahlen um APUs bauen zu dürfen.
Im gegebenen Fall haben leider die Schwarzmaler insgesamt recht und NV kaempft ueber etliche Jahre die Sparte ueber Wasser zu halten.
Nvidia kann die Sparte noch viele Jahre über Wasser halten. Sie verdienen genügend Geld in anderen Bereichen und gehen in der Sparte jetzt auch nicht so wahnsinnig ins Risiko. Die Kosten sind überschaubar. Im übrigen möchte ich darauf hinweisen, dass man es sich zu einfach macht die Sparte losgelöst für sich zu betrachten. Die Sparte wird in Zukunft nennenswerte Ergebnisse auf technischer Ebene für die GPU Sparte liefern, indem GPUs immer mehr auf Energieeffizienz getrieben werden. Irgendwann wird die Sparte die Grundlagen für die GPUs in den anderen Segmenten liefern. Das bedeutet aber nicht zwangsläufig, dass man saubere interne Leistungsverrechnung betreibt. Es ist ja kein Subunternehmen. Insofern kann es auch sein, dass die darauf enstehenden Benefits nicht zwangsläufig in Asche für diese eine Sparte umgewandelt werden.
Im Endeffekt ist es auch egal. Nvidia ist ein überschaubares Unternehmen mit nur sehr geringem äußerlichen Einfluss und das ist ein riesen Vorteil. Nvidia muss sich nicht um irgendeine arabische Beteiligungsgesellschaft oder irgend wen anders kümmern. Die können weiter ihr Ding machen.
Die Anzahl der Wettbewerber hat deutlich nachgelassen in den letzten Jahren und wird auch noch mehr nachlassen. Sonst fuer die hoffnunngslosen Romantiker stirbt die Hoffnung stets als letzte.
Die Anzahl der Wettbewerber für Gaming Devices wird in den nächsten 3 bis 5 Jahren erheblich ansteigen. Wenn die Entwicklung bei mobilen Geräten so weiter geht wird kaum noch Bedarf für statische Konsolen bestehen. Wozu auch. Die Dinger sind hässlich und irgendwann wird entweder ein Tablet oder eventuell sogar das TV Gerät selber mit einem Zusatzmodul genügend Leistungsfähigkeit abwerfen. Extra DVD und Blue Ray Geräte braucht man m.E. auch nicht zwingend. Der Trend geht zum Streaming. Die Scheiben nehmen nur Platz weg und stauben ein. Natürlich muss der Breitbandausbau noch mehr gepusht werden aber es gibt Länder die da deutlich besser unterwegs sind als Deutschland. Naja zumindest in Bayern wird in den nächsten 5 Jahren hier einiges passieren. Ich habe bei mir daheim bereits alles auf Streaming umgestellt. Alle CDs und DVDs sind rausgeflogen. Ich habe 100Mbit. Videos gibt es On-Demand über diverse Anbieter. Musik kommt von Spotify nur Games daddel ich noch sozusagen am PC mit Installation, allerdings fast nur noch über Valve's Steamplattform. Auch hier sind zumindest keine Scheiben mehr notwendig. Irgendwann wird auch Gaming gestreamt werden. Bei einfachen Games wird das in den nächsten 3 Jahren möglich sein denke ich. Bei komplexeren Sachen wirds noch ein paar Jahre länger dauern.
Ailuros
2014-08-10, 17:37:18
Jensen übertreibt gerne. Ist als CEO auch sein gutes Recht. Er macht immer ordentlich Stimmung. In den USA ist das auch nicht unüblich. Vorträge und Reden haben dort immer Entertainment Charakter, ausser vielleicht in den Behörden oder der Administration in Washington. Rory Read ist doch nicht anders. Er macht auch gern Musik. Der Laden ist trotzdem wieder rot, sprich hat sich nicht wirklich weiterentwickelt. Der Zuwachs auf der einen Seite wird durch weiteres Ausbluten auf der anderen Seite aufgefressen.
Na endlich jemand der einen besseren Einblick auf Jensen's Kauderwelsch hat; behauptet er sagen wir mal 1Mrd. Entwicklungskosten fuer X dann ist wohl das Putzpersonal im Gebaeude erstmal mitberechnet :D
Das Volumen wird kommen darauf kannst wetten oder meinst Du MS und Sony werden ihre Kundschaft mit den statischen Konsolen bei der kommenden Generation halten können? Ich habe da meine Zweifel. Die werden wohl oder übel in den sauren Apfel beißen müssen und einen bestimmten Anteil abgeben müssen, insbesondere Microsoft. Der Android Gaming Markt wird von ein paar Schwergewichten gepusht (Google und Valve). Insbesondere Google hat unendlich viel Asche zur Verfügung.
Moment Du redest hier ueber einen Gelegenheits-gaming Markt genauso wie bei tablets/smartphones und dazu noch von einem Markt der nicht nur noch nicht existiert sondern sich noch nichtmal definiert hat.
Wird der TV die naechste Gelegenheits-gaming Maschine der Zukunft der die Konsolen teilweise ersetzen wird oder set top boxes? Und egal welcher der beiden wieso sollte Microsoft besonders viel zu sagen haben wenn sie auch wohl hier wieder eine dekorative Existenz neben iOS und Android haben koennten. Ich hab ernsthafte Zweifel dass die grossen TV Hersteller wie Samsung, LG, Toshiba etc. viel bzw. ueberhaupt etwas mit M$ zu tun haben wollen.
Kurz mit noch so vielen unbekannten Variablen sehe ich noch gar nichts fuer niemand. Ich kann nur anmerken dass bisher weder smartTVs noch set top boxes einen besonderen Verkaufserfolg gelandet haben.
Ich habe keine Ahnung wieviel sich Erista verkaufen wird. Erista ist noch nicht raus. Ich habe lediglich gesagt, dass mit K1 (beide Varianten) Nvidia m.E. es noch nicht schaffen wird das Segment profitabel zu machen. Das ist frühestens mit dem Nachfolger möglich.
Selbst K1 koennte randmaessig etwas Gewinn landen wenn sie sagen wir mal 5Mio MiPads und 10Mio Nexus-Next verkaufen werden. Wird Google einen IHV zwei Referenz-Geraete hinter einander goennen (unmoeglich ist es natuerlich nicht) und wenn nicht woher wird das zweite Volumen und von wem nochmal genau gedeckt? Tegra3 war ein besserer Verkaufserfolg weil es in das originale Nexus7 schaffte und bewiess sich als Eintagsfliege fuer das spezifische Verkaufsvolumen dass nirgends woanders ersetzt werden konnte.
Von einem glohreichen Verlauf habe ich nicht geschrieben. Und die Negativszenarien zu Nvidia gibt es seit AMD und Intel APUs bauen. Bis jetzt schröpft Nvidia weiter ordentlich Gewinne ab und schraubt Margen nach oben und AMD macht weiter Verluste und Intel wird weiter Geld an Nvidia bezahlen um APUs bauen zu dürfen.
Ja fuer NV in ihrem Kerngeschaeft; bei Tegra aber geht es von beschissen zu noch beschissener und scheint bis jetzt nicht besonders besser werden zuj wollen. AMD hat den ULP Zug ganz verpasst und ich bezweifle dass sie auch schwer je darauf einsteigen werden und Intel leidet einfach darunter dass wenn sie Hersteller meiden koennen dann werden sie es auch tun. Mit subsidies kamen sie zwar etwas weiter, aber dass sich ARM's Zukunft im ULP von Intel als bedrohend zeigen wird will ich ernsthaft bezweifeln.
NVIDIA kommt in diesem mit high end SoCs mit K1 an fuer ultra thin tablets und hoeher. Wenn Microsoft irgendwann ARM CPUs in windows9 oder hoeher voll zulaesst dann hat NV natuerlich ganz andere Chancen aber es hat dann in dem Fall eher mit low end PC/notebook SoCs zu tun als reinem ULP.
Nvidia kann die Sparte noch viele Jahre über Wasser halten. Sie verdienen genügend Geld in anderen Bereichen und gehen in der Sparte jetzt auch nicht so wahnsinnig ins Risiko. Die Kosten sind überschaubar. Im übrigen möchte ich darauf hinweisen, dass man es sich zu einfach macht die Sparte losgelöst für sich zu betrachten. Die Sparte wird in Zukunft nennenswerte Ergebnisse auf technischer Ebene für die GPU Sparte liefern, indem GPUs immer mehr auf Energieeffizienz getrieben werden. Irgendwann wird die Sparte die Grundlagen für die GPUs in den anderen Segmenten liefern. Das bedeutet aber nicht zwangsläufig, dass man saubere interne Leistungsverrechnung betreibt. Es ist ja kein Subunternehmen. Insofern kann es auch sein, dass die darauf enstehenden Benefits nicht zwangsläufig in Asche für diese eine Sparte umgewandelt werden.
Das liegt nicht in Jensen's Haenden sondern in NV's investors. Dass zwei grosse Projekte fuer die Tegra Sparte seit neuestem eingestampft wurden ohne dass jegliche der beiden je eine Chance selbst fuer einen kickstart hatten sollte Dir eine andere Realitaet erzaehlen. Ebenso die Tatsache dass zukuenftige design teams aufgeloest wurden und an andere interne Projekte verschickt.
Die Anzahl der Wettbewerber für Gaming Devices wird in den nächsten 3 bis 5 Jahren erheblich ansteigen. Wenn die Entwicklung bei mobilen Geräten so weiter geht wird kaum noch Bedarf für statische Konsolen bestehen. Wozu auch. Die Dinger sind hässlich und irgendwann wird entweder ein Tablet oder eventuell sogar das TV Gerät selber mit einem Zusatzmodul genügend Leistungsfähigkeit abwerfen. Extra DVD und Blue Ray Geräte braucht man m.E. auch nicht zwingend. Der Trend geht zum Streaming. Die Scheiben nehmen nur Platz weg und stauben ein. Natürlich muss der Breitbandausbau noch mehr gepusht werden aber es gibt Länder die da deutlich besser unterwegs sind als Deutschland. Naja zumindest in Bayern wird in den nächsten 5 Jahren hier einiges passieren. Ich habe bei mir daheim bereits alles auf Streaming umgestellt. Alle CDs und DVDs sind rausgeflogen. Ich habe 100Mbit. Videos gibt es On-Demand über diverse Anbieter. Musik kommt von Spotify nur Games daddel ich noch sozusagen am PC mit Installation, allerdings fast nur noch über Valve's Steamplattform. Auch hier sind zumindest keine Scheiben mehr notwendig. Irgendwann wird auch Gaming gestreamt werden. Bei einfachen Games wird das in den nächsten 3 Jahren möglich sein denke ich. Bei komplexeren Sachen wirds noch ein paar Jahre länger dauern.
Klingt schoen und optimistisch; lass Dich aber bloss nicht enttaeusschen wenn die Zukunft einen ganz anderen Streich spielen sollte.
hasebaer
2014-08-11, 12:57:47
Acer Launches NVIDIA Tegra K1-Powered 13.3-Inch Chromebook
http://www.techpowerup.com/203988/acer-launches-nvidia-tegra-k1-powered-13-3-inch-chromebook.html
fondness
2014-08-11, 13:13:46
Nvidia’s CEO was wise to leave the phones completely out of the picture, as apparently Nvidia gave up a hope that it can compete in this space. Jen-Hsun Huang claims that Nvidia spends its R&D in three major segments automotive, Android TV and gaming consoles including Shield series products. Let’s see how this Android TV strategy will play our, as it would not be the first time that Google tried to change the way we watch TV.
http://www.fudzilla.com/home/item/35472-nvidia-fine-tunes-tegra-strategy
Also sowohl Server als auch Smartphones wurde aufgegeben. Ob man mit Android Gaming den Durchbruch schafft mal sehen...
Avalox
2014-08-11, 13:22:39
Also sowohl Server als auch Smartphones wurde aufgegeben. Ob man mit Android Gaming den Durchbruch schafft mal sehen...
Wo list du, dass Server aufgegeben werden?
Ein K1 wäre doch so nicht in einen Server gewandert. Es würden Tesla Karten mit ARM CPUs bestückt werden, entsprechendes würde gar nicht als separater SoC bei nVidia laufen.
Zudem ist der Zusammenhang zwischen X-Gene und nVidia sicherlich diskutabel.
Wo 64-Bit ARM Server mit Tesla schon längst gezeigt und von nVidia selbst beworben werden. Dort steht ja der X-Gene 2 momentan aus. Das da mehr zwischen APM(X-Gene) und nVidia hinter den Kulissen läuft, wird ja schon länger durchs Netz spekuliert.
Unicous
2014-08-11, 13:33:51
Kevin E. Cassidy – Stifel, Nicolaus & Co.
Thanks for taking my question. Just on the TK1, Jen-Hsun, you mentioned auto gaming and differentiated, but with it being a 64-bit and Kepler-based, is there any reason it couldn’t be a GRID component also?
Jen-Hsun Huang
No reason at all. I think we’re seeing a lot of interest in putting something like Tegra in micro servers, but one step at a time, one step at a time. I think the most important thing about micro servers and putting TK1 in the server is really the software stack. And the software stack we’re building for GRID can very well eventually be used on top of Tegra as well.
http://seekingalpha.com/article/2205803-nvidias-nvda-ceo-jen-hsun-huang-on-q1-2015-results-earnings-call-transcript?part=single
http://www.computerworld.com/s/article/9248238/Nvidia_39_s_Tegra_K1_chip_could_wind_up_in_servers
Nvidia, known for its graphics chips, has been planning a server chip for years. In 2011, Nvidia announced it was building a new 64-bit chip called Project Denver, which would also go into servers. Later that year, Nvidia said in an interview that it was looking to pair Tegra chips with GPUs in servers, but those plans haven't yet materialized. Barcelona Supercomputing Center in Spain announced a supercomputer based on Tegra 3, but later shifted its focus to Samsung's Exynos ARM-based chips.
Dural
2014-08-11, 13:44:34
hat NV nicht zuletzt gesagt das die Software Basis im Server Bereich einfach noch nicht vorhanden ist?
Ailuros
2014-08-11, 13:58:28
Wo list du, dass Server aufgegeben werden?
Ein K1 wäre doch so nicht in einen Server gewandert. Es würden Tesla Karten mit ARM CPUs bestückt werden, entsprechendes würde gar nicht als separater SoC bei nVidia laufen.
Zudem ist der Zusammenhang zwischen X-Gene und nVidia sicherlich diskutabel.
Wo 64-Bit ARM Server mit Tesla schon längst gezeigt und von nVidia selbst beworben werden. Dort steht ja der X-Gene 2 momentan aus. Das da mehr zwischen APM(X-Gene) und nVidia hinter den Kulissen läuft, wird ja schon länger durchs Netz spekuliert.
Es geht um SoCs mit custom ARM cores fuer servers und diese wurden genauso wie bei Samsung storniert. http://www.xbitlabs.com/news/cpu/display/20120921010327_Nvidia_Develops_High_Performance_ARM_Based_Boulder_Microprocessor _Report.html
Muessen wir jeden Scheiss wirklich so OFT wiederholen bis es endlich sitzt?
Avalox
2014-08-12, 06:26:57
nvidia hat ein paar Infos zum Denver K1 veröffentlicht. Pin Kompatibilität zum 32 Bit K1, dynamische Code Analyse und Optimierung, sowie schnell reagierendes Powermanagement wird der SoC bieten.
http://blogs.nvidia.com/blog/2014/08/11/tegra-k1-denver-64-bit-for-android/
AnarchX
2014-08-12, 07:16:29
Die Dynamic Code Optimization ist der wohl der Überrest vom x86 zu ARM-Microcode-Wrapper?
Benchmarks:
http://i.imgur.com/2e0VZkz.png
http://www.cnx-software.com/2014/08/12/specs-benchmark-nvidia-tegra-k1-denver-64-bit-arm-soc/
AffenJack
2014-08-12, 08:30:32
Das dürfte auf jeden Fall das abgefahrenste Core-Konzept dieser Generation werden und zeigt klar, dass die Transmetaleute das Ding gebaut haben. Ich frage mich, wie Effizient dieser Softwarelayer wird und was da am Ende wirklich rauskommt im Vergleich zu den ganzen Out of Order Architekturen. Könnte das Ding nicht deutlich Codeabhängiger in seiner Geschwindigkeit sein?
Techreports Artikel zu Denver:
http://techreport.com/news/26906/nvidia-claims-haswell-class-performance-for-denver-cpu-core
Timbaloo
2014-08-12, 08:45:16
Öhmmm, warum sollte Denver bei 16MB Memread gegenüber dem 32Bit-K1 mehr als doppelt so schnell sein?
Ailuros
2014-08-12, 09:34:06
Das dürfte auf jeden Fall das abgefahrenste Core-Konzept dieser Generation werden und zeigt klar, dass die Transmetaleute das Ding gebaut haben. Ich frage mich, wie Effizient dieser Softwarelayer wird und was da am Ende wirklich rauskommt im Vergleich zu den ganzen Out of Order Architekturen. Könnte das Ding nicht deutlich Codeabhängiger in seiner Geschwindigkeit sein?
Techreports Artikel zu Denver:
http://techreport.com/news/26906/nvidia-claims-haswell-class-performance-for-denver-cpu-core
Erster Eindruck ist durchaus positiv fuer eine in order CPU; aaaaaber ich will Echtzeit-Leistung, relative Frequenzen in finalen Geraeten und Stromverbrauch sehen. NV mag zwar wieder kunterbunt uebertreiben mit Haswell alike Leistung aber dieses muss sich in Echtzeit erstmal auch beweisen koennen.
Zweiter Gedanke: kein "told you so" Charlie dearest :devil:
Dural
2014-08-12, 10:30:38
also die Benchmarks hauen mich jetzt nicht um, das ist Pi mal Daumen nur ca. 50% schneller als der A15 und das war definitiv das min. was NV bringen muss. Da wird der Quad K1 bei guter Optimierung wohl manchmal vor dem Dual Core Denver liegen.
YfOrU
2014-08-12, 10:54:25
Die Folie sieht auf den ersten Blick gut aus aber im Detail ist das meiner Ansicht nach ganz schön grenzwertig. Primär SC Benchmarks und zum Beispiel:
N2910: 1,6 Ghz, 4C, Baytrail - kein Turbo
2955U: 1,4 Ghz, 2C, Haswell - kein Turbo
Da K1 64 bezogen auf die Zeitachse im Rahmen von Cortex A57, Apple A8, Cherry Trail, Broadwell Y etc. zu sehen ist... Lass mich ja gern überraschen aber besonders überzeugend ist das aktuell nicht.
fondness
2014-08-12, 12:24:48
Kein OoO-Exec erklärt dann auch warum 7 way superscalar.
Die Folie sieht auf den ersten Blick gut aus aber im Detail ist das meiner Ansicht nach ganz schön grenzwertig. Primär SC Benchmarks und zum Beispiel:
N2910: 1,6 Ghz, 4C, Baytrail - kein Turbo
2955U: 1,4 Ghz, 2C, Haswell - kein Turbo
Da K1 64 bezogen auf die Zeitachse im Rahmen von Cortex A57, Apple A8, Cherry Trail, Broadwell Y etc. zu sehen ist... Lass mich ja gern überraschen aber besonders überzeugend ist das aktuell nicht.
Sehe ich auch so, und das sind immerhin von NV selektierte Werte.
Ailuros
2014-08-12, 12:33:16
War es nicht so dass dual Denver nur in die quadA15/K1 Leistungsregion in Antutu kam mit einer Frequenz von 3.0GHz? Wenn all die benchmarks mit einer vergleichbaren Frequenz getestet wurden dann sieht es bei schaetzungsweise 2.3GHz realistischerer Frequenz in einem ultra thin tablet dann sofort anders aus.
Martin171
2014-08-12, 23:10:48
Mein Shield wurde heute versendet und wird wohl morgen eintreffen. Bin echt gespannt auf das Teil :).
Dural
2014-08-13, 12:55:47
32 oder 16GB Version?
Meine bestellte 32GB Version hat als Liefertermin 19.09
BlackBirdSR
2014-08-13, 13:11:01
Hat keiner Angst, dass nvidia damit Benchmarks nach belieben "optimieren" kann, wenn man den Code selbst neu zusammensetzt, nachdem man ihm vorher ausgiebig studiert hat? Dann haben wir das gleiche Problem wie zum ati vs. Nvidia Benchmark Hoch vor einigen Jahren.
Dural
2014-08-13, 13:18:18
Ich hoffe doch schwer das die Optimieren, Software war schon immer eine Stärke von NV.
Ich denke aber nicht das da die Bildqualität drunter leiden wird, die Zeiten sind doch definitiv vorbei.
Avalox
2014-08-13, 13:20:14
Dann haben wir das gleiche Problem wie zum ati vs. Nvidia Benchmark Hoch vor einigen Jahren.
Liefern heute die Grafikkarten Hersteller keine eigenen Austausch Shader für Benchmarks mehr?
Es ist aber natürlich eine schwere Frage, wo die Optimierung anfängt und wo aufhört. Möglich wäre ja ein kompletter Ersatzcode für Benchmark Aspekte mitzuliefern. Die Optimierung könnte ja auch bei der CPU bis zur Ersetzung getrieben werden.
BlackBirdSR
2014-08-13, 13:30:41
Von Bildqualität rede ich nicht. Prinzipiell könnte man mit dem Software layer durch Optimieren nach einigen Durchläufen das fertige Ergebnis aus der Retire Stage nehmen und als simple copy Ergebnis in Register operation wieder an die CPU übergeben. Das wäre interessant für Benchmarks wie sunspider, welche x-mal gleich durchlaufen... Nicht dass ich das jetzt unterstellen möchte.
Ich hoffe doch schwer das die Optimieren, Software war schon immer eine Stärke von NV.
Ich denke aber nicht das da die Bildqualität drunter leiden wird, die Zeiten sind doch definitiv vorbei.
Ailuros
2014-08-13, 13:38:30
Hat keiner Angst, dass nvidia damit Benchmarks nach belieben "optimieren" kann, wenn man den Code selbst neu zusammensetzt, nachdem man ihm vorher ausgiebig studiert hat? Dann haben wir das gleiche Problem wie zum ati vs. Nvidia Benchmark Hoch vor einigen Jahren.
Teil Deiner Antwort liegt in den "render quality" tests hier: http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=NVIDIA%20Shield%20tablet
NV's scores sind hier so hoch weil sie durchgehend FP32 fuer diese benutzen.
Sonst haette ich solge Sorgen wenn die GK20A GPU im K1 keine 192 SPs bei schaetzungweise durchschnittlichen 650MHz bzw. ~250 GFLOPs von der GPU liefern wuerde. Da es mehr als 2x mehr FLOPs sind als die Apple A7 GPU und Gfxbench3.0/Manhattan verdammt ALU limitiert sind die Resultate stinknormal.
Sonst hatten sie in der Vergangenheit durchgehend fuer Z FP16 benutzt welches zu ziemlich stoerendem Z-aliasing fuehrte. Bei Tegra3 war aus damit und sie waren auch nicht der einzige IHV der es so anlegte um etwas Leistung dazu zu gewinnen. Auf den ersten Malis bzw. Adrenos war es genauso.
Sonst bescheisst allmaechtig die marketing-Abteilung fuer Tegra die nur aus Vollidioten bestehen kann. Ich bin zu faul den slide auszugraben wo sie eine Tesla K40 GPU mit ihrem wahren TDP gegen den Echtzeit-Verbrauch eines Tegra K1 SoCs vergleichen und den zweiten natuerlich als die magische Wundertuete hinzustellen. Daemlicher geht es gar nicht mehr; wenn sich jetzt jemand die Muehe machen wuerde und den Inhalt der Tabelle mit dem wahren hw TDP eines K1 von 33W vergleichen wuerde, dann sollte es wohl klar sein dass K1 nicht mit pixy dust entwickelt wurde.
Ich kann die slide jetzt nicht mehr finden aber: http://wccftech.com/stats-nvidia-tegra-k1-superchip-wattage-finally-revealed/
Es sind um genau zu sein 9.87 SGEMM SP GFLOPs/W fuer Tesla K40 vs. 8.8 SGEMM SP GLOPs/W und eben nicht 26 wie behauptet :D
robbitop
2014-08-13, 14:08:55
Hat keiner Angst, dass nvidia damit Benchmarks nach belieben "optimieren" kann, wenn man den Code selbst neu zusammensetzt, nachdem man ihm vorher ausgiebig studiert hat? Dann haben wir das gleiche Problem wie zum ati vs. Nvidia Benchmark Hoch vor einigen Jahren.
Kannst du einschätzen, wie gut dieses Code Reordering ohne Optimierung Out of the box funktioniert?
Kann das gegen einen Hardware OoO Kern mit vergleichbaren Ressourcen mithalten?
NV wird ja sicher nicht den Code jeder App optimieren. Das wäre sicher eine zu große Aufgabe...
fondness
2014-08-13, 14:15:31
Ich denke nicht dass das irgendjemand abschätzen kann wie gut das wirklich funktioniert. Wird vom Anwendungsfall abhängen. Im Zweifelsfall habe ich das Zeug jedenfalls lieber in Hardware als mich auf NVs Softwareoptimierungen verlassen zu müssen.
hasebaer
2014-08-13, 16:52:04
Wäre Dynamic Code Optimization nicht auch super für Grafikkarten?
Gab ja schon Aussagen (Gerüchte), dass die ARM Cores als sie noch für Maxwell geplant waren, hier das gleiche für D3D erreichen können,
was Mantle erreicht, wenn man darüber direkt den Treiber laufen lässt.
Wäre Dynamic Code Optimization nicht auch super für Grafikkarten?
Das macht der Treiber.
Ailuros
2014-08-13, 18:12:03
http://www.hotchips.org/wp-content/uploads/hc_archives/hc26/HC26-11-day1-epub/HC26.11-2-Mobile-Processors-epub/HC26.11.234-Denver-Darrell.Boggs-NVIDIA-rev4.pdf
Denver Praesentation von hotchips.
Nakai
2014-08-13, 18:17:53
Wäre Dynamic Code Optimization nicht auch super für Grafikkarten?
Gab ja schon Aussagen (Gerüchte), dass die ARM Cores als sie noch für Maxwell geplant waren, hier das gleiche für D3D erreichen können,
was Mantle erreicht, wenn man darüber direkt den Treiber laufen lässt.
Soll ich wieder das Pastebin verlinken? :freak:
Nahezu alles davon entspricht nicht der Realität. Plausibel ja, realistisch ja, aber so wird es wohl nicht kommen.
Denver Praesentation von hotchips.
Denver hat statt OoO DYNAMIC CODE OPTIMIZATION? Warten wir mal auf Real-World Benches ab.
Ailuros
2014-08-13, 18:23:22
Denver hat statt OoO DYNAMIC CODE OPTIMIZATION? Warten wir mal auf Real-World Benches ab.
http://forum.beyond3d.com/showpost.php?p=1865740&postcount=2811
Den Bloedsinn den ich darauf teilweise als Antworten bekam kannst Du ruhig weiterlesen. Ich muss aber einen Rueckzieher machen dass Denver in Antutu NIE auf 3.0GHz getaktet war; Nebu's Punkt macht Sinn.
Undertaker
2014-08-13, 18:59:24
Die Folie sieht auf den ersten Blick gut aus aber im Detail ist das meiner Ansicht nach ganz schön grenzwertig. Primär SC Benchmarks und zum Beispiel:
N2910: 1,6 Ghz, 4C, Baytrail - kein Turbo
2955U: 1,4 Ghz, 2C, Haswell - kein Turbo
Bay Trail wäre schon der passende Gegner, auf den N2910 könnte man jetzt noch den Mehrtakt der schnelleren Modelle mit bis zu 2,4 GHz draufrechnen. Je nach dem, wie cherry-picked die Werte sind, ist das schon nicht so übel. Hauptziel ist in jedem Fall, den Cortex-A57 bei gleichem Verbrauch zu schlagen, mehr wird Marktführer Qualcomm Anfang 2015 nicht zu bieten haben.
fondness
2014-08-13, 19:13:29
Nur das Qualcomm ein Jahr später nachlegt. Würde man A57 nicht schlagen wäre der Chip bestenfalls überflüssig.
Undertaker
2014-08-13, 19:27:53
Erstmal muss Qualcomm nachlegen, was voraussichtlich nicht so zeitnah passieren wird, denn sonst würde man nicht Anfang 2015 die ersten A57-SoCs ins Rennen schicken. Wie schon gesagt: Alles, was besser als A57 ist, ist auch mindestens besser als der gesamte Markt mit Ausnahme von Intel und Apple. Und wenn ein im Vergleich zu Qualcomm so winziger Hersteller wie Nvidia nicht nur die bessere GPU, sondern auch die bessere CPU haben sollte, wäre das schon beachtlich. ;)
Aber ja: Würde Denver A57 nicht übertreffen, gäbe es keine Berechtigung dafür. Insofern kann man wohl mit einer höheren Leistung/Effizienz rechnen. Interessant wird das Ausmaß.
Skysnake
2014-08-14, 11:26:48
http://www.hotchips.org/wp-content/uploads/hc_archives/hc26/HC26-11-day1-epub/HC26.11-2-Mobile-Processors-epub/HC26.11.234-Denver-Darrell.Boggs-NVIDIA-rev4.pdf
Denver Praesentation von hotchips.
Kann man nicht ansehen, weil es hinter nem PW login steckt.
Hat das jemand so? Gern auch per PM
Ailuros
2014-08-14, 11:35:28
Kann man nicht ansehen, weil es hinter nem PW login steckt.
Hat das jemand so? Gern auch per PM
https://drive.google.com/file/d/0B8mBa_eA8Zf2anBYZHBzX3FueGc/edit?usp=sharing
Gipsel
2014-08-14, 11:55:28
Die Shield-Posts wurden in den Shield-Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10313997#post10313997) verschoben.
Skysnake
2014-08-14, 14:14:55
https://drive.google.com/file/d/0B8mBa_eA8Zf2anBYZHBzX3FueGc/edit?usp=sharing
Danke :up:
Bin eigentlich nur ich total überrascht von dem blockbild?
Das sieht doch tatal ähnlich zu nem stink normalen ARM aus.
2Integer Units
2FP Units
2 Load Store Units
Was Sie halt dazu bebaut haben ist, das die LD ST Units sowohl als auch machen können, und dazu noch Int, und eine Int auch Mul.
Aber am FP Durchsatz sollte sich mal rein gar nichts getan haben. Das sind die gleichen Einheiten :freak:
Also wenn tut sich rein was an der Integerperformance. Aber die FP leistung eines Denver wird unter der einen ARM Quads liegen, weil er eben nur die halbe Anzahl an FP Units hat.
Also ich weiß nicht, so schick ist das nicht wirklich!
Dural
2014-08-14, 14:19:05
wie kann man von einem Blockdiagramm ablesen ob es die selben Einheiten sind? :confused:
Aber ja, mir viel das gestern auch auf, der Aufbau sieht nicht wirklich viel anders aus.
Ailuros
2014-08-14, 14:30:18
Danke :up:
Bin eigentlich nur ich total überrascht von dem blockbild?
Das sieht doch tatal ähnlich zu nem stink normalen ARM aus.
2Integer Units
2FP Units
2 Load Store Units
Was Sie halt dazu bebaut haben ist, das die LD ST Units sowohl als auch machen können, und dazu noch Int, und eine Int auch Mul.
Aber am FP Durchsatz sollte sich mal rein gar nichts getan haben. Das sind die gleichen Einheiten :freak:
Also wenn tut sich rein was an der Integerperformance. Aber die FP leistung eines Denver wird unter der einen ARM Quads liegen, weil er eben nur die halbe Anzahl an FP Units hat.
Also ich weiß nicht, so schick ist das nicht wirklich!
Ich kann Dir die Fragen so noch nicht beantworten und ehrlich ohne zu sehen wie die Echtzeit-Effizienz aussieht, hat es auch ziemlich wenig Sinn. Dass sie eine Gurke entwickelt haben kann ich mir schwer vorstellen. Um etwas effizienter als ein A57 muesste das Tier schon sein; wo die Effizienz jetzt versteckt liegen koennte musst Du jemand anderen fragen.
mboeller
2014-08-14, 15:37:11
Ich kann Dir die Fragen so noch nicht beantworten und ehrlich ohne zu sehen wie die Echtzeit-Effizienz aussieht, hat es auch ziemlich wenig Sinn. Dass sie eine Gurke entwickelt haben kann ich mir schwer vorstellen. Um etwas effizienter als ein A57 muesste das Tier schon sein; wo die Effizienz jetzt versteckt liegen koennte musst Du jemand anderen fragen.
Warum kannst du dir nicht vorstellen das sie eine Gurke entwickelt haben? Die Server-Pläne sind doch schon ein IMHO deutlicher Hinweis das sie nicht besser oder nicht viel besser sind als ein A57, dabei aber nur die halbe Anzahl an Kernen unterbringen können (siehe die beiden K1-Varianten).
robbitop
2014-08-14, 15:43:56
Aber am FP Durchsatz sollte sich mal rein gar nichts getan haben. Das sind die gleichen Einheiten :freak:
Denver hat doch breitere FPUs. 2x 128 bit statt 2x 64 bit.
Ailuros
2014-08-14, 15:55:03
Warum kannst du dir nicht vorstellen das sie eine Gurke entwickelt haben? Die Server-Pläne sind doch schon ein IMHO deutlicher Hinweis das sie nicht besser oder nicht viel besser sind als ein A57, dabei aber nur die halbe Anzahl an Kernen unterbringen können (siehe die beiden K1-Varianten).
Weil ich immer noch den Eindruck habe dass Denver und Boulder zweierlei Eier waren.
mboeller
2014-08-14, 21:23:44
https://drive.google.com/file/d/0B8mBa_eA8Zf2anBYZHBzX3FueGc/edit?usp=sharing
Danke!
Trotz dieses massiven Aufwands mit 7 Executing Engines sind sie bei ~~1 IPC (bei SPECInt). Ist das nicht wenig? Oder liegen die bisherigen ARM CPUs noch niedriger? Die AMD Bulldozer wurden wegen dieser geringen IPC ja von allen belächelt.
|MatMan|
2014-08-14, 21:32:20
Danke!
Trotz dieses massiven Aufwands mit 7 Executing Engines sind sie bei ~~1 IPC (bei SPECInt). Ist das nicht wenig? Oder liegen die bisherigen ARM CPUs noch niedriger? Die AMD Bulldozer wurden wegen dieser geringen IPC ja von allen belächelt.
Da steht "ratio" an der Achse, also "Verhältnis", d.h. die Werte sind auf irgendwas normiert.
Absolute Messwerte sieht man in dem pdf nur wenige... :(
hasebaer
2014-08-14, 21:32:26
Ein 5W Denver hat die selbe IPC wie ein 220W Bulldozer?
fondness
2014-08-14, 21:36:31
Ein 5W Denver hat die selbe IPC wie ein 220W Bulldozer?
Mit den Taktraten von Denver gibt es Bulldozer mit vier Threads (inkl. weitaus mächtigerer FPU) und weitaus stärkerer GPU auch in 19W TDP Ausführung. Wenn man schon so einen sinnlosen Vergleich machen will.
hasebaer
2014-08-14, 22:13:53
Das war eine überspitzte Frage, nach dem Sinn dieses Vergleiches.
Ein mobiles CPU Design auf der einen Seite und dann ein CPU Design das primär für Server taugt.
Wenn da die IPC tatsächlich ähnlich sein sollte (ich hab keine Ahnung ob dem so ist), ist doch der Einsatzzweck grundverschieden und was man bei dem einen kritisieren kann (Bulli - weil es weniger als K10 war),
ist bei dem Anderen (Denver) nicht automatisch kritikwürdig.
Weil mobile Designs immer ein Kompromiss aus Durchsatz und Verbrauch sein müssen.
Ailuros
2014-08-15, 09:55:11
Weil mobile Designs immer ein Kompromiss aus Durchsatz und Verbrauch sein müssen.
Und der Kompromiss kommt zunehmend von aggressiveren DVFS settings; anders Du bekommst zunehmend faehigere hw im ULP mobile aber auch mit um einiges mehr quasi throttle-Massnahmen in sw als je zuvor. Fuer ein paar (in Echtzeit bedeutungslose) Sekunden bekommst Du dann schon wahrscheinlich N leistung von einem ULP design, nur kann N eben nie ueber laengere Zeit eingehalten werden und das auf allen designs.
robbitop
2014-08-15, 10:09:12
Zumal Denver ja so breit nun auch wieder nicht ist. 2x LS, 2x INT, 2x FPUs, 1x Branch
Bei den LS Units ist es wirklich die Frage, ob das volle INT ALUs sind oder wie beim Bulldozer AGLUs, die nur ein paar wenige INT Befehle können. 2x INT und 2x FPU ist jetzt nicht so sehr breit.
Avalox
2014-08-15, 11:49:00
Denver hat doch breitere FPUs. 2x 128 bit statt 2x 64 bit.
Da frage ich mich seit Tagen, was damit gemeint ist. Weil die FPU und NEON Register kann man schon seit einigen VFP Revisionen 128 Bit breit nutzen. Dieses auch im K1 32, weil es schlicht ein aktueller Cortex ist.
Nutzt nVidia mehr Register einer eigenen VFP Implementierung im K1 64? Wer nutzt diese dann?
mboeller
2014-08-15, 13:44:05
Ein 5W Denver hat die selbe IPC wie ein 220W Bulldozer?
...du hättest den 5W Denver ja auch mit dem 4W QuadCore Mullins von AMD vergleichen können. Der hat schon eine höhere IPC und der Kern ist sehr wahrscheinlich kleiner als ein Denver-Core.
Avalox
2014-08-15, 13:49:01
...du hättest den 5W Denver ja auch mit dem 4W QuadCore Mullins von AMD vergleichen können. Der hat schon eine höhere IPC und der Kern ist sehr wahrscheinlich kleiner als ein Denver-Core.
Wie hoch ist denn die IPC von Denver?
robbitop
2014-08-15, 13:52:19
...du hättest den 5W Denver ja auch mit dem 4W QuadCore Mullins von AMD vergleichen können. Der hat schon eine höhere IPC und der Kern ist sehr wahrscheinlich kleiner als ein Denver-Core.
Ohne das Wissen um Denvers IPC halte ich die Aussage im Moment für sehr gewagt.
Avalox
2014-08-15, 13:54:40
Ohne das Wissen um Denvers IPC halte ich die Aussage im Moment für sehr gewagt.
ist eh nicht vergleichbar, weil es ja schließlich nicht die x86 Instruktionen sind.
robbitop
2014-08-15, 13:55:35
ist eh nicht vergleichbar, weil es ja schließlich nicht die x86 Instruktionen sind.
Man kann (bzw muss zukünftig) auch über ISAs hinweg µ-Architekturen vergleichen können.
Avalox
2014-08-15, 13:56:23
Man kann (bzw muss zukünftig) auch über ISAs hinweg µ-Architekturen vergleichen können.
IPC ist da sicherlich kein Mittel der Wahl.
Ich kann mir vorstellen, dass A15 zwar 128 bit FP ausführen kann, aber vieleicht braucht man pro FPU dann 2 Takte oder muss beide FPs zusammenschalten.
Wenn mich nicht alles täuscht, dann ist das eben genau mit A15 ( eben VFPv4) eben nicht mehr der Fall.
Tatsächlich war es mal beim Cortex 8 der Fall gewesen, der auch schon 128 Bit Register bot. Es ist ja gerade eine Neuerung des Cortex A15 gewesen, dass er dort 128 Bit Neon/FP Register komplett in einem Durchgang bearbeiten kann.
robbitop
2014-08-15, 14:00:30
IPC ist da sicherlich kein Mittel der Wahl.
Nicht IPC im Sinne, wieviele Instructions per Cycle dabei herauskommen. Eher weiter gefasst: wie viel Punkte/fps in Benchmarks bei normiertem Takt herauskommen.
Das meint die breite Masse (und die meisten Redaktionen) mit dem Begriff IPC. Eigentlich müsste man sagen "taktnormierte Leistung (im Mittel von Anwendungen)".
Da frage ich mich seit Tagen, was damit gemeint ist. Weil die FPU und NEON Register kann man schon seit einigen VFP Revisionen 128 Bit breit nutzen. Dieses auch im K1 32, weil es schlicht ein aktueller Cortex ist.
Nutzt nVidia mehr Register einer eigenen VFP Implementierung im K1 64? Wer nutzt diese dann?
Ich kann mir vorstellen, dass A15 zwar 128 bit FP ausführen kann, aber vieleicht braucht man pro FPU dann 2 Takte oder muss beide FPs zusammenschalten.
Bei einem Sprung von 64 bit auf 128 bit muss man die Anbindung an die Register und L1, L2 Caches verdoppeln und die Register selbst. Das ist sicher teuer. Ich kann mir vorstellen, dass beim A15 die Situation analog zum Jaguar mit AVX ist. Jaguar braucht halt 2x Takte für 256 bit AVX. Oder Bobcat braucht 2 takte für eine 128 bit SSE Instruktion.
Denver schafft es dann ggf. in einem Takt. So oder so ähnliche Bottlenecks wird es schon geben. Sonst hätte NV es nicht in der Präsentation.
robbitop
2014-08-15, 14:04:10
. Es ist ja gerade eine Neuerung des Cortex A15 gewesen, dass er dort 128 Bit Neon/FP Register komplett in einem Durchgang bearbeiten kann.
Es wird schon seine Richtigkeit haben, dass NV 2x 64 bit hinschreibt. Irgendeine Limitierung wird es schon geben. NV entwickelt und verbaut ARM Architekturen. Die wissen worüber sie sprechen.
Interessant wäre allerdings, genaueres zu erfahren.
Avalox
2014-08-15, 14:05:54
Es wird schon seine Richtigkeit haben, dass NV 2x 64 bit hinschreibt. Irgendeine Limitierung wird es schon geben. NV entwickelt und verbaut ARM Architekturen. Die wissen worüber sie sprechen.
Die nVidia Folie ist da garantiert in sich korrekt. Nur einen Reim tue ich mir nicht machen.
Offensichtlich ist die FP Performance auch deutlich höher.
Interessant wäre allerdings, genaueres zu erfahren.
Absolut.
Unicous
2014-08-15, 14:30:30
Ich finde nicht, dass man ARM und x86 einfach so vergleichen kann. Und besonders nicht mit fps Benchmarks.
Wenn der eine Chip bestimmte Befehlssätze oder spezielle code paths nutzt der andere aber nicht, kann man schon den ganzen Vergleich vergessen. Und bei verschieden OS ist es müßig einen Vergleich anzustreben.
Intel als auch AMD haben einen Batzen an Ballast, während ARM Chips erst in den letzten Jahren aufgeblasen werden. Speziell Intel und ARM kommen sich immer näher und das gereicht meines Erachtens nicht ARM zum Vorteil. ARM und Anhängerschaft hat aber von dem Besten gelernt und ein schönes (Quasi-)Monopol aufgebaut. Da kann Intel sich noch so winden, um dagegen auf Dauer anzukommen müssten sie ihre x86 Architektur gründlich renovieren.
Ailuros
2014-08-15, 14:36:11
Ich finde nicht, dass man ARM und x86 einfach so vergleichen kann. Und besonders nicht mit fps Benchmarks.
Wenn der eine Chip bestimmte Befehlssätze oder spezielle code paths nutzt der andere aber nicht, kann man schon den ganzen Vergleich vergessen. Und bei verschieden OS ist es müßig einen Vergleich anzustreben.
Intel als auch AMD haben einen Batzen an Ballast, während ARM Chips erst in den letzten Jahren aufgeblasen werden. Speziell Intel und ARM kommen sich immer näher und das gereicht meines Erachtens nicht ARM zum Vorteil. ARM und Anhängerschaft hat aber von dem Besten gelernt und ein schönes (Quasi-)Monopol aufgebaut. Da kann Intel sich noch so winden, um dagegen auf Dauer anzukommen müssten sie ihre x86 Architektur gründlich renovieren.
Ist zwar ziemlich OT aber egal wie man es dreht ist CPU IP nahezu ideal in einem Markt wie ULP SoC. Noch um einiges mehr wenn grosse SoC Hersteller noch dazu den Luxus haben nur ARM ISA zu lizenzieren und einen custom core darauf zu entwickeln.
Avalox
2014-08-15, 14:39:25
Ich finde nicht, dass man ARM und x86 einfach so vergleichen kann.
Natürlich nicht. ARM und der Befehlssatz kommt aus der RISC Historie und K1 64 ist 7-fach superskalar.
Da kommt jemand noch auf die Idee, dass der IPC bei 7 liegt und dieses dann mit einem x86 CISC entstammenden System zu vergleichen. Obwohl das natürlich lustig wäre.
Kann man knicken.
mboeller
2014-08-15, 16:16:30
Wie hoch ist denn die IPC von Denver?
laut Nvidia (siehe Hotchip-Präsentation) bei SpecInt <=1
robbitop
2014-08-15, 16:22:24
Am Ende sind die Dinger doch sowieso nur nach außen hin "ARM" oder "x86". Dahinter sitzen dann Decoder. Am Ende wird sich x86 mit ARM auf der Android Plattform messen müssen. Egal was man "kann" oder nicht. Die Compiler werden dahingehend sicher auch so optimiert, dass es einigermaßen vergleichbar ist. Am Ende hat der Kunde dann die Wahl zwischen einem ARM Gerät oder einem x86 Gerät. Und ihn interessiert vor allem Performance.
Dural
2014-08-15, 16:31:14
Glaube kaum das die Performance dem 0815 Kunden im Tablet Bereich von Bedeutung ist, es muss flüssig laufen einen Namen tragen und mit hohen Technischen Werten (GHz, Anzahl Kerne, 64Bit) glänzen, der Rest ist egal.
Undertaker
2014-08-15, 16:48:50
Da kann Intel sich noch so winden, um dagegen auf Dauer anzukommen müssten sie ihre x86 Architektur gründlich renovieren.
Inwiefern hat Silvermont ein Problem, gegen die ARM-Konkurrenz anzukommen? Die Perf/Watt zählt zum Besten, was man derzeit in dieser Verbrauchsklasse bekommen kann.
Avalox
2014-08-15, 17:53:03
laut Nvidia (siehe Hotchip-Präsentation) bei SpecInt <=1
Ich denke doch das ist ein Faktor, keine direkt lesbarer Wert. Es zeigt nur die Arbeit und das Ergebnis der Code Ausführungsoptimierung.
Lustigerweise habe ich beim durchsehen gesehen, dass nVidia tatsächlich den IPC auf einer der Folien angegeben hat.
K1 64 ein IPC von 7 und mehr.
Steht da auf einer der Folien.
Den Wert kann man aber vergessen, wie geschrieben. ist auch nicht vergleichbar mit x86 IPC.
Mancko
2014-08-15, 20:43:09
ARM und Anhängerschaft hat aber von dem Besten gelernt und ein schönes (Quasi-)Monopol aufgebaut. Da kann Intel sich noch so winden, um dagegen auf Dauer anzukommen müssten sie ihre x86 Architektur gründlich renovieren.
Die x86 Architektur gründlich renovieren wird nicht ausreichen. Sie müssen sie zu fairen Bedingungen für andere öffnen. Und schon allein weil das nicht der Fall ist tun alle anderen sehr gut daran ARM weiter zu pushen und Intel in die Enge zu treiben. Was bessere kann dem Markt und den Kunden im übrigen gar nicht passieren. Ich begrüße das ausdrücklich, wenn Intel über die nächsten Jahre die Rechnung präsentiert bekommt. AMD war dazu nie in der Lage. Jetzt hat es Intel aber in Summe mit einer Armada von Konzernen zu tun die jeder für sich schon Minimum die gleiche Größe wie Intel aufweisen und die ebenfalls endlose Finanzquellen zur Verfügung haben.
fondness
2014-08-16, 11:45:27
Die x86 Architektur gründlich renovieren wird nicht ausreichen. Sie müssen sie zu fairen Bedingungen für andere öffnen. Und schon allein weil das nicht der Fall ist tun alle anderen sehr gut daran ARM weiter zu pushen und Intel in die Enge zu treiben. Was bessere kann dem Markt und den Kunden im übrigen gar nicht passieren. Ich begrüße das ausdrücklich, wenn Intel über die nächsten Jahre die Rechnung präsentiert bekommt. AMD war dazu nie in der Lage. Jetzt hat es Intel aber in Summe mit einer Armada von Konzernen zu tun die jeder für sich schon Minimum die gleiche Größe wie Intel aufweisen und die ebenfalls endlose Finanzquellen zur Verfügung haben.
Was genau soll man denn an der x86-Architektur "renovieren"? Es gab mal das Problem der relativ knappen Register, aber das hat sich mit AMD64 auch erledigt. Ansonsten frage ich mich wer der anderen Intel in die Enge treiben soll. Viele haben zwar genug Geld, aber absolut niemand außer ironischerweise AMD hat knowhow oder hält maßgebliche Patente im CPU-Design. Qualcomm noch ein wenig, NV versucht sich jetzt auch darin, aber Intel schlägt man nicht mal eben im high performance / high clock Bereich. Niemand hat eigenen Fabs außer Samsung, die aktuell noch nicht mal daran denken eigenen CPUs zu designen. Intel verteidigt ihre Marktposition gerade wieder mit Dumpingpreisen und dicken Werbeverträgen, ich bin gespannt wie es weiter geht, aber würde auch nicht ausschließen dass das Pendel wieder in die andere Richtung ausschlägt.
Aber ja: Würde Denver A57 nicht übertreffen, gäbe es keine Berechtigung dafür. Insofern kann man wohl mit einer höheren Leistung/Effizienz rechnen. Interessant wird das Ausmaß.
Faktum ist erstmal das sie nur 2 statt 4 Kerne verbauen können. Denver verbraucht also wohl deutlich mehr Strom und Die-Fläche wie ein A15 und wohl auch der wenig größere A57. Das muss man erstmal kompensieren, ich bin gespannt, die Benchs sehen jetzt nicht so überragend aus.
Undertaker
2014-08-16, 11:57:38
Die x86 Architektur gründlich renovieren wird nicht ausreichen. Sie müssen sie zu fairen Bedingungen für andere öffnen. Und schon allein weil das nicht der Fall ist tun alle anderen sehr gut daran ARM weiter zu pushen und Intel in die Enge zu treiben. Was bessere kann dem Markt und den Kunden im übrigen gar nicht passieren. Ich begrüße das ausdrücklich, wenn Intel über die nächsten Jahre die Rechnung präsentiert bekommt. AMD war dazu nie in der Lage. Jetzt hat es Intel aber in Summe mit einer Armada von Konzernen zu tun die jeder für sich schon Minimum die gleiche Größe wie Intel aufweisen und die ebenfalls endlose Finanzquellen zur Verfügung haben.
Woher soll der Druck dafür kommen? Seit Android problemlos mit x86-SoCs zusammenarbeitet, genießt Intel den Luxus, eine identische Architektur für den gesamten Markt anbieten zu können. Das wälzt die Entwicklungskosten auf höhere Stückzahlen ab bzw. kann man so niedrigere Margen im Mobile-Geschäft tolerieren. x86 für andere freigeben wäre das Dümmste, was Intel anstellen könnte.
Faktum ist erstmal das sie nur 2 statt 4 Kerne verbauen können. Denver verbraucht also wohl deutlich mehr Strom und Die-Fläche wie ein A15 und wohl auch der wenig größere A57. Das muss man erstmal kompensieren, ich bin gespannt, die Benchs sehen jetzt nicht so überragend aus.
Bekanntermaßen (->Apple) sind zwei schnelle Kerne in diesem Segment vorteilhafter als 4 oder mehr langsamere, da die entscheidenden Anwendungsfälle nun einmal kaum parallelisiert sind. Wäre Denver nicht schneller und effizienter als A15/A57, spräche nichts für eine Implementierung. Qualcomm und viele andere Hersteller sind in Ermangelung eigener 64-Bit-Architekturen dagegen erstmal an die Cortex-Architekturen gebunden, das ist zwangsläufig ein Nachteil.
Hübie
2014-08-16, 12:02:20
Ich wette da wirds noch ne Überraschung geben. ;)
fondness
2014-08-16, 12:26:23
Bekanntermaßen (->Apple) sind zwei schnelle Kerne in diesem Segment vorteilhafter als 4 oder mehr langsamere, da die entscheidenden Anwendungsfälle nun einmal kaum parallelisiert sind. Wäre Denver nicht schneller und effizienter als A15/A57, spräche nichts für eine Implementierung. Qualcomm und viele andere Hersteller sind in Ermangelung eigener 64-Bit-Architekturen dagegen erstmal an die Cortex-Architekturen gebunden, das ist zwangsläufig ein Nachteil.
Mal abwarten was Apple mit dem A8 bringt, 4 Kerne sind heute sicher kein Luxus mehr. Ansonsten bleibt die Frage nach dem Ausmaß der höhere Perf. Für 10% mehr IPC verzichte ich nicht auf 50% der Kerne, ab +50% IPC wird es natürlich interessant. Ansonsten hat NV das Design schon fertig entwickelt und wird es deshalb natürlich auch verbauen, alleine schon weil man sich die Lizenzkosten pro Stück für eine A57 spart kann das Sinn machen, deshalb muss der Chip noch lange nicht überragend sein. Denver wird schon seine Vorteile haben keine Frage, ob er allerdings schneller und effizienter wird, würde ich noch nicht in Stein meißeln.
Undertaker
2014-08-16, 12:36:46
Schau mal was ARM insgesamt mit Milliarden SoCs an Lizenzgebühren einnimmt. ;) Wenn Denver verbaut wird, dann weil architekturell eine Überlegenheit (= bessere Effizienz und in Folge damit höhere Performance, das geht im power-limitierten High-End-Bereich Hand-in-Hand) gegenüber dem A57 da ist, auf die andere Anbieter ohne (vorerst) eigenes 64-Bit-Design verzichten müssen. Da heißt es dann friss oder stirb in Bezug auf den A57, obwohl ich selbigen als solide Evolution des A15 ansehe.
Btw: Der A8 bleibt ebenfalls bei 2 Kernen. Eben weil mehr nicht wirklich viele Vorteile bietet.
AnarchX
2014-08-16, 12:37:16
Könnte Denver im Bezug auf die Emulation von x86 eventuell (deutlich) schneller sein, als bisherige Ansätze auf ARM-HW? *brauchbare Win8 VM auf Shield Tablet 2...*
fondness
2014-08-16, 12:43:23
Schau mal was ARM insgesamt mit Milliarden SoCs an Lizenzgebühren einnimmt. ;) Wenn Denver verbaut wird, dann weil architekturell eine Überlegenheit (= bessere Effizienz und in Folge damit höhere Performance, das geht im power-limitierten High-End-Bereich Hand-in-Hand) gegenüber dem A57 da ist, auf die andere Anbieter ohne (vorerst) eigenes 64-Bit-Design verzichten müssen. Da heißt es dann friss oder stirb in Bezug auf den A57, obwohl ich selbigen als solide Evolution des A15 ansehe.
Gerade da NV Smartphones nicht mehr bedienen will ist "High-End-Bereich" eben nicht gleich "High-End-Bereich" und auch die TDP von Denver keineswegs in Stein gemeißelt. Denver könnte sich genauso in punkto TDP über den bisherigen Lösungen ansiedeln und diese eben nicht ersetzen, dann würde auch beide K1-Vertreter parallel existieren können.
Btw: Der A8 bleibt ebenfalls bei 2 Kernen. Eben weil mehr nicht wirklich viele Vorteile bietet.
Gibt es dazu schon offizielle Aussagen?
Undertaker
2014-08-16, 12:49:40
Gerade da NV Smartphones nicht mehr bedienen will ist "High-End-Bereich" eben nicht gleich "High-End-Bereich" und auch die TDP von Denver keineswegs in Stein gemeißelt.
Tablets sind in dieser Klasse ebenso Power-limitiert wie Smartphones, wenngleich auf einem etwas höheren Niveau. Ohne eine bessere Effizienz gibt es auch hier keine höhere Performance. Ein höherer Lastverbrauch wird durch zwangsläufiges Throttling eingebremst.
Gibt es dazu schon offizielle Aussagen?
Seit wann veröffentlich Apple vor einer Produktvorstellung "offizielle Aussagen"? Wenn die vermutete, deutliche Taktsteigerung des A8 bei annähernd gleicher IPC übrigens wirklich kommt, glaube ich übrigens nicht daran, das Denver da mitkommt. Aber die riesigen Konkurrenten Qualcomm und Samsung nicht nur bei der GPU, sondern auch bei der CPU in Tablets zu übertreffen (und seien es nur ein paar Prozent), wäre schon beachtlich. Überhaupt ist es gerade für Qualcomm sehr beschämend, sich mit der eigenen 64-Bit-Architektur zeitlich so verkalkuliert zu haben.
fondness
2014-08-16, 12:59:05
Tablets sind in dieser Klasse ebenso Power-limitiert wie Smartphones, wenngleich auf einem etwas höheren Niveau. Ohne eine bessere Effizienz gibt es auch hier keine höhere Performance. Ein höherer Lastverbrauch wird durch zwangsläufiges Throttling eingebremst.
Die TDP ist in den letzten Jahren nicht gerade gesunken.
Seit wann veröffentlich Apple vor einer Produktvorstellung "offizielle Aussagen"?
Du hast es als Fakt hingestellt, ich habe nur nachgefragt.
Überhaupt ist es gerade für Qualcomm sehr beschämend, sich mit der eigenen 64-Bit-Architektur zeitlich so verkalkuliert zu haben.
Das stimmt. Je nachdem wie lange man sich verspätet ist es allerdings für Qualcomm wohl kein großes Problem.
Undertaker
2014-08-16, 13:15:56
Die TDP ist in den letzten Jahren nicht gerade gesunken.
Ohne dass sich dabei die thermischen Grenzen geändert haben. Cortex A9 SoCs sind (evtl. mit Ausnahme einiger Quad-Cores) noch nicht an diese gestoßen, aktuelle High-End-Tablets müssen bei Dauerbelastung jedoch allesamt drosseln.
Du hast es als Fakt hingestellt, ich habe nur nachgefragt.
Es sind mehr als nur Gerüchte, dass der A8 ein höher taktender Zweikerner wird. :) Ohnehin können wir Apple mehr oder weniger ausklammern, da weder ein non-Apple-SoC in einem iPad, noch ein Apple-SoC in einem Android-Tablet landen wird. Für technische Vergleiche ist eine Gegenüberstellung interessant, praktisch ist für Tegra eher die Konkurrenzfähigkeit zu Qualcomm & Co. relevant.
Das stimmt. Je nachdem wie lange man sich verspätet ist es allerdings für Qualcomm wohl kein großes Problem.
Mal schauen, wie lange es noch dauert und wie groß das Problem letztlich wird. Nachdem der S810 für H1/15 geplant ist, wird aber wohl noch einige Zeit vergehen; danach mal schauen, wie sich Qualcomms Architektur gegen Denver schlägt, soweit würde ich jetzt nicht spekulieren. Besser als der A57 muss aber auch die werden, um ihren Einsatz zu rechtfertigen.
mboeller
2014-08-16, 13:33:42
Ich wette da wirds noch ne Überraschung geben. ;)
Wahrscheinlich
Denver = InOrder
A57 = Out of Order
...der A57 sollte also alleine deshalb schon schneller sein als der Denver.
Wenn ich mir die alten PDF über "Federation" ins Gedächtnis rufe ist ein OOE-Core bei singleThread ca. 50-100% schneller als ein InOrder Core... kann aber auch an der speziellen Implementierung bei den Federation-Cores liegen.
...und sie sind mit ihrem Denver ja noch nicht einmal die ersten mit einem 64bit ARM SoC für Android auf dem Markt. Das Samsung Note 4 kommt in 2 Versionen. Einmal mit einem 64bit A57/A53 SoC und wird auf der IFA Anfang September vorgestellt.
mboeller
2014-08-16, 16:11:53
http://blog.gsmarena.com/benchmark-tegra-k1-chipset/
Xiaomi Mi Pad 7.9:
CPU OK
GPU impressive
:)
One thing we have to note is that the Xiaomi Mi Pad 7.9 heated up pretty badly. This could just be an issue with the tablet’s hardware not managing to distribute heat efficiently, but the chipset certainly plays its role here.
Blediator16
2014-08-16, 17:38:19
Nach dem Akkutest von Anand sollte man wissen, dass der K1 einiges an Strom zieht, wenn grafisch auwendiges geleistet wird. Genau das, was Tablets brauchen :D
Ailuros
2014-08-16, 17:52:09
Es ist fuer mich immer noch zu frueh selbst eine halbgahre Schlussfolgerung ueber Denver zu ziehen nur mit den paar Papierfranzen und albernen CPU benchmark Resultaten. Ich will die CPU durch Laengen gezogen sehen von unabhaengigen Quellen.
Das mit den 2,4,8 Kernen kann ich so langsam nicht mehr lesen. Es ist bei jeder processing unit scheissegal wie viele Einheiten jedes hat wenn man nicht weiss zu was jegliche Einheit genau faehig ist; dieses gilt fuer CPU, GPUs, DSPs, decoders oder weiss der Geier was noch.
Ich hab vorgestern das MiPad dass ich fuer einen Kumpel bestellt hatte durch ein paar Laengen gezogen; momentan haben wir eine Hitzewelle ergo sind die Temperaturen generell brutal hier in der Gegend. Nach ueber einer Stunde real racing 3 war es schon ziemlich heiss, aber nicht zum Grad dass man sich die Finger verbrennt oder aehnlichen Bloedsinn. Bemerkbar heisser als andere heutige tablets schon.
Die sw Platform ist deutlich schlechter als ich von anderen China-vendors wie Lenovo, Zopo und dergleichen gewoehnt bin. Schuld ist daran NV zwar nicht, aber man beugt sich im gegebenen Fall mit dem Hersteller ueber das Ding und hilft so manches daemliches Wehwehchen auszubuegeln. Und ja Verfuegbarkeit ist verdammt knapp denn die Verkaufsraten von denen ich von online retailers gehoert habe sind laecherlich im Vergleich zur eigentlichen Nachfrage.
Undertaker
2014-08-16, 18:12:45
Das mit den 2,4,8 Kernen kann ich so langsam nicht mehr lesen. Es ist bei jeder processing unit scheissegal wie viele Einheiten jedes hat wenn man nicht weiss zu was jegliche Einheit genau faehig ist; dieses gilt fuer CPU, GPUs, DSPs, decoders oder weiss der Geier was noch.
Ach, als In-Order-Chip kann Denver doch gar nicht schneller als jeglicher OoO-SoC werden und ist folglich sogar schlechter als der seelige Tegra 3. :D
mboeller
2014-08-16, 20:00:33
Ach, als In-Order-Chip kann Denver doch gar nicht schneller als jeglicher OoO-SoC werden und ist folglich sogar schlechter als der seelige Tegra 3. :D
Yup! Du hast es erfasst. Einfach nur ein 64bit ARM A7* der mit 2,5GHz läuft + ein wenig Transmeta Pixie-dust. ;)
Und so toll war zumindest damals der Transmeta-Pixiedust nicht. Ein Transmeta Efficeon war damals mit 1.6 GHz in etwa so schnell wie ein 1.6 GHz Intel Atom. Zumindest laut wikipedia
http://en.wikipedia.org/wiki/Transmeta
*= also eigentlich ein ARM A53 :)
Nakai
2014-08-17, 01:00:21
Der Transmeta-Kern war ziemlich breit. VLIW-Architektur, welche bis zu 8 Slots gleichzeitg verarbeiten kann. Die Hardwareressourcen waren auch sehr breit. Man hatte 11 Ausführungseinheiten(2 LD/ST, 2 ALU, 1 Branch, 1 Control, 1 Alias, 2 SSE/FP, 2 zusätzliche Exec). Auf der CPU lief immer die eigene Software(CMS), auf welcher der eigentliche Code läuft. An sich hatte die CPU nur die eigene ISA und hat die CM-Software benötigt.
Ich bin ja ziemlich gespannt, wie das alles bei Denver läuft. Die Parallelen sind zu erkennen. :freak:
robbitop
2014-08-17, 01:05:47
Faktum ist erstmal das sie nur 2 statt 4 Kerne verbauen können. Denver verbraucht also wohl deutlich mehr Strom und Die-Fläche wie ein A15 und wohl auch der wenig größere A57. Das muss man erstmal kompensieren, ich bin gespannt, die Benchs sehen jetzt nicht so überragend aus.
Außerhalb von irgendwelchen Sinnlos-Synthies muss man gar nichts kompensieren. Kaum eine Reallife Applikation in Android oder iOS profitiert sonderlich von 4 Kernen - aber eben von schnellen einzelnen Kernen. Insofern sind 2 schnelle Kerne in Reallife Applikationen im Moment besser als 4 weniger schnelle.
Quadcore ist im ULP Bereich nur Marketing gewesen. Und um Sinnlosbenchmarks zu gewinnen.
------------
Zum Denver In-Order Thema. Das Ding ist möglicherweise auf Ausführungsebene "in order". Aber offenbar macht diese "Code Optimisation" bereits eine Sortierung der Codereiehenfolge, eh sie ausgeführt ist. Der Effekt ist am Ende der gleiche: weniger Stalls.
In sofern, wenn das gut funktioniert, muss das gar nichts heißen. Im Gegenteil. Die Indizien schließen eher auf relativ hohe taktnormierte Leistung. Etwas anderes erwarte ich von NV auch ehrlich gesagt zum jetzigen Zeitpunkt nicht.
Der Vergleich zum Efficion ist etwas unpassend. Das Design ist uralt (2003). Außerdem hatte das Ding damals immerhin ca. K7...8 IPC - was damals für den Transistoraufwand und thermischen Envelope nicht allzu schlecht war.
http://www.tecchannel.de/pc_mobile/notebook/402196/alle_details_zum_transmeta_efficeon/index15.html
Nakai
2014-08-17, 01:12:50
Außerhalb von irgendwelchen Sinnlos-Synthies muss man gar nichts kompensieren. Kaum eine Reallife Applikation in Android oder iOS profitiert sonderlich von 4 Kernen - aber eben von schnellen einzelnen Kernen. Insofern sind 2 schnelle Kerne in Reallife Applikationen im Moment besser als 4 weniger schnelle.
Quadcore ist im ULP Bereich nur Marketing gewesen. Und um Sinnlosbenchmarks zu gewinnen.
Ack! Dennoch wird ein Denverkern schonmal fetter sein, als ein Standard-ARM-Kern. Man hat deutlich mehr Cache verbaut. Der L2-Cache ist genauso groß.
Zum Denver In-Order Thema. Das Ding ist möglicherweise auf Ausführungsebene "in order". Aber offenbar macht diese "Code Optimisation" bereits eine Sortierung der Codereiehenfolge, eh sie ausgeführt ist. Der Effekt ist am Ende der gleiche: weniger Stalls.
In sofern, wenn das gut funktioniert, muss das gar nichts heißen. Im Gegenteil. Die Indizien schließen eher auf relativ hohe taktnormierte Leistung. Etwas anderes erwarte ich von NV auch ehrlich gesagt zum jetzigen Zeitpunkt nicht.
Ich befürchte, das Ding ist nichts anderes als ein "neue" Version eines Transmeta-Kerns. €: Ich hoffe nicht, dass die ein VLIW-Kern verwenden.
AffenJack
2014-08-17, 09:49:14
Hab irgendwo schon gelesen, dass es wahrscheinlich nen VLIW Kern ist.
Was ist so nachteilig daran, die Weiterentwicklung von Transmeta Kernen zu sein? Warn das solche Krüppel? Ist nunmal von den Transmetaleuten entwickelt worden und die haben weiter ihren Ansatz verfolgt.
robbitop
2014-08-17, 10:28:04
Ja klingt nach einer Weiterentwicklung des Codemorphings. IMO war der Efficion in Anbetracht auf Leistung pro Watt damals extremst gut. Hätte den damals brandneuen Centrinos Konkurrenz machen können. Und das hat 2003 schon was geheißen.
Hübie
2014-08-17, 10:38:12
Codemorphing darf aber nicht (oder nicht vollständig?) in Hardware verdrahtet werden ;)
robbitop
2014-08-17, 12:24:34
Und was willst du mit diesem Einzeiler sagen? :|
Nakai
2014-08-17, 13:25:30
Ja klingt nach einer Weiterentwicklung des Codemorphings. IMO war der Efficion in Anbetracht auf Leistung pro Watt damals extremst gut. Hätte den damals brandneuen Centrinos Konkurrenz machen können. Und das hat 2003 schon was geheißen.
Was man so aus den Untiefen des Internets zieht, deutet an, dass der Efficeon Probleme mit der TDP gehabt hat. Er hat gethrottelt, um eben die TDP zu erhalten. Da lag nicht mehr 1GHz an, sondern weniger. Das hat wohl aber nur für die lüfterlosen Designs gegolten.
http://www.vanshardware.com/articles/2004/05/040517_efficeonFreeze/040517_efficeonFreeze.htm
http://www.tecchannel.de/pc_mobile/notebook/402196/alle_details_zum_transmeta_efficeon/index15.html
http://www.hardwarezone.com/articles/view.php?id=1377&cid=14&pg=9
robbitop
2014-08-17, 13:43:55
Transmeta hatte auch keinen Intel Fertigungsprozess und nur ein Bruchteil der Leute. Der Punkt ist, dass der Kram nicht unbedingt schlecht sein muss.
Ailuros
2014-08-17, 17:22:36
Transmeta hatte auch keinen Intel Fertigungsprozess und nur ein Bruchteil der Leute. Der Punkt ist, dass der Kram nicht unbedingt schlecht sein muss.
Schlecht muss die Transmeta IP nicht sein, ich weiss aber immer noch nicht ob sie einem custom ARM Kern wirklich etwas nuetzt. Vielleicht bringt es Denver einen wichtigen Vorteil wenn NV in der Zukunft Denver auch fuer windows benutzen kann, aber es klingt dann auch wieder als ein Schuss ins Leere wenn Microsoft ARM cores voll unterstuetzen wird.
So oder so ohne Echtzeit-Messungen von einer unabhaengigen Quelle fuer Denver drehen wir uns leider im Kreis darueber. Auf jeden fall wissen wir jetzt was die "secret sauce" wohl war fuer Denver :rolleyes:
fondness
2014-08-17, 18:32:39
Außerhalb von irgendwelchen Sinnlos-Synthies muss man gar nichts kompensieren. Kaum eine Reallife Applikation in Android oder iOS profitiert sonderlich von 4 Kernen - aber eben von schnellen einzelnen Kernen. Insofern sind 2 schnelle Kerne in Reallife Applikationen im Moment besser als 4 weniger schnelle.
Quadcore ist im ULP Bereich nur Marketing gewesen. Und um Sinnlosbenchmarks zu gewinnen.
Das war vielleicht mal so, genau wie im Desktopmarkt braucht es vorher die Hardware damit Software diese nutzen kann. Insofern hat das nichts mit Marketing zu tun. Heute hat jedes Billigsmartphone 4 Kerne, Entwickler wäre dumm wenn sie das nicht ausnutzen würden. Denver kommt immerhin erst ab 2015. Und klar es ist eine Binsenweisheit das weniger schnellere Kerne besser wären als viele langsame. Das ist aber nicht der Punkt. Vier Kerne die niedriger takten sind eben energieeffizienter als ein schneller, hochgetakteter Kern. Für alles andere gibt es Turbo und Energiesparmechanismen, ein Kern der nicht benötigt wird wird abgeschaltet.
dildo4u
2014-08-17, 18:36:46
robbi hat recht vorallem da alle High-End Mobile Games/App's von iOS geportet werden sind 2 schnelle Core's für 2015 die bessere Lösung.
http://www.cnet.de/88133412/apple-iphone-6-a8-cpu-soll-mit-zwei-kernen-und-mehr-als-2-ghz-kommen/
Undertaker
2014-08-17, 18:43:48
Wenn man so will, setzt Intel bei seiner High-End-Baureihe (Haswell Y, Core M Broadwell) ebenfalls auf nur zwei Kerne. ;) Die "Killer-App" ist halt noch immer Browsing, und da bringen viele Kerne bekanntermaßen herzlich wenig. Gerade über die Cortex-A7 (bzw. bald A53) 8-Kerner kann man sich eigentlich nur lustig machen (ja, die zwei Cluster sind idR auf verschiedene Taktbereiche verbrauchsoptimiert, aber Performancevorteile bietet die reine Anzahl überhaupt nicht).
Ailuros
2014-08-17, 18:54:00
Das war vielleicht mal so, genau wie im Desktopmarkt braucht es vorher die Hardware damit Software diese nutzen kann. Insofern hat das nichts mit Marketing zu tun.
Marketing hat stets mit allem zu tun.
Heute hat jedes Billigsmartphone 4 Kerne, Entwickler wäre dumm wenn sie das nicht ausnutzen würden.
Mit wie vielen quadA7 Geraeten hast Du persoenlich ausfuehrlich gearbeitet?
Denver kommt immerhin erst ab 2015. Und klar es ist eine Binsenweisheit das weniger schnellere Kerne besser wären als viele langsame. Das ist aber nicht der Punkt. Vier Kerne die niedriger takten sind eben energieeffizienter als ein schneller, hochgetakteter Kern. Für alles andere gibt es Turbo und Energiesparmechanismen, ein Kern der nicht benötigt wird wird abgeschaltet.
Solche Generalisierungen sind leider viel zu gefaehrlich.
* In der ARM "Welt" gibt es custom cores und ARM CPU IP. Einfach nur "Kern" in die Luft zu schmeissen fuer jeglichen Vergleich ist duenschiss.
* Was fuer einen conig hat der CPU block genau? Haben wir mit einem stinknormalen ARM CPU IP quad zu tun wo zwar die Frequenz variiert aber die Frequenz IMMER gleich sein muss bei allen vier cores, haben wir einen aSMP Fall wie bei Cyclone, Krait etc oder gar einen etwas merkwuerdigen 4+1 config wie bei NV bisher? Oder doch vielleicht noch hoeher und komplizierter fuer etwas wie big.LITTLE?
* Boost clocks, power und clock gating sind wohl eher die letzte Frage an der Reihe im Vergleich zum obrigen....
Apple's Cyclone im A7 hat sehr fetten IPC und taktet auch nicht uebermaessig hoch. Das aber fuer die vorige Generation wobei Apple im A8 tatsaechlich hoeher taktet mit noch unbekannter IPC.
Denver ist fuer Echtzeitleistung noch ein unbekanntes Tier und da seine MAXIMALE Frequenz bei 2.5GHz heisst es noch lange nicht dass er mit dieser auch in Geraeten mit 64bit K1 erscheinen wird. Im allerbesten Fall sind es womoeglich 2.3GHz, ergo nicht allzu weit entfernt von dem was Apple haben wird und nein ich hab in letzter nirgends etwas von quad core fuer A8 gehoert sondern ausschliesslich von dual core.
Sonst hab ich persoenlich eine fette IPC bei dual core mit aSMP am liebsten, denn es haelt mich nichts davon ab den einen core auf 50 und den anderen auf 2.0GHz zu takten falls es noetig sein sollte. Innerhalb von einem "garden variety" quad core A7 und auch kommenden A53 hast Du den Luxus dann nicht mehr und nein praktisch ist es nicht unbedingt in Echtzeit.
Einfacher es ist eben NICHT so einfach wie 1+1=2 sondern die ganze Geschichte ist verdammt kompliziert.
***edit: zu guter letzt spielt die sw Platform und die Effizienz dieser auch eine verdammt grosse Rolle; pdf lesen ist ein ziemlich "einfacher" sport fuer heutige mobile Geraete. Ich hab so manches dual core lower end tablet gesehen dass flotter und effizienter bei so etwas einfachem laeuft als high end big.LITTLE Geraete oder sogar das MiPad. Und hier ist dann die gefaehrlichste Falle fuer den Beobachter: versagt hier die hw oder hat man schlicht und einfach mit einer beschissenen sw Implementierung seitens Hersteller zu tun? In der Mehrzahl der Faelle ist es leider der zweite Fall.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.