PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24 25 26

Ailuros
2014-03-27, 12:11:35
Was?

Das genau frag ich mich auch nachdem ich den neuesten SA Artikel durchgelesen habe.

Dural
2014-03-27, 12:29:25
Vielleicht fährt NV ab nächstes Jahr ja auch drei spurig:

"Handy" SoC (wie T4i)
"Tablet" SoC (wie T4, K1?, M1)
"High-End" SoC dicke Maxwell GPU + Denver CPU

Skysnake
2014-03-27, 12:30:40
Ja ne is klar.

AffenJack
2014-03-27, 12:34:22
Charlies Geschreibsel scheint mir nix besseres als nen AntiNv-Rant zu sein. Er schmeisst vor allem einfach mal alles zusammen. Zb, dass Nvidia Parker auf der CES vorgezeigt hätte und meinte er kommt mit Denver dieses Jahr. Aber Nvidia hat nur Logan/K1 gezeigt und nen Denver-Logan versprochen.

Vielleicht fährt NV ab nächstes Jahr ja auch drei spurig:

"Handy" SoC (wie T4i)
"Tablet" SoC (wie T4, K1?, M1)
"High-End" SoC dicke Maxwell GPU + Denver CPU

Das glaube ich nicht, da hätte man mehr von gehört. Scheint eher so, dass Handy-SoC tot ist und man nur noch mit Denver+Maxwell plant.

Dural
2014-03-27, 12:37:19
es wäre logisch, den Denver war immer für "High-End" gedacht.

und ob der Denver Core überhaupt in einem Handy geschweige den Tablet vernünftig läuft weis noch keiner (3GHz...)

Ailuros
2014-03-27, 12:39:57
Charlies Geschreibsel scheint mir nix besseres als nen AntiNv-Rant zu sein. Er schmeisst vor allem einfach mal alles zusammen. Zb, dass Nvidia Parker auf der CES vorgezeigt hätte und meinte er kommt mit Denver dieses Jahr. Aber Nvidia hat nur Logan/K1 gezeigt und nen Denver-Logan versprochen.

Schoen und das Geschreipsel mal zur Seite, angenommen es gibt keine Spur von Dever weder in K1b noch in Erista, wie wuerdest Du das als PR Angestellter praesentieren? In dem Fall hat dann Charlie's typisches pseudokryptisches Schlammasel doch einen Hintergrund, nur eben verdammt daemlich geschrieben/ausgedrueckt.

Dural
2014-03-27, 12:40:58
Es gibt ja schon Denver Benchmarks!?!

Wie kann bitte schön Denver dann gar nicht existieren? :rolleyes:



@AffenJack
Wer sagt den das die Handy Sparte tot ist? Charlie? ja ist klar, ich würde auch für 350M (?!) Modem Technologie einkaufen um dann beim ersten Versuch alles hinzuschmeissen, ja ist klar!

AffenJack
2014-03-27, 12:44:25
Schoen und das Geschreipsel mal zur Seite, angenommen es gibt keine Spur von Dever weder in K1b noch in Erista, wie wuerdest Du das als PR Angestellter praesentieren? In dem Fall hat dann Charlie's typisches pseudokryptisches Schlammasel doch einen Hintergrund, nur eben verdammt daemlich geschrieben/ausgedrueckt.

Dann musst du mir erstmal zeigen wie Nv in 6 Monaten einen 64Bit non-Denver SoC herzaubert, der in K1B zum Einsatz kommt. Es ist nen 64Bit-SoC angekündigt und es wurde gesagt, es ist Denver. Nun soll Nv aus dem nichts nen anderen SoC herholen?

Ailuros
2014-03-27, 12:46:52
Es gibt ja schon Denver Benchmarks!?!

Wie kann bitte schön Denver dann gar nicht existieren? :rolleyes:

Nur Antutu und die Resultate waren auch nicht berauschend mit max 3.0GHz. Es klingt eher danach als ob sich Charlie doch verwurschtelt hat mit dem Zeug da Erista zwischen K1 und Parker geschoben wurde.

Wer sagt den das die Handy Sparte tot ist? Charlie? ja ist klar, ich würde auch für 350M (?!) Modem Technologie einkaufen um dann beim ersten versuch alles hinzuschmeissen, ja ist klar!

Dazu braucht man nicht Charlie. Frag egal welchen insider im Hintergrund was sich diesbezueglich herumspricht und JHH hat auch selber vor kurzem von einem re-focus gesprochen.

Dural
2014-03-27, 12:46:57
wie schon gesagt, es gab ein Benchmark eines 3GHz 64Bit Dual Core und das muss Denver sein, mir kämme keinen anderen Core in den Sinn. Dir?


Eine Neuausrichtung bedeutet noch lange nicht das diese Sparte Tot ist ;)

Ailuros
2014-03-27, 12:50:42
Dann musst du mir erstmal zeigen wie Nv in 6 Monaten einen 64Bit non-Denver SoC herzaubert, der in K1B zum Einsatz kommt. Es ist nen 64Bit-SoC angekündigt und es wurde gesagt, es ist Denver. Nun soll Nv aus dem nichts nen anderen SoC herholen?

Dachte ich mir auch gerade; wuerden sie nie und nimmer zeitlich schaffen.

wie schon gesagt, es gab ein Benchmark eines 3GHz 64Bit Dual Core und das muss Denver sein, mir kämme keinen anderen Core in den Sinn. Dir?

Nein; die 3GHz max sind aber schon merkwuerdig muss aber auch nichts heissen.

Eine Neuausrichtung bedeutet noch lange nicht das diese Sparte Tot ist ;)

Nicht wenn JHH selber smartphones erwaehnt :P http://www.fudzilla.com/home/item/33957-nvidia-reshapes-tegra-focus

“Maybe, another way of saying it is what is our non-focus and our non-focus is mainstream phones. ” was Huang’s way of saying that Nvidia will work on phones but as an extension of the real target market that includes tablets, set-top boxes, gaming smart TVs and automotive.

Interpretier es wie Du willst, aber auf jeden Fall wird es wohl keinen T4i Nachfolger geben.

Ailuros
2014-03-27, 21:45:39
http://www.fudzilla.com/home/item/34338-there-might-be-no-tegra-4i-successor-after-all

***edit: und Anandtech lieber spaeter als nie...http://www.anandtech.com/show/7905/nvidia-announces-jetson-tk1-dev-board-adds-erista-to-tegra-roadmap

Hugo78
2014-03-27, 22:33:05
but we wouldn’t be surprised if Erista was the 20nm backup plan in case 16nm FinFET wasn’t ready in time.
... hits the needle on the head

Skysnake
2014-03-28, 05:43:49
Also das ist auch hart aus dem Anandtech link :ugly:


NVIDIA hasn’t offered up any additional Denver details at GTC, but we’re not expecting any this soon after CES, so we expect to hear more about it when the Denver K1 is closer to shipping (currently scheduled for H2 2014, likely the later part of that window).

Denver erst Richtung 2015? Ja ne is klar. Das Ding wird damit doch wieder ziemlich uninteressant. Da steht doch schon fast wieder die nächste Gen der Konkurrenz vor der Tür :ugly:

Ailuros
2014-03-28, 06:30:06
K1 mit Denver war stets fuer H2 14' angegeben. Jetzt ist noch nichtmal die A15 K1 Variante erhaeltlich ergo ist es logisch dass er Denver K1 eher gegen Ende des Jahres erwartet. So irgendwo im Mai duerften die erste A15 K1 Geraete erscheinen.

AffenJack
2014-03-28, 07:36:11
Also das ist auch hart aus dem Anandtech link :ugly:



Denver erst Richtung 2015? Ja ne is klar. Das Ding wird damit doch wieder ziemlich uninteressant. Da steht doch schon fast wieder die nächste Gen der Konkurrenz vor der Tür :ugly:


Du findest auch alles hart, egal obs schon die ganze Zeit klar war.
Hauptsache du kannst deinen Feldzug gegen Nv fortsetzen.

Skysnake
2014-03-28, 08:09:16
Ich bin eigentlich bisher von Ende Q2 Anfang H2 ausgegangen, und nicht Ende. Zumal wir denke ich inzwischen alle wissen, was das real wirklich bedeutet, wenn von Ende H2 gesprochen wird.

Bis wir mal was in Händen halten ist es eher Ende Q1/15. Das ist einfach viel zu lange noch hin.

2015 interessiert doch keine Sau mehr 64Bit, um das Sie so nen Dumsfallara gemacht haben. Das ist dann einfach Standard. Also ihre Time-to-Market müssen Sie mal echt überdenken. Für solch lange Zeiträume ist der Mobile-Markt einfach viel viel viel zu hart und Schnellebig.

Hugo78
2014-03-28, 08:17:09
Ich bin eigentlich bisher von Ende Q2 Anfang H2 ausgegangen, und nicht Ende.
Ja ist klar, wo steht das? Auf den Link bin ich gespannt.

Auf der CES war immer die Rede von K1-A15 ab April, Auslieferung und entsprechend Geräte im Sommer, und bei K1-Denver von irgendwann H2 Auslieferung. Also kommen Geräte damit erst ab Sept./Okt.

Dural
2014-03-28, 09:32:06
Soso A15 und Denver zu gross für ein Smartphone billig SoC. Die Vermutung hatte ich ja schon gestern.
Da NV keine andere Kerne neben dem veralteten A9 hat, wird es vorerst wohl keinen T4i Nachfolger geben. OK ist Nachvollziehbar.

Jedoch soll ein M1 mit LTE in der Planung sein.

Ailuros
2014-03-28, 09:46:31
Ich bin eigentlich bisher von Ende Q2 Anfang H2 ausgegangen, und nicht Ende. Zumal wir denke ich inzwischen alle wissen, was das real wirklich bedeutet, wenn von Ende H2 gesprochen wird.

Die originale Angabe seitens NV war H1 fuer A15/K1 und H2 fuer Denver/K1. Was sich danach jeder "vorstellt" oder selber zusammendichtet ist ein anderes Kapitel.

Bis wir mal was in Händen halten ist es eher Ende Q1/15. Das ist einfach viel zu lange noch hin.

2015 interessiert doch keine Sau mehr 64Bit, um das Sie so nen Dumsfallara gemacht haben. Das ist dann einfach Standard. Also ihre Time-to-Market müssen Sie mal echt überdenken. Für solch lange Zeiträume ist der Mobile-Markt einfach viel viel viel zu hart und Schnellebig.

64bit wird selbst durch das gesamte 2015 nicht in irgend einer Form ein "standard" sein und schon gar nicht im high end Bereich wo sich Tegras bewegen. Mediatek's kommender "high end" (stets fuer ihre Markt-Positionierung) smartphone SoC hat eine 32bit CPU und eine DX10 GPU, waerend der mainstream SoC darunter 64bit CPU/DX11 GPU sein wird :P

Qualcomm wird vorruebergehend auch nur 64bit fuer low end SoCs anbieten.

Soso A15 und Denver zu gross für ein Smartphone billig SoC. Die Vermutung hatte ich ja schon gestern.
Da NV keine andere Kerne neben dem veralteten A9 hat, wird es vorerst wohl keinen T4i Nachfolger geben. OK ist Nachvollziehbar.

Grey/T4i wurde vom Tegra team in Indien entwickelt weil sie in Santa Clara keine resources mehr dafuer haben. Es wurden in der Zwischenzeit generell resources vom Tegra team wieder entzogen und auf andere Projekte verschickt. NV hatte den smartphone Markt langfristig schon bedienen koennen aber da sie konstant seit T2 nur noch maximal 2 design wins hatten pro SoCs fuer smartphones und sie auch mit T4i nichts besonderes zu erreichen scheinen, suchen sie nach alternativen Maerkten die im Aufschwung sind. Tegra wird in Zukunft mit weniger resourcen auskommen muessen und dann wenn die Kosten erstmal so niedrig wie moeglich sind wird IP Lizenzierung fuer ULP GPUs auch um einiges mehr Sinn machen.

Jedoch soll ein M1 mit LTE in der Planung sein.

Gibt es einen link dazu? Ich lese es zum ersten Mal.

Skysnake
2014-03-28, 11:20:49
Welchen Sinn macht den das bitte, 64 Bit vom "HighEnd" fern zu halten? :ugly:

Für mich klang das allgemein auch eher umgekehrt, was ich gehört habe. Die alten billigen Chips halt 32 Bit, und die neuen Sachen überwiegend 64 Bit, sofern halt die neuen 64 Bit ARM-Kerne verwendet werden.

AffenJack
2014-03-28, 12:33:35
Es stellt sich die Frage wie gut A57 wirklich ist. Viele setzen A53 ein, aber von A57 hört man sehr wenig. Ich befürchte dieser hat die gleichen Probleme wie A15 und hat einen ziemlich hohen Verbrauch und deshalb dauerts etwas länger.

Dann haben wir noch Qualcomm als größten Player, der die Entwicklung wie es scheint auch etwas verpennt hat. A53 im Lowend und im High-End Bereich hört man noch gar nix von nem eigenen neuen 64bit-Core.

Denver wird daher wohl der erste 64Bit HighEnd Core für Android sein. Wie gut er dann allerdings wird, wird spannend. Kurz danach könnte Samsung mit A57 Designs ankommen, aber ansonsten hört man über 64Bit wenig.

AnarchX
2014-03-28, 12:42:52
Denver wird daher wohl definitiv der erste 64Bit HighEnd Core für Android sein. Wie gut er dann allerdings wird, wird spannend.
Denver ist der erste 64-Bit HighEnd ARM-Core für Android: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10122523#post10122523

Ailuros
2014-03-28, 12:51:01
Welchen Sinn macht den das bitte, 64 Bit vom "HighEnd" fern zu halten? :ugly:

Keinen; Du musst eher alle fragen warum sie eingeschlafen sind und Apple ihnen diesbezueglich koeniglich die Unterhosen runtergezogen hat.

Für mich klang das allgemein auch eher umgekehrt, was ich gehört habe. Die alten billigen Chips halt 32 Bit, und die neuen Sachen überwiegend 64 Bit, sofern halt die neuen 64 Bit ARM-Kerne verwendet werden.

Fuer dieses Jahr wird es nichts mehr high end 64bit von Samsung oder Qualcomm geben. Mediatek hat in der Mitte 64bit und ganz oben 32bit. Wen soll ich denn sonst noch erwaehnen?

fondness
2014-03-28, 14:01:26
Es stellt sich die Frage wie gut A57 wirklich ist. Viele setzen A53 ein, aber von A57 hört man sehr wenig. Ich befürchte dieser hat die gleichen Probleme wie A15 und hat einen ziemlich hohen Verbrauch und deshalb dauerts etwas länger.

Dann haben wir noch Qualcomm als größten Player, der die Entwicklung wie es scheint auch etwas verpennt hat. A53 im Lowend und im High-End Bereich hört man noch gar nix von nem eigenen neuen 64bit-Core.

Denver wird daher wohl der erste 64Bit HighEnd Core für Android sein. Wie gut er dann allerdings wird, wird spannend. Kurz danach könnte Samsung mit A57 Designs ankommen, aber ansonsten hört man über 64Bit wenig.

A57 ist wohl auch primär für Server gedacht und weniger für Smartphones.

Ailuros
2014-03-28, 14:38:19
Erste 64-Bit HighEnd ARM-Core: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10122523#post10122523

Seit wann integriert Intel ARM CPUs? :freak:;D

Label
2014-03-28, 15:20:30
Fuer dieses Jahr wird es nichts mehr high end 64bit von Samsung oder Qualcomm geben. Mediatek hat in der Mitte 64bit und ganz oben 32bit. Wen soll ich denn sonst noch erwaehnen?
Mal schauen ob LG mit ihrem ODIN fertig werden...?

AffenJack
2014-03-28, 18:01:02
Denver ist der erste 64-Bit HighEnd ARM-Core für Android: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10122523#post10122523

Jo klar, das meinte ich eigentlich. Intel hatte ich da nicht in Betracht gezogen, aber:

Mal schauen ob LG mit ihrem ODIN fertig werden...?

Odin hatte ich vergessen. Der soll ja angeblich im G3 drin sein, was Mitte des Jahres erscheint. Da bin ich gespannt, aber frage mich auch wiegut nen Quad-A57 unter 28nm laufen wird, denn 20nm kann ich mir schwer vorstellen so früh.

Ailuros
2014-03-28, 18:36:21
Jo klar, das meinte ich eigentlich. Intel hatte ich da nicht in Betracht gezogen, aber:
Odin hatte ich vergessen. Der soll ja angeblich im G3 drin sein, was Mitte des Jahres erscheint. Da bin ich gespannt, aber frage mich auch wiegut nen Quad-A57 unter 28nm laufen wird, denn 20nm kann ich mir schwer vorstellen so früh.

LG ist noch so verdammt gruen hinter den Ohren wenn es zu SoCs kommt dass ich es erst glaube wenn ich es sehe (einen SoC hatten sie ja schon kurzfristig storniert und schnell bei QCOM eingekauft). Generell wenn Apple mit A8 antanzt wird fruitco schon ihre zweite 64bit Generation auf dem Buckel haben waehrend alle anderen sich die Fingernaegel eher fuer Ende 14'-Anfang 15' ausbeissen werden. Ich muss wohl nicht wirklich betonen dass ein Fall (oder sogar zwei) mit relativ geringem Volumen fuer beide jetzt nicht wirklich den Fruehling bringen werden.

Diesbezueglich kann ich eben NICHT sagen dass NV im Vergleich zu allen anderen zu spaet mit 64bit CPUs ankommt sondern in etwa zeitgleich (jetzt einen Schnitt frueher oder spaeter ist IMO eher Haarspalterei) mit den grossen Spielern wie QCOM und Samsung. Zu guter letzt ist NVIDIA durch die Laengen gegangen und hat 2 SoCs fuer 28HPm fuer K1 entwickelt genau um auf den 64bit Zug nicht ein Halbjahr zu spaet einzusteigen.

Ailuros
2014-03-30, 17:51:47
http://www.fudzilla.com/home/item/34348-denver-tegra-k1-64-bit-to-beat-a57

This is a big deal and if works well for Nvidia might create quite a popularity for Nvidia’s first 64-bit SoC. It will be great for Nvidia if they can deliver on this promise. The shipping date for Denver based Tegra K1 is still the second half of 2014 and we don’t know how Nvidia plans to price or position its 32-bit and 64-bit Tegra K1, at least not yet.

Das Gute ist dass wohl hoffentlich alles mit Denver stimmt, aber zur typischen Fudo Dummheit: wenn man schon so viele mehr fuer einen custom CPU core ausgiebt dann MUSS dieser auch um einiges effizienter sein als der lizenzierbare standard core vom IP provider.

Unicous
2014-03-30, 18:16:13
Also ich werde keine Wetten dass Nvidia das Effizienzrennen bei den 64bit Cores gegen die Konkurrenz gewinnt.

Besser als die ARM-Referenz so what. Erstmal muss das Ding überhaupt herauskommen. Nvidia ist sich ja da selbst nicht mehr so sicher, wenn man sich die roadmaps anschaut.;D

Ailuros
2014-03-30, 18:48:19
NV hat wohl nach dem ganzen SA Wirbel ueber Denver darauf antworten wollen und was besseres als Fudo *hust*.

Das grosse Effizienz-rennen wird wohl gegen Apple's custom Zeug sein; wenn ich schon sehe wie verdammt effizient Cyclone bei "nur" 1.4GHz muesste Apple zum Stillstand kommen bei A8 damit NV diesbezueglich etwas anrichten koennte. Aber gegen einen Krait wird sich Denver wohl schon sehr gut platzieren koennen.

Hugo78
2014-03-30, 21:34:29
Das grosse Effizienz-rennen wird wohl gegen Apple's custom Zeug sein

Wozu? Apple wird Nvidia nicht verbauen, wo ist da Nvidias Interesse?

Und gegen Apple kann NV sowieso nicht gewinnen, denn Apple liefert Software und HW aus einer Hand.
Wie wichtig das ist sieht man aktuell mit Blick auf D12/Mantle oder auch die Diskussion um Googles RenderScript,
was auch lieber Perfomance links liegen lässt für Kompatibilität.

Unicous
2014-03-30, 21:45:24
Es geht aber nicht darum, wer und wo wen oder was verbaut sondern um die PR-Aussage von Nvidia. Sie behaupten sie sind effizienter, dann müssen sie sich auch mit allem auf dem Markt messen. Das Geheule, "aber bei Apple kommt alles aus einer Hand, die sind automatisch besser" kann ich nicht mehr hören. Wenn man solche fetten Behauptungen aufstellt muss man auch die Eier haben sich gegen Jeden, in jedweder Situation messen zu können. Und "Googles APIs sind scheiße" kann ich auch nicht mehr hören.

Ailuros
2014-03-30, 22:23:25
Wozu? Apple wird Nvidia nicht verbauen, wo ist da Nvidias Interesse?

Weil Cyclone eine sehr gute Effizienz hat rein zufaellig?

Und gegen Apple kann NV sowieso nicht gewinnen, denn Apple liefert Software und HW aus einer Hand.

Sie haetten auch im Fall wo Apple nicht ihr eigenes OS haette verloren.

Wie wichtig das ist sieht man aktuell mit Blick auf D12/Mantle oder auch die Diskussion um Googles RenderScript,
was auch lieber Perfomance links liegen lässt für Kompatibilität.

Wenn ihr NV fans nicht bei jeglichem winzigen absolut gerechtfertigtem Kommentar mit so intensiven Reaktionen entgegen kommen wuerdet dann wuerde es vielleicht auch keine so intensive Gegenreaktionen geben. Wenn man einen so laecherlichen Marktanteil wie NV hat heisst es auf jeder Ebene put up or shut up und genau das gilt auch fuer Denver. Im Hinkblick dass NV fuer die Marktsparte nichts bis jetzt geliefert oder beigetragen hat wird hier mit zu pompoesen Toenen herumgedroehnt.

Es geht aber nicht darum, wer und wo wen oder was verbaut sondern um die PR-Aussage von Nvidia. Sie behaupten sie sind effizienter, dann müssen sie sich auch mit allem auf dem Markt messen. Das Geheule, "aber bei Apple kommt alles aus einer Hand, die sind automatisch besser" kann ich nicht mehr hören. Wenn man solche fetten Behauptungen aufstellt muss man auch die Eier haben sich gegen Jeden, in jedweder Situation messen zu können. Und "Googles APIs sind scheiße" kann ich auch nicht mehr hören.

Android ist in einem ausgezeichneten Zustand und ist heutzutage so gut wie ich es selber vor Jahren nicht erwartet haette.

Hugo78
2014-03-31, 00:14:51
Wenn ihr NV fans nicht bei jeglichem winzigen absolut gerechtfertigtem Kommentar mit so intensiven Reaktionen entgegen kommen wuerdet
Du liest Dinge die garnicht da sind.

Ailuros
2014-03-31, 08:00:06
Du liest Dinge die garnicht da sind.

3DC hat eine ziemlich gesunde technische Orientierung als Seite; wieso man jetzt A mit B CPU nicht vergleichen kann ist dann schon eine Frage fuer sich. Intel Silvermont laeuft auch auf Android wenn Cyclone so ausserirdisch klingt. Besser als A57 interessiert ja wirklich kein Schwein da es eher selbstverstaendlich ist; denn bei Gleichstand haette NV einen ziemlichen FLOP entwickelt.

Hugo78
2014-03-31, 11:07:03
Intel Silvermont laeuft auch auf Android wenn Cyclone so ausserirdisch klingt. Besser als A57 interessiert ja wirklich kein Schwein da es eher selbstverstaendlich ist; denn bei Gleichstand haette NV einen ziemlichen FLOP entwickelt.

Gibt es denn schon Ergebnisse vom A57, die bestätigen, dass A57 ein so schlechtes Design ist, dass jeder da so leicht rüber kommt?
Und wie schaut der Vergleich mit Cyclone aus? Um wieviel besser ist da die Perf./Watt ggü. A57? Oder ebend auch ggü. Silvermond...

Ailuros
2014-03-31, 11:32:50
Gibt es denn schon Ergebnisse vom A57, die bestätigen, dass A57 ein so schlechtes Design ist, dass jeder da so leicht rüber kommt?

Custom designs haben alle ein besseres perf/W ratio. Es gibt keine Indizie bisher dass A57 fundamental besser ist als A15 in dem Bereich. Um ein Prozentual schon (schaetzungsweise bis zu 30%?), aber es bleibt noch offen ob dabei auch noch ein kleinerer Prozess mitberechnet wurde.

Und wie schaut der Vergleich mit Cyclone aus? Um wieviel besser ist da die Perf./Watt ggü. A57? Oder ebend auch ggü. Silvermond...

http://www.anandtech.com/show/7335/the-iphone-5s-review/5

http://gizmodo.com/iphone-a7-chip-benchmarks-forget-the-specs-it-blows-e-1350717023/all

Im iPhone5S taktet Cyclone uebrigens bis zu 1.2 und nicht 1.3GHz; im iPadAir dann 1.4GHz.

Undertaker
2014-03-31, 14:17:39
Custom designs haben alle ein besseres perf/W ratio.

So allgemeingültig kann man das kaum stehen lassen. Scorpion war ggü. A9 z.B. sogar ziemlich bescheiden und wurde von Qualcomm wohl nur wegen der gesparten Lizenzgebühren vorgezogen (OK, war afair wohl auch etwas eher verfügbar). Ich sehe A15 durchaus in Schlagdistanz zu Krait 400, A57 ziemlich sicher sogar ein ganzes Stück darüber. Bleibt die Frage, wie das bei Krait 450 bzw. Qualcomms kommender 64 Bit Architektur so aussieht, von den hohen Taktraten muss man da aber unbedingt wegkommen.

Ailuros
2014-03-31, 15:36:52
So allgemeingültig kann man das kaum stehen lassen. Scorpion war ggü. A9 z.B. sogar ziemlich bescheiden und wurde von Qualcomm wohl nur wegen der gesparten Lizenzgebühren vorgezogen (OK, war afair wohl auch etwas eher verfügbar).

Scorpion war nicht schneller pro Takt als eine A9, aber das ist auch der Fall bei Krait vs. A15.

Ich sehe A15 durchaus in Schlagdistanz zu Krait 400, A57 ziemlich sicher sogar ein ganzes Stück darüber.

Ja weil 64bit Archichtektur-bedingte Erweiterungen mit sich fuehren wird. Das aendert aber nichts besonderes an perf/W. Ohne big.LITTLE waere ein jeglicher A57 Selbstmord in einem smartphone. QCOM braucht etwas dass sie problemlos und mit anstaendigem Stromverbrauch via aSMP in smartphone SoCs stecken koennen.

Bleibt die Frage, wie das bei Krait 450 bzw. Qualcomms kommender 64 Bit Architektur so aussieht, von den hohen Taktraten muss man da aber unbedingt wegkommen.

QCOM hat die Chance in die Breite zu gehen genauso wie Denver und Cyclone. Und was heisst hohe Taktraten ueberhaupt? Denver wird offiziell fuer max 2.5GHz angegeben welches alles andere als bescheiden ist und in dem Antutu Ding standen sogar angebliche 3GHz maximal. Ich stehe persoenlich auch eher fuer Breite als Frequenz aber kann man wirklich noch breiter gehen als Cyclone bzw. Denver?

Undertaker
2014-03-31, 15:46:05
Scorpion war nicht schneller pro Takt als eine A9, aber das ist auch der Fall bei Krait vs. A15.

Ja weil 64bit Archichtektur-bedingte Erweiterungen mit sich fuehren wird. Das aendert aber nichts besonderes an perf/W. Ohne big.LITTLE waere ein jeglicher A57 Selbstmord in einem smartphone. QCOM braucht etwas dass sie problemlos und mit anstaendigem Stromverbrauch via aSMP in smartphone SoCs stecken koennen.

Obiges war vollständig auf Perf/Watt bezogen. Ein Exynos 5420 passt aus CPU-Sicht (ja, die GPU ist ineffizienter) ebenso gut oder schlecht in ein Smartphone wie ein Snapdragon 800. Das wird mit A57 vs. Snapdragon 805 imo nicht anders aussehen.


QCOM hat die Chance in die Breite zu gehen genauso wie Denver und Cyclone. Und was heisst hohe Taktraten ueberhaupt? Denver wird offiziell fuer max 2.5GHz angegeben welches alles andere als bescheiden ist und in dem Antutu Ding standen sogar angebliche 3GHz maximal. Ich stehe persoenlich auch eher fuer Breite als Frequenz aber kann man wirklich noch breiter gehen als Cyclone bzw. Denver?

Der Vorwurf fehlender Breite ging an Qualcomm/Krait in aktueller Umsetzung. Zu Denver sage ich mal noch nichts.

Ailuros
2014-03-31, 16:18:26
Obiges war vollständig auf Perf/Watt bezogen. Ein Exynos 5420 passt aus CPU-Sicht (ja, die GPU ist ineffizienter) ebenso gut oder schlecht in ein Smartphone wie ein Snapdragon 800.

Ja sicher mit nochmal einem quad A7 die die meisste Schufterei machen sicher; im 5420 haben sie die simultane Nutzung von beiden quads abgeschaltet weil es zu viel Strom verdonnert hat. Samsung wird wohl auch nicht ohne Grund so viele QCOM SoCs integrieren.

Zaehl mal auf wie viele A15 CPUs es in smartphones gibt die bis jetzt in sehr hohen Anzahlen verkauft wurden.


Das wird mit A57 vs. Snapdragon 805 imo nicht anders aussehen.

Nach der dritten bzw. vierten A57 hw Revision vielleicht.

Der Vorwurf fehlender Breite ging an Qualcomm/Krait in aktueller Umsetzung. Zu Denver sage ich mal noch nichts.

Selbst wenn QCOM in die Breite geht mit ihrem 64bit wird sie wohl schwer mit niedrigen Frequenzen auskommen um konkurrenzfaehig zu sein. Eigentlich brauchen sie beides.

Undertaker
2014-03-31, 16:35:58
Ja sicher mit nochmal einem quad A7 die die meisste Schufterei machen sicher;

...und das klappt z.B. beim Surfen nur, weil die A15 (bzw. zukünftig A57-Kerne) einen möglichst schnellen Rückfall in den Leerlauf ermöglichen. ;) Pro Thread ist ein Krait eben immer noch ein wenig langsamer, und das nicht nur taktbereinigt sondern auch absolut.

Samsung wird wohl auch nicht ohne Grund so viele QCOM SoCs integrieren.

Zaehl mal auf wie viele A15 CPUs es in smartphones gibt die bis jetzt in sehr hohen Anzahlen verkauft wurden.

Zähl mal auf wie viele A15 es mit integriertem LTE-Modem gibt bzw. was ein Exynos 5420 + LTE-Modem für nicht-Samsung-Kunden im Vergleich zu einem S800 mit integriertem LTE so kostet.

Ailuros
2014-03-31, 17:47:27
...und das klappt z.B. beim Surfen nur, weil die A15 (bzw. zukünftig A57-Kerne) einen möglichst schnellen Rückfall in den Leerlauf ermöglichen. ;) Pro Thread ist ein Krait eben immer noch ein wenig langsamer, und das nicht nur taktbereinigt sondern auch absolut.

Ja bei intensinver benchmark/Papierfranzen-Onanierung aber nach diesen sind auch A7 total nutzlose Winzlinge.

Zähl mal auf wie viele A15 es mit integriertem LTE-Modem gibt bzw. was ein Exynos 5420 + LTE-Modem für nicht-Samsung-Kunden im Vergleich zu einem S800 mit integriertem LTE so kostet.

Welche Samsung Kunden ueberhaupt? Mir sind Samsung's Entwicklungs Unfaehigkeitn im Grunde egal. Wie sieht es denn ab mainstream und nach unten aus wo Stromverbrauch noch kritischer wird? Hat Mediatek vielleicht den chinesischen Markt mit A15 cores ueberschwemmt oder gibt es wenigstens einen SoC von denen in Planung mit LTE und A15?

In mainstream tablet SoCs sind A15 erst ab Revision 3 so langsam im Anmarsch, aber das ist dann auch wirklich alles.

Undertaker
2014-03-31, 18:32:59
Ja bei intensinver benchmark/Papierfranzen-Onanierung aber nach diesen sind auch A7 total nutzlose Winzlinge.

Nein, ich sprach von realen Browsing-Tests, bei denen ein schneller A15 und der dadurch schnelle Rückfall in den idle/A7-Betrieb ganz reale Laufzeit-Vorteile ggü. einem Krait ermöglicht. :)

Wie sieht es denn ab mainstream und nach unten aus wo Stromverbrauch noch kritischer wird? Hat Mediatek vielleicht den chinesischen Markt mit A15 cores ueberschwemmt oder gibt es wenigstens einen SoC von denen in Planung mit LTE und A15?

Darum ging es doch gar nicht, sondern um den direkten Vergleich zwischen Custom-Core und ARM-IP. Also logischerweise den Direktvergleich in ein- und derselben Leistungsklasse. "Custom designs haben alle ein besseres perf/W ratio" ist nicht allgemeingültig korrekt, Punkt.

fondness
2014-03-31, 18:40:27
Zähl mal auf wie viele A15 es mit integriertem LTE-Modem gibt bzw. was ein Exynos 5420 + LTE-Modem für nicht-Samsung-Kunden im Vergleich zu einem S800 mit integriertem LTE so kostet.

Hätte A15 nicht die deutlich schlechtere Perf/Watt würden auch nicht alle Qualcomm einsetzen. A15 hat es in kaum ein Smartphone geschafft, A57 ist mehr als Server- denn als Smartphone CPU gedacht.

Ailuros
2014-03-31, 19:22:35
Nein, ich sprach von realen Browsing-Tests, bei denen ein schneller A15 und der dadurch schnelle Rückfall in den idle/A7-Betrieb ganz reale Laufzeit-Vorteile ggü. einem Krait ermöglicht. :)

Welchen "realen" browsing-tests genau?

Darum ging es doch gar nicht, sondern um den direkten Vergleich zwischen Custom-Core und ARM-IP. Also logischerweise den Direktvergleich in ein- und derselben Leistungsklasse. "Custom designs haben alle ein besseres perf/W ratio" ist nicht allgemeingültig korrekt, Punkt.

Nur weil Du zu der Schlussfolgerung kommst heisst es noch lange nicht dass sie auch andere teilen. Fuer mich haben QCOM's SoCs nach wie vor ein sehr gutes perf/W ratio und entschuldige aber das einzige Beispiel der verbuggten hw ueberzeugt mich jetzt gerade nicht. Dass QCOM ihren sehr guten Standpunkt diesbezueglich mit Benchmark-Frequenz-Bescheisserei kaputt macht ist bedaurnswert, aber es aendert an perf/W (ausserhalb von benchmarks) auch nichts.

Jedesmal wenn die Argumente ausgehen kommt der LTE Lutscher ins Spiel; es wird zunehmend mehr LTE SoCs auch von anderen Herstellern geben. Ja die meisten custom designs liegen eben in Leistung und Verbrauch (und ja darum geht es) irgendwo zwischen A7 und A15 und genau deshalb sieht man von A15 auch nichts in der mainstream Sparte obwohl Samsung es dort mit dem hexacore versucht.

Undertaker
2014-03-31, 22:01:52
Hätte A15 nicht die deutlich schlechtere Perf/Watt würden auch nicht alle Qualcomm einsetzen. A15 hat es in kaum ein Smartphone geschafft

Siehe oben. Die Wiederholung: Welche A15-SoCs mit LTE kennst du? Und was zahlst du als Hersteller, wenn du statt eines S800 einen A15-SoC + Modem kaufst? Einfache Rechnung, auf weitere Probleme (z.B. das es bislang noch keinen verfügbaren A15-SoC in der Klasse eines S800 mit effizienter GPU gibt) müssen wir da gar nicht weiter eingehen. Und ja @Ail, LTE ist bei Smartphones mit SoCs der S800-Klasse das Totschlagargument, da kannst du soviel herumdeuteln wie du willst. Und noch zu den Browsing-Tests: Nimm dir z.B. das Note 10.1 oder Galaxy Tab Pro jeweils in der WLAN und LTE-Version und bau dir ein kleines Script mit Seitenaufrufen zusammen - der Exynos hält bei derartigen CPU-Tasks länger. Findest du sicher auch irgendwo im Netz getestet.

fondness
2014-03-31, 23:16:34
Siehe oben. Die Wiederholung: Welche A15-SoCs mit LTE kennst du? Und was zahlst du als Hersteller, wenn du statt eines S800 einen A15-SoC + Modem kaufst? Einfache Rechnung, auf weitere Probleme (z.B. das es bislang noch keinen verfügbaren A15-SoC in der Klasse eines S800 mit effizienter GPU gibt) müssen wir da gar nicht weiter eingehen.

Ach undertaker, du solltest endlich mal lernen Fakten zu akzeptieren. Qualcomm hält keinen derart hohen Marktanteil zum Spaß, noch dazu in einem derart umkämpften Markt mit so vielen teilnehmen. Wäre a15 auch nur annähernd konkurrenzfähig oder wäre ein Bedarf nach a15 mit integriertem lte dann hätte schon längst einer der vielen Lizenznehmer einen solchen Chip realisiert. Er wird aber nicht realisiert weil a15 schlicht suboptimal ist für smartphones.

AffenJack
2014-04-01, 01:05:04
Und was zahlst du als Hersteller, wenn du statt eines S800 einen A15-SoC + Modem kaufst?

Beim S800 musst du glaube auch das Modem dazu kaufen, denn im High_end hat QC meine ich kein Modem integriert, aber als Paket wirds sicher billiger als alleine. Außer das Modem ist erst beim 805 rausgeflogen, aber ich bin auf jeden Fall der Meinung dass da nicht überall eins im Chip ist.

Unicous
2014-04-01, 01:53:22
Seriously, Nvidia?

http://media.bestofmicro.com/nvidia-gtc-2014,O-N-428567-3.jpg


:eek:

Ailuros
2014-04-01, 06:57:48
Und ja @Ail, LTE ist bei Smartphones mit SoCs der S800-Klasse das Totschlagargument, da kannst du soviel herumdeuteln wie du willst. Und noch zu den Browsing-Tests: Nimm dir z.B. das Note 10.1 oder Galaxy Tab Pro jeweils in der WLAN und LTE-Version und bau dir ein kleines Script mit Seitenaufrufen zusammen - der Exynos hält bei derartigen CPU-Tasks länger. Findest du sicher auch irgendwo im Netz getestet.

Gut dann wirst Du A57 genauso selten in smartphones in Zukunft sehen wie auch A15 ob mit oder ohne LTE und dann darfst Du Dich selber lange fragen warum und daran kannst Du genauso lange herumdatteln wie Du willst.

Seriously, Nvidia?


:eek:

Es gibt zwei Versionen davon; die eine die Du gerade im Bild siehst fuer automotive und eine ohne fansink fuer andere Maerkte.

mboeller
2014-04-01, 07:09:23
Seriously, Nvidia?

http://media.bestofmicro.com/nvidia-gtc-2014,O-N-428567-3.jpg


:eek:

Warum? Der K1 hat >15W TDP (6,4W für die 4 A15, den 5. lasse ich mal weg + 8W für die GPU...dazu dann noch der Rest vom SoC)

Skysnake
2014-04-01, 08:02:05
Es gibt zwei Versionen davon; die eine die Du gerade im Bild siehst fuer automotive und eine ohne fansink fuer andere Maerkte.
Wo man dann selbst sich um nen Kühler kümmern muss :wink:

Ailuros
2014-04-01, 08:58:56
Warum? Der K1 hat >15W TDP (6,4W für die 4 A15, den 5. lasse ich mal weg + 8W für die GPU...dazu dann noch der Rest vom SoC)

Es sind ~2W TDP pro core fuer jeden >2GHz A15 R3.

Wo man dann selbst sich um nen Kühler kümmern muss :wink:

In dem Fall taktet die GPU auch nicht auf 850MHz wie die Variante mit dem fansink.

Skysnake
2014-04-01, 09:52:27
Ach du meintest ohne FANsink, nicht ganz allgemein ohne Kühler.

Ja klar, das ist halt einfach ne schwächere Ausführung.

Undertaker
2014-04-01, 11:46:59
Beim S800 musst du glaube auch das Modem dazu kaufen, denn im High_end hat QC meine ich kein Modem integriert, aber als Paket wirds sicher billiger als alleine. Außer das Modem ist erst beim 805 rausgeflogen, aber ich bin auf jeden Fall der Meinung dass da nicht überall eins im Chip ist.

S800 und S801 gibt es auf jeden Fall als LTE-Versionen. Und auch wenn zukünftige Chips ohne integiertes LTE daherkommen ist es für Qualcomm das naheliegendste, ein Bundle aus SoC und LTE entsprechend so zu preisen, dass es ggü. jeglicher Konkurrenzlösung mit zusätzlichem Qualcomm-WWAN im Vorteil ist. ;) Es ist dementsprechend wenig überraschend, dass z.B. auch Mediatek eigene LTE-Technik entwickelt.

Warum? Der K1 hat >15W TDP (6,4W für die 4 A15, den 5. lasse ich mal weg + 8W für die GPU...dazu dann noch der Rest vom SoC)

Eine TDP entspricht in diesem Segment typischerweise nicht der Summe aller Einzel-Maximalwerte. Apples A7 liegt bei Volllast und Maximaltakt von GPU + CPU auch im zweistelligen Bereich (allein die CPU kommt auf bis zu 8 Watt, also vier Watt pro Kern - siehe Anandtech (http://www.anandtech.com/show/7460/apple-ipad-air-review/3)), nur wird in der Praxis zuvor gedrosselt.

mboeller
2014-04-01, 12:34:34
Eine TDP entspricht in diesem Segment typischerweise nicht der Summe aller Einzel-Maximalwerte. Apples A7 liegt bei Volllast und Maximaltakt von GPU + CPU auch im zweistelligen Bereich (allein die CPU kommt auf bis zu 8 Watt, also vier Watt pro Kern - siehe Anandtech (http://www.anandtech.com/show/7460/apple-ipad-air-review/3)), nur wird in der Praxis zuvor gedrosselt.

Das ist ein Prototyping-Board, also für volle Leistung ausgelegt....... <seufz>

Undertaker
2014-04-01, 12:37:58
Das diente nur als Klarstellung für all diejenigen, die meinen einen Wert von vielleicht 15 Watt mit dem in Smartphones oder Tablets handlebaren Rahmen zu vergleichen. ;) Siehe den von dir zitierten Kommentar von Unicous, den das offensichtlich sehr verwundert hat....

robbitop
2014-04-01, 14:04:24
Hat Anand nicht das ganze iPad gemessen? Von 12 W nehmen die Wandler, das Display, der RAM etc sicherlich auch einen ordentlichen Schluck. Zweistellig würde ich dort eher in Frage stellen (A7).

Undertaker
2014-04-01, 14:13:17
Anand hat rund 3 Watt im Leerlauf und 11 Watt mit seinem CPU-only Auslastungstool gemessen. Macht 8 Watt für die CPU (Leerlaufverbrauch = 0 angenommen), meinetwegen etwas weniger weil der RAM unter Last auch etwas mehr schluckt.

Unicous
2014-04-01, 14:19:07
Das diente nur als Klarstellung für all diejenigen, die meinen einen Wert von vielleicht 15 Watt mit dem in Smartphones oder Tablets handlebaren Rahmen zu vergleichen. ;) Siehe den von dir zitierten Kommentar von Unicous, den das offensichtlich sehr verwundert hat....

Es ging mir um den Lüfter an sich (nicht um seine Existenz). Der Plastikbomber ist sicherlich nicht gerade leise. (Jaja, ich weiß Embedded, scheiß egal... bla bla)

Auf der CES hat man noch diesen "schönen, großen" Alublock gesehen, von einer sanften Brise angeblasen und jetzt hat man kein Geld mehr für nen Kühlbock und haut dieses... Ding drauf? Auf den Dev-Board Schema sah der nämlich noch deutlich "filigraner" aus. Und nicht so hoch und breit.

Dural
2014-04-01, 14:33:14
Ich finde den Kühler für die gebotene Leistung sogar recht klein, sofern die SoC so nicht Drosselt ist das sogar Top!

Wenn man bedenkt das selbst sogar die T3 Konsole einen aktiven Kühler drauf hat und der T3 problemlos in Tablets und Smartphone läuft ist das OK.

Undertaker
2014-04-01, 16:07:19
LTE-Diskussion hierhin ausgelagert:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=551341

Ailuros
2014-04-01, 17:43:05
Es ging mir um den Lüfter an sich (nicht um seine Existenz). Der Plastikbomber ist sicherlich nicht gerade leise. (Jaja, ich weiß Embedded, scheiß egal... bla bla)

Bilder geben oefters einen falschen Eindruck; der fansink ist nach NV's eigener Dokumentation 57*68mm. "Gross" wuerde ich den fansink nicht nennen, etwas groesser als Luefter die ich frueher mal fuer mobo chipsets benutzt habe wenn diese zu heisse wurden.

Hugo78
2014-04-01, 19:37:57
Es ging mir um den Lüfter an sich (nicht um seine Existenz). Der Plastikbomber ist sicherlich nicht gerade leise. (Jaja, ich weiß Embedded, scheiß egal... bla bla)

Im Shield ist auch einer und ...
Der Lüfter läuft praktisch unhörbar
Quelle: http://extreme.pcgameshardware.de/news-kommentare-zu-mobilen-geraeten/300089-nvidia-shield-die-tragbare-konsole-im-hands-test-nette-spielerei-oder-ernstzunehmender-handheld-2.html#post5775948

mboeller
2014-04-03, 13:26:50
Test:

http://www.notebookcheck.com/Test-Nvidia-Tegra-Note-7-Tablet.113848.0.html

Simon
2014-04-03, 17:29:58
Test:

http://www.notebookcheck.com/Test-Nvidia-Tegra-Note-7-Tablet.113848.0.html
Ist bestimmt naechstes Jahr lieferbar, so wie die meisten anderen Tegra-Produkte auch :freak:
Ist selbst hier in den USA, 200km vom Nvidia HQ nirgends lieferbar ... Oh, seit ein paar Tagen ja doch wenigstens ein bischen lieferbar ...

Ailuros
2014-04-03, 17:43:43
Test:

http://www.notebookcheck.com/Test-Nvidia-Tegra-Note-7-Tablet.113848.0.html

Unsere Akkutests ergeben ein differenzierteres Bild: Die maximale Akkulaufzeit ermitteln wir bei minimaler Displayhelligkeit und aktiviertem Energiesparmodus bei inaktivem Displaytimeout. Hier werden 19 Stunden und 45 Minuten erreicht. Damit liegt das Tegra Note 7 in etwa auf Augenhöhe mit Konkurrenten wie dem Apple iPad Mini Retina (23,8 Wh), dem Lenovo S5000-F (3.450 mAh) oder dem HP Slate 8 Pro 7600eg (21 Wh). Das Samsung Galaxy Tab 3 7.0 SM-T210 (14,73 Wh/4.000 mAh) schafft mit 11 Stunden und 45 Minuten deutlich weniger, das Google Nexus 7 2013 (16 Wh/3.950 mAh) wartet dagegen mit über 44 Stunden auf.

Das andere Extrem testen wir mittels der App Stability Test. Hierbei werden CPU und GPU bei höchster Displayhelligkeit voll ausgelastet. Nach 2 Stunden 20 Minuten verlangt das Testsample bereits nach dem Ladegerät. Hier zeigt sich die Mitbewerberschar durchweg ausdauernder: Erst nach 3 bis 4,5 Stunden erlöschen hier die Displays.

Kann doch nur sein dass die A15 Kerne sooooooo verdammt effizient sind, wenn es zu perf/W kommt und dabei takten ja hier weder CPU noch GPU auf voller Shield Frequenz pah :rolleyes:

Das T7 Note ist alles andere als schlecht insgesamt als Geraet und dazu noch bei einem so niedrigen Preis, aber ich platze wenn ich die Klappe halte oder es kommt im Notfall noch wo anders raus :D

Unicous
2014-04-03, 17:55:24
Dazu kommt, dass das Note eigentlich die höherere Kapazität hat und geringere "Wattstunden".

Die saving graces sind doch eigentlich nur der Preis und das im Preissegment sehr ordentliche IPS-Display.


Ich persönlich glaube , dass Nvidia hier drauf zahlt. Besonders wenn man bedenkt, dass Google ihre Nexus-Reihe ja auch fast zum Selbstkostenpreis verkauft (bzw. wenn alles zusammenkommt sicherlich noch Miese macht).

Hugo78
2014-04-03, 19:02:59
Kann doch nur sein dass die A15 Kerne sooooooo verdammt effizient sind, wenn es zu perf/W kommt und dabei takten ja hier weder CPU noch GPU auf voller Shield Frequenz pah :rolleyes:

Ja wollen wir hoffen, dass die 40-45% höhere Effizenz der A15-R3 Kerne im K1 auch so durchschlagen.
Dann hätte man in dem Test auch unter Volllast die üblichen 3-4h.

Wobei man mit Blick auf das aktuelle Note 7 nicht ganz unterm Tisch fallen lassen sollte, dass es zumindet im Vergleich zu den weiteren Androidgeräten am schnellsten im T-Rex ist. (Apple ist halt Apple)

Und beim surfen ist das Note 7 auch alltagstauglich ggü. Geräten mit auch nur 15-16Wh Akku.
Beim praxisnahen Surftest via WLAN lassen wir das Testgerät bei auf 150 cd/m² angepasster Helligkeit (rund 40 Prozent) verschiedene Webseiten im Minutentakt ansurfen. Nach 6 Stunden und 25 Minuten muss sich das Tegra Note 7 hier geschlagen geben und liegt etwa gleichauf mit dem Google Nexus 7 2013 und dem Samsung Galaxy Tab 3 7.0 SM-T210.

Ailuros
2014-04-03, 19:48:57
Ja wollen wir hoffen, dass die 40-45% höhere Effizenz der A15-R3 Kerne im K1 auch so durchschlagen.
Dann hätte man in dem Test auch unter Volllast die üblichen 3-4h.

Wo steht denn etwas von 40-45%?

Wobei man mit Blick auf das aktuelle Note 7 nicht ganz unterm Tisch fallen lassen sollte, dass es zumindet im Vergleich zu den weiteren Androidgeräten am schnellsten im T-Rex ist. (Apple ist halt Apple)

Nur in dem Test natuerlich. Alles mit S800/Adreno330 ist deutlich schneller im GLB2.7 ist aber nicht im Test vertreten.

Und beim surfen ist das Note 7 auch alltagstauglich ggü. Geräten mit auch nur 15-16Wh Akku.

Na da fehlt der Rest vom Paragraphen:

Andere Konkurrenten bieten jedoch klar mehr. HP Slate 8 Pro 7600eg, Lenovo S5000-F und Apple iPad Mini Retina punkten mit Laufzeiten zwischen 9 und rund 15,5 Stunden.

Hugo78
2014-04-03, 21:13:55
Wo steht denn etwas von 40-45%?
Na im K1 White Paper, ... ja ja ist NV Propaganda, aber ich sag ja hoffentlich stimmt das auch.

Nur in dem Test natuerlich. Alles mit S800/Adreno330 ist deutlich schneller im GLB2.7 ist aber nicht im Test vertreten. Ist halt ne Frage des Preispunkts.

Na da fehlt der Rest vom Paragraphen:
Na ja das Lenovo kommt mit einem 1,2 GHz A7 Quad, ein Langläufer ohne Power ... das HP Slate 8 Pro 7600eg (auch T4, nur 50€ teurer, höhere Auflösung, aber komischer Verbrauchs-Bug im ausgeschalteten Zustand) kommt einem größeren 21 Wh Akku, na und für den Preis eines Apple iPad Mini Retina kann man sich zwei Note 7 kaufen, abwechselt aufladen, dann hat man die selbe Laufzeit oder so. *hust* :biggrin:

Ailuros
2014-04-04, 07:40:45
Na im K1 White Paper, ... ja ja ist NV Propaganda, aber ich sag ja hoffentlich stimmt das auch.

Ach den slide meinst Du; ich sehe nicht warum es NICHT stimmen sollte nur schau es Dir noch mal genau an und denk nach ob und wie oft jeglicher CPU Kern auf 2GHz hochtaktet. Bis zu 40% Mehrleistung aber wo immer die CPU Kerne niedriger takten ist der Unterschied auch diametrisch kleiner. Auf einem quad A7 ist es verdammt selten dass die CPUs in 3D auf 1GHz steigen, die Mehrzahl bewegt sich meistens um die 800MHz. Bei einem A15 kommt man dafuer auch locker mit weniger als der Haelfte aus.

Ist halt ne Frage des Preispunkts.

Na ja das Lenovo kommt mit einem 1,2 GHz A7 Quad, ein Langläufer ohne Power ...

Das Ding kostet aber auch nur 120+ Euro und es haelt auch ueber 15 Stunden beim browsen. Man kann nicht alles haben.

das HP Slate 8 Pro 7600eg (auch T4, nur 50€ teurer, höhere Auflösung, aber komischer Verbrauchs-Bug im ausgeschalteten Zustand) kommt einem größeren 21 Wh Akku,

...ist aber erhaeltlich :P

... na und für den Preis eines Apple iPad Mini Retina kann man sich zwei Note 7 kaufen, abwechselt aufladen, dann hat man die selbe Laufzeit oder so. *hust* :biggrin:

Na uebertreib mal nicht; Du kannst bei Geizhals schon ab 298 Euros ein ipad mini retina finden. Was mich stets von i-Gear fernhaelt sind Apple's idiotische Begrenzungen. Sonst ist es insgesamt schneller und ach ja es ist auch erhaeltlich :P

Sonst gibt es etliche China tablets mit vergleichbarer CPU/GPU Leistung, 6-8 Stunden wifi Batterielaufzeit und schon ab 150+ Euros mit 9.7" und 2048*1536.

Skysnake
2014-04-04, 08:07:08
Genau das ist doch das Problem von nVidia.

Das Ding ist nicht schlecht, genau wie auch ihr Chip nicht grundsätzlich schlecht ist, aber er/es ist einfach überhaupt nichts besonderes. Standardkost halt, und für Standardkost doch noch etwas zu teuer in meinen Augen, wenn man wirklich Marktanteile gewinnen will.

Ailuros
2014-04-07, 16:57:32
http://www.fool.com/investing/general/2014/04/06/whats-next-for-nvidias-modems.aspx

Chris Evenden: So we still need the baseband ... if only for automotive. I mean, connectivity is going to become increasingly important in all of those markets. So, we'll keep developing a standalone baseband, voice and data; we're not going to develop an integrated modem/applications processor. That product, you've got one target market in mind, which is mainstream smartphones.

RIP Tegra 4i
While there had been some encouraging early signs for the company's Tegra 4i (integrated apps processor and baseband), it looks as though the part ultimately failed to gain enough traction to continue developing successors. The problem here, and one that many had feared would ultimately be the case, is that this market is all about bringing in the cheapest, most integrated chip at the lowest possible cost.

Als ich vor einiger Zeit sagte dass NV vorhat Schritt fuer Schritt aus dem consumer Markt aussteigen will wollte es keiner glauben. "Was jetzt wo alles so toll aussieht...."?

The smartphone apps processor market consolidates ... again
With NVIDIA essentially out of phones, the market essentially comes down to the players I mentioned. However, given that MediaTek and Qualcomm essentially own this market, and given that Qualcomm and Intel are dramatically outspending the remaining players in this market, the consolidation isn't over.

Als ob NV je einen nennenswerten smartphone Marktanteil hatte den ich verpasst habe. Ja TI, ST Ericsson und Renesas sind ausgestiegen in letzter Zeit aber es werden auch nicht die einzigen sein langfristig.

Sonst zum Rest vom BS von dem Spinner kein Kommentar :rolleyes:

Unicous
2014-04-07, 17:07:58
Artikel von Ashraf Eassa würde ich persönlich nicht mal mit Asbesthandschuhen anfassen. Der ist ein spin doctor par excellence und absouluter Intel fanboi. Falls dir mal "Intel17" in einem Forum über den Weg läuft, kannst du dir relativ sicher sein, dass er es ist und wieder eine Lobhudelei auf Intel anstimmt. ARM und AMD sind natürlich der letzte Dreck und Nvidia bekommt je nach Ausgangslage auch ne Breitseite FUD vor den Bug geschossen.

Von daher ist das eher ne self fulfilling prophecy, was er uns da erzählen will.

Skysnake
2014-04-07, 17:57:16
http://www.fool.com/investing/general/2014/04/06/whats-next-for-nvidias-modems.aspx

Als ich vor einiger Zeit sagte dass NV vorhat Schritt fuer Schritt aus dem consumer Markt aussteigen will wollte es keiner glauben. "Was jetzt wo alles so toll aussieht...."?

Als ob NV je einen nennenswerten smartphone Marktanteil hatte den ich verpasst habe. Ja TI, ST Ericsson und Renesas sind ausgestiegen in letzter Zeit aber es werden auch nicht die einzigen sein langfristig.

Sonst zum Rest vom BS von dem Spinner kein Kommentar :rolleyes:
KEiner stimmt nicht. Ich war da immer auf deiner Seite :tongue:

Ailuros
2014-04-07, 18:03:05
KEiner stimmt nicht. Ich war da immer auf deiner Seite :tongue:

Du bist so oder so eine Ausnahme :weg:

Ailuros
2014-04-11, 16:55:29
Mal schauen ob LG mit ihrem ODIN fertig werden...?

Ist zwar OT aber: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10176143&postcount=26

Sonst drumroll es kommt bald was fuer Denver (nein nichts schlechtes...)....

Ailuros
2014-04-21, 19:49:27
Und ein weiterer Tegra schnarch-blurb: http://blogs.nvidia.com/blog/2014/04/18/new-york-auto-show/

Unicous
2014-04-21, 20:03:58
Hmm hat Nvidia da schon eine Überleitung gebastelt? Big Apple. Apple.

...

Apple CarPlay auf der New York International Auto Show

http://www.theverge.com/2014/4/17/5622006/apple-carplay-volvo-hyundai-mercedes-benz-hands-on

Kostet so gut wie nichts, ist leicht integrierbar erreicht dadurch den Massenmarkt viel schneller und ist nicht auf teure Karren beschränkt. Mit einem iPad powered by Apple A8 braucht es dann auch keinen K1 mehr.:tongue:


In dem PR-Gepupse steht ja nicht mal ob daraus dieses Jahr noch etwas wird.

Bei CarPlayhingegen steht zumindest

Apple’s initial CarPlay roll out is rather limited — in addition to Hyundai, Mercedes-Benz, and Volvo, just Ferrari and Honda have committed to launching cars with it this year.

Ach Nvidia.:rolleyes:

Hugo78
2014-04-21, 20:13:43
Immerhin machen sie Werbung für deutsche Autos.
Fehlt nur noch Mercedes und der Einstieg als Sponsor im werkseigenem F1 Team, dann werden die Silberpfeile noch etwas grüner als sie ohnehin schon sind. :biggrin:

@Unicous

Apple im Auto... fubar.

AffenJack
2014-04-21, 20:24:25
Auch wenn es nichtssagendes PR-Gedöns ist, du kannst es jetzt schon kaufen/vorbestellen, wenn du dich mal informiert hättest. Es hat auch mit dem Kram den du verlinkst nicht viel zutun. Apple bringt nicht viel mehr als eine Softwareoberfläche für die Apple-Schnittstellen, die man bei den Autos schon dazu kaufen konnte. Da solltest du wenn dann in die Googlethreads schreiben, wieso Android da hintendran ist.
Es möchte auch nicht immer jeder sein Handy anschließen und so wird es definitiv weiterhin im Auto solche Komponenten geben.

Blediator16
2014-04-21, 20:29:35
Kann man im Automotiv Bereich überhaupt verdienen? Wenn ich die Konsolendeals im Kopf habe, dann wurde da von Peanuts geredet. Die Absatzzahlen von Konsolen übersteigen jedenfalls Autoabsatzzahlen um ein vielfaches.

Unicous
2014-04-21, 20:39:01
Auch wenn es nichtssagendes PR-Gedöns ist, du kannst es jetzt schon kaufen/vorbestellen, wenn du dich mal informiert hättest. Es hat auch mit dem Kram den du verlinkst nicht viel zutun. Apple bringt nicht viel mehr als eine Softwareoberfläche für die Apple-Schnittstellen, die man bei den Autos schon dazu kaufen konnte. Da solltest du wenn dann in die Googlethreads schreiben, wieso Android da hintendran ist.
Es möchte auch nicht immer jeder sein Handy anschließen und so wird es definitiv weiterhin im Auto solche Komponenten geben.

Was kann ich bestellen? Das VCM? Und was mache ich dann damit? Dein "Wenn du dich mal informiert hättest"...hättest du ja mal in ein "Ich informier dich" umwandeln können. Denn so kann ich damit nichts anfangen.

Es geht mir um eine konkrete Implementierung in Autos die es zu kaufen gibt. Das ist mir zuviel Prototyp und zu wenig Retail.

Das 1-Liter Auto wurde auch schon auf zig Auto Shows gezeigt...

AffenJack
2014-04-21, 21:04:39
Was kann ich bestellen? Das VCM? Und was mache ich dann damit? Dein "Wenn du dich mal informiert hättest"...hättest du ja mal in ein "Ich informier dich" umwandeln können. Denn so kann ich damit nichts anfangen.

Es geht mir um eine konkrete Implementierung in Autos die es zu kaufen gibt. Das ist mir zuviel Prototyp und zu wenig Retail.

Das 1-Liter Auto wurde auch schon auf zig Auto Shows gezeigt...

VCM? Soweit ich dich verstanden hab, hast du dich auf Ails Meldung bezogen und da geht es um Nvidia powered Navis in einigen Wagen. Den i3 kannste vorbestellen, den A3 mit Nvidia Navi glaube ich auch oder wird sogar ausgeliefert. Falls du was anderes meintest solltest du das nochmal erläutern, dann hats aber nicht viel mit Nvs PR-Meldung zutun.

Kann man im Automotiv Bereich überhaupt verdienen? Wenn ich die Konsolendeals im Kopf habe, dann wurde da von Peanuts geredet. Die Absatzzahlen von Konsolen übersteigen jedenfalls Autoabsatzzahlen um ein vielfaches.

Die Navisysteme die Nv hier auch vorstellt sind auch nur Peanuts, da verdienste nicht viel dran. Viel wichtiger ist das Autopilot Zeug. Da leistet Nvidia verdammt viel Softwaresupport und wird sich das gut zahlen lassen.

Ailuros
2014-04-21, 22:27:24
Na schau her aus den schnarch-blurb kam eine halbwegs interessante Debatte.

Affenjack,
Es dauert noch eine Ewigkeit bis auto pilots auf die Strassen kommen. Bis dann brauchen sie realen Umsatz.

Botcruscher
2014-04-21, 23:19:13
Ich frage mich nur wo der herkommen soll. Irgendwo muss da doch ein Ziel für die Sparte sein. Smartphone ist nicht. Bei den Tablet fehlt irgendwie ein Grund warum ein Kunde Tegra kaufen sollte. Auto ist bei den Gewinnspannen für die Zulieferer doch ein Scherz. Nebenbei ist da jeder Billigchip besser dran als eine Stromschleuder mit Lüfter. Im Innenraum ist das Ding inakzeptabel, draußen ist nach 6 Monaten der Lüfter zu.
Intel hat mit Cherry-Trail und Braswell auch endgültig ausgepennt. Neben den sehr ordentlichen Spezifikationen kauft man sich den Umsatz einfach.

Hugo78
2014-04-21, 23:38:50
Nebenbei ist da jeder Billigchip besser dran als eine Stromschleuder mit Lüfter.

Ja, bei Audi und BMW arbeiten sicher nur Vollidioten.

Botcruscher
2014-04-22, 09:32:40
Warum nicht einfach mal die Realität akzeptieren? Ein Lüfter ist und bleibt ein Verschleißteil. Die Lebensdauer verkürzt sich dazu noch durch Äußere Einflüsse. Damit ist es ein potentieller Garantiefall.

Hugo78
2014-04-22, 10:21:01
Und Alternativen?
Ich mein unsere Autobauer sollen ja nicht dumm sterben.

Botcruscher
2014-04-22, 10:37:37
Man nimmt Elektronik die man passiv kühlen kann... Deswegen bin ich auf den Umfang der Kooperation ja schon gespannt. Mal sehen ob da mehr als Lippenbekenntnisse kommen.
Selbst bei den heutigen Navis und Autoradios scheut man Lüfter wie der Teufel das Weihwasser. Deswegen gehen die auch gerne mal aus.

Dural
2014-04-22, 12:03:32
Also mein zuletzt von mir eingebauter Autoradio hatte einen Lüfter.
Wie übrigens auch viele Verstärker.


Im einem Auto müssen die Komponenten bis zu 60°C Luft Temperatur aushalten können, such da mal einen leistungsfähigen SoC der man da noch passiv ohne Luftzug kühlen kann und nicht zu tote getrosselt wird.
Viel Spass beim suchen. Selbst mit Lüfter halte ich das für nicht mal so einfach.

Ailuros
2014-04-22, 15:41:40
Aktive Kuehlung ist fuer mich kein taboo im automotive Markt. Jeglicher Automobil-Hersteller wird schon wissen was und wie er integriert ueberhaupt wenn es zu etwas so heiklem kommt wie einem auto pilot.

Wo der Umsatz kommen soll um die Kosten fuer die Tegra Sparte zu decken beantwortet die Luefter hin und her Debatte aber leider nicht.

Ailuros
2014-04-24, 15:40:15
Noch etwas frueh, aber die ersten Resultate von einem K1:

http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Lenovo%20K1%20HD%20%282014%29

Womoeglich mit sehr niedrigem Takt.

....zum Zeitpunkt gab es wohl noch keine "info" Eintraege ergo schaetzten sie auf QCOM:

http://www.arctablet.com/blog/featured/lenovo-k1-hd-2014-spotted-on-gfx-benchmark/

prinz_valium
2014-04-24, 16:11:39
semi passiv kühlen. wo ist das problem?

ein kühlblock drauf und irgendwo in den luftstrom vom kühler oder sonst wie setzen.
sollte das nicht ausreichen? na dann bleibt wohl nur wirklich ein aktiver lüfter

bei einem auto ist die lautstärke aber egal.
also kann man gute langlebige lager nutzen.
sehe da kein problem. da sind reifen und bremsklötze ganz andere verschleißteile.


und man schreibt einfach in die bedienungsanleitung. "lüfter für den chip nach 4 jahren, bzw 150.km überprüfen/wechseln"

Unicous
2014-04-24, 19:41:09
Das hier schon bekannt?

https://pbs.twimg.com/media/Bl8_-GCCcAABW8r.jpg:large

Quelle: https://twitter.com/ProfMatsuoka/media

Ailuros
2014-04-24, 19:59:55
Ich hab's schon lange gesehen; dass die Kerle im Tegra technischen marketing absolute "Genies" sind hat ja auch keiner "bezweifelt" LOL :biggrin:

fondness
2014-04-24, 20:03:00
Am interessantesten finde ich die Angabe Power <11W. Das ist nicht mehr ganz wenig für einen angeblichen Tablet/Smartphone-SoC.

Unicous
2014-04-24, 20:06:52
It's over 9000.. mW.:biggrin:


Ob das in ein Shield 2 passt.:rolleyes:


Btw.


Sind die 2,5 MHz beim angeblichen Shield 2 Bench realistisch im Shield, oder wurde das nur ausgelesen.

Und wie siehts mit dem All Core Turbo aus?

Ailuros
2014-04-24, 20:08:15
Am interessantesten finde ich die Angabe Power <11W. Das ist nicht mehr ganz wenig für einen angeblichen Tablet/Smartphone-SoC.

Echt? Ich bin wohl der einzige der sich krumm lachte als ich sah dass sie fuer Tesla K40 TFLOPs mit GFLOPs verwechselt haben :P Tesla K40 hat 4.2 GFLOPs.... :freak:

10-11W sind normal fuer einen high end ultra thin tablet SoC, nur hast Du links TDP Wattage und rechts SDP. Ist aber weniger witzig als das obrige ;D

AffenJack
2014-04-24, 20:11:25
Wenn das wirklich bei nahe CPU und GPU-Vollast wäre, was ich unter Working Hard verstehen würde, wäre das schon ok. Dann müsste man nicht mehr weit runter fürs Tablet mit den Taktraten, da meist nie beide so hart belastet werden. Alleine die CPUs schlucken ja schon 6 W und dann wäre das noch 5 W für GPU. Frage ist wie Working Hard bei NV definiert ist.

In Sachen Vollastpower ohne Drosseln sind wohl die ganzen Tabletsocs in der 10W Region, aber es wird halt deutlich früher gedrosselt.

Wieviel Gflop produzieren eigentlich die vier A15 Kerne bei 2,5ghz? Das muss man bei den 326Gflops ja noch wegrechnen, wenn man auf die Gputaktrate kommen will.

Ailuros
2014-04-24, 20:18:50
Wenn das wirklich bei nahe CPU und GPU-Vollast wäre, was ich unter Working Hard verstehen würde, wäre das schon ok. Dann müsste man nicht mehr weit runter fürs Tablet mit den Taktraten, da meist nie beide so hart belastet werden. Alleine die CPUs schlucken ja schon 6 W und dann wäre das noch 5 W für GPU. Frage ist wie Working Hard bei NV definiert ist.

Es sind um die 2W pro Core bei ~2.1GHz und nicht bei den 2.5GHz Volltakt; 4 Stueck und ein area optimized bis zu ~1GHz A15 noch dazu und dann noch die GPU bei 850MHz die nach ihrer eigenen Angaben auf GPU konzentriert 40FLOPs/W liefert; 326GFLOPs / 40 = ?

In Sachen Vollastpower ohne Drosseln sind wohl die ganzen Tabletsocs in der 10W Region, aber es wird halt deutlich früher gedrosselt.

Ihr habt wohl alle oben die ersten K1 Resultate verpasst. Zwar niedrig getaktet hoechstwahrscheinlich aber man kann eventuell schon hochrechnen wenn man weiss wo man halt machen sollte ;)

***edit:

TK1 Jetson devboard delayed: http://www.phoronix.com/scan.php?page=news_item&px=MTY3MTk

AffenJack
2014-04-24, 21:32:55
Es sind um die 2W pro Core bei ~2.1GHz und nicht bei den 2.5GHz Volltakt; 4 Stueck und ein area optimized bis zu ~1GHz A15 noch dazu und dann noch die GPU bei 850MHz die nach ihrer eigenen Angaben auf GPU konzentriert 40FLOPs/W liefert; 326GFLOPs / 40 = ?

Dann wäre der CPU-Verbrauch ja 50% höher als auf Folien angekündigt? Sind deine Infos zuverlässig, das wäre nen ziemliches Autsch.
Kam auch auf 850Mhz GPU, aber dachte, dass von den 326Gflops noch die CPU abgeht und es dann etwas weniger werden.


Ihr habt wohl alle oben die ersten K1 Resultate verpasst. Zwar niedrig getaktet hoechstwahrscheinlich aber man kann eventuell schon hochrechnen wenn man weiss wo man halt machen sollte ;)

Man muss auch erstmal wissen bei wieviel man anfängt. Ich weiß nicht, wie nah an der theorethischen Füllrate man bei GFX3.0 ist. Nehm ich das Onscreen Resultet landet man bei ~220Mhz bei 8 TMUs (Sinds doch oder?). Sagen wir mal waren 250Mhz und man schafft es in Tablets mit 750Mhz zu shippen, sind wir bei perfekter Skalierung bei 23 FPS in Manhatten Offscreen im Vergleich zu 11.5 beim Snapdragon 801 und 13.2 beim A7.

Ailuros
2014-04-25, 06:59:01
Dann wäre der CPU-Verbrauch ja 50% höher als auf Folien angekündigt? Sind deine Infos zuverlässig, das wäre nen ziemliches Autsch.
Kam auch auf 850Mhz GPU, aber dachte, dass von den 326Gflops noch die CPU abgeht und es dann etwas weniger werden.

Seite6 im graph: http://www.nvidia.com/content/PDF/tegra_white_papers/tegra-K1-whitepaper.pdf

Man muss auch erstmal wissen bei wieviel man anfängt. Ich weiß nicht, wie nah an der theorethischen Füllrate man bei GFX3.0 ist. Nehm ich das Onscreen Resultet landet man bei ~220Mhz bei 8 TMUs (Sinds doch oder?). Sagen wir mal waren 250Mhz und man schafft es in Tablets mit 750Mhz zu shippen, sind wir bei perfekter Skalierung bei 23 FPS in Manhatten Offscreen im Vergleich zu 11.5 beim Snapdragon 801 und 13.2 beim A7.

Der Fuellraten-test ist diesmal ziemlich schlecht einzuschaetzen weil sie alpha blending wohl mit reingesteckt haben. Das alpha blending Resultat hilft auch nicht (ausser als Indizie dass die spezifische Implementierung ziemlich an der Bandbreite haengt und da kann Kollege Undertaker lange meckern ueber "Plattitueden"... :P ). Sonst nicht schlecht insgesamt wenn auch etwas optimistisch (und das ist schon wieder zu viel verrraten) :redface:

AffenJack
2014-04-25, 08:11:17
Seite6 im graph: http://www.nvidia.com/content/PDF/tegra_white_papers/tegra-K1-whitepaper.pdf

Darauf bezog ich mich ja, da seh ich ja eher 1,6W bei glaube 2,3Ghz die das darstellen sollte. 2W eher dann wenn man wirklich noch auf 2,5ghz gehen würde.


Der Fuellraten-test ist diesmal ziemlich schlecht einzuschaetzen weil sie alpha blending wohl mit reingesteckt haben. Das alpha blending Resultat hilft auch nicht (ausser als Indizie dass die spezifische Implementierung ziemlich an der Bandbreite haengt und da kann Kollege Undertaker lange meckern ueber "Plattitueden"... :P ). Sonst nicht schlecht insgesamt wenn auch etwas optimistisch (und das ist schon wieder zu viel verrraten) :redface:

Ja war ja einfach nur ne Abschätzung und die perfekte Skalierung wirds ja eh nicht geben. Man sollte in tablets aber schon vor Adreno 420 ankommen, wenn die Leistung im Vergleich zu den großspurigen Aussagen am Anfang natürlich nicht mehr so der Bringer sein könnte.

Ailuros
2014-04-25, 08:16:43
Darauf bezog ich mich ja, da seh ich ja eher 1,6W bei glaube 2,3Ghz die das darstellen sollte. 2W eher dann wenn man wirklich noch auf 2,5ghz gehen würde.

Hast Du die T4 Resultate mit realen T4 Frequenzen relativiert?

***edit: http://www.anandtech.com/show/6787/nvidia-tegra-4-architecture-deep-dive-plus-tegra-4i-phoenix-hands-on

Ja war ja einfach nur ne Abschätzung und die perfekte Skalierung wirds ja eh nicht geben. Man sollte in tablets aber schon vor Adreno 420 ankommen, wenn die Leistung im Vergleich zu den großspurigen Aussagen am Anfang natürlich nicht mehr so der Bringer sein könnte.

Ich hab noch keinen Schimmer wie Adreno4xx aussehen wird, aber ich hab schon der Verdacht dass DX11 Transistoren heftig an Leistung weggebissen haben. Zumindest scheinen sie wie NV echte DX11 GPUs zu haben und versuchen nicht wie andere mit Tessellation ueber sw zu bescheissen ;)

Skysnake
2014-04-25, 14:13:34
Echt? Ich bin wohl der einzige der sich krumm lachte als ich sah dass sie fuer Tesla K40 TFLOPs mit GFLOPs verwechselt haben :P Tesla K40 hat 4.2 GFLOPs.... :freak:

10-11W sind normal fuer einen high end ultra thin tablet SoC, nur hast Du links TDP Wattage und rechts SDP. Ist aber weniger witzig als das obrige ;D
Nein du bist nicht der Einzige ;)

Hab die Werte aber noch nicht durchgerechnet, daher bliebs bei einem kleinen Lacher erstmal.

Ailuros
2014-04-25, 16:05:26
http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Lenovo%20K1%20HD%20%282014%29

Bei 60% mehr Takt heute bei 11.50 fps.

deekey777
2014-04-25, 17:53:34
Ist der K1 damit auf 100%? Zumindest in diesem Gerät?

AffenJack
2014-04-25, 18:21:45
http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Lenovo%20K1%20HD%20%282014%29

Bei 60% mehr Takt heute bei 11.50 fps.

Die Werte sind schon wieder anders. Nun bei 10.

@deekey777

Sollte eher immernoch in Richtung 400mhz gegangen sein, also bei dem Gerät noch lange nicht das Ende. Aber das kann man ja auch nicht als Maßstab sehen, ist ja nen 31Zoll "Tablet".

Ailuros
2014-04-25, 19:24:43
Die Werte sind schon wieder anders. Nun bei 10.

Du liest das medium Resultat aus und ich das hoechste.

Ist der K1 damit auf 100%? Zumindest in diesem Gerät?

Keine Ahnung was mit dem Geraet los ist; waere es nicht fuer die Resultate bei Kishonti wuesste ich nichtmal dass Lenovo K1 verbaut hat. Je nachdem wo es preislich liegen wird wird auch die Leistung in etwa sein. Potential ist bis zu ~2.5x der heutige score, wenn ein Luefter drinsteckt :freak:

AffenJack
2014-04-25, 23:42:47
Achso, nun versteh ich das mit den Top, Average Resultaten. Dass Lenovo K1 verbaut war länger klar, nur gings da um das 28Zoll AllinOne. Mit dem Ding hab ich das auch vorher verwechselt. Liest GfxBench die Displaygröße vielleicht falsch aus mit den 31 Zoll oder ist das nen weiteres AllinOne ist die Frage. Auf jeden Fall endlich mal nen Lebenszeichen.

Ailuros
2014-04-26, 08:18:44
Achso, nun versteh ich das mit den Top, Average Resultaten. Dass Lenovo K1 verbaut war länger klar, nur gings da um das 28Zoll AllinOne. Mit dem Ding hab ich das auch vorher verwechselt. Liest GfxBench die Displaygröße vielleicht falsch aus mit den 31 Zoll oder ist das nen weiteres AllinOne ist die Frage. Auf jeden Fall endlich mal nen Lebenszeichen.

Dann ist es wohl der AIO denn die 30.9" hatte ich auch schon gesehen und dachte es ist ein typo. Sonst zwei test runs bis jetzt einmal mit 7.7 und einmal mit 11.5 fps mit einem Fuellraten-Unterschied zwischen den beiden von ~60% http://gfxbench.com/subtest_results_of_device.jsp?D=Lenovo+K1+HD+%282014%29&id=545&benchmark=gfx30

Zur Erinnerung: http://www.tomshardware.com/news/lenovo-thinkvision-28-nvidia-tegra-k1-android,25733.html

ergo noch Luftraum fuer ca. 2x Mal so hohe Leistung.

AffenJack
2014-04-26, 09:54:20
Hast Du die T4 Resultate mit realen T4 Frequenzen relativiert?

***edit: http://www.anandtech.com/show/6787/nvidia-tegra-4-architecture-deep-dive-plus-tegra-4i-phoenix-hands-on

Ich hab noch keinen Schimmer wie Adreno4xx aussehen wird, aber ich hab schon der Verdacht dass DX11 Transistoren heftig an Leistung weggebissen haben. Zumindest scheinen sie wie NV echte DX11 GPUs zu haben und versuchen nicht wie andere mit Tessellation ueber sw zu bescheissen ;)

Der Post ist mir erst heute aufgefallen. Ja hatte ich und da passt 2,3 Ghz für die 1,6W eigentlich am besten rein. 1168 bei 1,9 und dann 14xx bei 2,3Ghz.

Zu Adreno420. Nun ich zwar auch nicht, aber man hatte ja länger her schon angegeben, dass man bis zu 40% schneller als Adreno330 ist. Da gings aber eher um den S800, während der 330 im S801 aktuell ja schon höher getaktet ist. Also würde ich schlicht und einfach 30% Steigerung schätzen. Ohne Treiberzeug sindwa da erstmal nur bei 15FPS in Manhatten.

Dann ist es wohl der AIO denn die 30.9" hatte ich auch schon gesehen und dachte es ist ein typo.

Naja, so richtig passt der Wert ja auch nicht fürs AIO. Es sei denn Lenovo bringt 2 verschiedene. Das vorgestellt hat ja 28Zoll und 4K, während bei GFX 31Zoll und HD ist. Entweder 2 AIO oder wie du schon sagst nur typo.

Undertaker
2014-04-26, 10:05:47
Das alpha blending Resultat hilft auch nicht (ausser als Indizie dass die spezifische Implementierung ziemlich an der Bandbreite haengt und da kann Kollege Undertaker lange meckern ueber "Plattitueden"... :P ). Sonst nicht schlecht insgesamt wenn auch etwas optimistisch (und das ist schon wieder zu viel verrraten) :redface:

Vielleicht schaut sich der Kollege Ailuros einfach mal an, was ich vor Monaten für Taktraten und Performancewerte im GFXBench prophezeiht habe, versteht und schweigt. ;)

Ailuros
2014-04-26, 12:17:59
Vielleicht schaut sich der Kollege Ailuros einfach mal an, was ich vor Monaten für Taktraten und Performancewerte im GFXBench prophezeiht habe, versteht und schweigt. ;)

Es war einen Anspielung auf den mobilen Shield2 thread und die Bandbreiten Debatte. Die alpha blending Resultate sind ja nicht gerade berauschend, aber Du kannst mir sehr gerne erklaeren warum dem so ist.

Sonst drei Mal darfst Du raten ob der Lenovo AIB ueber oder unter der finalen ultra thin tablet GPU Frequenzen takten wird.

Undertaker
2014-04-26, 12:40:02
Ail, vielleicht schaffst du es auch einmal bei einer umgänglichen Diskussionskultur zu bleiben und wir sparen uns weitere Seitenhiebe, ja? :)

Zum Thema Tablets: Ich bleibe auch weiterhin bei meiner vor Monaten getätigten Ansage (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10078754&postcount=3712) von 45 - 50 fps im GFXBench 2.7, was ~700 - 750 MHz Taktfrequenz entspricht.

Ailuros
2014-04-26, 12:56:46
Ail, vielleicht schaffst du es auch einmal bei einer umgänglichen Diskussionskultur zu bleiben und wir sparen uns weitere Seitenhiebe, ja? :)

Moment es ist ein Seitenhieb wenn man nur wenige Tage nach einer Diskussion ein paar Daten mehr hat, wobei ich mit "Plattitueden" beschert wurde?

Zum Thema Tablets: Ich bleibe auch weiterhin bei meiner vor Monaten getätigten Ansage (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10078754&postcount=3712) von 45 - 50 fps im GFXBench 2.7, was ~700 - 750 MHz Taktfrequenz entspricht.

Wo steht denn bewiesen dass so viel MHz auch so viel fps wirklich entsprechen? Moment NV's Behauptungen ja? Dann mach mal einen groesseren Bogen und es wird leicht zu sehen sein dass ich NV's pre launch Tegra Behauptungen seit sehr langem nicht mehr glaube. Wenn es darum geht eine Reihe von klaren Luegen wie die obrigen angeblichen 26 SP FLOPs/W zu entlarven akzeptier ich gerne die Klage fuer "beschissene Diskussionskultur".

Undertaker
2014-04-26, 13:03:23
Moment es ist ein Seitenhieb wenn man nur wenige Tage nach einer Diskussion ein paar Daten mehr hat, wobei ich mit "Plattitueden" beschert wurde?

Willst du das Thema gerne per PN klären? Das entsprechende Posting (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10187538&postcount=36) war absolut inhaltsleer und die Bezeichnung darum berechtigt.

Wo steht denn bewiesen dass so viel MHz auch so viel fps wirklich entsprechen?

Kein Kommentar zur Quelle dazu, dass die Kombination so stimmt kannst du mir glauben oder auch nicht. :) Ich wüsste aber gerne einmal deine Einschätzung für die Zielfrequenz des schnellstmöglichen, passiv kühlbaren Tablet-K1 (normaler ~10"-Formfaktor), um endlich einmal konkrete Zahlen zu hören. Ich glaube nämlich nicht, dass du hier schon einmal solche genannt hast (was ein späteres "ich hab es ja gewusst"-rufen ziemlich einfach macht, nicht? ;))

Ailuros
2014-04-26, 13:19:43
Ich werde es nicht nennen weil ich versprochen habe mich nicht darüber zu aussern. Es wird wohl reichen müssen dass ich es um einen Schnitt zu optimistisch halte. Die original angegebenen peak 950 MHz sieht man ja auch nicht wieder selbst mit aktiver Kühlung.

Aber zu den heutigen AIB Resultaten, bei den 11.5fps ist es in Reichweite eines Smartphones falls das zumindest hilft.

Avalox
2014-04-28, 12:27:38
HP hat ein Tegra Notebook mit 14 Zoll TouchDisplay durchscheinen lassen.

Welcher Tegra dort werkelt steht nicht da.

http://www.androidnext.de/wp-content/uploads/2014/04/HP-Slatebook-Android-Notebook-500x287.jpg

http://www.androidnext.de/news/hp-slatebook-14-touchscreen-laptop-mit-nvidia-tegra-cpu-und-android-betriebssystem/

deekey777
2014-05-02, 11:27:15
http://www.tabtech.de/sonstiges/nvidia-tegra-k1-mit-geringerem-stromverbrauch-fuer-tablets-geeignet
Hä?

Ravenhearth
2014-05-02, 12:10:08
Da haben die Deppen wohl die Quelle nicht kapiert (wccf-tech).

Undertaker
2014-05-02, 14:36:14
http://www.computerbase.de/2014-05/nvidias-tegra-k1-jetson-tk1-verfuegbarkeit-juli-preis/

850 MHz GPU-Takt, bei einem relativ winzigen Lüfter praktisch ohne Kühlkörper darunter. Da erscheinen mir >=700 MHz für ein Tablet-Modell auch weiterhin realistisch, aber mal abwarten.

Ailuros
2014-05-02, 14:52:46
http://www.computerbase.de/2014-05/nvidias-tegra-k1-jetson-tk1-verfuegbarkeit-juli-preis/

850 MHz GPU-Takt, bei einem relativ winzigen Lüfter praktisch ohne Kühlkörper darunter. Da erscheinen mir >=700 MHz für ein Tablet-Modell auch weiterhin realistisch, aber mal abwarten.

Winzig ist der Luefter nicht gerade und die Dimensionen von diesem aus NV's eigenen whitepapers wurden schon hier vor langem gepostet.

Hier darfst Du gerne mit Zahlen weiterspielen: http://developer.download.nvidia.com/embedded/jetson/TK1/docs/Jetson_platform_brief_May2014.pdf

Eben genau weil sie NIE Fehler im Tegra marketing machen und Gott hilf auch NIE bescheissen.

Dural
2014-05-02, 15:04:06
Ja schön und im Datenblatt steht ja auch das der K1 mit allem 12.5Watt im Bench (GFXBench 3.0) benötigt. Der A7 übrigens 7.9Watt

Und als ich den Kühler sah, dachte ich als erstes das ist ein typischer 10Watt NB oder GPU Kühler von früher.

Ein Verbrauch von rund 10-15Watt habe ich schon geschätzt als der K1 vorgestellt wurde. Wer an die 45Watt geglaubt hat ist selber schuld :P

Wie so NV es aber nie hinkriegt das schnell Produkte von ihren SoC auf den Markt sind verstehe ich bis heute nicht, eigentlich müssten die Läden schon voll mit K1 Tabelt und Co sein :rolleyes: Aber stattdessen sieht man weit und breit kein K1 Produkt :freak:

Undertaker
2014-05-02, 15:07:38
Keine Werte die jetzt neu oder überraschend wären. Und ja, der Lüfter ist ziemlich winzig, ähnelt etwa dem auf einigen Bay Trail-M Geräten (die sowohl passiv als auch aktiv gekühlt zu finden sind). Meine seit ~5 Monaten bestehende Taktprognose sehe ich bislang nicht in Gefahr, von 850 MHz in passiven Tablets hat ja keiner geredet. :)

Ailuros
2014-05-02, 15:16:24
Ja schön und im Datenblatt steht ja auch das der K1 mit allem 12.5Watt im Bench (GFXBench 3.0) benötigt. Der A7 übrigens 7.9Watt

Und als ich den Kühler sah, dachte ich als erstes das ist ein typischer 10Watt NB oder GPU Kühler von früher.

Ein Verbrauch von rund 10-15Watt habe ich schon geschätzt als der K1 vorgestellt wurde. Wer an die 45Watt geglaubt hat ist selber schuld :P

Der TDP bei 2.5GHz/850MGHz ist auch nicht bei <11W; eher >15 und unter 20W.

Vom Datenblatt zitiert:

Tegra K1 Performance per watt represented in this chart were collected on a mobile optimized Tegra K1 platform (that uses LPDDR3, smart panel, and other mobile optimized platform components). Jetson TK1 platform is not optimized for mobile power levels.

NV hat beides ergo wenn man apples to apples vergleichen will benutzt man zweierlei Platformen dafuer? Eventuell eine die etwas mehr auf Leistung und weniger auf Verbrauch optimiert ist (Jetson K1) und eine die etwas mehr auf Verbrauch und weniger auf Leistung optimiert ist (Tegra K1 mobile platform).

Ergo benutzt man Jetson K1 um die supertolle maximale Leistung zu zeigen dort wo der Verbrauch weniger wichtig ist und Tegra K1 mobile platform um die tollen perf/W ratios zu zeigen dort wo der Verbrauch erstmal wichtiger ist. Leser sind ja dumm sie werden den Unterschied nicht merken :weg:

Jetson TK1 will enable a new generation of applicationsfor computer vision, robotics,medical imaging, automotive,and many other areas.
Powered by the revolutionary 192-core NVIDIA Tegra K1 mobile processor, the Jetson platform delivers over 300 GFLOPS of performance that is almost three times more than any similar embedded platform.

Aus 365 GFLOPs original wurden 326 GFLOPs und jetzt seit neuestem >300 GFLOPs. Warum schrumpft die Nummer konstant?

Apple A7 consumed 2560 mW to deliver 13 fps on iPhone 5S. An equivalent Tegra K1 mobile platform consumes 2605 mW to deliver 1.45x higher performance. Since Jetson uses DDR3L and OS is not tuned for mobile, it consumes 3658 mW to deliver an equivalent 1.45x performance advantage over Apple A7.

Was Dir hier das whitepaper sagt aber wohl fast KEINER hier schnallen will ist dass ein K1 in einem smartphone portofolio ca. 19 fps erreicht. Der A7 SoC verbraucht hier insgesamt 2.56W fuer die 13fps. Und nein die 19 fps sind kein Ereignis selbst fuer den A7 und die absehbare Zukunft.

Jetson hingegen braucht fast 3.7W um die 19fps zu erreichen. Und ich frag nochmal wieso werden sowohl Jetson als auch die mobile Platform in einem Vergleich benutzt.

Wie so NV es aber nie hinkriegt das schnell Produkte von ihren SoC auf den Markt sind verstehe ich bis heute nicht, eigentlich müssten die Läden schon voll mit K1 Tabelt und Co sein :rolleyes: Aber stattdessen sieht man weit und breit kein K1 Produkt :freak:

Bis zum 30.06.14 ist das erste Halbjahr 2014 nicht zu Ende. NV sagte H1 14'.

Keine Werte die jetzt neu oder überraschend wären. Und ja, der Lüfter ist ziemlich winzig, ähnelt etwa dem auf einigen Bay Trail-M Geräten (die sowohl passiv als auch aktiv gekühlt zu finden sind). Meine seit ~5 Monaten bestehende Taktprognose sehe ich bislang nicht in Gefahr, von 850 MHz in passiven Tablets hat ja keiner geredet. :)

Es ist wohl nicht zu 100% Dein Bauchgefuehl; und wenn ich vom Maul des Loewen selber nicht gehoert haette dass sie sich selber "etwas" verschaetzt haben wuerde ich auch nicht darueber noergeln.

Undertaker
2014-05-02, 16:20:38
Ergo benutzt man Jetson K1 um die supertolle maximale Leistung zu zeigen dort wo der Verbrauch weniger wichtig ist und Tegra K1 mobile platform um die tollen perf/W ratios zu zeigen dort wo der Verbrauch erstmal wichtiger ist. Leser sind ja dumm sie werden den Unterschied nicht merken :weg:

Ist das jetzt Marketing-untypisch? Entscheidend ist doch, dass man in dem Paper klar sagt, welche Leistung man bei welchem Verbrauch für welche Plattform verspricht. Das ist eine absolut klare und eindeutige Aussage, wo ich im Gegensatz zum Launch-Paper, das Verbrauchs- und Leistungswerte eben nicht eindeutig benennt und Daten bei verschiedenen Taktraten ohne weitere Aufschlüsselung fast in einem Atemzug aufführt, keinen Ansatz für Kritik erkennen kann. Oder um das Pferd mal von hinten aufzubäumen: Das eine Plattform mit PCIe und SATA eben nicht mit den Verbrauchswerten eines Smartphones vergleichbar ist, versteht sich doch wohl von selbst?

Ailuros
2014-05-02, 17:40:56
Ist das jetzt Marketing-untypisch?

Mit Absicht zweierlei total irrelevante Faelle auf einer einzigen Seite zu vermischen? Ja.

Entscheidend ist doch, dass man in dem Paper klar sagt, welche Leistung man bei welchem Verbrauch für welche Plattform verspricht.

....und der normale Leser versteht es sofort ja? Warte ab bis es in die Finger von diversen trash tabloid Seiten kommt und was fuer kunterbunter Bullshit dabei rauskommt.

Nur 2 Beispiele fuer das slide dass vor ca. einer Woche getweeted wurde:

http://news.softpedia.com/news/Tegra-K1-SoC-Finally-Detailed-Has-5-8W-TDP-11W-at-Top-load-439981.shtml

Schon der Titel ist zum kotzen:

NVIDIA Tegra K1 SoC Finally Detailed, Has 5-8W TDP, 11W at Top Load

Oder auch der Spinner bei wffc tech oder wie immer die Seite heisst:

http://wccftech.com/stats-nvidia-tegra-k1-superchip-wattage-finally-revealed/

Es ist eine Woche her dass wir das slide hier besprochen haben, aber der Author "braucht" nicht die eigentliche Quelle erwaehnen weil er ja alles vom heiligen Geist bekommt.....

Das ist eine absolut klare und eindeutige Aussage, wo ich im Gegensatz zum Launch-Paper, das Verbrauchs- und Leistungswerte eben nicht eindeutig benennt und Daten bei verschiedenen Taktraten ohne weitere Aufschlüsselung fast in einem Atemzug aufführt, keinen Ansatz für Kritik erkennen kann. Oder um das Pferd mal von hinten aufzubäumen: Das eine Plattform mit PCIe und SATA eben nicht mit den Verbrauchswerten eines Smartphones vergleichbar ist, versteht sich doch wohl von selbst?

Klar und eindeutig mit dem zweischienigen Verwirrungsspiel? Kein Ansatz fuer Kritik? In welchem der NV Tegra Praesentationen hast Du persoenlich ueberhaupt einen Ansatz zur Kritik gesehen?

Sonst zum letzten Satz rechne Dir selber aus wie die Frequenz fuer so viel Leistung aussehen koennte und nein zu 100% skaliert der design auch nicht. Wenn ich es in eine Zahl umsetze ist es nichts mehr berauschendes im Vergleich zu einem iPhone5S, wobei die Batterie fuer ein K1 smartphone auf jeden Fall nicht kleiner sein wird als beim letzten. Was anderes hab ich nie behauptet.

NV kocht eben NICHT mit Perrrier, egal was manche glauben.

Undertaker
2014-05-02, 18:28:33
Mit Absicht zweierlei total irrelevante Faelle auf einer einzigen Seite zu vermischen? Ja.

Nö. Mir ist da z.B. noch gut eine CPU-Vorstellung(!) AMDs im Kopf, wo am Ende eigentlich nur die Performance der damals noch im Chipsatz befindlichen GPU verglichen wurde. Oder ganz aktuell, wo Beema (15 W) direkt Bay Trail-M (7,5 Watt) ohne Nennung der TDP gegenübergestellt wird. Solche Beispiele findest du dutzendfach bei jedem Hersteller, da brauchen wir nicht mit zweierlei Maß zu messen. :)

....und der normale Leser versteht es sofort ja?

Jetzt musst du mir aber helfen, wie soll man dieses Diagramm noch simpler darstellen?

http://abload.de/img/unbenanntfeoio.png (http://abload.de/image.php?img=unbenanntfeoio.png)

Jeder 10-jährige kann da herauslesen, dass 2,5-fache Performance und 1,5-fache Perf/Watt offensichtlich zwei unterschiedliche Arbeitspunkte beschreiben. Und für die ganz blöden gibt es sogar noch Sprechblasen. Tut mir leid, aber wenn du da ein "Verwirrungsspiel" unterstellen willst, ist das einfach fernab objektiver Kritik.

Über eine Seite wie wccftech, die schon seit Jahren nur stupide von anderen (nicht genannten Quellen) zusammenkopiert und das Originalpaper wohl nie auch nur überflogen hat, brauchen wir (das siehst du sicherlich ähnlich) nicht zu reden.

Ailuros
2014-05-02, 19:05:49
Nö. Mir ist da z.B. noch gut eine CPU-Vorstellung(!) AMDs im Kopf, wo am Ende eigentlich nur die Performance der damals noch im Chipsatz befindlichen GPU verglichen wurde. Oder ganz aktuell, wo Beema (15 W) direkt Bay Trail-M (7,5 Watt) ohne Nennung der TDP gegenübergestellt wird. Solche Beispiele findest du dutzendfach bei jedem Hersteller, da brauchen wir nicht mit zweierlei Maß zu messen. :)

Macht NV ohnehin schon wenn sie eine K1 Platform die nicht fuer smartphones gedacht ist mit smartphone SoCs (A7, S800) vergleicht. TDP und Tegra K1 passen sowieso nicht in den gleichen Satz.

Jetzt musst du mir aber helfen, wie soll man dieses Diagramm noch simpler darstellen?

Helfen fuer was? Jetson ist eine Platform fuer u.a. automotive, ergo was zum Henker interessiert es den Leser was einne andere Platform fuer ultra thin tablets z.B. genau zu Stande bringt?

Jeder 10-jährige kann da herauslesen, dass 2,5-fache Performance und 1,5-fache Perf/Watt offensichtlich zwei unterschiedliche Arbeitspunkte beschreiben.

Ja genau warum wurden nicht fuer beide Vergleiche nur Jetson K1 Vergleiche gemacht?

Und für die ganz blöden gibt es sogar noch Sprechblasen. Tut mir leid, aber wenn du da ein "Verwirrungsspiel" unterstellen willst, ist das einfach fernab objektiver Kritik.

Dann waere es mal schoen wenn Du das was in der Presse bzw. von einfachen Users meistens verstanden wird lesen wuerdest. Du bist eben nicht das praegende Beispiel in dem Fall.

Huepf mal ins B3D forum da will mir der eine Idiot einreden dass Jetson eine TDP von 10W hat (wobei es wohl vergeblich im graph steht dass es der maximale Verbrauch GFXbench3.0 Manhattan ist) und der andere hofft dass sie Tegra K1 mobile so optimieren werden dass die GPU unter 850MHz bei 5W TDP.

Mach Du Dir mal die Muehe und versuch in zahllosen fora den gleichen Mist richtig zu erklaeren und dann erst erklaer mir wie "eindeutig" NV hier an den Tag geht.

Über eine Seite wie wccftech, die schon seit Jahren nur stupide von anderen (nicht genannten Quellen) zusammenkopiert und das Originalpaper wohl nie auch nur überflogen hat, brauchen wir (das siehst du sicherlich ähnlich) nicht zu reden.

Natuerlich bin ich der gleichen Ansicht aber diese geballte Mist von allen Seiten stoert. Lass mich also stolz auf unsere kleine Ecke hier sein und die Ohren von den Lesern hier anders spitzen. Und nein man sieht den Unterschied zwischen den zwei graphs nicht auf Anhieb so leicht.

Undertaker
2014-05-02, 19:17:31
Ja genau warum wurden nicht fuer beide Vergleiche nur Jetson K1 Vergleiche gemacht?

Das ist halt Marketing-typisches Cherry-Picking, bei steigender Freqenz wird die Effizienz natürlich absinken und kein schöner Faktor 1,5 ggü. A7 mehr herausspringen. Wenn Nvidia statt Mehrleistung bei gleicher Leistungsaufnahme den Minderverbrauch bei identischer Performance gewählt hätte, wäre der zu bewerbende Effizienzvorteil (dank dann möglicher Spannungssenkungen) vermutlich sogar noch größer – eigentlich komisch, dass das nicht so gemacht wurde.

Ailuros
2014-05-02, 19:35:15
Das ist halt Marketing-typisches Cherry-Picking, bei steigender Freqenz wird die Effizienz natürlich absinken und kein schöner Faktor 1,5 ggü. A7 mehr herausspringen. Wenn Nvidia statt Mehrleistung bei gleicher Leistungsaufnahme den Minderverbrauch bei identischer Performance gewählt hätte, wäre der zu bewerbende Effizienzvorteil (dank dann möglicher Spannungssenkungen) vermutlich sogar noch größer – eigentlich komisch, dass das nicht so gemacht wurde.

Der Faktor ist heute bei 1.45x und das nicht mal bei einer realen smartphone K1 Platform, es ist aber total zwecklos erstens weil es automotive und co. nicht zu diesem Grad interessiert und eben weil am Ende nach den ersten Reaktionen der Konkurrenz nicht mehr viel uebrig bleibt.

Skysnake
2014-05-02, 20:18:49
Das ist halt Marketing-typisches Cherry-Picking, bei steigender Freqenz wird die Effizienz natürlich absinken und kein schöner Faktor 1,5 ggü. A7 mehr herausspringen. Wenn Nvidia statt Mehrleistung bei gleicher Leistungsaufnahme den Minderverbrauch bei identischer Performance gewählt hätte, wäre der zu bewerbende Effizienzvorteil (dank dann möglicher Spannungssenkungen) vermutlich sogar noch größer – eigentlich komisch, dass das nicht so gemacht wurde.
Wobei das auch nicht zwinged gesagt ist.

Es kommt halt immer darauf an, was das Board an sich schon zieht. Der RAM frisst ja z.B. immer mehr oder weniger gleich viel, egal was man macht.

Es ist halt deutlich schwieriger ne gute Perf/W bei 2-5W zu bekommen als bei 10-20W, einfach weil xWatt immer verbraucht werden durch die Interfaces.

AffenJack
2014-05-02, 20:24:27
Ganz optimal finde ich das Whitepaper auch nicht mit den Verbrauchswerten und Effizienzwerten. Aber man hat wenigstens auch die Jetson-Werte mitgeliefert, da finde ichs schon noch ok und man kann damit halbwegs abschätzen mit welchen Taktraten Tablets/Smartphones möglich wären, wenn die Behauptungen so stimmen. Wenn die nicht geschönt sind, finde ich die Energieeffizienz auch ok und jetzt nicht so schlecht.

Jetson bei 850 mhz sollte nach den Daten bei 32 FPS Manhatten landen bei 7W Verbrauch (Chip und RAM wie bei Tablets benötigt, Rest brauchste ja nicht). 19 FPS dann bei 3,6 W sollten etwa 500mhz ergeben. Wenn man wirklich fast 1 W sparen kann mit LPDDR3 usw wie im Iphonevergleich dürfte man bei 700mhz für 5 W bei GFX Bench landen. Also 700mhz mit 4x 2,1Ghz CPU fände ich in tablets durchaus möglich und ganz gut. Überschlagen so 26FPS Manhatten.

Ailuros
2014-05-02, 20:35:04
:smile:

RLZ
2014-05-02, 20:44:46
eben weil am Ende nach den ersten Reaktionen der Konkurrenz nicht mehr viel uebrig bleibt.
Ich bin mir nicht sicher, ob Reaktion das richtige Wort ist. ;)

Hugo78
2014-05-02, 21:43:01
Überschlagen so 26FPS Manhatten.

Na das wäre genau doppelt so schnell wie ein aktuelles IPad mit A7.

Ailuros
2014-05-02, 21:55:38
Ich bin mir nicht sicher, ob Reaktion das richtige Wort ist. ;)
Wenn man einen Leistungs-optimierten Treiber nur dann veroeffenlicht ist es auch kein Zufall mehr.

Ailuros
2014-05-03, 18:15:10
http://openbenchmarking.org/result/1405010-PL-1405010KH96

Ausgezeichnet.

Skysnake
2014-05-03, 19:55:38
2-2,4 GHz der Celeron und 4/4 Cores/Threads. Aber keine Ahnung, was das für ne Architektur ist.

Ist das ein Atom Ableger mit Inorder Architektur, oder schon was mit OoO?

Wenn ja, dann sind die Ergebnisse nicht schlecht, wobei der Celeron auch "nur" 10W TDP hat.

Hugo78
2014-05-03, 20:07:04
Der Celeron J1900 ist ein aktueller Bay Trail mit OoO.
http://www.notebookcheck.com/Intel-Celeron-J1900-Desktop-Prozessor.105891.0.html

Dural
2014-05-05, 09:28:11
Celeron J1900
22nm
10Watt TDP
TRAY: $82,00

finde die werte nicht mal so schlecht, im selben Prozess wäre der A15 eventuell sogar vor den x86 Cores.

AnarchX
2014-05-05, 09:44:50
Wiko WAX mit dem T4i hat wohl nur 162h Standby-Zeit: http://www.wikoblog.de/wiko/wax/wiko-wax-offiziell/ ... für 2000mAh ist das wohl eher ein unterdurchschnittlicher Wert.

Ailuros
2014-05-07, 18:32:08
http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=NVidia%20Mocha

NVIDIA Mocha 8" 2048*1536
CPU@2.1GHz
GPU ?

deekey777
2014-05-07, 19:47:33
http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=NVidia%20Mocha

NVIDIA Mocha 8" 2048*1536
CPU@2.1GHz
GPU ?
Bekommst du was angezeigt? Bei mir wird nur die obere Leiste angezeigt.
Hier die Werte bei Tabtech: http://www.tabtech.de/android-bzw-google-tablet-pc-news/nvidia-mocha-79-zoll-ipad-mini-retina-klon-mit-tegra-k1-2048-x-1536-pixeln

Die Werte sind schon heftig.

Ailuros
2014-05-07, 19:57:09
Der Eintrag ist wieder verschwunden. Wird wohl nicht mehr lange dauern bis sie wieder erscheinen.

Fuer diejenigen die es verpasst haben peak Werte:

http://www.tabtech.de/android-bzw-google-tablet-pc-news/nvidia-mocha-79-zoll-ipad-mini-retina-klon-mit-tegra-k1-2048-x-1536-pixeln

http://www.tabtech.de/wp-content/uploads/2014/05/Nvidia-Mocha-ergebnisse-gfxbench.jpg

Hugo78
2014-05-07, 22:36:49
Die Werte sind schon heftig.

Jo und mit 28fps sogar über den 26fps die Affenjack errechnet hatte.
- http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10198819#post10198819

Dural
2014-05-08, 10:13:24
Das der K1 Power hat war für mich von Anfang an klar.

Nur wird es NV mal wieder nicht hinbekommen die Produkte zeit nah in den Handel zu bringen. Der versprochene 2014H1 Termin werden sie mal sicher nicht halten können.

Ich verstehe das einfach nicht! Was um alles in der Welt ist so schwierig einen so kleinen Chip in einem bekannten Herstellungsprozess zudem mit einer Architektur die bereits bekannt ist auf den Markt zu Werfen?!? :rolleyes::rolleyes::rolleyes:
Jedes Jahr das selbe Theater :P

Es würde mich überraschen wenn wir vor September K1 Tablets bei uns im Handel sehen. Ich habe lange gewartet... mein T3 Tablet bekommt jetzt seinen verdienten Ruhestand, gestern ein neues Samsung mit Qualcomm 800 gekauft.

fondness
2014-05-08, 10:43:44
Microsoft to Use Qualcomm in Surface Mini, drops Nvidia Tegra
www.guru3d.com/news_story/microsoft_to_use_qualcomm_in_surface_minidrops_nvidia_tegra.html

Ailuros
2014-05-08, 11:53:53
Das der K1 Power hat war für mich von Anfang an klar.

Nur wird es NV mal wieder nicht hinbekommen die Produkte zeit nah in den Handel zu bringen. Der versprochene 2014H1 Termin werden sie mal sicher nicht halten können.

Ich verstehe das einfach nicht! Was um alles in der Welt ist so schwierig einen so kleinen Chip in einem bekannten Herstellungsprozess zudem mit einer Architektur die bereits bekannt ist auf den Markt zu Werfen?!? :rolleyes::rolleyes::rolleyes:
Jedes Jahr das selbe Theater :P

Sie haben einfach nicht genug Personal dafuer. Ich hab die Geschichte mit der engineer Wanderung von um zum Tegra team schon so oft erwaehnt dass es langsam langweilig wird.

Sonst fuer K1 spezifisch brauchten sie noch einen metal spin und man muss auch hier bedenken dass sie keine vorige Erfahrung mit 28HPm hatten.

Undertaker
2014-05-08, 13:40:00
Der Eintrag ist wieder verschwunden. Wird wohl nicht mehr lange dauern bis sie wieder erscheinen.

Fuer diejenigen die es verpasst haben peak Werte:

http://www.tabtech.de/android-bzw-google-tablet-pc-news/nvidia-mocha-79-zoll-ipad-mini-retina-klon-mit-tegra-k1-2048-x-1536-pixeln

http://www.tabtech.de/wp-content/uploads/2014/05/Nvidia-Mocha-ergebnisse-gfxbench.jpg

61 fps T-Rex Offscreen in einem 8"-Tablet... Das übertrifft ja selbst die optimistischsten Prognosen und sogar Nvidias eigene Zahlen. Damit hätte ich nun wirklich nicht gerechnet, die meisten hier hielten ja selbst meine 45-50 fps für zu hoch...

Ailuros
2014-05-08, 15:14:29
61 fps T-Rex Offscreen in einem 8"-Tablet... Das übertrifft ja selbst die optimistischsten Prognosen und sogar Nvidias eigene Zahlen. Damit hätte ich nun wirklich nicht gerechnet, die meisten hier hielten ja selbst meine 45-50 fps für zu hoch...

Ich hab kein Problem alles bisherige diesbezueglich zurueck zu nehmen, nur will ich erstmal alle Resultate sehen.

Sonst war das originale whitepaper bei 11 fps fuer A7 mit 2.6x Mehr-Leistung (peak) = 28.6 fps und das neueste vom Jetson K1 bei 13 fps fuer A7 mit 2.5x Mehr-Leistung = 32.5 fps. Ein Unterschied dank Treiber-Οptimierung von ~14% (wenn sie nicht am Anfang mit 950MHz peak gerechnet haben).

dildo4u
2014-05-08, 15:19:15
K1 muss doch durch die Kepler Cores riesig sein,da würde ich mindestens diese Performance erwarten.

Ailuros
2014-05-08, 15:23:14
K1 muss doch durch die Kepler Cores riesig sein,da würde ich mindestens diese Performance erwarten.

Angenommen der SoC ist ca. 100mm2 und ich sag Dir der GPU block ist ca. 1/4 davon wirst Du dadurch irgendwie weisser ohne die Transistoren-Packdichte? :rolleyes:

Ailuros
2014-05-09, 14:32:55
http://www.fudzilla.com/home/item/34704-denver-tegra-k1-64-bit-in-production-soon


http://www.fudzilla.com/home/item/34705-nvidia-might-enter-arm-micro-server-market

deekey777
2014-05-12, 16:30:47
Nvidia verdient gutes Geld mit Tegra-Sparte: http://www.anandtech.com/show/8003/nvidia-q1-2015-financial-results
Tegra Processor sales, which account for 12.6% of revenue, were up 35% year over year, and unlike GPU sales they were also up quarter over quarter 6%. The strong quarter for Tegra was attributed to a volume increase for smartphone and auto infotainment systems, but Android tablet SoCs were down partially offsetting the revenue gains. Automotive systems was up a healthy 60% year over year. Game consoles and embedded devices were down from Q1 2014, but the sequential growth of the Tegra division was attributed to the strong auto infotainment and embedded devices, so while embedded is down year over year, it’s recovered somewhat from the previous quarter.

Blediator16
2014-05-12, 16:35:02
Sehe da nichts, was darauf schließen lässt, dass Tegra gutes Geld abwirft.

Ailuros
2014-05-12, 17:44:53
Nvidia verdient gutes Geld mit Tegra-Sparte: http://www.anandtech.com/show/8003/nvidia-q1-2015-financial-results

Wenn es grob um die $140 pro Quartal bleiben fuer Tegra sind es irgendwo $560Mio Umsatz pro Jahr; im Tegra3 Jahr waren die Kosten nach NV selber bei $700Mio. Ob sie heutzutage hoeher oder niedriger sind ueberlass ich Deiner Phantasie (na Referenz Geraete und Shield entwickeln sich nicht von selber...), aber NV muss nach wie vor radikal abschlachten wenn sie nur von automotive und Co. ueberleben wollen.

Na schau her sogar Fudo ist seit neuestem aufgewacht:

http://www.fudzilla.com/home/item/34714-nvidia-changes-tegra-strategy

AffenJack
2014-05-12, 18:24:14
Die 700Mio waren nicht Kosten, sondern Break Even Point meine ich. Aber heutzutage dürfte das deutlich mehr sein dank 2 Chips in so kurzer Zeit. 1Mrd würde ich schon mindestens rechnen.

An sich sind 140Mio auch erstmal gar nicht so schlecht, wenn man bedenkt, dass man das mit wenigen T4 Tablets und nen paar Telefonen mit T4i geschafft hat. K1 wurde ja noch nicht ausgeliefert. Gutes Geld verdienen würde ich das auf keinen Fall nennen, aber immerhin ne Stabilisierung auf niedrigen Niveau mit Produkten bei den man das kaum erwartet hätte.
Normalerweise sollte man mit K1 da durchaus ne Menge Steigerungspotential haben und wenn die Tabletwerte bei akzeptablem Stromverbrauch hinkommen sollte man da auch einen guten SoC für haben. Und wenn die Chinesen selbst Tegra4 in ein Smartphone quetschen, sollte man das mit K1 eigentlich erst recht schaffen.
Aber man muss endlich mal liefern, statt Q1 K1 Auslieferung ist es ja nun schon Q2 geworden.

Ailuros
2014-05-12, 18:59:17
Das Xiaomi Volumen war nicht der Rede wert und es wird sich auch in einem neuen Fall nichts aenderen. Die einzige Hoffnung dass sich ihre Verkaufszahlen sehenswert via einer Eintagsfliege steigern ist wenn sie tatsaechlich das naechste Nexus 8" gewonnen haben welches nach Geruechten von HTC hergestellt werden soll. Mit etwas Glueck =/>10Mio Einheiten und das war es dann schon.

Mit so viel sind mit Tegra3 zum angeblichen break even point gekommen, obwohl eigentlich JHH davor selber angegeben hatte dass dieses bei $1Mrd. liegt. Wenn dieser jetzt doch bei $700Mio hab ich auch damit kein Problem. Falls sie tatsaechlich das Nexus haben dann sind es nochmal zumindest $150Mio dazu.


Aber man muss endlich mal liefern, statt Q1 K1 Auslieferung ist es ja nun schon Q2 geworden.

Sie haben nur H1 14' erwaehnt afaik; wenn's obrige stimmt wuerde ich auch fuer Q2 keine besondere Wetten eingehen.

dildo4u
2014-05-12, 19:04:38
NV hat auch noch Surface 2 angeblich sind die Verkäufe dort besser geworden.

http://winfuture.de/news,78154.html

Ailuros
2014-05-12, 20:06:23
NV hat auch noch Surface 2 angeblich sind die Verkäufe dort besser geworden.

http://winfuture.de/news,78154.html

Ich will wetten dass nach der Nachricht sowohl Samsung als auch Apple "crysis meetings" hatten :D

AffenJack
2014-05-12, 20:18:05
Mit so viel sind mit Tegra3 zum angeblichen break even point gekommen, obwohl eigentlich JHH davor selber angegeben hatte dass dieses bei $1Mrd. liegt. Wenn dieser jetzt doch bei $700Mio hab ich auch damit kein Problem. Falls sie tatsaechlich das Nexus haben dann sind es nochmal zumindest $150Mio dazu.

Hatte nochmal nachgeguckt, hast recht und war ne Milliarde Break Even. Da waren die Entwicklungskosten aber eher bei 350Millionen, wofür man dann bei 50% Marge 1Mrd Umsatz braucht zum BreakEven.


Sie haben nur H1 14' erwaehnt afaik; wenn's obrige stimmt wuerde ich auch fuer Q2 keine besondere Wetten eingehen.


Ja stimmt, aber wenn Denver auch in H2 in Produktion geht wird der Abstand der Chips langsam recht gering.

Achja übrigens, wir hatten ja mal die Margendiskussion bezüglich Automotive. Jenson hat bei der Conference gesagt, sie ist höher als Smartphones/Tablets. Aber bei den Auslieferungszahlen hilft das natürlich gerade nicht groß. Man will sich nur für die nächsten Jahre positionieren, wenns wichtiger wird. Aber prinzipiell hat sich das nicht auf reine Autofokossierung angehört, sondern man hat auch immer Devices und Gaming als Tegrasparten erwähnt und das man darin wachsen will. Ich frage mich allerdings was außer Shield noch zur Gamingsparte gehört? Wenns nur Shield ist, dann ist sie verdammt klein.

Skysnake
2014-05-13, 08:24:44
Nvidia verdient gutes Geld mit Tegra-Sparte: http://www.anandtech.com/show/8003/nvidia-q1-2015-financial-results
revenue ist Umsatz, nicht Gewinn....

Ist also ne Nullaussage. Die können dennoch massiv Verluste mit Tegra machen, wovon auszugehen ist, wenn man alle Kosten ehrlich verteilt.

robbitop
2014-05-13, 09:41:03
Ich will wetten dass nach der Nachricht sowohl Samsung als auch Apple "crysis meetings" hatten :D
Happy accident? :D

OnTopic: Wenn die 61 fps stimmen, ist das Ding mal eben > 2x so schnell wie Apples A7. In einem vergleichbaren Fertigungsprozess. Und A7s Rogue ist bis dato wirklich top-notch. Nicht schlecht, Herr Specht... :)

fondness
2014-05-13, 09:48:03
OnTopic: Wenn die 61 fps stimmen, ist das Ding mal eben > 2x so schnell wie Apples A7. In einem vergleichbaren Fertigungsprozess. Und A7s Rogue ist bis dato wirklich top-notch. Nicht schlecht, Herr Specht... :)

Nur ist diese Information ohne den Stromverbrauch wertlos, sonst könnte man auch gleich ganz andere Chips damit vergleichen.

Dural
2014-05-13, 09:51:16
In einem 7" Tablet kann der Verbrauch gar nicht so viel höher sein. Aber etwas höher wird er wohl schon sein, im vergleich zur mehr Leistung wird er aber sicher effizienter arbeiten FPS/Watt. Genau das sagt NV ja auch in ihren Datenblätter.

fondness
2014-05-13, 10:00:03
In einem 7" Tablet kann der Verbrauch gar nicht so viel höher sein. Aber etwas höher wird er wohl schon sein, im vergleich zur mehr Leistung wird er aber sicher effizienter arbeiten FPS/Watt. Genau das sagt NV ja auch in ihren Datenblätter.

Jede Wetter dass das Ding in einem 7" Tablet wieder drosselt das sich die Balken biegen und dieser Wert mit aktiver Kühlung gemessen wurde.

/Edit: Okay sehe gerade die Werte stammen angeblich von einem 7.9" Tablet, na dann mal richtige Tests abwarten.

Ailuros
2014-05-13, 10:13:41
Happy accident? :D

Absicht :P

OnTopic: Wenn die 61 fps stimmen, ist das Ding mal eben > 2x so schnell wie Apples A7. In einem vergleichbaren Fertigungsprozess. Und A7s Rogue ist bis dato wirklich top-notch. Nicht schlecht, Herr Specht... :)

Nach dem ersten Schub von Geraeten mit K1 launches werden wir sehen wer besser fuer benchmarks seine GPUs optimiert. Wenn Du jetzt aber wirklich Samsung 28nm und TSMC 28HPm als "vergleichbar" haelst, be my guest. Der Unterschied zwischen den beiden ist etwas mehr als ein half node wert, hat aber mit dem vorigen nichts zu tun.

Jede Wetter dass das Ding in einem 7" Tablet wieder drosselt das sich die Balken biegen und dieser Wert mit aktiver Kühlung gemessen wurde.

/Edit: Okay sehe gerade die Werte stammen angeblich von einem 7.9" Tablet, na dann mal richtige Tests abwarten.

Falls Du auf Tegra4 Shield und ultra thin tablets mit Tegra4 anspielen solltest, die GPU im ersten taktet auf 675MHz, waehrend die zweiten zwischen 575 und 605MHz takten. In tablets drosselt die T4 GPU hier nicht wirklich nur ist die durchschnittliche Leistung von passiv gekuehlten tablets um ~25% niedriger als auf dem aktiv gekuehltem Shield.

NV Mocha im Gegensatz mit den schnell geleakten Resultaten ist tatsaechlich ein 8" tablet wo es nirgends eine Indizie gibt fuer irgend etwas ausserhalb passiver Kuehlung aber auch keinen Fetzen an benutzter Batterie-groesse. Die 61 fps peak in GLB2.7 und 29+ fps in GLB3.0 sind momentan ein Faktor =/<2.2x gegenueber einem iPhone5S, wobei sich K1 egal wo integriert im tablet/smartphone Markt eher mit der naechsten i-Familie konkurrieren wird.

Dural
2014-05-13, 14:04:43
Ich finde der M1 mit Maxwell Core und eventuell schon 20nm so wie so Interessanter, der müsste noch mal deutlich was auf die Effizient Linie zulegen. Damit wäre NV sicher in der Lage die Leistung eines K1 in den Verbrauch eines richtige Smartphone SoC zu Integrieren. Mit 20nm wären die A15 Cores sicher auch nicht mehr so das Problem. Oder natürlich die doppelte Leistung bei selben Verbrauch, was ja auch nicht schlecht wäre.

AffenJack
2014-05-13, 14:50:21
So einfach ist es auch nicht nach ganz unten zu skalieren und nach Nvs Aussagen hat man da auch kein Interesse mehr dran. Smartphones wird maximal ne Randerscheinung bleiben. A15 werden wir in 20nm wohl auch nicht mehr sehen, sondern nur noch Denver. Meine Schätzung dafür, 4x Denver-Kerne und nen auf Low-Power angepasster GM108, also 384SPs. Halb soviele TMUs wie GM108 sollten glaube auch ausreichen. Das sollte in 20nm unterzukriegen sein und man könnte bei 16FF einfach nur nen Shrink mit höheren Taktraten machen.

deekey777
2014-05-13, 14:54:45
Happy accident? :D

OnTopic: Wenn die 61 fps stimmen, ist das Ding mal eben > 2x so schnell wie Apples A7. In einem vergleichbaren Fertigungsprozess. Und A7s Rogue ist bis dato wirklich top-notch. Nicht schlecht, Herr Specht... :)

Wenn der K1 es noch schafft, in diesem Halbjahr auf den Markt zu kommen, so wird er paar Monate lang die Performance-Krone haben (zumindest bei der Grafik). Der A8 wird noch im dritten Quartal kommen, vielleicht ist auch der Adreno 420 (430) schon draußen. Und dann wird's interessant, welcher SoC wie lange führend bleibt.

So oder so: Diese hohe Leistung braucht man dann, wenn für K1-Geräte weitere PC-Spiele portiert werden.

Hugo
2014-05-13, 15:42:52
T3 im Lamborghini
http://www.hartware.de/news_60700.html

Ailuros
2014-05-13, 17:52:58
Ich finde der M1 mit Maxwell Core und eventuell schon 20nm so wie so Interessanter, der müsste noch mal deutlich was auf die Effizient Linie zulegen.

NVIDIA selber gibt nur 50% mehr FLOPs/W fuer die Erista GPU an im Vergleich zu GK20A. Das die erste aus 2 SMMs bestehen wird ist nach dem nicht mehr schwer auszurechnen.

Damit wäre NV sicher in der Lage die Leistung eines K1 in den Verbrauch eines richtige Smartphone SoC zu Integrieren. Mit 20nm wären die A15 Cores sicher auch nicht mehr so das Problem. Oder natürlich die doppelte Leistung bei selben Verbrauch, was ja auch nicht schlecht wäre.

Weil 20nm das ploetzliche Allerheilmittel ist, oder weil die Konkurrenz keinen Zugang zu 20nm hat oder weil jegliche konkurrierende Loesung in H2 2015 nicht zumindest genauso dazulegen wird wie in H2 2014?

Fuer 2015 sind high end SoCs mit >400GFLOPs von der GPU alleine alles andere als eine besondere Ueberraschung.

Wenn der K1 es noch schafft, in diesem Halbjahr auf den Markt zu kommen, so wird er paar Monate lang die Performance-Krone haben (zumindest bei der Grafik). Der A8 wird noch im dritten Quartal kommen, vielleicht ist auch der Adreno 420 (430) schon draußen. Und dann wird's interessant, welcher SoC wie lange führend bleibt.

Und was passiert wenn es frueher sein sollte und selbst das naechste iPhone effizienter ist als viele erwartet haetten?

So oder so: Diese hohe Leistung braucht man dann, wenn für K1-Geräte weitere PC-Spiele portiert werden.

Zuerst kommt Marktanteil dann erst Entwickler-Interesse. Die paar Einzelfaelle bringen auch nicht den Fruehling. Frueher gab es unendlichen ramtamtam ueber angebliche Optimierungen die auch nichts besonderes waren und auch nur in geringen Faellen.

NV braucht Volumen und davon gibt es momentan noch gar nichts in Aussicht egal wie viele Gefallen sie verstreut von gelegentlichen ISVs erreichen oder was sie gerade noch zwischendrin bezahlen koennen um es angeblich auf Trab zu bekommen.

So einfach ist es auch nicht nach ganz unten zu skalieren und nach Nvs Aussagen hat man da auch kein Interesse mehr dran. Smartphones wird maximal ne Randerscheinung bleiben. A15 werden wir in 20nm wohl auch nicht mehr sehen, sondern nur noch Denver. Meine Schätzung dafür, 4x Denver-Kerne und nen auf Low-Power angepasster GM108, also 384SPs. Halb soviele TMUs wie GM108 sollten glaube auch ausreichen. Das sollte in 20nm unterzukriegen sein und man könnte bei 16FF einfach nur nen Shrink mit höheren Taktraten machen.

Maxwell SMMs haben 128SPs/SMM. Bei allein 800MHz (2 SMMs) sind es schon 410GFLOPs FP32. Werden sie auch brauchen; Projektionen sprechen von bis zu 500 GPU GFLOPs in 2015 fuer tablets.

AffenJack
2014-05-13, 19:23:44
Maxwell SMMs haben 128SPs/SMM. Bei allein 800MHz (2 SMMs) sind es schon 410GFLOPs FP32. Werden sie auch brauchen; Projektionen sprechen von bis zu 500 GPU GFLOPs in 2015 fuer tablets.

Die 128 SP/SMM waren mir schon klar, aber hatte drüber nachgedacht ob es für die Entwicklungskosten nicht Sinn gemacht hätte auf 3SMM zu gehen und dafür mit Takt runter und erst 16FF wieder hoch. So hätte man halt einfach direkt auf 16FF refreshen können ohne große Veränderungen am Chip. Aber bei 50% mehr Gflop/W müssen es wirklich eher 2 SMM sein. Bei 16FF wird man gegen die Konkurenz aber wohl eher auf 3SMM gehen müssen.

Aber das ist alles noch zuweit in der Zukunft. Über K1 mit A15 weiß man nun auch schon recht viel, aber das wirklich interessante ist wie ich finde K1 mit Denver. Da müsste es doch bald mal endlich paar Infos geben. Wenn die Massenproduktion in spätestens 6 Monaten starten soll, muss Nv das Ding bald mal präsentieren.

Ailuros
2014-05-13, 20:36:23
Ich unterschaetze CPUs nicht, aber IMHO ist die Trumpfkarte von Logan die GK20A GPU. Wenn NV irgend einen anständigen design win mit K1 erreicht dann mit der A15 Variante. Für 64bit CPU mögliche Volumen deals lässt wohl eher Erista gruessen.

Sonst reichen 3 SMMs für 2016 nicht aus wenn sie mit dem ueberteurten high end Wettrennen bis dahin auch weitermachen. Automotive & embedded bewegen sich viel zu langsam dass sie damit langfristig so weitermachen können.

***edit: FLOP != FLOP zwischen Maxwell & Kepler!

Dural
2014-05-13, 21:49:48
Wenn sie nur 50% angeben wird er wohl noch in 28nm sein. Und in Anbetracht dessen ein Top Wert.

AffenJack
2014-05-13, 21:52:43
Bei Logan ist natürlich die GPU das wichtigere, aber Denver zeigt schlicht und einfach wies in Zukunft aussehen wird. Als Basis für Erista, Parker und in den Maxwell-Highendgpus und sogar die gesamte mittelfristige Entwicklung in Sachen CPU. Nvidia hat nicht das Geld nen anderes CPU_design ausn Boden zu stampfen, wenn Denver nen Flop ist. Dann ist man in der Hinsicht erstmal auf Jahre hintendran.


Das 3SMMs für 2016 nicht ausreichen bezweifle ich. In 16FF hat man gerademal 15% mehr Fläche zur Verfügung als 20nm. Der Smartphone/Tabletmarkt wird sich genauso wie der Desktop/Notebookmarkt bei langsamen Leistungswachstum stabilisieren und es wird bald keine riesigen Sprünge mehr geben.

deekey777
2014-05-13, 22:16:19
Und was passiert wenn es frueher sein sollte und selbst das naechste iPhone effizienter ist als viele erwartet haetten?


Genau das meine ich: asymmetrische Veröffentlichungen. Es wäre für den Verbraucher viel einfacher, wenn die neuen SoCs in etwas gleichzeitig starten würden. Nur ist das ein feuchter Traum. Heute ist A schneller, morgen B, übermorgen C, dann wieder ein neuer von A...

Nvidia braucht nicht nur mehr Absatz, sondern ein sehr breites Angebot, um die unteren Preisregionen, wo jetzt Intel (Intel!) wildert, zu bedienen. Aber das wollen sie nicht. Hinzu kommt, dass die x86-Welt bzw. Windows für sie hermetisch geschlossen ist.

Übrigens:
Falls das noch keinem hier aufgefallen ist: Nvidia hat zusammen mit Valve Portal und HL2 auf die Shield portiert. Ja, HL2 sieht etwas schlechter aus (Schatten auf Low, die Taschenlampe wirft keinen Schatten, Wasser auf Reflect World, die Texturenfilterung erst...), ist aber auch nur 2,1 GB groß und nicht 3,7 GB wie auf dem PC. Und das ist nicht HL2 von 2004, sondern auf dem aktuellen Stand.

Hübie
2014-05-14, 01:33:28
Na so besonders find ich das jetzt nicht. 2004 war die 9700 Pro mit ihren 2,6 Megapixel/s aktuell was so ziemlich genau dem Tegra 4 mit seinen 2,68 entsprechen dürfte (wenn die Zahlen jetzt stimmen ;D). Polygonpower braucht die Engine eh nicht derbe. Interessant wirds bei der Physik.

Spannender finde ich aber dass nVidia sich wie ein Wurm durch Industrie und Dienstleistung gräbt um Absatz zu generieren. Die machens wie immer: verkaufe wenig für viel.

Edit: Knüppel auf mein Kopp! Als Hl² rauskam hatte ich ne X800XL! :eek: Die hatte locker 2,5 mal soviel Füllrate. Okay dann ists schon bemerkenswert. Welche Auflösung hat shield gleich? Ich hab damals in 1152x768@6xMSAA gezockt.

Ailuros
2014-05-14, 03:42:20
Genau das meine ich: asymmetrische Veröffentlichungen. Es wäre für den Verbraucher viel einfacher, wenn die neuen SoCs in etwas gleichzeitig starten würden. Nur ist das ein feuchter Traum. Heute ist A schneller, morgen B, übermorgen C, dann wieder ein neuer von A...

Es ist NV's Problem wenn sie sich bei jedem Tegra 1 bis 2 Quartale verspäteten weil jedes Mal ein spin notwendig ist. Sonst konkurriert Apple eigentlich mit sich selber.

Nvidia braucht nicht nur mehr Absatz, sondern ein sehr breites Angebot, um die unteren Preisregionen, wo jetzt Intel (Intel!) wildert, zu bedienen. Aber das wollen sie nicht. Hinzu kommt, dass die x86-Welt bzw. Windows für sie hermetisch geschlossen ist.

Wer scheisst auf x86 unter Android genau? Erzähl mir jetzt bloss nicht dass Intel nur Windows tablets verkauft. Wenn Intel ihr 40Mio tablets Ziel erreicht dann zaehl mal am Ende des FY nach wie viele davon chinesische billig Androids waren.

Übrigens:
Falls das noch keinem hier aufgefallen ist: Nvidia hat zusammen mit Valve Portal und HL2 auf die Shield portiert. Ja, HL2 sieht etwas schlechter aus (Schatten auf Low, die Taschenlampe wirft keinen Schatten, Wasser auf Reflect World, die Texturenfilterung erst...), ist aber auch nur 2,1 GB groß und nicht 3,7 GB wie auf dem PC. Und das ist nicht HL2 von 2004, sondern auf dem aktuellen Stand.

Shield? Na mal sehen ob der Flop dadurch zum "Verkaufsschlager" wird... :P

Bei Logan ist natürlich die GPU das wichtigere, aber Denver zeigt schlicht und einfach wies in Zukunft aussehen wird. Als Basis für Erista, Parker und in den Maxwell-Highendgpus und sogar die gesamte mittelfristige Entwicklung in Sachen CPU. Nvidia hat nicht das Geld nen anderes CPU_design ausn Boden zu stampfen, wenn Denver nen Flop ist. Dann ist man in der Hinsicht erstmal auf Jahre hintendran.

Denver hat sie so oder so aus purer Dummheit Unmengen gekostet; der Punkt hier ist dass er als K1 Nachschub zu spät kommt.

Das 3SMMs für 2016 nicht ausreichen bezweifle ich. In 16FF hat man gerademal 15% mehr Fläche zur Verfügung als 20nm. Der Smartphone/Tabletmarkt wird sich genauso wie der Desktop/Notebookmarkt bei langsamen Leistungswachstum stabilisieren und es wird bald keine riesigen Sprünge mehr geben.


Samsung bzw Apple haben sich nie "zwangsmaessig" auf X mm2 begrenzt. Das obrige gilt dann eher wenn sich alle auf sagen wir mal 100mm2 pro SoC begrenzen.

deekey777
2014-05-14, 11:30:19
Warum ist die Shield ein Flop? Nvidia bietet sie nur in den USA an, das dient nur der Suchtprävention.

Wer scheisst auf x86 unter Android genau?
AMD. Bzw. mir ist nichts bekannt, dass sie da was machen.

Erzähl mir jetzt bloss nicht dass Intel nur Windows tablets verkauft. Wenn Intel ihr 40Mio tablets Ziel erreicht dann zaehl mal am Ende des FY nach wie viele davon chinesische billig Androids waren.
Also wenn ich auf jedes Tablet mit einem Atom hinweise, dann kann man davon ausgehen, dass ich schon weiß, dass Intel nicht auf Windows begrenzt ist.

y33H@
2014-05-14, 11:39:35
Ja, HL2 sieht etwas schlechter aus (Schatten auf Low, die Taschenlampe wirft keinen Schatten, Wasser auf Reflect World, die Texturenfilterung erst...), ist aber auch nur 2,1 GB groß und nicht 3,7 GB wie auf dem PC. Und das ist nicht HL2 von 2004, sondern auf dem aktuellen Stand.Woher hast du die Details wie Reflect World?

deekey777
2014-05-14, 11:46:57
Woher hast du die Details wie Reflect World?
Das sieht man auf den Videos. Es wird schon gespiegelt, aber definitiv nicht alles. Oder sind das gar die einfachsten Spiegelungen?
Wenn mich nicht alles täuscht, hieß es, dass die Spiegelungen CPU-Leistung kosten.

Dass die Taschenlampe keinen Schatten wirft, ist nachvollziehbar, das kostet Leistung.

Coda
2014-05-14, 12:27:23
Das hat doch nichts mit der Größe zu tun :facepalm:

deekey777
2014-05-14, 12:53:41
Das hat doch nichts mit der Größe zu tun :facepalm:
Wenn du was sagen willst, sag es einfach.

Ailuros
2014-05-14, 18:46:12
Da wir im Speku-forum sind spiel ich mal mit ein bisschen mit Zahlen und wenn ich wieder irgendwo falsch liege korrigier ich es halt einfach spaeter.

NVIDIA GK20A:

http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Lenovo%20K1%20HD%20%282014%29

11.5 fps in offscreen Manhattan bei ~109 GFLOPs FP32 (285MHz)

Adreno330:

http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=InFocus%20M810

11.9 fps in offscreen Manhattan bei 148 GFLOPs FP32 (580MHz)

PowerVR G6230:

http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Allwinner%20UltraOcta%20A80

11.4 fps in offscreen Manhattan bei 99.8 GFLOPs FP32 (780MHz)

ARM Mali T760:

http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Rockchip%20rk3288

11.4 fps in offscreen Manhattan bei 136 GFLOPs FP32 (533MHz)

deekey777
2014-05-14, 20:57:29
...



Shield? Na mal sehen ob der Flop dadurch zum "Verkaufsschlager" wird... :P


Das ist vielleicht wirklich extrem spekulativ, aber in einem YT-Video mit HL2&Portal-Gameplay auf der Shield kommt der Autor zu einem interessanten Schluss: SteamOS basiert auf Linux, Android basiert auf Linux. Jetzt kommen HL2 und Portal (absolute Toptitel) auf die Shield, also wäre der naheliegende Gedanke, Shield 2 SteamOS beherrscht.

Unicous
2014-05-14, 22:51:28
http://www.golem.de/news/nvidia-tegra-note-7-magnete-im-tablet-koennen-festplatten-zerstoeren-1405-106388.html


Nvidia tötet!!!


So kann man seine Produkte auch killen.:wink:

Dural
2014-05-15, 09:37:26
lol

deekey777
2014-05-15, 11:23:52
Xiaomi Mi Pad mit 7,9 Zoll, 2048 x 1536 Pixel & Tegra K1 offiziell vorgestellt (Video) (http://www.tabtech.de/android-bzw-google-tablet-pc-news/xiaomi-mi-pad-mit-79-zoll-2048-x-1536-pixel-tegra-k1-offiziell-vorgestellt-video)

Wofür stehen 800 und 500?

Nvidia Mocha soll als Tegra Shield Tablet erscheinen (http://www.tabtech.de/android-bzw-google-tablet-pc-news/nvidia-mocha-soll-als-tegra-shield-tablet-erscheinen)

Kann es sein, dass Nvidia ein Referenztablet zusammengebastelt hat?

AffenJack
2014-05-15, 12:50:11
Wofür stehen 800 und 500?


Edit:
Hat sich erledigt, Postman hat recht.

So eine BatterieBoost artige Funktion die den Chip nur so hoch taktet wie er für das jeweilige Spiel muss, wäre auch ganz sinnvoll oder ist das Standard im Mobilbereich?

Mr.Postman
2014-05-15, 12:51:40
Wofür stehen 800 und 500?
Für die MP der Kameras. Siehe hier (http://en.miui.com/thread-21337-1-1.html).

deekey777
2014-05-15, 12:53:05
Für die MP der Kameras. Siehe hier (http://en.miui.com/thread-21337-1-1.html).
Das ist viel zu einfach. :D

Danke.

Unicous
2014-05-15, 13:24:28
Verrückte Chinesen.:freak:

Nightspider
2014-05-15, 13:29:28
Da wir im Speku-forum sind spiel ich mal mit ein bisschen mit Zahlen und wenn ich wieder irgendwo falsch liege korrigier ich es halt einfach spaeter.

NVIDIA GK20A:

http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Lenovo%20K1%20HD%20%282014%29

11.5 fps in offscreen Manhattan bei ~109 GFLOPs FP32 (285MHz)

Adreno330:

http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=InFocus%20M810

11.9 fps in offscreen Manhattan bei 148 GFLOPs FP32 (580MHz)

PowerVR G6230:

http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Allwinner%20UltraOcta%20A80

11.4 fps in offscreen Manhattan bei 99.8 GFLOPs FP32 (780MHz)

ARM Mali T760:

http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Rockchip%20rk3288

11.4 fps in offscreen Manhattan bei 136 GFLOPs FP32 (533MHz)

Dürfte der Tegra damit nicht bald schon wieder durch Adreno 420 und 430 vernichtet werden, wo zumindest Ersterer sehr bald in Form des Snapdragon 805 kommt?

Ailuros
2014-05-15, 14:40:25
Dürfte der Tegra damit nicht bald schon wieder durch Adreno 420 und 430 vernichtet werden, wo zumindest Ersterer sehr bald in Form des Snapdragon 805 kommt?

GK20A wird wohl offensichtlich nicht nur bei 285MHz takten sondern wird mit bis zu 2.6x Mal hoeheren Resultaten als den verlinkten erscheinen.

Wenn ich QCOM's Behauptungen wortwoertlich nehme dass Adreno420 ca. 40% effizienter ist als Adreno330 dann sollte ein Adreno420 bei hypothetischen 580MHz knapp unter 17 fps im gleichen Test erreichen. In etwa auf dem Nivaeu was GK20A in einem smartphone (wenn es ein solches mit K1 ueberhaupt geben wird) erreichen wuerde,

Von "vernichten" ist da wohl schwer die Rede ausser QCOM bescheisst mal wieder toll in benchmarks und taktet nur in diesen um 20% mehr als in Echtzeit 3D. Es war ein GFLOP:Leistung Vergleich und nicht ueber die maximale Leistung jeglicher Loesung.

***edit: die Mali T760 Daten duerften falsch sein denn jeder cluster ist 2*Vec4 und nicht 4*Vec4 wie ich es dummerweise ausrechnete.

Dural
2014-05-15, 15:22:12
Der Preis ist aber krass, 199.- für 64GB, Tegra K1 und "Retina" Display :eek:

Davon können wird hier bis jetzt nur Träumen.

Edit:
Computerbase behauptet sogar 950MHz GPU Takt! Fehler?

http://www.computerbase.de/2014-05/xiaomi-mi-pad-ipad-mini-c-tegra-k1-tablet/

Edit2:
Akku Laufzeiten gefunden, leider in Chinesisch:
1300h
86h
17h
11h

11h Video oder Surfen wäre super für so ein Tablet!

Unicous
2014-05-15, 15:32:31
Ja, Yuan stupide in Euro umrechnen bringts natürlich.:rolleyes:

Rechne ich das Ganze in Dollar, was deutlich mehr Sinn macht, kommen übrigens 272 Dollar raus. Also eher 299 Euro/Dollar.

Vor allem Die 16GB Version kostet 175 Euro, die 64 GB Version 199. Alles klar.;D

deekey777
2014-05-15, 15:48:34
Werden die Xiaomi-Geräte überhaupt offiziell in Deutschland verkauft?

Aber wenn man die Meldung von CB erst liest, die Info verinnerlicht, dann erspart man sich so manche Kommentare:

Mit 16 und 64 Gigabyte Speicher geht das Mi Pad für umgerechnet 176 und 199 Euro in den chinesischen Handel.

AffenJack
2014-05-15, 15:52:12
Der Preis dürfte trotzdem recht niedrig sein und die Margen bei Nvidia nicht allzu hoch.

Aber man muss bedenken, dass das nen Millionendeal sein könnte. Habe eben erst nach Xiaomi gegoogelt und dachte das wäre ne kleinere Firma. Die sind mittlerweile aber in Q1 2014 die Nr.3 im Smartphonemarkt in China geworden mit irrwitzigen Wachstumszahlen. Das Tablet könnte da auch ziemlich hohe Verkaufszahlen haben.

Unicous
2014-05-15, 16:03:49
Was meinst du denn mit niedrig? Im Vergleich zu einem iPad sicherlich. Aber es wird garantiert nicht 200 Euro kosten (bei Markteinführung versteht sich :wink:). Das wette ich.

Das Mi2A kostet bei Xiaomi Germany 279 Euro
http://www.xiaomi-tech.de/product_info.php?products_id=3&MODsid=3b6b65a75bba11f15f124944344d4fda

Und lag bei Markteinführung in China bei 1499 Yuan. 175 Euro vs. 279 Euro.
http://www.mobilegeeks.de/xiaomi-mi2a-und-mi2s-vorgestellt-chinesisches-smartphone-schneller-als-das-samsung-galaxy-s4/

Welche Preisvorstellung ist also näher dran an der Realität?

Wann verstehen es die Redaktionen endlich mal, Preise nicht einfach so umzurechnen und falsche Vorstellungen/Hoffnungen zu verbreiten.:mad:

Dural
2014-05-15, 16:08:10
sollte wohl für alle klar sein das in China die Geräte billiger sind... Deswegen auch "davon können wir nur Träumen"

Trotzdem ist das ein Super Preis für so ein Tablet. Auch wenn es bei uns 300.- Euro kosten wird, mit 64GB und dieser Hardware immer noch ein Schnäppchen. Das iPad Mini2 64GB kostet Aktuell über 500.-

deekey777
2014-05-15, 16:14:43
Xiaomi macht kaum seinen Umsatz mit SoCs der Highendklasse, sondern mit MediaThek und Rockchip. Dass sie K1-Geräte in solchen Massen anbieten (werden), ist eher unwahrscheinlich.

Dural
2014-05-15, 16:17:27
Es ist doch das NV Referenz Tablet, das wird früher oder später von vielen im Angebot sein.

AffenJack
2014-05-15, 16:32:01
Xiaomi macht kaum seinen Umsatz mit SoCs der Highendklasse, sondern mit MediaThek und Rockchip. Dass sie K1-Geräte in solchen Massen anbieten (werden), ist eher unwahrscheinlich.

Xiaomi soll auch haufen Mi3 verkauft haben und die haben nen S800 drin.
Nur 1 Low-Cost Handy hat nen Mediathek, sonst sinds Snapdragons.

Was meinst du denn mit niedrig? Im Vergleich zu einem iPad sicherlich. Aber es wird garantiert nicht 200 Euro kosten (bei Markteinführung versteht sich :wink:). Das wette ich.


Auch im Vergleich zu andern sind sie niedrig, deshalb hat Xiaomi ja solchen Marktanteilen in 3 Jahren geschafft.

deekey777
2014-05-15, 17:14:22
Der Präsentation nach soll der K1 die doppelte Leistung in Manhattan eines iPad mini bringen.
Heise schreibt, dass das Tablet im Juni als Beta an ausgewählte Personen verschickt werden. Das macht Apple aber besser.

Inqui
2014-05-15, 19:18:46
weiss nicht, ob diese benches alt sind und ob man der ursprünglichen chinesischen quelle trauen kann.

http://www.tabtech.de/sonstiges/nvidia-tegra-k1-schlaegt-snapdragon-801-und-tegra-4-im-benchmark/attachment/tegra-k1-bench-2

deekey777
2014-05-15, 19:39:55
Ist der Snapdragon 801 wirklich der Gegner oder doch der kommende 805?

Ailuros
2014-05-15, 20:27:27
Xiaomi soll auch haufen Mi3 verkauft haben und die haben nen S800 drin.
Nur 1 Low-Cost Handy hat nen Mediathek, sonst sinds Snapdragons.

Sagen wir mal dass Xiaomi fuer das Mi3 T4 nicht wirklich noetig hatte ;) Auf jeden Fall wenn das 8" tablet mit K1 tatsaechlich nur umgerechnet 160-170 Euros kostet, dann ist es lediglich eine Schande dass ich momentan im Ausblick fuer ein 9-10" tablet bin. Bietet Xiaomi ein solches mit K1 an lege ich sogar mehr auf den Ladentisch und bestelle sofort vor.

Auch im Vergleich zu andern sind sie niedrig, deshalb hat Xiaomi ja solchen Marktanteilen in 3 Jahren geschafft.

Xiaomi's sind eine Art iPhones in China eben weil sie fuer die Verhaeltnisse dort ziemlich teuer sind; wenn sie wenigstens besser als ihre einheimischen Konkurrenten waeren in Sachen sw waeren die Dinger es auch eher wert. In manchen Faellen braucht man besonders starke Nerven. Zum groessten Teil verkaufen sie ihre high end smartphones mit einem guten Verlust. Beim Mi2 waren es am Anfang um die $70 pro Geraet.

Wenn ich das Dilemma zwischen Lenovo, Zopo und co. vs. Xiaomi habe bleibt meistens das letzte dank zwielichtiger sw Unterstuetzung am Ende stecken.

***edit: erste Xiaomi MiPad Resultate: http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Xiaomi%20MiPad

warum gibt es das verdammte Ding nicht einer 10" Variante :mad:

Was meinst du denn mit niedrig? Im Vergleich zu einem iPad sicherlich. Aber es wird garantiert nicht 200 Euro kosten (bei Markteinführung versteht sich :wink:). Das wette ich.

Das Mi2A kostet bei Xiaomi Germany 279 Euro
http://www.xiaomi-tech.de/product_info.php?products_id=3&MODsid=3b6b65a75bba11f15f124944344d4fda

Und lag bei Markteinführung in China bei 1499 Yuan. 175 Euro vs. 279 Euro.
http://www.mobilegeeks.de/xiaomi-mi2a-und-mi2s-vorgestellt-chinesisches-smartphone-schneller-als-das-samsung-galaxy-s4/

Welche Preisvorstellung ist also näher dran an der Realität?

Wann verstehen es die Redaktionen endlich mal, Preise nicht einfach so umzurechnen und falsche Vorstellungen/Hoffnungen zu verbreiten.:mad:

Stimmt zwar aber wenn ich hier bei einem chinesischem online retailer bestelle und 3 Wochen Geduld habe bezahl ich keine Versandtkosten und auch keinen Zoll (aber nur hier).....shhhhhh ;)

---------------------------------------------------------------------------------------------------------------------------------------------
http://blogs.nvidia.com/blog/2014/05/15/nvidias-tegra-k1-powers-xiaomis-first-tablet/

The Mi Pad will be available in China starting in June as an open beta – select fans will get the option to go hands-on with pre-production units.

Jetzt sagt bloss nicht dass die Dinger auch mit "Einladungen" verkauft werden....

Heimatsuchender
2014-05-15, 23:23:19
Sagen wir mal dass Xiaomi fuer das Mi3 T4 nicht wirklich noetig hatte ;) Auf jeden Fall wenn das 8" tablet mit K1 tatsaechlich nur umgerechnet 160-170 Euros kostet, dann ist es lediglich eine Schande dass ich momentan im Ausblick fuer ein 9-10" tablet bin. Bietet Xiaomi ein solches mit K1 an lege ich sogar mehr auf den Ladentisch und bestelle sofort vor.



Xiaomi's sind eine Art iPhones in China eben weil sie fuer die Verhaeltnisse dort ziemlich teuer sind; woenn sie wenigstens besser als ihre einheimischen Konkurrenten waeren in Sachen sw waeren die Dinger es auch eher wert. In manchen Faellen braucht man besonders starke Nerven. Zum groessten Teil verkaufen sie ihre high end smartphones mit einem guten Verlust. Beim Mi2 waren es am Anfang um die $70 pro Geraet.

Wenn ich das Dilemma zwischen Lenovo, Zopo und co. vs. Xiaomi habe bleibt meistens das letzte dank zwielichtiger sw Unterstuetzung am Ende stecken.

***edit: erste Xiaomi MiPad Resultate: http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Xiaomi%20MiPad

warum gibt es das verdammte Ding nicht einer 10" Variante :mad:



Stimmt zwar aber wenn ich hier bei einem chinesischem online retailer bestelle und 3 Wochen Geduld habe bezahl ich keine Versandtkosten und auch keinen Zoll (aber nur hier).....shhhhhh ;)

---------------------------------------------------------------------------------------------------------------------------------------------
http://blogs.nvidia.com/blog/2014/05/15/nvidias-tegra-k1-powers-xiaomis-first-tablet/



Jetzt sagt bloss nicht dass die Dinger auch mit "Einladungen" verkauft werden....


Das sieht so aus. Kauf nur mit Einladung, bzw. nur für bestimmte Personen. Ist doch super, oder? Es gibt tolle Geräte, nur kaufen kann/darf man sie auf normalem Wege nicht.


tobife

Botcruscher
2014-05-16, 11:23:05
Damit steuert der Hersteller die Nachfrage wenn er nicht liefern kann.

Ailuros
2014-05-16, 11:32:22
Damit steuert der Hersteller die Nachfrage wenn er nicht liefern kann.

Oder weniger elegant ausgedrueckt, man bescheisst einfach weil man mal wieder seine versprochenen Lieferungstermine nicht einhalten kann.

Marty98
2014-05-16, 22:18:39
Slides von der Präsentation: http://www.engadget.com/gallery/xiaomi-tablet-launch-event/2618907/#!slide=2618921

Ailuros
2014-05-18, 01:10:52
....und endlich mal etwas Fuellrate vom Lenovo Thinkvision 28
http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Lenovo%20ThinkVision%2028

4644 MTexels/s / 8 TMUs = 580...klingt irgendwo nach 600MHz.

T-Rex offscreen = 54,70 fps

Das Mi Pad hat zwar noch keine Fuellraten, aber falls die obrige Schaetzung stimmt dann taktet dieses mit 59,10 fps im T-Rex offscreen wohl um die 650MHz.

Bei den hypothetischen 950MHz duerfte es ueber 86 fps reichen.

Undertaker
2014-05-18, 10:28:45
....und endlich mal etwas Fuellrate vom Lenovo Thinkvision 28
http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Lenovo%20ThinkVision%2028

4644 MTexels/s / 8 TMUs = 580...klingt irgendwo nach 600MHz.

Ehrliche Frage, ist die Effizienz da so hoch, dass man das so einfach rechnen kann? Am liebsten hätte ich da mal mit Werten eines GK107/208 verglichen, konnte aber keine finden. Ansonsten aber erstaunlich, dass Nvidia entweder bei der Vorstellung nur die Benchmarkwerte bei derart niedrigen Taktraten genannt hat (immerhin lässt sich der Chip so sogar in einem iPad Mini Klon einsetzen) oder aber die Performance per Treiber in so kurzer Zeit noch drastisch gesteigert werden konnte.

Ailuros
2014-05-18, 13:02:43
Ehrliche Frage, ist die Effizienz da so hoch, dass man das so einfach rechnen kann? Am liebsten hätte ich da mal mit Werten eines GK107/208 verglichen, konnte aber keine finden. Ansonsten aber erstaunlich, dass Nvidia entweder bei der Vorstellung nur die Benchmarkwerte bei derart niedrigen Taktraten genannt hat (immerhin lässt sich der Chip so sogar in einem iPad Mini Klon einsetzen) oder aber die Performance per Treiber in so kurzer Zeit noch drastisch gesteigert werden konnte.

Ja die Effizienz ist so hoch. Ich hab Dir doch gesagt dass ichs vom Maul des Löwen hatte. Es hieß 450-650 je nach Markt und 17-26fps wieder je nach Markt. Die Optimierungen sind um die 15% Zusatz seither und durchaus normal da auch Apple und QCOM in etwa so viel dazu legten in der Zwischenzeit.

Xiaomi taktet uebrigens immer aggresiv; es konnten auch um die 700 bei diesem sein obwohl afaik GK20A eine ausgezeichnete Fuellraten-Effizienz haben soll.

Lange Geschichte kurz: GK20A positioniert sich locker bis zu 2,3x Mal vor der A7 GPU momentan.

Undertaker
2014-05-18, 13:13:47
Die Optimierungen sind um die 15% Zusatz seither und durchaus normal da auch Apple und QCOM in etwa so viel dazu legten in der Zwischenzeit.

Von 60 auf 86 fps sind keine 15, sondern 43 Prozent Zuwachs. Also entweder hat Nvidia damals keine Benchmarks mit 950 MHz verkündet (das wäre unerwartet defensiv), die Treiberzuwächse sind weit jenseits des sonst üblichen oder die Taktraten stimmen eben doch nicht. Mehr Möglichkeiten gibt es nicht. ;)

dildo4u
2014-05-18, 13:20:41
Was mir auffällt 59 und 60 fps gabs unter Android nicht das Problem das die Bildrate bei 60 beschränkt war?

Ailuros
2014-05-18, 13:46:51
Von 60 auf 86 fps sind keine 15, sondern 43 Prozent Zuwachs. Also entweder hat Nvidia damals keine Benchmarks mit 950 MHz verkündet (das wäre unerwartet defensiv), die Treiberzuwächse sind weit jenseits des sonst üblichen oder die Taktraten stimmen eben doch nicht. Mehr Möglichkeiten gibt es nicht. ;)

Du hast mich falsch verstanden. 17-26fps je nach Markt in Manhattan bei 450-650MHz je nach Markt. Taktet das MiPad tatsächlich auf 650 sind seine heutigen 29 GPS schon ca. +15%.

Mein Zeug kommt von einem engineer; marketing erzählt einen Haufen Scheiss wenn der Tag lang ist. Vor kurzem war Denver im nexus ein "done deal" mit HTC als Hersteller. So "done" dass vor kurzem ein A15 K1 daraus wurde...

Ailuros
2014-05-18, 13:53:01
Was mir auffällt 59 und 60 fps gabs unter Android nicht das Problem das die Bildrate bei 60 beschränkt war?

offscreen!!!

Hübie
2014-05-18, 14:24:43
Was regt ihr euch so auf?
The Mi Pad will be available in China starting in June as an open beta – select fans will get the option to go hands-on with pre-production units. - See more at: http://blogs.nvidia.com/blog/2014/05/15/nvidias-tegra-k1-powers-xiaomis-first-tablet/#sthash.znvMSwWh.dpuf

Open beta. Das ist doch oft so dass man da auswählt..

AffenJack
2014-05-18, 14:27:04
Du hast mich falsch verstanden. 17-26fps je nach Markt in Manhattan bei 450-650MHz je nach Markt. Taktet das MiPad tatsächlich auf 650 sind seine heutigen 29 GPS schon ca. +15%.

Korinthenkackerei, aber die neuen Werte sind 30FPS.:wink:
Die älteren Messungen ziehen es nur auf 29 runter, da sind wohl auch Messungen mit niedrigeren taktraten drin, da die cpu auch mit 2,1 und 2,2 ghz beschrieben ist.
Wenn die Taktraten aber so niedrig wären, müsste Jetson ja noch gut höher ankommen als im Whitepaper. Doof, dass es von dem noch keine unabhängigen Gfxbenchwerte gibt.


Mein Zeug kommt von einem engineer; marketing erzählt einen Haufen Scheiss wenn der Tag lang ist. Vor kurzem war Denver im nexus ein "done deal" mit HTC als Hersteller. So "done" dass vor kurzem ein A15 K1 daraus wurde...


Also hat K1 das nächste Nexus Tab? Das wäre nochn guter Deal.

Undertaker
2014-05-18, 16:42:45
Du hast mich falsch verstanden. 17-26fps je nach Markt in Manhattan bei 450-650MHz je nach Markt. Taktet das MiPad tatsächlich auf 650 sind seine heutigen 29 GPS schon ca. +15%.

Es geht doch darum, dass Nvidia im Januar noch von 28 fps in Manhatten sprach und jeder schrie, dass das nur ein aktiv gekühltes Shield-Derivat mit vollen 950 MHz schaffen könnte. Wenn überhaupt. Jetzt haben wir ein passives Tablet im iPad Mini-Format, dass auf diese Werte kommt, und das sind definitiv nicht nur Treiberzuwächse. Offensichtlich hat Nvidia also schon in der Präsentation mit Tablet-Taktraten kalkuliert und wir alle, die die Zahlen mit 950 MHz in Verbindung brachten, lagen falsch.

Ich errinnere mich noch gut an jemanden, der alles über Faktor 2 auf T4 als "too good to be true" bezeichnete und alles andere als "Übertreibung" bezeichnete... Jetzt sind wir bei >Faktor 3 (19 zu 60 fps in TRex bei jeweils passiven 7-8" Tablets). ;)

Blediator16
2014-05-18, 17:13:38
Theoretisch sind wir immernoch nur bei der hälfte des Weges. Sämtliche Laufzeiten und Stromverbrauchsmessungen fehlen.

Ailuros
2014-05-18, 17:42:47
Korinthenkackerei, aber die neuen Werte sind 30FPS.:wink:

Best score ja.

Die älteren Messungen ziehen es nur auf 29 runter, da sind wohl auch Messungen mit niedrigeren taktraten drin, da die cpu auch mit 2,1 und 2,2 ghz beschrieben ist.
Wenn die Taktraten aber so niedrig wären, müsste Jetson ja noch gut höher ankommen als im Whitepaper. Doof, dass es von dem noch keine unabhängigen Gfxbenchwerte gibt.

29.5 und Jetson wird wenn man es zu den 13 fps vom A7 relativiert auf ~33fps angegeben im whitepaper.

Also hat K1 das nächste Nexus Tab? Das wäre nochn guter Deal.

Ich weiss es noch nicht; NV war wie immer unter den Kandidaten und Google sie es wie bekannt nicht gerne wenn das Referenz-Geraet immer zu einem Hersteller geht. Intel war auch unter den Kandidaten.

Sonst achte auf den Scheiss der zwischendrin erzaehlt wird; es gibt keinen "done deal" wenn man nicht mal weiss welche verdammte CPU im Angebot steckt.

Es geht doch darum, dass Nvidia im Januar noch von 28 fps in Manhatten sprach und jeder schrie, dass das nur ein aktiv gekühltes Shield-Derivat mit vollen 950 MHz schaffen könnte. Wenn überhaupt. Jetzt haben wir ein passives Tablet im iPad Mini-Format, dass auf diese Werte kommt, und das sind definitiv nicht nur Treiberzuwächse. Offensichtlich hat Nvidia also schon in der Präsentation mit Tablet-Taktraten kalkuliert und wir alle, die die Zahlen mit 950 MHz in Verbindung brachten, lagen falsch.

Als GFXbench erschienen ist landete iPhone5S in Manhattan 11 fps und S800 smartphones 9 fps wie NV selber in ihren slides angegeben hatte. Seither haben alle +/- 15% zugelegt, iPhone ist heute auf 13.2, S800 bei 11.9 und NV behauptete auch 2.6x Leistung in Manhattan im Vergleich zum A7 welches 11 fps * 2.6x = 28.6 fps entspricht. Heute sind es 30 gegen 13.2 fps und ein Unterschied von 2.3x Mal.

So weit so gut fuer die 15%? Und ja es sind mehr beim A7 aber IHVs haben die "alberne" Tendenz nicht mit Optimierungen zu uebertreiben damit die Stabilitaet nicht gefaerdet wird; lieber stets Schritt fuer Schritt.

Ich errinnere mich noch gut an jemanden, der alles über Faktor 2 auf T4 als "too good to be true" bezeichnete und alles andere als "Übertreibung" bezeichnete... Jetzt sind wir bei >Faktor 3 (19 zu 60 fps in TRex bei jeweils passiven 7-8" Tablets). ;)

Wenn's ich war dann kann es nur sein dass ich mich stets eher auf Manhattan Resultate konzentrierte, wobei ich mehr als nur einmal betonte dass diese im Angesicht von der kommenden ULP SoC Generation nichts mehr allzu besonderes ist. Und ich behaupte auch noch mal dass der Unterschied in der vorhersehbahren Zukunft nicht bei 2.3x zum A7 bleiben wird; beim T-Rex laesst sich weniger aendern weil Rogue einfach nur so und so viel z/stencil Einheiten hat.

fondness
2014-05-20, 20:16:19
Nvidia CEO confirms Tegra strategy shift
http://www.fudzilla.com/home/item/34777-nvidia-ceo-confirms-tegra-strategy-shift

Skysnake
2014-05-20, 23:01:55
Huang hat einfach den Markt nicht verstanden, was er mit T4i wieder bewiesen hat mit dem Interview.

Und mit seinen tollen Nieschenmärkten macht er genau den gleichen Fehler. Vom Embaddedmarkt hat nVidia nicht unbedingt mehr die mega Ahnung und auch das Portfolio. Huang stellt sich das wieder viel zu einfach vor. Als ob jeder auf ihn warten würde...

Ailuros
2014-05-20, 23:33:23
Also ich hab von JHH Gelaber im obrigen link verstanden, dass sie ihre Strategie aendern in dem sie ihre Strategie NICHT aendern.

Wie waere es mit dem hier? http://semiaccurate.com/2014/05/20/analysis-nvidia-want-what-kepler-license/

Hübie
2014-05-21, 03:25:13
Paywall Ail ;)
Die drücken einfach jedem so einen Tegra aufs Auge. Egal ob Optoelectronic, hi-end mobile gaming fudshit-yeeha olé oder Infotainment-marketingbuzzwordchecking. Die setzen wenig für viel ab statt wie Mediatek viel für wenig. So lange es sich trägt ists legitim aber ich hab da so meine Zweifel.

Skysnake
2014-05-21, 08:22:59
Das Problem ist halt, das es sich eben nicht! trägt.

Ich versteh wirklich nicht, was Huang/nVidia sich da denken. Gerade! im Embeddedmarkt sind lange Supportzeiten und eben auch die Unterstützung von jedwedem alten "Müll". Wenn da ein Messgerät oder sonst was noch nen COM-Port braucht, oder sonst was, dann muss das drauf sein, genau wie frei konfigurierbarer I/O.

Und genau da haperts bei nVidia. Was haben die denn bitte an I/O???

PCI-E, was ihnen Probleme gemacht hat, und sonst? DVI, VGA, HDMI und DP, aber das wars dann auch. Ihr Knowhow zgl SATA ist nicht mehr frisch, sollte aber relativ schnell aufrüstbar sein. Wos aber wirklich hapert sind schnelle Serielle-Verbindungen abseits von PCI-E. Von der Ansteuerung von optischen Übertragungen mal lieber erst gar nicht angefangen.

Die müssen da unglaublich viel aufbauen, und auch einfach schlucken, wenn Sie so viele Märkte ernsthaft bedienen wollen, denn überall gibts NoGos, also must have Featuers, und die summieren sich unglaublich schnell auf und machen einen Chip fett und versoffen...

Und selbst wenn Sie das machen, haben Sie noch immer ARM und! CUDA am Hals, und die Unterstützung alter Software ist echt wichtig. Sprich x86 und PowerPC haben da durchaus ihre Nieschen, einfach weil kein Mensch die Software nochmal entwickeln wird für eine bestimmten Anwendungsfall. Deswegen gibts ja so viele so unglaublich alte Chips am Markt.

Armaq
2014-05-21, 09:04:14
Huang hat einfach den Markt nicht verstanden, was er mit T4i wieder bewiesen hat mit dem Interview.

Und mit seinen tollen Nieschenmärkten macht er genau den gleichen Fehler. Vom Embaddedmarkt hat nVidia nicht unbedingt mehr die mega Ahnung und auch das Portfolio. Huang stellt sich das wieder viel zu einfach vor. Als ob jeder auf ihn warten würde...
Du hast so gar keine Ahnung, dass es wirklich belustigend ist. :)
Von Zukunftsmärkten verstehst du auch gar nichts. Lass dir an dieser Stelle einfach gesagt sein, dass du überhaupt gar keine Ahnung hast.

Wie man jemanden wie einen Huang so platt kritisieren kann (er ist der Gründer und immernoch CEO), der in seinem Leben so x-fach mehr geleistet hat, das geht mir null ein.

Ailuros
2014-05-21, 10:39:16
Paywall Ail ;)
Die drücken einfach jedem so einen Tegra aufs Auge. Egal ob Optoelectronic, hi-end mobile gaming fudshit-yeeha olé oder Infotainment-marketingbuzzwordchecking. Die setzen wenig für viel ab statt wie Mediatek viel für wenig. So lange es sich trägt ists legitim aber ich hab da so meine Zweifel.

Es ist 50-50; entweder ist es purer BS oder es liegt tatsaechlich etwas daran. Ich hab den komischen Eindruck dass SA auf zu hohe Lizenz-preise anspielt aber sicher kann ich mir nicht sein.

Wie dem auch sei, so wie NV organisiert ist lohnt sich ein GPU IP deal bei vergleichbaren Marktpreisen fuer IP nur wenn es sich theoretisch um wirklich einen Mega-Volumen deal handelt. Sollte NV jetzt tatsaechlich sagen wir =/>$2 pro GPU IP core verlangen wird auch keiner so leicht etwas davon lizenzieren. Bestaetigen kann man es so leicht sowieso nicht weil solche Einzelheiten nur ueber direkten Kontakt mit NV sales erreicht werden koennen. Damit ueberhaupt jemand etwas darueber erfaehrt muss jemand zur Verhandlung gekommen sein mit NV und jemand hat danach im geheimen gezwitschert.

Nochmal Vorsicht es ist 50-50 das etwas daran liegt egal welcher Inhalt; die Chancen stehen eben schlecht weil unter normalen Umstaenden solche Einzelheiten niemand herauslaesst.

Ailuros
2014-05-21, 15:31:26
http://forum.beyond3d.com/showpost.php?p=1848850&postcount=2392

Hut ab JHH; es gibt nichts besseres als ehrlich zu sein.

Skysnake
2014-05-21, 22:13:20
Du hast so gar keine Ahnung, dass es wirklich belustigend ist. :)

Ach, und du hast den totalen Durchblick oder was?

Wenn ja, dann gogo, erzähl uns was Sache ist, und warum nVidia zwar bei Tegra immer auf die Kacke haut, aber am Ende außer Spesen nichts gewesen bei rumkommt.


Von Zukunftsmärkten verstehst du auch gar nichts. Lass dir an dieser Stelle einfach gesagt sein, dass du überhaupt gar keine Ahnung hast.

Höchstwahrscheinlich deutlich mehr als du, oder was hast du mit den Märkten zu tun, oder einfach nur mit IT? Schon Software entwickelt? Schon Hardware entwickelt?


Wie man jemanden wie einen Huang so platt kritisieren kann (er ist der Gründer und immernoch CEO), der in seinem Leben so x-fach mehr geleistet hat, das geht mir null ein.
Wayne interessiert, was er gemacht hat? Das hat doch rein gar NICHTS damit zu tun, was heut abgeht. Die Welt hat sich weiter gedreht, und nVidia "wildert" eben in neuen Märkten mit komplett neuen Gegnern, wo Sie einfach nicht die Erfahrung und nicht das Näschen haben für das, was wichtig ist.

Schau dir doch z.B. mal Apple an. Die sind zwischenzeitlich mal praktisch Bankrott gewesen, oder schau dir sonst zich Firmen in der IT-Geschichte an. Da gibt es mehr als genug Beispiele von Firmen, die mal der King waren, und ganz oben mitgespielt haben, und heute nur noch ein Schatten ihrer selbst sind, sofern Sie überhaupt noch existieren, eben WEIL von den vermeindlichen Chefmastern die Zeichen der Zeit völlig verkannt wurden, bzw man es einfach nicht wahr haben will.

Und ansonsten nur noch so viel.
Wenn jemand peinlich und plump ist, dann du, denn außer Anfeindungen kam Inhaltlich genau NICHTS von dir. Ich habe dagegen mal wieder einige Probleme aufgezeigt. Vor allem Probleme, an denen nVidia teilweise eben auch einfach nichts ändern kann. Das muss man sich aber eben auch eingestehen können, was Huang offensichtlich eben nicht kann. Der sitzt auf einem zu hohen Ross.

Dural
2014-05-22, 11:19:35
Er hat ja recht, NV war lange Zeit Marktführer bei den AMD Chipsätzen und an zweiterstelle bei den Intel Chipsätzen.

NV da I/O Inkompetenz zu unterstellen ist nahezu lächerlich, was ist den AMD in dem fall? :rolleyes:

IBM und NV sind übrigens nicht umsonst eine Partnerschaft Eingegangen, so viel zu deinem Thema High-Speed Verbindungen.
NVs grösseres Problem dürfte die Markt Durchsetzung sein, wie so oft... und sicher nicht die Technik für sich.

Hübie
2014-05-22, 12:49:33
Das Problem ist halt, das es sich eben nicht! trägt.

Ich versteh wirklich nicht, was Huang/nVidia sich da denken. Gerade! im Embeddedmarkt sind lange Supportzeiten und eben auch die Unterstützung von jedwedem alten "Müll". Wenn da ein Messgerät oder sonst was noch nen COM-Port braucht, oder sonst was, dann muss das drauf sein, genau wie frei konfigurierbarer I/O.

Und genau da haperts bei nVidia. Was haben die denn bitte an I/O???

PCI-E, was ihnen Probleme gemacht hat, und sonst? DVI, VGA, HDMI und DP, aber das wars dann auch. Ihr Knowhow zgl SATA ist nicht mehr frisch, sollte aber relativ schnell aufrüstbar sein. Wos aber wirklich hapert sind schnelle Serielle-Verbindungen abseits von PCI-E. Von der Ansteuerung von optischen Übertragungen mal lieber erst gar nicht angefangen.

Die müssen da unglaublich viel aufbauen, und auch einfach schlucken, wenn Sie so viele Märkte ernsthaft bedienen wollen, denn überall gibts NoGos, also must have Featuers, und die summieren sich unglaublich schnell auf und machen einen Chip fett und versoffen...

Und selbst wenn Sie das machen, haben Sie noch immer ARM und! CUDA am Hals, und die Unterstützung alter Software ist echt wichtig. Sprich x86 und PowerPC haben da durchaus ihre Nieschen, einfach weil kein Mensch die Software nochmal entwickeln wird für eine bestimmten Anwendungsfall. Deswegen gibts ja so viele so unglaublich alte Chips am Markt.

Jetson mit K1 hat ein RS-232 port ;) ;) Bash mal nicht immer so vorschnell skysnake damit raubst du dir selber Glaubwürdigkeit.

Skysnake
2014-05-22, 12:59:20
Ach und was ist denn bitte das aktuellste, was nVidia im Portfolia hat bzgl I/O IP? Und vor allem, in welchem Fertigungsprozess ist das angesiedelt? Und wenn wir schon dabei sind, erfüllen sie mit der jeweiligen IP die entsprechenden Anforderungen bzgl. Fehlerraten usw der jeweiligen Märkte?

nVidia ist seit 2011 aus dem Chipsatzmarkt raus. 65nm ist das Modernste was Sie produziert haben. Dazu nur SATAII und USB2 usw usw.

Mit PCI-E 3.0 haben Sie sich auch nicht mit Ruhm bekleckert. Erfahrung bzgl Interfaces wie HT/QPI haben Sie genau NULL, und die Liste liese sich durchaus noch Fortsetzen. Und unterschätz nicht die Probleme/Schwierigkeiten bzgl. IO. Schau dir Intel an, die in der Vergangenheit immer wieder über ihr IO gestolpert sind, und die Anforderungen werden immer höher! Das ist derbstes Analogdesign, also so richtig hardcore bzgl den Anforderungen. Da machste nichts mal eben so, sondern versenkt richtig Geld.

Und bzgl IBM<->nVidia. Jetzt überleg doch mal, warum nVidia da ganz glücklich drüber sein kann, und was von welchem Partner an IP eingebracht wird....

Mal nen kleiner Tip. Die SerDes/Links bestimmt von nVidia wegen ihrer "großen" Erfahrung und KnowHow in dem Bereich... not...

EDIT:
@Hübie:
Wo haste das her?

Wenn ja, ist das erfreulich! Denn gerade sowas ist durchaus noch etwas, auf das in manchen Bereichen stark geschaut wird. Klar gibts auch Nachrüstlösungen, aber wenn ich zwischen zwei gleichartigen entscheiden muss, und der eine hats integriert, und der andere nicht, dann steht die Entscheidung schnell fest.

Ist das auf Jetson über nen eigenen chip realisiert? Ich befürchte ja oder? Der Miniaturisierung läuft sowas leider entgegen. Gerade SOCs haben ja den Charm, das auf den Board außer Anschlüssen fast nichts mehr drauf ist, womit die Kosten gesenkt werden können.

Hübie
2014-05-22, 13:07:45
Ich bin am Blödfon in der Straßenbahn also schau mal eben selber auf anandtech und techreport. Die habe das Ding ganz gut durchleuchtet. :smile:

Ailuros
2014-05-22, 17:22:22
http://en.miui.com/thread-22041-1-1.html

Also wenn das Ding tatsaechlich 5 Stunden auf etwas wie Real Racing 3 aushaltet, dann Hut ab.

Unicous
2014-05-22, 17:24:37
Grins. Die haben 15 Minuten getestet und das Ergebnis daraus extrapoliert. Wenn das mal keine hochwissenschaftliche Akkulaufzeitanalyse ist.;D

Skysnake
2014-05-22, 17:38:18
Kommt darauf an, was die Akkuanzeige taugt. Ob halt 100->99->98 usw ist, oder obs 100->99->10 ist ;D

Gerade bei einem neuen Gerät taugen die Anzeigen aber in der Regel schon, wobei ich mir bei so Chinatabs nicht sicher bin, ob man da auch einfach davon ausgehen darf.

Ailuros
2014-05-22, 17:38:22
Grins. Die haben 15 Minuten getestet und das Ergebnis daraus extrapoliert. Wenn das mal keine hochwissenschaftliche Akkulaufzeitanalyse ist.;D

Macht GFXbench3.0 aber auch so aehnlich; Batterie Prozentual wird eingetragen beim benchmark start --> das Ding loopt 30x Mal durch T-Rex und notiert das niedrigste Resultat von allen 30 Durchgaengen ---> Batterie Prozentual wird wieder eingetragen und die Applikaeten schaetzt ein wie lange das Geraet unter dem Test aushalten wuerde.

Jetzt muesste man aber erstmal die Hand ins Feuer legen dass die Batterie IMMER korrekt abmisst :P

Kurz: eine sichere Methode fuer solche Messungen gibt es noch nicht nur Indizien. Sonst ist Xiaomi als Hersteller keine unabhaengige Quelle.

AffenJack
2014-05-22, 18:23:21
Das Problem ist, dass wir überhaupt nicht vergleichen können, wieviel Batterie RealRacing überhaupt frisst ohne andere Messwerte. Vielleicht werden die CPU-Cores da so wenig belastet, dass alle Tablets sehr lange durchhalten während GFXBench die CPUs stärker mitbelastet und kürzere Laufzeiten erzeugt. Nachn Vergleich kann der Wert sich auch als recht schlecht darstellen. Oder hat wer Werte von anderen tablets?

Ailuros
2014-05-22, 18:33:18
Das Problem ist, dass wir überhaupt nicht vergleichen können, wieviel Batterie RealRacing überhaupt frisst ohne andere Messwerte. Vielleicht werden die CPU-Cores da so wenig belastet, dass alle Tablets sehr lange durchhalten während GFXBench die CPUs stärker belastet und kürzere Laufzeiten erzeugt. Nachn Vergleich kann der Wert sich auch als recht schlecht darstellen.

Ich hab mich mit real racing 3 zugegeben nie ausfuehrlich beschaeftigt weil mich mich an mobile Spielergonomie einfach noch nicht gewoehnen kann. Das daemliche Daumen-tippen oder Geraete-Schaukelei steht mir einfach nicht.

Afaik muss man aber eine dritte Applikation herunterladen damit man extreme settings erstmal erreichen kann fuer's Spiel (lass mich aber auch gerne eines besseren belehren). Mit extreme settings brauchst Du dann zumindest ein GalaxyS4 oder bessere GPU dass es ueberhaupt fluessig laeuft; mit low settings duerfte GK20A mit fps nur so herumschmeissen wobei mich selbst >200 fps nicht wundern wuerde.

Ein ziemlich anspruchsvolles Spiel fuer mobile ist es schon. Die paar Mal wo ich mit dem Ding herumgefummelt habe hat es eine Unmenge an hochaufgeloesten Texturen (ich glaube der insgesamte download ist ueber 1GB) und es dauert auch eine Ewigkeit bis es hochladet. Mit hoechsten settings sieht das Ding dann so aus:

http://users.otenet.gr/~ailuros/unnamed.jpg

Batterie test Resultate in Gfxbench3.0 gibt es noch keines von einem K1.