PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17 18 19 20 21 22 23 24 25 26

-/\-CruNcher-/\-
2014-01-10, 22:59:42
Klar, Quadchannel, 40PCI-E Lanes und zwei QPI Links sind Mobile. Is klar ne.

Die reinen CPU Cores machen noch keine CPU aus heutzutage. Der gesamte Chip entscheidet, wie man das ein zu ordnen hat.

Und wofuer reicht denn bitte nen Tegra in nem 4k AIO?

Was willste denn damit machen? Fratzenbook usw? Dafuer brauchste keinen 4k AIO....

Und bei allem abseits von nem Browser bricht dir der Softwaresupport das Genick. Was gibts denn fuer Android fuer Software, die du benutzen willst an nem AIO?

Die ganze Windows und x86 Software bleibt dir ja verwaehrt. Also selbst wenn du massig Leistung haettest, wobei du never ever gegen nen 45W Chip von Intel oder AMD ankommst, was willste denn machen außer den Browser zu nutzen und vielleicht nen AngryBird zu zocken. Fuer mehr wirste die 4k eh nicht nutzen koennen, weil die Leistung fehlt.

4K Werbe Display in Bus und Bahn ;)

Auch für einige Leit System Projekte garnicht schlecht, mit Atom damals war das noch problematisch ;)

Hugo78
2014-01-10, 23:01:06
@Skysnake

16€, 32GB, Class 10, microSD Card.
Problem gelöst, weil mehr interen Speicher hat der Lenovo AIO Monitor eh nicht.

Ansonst lies dir einfach die Featureliste durch:
- http://de.engadget.com/2014/01/05/lenovo-thinkvision-pro2840m-und-thinkvision-28-zwei-neue-4k-mon/
- http://zocker-android.de/2014/01/10/ces-2014-lenovo-thinkvision-28-4k-display-tegra-k1-und-android-4-4/

Oder Kurz:
- LAN,
- WLAN,
- NFC,
- 3x HDMI,
- Miracast,
- microSD Slot,
- 5x USB (3x USB 3.0),
- zwei Mikros (für Noise Cancelling),

Wer hier Probleme hat seine Daten von A nach B zubekommen, sollte bei Morsecode oder besser gleich bei Rauchzeichen bleiben.

Ailuros
2014-01-10, 23:27:27
Hahahaaa. Der Untertitel ist gut (because we all need Angry Birds in 4k) ;D;D Fehlt nur noch: and we all need a Tegra K1 for Angry Birds in 4k) :naughty:

Siehste mit einem so albernen Link blieb die Debatte lebendig. Umsonst Werbung für einen >1000€ digitalen 4k photoframe :weg:

Hugo78
2014-01-11, 00:06:30
Kann man so sehen, doch auf der anderen Seite eröffnet es sicher auch dem ein oder anderen den Blick, weg vom Fokus auf Handys / Tablets in Sachen Tegra hin zu lautlosen Client und AIO PCs.

Ich selbst warte spätestens seit Tegra 3, auf einen < 10W 24/7 Thin Client nur zum surfen, Office und bisschen ownCloud für unter 250€.
Aktuell hab ich dafür einen AMD E-350, der aber immernoch knapp 30W zieht und auch nicht lautlos arbeitet.

Das die Industrie hier noch keine Produkte auf Basis von Handy Chips + Linux hat wundert mich schon seit langem.
Ein Raspberry PI hat mir hier zu wenig CPU Leistung, NVs Shield wäre ok, wenn auch insgesamt zu groß, mit aktiver Kühlung und für uns Europäer als Import schlicht zu teuer.

Und alles andere wie zb. eine Zotac ZBOX nano kommt immer mit deutlich zu lautem Lüfter.

Ailuros
2014-01-11, 00:18:54
Kann man so sehen, doch auf der anderen Seite eröffnet es sicher auch dem ein oder anderen den Blick, weg vom Fokus auf Handys / Tablets in Sachen Tegra hin zu lautlosen Client und AIO PCs.

Ich selbst warte spätestens seit Tegra 3, auf einen < 10W 24/7 Thin Client nur zum surfen, Office und bisschen ownCloud für unter 250€.
Aktuell hab ich dafür einen AMD E-350, der aber immernoch knapp 30W zieht und auch nicht lautlos arbeitet.

Das die Industrie hier noch keine Produkte auf Basis von Handy Chips + Linux hat wundert mich schon seit langem.
Ein Raspberry PI hat mir hier zu wenig CPU Leistung, NVs Shield wäre ok, wenn auch insgesamt zu groß, mit aktiver Kühlung und für uns Europäer als Import schlicht zu teuer.

Und alles andere wie zb. eine Zotac ZBOX nano kommt immer mit deutlich zu lautem Lüfter.

Ich dachte das Lenovo kostet $1199?

Timbaloo
2014-01-11, 00:46:09
Ich nehme an er bezieht sich nicht direkt auf das Lenovo Ding, sondern allgemein auf Thin Clients (mit oder ohne Monitor).

-/\-CruNcher-/\-
2014-01-11, 01:03:38
5W + Perepherie in einem Thin Client mit 30 FPS UE4 bei Full HD wer träumt nicht davon, immerhin sind das sogar 3 watt weniger als Atom damals + extra nicht eingerechnet :)

http://video.golem.de/games/12251/unreal-engine-4-auf-einem-7-zoll-tablet-mit-tegra-k1-%28ces%29.html

da fällt einem schon die kinlade ein wenig runter :)

Ailuros
2014-01-11, 01:14:08
5W + Perepherie in einem Thin Client mit 30 FPS UE4 bei Full HD wer träumt nicht davon, immerhin sind das sogar 3 watt weniger als Atom damals + extra nicht eingerechnet :)

Es sind wohl keine 30 fps mehr in UHD; 1080p auf einem UHD display gibt ein tolles aliasing-Fest.

Timbaloo,

Das Ding ist einfach zu teuer. Wir brauchen billigere Produkte die K1 zum Verkaufsschlager machen.

-/\-CruNcher-/\-
2014-01-11, 01:18:28
4K interessiert mich nicht die Bohne

Ja abwarten also so nen 7 zoll Tab mit K1 und HDMI das ist schon was 200-250 wären auch in Ordnung :)

Ailuros
2014-01-11, 01:21:11
4K interessiert mich nicht die Bohne

Das Lenovo um das es hier geht kostet $1199 und hat einen UHD display.

-/\-CruNcher-/\-
2014-01-11, 01:26:48
Das Lenovo um das es hier geht kostet $1199 und hat einen UHD display.
Das interesiert mich nicht es geht um geräuschlose (passiv) Thin Clients die kommen nicht in so einem package da ist das 7 zoll tab weitaus näher dran vor allem vom abwärme platz her schon weit drüber einfach irre, allerdings ist der Video Decoding part ohne Native VP9 und H.265 naja altbacken :(

Timbaloo
2014-01-11, 03:03:11
Timbaloo,

Das Ding ist einfach zu teuer. Wir brauchen billigere Produkte die K1 zum Verkaufsschlager machen.
Da hörst du sicher keinen Widerspruch von mir. Das Konzept (ob mit Tegra oder Foobar) finde ich trotzdem nicht uninteressant.

edit: Aber das geht dann langsam ot

Avalox
2014-01-11, 10:44:39
Ein interessantes Artikel auf Golem

Golem hat mit Frozenbyte über Trine 2 gesprochen.

"Höhere Grafikqualität als Playstation 3 und Xbox 360"

http://www.golem.de/news/tegra-k1-hoehere-grafikqualitaet-als-playstation-3-und-xbox-360-1401-103828.html

grobi
2014-01-11, 12:17:39
Ein interessantes Artikel auf Golem

Golem hat mit Frozenbyte über Trine 2 gesprochen.

"Höhere Grafikqualität als Playstation 3 und Xbox 360"

http://www.golem.de/news/tegra-k1-hoehere-grafikqualitaet-als-playstation-3-und-xbox-360-1401-103828.html

Ich kann mir jetzt nicht vorstellen das der K1 jetzt soviel mehr leistet wie die aktuellen Tablet SOC's.

Hugo78
2014-01-11, 13:39:00
Aber da steht im Artikel.
Damit liefert der K1 eine Grafikqualität sowie Bildrate, die der Wii U entsprechen und oberhalb der Playstation 3 und der Xbox 360 liegen.

Blediator16
2014-01-11, 14:29:20
Ich glaube nicht wirklich, dass Trine 2 der 5w SOC gemacht hat.

Hugo78
2014-01-11, 14:38:54
Gibt doch genug Beispiele dazu im Netz.

Heise
FOUIokuByrU

GolemDE
LcuRTTz3PyM

Android Central
CT3FF_jS3HY

Blediator16
2014-01-11, 14:46:32
Von den Dingern weiß man nichts. In einem der Videos sagt er das Prototypgerät habe 4gb Ram. Wer weiß was da noch unrealistisches drinne steckt.

dildo4u
2014-01-11, 14:47:30
Trine 2 ist ideal für den Chip das es kaum CPU last erzeugt,GTA5 auf dem Chip hätte massive Probleme.Die Demos sind schon glaubwürdig.

Hugo78
2014-01-11, 14:48:58
Ach Gott, als ob Trine 2 die 4GB Ram bräuchte.

dildo4u
2014-01-11, 14:50:00
Ach Gott, als ob Trine 2 die 4GB RAm bräuchte.
Natürlich nicht es läuft auf PS3 kein Plan was Blediator16 meint.Auf Wii-U(1GB) gibt schon mit dem PC vergleichbare Texturen.

Hugo78
2014-01-11, 14:51:03
Jup, da die PS3 grad mal 2*256MB RAM hat.

Windi
2014-01-11, 14:51:04
Hat nVidia hier so stark aufgeholt oder haben die anderen Hersteller ähnliche Produkte auf dem Markt / in Planung?

Blediator16
2014-01-11, 14:53:21
Hast du alle anderen Tegra Vorstellungen verschlafen Windi?:freak:

Windi
2014-01-11, 14:55:18
Nee, aber die zeigen ja lauffähige Demos.

edit: Oder ist das alles kalter Kaffee?

edit2: Sind das nur Grafikblender, die vom vielen RAM profitieren?

dildo4u
2014-01-11, 14:55:42
Ich erwarte alle K1 Geräte mit 3GB das ist Heute schon Standard.(Siehe die neuen Samsung Tablets,Note 3 etc)Genug Ram und das versprochen PS3/360 Level zu halten was die Grafik angeht wie gesagt ich würde mir eher um die CPU Power sorgen machen Games wie GTA5 dürften Probleme machen.

Blediator16
2014-01-11, 15:00:34
Brauchst dir keine Sorgen machen GTA5 wirds auf den Tabs eh nicht geben :D

dildo4u
2014-01-11, 15:03:57
Wird dauern wird aber kommen GTA3 und Vice City gibt's ja schon.

Hugo78
2014-01-11, 15:09:20
Es wäre natürlich der Hammer, wenn man die Physik in GTA 5 für Tegra K1 per PhysX laufen lässt und somit den CPU Part entlasstet
und dank mehr RAM* sogar bessere Texturen hätte :biggrin: ... und so GTA5 nicht nur zum laufen bekommt, sondern es noch besser ausschaut.
* = bis zu 3,6 GB für die 32bit A15 Version und noch mehr im 64bit Denver Chip.

@Windi

Nvidia hat mit Kepler eine Architektur die auch ordentlich "nach unten" skaliert, mit Anpassungen versteht sich.
Wie stark die kommenden Qualcomm und PowerVR Chips im direkten Vergleich werden, keine Ahnung,
aber man kann sicher sagen, dass Featureset und Speed von Tegras GPU endlich da angekommen sind, wo man das auch von NV erwartet.

Ailuros
2014-01-11, 15:56:46
Hat nVidia hier so stark aufgeholt oder haben die anderen Hersteller ähnliche Produkte auf dem Markt / in Planung?

Ja Intel und AMD.


@Windi

Nvidia hat mit Kepler eine Architektur die auch ordentlich "nach unten" skaliert, mit Anpassungen versteht sich.
Wie stark die kommenden Qualcomm und PowerVR Chips im direkten Vergleich werden, keine Ahnung,

Qualcomm's Kerngeschaeft sind smartphones, ergo alles was sie entwickeln muss auch in solche reinpassen. Smartphones sind und werden es auch bleiben der groesste ULP Marktanteil wenn es zu Volumen kommt.

.....aber man kann sicher sagen, dass Featureset und Speed von Tegras GPU endlich da angekommen sind, wo man das auch von NV erwartet.

Schon, aber.....

Hugo78
2014-01-11, 17:14:15
Aber ... ?

fondness
2014-01-11, 17:21:50
Wenn der Stromverbrauch zu hoch ist nützt das auch nichts. NV hat ohne größere Umbauarbeiten auch keine Möglichkeit die GPU weiter nach unter zu skalieren, ein SMX hat bereits 192SPs.
Aber dazu heißt es Tests abwarten.

Ailuros
2014-01-11, 17:29:50
Aber ... ?

Das aber liegt genau ein Satz weiter oben; keine smartphones kein besonders hohes Volumen.

Es ist ja alles schoen und gut aber wenn NV mit K1 nicht anstaendig verkauft und so langsam Marktanteil von fast Null wieder aufbaut bringt Dir das uebertolle featureset genau was? NVIDIA leitet wohl keine ueberteuren Technologie-Experimente noch koennen sie sich so etwas auf lange Frist leisten.

Man hat also momentan nichts anstaendiges fuer smartphones und da K1 reines high end ist ueberhaupt nichts fuer irgendwelchen Markt mit hohem Volumen. Erklaer mir mal woher ein wirklich erwuenschter Aufschwung kommen soll? Im allerbesten Fall decken sie wieder ihre Kosten und selbst das wird von moechtegern Analysten bezweifelt.

Wenn der Stromverbrauch zu hoch ist nützt das auch nichts. NV hat ohne größere Umbauarbeiten auch keine Möglichkeit die GPU weiter nach unter zu skalieren, ein SMX hat bereits 192SPs.
Aber dazu heißt es Tests abwarten.

Hmmm in den high end Geraeten wo NV wohl erscheinen wird ist so etwas sowieso wurscht wenn der SoC tatsaechlich einen 5W TDP hat.

Selbst die A7 GPU im iPhone5S/iPad Air und co. hat nach dem ueblichen "core" Gefusel schon 160 davon. Der Haken ist eben dass die vorige "nur" bei 466MHz taktet und nicht bei 951MHz wie GK20A im K1. NV kann aber schon die Frequenzen reduzieren falls es zu bunt wird mit dem Stromverbrauch und ihre Konkurrenten koennen ebenfalls noch um einiges auf den Frequenz-Hebel treten wo immer benoetigt falls sie Nacken an Nacken rennen wollen.

-/\-CruNcher-/\-
2014-01-11, 21:01:39
Mich würde interessieren wie gut Nvidias H.265 Decoder läuft es gibt ja einige witzige Software Kombinationen für Mobile (H.265 und VP9) mit OpenCL die 192 cuda cores sollten hier ja ordentlich Decoding Power bieten :)

und sebst Rockchip portet ja ihren Decoder sogar auf den RK 3066 (Mali 400 amazing) allerdings ist ihr target bei dem alten Dual Core 720p und beim RK 3188 dann erst 1080p aber in Software :D

Ittiam scheint auch wieder mächtig abzusahnen schon erstaunlich was deren enginers da alles rausholen jetzt da das Decoding effizienter parallelisierbar ist vor allem gerade erst in den Kinderschuhen :D

1-XtHihx_Zw


So langsam sehen wir sich kristalieren das DSPs für Video Decoding garnicht mehr gebraucht werden (mit ordentlich designeden Video Codecs) und das sie im Gegenteil weniger flexible werden in der Zukunft ;)

Hugo78
2014-01-11, 21:14:22
Das aber liegt genau ein Satz weiter oben; keine smartphones kein besonders hohes Volumen.

Ok, aber das hat jetzt erstmal nichts mit der Leistung der GPU zutun.
Fürs erste wäre es schonmal schön, wenn NV wieder auf Tegra 3 Stückzahlen kommt und Mobile-Kepler als IP im Markt ankommt. (mal stelle sich vor Intel würde Kepler verwenden...)
Denn langfristig glaube ich nicht, dass NV bei Smartphones einen hohen Marktanteil halten kann, selbst wenn sie den heute hätten.
Aber darauf will ich nicht schon wieder eingehen (zb. link (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9760379&postcount=145)).
Für mich ist klar das NV für Tegra abseits von Handys eine Nische braucht, die das Tegra-Geschäft trägt und retabel hält, auch ohne "Weltherrschaft".

Man hat also momentan nichts anstaendiges fuer smartphones und da K1 reines high end ist ueberhaupt nichts fuer irgendwelchen Markt mit hohem Volumen. Erklaer mir mal woher ein wirklich erwuenschter Aufschwung kommen soll? Im allerbesten Fall decken sie wieder ihre Kosten und selbst das wird von moechtegern Analysten bezweifelt.

Schauen wir mal. K1 wird es schon in das ein oder andere High End Handy schaffen, das LTE-Modem kommt dann halt von QCOM, wie bei Apple.
In Punkto Aufschwung, seh ich das Geschäft abseits von Handys nicht so schwarz, grade weil sich der PC wandelt und Stromverbrauch, Lautstärke immer wichtiger wird.
Windows ist nicht mehr alternativlos, mit Android und SteamOS, und somit ist auch X86 nicht mehr überall Pflicht.
Da ergeben sich für dieses Jahr genug Möglichkeiten für "Design Wins".

-/\-CruNcher-/\-
2014-01-11, 21:22:08
Also Nvidia hat diese nische gefunden und wie gesagt für viele Geräte bieten sie Power ohne Ende und sie brauchen dazu nichtmal so viel DSP zeugs was für statische Devices wie Thin Clients oder SetTop Boxen auch nicht wirklich nötig ist bei dem Energiebudget dafür aber weitaus flexibler :)

Ailuros
2014-01-11, 21:53:17
Mich würde interessieren wie gut Nvidias H.265 Decoder läuft es gibt ja einige witzige Software Kombinationen für Mobile (H.265 und VP9) mit OpenCL die 192 cuda cores sollten hier ja ordentlich Decoding Power bieten :)

und sebst Rockchip portet ja ihren Decoder sogar auf den RK 3066 (Mali 400 amazing) allerdings ist ihr target bei dem alten Dual Core 720p und beim RK 3188 dann erst 1080p aber in Software :D

Ittiam scheint auch wieder mächtig abzusahnen schon erstaunlich was deren enginers da alles rausholen jetzt da das Decoding effizienter parallelisierbar ist vor allem gerade erst in den Kinderschuhen :D

http://youtu.be/1-XtHihx_Zw


So langsam sehen wir sich kristalieren das DSPs für Video Decoding garnicht mehr gebraucht werden (mit ordentlich designeden Video Codecs) und das sie im Gegenteil weniger flexible werden in der Zukunft ;)

Fixed function dedizierte HW ist immer effizienter als programmierbare.

Ok, aber das hat jetzt erstmal nichts mit der Leistung der GPU zutun.
Fürs erste wäre es schonmal schön, wenn NV wieder auf Tegra 3 Stückzahlen kommt und Mobile-Kepler als IP im Markt ankommt. (mal stelle sich vor Intel würde Kepler verwenden...)
Denn langfristig glaube ich nicht, dass NV bei Smartphones einen hohen Marktanteil halten kann, selbst wenn sie den heute hätten.
Aber darauf will ich nicht schon wieder eingehen (zb. link (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9760379&postcount=145)).
Für mich ist klar das NV für Tegra abseits von Handys eine Nische braucht, die das Tegra-Geschäft trägt und retabel hält, auch ohne "Weltherrschaft".

Ohne einen high Volumen Markt anzusprechen mit was genau?



Schauen wir mal. K1 wird es schon in das ein oder andere High End Handy schaffen, das LTE-Modem kommt dann halt von QCOM, wie bei Apple.
In Punkto Aufschwung, seh ich das Geschäft abseits von Handys nicht so schwarz, grade weil sich der PC wandelt und Stromverbrauch, Lautstärke immer wichtiger wird.
Windows ist nicht mehr alternativlos, mit Android und SteamOS, und somit ist auch X86 nicht mehr überall Pflicht.
Da ergeben sich für dieses Jahr genug Möglichkeiten für "Design Wins".

Für so etwas brauchen sie zweistellige Mio Verkaufszahlen von den grossen Herstellern. Nur möglich wenn KEIN anderer tablet design eins erreicht und sich Apple's tablet Marktanteil so stark reduziert dass es zum Nischenprodukt wird. Die Chinesen und Indier kaufen eher phablets als tablets.

Also Nvidia hat diese nische gefunden und wie gesagt für viele Geräte bieten sie Power ohne Ende und sie brauchen dazu nichtmal so viel DSP zeugs was für statische Devices wie Thin Clients oder SetTop Boxen auch nicht wirklich nötig ist bei dem Energiebudget dafür aber weitaus flexibler :)
Woher kommt jetzt wieder der Stuss?
Natürlich hat K1 decoder & Encoder ff HW und dazu ziemlich große Blöcke dafür.

-/\-CruNcher-/\-
2014-01-11, 22:53:47
Nicht bestätigt fixed function nur für H.264 laut den Medienberichten, anscheinend war die Zeit zu knapp

Qualcomm dagegen hat einen vollen fixed function part für H.265 zumindest in SD 805

quelle:

http://www.anandtech.com/show/7622/nvidia-tegra-k1/4

H.265 video decode as well, but this isn’t accelerated fully in hardware, rather the decode is split across NVENC and CPU.

Das ist aber sicherlich blödsin Nvidia wird genauso wie Ittiam die Compute funktionen zur Entlastung nutzen davon haben sie ja genug, zumal NVENC ja der dedizierte Encoder part ist und nicht der Decoder :upicard: ;)

Ailuros
2014-01-11, 23:01:02
Nicht bestätigt fixed function nur für H.264 laut den Medienberichten, anscheinend war die Zeit zu knapp

Qualcomm dagegen hat einen vollen fixed function part für H.265

quelle:

http://www.anandtech.com/show/7622/nvidia-tegra-k1/4

Schlechte Nachrichten dann fuer NV denn die GPU verbratet stets um einiges mehr Strom als ein ff decoder, egal wie niedrig die GPU taktet. Ich bezweifle auch ernsthaft dass man Anteile der SPs power gaten kann, ergo egal ob niedrige Frequenz muss man wohl ganze 192 SPs fuer das Zeug quaelen.

-/\-CruNcher-/\-
2014-01-11, 23:07:00
Schlechte Nachrichten dann fuer NV denn die GPU verbratet stets um einiges mehr Strom als ein ff decoder, egal wie niedrig die GPU taktet. Ich bezweifle auch ernsthaft dass man Anteile der SPs power gaten kann, ergo egal ob niedrige Frequenz muss man wohl ganze 192 SPs fuer das Zeug quaelen.

Werden wir ja sehen für Mobile jedenfalls sehr problematisch da geb ich dir recht ;)

Naja Nvidia hat den Video Decode part in ihrem Tegra schon immer etwas stiefmüttlerlich behandelt als die Konkurenz, ist wohl nicht ihr Target und sie investieren den platz lieber in ihre cores ;)

Ihr fokus liegt mehr auf dem low latency H.264 part für ihre ganzen Streaming/Encoding und andere Research geschichten die Adaption zu H.265 low power kommt wohl etwas später ;)

Hugo78
2014-01-11, 23:16:15
4K per Handy aufnehmen interessiert doch niemand, solang keine Sau 4K Abspielgeräte hat.

Ailuros
2014-01-11, 23:16:19
Werden wir ja sehen für Mobile jedenfalls sehr problematisch da geb ich dir recht ;)

Meh so viel H.265 Inhalt gibt es momentan nun auch wieder nicht.

Naja Nvidia hat den Video Decode part in ihrem Tegra schon immer etwas stiefmüttlerlich behandelt als die Konkurenz, ist wohl nicht ihr Target und sie investieren den platz lieber in ihre cores ;)

Decoders waren stets auf Trab - nicht absolut der letzte Schrei - aber trotz allem gut genug. Was sie bis jetzt vernachlaessigt haben ist eher die GPU; mit K1 ging es dann eben voll aufs Gaspedal. Was NV stets von Anfang an fehlte ist der richtige Massstab und so lange JHH's Groessenwahn mitspielt befuerchte ich dass es nicht gut gehen kann. Alles aber nur IMHO.

deekey777
2014-01-12, 00:20:08
Wird dauern wird aber kommen GTA3 und Vice City gibt's ja schon.
San Andreas kam auch vor kurzem, aber das sind PS2/Xbox-Spiele.
Das eigentliche Problem ist auch nicht die Leistung der CPU/GPU, sondern die Größe der Spiele. Die Downloadgröße heutiger Titel ist deutlich über ein GB. Installiert man diese über WLAN ist mindestens doppelt so großer freier Speicher notwendig (für XCOM sind fast vier GB notwendig).

Heute wäre bestimmt ein Far Cry für aktuelle Highend-Geräte zu schaffen, aber da muss kräftig an der Größe des Spiels geschraubt werden, womit insbesondere die Texturen leiden werden (und wohl auch die Objekte an sich). Ich sehe schon Spiele mit Blinkblink-Effekten, die auf GPU-Leistung setzen und die Hässlichkeit der Texuren verstecken.

-/\-CruNcher-/\-
2014-01-12, 02:03:10
Meh so viel H.265 Inhalt gibt es momentan nun auch wieder nicht.



Decoders waren stets auf Trab - nicht absolut der letzte Schrei - aber trotz allem gut genug. Was sie bis jetzt vernachlaessigt haben ist eher die GPU; mit K1 ging es dann eben voll aufs Gaspedal. Was NV stets von Anfang an fehlte ist der richtige Massstab und so lange JHH's Groessenwahn mitspielt befuerchte ich dass es nicht gut gehen kann. Alles aber nur IMHO.

Bin gespannt wie Imagination auf K1 reagiert ich denke mal die werden nur schmunzeln, das ganze ist aber schon recht interessant man darf nicht vergessen Nvidia hat damals Imagination mit vom Desktop gekicked und nun hehe ;)

=Floi=
2014-01-12, 05:02:43
San Andreas kam auch vor kurzem, aber das sind PS2/Xbox-Spiele.
Das eigentliche Problem ist auch nicht die Leistung der CPU/GPU, sondern die Größe der Spiele. Die Downloadgröße heutiger Titel ist deutlich über ein GB. Installiert man diese über WLAN ist mindestens doppelt so großer freier Speicher notwendig (für XCOM sind fast vier GB notwendig).

Heute wäre bestimmt ein Far Cry für aktuelle Highend-Geräte zu schaffen, aber da muss kräftig an der Größe des Spiels geschraubt werden, womit insbesondere die Texturen leiden werden (und wohl auch die Objekte an sich). Ich sehe schon Spiele mit Blinkblink-Effekten, die auf GPU-Leistung setzen und die Hässlichkeit der Texuren verstecken.

wo trifft das bei android auf probleme, wenn dort eine kartenslot kein problem darstellt? dieses problem hat vor allem apple mit ihren kleineren geräten, weil selbst 64gb wenig sind und sie dort in den nächsten jahren auf 128 und 256gb aufstocken müssen.

Ailuros
2014-01-12, 08:55:54
Bin gespannt wie Imagination auf K1 reagiert ich denke mal die werden nur schmunzeln, das ganze ist aber schon recht interessant man darf nicht vergessen Nvidia hat damals Imagination mit vom Desktop gekicked und nun hehe ;)

Fuer desktop ist und war IP Bloedsinn. Wenn IMG vom desktop wegggeblieben ist, sind eher ihre Partner schuld als NV selber und chips herzustellen fuer eine IP Firma wie IMG ist genauso irrsinning wie NV IP verkaufen wuerde (ausserhalb von Grenzen).

IMG hat momentan andere Kopfschmerzen wie z.B. Millionen-schwere Investitionen wie MIPS u.a. auf dem laufenden zu halten und Gewinn zu machen; sie machen zwar Gewinn insgesamt aber hauptsaechlich dank PowerVR. NV von der anderen Seite muss zusehen dass aus Tegra irgend etwas wird, denn sonst koennen sie sich den Spass mit dem Rhytmus langfristig auch nicht erlauben.

wo trifft das bei android auf probleme, wenn dort eine kartenslot kein problem darstellt? dieses problem hat vor allem apple mit ihren kleineren geräten, weil selbst 64gb wenig sind und sie dort in den nächsten jahren auf 128 und 256gb aufstocken müssen.

Meinst Du i-Geraete? Wenn ja seit wann gibt es dort 256GB Varianten? :confused:

Ailuros
2014-01-12, 09:23:23
Tegra K1 whitepaper:

http://www.mediafire.com/view/k0hsa851thuw368/Tegra-K1-whitepaper-v1.0.pdf

deekey777
2014-01-12, 12:25:11
wo trifft das bei android auf probleme, wenn dort eine kartenslot kein problem darstellt? dieses problem hat vor allem apple mit ihren kleineren geräten, weil selbst 64gb wenig sind und sie dort in den nächsten jahren auf 128 und 256gb aufstocken müssen.

Eigentlich müsste die Antwort auf mein Posting so aussehen:
Das Problem betrifft in erster Linie Geräte ohne die Möglichkeit der Speichererweiterung wie Nexus 7 oder Apple-Geräte.
Hat man diese Möglichkeit, so können zumindest Filme, Musik und Fotos ausgelagert werden. Android 4.4 erlaubt Entwicklern Daten auf externen Speicher auszulagern, soweit es auf die Schnelligkeit des externen Speichers nicht ankommt.
Natürlich gilt das nur, wenn die Stores überhaupt größere Apps als 2-3 GB erlauben.

Nur so am Rande: Das iPad 4 wird seit Anfang Februar 2013 mit 128 GB angeboten. Aktuelle Retina-iPads werden ebenfalls mit 128 GB angeboten.

Demirug
2014-01-12, 12:36:00
Natürlich gilt das nur, wenn die Stores überhaupt größere Apps als 2-3 GB erlauben.

Man kann im Zweifle immer noch vom eigenen CDN Content nachladen.

Was die Texture angeht so sind da viele von den alten Spielen die man jetzt auf mobile portiert für die hohen Auflösungen eigentlich zu klein.

Dural
2014-01-12, 13:37:40
Wenn der Stromverbrauch zu hoch ist nützt das auch nichts. NV hat ohne größere Umbauarbeiten auch keine Möglichkeit die GPU weiter nach unter zu skalieren, ein SMX hat bereits 192SPs.
Aber dazu heißt es Tests abwarten.

wenn man strom sparen will muss man den chip in die breite bauen und den takt runter ziehen. der andere weg wäre ein mega fail.

da der chip angeblich nur 100mm2 gross ist dürfte das so wie so kein thema sein, ich befürchte ja fast das die vier A15 cores viel mehr das problem sein werden als die GPU.

die K1 GPU dürfte 2-3 schneller sein als alles was derzeit auf dem markt ist, plus DX11 + cuda. da ist noch sehr viel luft nach unten.

und überhaupt, das ding lief auf der CES in 7" tablet im dauerbetrieb, von zu viel verbrauch kann man da schon gar nicht mehr sprechen, sonst wären so kleine geräte dahin geschmolzen ;)

und ich denke auch das Trine 2 für K1 gerade zu ideal ist, CPU last dürfte überschaubar sein, die TDP kann man somit in die GPU stecken.

Skysnake
2014-01-12, 13:54:25
Hmmm in den high end Geraeten wo NV wohl erscheinen wird ist so etwas sowieso wurscht wenn der SoC tatsaechlich einen 5W TDP hat.

Selbst die A7 GPU im iPhone5S/iPad Air und co. hat nach dem ueblichen "core" Gefusel schon 160 davon. Der Haken ist eben dass die vorige "nur" bei 466MHz taktet und nicht bei 951MHz wie GK20A im K1. NV kann aber schon die Frequenzen reduzieren falls es zu bunt wird mit dem Stromverbrauch und ihre Konkurrenten koennen ebenfalls noch um einiges auf den Frequenz-Hebel treten wo immer benoetigt falls sie Nacken an Nacken rennen wollen.
Ich frag mich auch, wie die hohen Taktraten funktionieren sollen bei 5W. Ich vefürchte im realen Einsatz wird es da noch ne sehr herbe Ernüchterung geben.


Decoders waren stets auf Trab - nicht absolut der letzte Schrei - aber trotz allem gut genug. Was sie bis jetzt vernachlaessigt haben ist eher die GPU; mit K1 ging es dann eben voll aufs Gaspedal. Was NV stets von Anfang an fehlte ist der richtige Massstab und so lange JHH's Groessenwahn mitspielt befuerchte ich dass es nicht gut gehen kann. Alles aber nur IMHO.
Ja, nVidia hat hier schon geklotzt und nicht gekleckrt. Die Frage ist halt wirklich, ob Sie nicht eventuell doch ne Unterteilung des SMX eingebaut haben, also z.B. 16 ALUs laufen lassen können minimal und den Rest eben aus knippsen.

Dem Idle-Verbrauch würde das sehr zugute kommen.

So 16/48/96/192 wäre ne sehr nette Unterteilung.

EDIT:
Ich hab mir das "White"Paper mal angeschaut.

Der 128kB Cache ist nicht gerade sehr klein, wenn man bedenkt, dass das Ding wirklich auch bindless Textures unterstützt.

Wenn ich mir da so die Demos anschaue, und was für kleine Räume das waren und wie wenig man eigentlich an unterschiedlichem Content sehen konnte, dann dürfte das Zeug eventuell komplett in die 128kB passen von den Texturen her, oder was meint ihr?

Wenn ja, würde das natürlich sehr der Perf/W zugute kommen, so in ner Real-World-Anwendung aber nicht wirklich auftauchen.

Ailuros
2014-01-12, 15:34:19
da der chip angeblich nur 100mm2 gross ist dürfte das so wie so kein thema sein, ich befürchte ja fast das die vier A15 cores viel mehr das problem sein werden als die GPU.

Erstens weiss keiner um wieviel Transistoren es sich handelt, ergo ist die Packdichte unbekannt und die 100mm2 als Zahl total wertlos. Sonst sind die 2.3GHz der CPU um einiges entfernt von desktop Frequenzen ganz im Gegenteil zu GPU desktop Frequenzen. NV hat nirgends eine TDP angegeben.

die K1 GPU dürfte 2-3 schneller sein als alles was derzeit auf dem markt ist, plus DX11 + cuda. da ist noch sehr viel luft nach unten.

Kommt auf den realen Stromverbrauch an und wann K1 und in welchen Geraeten erscheinen wird.

und überhaupt, das ding lief auf der CES in 7" tablet im dauerbetrieb, von zu viel verbrauch kann man da schon gar nicht mehr sprechen, sonst wären so kleine geräte dahin geschmolzen ;)

Beweiss mir dass ein 10W chip theoretisch nicht stundenlang mit passiver Kuehlung laufen kann. Tolle Logik.

EDIT:
Ich hab mir das "White"Paper mal angeschaut.

Der 128kB Cache ist nicht gerade sehr klein, wenn man bedenkt, dass das Ding wirklich auch bindless Textures unterstützt.

Wenn ich mir da so die Demos anschaue, und was für kleine Räume das waren und wie wenig man eigentlich an unterschiedlichem Content sehen konnte, dann dürfte das Zeug eventuell komplett in die 128kB passen von den Texturen her, oder was meint ihr?

Wenn ja, würde das natürlich sehr der Perf/W zugute kommen, so in ner Real-World-Anwendung aber nicht wirklich auftauchen.

Es gibt doch sicher noch eine wirklich grosse cache auf dem SoC auf die GPU auch Zugang haben koennte oder? ;)

Sonst steht im gesamten Marketing-Material nur etwas ueber TXAA/FXAA drin.

-/\-CruNcher-/\-
2014-01-12, 15:35:02
Erstens weiss keiner um wieviel Transistoren es sich handelt, ergo ist die Packdichte unbekannt und die 100mm2 als Zahl total wertlos. Sonst sind die 2.3GHz der CPU um einiges entfernt von desktop Frequenzen ganz im Gegenteil zu GPU desktop Frequenzen. NV hat nirgends eine TDP angegeben.



Kommt auf den realen Stromverbrauch an und wann K1 und in welchen Geraeten erscheinen wird.



Beweiss mir dass ein 10W chip theoretisch nicht stundenlang mit passiver Kuehlung laufen kann. Tolle Logik.

Das hätten die Leute die das 7 tab in der Hand hatten aber Deutlich gemerkt hmm wieso ist das schwerer als andere oder outsch meine finger brennen :D

Ailuros
2014-01-12, 15:37:02
Das hätten die Leute die das 7 tab in der Hand hatten aber Deutlich gemerkt :D

Bei welchen Frequenzen lief denn dieses?

Aus dem obrigen whitepaper:

Seite6 footnote:

Power and performance measured on Tegra K1 (32-bit) and Tegra 4 development systems while running
Specint2K benchmark

Seite8 footnote (zwar irrelevant aber koestlich):

Tegra K1 is capable of OpenCL 1.2. It will be supported based on customer needs.

Seite10 foot note fuer die 2W Stromverbrauch fuer die GPU:

Average power measured on GPU power rail while playing a collection of popular mobile games.

Was haben sie denn gespielt? Angry birds? Sonst es ist der durchschnittliche Stromverbrauch der GPU und eben NICHT ein TDP.

Moment das beste kommt noch gleich....

Seite18 footnote:

GPU Horsepower is based on Peak Fragment Shader GFLOPS of each platform. PS3 GPU-Cell 154 GFLOPS FP32
not included. CPU Horsepower is based on Specint2K performance. Peak GFLOPS and Specint2K performance of
consoles are estimates and may have +/-20% margin of error. SPUs not included in the calculation of CPU
Horsepower for PS3.

Was hat denn sonst noch einen +/-20% margin of error?

Und ja ich weiss schon auf welchen Frequenzen das tab gelaufen ist, aber ich begrenze mich mit Absicht auf ihre eigene oeffentliche Dokumentation weil sie eben mit Absicht nicht alle Loecher dicht machen.

deekey777
2014-01-12, 15:37:24
Beweiss mir dass ein 10W chip theoretisch nicht stundenlang mit passiver Kuehlung laufen kann. Tolle Logik.
Insbesondere, wenn man nicht weiß, wie diese handgemachten Prototypen die Wärme im Vergleich zu Fertigprodukten, wo auf jeden Cent geschaut wird, abgeführt wird.

Man kann im Zweifle immer noch vom eigenen CDN Content nachladen.

Temple Run Oz macht das (ich weiß nicht, ob das vom eigenen Server geschieht oder über Apple). Aber genau das ging damals bei Rage nicht, so dass es zwei Versionen gab. Es gibt auch von Galaxy on Fire 2 zwei Versionen: eine abgespeckte und eine teurere aufgemotzte HD-Version für aktuelle iOS-Geräte.

Undertaker
2014-01-12, 15:39:45
K1 könnte wohl wieder im nächsten Surface landen:

http://www.notebookcheck.com/Microsoft-Surface-3-angeblich-mit-Tegra-K1.108691.0.html

Ende 2014 könnte das evtl. sogar die Denver-Version sein. Wäre gerade bei Win RT ohne Companion Core Support praktisch.

-/\-CruNcher-/\-
2014-01-12, 15:41:17
Bei welchen Frequenzen lief denn dieses?

Ich hatte es nicht in der Hand ich führe nur an das man es gemerkt hätte bei Trine 2 oder der UE4 Demo, man könnte ja auch noch bösser sein und vermuten das die sachen garnicht local liefen ;)

Ailuros
2014-01-12, 15:53:11
Ich hatte es nicht in der Hand ich führe nur an das man es gemerkt hätte bei Trine 2 oder der UE4 Demo, man könnte ja auch noch bösser sein und vermuten das die sachen garnicht local liefen ;)

Ein 7" tablet mit einem ~5W TDP hat wohl nicht die vollen Frequenzen ;)

-/\-CruNcher-/\-
2014-01-12, 15:54:58
Wenn interessieren den die Frequenzen wenn es um Gaming und GPU geht hauptache es ist stabil und ausbalanciert im Design umso lower umso besser.

Die Demos werden sicher nicht die vollen 5W gezogen haben wäre auch schlimm wenn wie gesagt das hätte man ziemlich sicher gemerkt schon weitaus weniger merkt man bei 7 zoll :)

deekey777
2014-01-12, 16:07:27
Das hätten die Leute die das 7 tab in der Hand hatten aber Deutlich gemerkt hmm wieso ist das schwerer als andere oder outsch meine finger brennen :D
Durfte den Prototypen überhaupt jemand in eigene Hände nehmen? Irgendwie wird es immer von einem Anzugträger gehalten. X-D


Seite8 footnote (zwar irrelevant aber koestlich):

.

Auch wenn du eher meintest, dass ein Tegra Note mit Cuda und entsprechenden Treibern kommt, war da noch was: http://www.anandtech.com/show/7191/android-43-update-for-nexus-10-and-4-removes-unofficial-opencl-drivers
Wäre schon absolut uncool, wenn Tegra Note mit Cuda kommt, eigene Geräte mit Tegra K1 dagegen nicht, weil Google das nicht will.

Aber ja, Android ist doch so free.

Ailuros
2014-01-12, 17:01:12
Auch wenn du eher meintest, dass ein Tegra Note mit Cuda und entsprechenden Treibern kommt, war da noch was: http://www.anandtech.com/show/7191/android-43-update-for-nexus-10-and-4-removes-unofficial-opencl-drivers
Wäre schon absolut uncool, wenn Tegra Note mit Cuda kommt, eigene Geräte mit Tegra K1 dagegen nicht, weil Google das nicht will.

Aber ja, Android ist doch so free.

OCL ist immer noch in einem sagen wir mal zwielichtigen Zustand bei NV. Sie lassen es fast schon so klingen als sie OCL nur auf Anfrage unterstuetzen wuerden; sie sind regelrecht dazu gezwungen OCL auf Trab zu bekommen sonst bekommen sie Probleme mit OGL_ES Next.

Hugo78
2014-01-12, 17:46:19
war da noch was: http://www.anandtech.com/show/7191/android-43-update-for-nexus-10-and-4-removes-unofficial-opencl-drivers

Wow, Google sperrt OpenCL aus?! :eek:
Genaugenommen müsste man sagen, Google geht aktiv gegen OpenCL vor,
weil der Ausschluß aus dem OS mit der größten Gerätebasis in dem einzig echten Wachstummarkt, letztlich nichts anderes darstellt.

-/\-CruNcher-/\-
2014-01-12, 18:08:38
Wow, Google sperrt OpenCL aus?! :eek:
Genaugenommen müsste man sagen, Google geht aktiv gegen OpenCL vor,
weil der Ausschluß aus dem OS mit der größten Gerätebasis in dem einzig echten Wachstummarkt, letztlich nichts anderes darstellt.

Naja verstehen kann man solche Entscheidungen Microsoft hat die bei OpenGL schlieslich auch so getroffen es bleibt ja immernoch die möglichkeit direkt anzusprechen wenn man unbedingt muss so gesehen kann man immer externe interfaces in Android schaffen machen andere ja auch nichts anderes bedeutet das Frei ;)

Das ist aber dann eben Mehraufwand wo man dann abwägen muss reicht nicht Renderscript und Filterscript aus und so gesehen sind dann Nvidia und co dazu verdammt eben für Renderscript und Filterscript zu optimieren wie sie das schon im falle von Microsoft bei DirectX sind ;)

Google sieht Balance über alles als wichtig an das haben sie sehr oft gezeigt sie wollen niemanden auschsliesen oder von sich aus bevorzugen und wollen alles so leicht wie möglich für den größtmöglichen teil von Entwickler gestalten siehe Microsoft und .Net ;)

Allerdings fand ich diesen Schritt bei Microsoft schon bedenklich da er zur folge hat das eine Generation heranwächst die sich nicht wirklich mehr mit Low Level beschäftigt sondern sich einfach nur noch "von oben" Managed lässt :(

Given the diversity of hardware in the Android world, Google is preferring Renderscript over OpenCL. I think Google would prefer consistent performance everywhere, even if it means not reaching the peak on any platform.

Ailuros
2014-01-12, 18:10:22
Naja verstehen kann man solche Entscheidungen Microsoft hat die bei OpenGL schlieslich auch so getroffen es bleibt ja immernoch die möglichkeit direkt anzusprechen wenn man unbedingt muss so gesehen kann man immer externe interfaces in Android schaffen machen andere ja auch nichts anderes bedeutet das Frei ;)

Das ist aber dann eben Mehraufwand wo man dann abwägen muss reicht nicht Renderscript aus ;)

...IHVs bringen das was sie brauchen durch die Hintertuer von OGL_ES Next rein und gut ist es :P

Skysnake
2014-01-12, 19:07:49
Seite8 footnote (zwar irrelevant aber koestlich):

Hach, das wäre natürlich köstlich ;D

Die Desktop-GPUs unterstützen kein OpenCL, geschweige denn 2.0 aber K1 ;D Das wäre schon wirklich zu köstlich, wobei sich das schon so anhört, als ob Sie es eher nur zähneknirschend machen, wenns denn jemand unbedingt haben will...

Die Frage ist halt nur, wie sie den OpenCL 2.0 Support in K1 bekommen, wobei die größten Problemstellungen durch den einen SMX eh wegfallen. Globale Syncs unterscheiden sich ja nicht von denen auf Workgroupe basis. Es gibt halt nur einen SMX.

Wow, Google sperrt OpenCL aus?! :eek:
Genaugenommen müsste man sagen, Google geht aktiv gegen OpenCL vor,
weil der Ausschluß aus dem OS mit der größten Gerätebasis in dem einzig echten Wachstummarkt, letztlich nichts anderes darstellt.
hm... wäre ziemlich uncool, selbst wenns über die Hintertür wieder rein kommen würde.

Ailuros
2014-01-12, 21:17:59
hm... wäre ziemlich uncool, selbst wenns über die Hintertür wieder rein kommen würde.
Das eigentlich daemliche ist eben dass man so lange man klein & fast bedeutungslos ist, man sich stets beschwert wie "uncompetitive" sich ein Microsoft oder Intel verhaltet. Sobald sich aber das Blatt im geringsten wendet, baut man gleichen oder schlimmeren Scheiss. Pffffff.....

=Floi=
2014-01-12, 22:06:51
dachte jede normale nv gpu kann ocl?

-/\-CruNcher-/\-
2014-01-12, 22:14:57
Das eigentlich daemliche ist eben dass man so lange man klein & fast bedeutungslos ist, man sich stets beschwert wie "uncompetitive" sich ein Microsoft oder Intel verhaltet. Sobald sich aber das Blatt im geringsten wendet, baut man gleichen oder schlimmeren Scheiss. Pffffff.....


Der eigene Vorteil überwiegt sehr oft die moralischen Grundsätze eines Menschen in unserer Gesellschaft das hab ich schon sehr früh gelernt bzw lernen müssen ;)

Das Marketing gesülze einer Firma und ihre Weltanschaung oder Ökonimischen Ziele glaub ich schon lange nicht mehr das ist wie Narritive Disorder da hat halt ein Diplom Ökonom sich mal was nettes ausgedacht und zusammengeschrieben, aber im Endeffekt kannst du dir damit zu 99 prozent genausogut den Arsch abwischen ;)

Skysnake
2014-01-12, 23:59:29
dachte jede normale nv gpu kann ocl?
Kepler hat keinen offizellen OpenCL support mehr. Zumindest taucht Kepler nicht mehr in den Listen der Khronos Gruppe auf. Gipsel hatte da mal nen guten Link zu gehabt, welche Produkte Zertifiziert sind.

nVidia supportet OpenCL (max 1.1?) nur inoffiziell. Wenns funktioniert funktionierts, wenn nicht, dann halt nicht.

Du kannst ja aber gern mal auf den Karton deiner nVidia drauf schauen, wenn du eine hast. Da sollte nichts von OpenCL zu lesen sein, oder wenn maximal 1.1.

Ist aber alles nicht ganz einfach zu wissen ohne direkt ein Produkt vor sich zu haben. nVidia schweigt OpenCL im Allgemeinen einfach tot... :down:

N0Thing
2014-01-13, 11:05:03
Diese Liste? http://www.khronos.org/conformance/adopters/conformant-products
Für OpenCL 2.0 wären dann noch gar nichts auf der Liste, bei AMD hört es mit OpenCL 1.2 und der HD7900-Reihe auf und bei Nvidia mit OpenCL 1.1 und der GTX 480, bzw. der GT 650M für Apple Produkte.

Nvidia selbst schreibt zu OpenCL nur, daß sie daran teilnehmen: http://www.nvidia.com/object/cuda_opencl_1.html
Allerdings scheint Kepler auch abgesehen von der GT 650M OpenCL nutzen zu können: http://www.tomshardware.de/nvidia-geforce-gtx-660-geforce-gtx-650-benchmark-test,testberichte-241099-19.html

Blediator16
2014-01-13, 15:17:50
Es gibt erste Benchmarks:

http://www.tomshardware.com/news/lenovo-thinkvision-28-nvidia-tegra-k1-android,25733.html

Ailuros
2014-01-13, 15:42:49
Es gibt erste Benchmarks:

http://www.tomshardware.com/news/lenovo-thinkvision-28-nvidia-tegra-k1-android,25733.html

Wofuer wohl die 804MHz in dem hier stehen?

http://media.bestofmicro.com/thinkvision28-tegrak1-ces2014,L-Q-418094-22.jpg

Auf jeden Fall koennte die GPU hier schon zwischen irgendwo 750 und 820MHz takten.

robbitop
2014-01-13, 15:45:46
Die GPU Leistung sieht schonmal sehr nett aus. :)

Ailuros
2014-01-13, 16:08:11
Die GPU Leistung sieht schonmal sehr nett aus. :)

Sicher mit einem unbekannten power envelope geht alles. Es sind so oder so fruehe Resultate denn das AIO soll ja erst im Juli verfuegbar sein (kann also durchaus sein dass sie noch volle Frequenzen benutzen) aber es handelt sich NICHT um ein mobiles Geraet wo Dir Batterie-Laufzeit Sorgen machen wuerde.

Sonst was man hier sieht ist ein AIO dessen GPU um 32% schneller ist im 3dmark graphics test (na sie koennen wohl hoffen dass beim dual core Denver der physics test genauso toll aussieht :P ) als ein smartphone wie das 5S und um 77% schneller in GLB2.7.

Da es sich ungefaehr auf dem Nivaeu von ULP Haswells bewegt zeigt dass sie auch nur mit Wasser kochen:

http://gfxbench.com/device.jsp?benchmark=gfx27&os=Android&api=gl&D=Intel+Harris+Beach+FFRD&testgroup=overall

Screemer
2014-01-13, 16:28:29
wieder mit aktiver kühlung wie im shield?

deekey777
2014-01-13, 16:35:25
Die GPU Leistung sieht schonmal sehr nett aus. :)
Ist halt schneller (25%-fast 100%).

Sicher mit einem unbekannten power envelope geht alles. Es sind so oder so fruehe Resultate denn das AIO soll ja erst im Juli verfuegbar sein (kann also durchaus sein dass sie noch volle Frequenzen benutzen) aber es handelt sich NICHT um ein mobiles Geraet wo Dir Batterie-Laufzeit Sorgen machen wuerde.

Sonst was man hier sieht ist ein AIO dessen GPU um 32% schneller ist im 3dmark graphics test (na sie koennen wohl hoffen dass beim dual core Denver der physics test genauso toll aussieht :P ) als ein smartphone wie das 5S und um 77% schneller in GLB2.7.

Da es sich ungefaehr auf dem Niveau von ULP Haswells bewegt zeigt dass sie auch nur mit Wasser kochen:

http://gfxbench.com/device.jsp?benchmark=gfx27&os=Android&api=gl&D=Intel+Harris+Beach+FFRD&testgroup=overall
Hier die Ergebnisse eines iPad air: http://www.anandtech.com/show/7519/apple-ipad-mini-with-retina-display-reviewed/2
Deine Bedenken sind nicht von der Hand zu weisen. Ob wir die 802 MHz in einem Tablet der 10,1''-Klasse sehen werden, wird sich später zeigen. Wenn der Tegra K1 A15 in Shield eingesetzt wird, so wird sich Nvida austoben können.

Ailuros
2014-01-13, 16:53:13
Ist halt schneller (25%-fast 100%).


Hier die Ergebnisse eines iPad air: http://www.anandtech.com/show/7519/apple-ipad-mini-with-retina-display-reviewed/2
Deine Bedenken sind nicht von der Hand zu weisen. Ob wir die 802 MHz in einem Tablet der 10,1''-Klasse sehen werden, wird sich später zeigen. Wenn der Tegra K1 A15 in Shield eingesetzt wird, so wird sich Nvida austoben können.

Es koennte auch eine total andere GPU Frequenz sein; das einzige Fazit ist dass so lange es sich nicht um ein mobiles Geraet handelt die Resultate bedeutungslos sind.

***edit: ich weiss es zwar nicht aber ich schaetze dass die 6430 GPU im A7 ueber 32 z check units verfuegt:

32 * 466MHz = 14912

GK20A hat hingegen 64 z/stencil in den 4 ROPs

64 * 700MHz = 44800

Selbst bei nur 700MHz ist es schon ein Faktor 3x, ergo sollten die 48 bzw. "vollen" 60 fps in GLB2.7 nicht wundern. Bei vollen 951MHz sind es 60864 oder ein Faktor 4x zur A7 GPU. Natuerlich ist zixel Fuellrate nicht der einzige Faktor in dem benchmark, aber mit so vielen alpha tests spielt es schon eine gewaltige Rolle.

Nach NV soll K1 bei voller Frequenz um 2.6x Mal schneller sein als die A7 GPU im kommenden GFXbench3.0. Die letzte liegt bei 11 fps nach NV's eigenen slides ergo liegt nach NV's Angaben bei 28.6 fps.

deekey777
2014-01-13, 16:58:26
Es koennte auch eine total andere GPU Frequenz sein; das einzige Fazit ist dass so lange es sich nicht um ein mobiles Geraet handelt die Resultate bedeutungslos sind.
Toshiba Excite Write mit T4 ist mit 1,8 GHz getaktet, wie hoch die Grafikeinheit getaktet ist, weiß ich nicht. Das sind aber schon 100 MHz weniger als in Shield.

Ailuros
2014-01-13, 17:13:26
Toshiba Excite Write mit T4 ist mit 1,8 GHz getaktet, wie hoch die Grafikeinheit getaktet ist, weiß ich nicht. Das sind aber schon 100 MHz weniger als in Shield.

Ich glaube die GPU taktet in allen passiv gekuehlten Geraeten bei 605MHz (von 675MHz peak) aber ich nehme auch kein Gift mehr drauf; ist schon einige Zeit her.

Ich meinte es aber anders; NV behauptet 60 fps in GLB2.7 mit einem 7" tablet mit K1. Kann auch sein dass das tablet den score mit sagen wir mal 700-800MHz erreicht fuer die GPU, was dann bedeuten wuerde dass die GPU in dem obrigen AIO von Toms nochmal um 20% niedriger getaktet war.

Dural
2014-01-13, 18:56:06
ihr wisst aber schon das die 802MHz den aktuellen CPU takt darstellt und nicht den GPU takt :rolleyes:

cpuz kann den GPU takt gar nicht auslesen. und überhaupt wie kommt man da auf GPU takt wenn oben ARM A15 und 50-2.0GHz steht ;D


so jetzt könnt ihr hier weiter rum vermuten wie so die CPU mit nur 2,0GHz taktet, liegt bestimmt daran das er zu viel säuft :freak:

Hugo78
2014-01-14, 00:10:21
@Dural

Wenn man vom max. CPU und max. GPU Takt gleichermaßen -15% abzieht, dann landet man bei den knapp über 2GHz CPU und 800Mhz GPU Takt.
Für einen Prototyp ist das auch normal, dass die Taktrate etwas reduziert rennt, wenn man erst in 6 Monaten den Verkaufsstart hat.

Ailuros
2014-01-14, 00:27:30
ihr wisst aber schon das die 802MHz den aktuellen CPU takt darstellt und nicht den GPU takt :rolleyes:

cpuz kann den GPU takt gar nicht auslesen. und überhaupt wie kommt man da auf GPU takt wenn oben ARM A15 und 50-2.0GHz steht ;D
Nein wissen wir nicht weil nichts neben dran steht. Sonst siehe Hugo78' Beitrag.


so jetzt könnt ihr hier weiter rum vermuten wie so die CPU mit nur 2,0GHz taktet, liegt bestimmt daran das er zu viel säuft :freak:
Wasser Literweise täglich. Es ist ja schon wenn man jubelt dass sich die anderen angeblich blamiert haben, merkt aber nicht dass eher seine Hosen auf dem Boden liegen.

-/\-CruNcher-/\-
2014-01-14, 00:55:20
Hmm ist Mali soweit abgeschlagen das sich ein test nicht lohnt oder warum wird da kein Mali result mit aufgeführt ?

Ailuros
2014-01-14, 01:05:12
Hmm ist Mali soweit abgeschlagen das sich ein test nicht lohnt oder warum wird da kein Mali result mit aufgeführt ?

Der Mali im 5420 ist genauso schnell wie alle anderen Spitzenreiter momentan. Einfach nicht getestet.

-/\-CruNcher-/\-
2014-01-14, 01:33:12
hehe nvidia buzzed hier ganz schön mit den 192 cores wenn man mal vergleicht was die anderen architekturen für nen core count haben und auf was die für Ergebnisse kommen ;)

T760 könnte demnach mit 16 cores genauso schnell werden 2015 ;)

Nakai
2014-01-14, 01:38:58
Nvidia zielt mit dem K1 bestimmt nicht nur auf den Consumermarkt.

-/\-CruNcher-/\-
2014-01-14, 01:45:17
Das haben sie ja auch gezeigt

komisch bei diesem benchmark der Tegra K1 Note 7 Prototyp soll 60 fps im offscreen geschaft haben ;)


Nvidia claims the ability to render 60 fps in the GFXBench 2.7.5 T-Rex offscreen test.


12 fps verlust ?

Hugo78
2014-01-14, 07:48:58
Das Lenovo rennt nicht mit vollem Takt, was am Vorserienzustand liegen kann.

Ailuros
2014-01-14, 07:50:29
Das haben sie ja auch gezeigt

komisch bei diesem benchmark der Tegra K1 Note 7 Prototyp soll 60 fps im offscreen geschaft haben ;)
12 fps verlust ?

Es kann vieles oder gar nichts heissen. Wie ich schon sagte das Lenovo AIO ist noch nicht finale hw und wird erst im Juli 14' auf Regalen erscheinen.

T760 könnte demnach mit 16 cores genauso schnell werden 2015.

Kommt auf den power envelope eines finalen Geraetes an und die Frequenz der GPU. Der 760 braucht womoeglich mehr die area als GK20A und ich bezweifle ernsthaft dass man 16*Vec4 ALUs besser ausladen kann als 6*SIMD32.

Dural
2014-01-14, 09:14:17
und überhaupt taugen 2 der Benchmarks auch nicht wirklich richtig, lasst ein richtiger grafik kracher auf dem K1 laufen und er wird kreise um die aktuelle konkurenz ziehen.

Edit:
Seit wann hat der CPU Takt den Einfluss auf den GPU Takt? Ausrede :freak:

deekey777
2014-01-14, 10:23:20
Ja, klar. Baue etwas Tesselation ein und lass etwas PhysX auf der GPU nebenbei laufen, ist K1 der König.

fondness
2014-01-14, 11:12:54
Es gibt erste Benchmarks:

http://www.tomshardware.com/news/lenovo-thinkvision-28-nvidia-tegra-k1-android,25733.html

Benchmarks ohne Leistungsaufnahme sind in diesem Markt absolut wertlos.

Ailuros
2014-01-14, 11:20:50
und überhaupt taugen 2 der Benchmarks auch nicht wirklich richtig, lasst ein richtiger grafik kracher auf dem K1 laufen und er wird kreise um die aktuelle konkurenz ziehen.

Besser ein echtes Geraet als Indizie als an subjektiven verdrehten marketing Scheiss blindlings zu glauben? Lass erstmal die ersten Geraete erscheinen (wenn sie erscheinen) und sie von unabhaengigen Quellen messen lassen und dann reden wir weiter. Such nochmal z.B. die Tegra4 Praesentation auf und man koennte schwoeren wenn man es durchliest dass es DER absolute SoC sein wird.

Edit:
Seit wann hat der CPU Takt den Einfluss auf den GPU Takt? Ausrede :freak:

Tegras haben zwar keinen multiplier fuer Frequenzen als SoC afaik, aber von so was hast Du wohl auch nie gehoert oder? Fuer K1 sind die Frequenzen wohl nicht verbunden, aendert aber trotzdem kein bisschen am vorigen.

Dural
2014-01-14, 11:45:31
Offensichtlich mehr als du...
Finde es einfach nur sehr Interessant das du Jahre lang die Tegra GPUs nieder gemacht hast (zu recht) aber jetzt wo NV eine GPU drin hat die alles weghaut bist du immer noch nicht zu friden. :)

Ja, klar. Baue etwas Tesselation ein und lass etwas PhysX auf der GPU nebenbei laufen, ist K1 der König.

Du möchtest mir doch jetzt nicht wirklich klar machen das 3DMark Mobile für die reine GPU Leistung Aussagekräftig ist?


und überhaupt verstehe ich nicht wie so ihr ständig auf irgend welche Verbrauchswerte rum reitet, erstens ist er passiv Kühlbar das haben die Geräte bewiesen und das sagt schon so einiges aus. Zweitens werden wir kaum Smartphone mit K1 sehen, da bin ich mir sicher, der Chip wurde auch gar nicht für das gemacht.

Ailuros
2014-01-14, 12:02:24
Offensichtlich mehr als du...

Ich seh's taeglich :freak:

Finde es einfach nur sehr Interessant das du Jahre lang die Tegra GPUs nieder gemacht hast (zu recht) aber jetzt wo NV eine GPU drin hat die alles weghaut bist du immer noch nicht zu friden. :)

Danke fuer zumindest das eine Eingestaendnis. Jetzt solltest Du froh sein dass nicht in vorhersehbarer Zeit zu einem weiteren Eingenstaendnis gezwungen siehst. Das Problem bei NVIDIA fuer Tegra sind ihre Design-Entscheidungen/Strategie und nicht das was Du Dir herauslesen willst. Da manch von Euch schon ueber 4 Generationen auf die Nase gefallen seit, waere es vielleicht eine Idee den wirklich "grossen" Verkauferfolg von K1 abzuwarten bevor Ihr ueber Papierfranzen jubelt.

Ich habe nichts anderes diesmal einzuwenden als die VOLL gerechtfertigte Vorbehalte fuer NV's marketing Mist.

Du möchtest mir doch jetzt nicht wirklich klar machen das 3DMark Mobile für die reine GPU Leistung Aussagekräftig ist?

Ich auf jeden Fall nicht.


und überhaupt verstehe ich nicht wie so ihr ständig auf irgend welche Verbrauchswerte rum reitet, erstens ist er passiv Kühlbar das haben die Geräte bewiesen und das sagt schon so einiges aus. Zweitens werden wir kaum Smartphone mit K1 sehen, da bin ich mir sicher, der Chip wurde auch gar nicht für das gemacht.

Weil der Stormverbrauch zufaelligerweise DER wichtigste Aspekt fuer den ULP Markt ist und wenn der Verbrauch zu hoch ist ein KUNDE der einen solchen SoC kauft eben NICHT auf vollen Frequenzen benutzen wird?

Keine smartphones = kein Volumen. Ergo sind die Chancen wohl eher guenstig dass der Depp des Dorfes hier zufaelligerweise nicht wieder recht haben koennte.

-/\-CruNcher-/\-
2014-01-15, 00:34:22
Jep Nvidia ist noch lange nicht angekommen wo z.b MediaTek ist, es währe ja schon super toll für Nvidia wenn sie in China Phones auftauchen würden aber selbst da ist noch sense seit T1 ;)

selbst die Verbreitung in Tabs ist so gesehen lachhaft und jetzt kommt gerade mal T4 in Schwung zu einem akzeptablen 7 zoll preis, aber meistens mit billig displays ansonsten der preis anscheinend nicht zu halten ;)

Wie gesagt K1 könnte im Tab volumen beim jetzigen T4 preis durchaus was reisen aber 2015 werden auch die anderen ihre neuen GPUs releasen und der abstand ist dann wieder nicht so hoch wie jetzt ;)

Wenn Archos z.b sagen würde wir switchen zu Nvidia oder nehmen es zumindestens in deren Device Portofolio mit auf währe das schonmal ein guter Anfang ;)

Ailuros
2014-01-15, 07:58:05
Jep Nvidia ist noch lange nicht angekommen wo z.b MediaTek ist, es währe ja schon super toll für Nvidia wenn sie in China Phones auftauchen würden aber selbst da ist noch sense seit T1 ;)

selbst die Verbreitung in Tabs ist so gesehen lachhaft und jetzt kommt gerade mal T4 in Schwung zu einem akzeptablen 7 zoll preis, aber meistens mit billig displays ansonsten der preis anscheinend nicht zu halten ;)

Wie gesagt K1 könnte im Tab volumen beim jetzigen T4 preis durchaus was reisen aber 2015 werden auch die anderen ihre neuen GPUs releasen und der abstand ist dann wieder nicht so hoch wie jetzt ;)

Wenn Archos z.b sagen würde wir switchen zu Nvidia oder nehmen es zumindestens in deren Device Portofolio mit auf währe das schonmal ein guter Anfang ;)

Archos benutzt Mali weil es spottbillig ist und warum auch nicht. Selbst M$ ist aufgewacht (leider wieder zu spaet) und denkt wohl noch einen letzten winRT Verzweiflungsversuch zu machen:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10072568&postcount=1080

Du kannst mir so ein Ding schenken aber ich will nichts von RT wissen sorry.

Wie ich schon sagte man wuerde wohl erwarten dass NV von einem Riesen wie Qualcomm fuer high end in die Ecke gedrueckt wird, aber wenn man auch noch von Mediatek und co. im low end eng markiert wird macht es so langsam keinen Spass mehr.

Die Chinesen kaufen uebrigens eine relativ geringe Menge von spottbilligen einheimischen tablets (meistens mit Rockchip, Allwinner SoCs u.a.) und die brutale Mehrzahl greift zu 5-6" phablets (Mediatek) um die Mitte eines tablets und smartphones mit einem Geraet zu treffen. Weder bei den Chinesen noch irgendwo anders hat die breite Mehrzahl das Geld heutzutage fuer jede gadget Kategorie 500-600 Kroeten auszugeben http://www.usatoday.com/story/tech/2014/01/09/ces-apple-cheap-smartphones/4391473/

Vor einiger Zeit trommelten diverse NV fans in fora wie erfolgreich das Xiaomi Mi3 mit T4 sein wird und was fuer ein Riesen-design win es sein soll. Stellte sich mal wieder heraus dass es selbst in China T4 nur fuer nonLTE Varianten steckt und LTE Varianten mit S800 verkauft werden. Ja natuerlich hat das Mi3 tolle Verkaufszahlen aber nicht unbedingt fuer T4.

Wo sind denn ueberhaupt jegliche T4i Geraete in der Zwischenzeit und wieso hoerte man keinen Piep an design win dafuer bei der CES? Wenn die erscheinen wird die Konkurrenz das Ding schon wieder ueberholt haben.

Aber wenn NV wirklich nur high end Loesungen will, dann muessen sie auch bereit sein ueber etliche Jahre nur tonnenweise Geld in die Sparte zu schuetten.

Kann ich so ein Ding http://www.fudzilla.com/home/item/33644-asus-t100ta-windows-hybrid-reviewed/33644-asus-t100ta-windows-hybrid-reviewed mit einem K1 bei vergleichbarem Preis haben? Ich steh gerne Schlange dafuer.

Skysnake
2014-01-15, 08:33:09
Puh, ich würde sagen, vergiss es. Intel wird da wohl auch ziemlich "Support" liefern, damit das Ding kommt zu dem Preis.

Würde mich sogar ziemlich interessieren. Convertebles finde ich SEHR interessant. An sich brüchte ich eh nen neuen Laptop, und da ich nur darauf arbeite, würde es mich eh nicht jucken, wie die GPU-Performance aussieht im großen und Ganzen. Interessant wäre halt, das ich lokal compilieren könnte...

hm...

Unterstützt das Ding OpenCL? Ja oder? Dann könnte man da auch entwickeln. Wäre es nen Jaguar, würde ich wohl für 250€ direkt in den Laden gehen :biggrin:

Die 10" sind halt schon etwas sehr eng. :(

@Topic:
Ich glaube nicht, das wir je wieder irgendwas von T4i hören werden. Die haben sicherlich die Analogtechnik des Modems verkackt. Und das ist jetzt nicht abwertend gemeint. Nen Modem zu designen ist mit dem ganzen Analogkram gar nicht so trivial!

Und da das Ding eh schon spät dran ist, würde nen neues Stepping mit Bugfixing wohl keinen Sinn mehr machen, da, bis man überhaupt mal die Zertifizierung durchlaufen hat, das Ding SOWAS von asbach wäre, das es eh keine Sau mehr haben wollen würde.

Dural
2014-01-15, 10:23:15
Betreffend Modem würde ich einfach mal sagen das zu glauben was NV selber sagt. Aber irgendwelche Gerüchte in die Welt zu setzten ist cooler :D

Und zwar kommt aus dieser Richtung das sie grosse Probleme haben das Modem auf der ganzen Welt zu zulassen und dies sei eine extrem grosse Hürde.

Und NV hat auch klar gesagt das das Modem erst kommt, sobald es auf der ganzen Welt zugelassen ist.

Quiz Frage, wie viele LTA Modem gibt es Aktuell die in jeder Region der Welt zugelassen ist? Der mit der richtigen Antwort bekommt ein Keks :biggrin:

Botcruscher
2014-01-15, 10:37:07
Wenn juckt die Welt? Wir haben da ein suuuuper Produkt und wollen das erst mal nicht in China, USA, EU verkaufen... weil Äthiopien, Nepal und Kosovo haben noch nicht zertifiziert.

Skysnake
2014-01-15, 11:16:17
Wohl eher die USA haben es noch nicht zertifiziert. ;) Das war zumindest mein letzter Stand.

Die Frage ist halt, WARUM es nicht zertifiziert wurde?

Liegts an der FPGA-Implementierung, die die Zertifizierer Abschreckt, oder am Analogteil? Wenns am Analogteil liegt, kannste T4i in die Tonne treten. Das Ding ist dann einfach zu spät dran. Das würde absolut keinen Sinn mehr machen, da Ressourcen rein zu schütten.

mboeller
2014-01-15, 11:20:15
da steht alles:

http://pocketnow.com/2013/11/08/nvidia-tegra-4i

was die Gerüchteküche hergibt. Anscheinend kann das Ding kein CDMA.

Skysnake
2014-01-15, 11:32:35
Ja genau, das wars was ich auch im Hinterkopf hatte bzgl Verizon und T4i Modem.

Was eventuell auch noch ganz interessant ist. Die Gruppe an Unternehmen, die sich dazu zusammengeschlossen hat, CDMA(2000) weiter zu entwickeln, findet man hier:http://www.3gpp2.org/Public_html/Misc/Memberindex.cfm

Und wer fehlt da?

Richtig nVidia.

-/\-CruNcher-/\-
2014-01-15, 11:35:55
Archos benutzt Mali weil es spottbillig ist und warum auch nicht. Selbst M$ ist aufgewacht (leider wieder zu spaet) und denkt wohl noch einen letzten winRT Verzweiflungsversuch zu machen:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10072568&postcount=1080

Du kannst mir so ein Ding schenken aber ich will nichts von RT wissen sorry.

Wie ich schon sagte man wuerde wohl erwarten dass NV von einem Riesen wie Qualcomm fuer high end in die Ecke gedrueckt wird, aber wenn man auch noch von Mediatek und co. im low end eng markiert wird macht es so langsam keinen Spass mehr.

Die Chinesen kaufen uebrigens eine relativ geringe Menge von spottbilligen einheimischen tablets (meistens mit Rockchip, Allwinner SoCs u.a.) und die brutale Mehrzahl greift zu 5-6" phablets (Mediatek) um die Mitte eines tablets und smartphones mit einem Geraet zu treffen. Weder bei den Chinesen noch irgendwo anders hat die breite Mehrzahl das Geld heutzutage fuer jede gadget Kategorie 500-600 Kroeten auszugeben http://www.usatoday.com/story/tech/2014/01/09/ces-apple-cheap-smartphones/4391473/

Vor einiger Zeit trommelten diverse NV fans in fora wie erfolgreich das Xiaomi Mi3 mit T4 sein wird und was fuer ein Riesen-design win es sein soll. Stellte sich mal wieder heraus dass es selbst in China T4 nur fuer nonLTE Varianten steckt und LTE Varianten mit S800 verkauft werden. Ja natuerlich hat das Mi3 tolle Verkaufszahlen aber nicht unbedingt fuer T4.

Wo sind denn ueberhaupt jegliche T4i Geraete in der Zwischenzeit und wieso hoerte man keinen Piep an design win dafuer bei der CES? Wenn die erscheinen wird die Konkurrenz das Ding schon wieder ueberholt haben.

Aber wenn NV wirklich nur high end Loesungen will, dann muessen sie auch bereit sein ueber etliche Jahre nur tonnenweise Geld in die Sparte zu schuetten.

Kann ich so ein Ding http://www.fudzilla.com/home/item/33644-asus-t100ta-windows-hybrid-reviewed/33644-asus-t100ta-windows-hybrid-reviewed mit einem K1 bei vergleichbarem Preis haben? Ich steh gerne Schlange dafuer.

Auf jedenfall der Preis ist absolut in order für das was man bekommt also bei 10 zoll ist Intel damit angekommen da wird die Entscheidung für ein etwas billigeres ARM 10 tablet mit allen möglichen OS restriktionen langsam problematischer :)
Aber der Intel Ceo hat ja nicht umsonst gesagt "wir sind am aufwachen" ;)

Ailuros btw hab das nicht so ganz mitbekommen aber Intel hat ja 3Dlabs IP lizensiert bzw den 3dlabs teil von Creative abgekauft in einem 50 mille deal 20 mille für IP und 30 mille für den kompletten UK 3dlabs teil ;)

ZiiLabs hat ja nie wirklich den durchbruch mit ihre Platform geschaft da kamm Intel als License anscheinend gerade recht ist schon 2012 von staten gegangen :)

sicherlich will Intel ihre GPU damit festigen der schritt weg von PowerVR ist ja fast volkommen durchgezogen

Ailuros
2014-01-15, 16:37:08
Ailuros btw hab das nicht so ganz mitbekommen aber Intel hat ja 3Dlabs IP lizensiert bzw den 3dlabs teil von Creative abgekauft in einem 50 mille deal 20 mille für IP und 30 mille für den kompletten UK 3dlabs teil ;)

ZiiLabs hat ja nie wirklich den durchbruch mit ihre Platform geschaft da kamm Intel als License anscheinend gerade recht ist schon 2012 von staten gegangen :)

OT aber die haben sowieso nichts anstaendiges auf die Strasse gebracht und die wirklich talentierten engineers wurden vor einer Ewigkeit von anderen IHVs aufgesaugt. Intel brauchte lediglich das Personal und fuer das Geld ist es fast umsonst.

sicherlich will Intel ihre GPU damit festigen der schritt weg von PowerVR ist ja fast volkommen durchgezogen

Nimm bloss kein Gift drauf ;)

da steht alles:

http://pocketnow.com/2013/11/08/nvidia-tegra-4i

was die Gerüchteküche hergibt. Anscheinend kann das Ding kein CDMA.

Dass mit dem US Markt nichts wird ist nichts Neues; ich hab es vor Seiten mit einem fudzilla link angegeben.

Q2 ist viel zu spaet; gegen quad A53 smartphones und ueberhaupt fuer perf/mW sieht es nicht besonders gut aus.

-------------------------------------------------------------------------------------------------------------------------------------
-------------------------------------------------------------------------------------------------------------------------------------

http://www.fudzilla.com/home/item/33658-qualcomm-dismisses-tegra-k1-benchmarks

Jetzt muss ich nur noch lesen dass ich von Qualcomm geschmiert werde :biggrin: Die Vorbehalte gilt generell im Markt bei vielen, nur kann es sich QCOM leisten ein PR darueber abzuschiessen.

Skysnake
2014-01-15, 17:03:01
Naja, sagen die da jetzt irgendwas falsches? :confused:

Dem kann man doch nur zustimmen oder nicht?

Ailuros
2014-01-15, 17:14:12
Naja, sagen die da jetzt irgendwas falsches? :confused:

Dem kann man doch nur zustimmen oder nicht?

Ich wuerde in QCOM's Schuhen nicht darauf und schon gar nicht so reagieren. Ich wuerde eher meine eigenen konkurrierenden Produkte sprechen lassen anstatt mich mit NV's PR durch den Dreck zu ziehen. Gerechtfertigt oder nicht der Quark ist in meinem Buch genauso albern als der 64bit Kommentar fuer Apple's A7 CPU.

-/\-CruNcher-/\-
2014-01-16, 00:23:24
Naja Qcom ist aber nicht im 7 zoll Tab markt vertretten oder ? es gibt kein vergleichbares preis/leistungsverhältnis wie mit einem Tegra Note 7 und es ist ja anzunehmen das K1 genau in dem gleichen Preis Leistungsgefüge landen wird wie jetzt T4 ?

Was man sieht ist S4 Pro aber das auch selten und gegen T4 scheint er schlecht dazustehen, was man aus reviews so hört


Wie z.b diesem finde das schon sehr ok er macht auch immer wieder drauf aufmerksam das die prios im display anders gesetzt worden sind aber S4 in Performance nicht mithält, allerdings erschliest sich mir nicht wo exakt der Performance unterschied hier sein soll ;)

BW1DWqwp-DU
XcoRZBW0_bY
6WJmnsgZmic
Jk7S5RGtZUY
VMeQ7Bb0uBI

Ailuros
2014-01-16, 10:17:41
Naja Qcom ist aber nicht im 7 zoll Tab markt vertretten oder ? es gibt kein vergleichbares preis/leistungsverhältnis wie mit einem Tegra Note 7 und es ist ja anzunehmen das K1 genau in dem gleichen Preis Leistungsgefüge landen wird wie jetzt T4 ?

Wie oft informierst Du Dich ueber den ULP SoC Markt ueberhaupt? Ich verstehe zwar dass er total cut throat geworden ist aber irgendwo sollte man schon etwas gelesen haben oder? Der groesste design win fuer T3 was Volumen betrifft war Google Nexus7; im Nachfolger von diesem dem Google Nexus 7 2013 hockt ein Qualcomm SoC und auch in ALLEN neuen Amazon tablets. Dafuer verkauft Amazon pro Jahr um einiges mehr als Google 7" tablets. So und jetzt rechne noch die Anteile von Samsung tabs mit und rechne mal aus was sie genau haben koennten.

Einfacher bis zu T3 hatte Qualcomm nur minimale Existenz in tablets; schlagartig und ueber Nacht haben sie nicht nur das reingeholt was NV mit T3 hatte sondern haben diesen Marktanteil auch noch verfielfacht. Allein der Amazon deal ist pro Jahr zwischen 12 und 14 Mio Einheiten schwer.

Was man sieht ist S4 Pro aber das auch selten und gegen T4 scheint er schlecht dazustehen, was man aus reviews so hört

Tschuldigung aber nimm Dir einen reality check.

Wie z.b diesem finde das schon sehr ok er macht auch immer wieder drauf aufmerksam das die prios im display anders gesetzt worden sind aber S4 in Performance nicht mithält, allerdings erschliest sich mir nicht wo exakt der Performance unterschied hier sein soll ;)

http://youtu.be/BW1DWqwp-DU
http://youtu.be/XcoRZBW0_bY
http://youtu.be/6WJmnsgZmic
http://youtu.be/Jk7S5RGtZUY
http://youtu.be/VMeQ7Bb0uBI

Na forsch mal ein bisschen ueber's vorige nach und verlinke mich dann zu bedeutungslosem Werbemist. Wenn ich Werbung sehen will kann ich auch den Fernseher anschalten ;)

-/\-CruNcher-/\-
2014-01-16, 12:06:43
Wie oft informierst Du Dich ueber den ULP SoC Markt ueberhaupt? Ich verstehe zwar dass er total cut throat geworden ist aber irgendwo sollte man schon etwas gelesen haben oder? Der groesste design win fuer T3 was Volumen betrifft war Google Nexus7; im Nachfolger von diesem dem Google Nexus 7 2013 hockt ein Qualcomm SoC und auch in ALLEN neuen Amazon tablets. Dafuer verkauft Amazon pro Jahr um einiges mehr als Google 7" tablets. So und jetzt rechne noch die Anteile von Samsung tabs mit und rechne mal aus was sie genau haben koennten.

Einfacher bis zu T3 hatte Qualcomm nur minimale Existenz in tablets; schlagartig und ueber Nacht haben sie nicht nur das reingeholt was NV mit T3 hatte sondern haben diesen Marktanteil auch noch verfielfacht. Allein der Amazon deal ist pro Jahr zwischen 12 und 14 Mio Einheiten schwer.



Tschuldigung aber nimm Dir einen reality check.



Na forsch mal ein bisschen ueber's vorige nach und verlinke mich dann zu bedeutungslosem Werbemist. Wenn ich Werbung sehen will kann ich auch den Fernseher anschalten ;)

Ailuros Qcom Geräte sind momentan immernoch restricted tablets entweder fehlt ein externer speicherport der mini hdmi und oder sie werden mit werbung zugeballert.

Unrestricted Vollaustattung hab ich noch nicht gesehen im Price Point von 200, lass mich aber gern eines besseren belehren

Qcom sind bis jetzt nur irgendwelche subventionierten teile auf der höchsten ausbaustuffe wo irgendwas immer fehlt (Adreno 330) ;)

Beide großen Qcom 7 zoll Adreno 330 Tablets sind restriktive subventionierte tablets.

Ailuros
2014-01-16, 12:12:44
Ailuros Qcom Geräte sind momentan immernoch restricted tablets entweder fehlt ein externer speicherport der mini hdmi und oder sie werden mit werbung zugeballert.

Unrestricted Vollaustattung hab ich noch nicht gesehen im Price Point von 200, lass mich aber gern eines besseren belehren

Ja und? Hat oder hat QCOM sich nicht einen um einiges groesseren tablet Marktanteil eingerichtet mit dem ersten Versuch als NV oder nicht?

Du sagtest dass QCOM im 7" tablet Markt nicht vertreten ist und jetzt willst Du es mir wie genau verdrehen? Zwischen angeblich "nicht vertreten" und zumindest ueber ein dutzend Millionen liegt wohl schon ein Unterschied. NVIDIA's Problem ist dass ihr Marktanteil beschissen klein ist momentan.

Und was soll dem Nexus 7 2013 genau gegenueber dem Nexus 7 fehlen?

-/\-CruNcher-/\-
2014-01-16, 12:23:13
Ja und? Hat oder hat QCOM sich nicht einen um einiges groesseren tablet Marktanteil eingerichtet mit dem ersten Versuch als NV oder nicht?

Du sagtest dass QCOM im 7" tablet Markt nicht vertreten ist und jetzt willst Du es mir wie genau verdrehen? Zwischen angeblich "nicht vertreten" und zumindest ueber ein dutzend Millionen liegt wohl schon ein Unterschied. NVIDIA's Problem ist dass ihr Marktanteil beschissen klein ist momentan.

Und was soll dem Nexus 7 2013 genau gegenueber dem Nexus 7 fehlen?

Das selbe was dem Nexus 7 gefehlt hat und deswegen für mich aus dem Raster fällt so ein bevormundungsdevice tu ich mir nicht an, kannst du gerne, wenn die meisten das tun und Qcom damit so erfolgreich mit ihren Partnern ist da kann ich nix für ;)

jedenfalls sehe ich das nicht das Qcom ausser in diesen teilbereichen (restricted tablets,smartphones) erfolgreich ist im richtigen extreme mass market sind sie mit Adreno 330 nicht vertretten und da sehen Nvidias chancen nicht schlecht aus so einige wegzukicken von den China tab chips (MediaTek,Rockchip,Amlogic,Allwinner) , sie stehen faktisch jetzt schon an der Spitze dort mit T4 Performance/Price wise :)

Wenn das EVGA Tegra Note 7 nicht heavy quersubventioniert von Nvidia selbst wird, aber da das meiste inhouse ist haben sie halt einen enormen vorteil ;)

MediaTek vs Nvidia finde ich erstmal einen viel spanenderen battle, der begonnen hat :)

Rockchip Amlogic und Allwinner können keine Design wins vorweisen sind extreme abhängig ausser das bischen know how was sie im Video Decoding gesammelt haben ist da nicht viel ;)

MediaTek aber hat haufen an IP und Design Wins zusätlich sind aber im GPU berreich auch absolut abhängig von momentan Imagination :)

Nividia wird einen riesenmarkt bekommen wenn sie den Preis halten können den sie hier mit T4 ankündigen, jetzt wird es interessant zu sehen wie viele OEMs Tegra 4 in ihr Portofolio aufnehmen :)

Das Evga Tegra Note 7 und Xolo Note 7 alleine reicht nicht ;)

Ailuros
2014-01-16, 13:12:57
Das selbe was dem Nexus 7 gefehlt hat und deswegen für mich aus dem Raster fällt so ein bevormundungsdevice tu ich mir nicht an, kannst du gerne, wenn die meisten das tun und Qcom damit so erfolgreich mit ihren Partnern ist da kann ich nix für ;)

Ich kann auch nichts dafuer wenn NV ihre eigenen Tegra Verkaufszahlen jegliche Generation abvoegelt.


jedenfalls sehe ich das nicht das Qcom ausser in diesen teilbereichen (restricted tablets,smartphones) erfolgreich ist im richtigen extreme mass market sind sie mit Adreno 330 nicht vertretten und da sehen Nvidias chancen nicht schlecht aus so einige wegzukicken von den China tab chips (MediaTek,Rockchip,Amlogic,Allwinner) , sie stehen faktisch jetzt schon an der Spitze dort mit T4 Performance/Price wise :)

Tschuldigung aber noch mehr bullshit; Mediatek, Rockchip und co verkaufen low end SoCs mit einstelligen $ Werten waehrend T4 nicht nur um zich mal teurer ist sondern auch ein ziemlich miserables perf/mW Verhaeltnis zu den anderen hat.

Was hat jetzt aber ploetzlich Rockchip oder sonst wer mit Qualcomm und NV zu tun? NV verkauft immer noch nichts sehenswertes egal in welchem Markt und egal wie lange man es verdrehen will.

Wenn das EVGA Tegra Note 7 nicht heavy quersubventioniert von Nvidia selbst wird, aber da das meiste inhouse ist haben sie halt einen enormen vorteil ;)

Wieviel hat den EVGA davon verkauft bis jetzt?

MediaTek vs Nvidia finde ich erstmal einen viel spanenderen battle, der begonnen hat :)

Mediatek sieht NV nichtmal als direkten Konkurrenten an; wenn dann eher Samsung, Rockchip und dergleichen. Wieviele SoCs denkst Du hatt den Mediatek fuer 2013 genau verkauft?

Rockchip Amlogic und Allwinner können keine Design wins vorweisen sind extreme abhängig ausser das bischen know how was sie im Video Decoding gesammelt haben ist da nicht viel ;)

Bumsfallera nochmal wieviel kostet ein jeglicher Tegra zu jedem Zeitpunkt?

MediaTek aber hat haufen an IP und Design Wins zusätlich sind aber im GPU berreich auch absolut abhängig von momentan Imagination :)

Nochmehr falsche Daten; GPU IP ist zwischen IMG und ARM verteilt und fuer dieses Jahr wird Mediatek MEHR Geraete mit ARM GPU IP verkaufen als mit PowerVR GPUs. Zu dem hat Mediatek eine gleiche Wachstumsrate wie Qualcomm (+/-30% pro Jahr) und ihnen gehoert in der Zwischenzeit auch MStar welches einer der groessten DTV SoC Hersteller weltweit ist. Fuer smartphones alleine verkauft MTK hunderte Male mehr SoCs als NV.

Nividia wird einen riesenmarkt bekommen wenn sie den Preis halten können den sie hier mit T4 ankündigen, jetzt wird es interessant zu sehen wie viele OEMs Tegra 4 in ihr Portofolio aufnehmen

Das Evga Tegra Note 7 und Xolo Note 7 alleine reicht nicht.

Selbst NV erwartet keine besonderen Verkaufszahlen und das schon seit langem. Was verpass ich gerade?

-/\-CruNcher-/\-
2014-01-16, 13:21:23
Die meisten fahren doppel strategien mit PowerVR und Mali aber das ist normal momentan war aber noch SGX im MediaTek core präferiert

Glaube dafür ist es noch zu früh das EVGA ist gerade mal raus in Deutschland auch noch nicht flächendeckend zu bekommen, auch würden mich die indischen verkaufszahlen des Xolo Note 7 mehr interessieren.

Auf jedenfall bietet Nvidia schonmal Android 4.3 das bietet keiner von den China tabs ;)


Naja Performance per watt sieht schon sehr gut aus für Nvidia mit Prism zusätzlich sogar noch besser :)
Die Laufzeit ist auch beachtlich für China Tab kenner, vom viel besseren Sound part garnicht erst zu sprechen ;)

Will selber das Note in meiner Hand halten um zu bewerten und gegen mein RockChip vergleichen ;)

Ailuros
2014-01-16, 13:52:30
Die meisten fahren doppel strategien mit PowerVR und Mali aber das ist normal momentan war aber noch SGX im MediaTek core präferiert.

Nein ist aber OT. Endziffer vom SoC gerade Zahl = Mali (6592), ungerade Zahl = PowerVR (6589).

Glaube dafür ist es noch zu früh das EVGA ist gerade mal raus in Deutschland auch noch nicht flächendeckend zu bekommen, auch würden mich die indischen verkaufszahlen des Xolo Note 7 mehr interessieren.

Selbst wenn es ein paar Mio insgesamt sind, sind es nach wie vor Erbsen.

Auf jedenfall bietet Nvidia schonmal Android 4.3 das bietet keiner von den China tabs ;)

Dann schlag mal ein paar online chinesischen retailer auf und es wird nicht schwer zu sehen sein was sich am meisten verkauft und wie selten Tegra SoCs in diesen ueberhaupt sind.

Naja Performance per watt sieht schon sehr gut aus für Nvidia mit Prism zusätzlich sogar noch besser :)

Fuer T4? In welchem Vakuum forscht Du ueberhaupt nach?

Die Laufzeit ist auch beachtlich für China Tab kenner, vom viel besseren Sound part garnicht erst zu sprechen ;)

Wenn Du zu diesen gehoeren wuerdest dann wuerde es um einiges weniger Fehler in Deinen Posts geben.

Will selber das Note in meiner Hand halten um zu bewerten und gegen mein RockChip vergleichen ;)

Rockchip tablets sind low end; T4 eben nicht. Was genau ist daran so schwer zu verstehen?

-/\-CruNcher-/\-
2014-01-16, 23:26:01
Sie liegen preislich nicht sehr weit ausseinander wenn du von den Reseller preisen für RockChip in Europa ausgehst.

Es gibt so gesehen auch verdammt wenige möglichkeiten ein RockChip 7 zoll im Deutschen handel selbst zu bekommen schau mal bei Geizhals nach ;)

Der Deutsche Buchhandel hat ja gegen Amazon und Google jetzt RockChip für sich entdeckt ;)

Es gibt nur eine Handvoll deutscher Reseller, in Europa einige aber auch nicht der leichte weg, gezielt ein RockChip Tab (mit chip x) zu finden ist nicht so einfach , natürlich gibt es diese ganzen china Importeur shops auch in Deutschland aber das ist nicht die masse ihr Zugriff zwecks support und co auch nicht gerade pralle, wobei support bei China tab gibt man sich ja selbst ;)

Manchmal tauchen die Tabs auch im Einzelhandel beim Discounter auf ;)

Das Nvidia Tab scheint sehr leicht vom Zugriff zu sein im Vergleich und bietet verdammt mehr an Performance und from the go Android 4.3 zudem noch nen Stylus interface und das unrestricted und zu einem sehr guten Preis/Leistungsverhältnis :)

Ich bin überzeugter RockChip user aber das Nvidia T4 reizt mich ungemein (die ganze Platform), vor allem die Preisregion zeig mir dort ein vergleichbares 7 zoll Tab mit dem selben Featureset (Hardware) und der selben Performance was in Deutschland einfach erhältlich ist :)

Bis Tegra3 hat mich Nvidia auch nicht interessiert aber jetzt ;)

Vor allem hat Nvidia mit Tegra3 kein eigenes Tab Design über Partner releasen lassen ;)

Ailuros
2014-01-17, 08:04:38
Sie liegen preislich nicht sehr weit ausseinander wenn du von den Reseller preisen für RockChip in Europa ausgehst.

Das interessiert die Debatte die Bohne denn Du als Verbraucher kaufst ein fertiges Geraet ein das zich Mal mehr Komponenten hat als ein kleiner Fingernagel grosser SoC. Auf SoC Preis-Nivaeu fuer den OEM/ODM ist es so wie vorher beschrieben.

Wieviele Tegras werden in den US verkauft? Wie viele in China/Indien/Korea/Japan und wie viele in Brazilien als nur einfache Beispiele? Europa ist zwar ein grosser Markt aber es gibt groessere und noch besser Maerkte mit brutalem Steigerungs-Potential egal ob es sich um billig-Zeug handeln wird.

Wir sind gerade vor der Schwelle ca. 1 Mrd. smartphones/Jahr zu erreichen und in absebahrer Zeit wird sich dieses auch verdreifachen. Dagegen sind sogar tablets eher Erbsen, eben weil man ein smartphone auch eher braucht.

Es gibt so gesehen auch verdammt wenige möglichkeiten ein RockChip 7 zoll im Deutschen handel selbst zu bekommen schau mal bei Geizhals nach ;)

Der Deutsche Buchhandel hat ja gegen Amazon und Google jetzt RockChip für sich entdeckt ;)

Bei dem Volumen die sie in asiatischen Maerkten machen sollte es fuer jegliches Rockchip keine Sorge sein.

Es gibt nur eine Handvoll deutscher Reseller, in Europa einige aber auch nicht der leichte weg, gezielt ein RockChip Tab (mit chip x) zu finden ist nicht so einfach , natürlich gibt es diese ganzen china Importeur shops auch in Deutschland aber das ist nicht die masse ihr Zugriff zwecks support und co auch nicht gerade pralle, wobei support bei China tab gibt man sich ja selbst ;)

Manchmal tauchen die Tabs auch im Einzelhandel beim Discounter auf ;)

Welches inwiefern relevant ist im Vergleich zu um zich Mal groesseren Maerkten?

Das Nvidia Tab scheint sehr leicht vom Zugriff zu sein im Vergleich und bietet verdammt mehr an Performance und from the go Android 4.3 zudem noch nen Stylus interface und das unrestricted und zu einem sehr guten Preis/Leistungsverhältnis :)

Ich bin überzeugter RockChip user aber das Nvidia T4 reizt mich ungemein (die ganze Platform), vor allem die Preisregion zeig mir dort ein vergleichbares 7 zoll Tab mit dem selben Featureset (Hardware) und der selben Performance was in Deutschland einfach erhältlich ist :)

Bis Tegra3 hat mich Nvidia auch nicht interessiert aber jetzt ;)

Vor allem hat Nvidia mit Tegra3 kein eigenes Tab Design über Partner releasen lassen ;)

Deine und meine Bevorzugungen sind total irrelevant und nein Du bildest eben keine anstaendige Summe fuer eine Statistik egal was Du gekauft hast oder kaufen willst. T4 haette womoeglich noch eine bessere Chance gehabt wenn es NV als sie gerade erst angekuendigt hatten nicht innerhalb von nur ein paar Monaten mit Logan/T5 Einzelheiten schon begraben haetten und das ist natuerlich einer von vielen Faktoren aber wie gesagt Tegra wird von ihrem eigenen Vater versaut und nicht vom Publikum.

Uebrigens ein reference tab zu entwickeln ist Schweineteuer, welches u.a. und auch dem Shield Zeug ihre Kosten fuer Tegra radikal erhoeht.

itaru
2014-01-17, 09:08:02
Wird dies der Anhaltspunkt für denver?

Instruction-optimizing processor with branch-count table in hardware (https://www.google.com/patents/US20130311752)

https://patentimages.storage.googleapis.com/US20130311752A1/US20130311752A1-20131121-D00001.png

-/\-CruNcher-/\-
2014-01-17, 09:31:11
Das interessiert die Debatte die Bohne denn Du als Verbraucher kaufst ein fertiges Geraet ein das zich Mal mehr Komponenten hat als ein kleiner Fingernagel grosser SoC. Auf SoC Preis-Nivaeu fuer den OEM/ODM ist es so wie vorher beschrieben.

Weiss sehr wohl das ich alleine uninteressant bin in der großen Rechnung lol


Wieviele Tegras werden in den US verkauft? Wie viele in China/Indien/Korea/Japan und wie viele in Brazilien als nur einfache Beispiele? Europa ist zwar ein grosser Markt aber es gibt groessere und noch besser Maerkte mit brutalem Steigerungs-Potential egal ob es sich um billig-Zeug handeln wird.


Ja wie gesagt deswegen find ich das Xolo Tegra Note interessant, da ist der Target Markt ja eindeutig Indien, das ist sicher kein Zufall :)


Wir sind gerade vor der Schwelle ca. 1 Mrd. smartphones/Jahr zu erreichen und in absebahrer Zeit wird sich dieses auch verdreifachen. Dagegen sind sogar tablets eher Erbsen, eben weil man ein smartphone auch eher braucht.

Sicher im Smartphone sind sie noch nicht angekommen aber Tablets reicht doch auch erstmal wie gesagt abwarten wie die OEM/ODMs auf Tegra 4 reagieren und wieviele Devices dann auch letztendlich erscheinen :)


Deine und meine Bevorzugungen sind total irrelevant und nein Du bildest eben keine anstaendige Summe fuer eine Statistik egal was Du gekauft hast oder kaufen willst. T4 haette womoeglich noch eine bessere Chance gehabt wenn es NV als sie gerade erst angekuendigt hatten nicht innerhalb von nur ein paar Monaten mit Logan/T5 Einzelheiten schon begraben haetten und das ist natuerlich einer von vielen Faktoren aber wie gesagt Tegra wird von ihrem eigenen Vater versaut und nicht vom Publikum.

Och komm schon, finde ich nicht es ist absolut normal jeder weiss doch das sobald etwas den Markt erreicht es schon längst veraltet ist, das ist ja wohl nichts neues und bei Tablets und Mobile geht es verdammt schnell von a nach b. Nvidia liegt hier nach ankündigung immer so am Anfang des nächsten Jahres, aber man sieht das releasen schlept sich immer sehr dahin. Siehe Verfügbarkeit Deutschland.


Uebrigens ein reference tab zu entwickeln ist Schweineteuer, welches u.a. und auch dem Shield Zeug ihre Kosten fuer Tegra radikal erhoeht.

Deshalb wundert mich der Retail Preis na gut angekündigt war unter 200$ da sind wir (in Deutschland) noch nicht aber bei der Verfügbarkeit auch kein wirkliches Wunder.

Kann mir nicht vorstellen das Tegra 4 keiner in sein Portfolio aufnimmt wenn es doch so relativ billige Performante Hardware ermöglicht (das war von Anfang an Nvidias Ziel mit Tegra) ich finde 200$ in dem Performanceberreich schon eine Ansage :) .

Nach dem Retail S4 Pro von Asus zu gehen, könnte dem nach das Nexus 7 und Kindle Fire HD real glatt 100€ mehr kosten ohne Quersubventionierung (da ist man selbst mit den - Werbungs options Aufpreis noch nett zum Endkunden, aber wir wissen ja alle die wollen Content verkaufen keine Hardware) :)

Gaestle
2014-01-17, 09:57:47
Och komm schon, finde ich nicht es ist absolut normal jeder weiss doch das sobald etwas den Markt erreicht es schon längst veraltet ist, das ist ja wohl nichts neues und bei Tablets und Mobile geht es verdammt schnell von a nach b. Nvidia liegt hier nach ankündigung immer so am Anfang des nächsten Jahres, aber man sieht das releasen schlept sich immer sehr dahin. Siehe Verfügbarkeit Deutschland.



Das Problem scheint zu sein, dass NV auch bei den Herstellern nicht genug Deals bekommt (was in der Konsequenz dann natürlich zu wenig Endgeräte im Endkundenmarkt bedeutet).

Ails Aussagen entnehme ich, dass NV T4 vorgestellt hat, und noch bevor es genug Deals wegen T4 gab, schon K1 kommuniziert hat, was dann natürlich die Hersteller davon abgehalten haben könnte, Deals für T4 abzuschließen.

Die Deals mit den Herstellern laufen ja deutlich eher, bevor der Endkunde irgendetwas davon sieht.

Bei Qualcomm scheint das anders zu laufen. Der Chip wird öffentliche angekündigt und ein/zwei Monate später sind bereits Geräte im Laden für den Endkunden. Die Deals mit den Herstellern müssen also hinter den Kulissen schon deutlich vor der öffentlichen Ankündigung des Chips gelaufen sein und die Auslieferung in großen Stückzahlen muss auch schon deutlich vor der öffentlichen Ankündigung begonnen haben.

Es sind also im Prinzip (mindestens) drei große Stufen, die vor der öffentlichen Ankündigung gelaufen sein bzw. stehen sollten:
a) gutes Hardwaredesign für den angestrebten Zielmarkt (Billig oder HighEnd)
b) gute Deals mit Herstellern
c) gute Verfügbarkeit

Supergroße Stückzahlen gibt es nur im Bereich billig, weil der Gesamtmarkt der Endverbraucher (global) sich HighEnd gar nicht in großen Mengen leisten kann (und will). Wer kann schon mehrere Monatsgehälter in ein Handy investieren? Dass die HighEnd-Preise gemesen am Durchschnittseinkommen von Industrienationen quasi "ein Appel und ein Ei" sind, ist ja eine Sonderposition.

Ailuros
2014-01-17, 10:31:08
Weiss sehr wohl das ich alleine uninteressant bin in der großen Rechnung lol

Es hilft aber keinen sich im Kreis zu drehen in einer Debatte.

Ja wie gesagt deswegen find ich das Xolo Tegra Note interessant, da ist der Target Markt ja eindeutig Indien, das ist sicher kein Zufall :)

Nein ein Zufall ist es nicht, es wird aber auch nicht irgendwelche extravagante Millionen Anzahlen verkaufen falls Du das meinen solltest.

Sicher im Smartphone sind sie noch nicht angekommen aber Tablets reicht doch auch erstmal wie gesagt abwarten wie die OEM/ODMs auf Tegra 4 reagieren und wieviele Devices dann auch letztendlich erscheinen :)

Tegra2 hatte 8 smartphone design wins, T3 dann 2 und T4 auch 2 bis jetzt. Es hiess ja dass der Xiaomi Mi3 ein Riesenvolumen bringen "soll" ueberhaupt in China, es hat aber wohl keiner mitberechnet dass es dort nur fuer nonLTE laufen wird und die LTE Varianten mit S800 kommen. Wie lange ist es denn her seit der T4 Vorstellung und wo sind die ach so grossen design wins genau verschwunden?

Och komm schon, finde ich nicht es ist absolut normal jeder weiss doch das sobald etwas den Markt erreicht es schon längst veraltet ist, das ist ja wohl nichts neues und bei Tablets und Mobile geht es verdammt schnell von a nach b. Nvidia liegt hier nach ankündigung immer so am Anfang des nächsten Jahres, aber man sieht das releasen schlept sich immer sehr dahin. Siehe Verfügbarkeit Deutschland.

Ich bleib lieber hier, das Wetter bekommt mir besser :freak: Spass beiseite nein NV hat einen folgenden SoC NIE so detailliert vorangekuendigt wie Logan. Der eigentliche Grund ist dass sie seit neuestem auch GPU IP seit Logan verkaufen und man es fruehzeitig ankuendigen muss. Damit aber aus IP etwas wird muessen sie die Tegra Sparte auch radikal ummoebeln und genau das machen sie auch.

Deshalb wundert mich der Retail Preis na gut angekündigt war unter 200$ da sind wir (in Deutschland) noch nicht aber bei der Verfügbarkeit auch kein wirkliches Wunder.

Kann mir nicht vorstellen das Tegra 4 keiner in sein Portfolio aufnimmt wenn es doch so relativ billige Performante Hardware ermöglicht (das war von Anfang an Nvidias Ziel mit Tegra) ich finde 200$ in dem Performanceberreich schon eine Ansage :) .

Nach dem Retail S4 Pro von Asus zu gehen, könnte dem nach das Nexus 7 und Kindle Fire HD real glatt 100€ mehr kosten ohne Quersubventionierung (da ist man selbst mit den - Werbungs options Aufpreis noch nett zum Endkunden, aber wir wissen ja alle die wollen Content verkaufen keine Hardware) :)

Was quasselst Du mir die ganze Zeit her? Nach Jon Peddie Research war fuer's vergangene Jahr der Marktanteil bei 1.3% gegen 3.2% das Jahr zuvor. Fuer dieses Jahr wird es natuerlich wieder Aufschwung geben aber da sie eben viel Boden aufzuholen haben erwartet weder NVIDIA noch jemand anderes etwas bodenbrechendes.

Die genau gleiche Laier hoere ich schon fuer 4 Tegra Generationen und es ist an jeglichem Jahresende ein minority report. Intel mit ihrem Baytrail verkauft verdammt mehr als T4 und dass aus anderen Gruenden die hier nichts mit dem Thema zu tun haben.

fondness
2014-01-17, 10:54:28
Gibt es eigentlich schon irgend welche "design-wins" was die GPU IP betrifft? NV wollte ja die GPU für andere SoC-Hersteller lizensieren....

Ailuros
2014-01-17, 11:03:53
Das Problem scheint zu sein, dass NV auch bei den Herstellern nicht genug Deals bekommt (was in der Konsequenz dann natürlich zu wenig Endgeräte im Endkundenmarkt bedeutet).

Ails Aussagen entnehme ich, dass NV T4 vorgestellt hat, und noch bevor es genug Deals wegen T4 gab, schon K1 kommuniziert hat, was dann natürlich die Hersteller davon abgehalten haben könnte, Deals für T4 abzuschließen.

Die Deals mit den Herstellern laufen ja deutlich eher, bevor der Endkunde irgendetwas davon sieht.

Bei Qualcomm scheint das anders zu laufen. Der Chip wird öffentliche angekündigt und ein/zwei Monate später sind bereits Geräte im Laden für den Endkunden. Die Deals mit den Herstellern müssen also hinter den Kulissen schon deutlich vor der öffentlichen Ankündigung des Chips gelaufen sein und die Auslieferung in großen Stückzahlen muss auch schon deutlich vor der öffentlichen Ankündigung begonnen haben.

Es sind also im Prinzip (mindestens) drei große Stufen, die vor der öffentlichen Ankündigung gelaufen sein bzw. stehen sollten:
a) gutes Hardwaredesign für den angestrebten Zielmarkt (Billig oder HighEnd)
b) gute Deals mit Herstellern
c) gute Verfügbarkeit

Supergroße Stückzahlen gibt es nur im Bereich billig, weil der Gesamtmarkt der Endverbraucher (global) sich HighEnd gar nicht in großen Mengen leisten kann (und will). Wer kann schon mehrere Monatsgehälter in ein Handy investieren? Dass die HighEnd-Preise gemesen am Durchschnittseinkommen von Industrienationen quasi "ein Appel und ein Ei" sind, ist ja eine Sonderposition.

Es fehlt noch das allerwichtigste dass schon etliche Male erwaehnt wurde:

Qualcomm oder Apple stellen in brutal hohen Volumen her. Wenn Apple pro Jahr ueber 200Mio verscherpelt ist der Herstellungspreis bei egal welcher foundry so hoch verhandelbar dass jemand der nur 10-20Mio pro Jahr herstellt mit dem Herstellungs-BOM gar nicht mehr mitmachen kann. Und nein Tegra tablets werden auch nicht mit Wuchermargen verkauft wie die iPads. Man stellt um einiges teurer her und kann nicht mal mit dem gleichen Preis das Endgeraet verkaufen.

Gibt es eigentlich schon irgend welche "design-wins" was die GPU IP betrifft? NV wollte ja die GPU für andere SoC-Hersteller lizensieren....

Damit IP Sinn macht kann man keine etliche hundert an Mio R&D Kosten haben; unter anderen Umstaenden und ueberhaupt fuer embedded/supercomputers macht es durchaus Sinn.

-/\-CruNcher-/\-
2014-01-17, 11:12:30
Z3740D sieht in der tat interessant aus junge das geht alles so schnell Intel holt mächtig auf
vor allem was für Akkus die dinger verbauen fast 5000 mah nu kann man drüber diskutieren ob das gut oder eher schlecht ist ;)

Hat intel ihren Quicksync Decoder da drin ?

Die User Bewertungen sind auch krass das sieht man selten

Dural
2014-01-17, 11:13:05
Ach hört doch endlich auf, ich kann es langsam nicht mehr lesen!

Tegra4 war ein Flopp: zu viel Verlustleistung / erst sehr spät Lieferbar / kaum Lieferbar. Bis HEUTE gibt es keinen A15 Quad im Massen Markt, auch Samsung hatte extreme Probleme mit den dinger. Auch NV kann nicht Zaubern... :rolleyes:

Aber der T3 hatte doch einen guten Erfolg, wer das nicht einsieht tut mir leid. Damals hatte Qualcomm rein gar nichts im Tablet Bereich zu melden. Jetzt ist es halt gerade anders, na und??? Das kann / wird sich mit K1 eventuell wieder ändern. So ist halt der lauf der dinge.

Windi
2014-01-17, 11:22:14
Gerade Intel wird dieses Jahr ein großes Problem für nVidia.

Wenn die wirklich eine Milliarde für "Marketingbeihilfen" im SOC-Markt ausgeben, dann verschenken die ihre Prozessoren regelrecht. Und die liegen in direkter Konkurrenz zur Tegra-Schiene von Nvidia.

-/\-CruNcher-/\-
2014-01-17, 11:30:36
Jep es gibt keine 7 zoll so wie ich das sehe nur 8 zoll aber mit vollem Win 8.1 für den fast selben preis mit quasi dem selben featureset und sofort erhältlich ohne wenn und aber und eher sehr guten komponenten kamera/video ect ;)

Ach du scheise was ist den das neues

Der Rabattcode kann nur in Verbindung mit der Zahlweise 0% Finanzierung eingelöst werden.

junge junge junge

OK nachteil micro hdmi fehlt, wo verschwindet der nur überall hin in dem preis berreich ;) ?

Stylus support scheint extern zu sein mit aktiv pen und quasi überall Aufpreis

Ailuros
2014-01-17, 12:17:37
Gerade Intel wird dieses Jahr ein großes Problem für nVidia.

Wenn die wirklich eine Milliarde für "Marketingbeihilfen" im SOC-Markt ausgeben, dann verschenken die ihre Prozessoren regelrecht. Und die liegen in direkter Konkurrenz zur Tegra-Schiene von Nvidia.

Na endlich jemand der weiss wo es langgeht; ja es stimmt und ich hab es vor etlichen Posts angedeutet aber als OT verschachtelt. Ist aber - leider fuer Intel - wahrscheinlich nur temporaerer Marktanteil.

Ach hört doch endlich auf, ich kann es langsam nicht mehr lesen!

Ich kann mich nicht daran erinnern dass Dich jemand gezwungen hat etwas zu lesen. So lange es sachlich beim Thema bleibt verstoesst es gegen keine Regeln.

Tegra4 war ein Flopp: zu viel Verlustleistung / erst sehr spät Lieferbar / kaum Lieferbar. Bis HEUTE gibt es keinen A15 Quad im Massen Markt, auch Samsung hatte extreme Probleme mit den dinger. Auch NV kann nicht Zaubern... :rolleyes:

Samsung hatte Probleme big.LITTLE richtig hinzubekommen; da aber NV nichts mit big.LITTLE am Hut has sondern 4+1 ist es auch nicht vergleichbar. NV hat lediglich Tegra4 mit A15 auf den Markt gebracht, waehrend Samsung schon beim dritten A15/A7 SoC in Produkten ist momentan.

Aber der T3 hatte doch einen guten Erfolg, wer das nicht einsieht tut mir leid.

Nach JPR ein insgesamter ULP SoC (tablets/smartphones/embedded) damals ein Marktanteil von 3.2%. Wenn Du es nicht selber nachschlagen kannst oder keine offizielle Statistik finden kannst die diesem wiederspricht koennen Dir lange andere leid tun. Solche Tatsachen lassen sich schwer aendern. Apple hat mit ihrem i-Scheiss im gleichen Jahr fast 20x Mal so viel verkauft bei Wucherpreisen.

Damals hatte Qualcomm rein gar nichts im Tablet Bereich zu melden. Jetzt ist es halt gerade anders, na und??? Das kann / wird sich mit K1 eventuell wieder ändern. So ist halt der lauf der dinge.

Wie gesagt ihr Markanteil wird wieder steigen; aber ein QCOM, Apple, Samsung, Mediatek wird aus NV Tegra ueber Nacht nicht. Es hat nirgends irgendwo hier bezweifelt dass es NICHT mit K1 wieder bergauf gehen kann; es aendert aber nichts daran dass sie es auch nicht leicht haben eben weil sie zu VIEL verlorenen Boden wieder aufmachen muessen.

-/\-CruNcher-/\-
2014-01-17, 12:48:33
Ailuros das Acer Iconia W4 gefällt mir :)

Ailuros
2014-01-17, 13:11:15
Ailuros das Acer Iconia W4 gefällt mir :)

Ist zwar verdammt OT aber da ich ohnehin ein phablet habe und ich auf einem 7 bzw. 8" tablet wieder etwas zoomen muss hab ich kein besonderes Interesse daran. Wenn dann schon eher so etwas: http://www.pcpro.co.uk/blogs/2014/01/06/lenovo-miix-2-review-first-look/

Nun wie ich schon mehr als einmal sagte: gebt mir ein solches Baby mit einem Denver K1 bei vollen Frequenzen und ich steh Schlange dafuer.

-/\-CruNcher-/\-
2014-01-17, 13:28:08
Ist zwar verdammt OT aber da ich ohnehin ein phablet habe und ich auf einem 7 bzw. 8" tablet wieder etwas zoomen muss hab ich kein besonderes Interesse daran. Wenn dann schon eher so etwas: http://www.pcpro.co.uk/blogs/2014/01/06/lenovo-miix-2-review-first-look/

Nun wie ich schon mehr als einmal sagte: gebt mir ein solches Baby mit einem Denver K1 bei vollen Frequenzen und ich steh Schlange dafuer.

Intel jagt Nvidia bei der GPU noch hinterher mit Rogue wird Nvidia aber schon bei K1 sein dann jagen sie wieder hinterher momentan haben sie nur den Windows 8.1 Nativ vorteil @ lower GPU Performance

Denke mal erst Broadwell wird das anfangen zu ändern, noch scheint zu viel SGX IP im Chip zu sein

Intels Nativ Windows Vorteil + Nvidias GPU = Super Win ;)

Da fragt man sich was AMD eigentlich vorhat mit APUs in tablets die könnten plötzlich aus dem nix schiesen, womit keiner rechnet ;)

Ob AMD diesen Formfaktor und Preisberreich demnächst auch bedienen wird ?

AMD APU 8 zoll Windows 8.1 tablets ?

Hugo
2014-01-17, 15:54:24
Ist zwar verdammt OT aber da ich ohnehin ein phablet habe und ich auf einem 7 bzw. 8" tablet wieder etwas zoomen muss hab ich kein besonderes Interesse daran. Wenn dann schon eher so etwas: http://www.pcpro.co.uk/blogs/2014/01/06/lenovo-miix-2-review-first-look/

Nun wie ich schon mehr als einmal sagte: gebt mir ein solches Baby mit einem Denver K1 bei vollen Frequenzen und ich steh Schlange dafuer.

was wäre mit Denver K1 denn besser als mit Intel's Bay Trail?

Skysnake
2014-01-17, 19:05:45
Gerade Intel wird dieses Jahr ein großes Problem für nVidia.

Wenn die wirklich eine Milliarde für "Marketingbeihilfen" im SOC-Markt ausgeben, dann verschenken die ihre Prozessoren regelrecht. Und die liegen in direkter Konkurrenz zur Tegra-Schiene von Nvidia.
Ah, da hat einer geschnallt, was läuft ;D :up:

Interessant hierzu auch http://www.computerbase.de/news/2014-01/intel-meldet-umsatz-und-gewinnanstieg/

Die Sparte Other Intel Architecture machte mit 1,105 Milliarden US-Dollar zwar neun Prozent mehr Umsatz als im Jahr zuvor, hat aber auch im vierten Quartal 620 Millionen Euro operativen Verlust eingefahren.

Intel macht genau das Gleiche wie mit den Ultrabooks usw. Die blasen den Herstellern entweder durch massig Rabatte, oder Werbe-"Hilfen" Geld in den Arsch, damit die ihre Chips und nicht die der Konkurrenz abnehmen...

Intel will einfach nen Fuß in die Tür bekommen und seine FABs auslasten. Die wissen halt wie der Hase läuft und können es sich leisten. Im Prinzip versucht Intel die Konkurrenz teilweise schlicht aus dem Markt zu drücken, und gerade nVidia mit ihrem Fokus auf "Premium"-Produkte (:rolleyes:) geht da halt voll unter.

Ailuros
2014-01-17, 19:20:13
was wäre mit Denver K1 denn besser als mit Intel's Bay Trail?

Ich muss mir das geleakte Denver Zeug erstmal ausfuehrlich durchstoebern aber ich erwarte dass es als CPU im schlimmsten Fall gleiche Effizienz mit BT haben wird; sonst ist NV mit GPUs nicht mehr soo brutal im Vorsprung gegen Intel im absoluten low end aber einen Vorteil haben sie immer noch.

Ich weiss schon wie viele hier in mein Tegra relevantes Zeug reinlesen aber ich werde NIRGENDS behaupten dass K1 insgesamt ein schlechter SoC ist; ganz im Gegenteil das Teil ist so ausgezeichnet dass ich auf hw Nivaeu nichts einzuwenden habe. Zwischen dem aber und Tegra's insgesamte Strategie und einige Stromverbrauchs-relevante Einzelheiten die manche leider nicht verstehen wollen gibt es schon einen Unterschied.

Skysnake
2014-01-17, 19:28:12
Ailuros, was bringt dir aber die beste und tollste Hardware, wenn Sie am Markt vorbei designt wird?

Ailuros
2014-01-17, 19:44:33
Ailuros, was bringt dir aber die beste und tollste Hardware, wenn Sie am Markt vorbei designt wird?

Fuer den 5-15W TDP tablet, notebook, wasauchimmer Markt ist K1 nicht vorbei designed. Dass ihnen Intel den Teppich unter den Fuessen wegzieht haben sie um fair zu sein auch nicht vorhersehen koennen. Da koennte K1 um zich Mal besser sein als heute, zu hw4free sagt keiner so leicht nein. Ich auch nicht ;)

Nakai
2014-01-17, 19:50:17
Ailuros, was bringt dir aber die beste und tollste Hardware, wenn Sie am Markt vorbei designt wird?

K1 und K1-Denver? Tegra K1 ist nicht nur für den Consumer-Bereich ausgelegt. Sieht so aus, dass NV damit in andere Bereiche vordringen will. Ich muss da leider meine kleine Aussage NV bzgl Automotive etwas revidieren. Die könnten da schon beachtliche Erfolge feiern. Der Automotive Bereich hat dennoch kleine Margen, mal gucken, ob NV hier sehr erfolgreich ist.

Skysnake
2014-01-17, 20:46:36
Fuer den 5-15W TDP tablet, notebook, wasauchimmer Markt ist K1 nicht vorbei designed. Dass ihnen Intel den Teppich unter den Fuessen wegzieht haben sie um fair zu sein auch nicht vorhersehen koennen. Da koennte K1 um zich Mal besser sein als heute, zu hw4free sagt keiner so leicht nein. Ich auch nicht ;)
Das intel dermaßen auf die Tube drückt hat natürlich keiner absehen können, aber das man sich allgemein mit der Ausrichtung auf dünnes Eis begibt durchaus.

An sich ist der Weg mit T4 und T4i durchaus richtig gewesen. Man kann nicht wirklich den Markt mit einem Chip abdecken, und muss sowohl oben als auch unten abgrasen, damit die Volumen hoch gehen und damit eben auch die Entwicklungskosten runter. Zudem ist es immer gut, wenn man mehrere Angebote in der Hand hat für OEMs. Wenns dann noch pinkompatibel ist UM SO BESSER!

T5 in den zwei Varianten find ich daher gar nicht schlecht.

Ailuros
2014-01-17, 21:13:56
K1 und K1-Denver? Tegra K1 ist nicht nur für den Consumer-Bereich ausgelegt. Sieht so aus, dass NV damit in andere Bereiche vordringen will. Ich muss da leider meine kleine Aussage NV bzgl Automotive etwas revidieren. Die könnten da schon beachtliche Erfolge feiern. Der Automotive Bereich hat dennoch kleine Margen, mal gucken, ob NV hier sehr erfolgreich ist.

Dank Dir :)

fondness
2014-01-17, 21:19:04
K1 und K1-Denver? Tegra K1 ist nicht nur für den Consumer-Bereich ausgelegt. Sieht so aus, dass NV damit in andere Bereiche vordringen will. Ich muss da leider meine kleine Aussage NV bzgl Automotive etwas revidieren. Die könnten da schon beachtliche Erfolge feiern. Der Automotive Bereich hat dennoch kleine Margen, mal gucken, ob NV hier sehr erfolgreich ist.

Warum sollte man im Automotiv-Bereich NV nehmen? Da ist die Konkurrenz auch nicht kleiner. TI hat sich ja AFAIK auch irgendwo dorthin zurück gezogen,

Ailuros
2014-01-17, 21:24:57
Warum sollte man im Automotiv-Bereich NV nehmen? Da ist die Konkurrenz auch nicht kleiner. TI hat sich ja AFAIK auch irgendwo dorthin zurück gezogen,

Ja nur trotteln die momentan auch nur mit einem Jacinto6 rum, welches eine 544MP2@533MHz GPU hat (in etwa iPad3 GPU Leistung). K1 haut dann schon ziemlich radikal auf die Pauke mit der Rechenleistung die im Vergleich zum vorigen schon etwas ueber 10x Mal ist.

TI hatte auch Rogue lizenziert fuer OMAP6, aber weiss der Geier wie lahmarschig die Entwicklung von SoCs vorgegangen ist seit sie aus dem smartphone/tablet Markt ausgestiegen sind. Es ist ja eine Unmenge an Personal damals entlassen worden aus der OMAP Sparte.

Skysnake
2014-01-17, 21:57:51
Ist ja auch klar, dass da Leute gehen müssen. Man muss ja die Kosten senken, wenn man aus so nem großen Markt aussteigt.

Coda
2014-01-18, 03:46:59
Wird dies der Anhaltspunkt für denver?

Instruction-optimizing processor with branch-count table in hardware (https://www.google.com/patents/US20130311752)

https://patentimages.storage.googleapis.com/US20130311752A1/US20130311752A1-20131121-D00001.png
Es gab ja immer Gerüchte um Codemorphing bei Denver. Das würde dazu passen.

Das Patent beschreibt einen Prozessor der ARM- und x86-Code in Hardware in native instructions umwandeln kann, aber auch einen "Branch Counter" hat der hot paths erkennt. Der hot code kann dann per "Translation Manager" in Software optimiert werden. Schon umgewandelter Code wird in einem Trace-Cache vorgehalten.

Ist sowas ähnliches wie ein JITC mit Hardware-Support.

Interessant auch der frühere Job des Haupt-Erfinders:
Designed and implemented a dynamic binary translator and optimizer for Itanium.

Und ein anderer war:
Architect & Technical Director
Transmeta

Also bei all diesen Leuten war das jedenfalls kein Pet-Project. Wenn jetzt ein nativer ARM-Core kommt als Denver haben sie richtig viel weggeworfen.

-/\-CruNcher-/\-
2014-01-18, 10:06:35
Es gab ja immer Gerüchte um Codemorphing bei Denver. Das würde dazu passen.

Das Patent beschreibt einen Prozessor der ARM- und x86-Code in Hardware in native instructions umwandeln kann, aber auch einen "Branch Counter" hat der hot paths erkennt. Der hot code kann dann per "Translation Manager" in Software optimiert werden. Schon umgewandelter Code wird in einem Trace-Cache vorgehalten.

Ist sowas ähnliches wie ein JITC mit Hardware-Support.

Interessant auch der frühere Job des Haupt-Erfinders:
Designed and implemented a dynamic binary translator and optimizer for Itanium.

Und ein anderer war:
Architect & Technical Director
Transmeta

Also bei all diesen Leuten war das jedenfalls kein Pet-Project. Wenn jetzt ein nativer ARM-Core kommt als Denver haben sie richtig viel weggeworfen.

Könnten sie den Windows x86 core da "Nativ" zum laufen kriegen ?
K1 wird also der erste Hybrid und somit Nvidias frontalangriff auf Intel und AMD, wenn das so währe dan wäre jensen doch sicher auf der Bühne das letztemal rumgehüpft um das zu verkünden ?


Einer ne idee woher der unterschied kommen könnte, Treiber oder RT ?

http://www.ld-host.de/uploads/images/013f16477fa0160d8c20e36ff3b61d2e.jpg

also am SGX 543 scheint intel vorbei zu sein (Ipad 3) sie stehen anscheinend momentan vor dem 554 (Ipad 4) (- 2 Jahre) das könnte im berreich vor ihrer 3Dlabs aquisition liegen :)

oder auch Mali 450

wobei läuft der Benchmark immer auf OGL oder switched er zu DX unter Windows ?

Die Windows RT werte von Tegra 4 sind schon komisch (viel zu niedrig im Surface 2)

Geht man jetzt mal hypothetisch davon aus das das der DX overhead sein könnte und Nvidia und Intel unter dem gleichen leiden müssen ;)

könnte man jetzt mal eine gewifte rechenoperation durchführen ;)

Das würde dann bedeuten faktisch könnten Intel und Nvidia fast auf dem selben level momentan stehen (bei release)

Tegra K1 = 60 FPS (Ende 2014,Anfang 2015)

Coda
2014-01-18, 10:08:42
Für x86 brauchen sie halt den Segen von Intel.

Gipsel
2014-01-18, 10:15:40
Für x86 brauchen sie halt den Segen von Intel.NVidia hat sich in einem Abkommen mit Intel verpflichtet, keinen x86er kompatiblen Prozessor zu entwicklen. Dabei wurde auch explizit binary translation ausgeschlossen.

Ailuros
2014-01-18, 10:21:23
NVidia hat sich in einem Abkommen mit Intel verpflichtet, keinen x86er kompatiblen Prozessor zu entwicklen. Dabei wurde auch explizit binary translation ausgeschlossen.

Dass sie zuerst mit Denver auf x86 Basis entwickelt haben (weil sie sich "sicher" waren dass Intel eine Lizenz goennen wird...), spaeter auf emulation umentwickelten um am Ende auf die heutige Form von Denver zu kommen ist kein von Charlie entwickelter Mythos. Dieses staendige Umwerkelei wurde fuer NV verdammt teuer, denn es war vielleicht der groesste engineering talent Exodus in NV's gesamter Lebenszeit.

Coda
2014-01-18, 10:27:01
NVidia hat sich in einem Abkommen mit Intel verpflichtet, keinen x86er kompatiblen Prozessor zu entwicklen. Dabei wurde auch explizit binary translation ausgeschlossen.
Ich finde das ja ziemlich hart dass Intel in ihrer Position am x86-Markt sowas durchdrücken kann.

Aber ja, dann ist das Patent wohl ein Dokument einer ziemlichen Geldvernichtung.

fondness
2014-01-18, 10:34:20
Die Frage ist wohl eher was war der Preis für die x86-Lizenz. Vielleicht war es für Jensen nach dem ARM-Aufstieg sinnvoller, wie jetzt 66mio $ pro Quartal von Intel zu kassieren, als ein Lizenztauschabkommen zu unterschreiben. Ohne diesen Reingewinn von Intel für die GPU-Lizenzen hätten so manche Quaratszahlen von Nvidia nicht so rosig ausgesehen.

Ailuros
2014-01-18, 10:37:23
Ich finde das ja ziemlich hart dass Intel in ihrer Position am x86-Markt sowas durchdrücken kann.

Aber ja, dann ist das Patent wohl ein Dokument einer ziemlichen Geldvernichtung.

Kann man wirklich ein erfolgreiches Geschaeft heutzutage basierend auf Emotionen fuehren?

Die Frage ist wohl eher was war der Preis für die x86-Lizenz. Vielleicht war es für Jensen nach dem ARM-Aufstieg sinnvoller, wie jetzt 66mio $ pro Quartal von Intel zu kassieren, als ein Lizenztauschabkommen zu unterschreiben.

Es war wohl doch eher so dass Intel einfach keine Lizenz goennen wollte, eben weil sie vielleicht schon wussten an was NV genau kocht und ihnen einfach das Sueppchen versalzen wollten. Es gab Geruechte dass NV eine CPU entwickelt als sie noch mit GoForce herumwerkelten und ja soooo lange ist es her...

fondness
2014-01-18, 10:40:18
Ich kann mir nicht vorstellen, dass Intel in dieser Marktposition in der Lage ist eine Lizenz auszuschließen. Im Notfall muss man das vor Gericht klären, was natürlich Risiken b ringt keine Frage. Aber man hat ja auch Transmeta, AMD, IBM, etc. damals Lizenzen gegeben.

Gipsel
2014-01-18, 10:48:26
NVidia hat ja geklagt wegen angeblicher Patentverletzungen seitens Intel. Da gab es dann eine außergerichtliche Einigung (2011), Intel zahlt 1,25 Milliarden (wenn ich das richtig im Kopf habe) über einen gewissen Zeitraum verteilt, Intel erhält Zugang zu allen nV-Patenten, nV im Gegensatz den Zugang zu einigen intel-Patenten. Als nicht darunter fallend wird alles definiert, was "intel proprietary" ist, das ist eine ziemlich lange Liste z.B. mit Bus-Technologien, aber eben auch x86er kompatible CPUs und spezifisch auch "Intel Architecture Emulator" (definiert als "Intel Architecture Emulator shall mean software, firmware, or hardware that, through emulation, simulation or any other process, allows a computer or other device that does not contain an Intel Compatible Processor, or a processor that is not an Intel Compatible Processor, to execute binary code that is capable of being executed on an Intel Compatible Processor.") Das ist eine Übereinkunft gewesen, nVidia hat sich also praktisch selbst verpflichtet.

Skysnake
2014-01-18, 11:21:12
Dass sie zuerst mit Denver auf x86 Basis entwickelt haben (weil sie sich "sicher" waren dass Intel eine Lizenz goennen wird...), spaeter auf emulation umentwickelten um am Ende auf die heutige Form von Denver zu kommen ist kein von Charlie entwickelter Mythos. Dieses staendige Umwerkelei wurde fuer NV verdammt teuer, denn es war vielleicht der groesste engineering talent Exodus in NV's gesamter Lebenszeit.
Das war aber ziemlich naiv, auf sowas zu hoffen. Intel hat ja schon damals, als Sie noch ein vergleichsweise kleines Licht waren, nur auf massiven Druck von IBM, die damals noch ne ganze andere Macht waren im Vergleich zu Intel, Lizenzen rausgerückt.

Sorry, aber wer davon ausgeht, das Intel ne neue Lizenz raus gibt, der muss bekifft sein in dem Moment...

Ich finde das ja ziemlich hart dass Intel in ihrer Position am x86-Markt sowas durchdrücken kann.

Aber ja, dann ist das Patent wohl ein Dokument einer ziemlichen Geldvernichtung.
Das macht Intel doch schon die ganze Zeit :freak:

Also das ist doch überhaupt nicht überraschend. Zudem gibt es ja Lizenzen am "Markt". Hätte nVidia halt VIA gekauft und gut ist.

Und genau das hätten Sie auch von Intel usw zu hören bekommen, wenn Sie geklagt hätten. Es gibt ja x86 Lizenzen, die man indirekt erwerben kann.

Ganz abgesehen davon, dass Intel wenn Sie denn gezwungen werden würden, sicherlich son heiden Geld dafür verlangen würden, dass der Kauf von VIA oder so auch nicht wirklich viel teurer wäre.

Ich kann mir nicht vorstellen, dass Intel in dieser Marktposition in der Lage ist eine Lizenz auszuschließen. Im Notfall muss man das vor Gericht klären, was natürlich Risiken b ringt keine Frage. Aber man hat ja auch Transmeta, AMD, IBM, etc. damals Lizenzen gegeben.
Dann schau dir bitte nochmal an, wie das damals mit den Lizenzen ablief. IBM hat Intel an die Wand gedrückt und Intel war damals eben noch nicht in der Position IBM einfach abblitzen zu lassen. Denn genau das hätte IBM gemacht. Die hätten Intel den Laufpass gegeben, wenn die nicht x86 Lizenzen rausgerückt hätten, und das wäre wahrscheinlich das Ende von Intel gewesen, oder zumindest ein extrem harter Einschnitt.

AffenJack
2014-01-18, 11:25:33
Also das ist doch überhaupt nicht überraschend. Zudem gibt es ja Lizenzen am "Markt". Hätte nVidia halt VIA gekauft und gut ist.

Und genau das hätten Sie auch von Intel usw zu hören bekommen, wenn Sie geklagt hätten. Es gibt ja x86 Lizenzen, die man indirekt erwerben kann.


Kann man das? Ich hab schon öfter gehört, dass Intel sagt, die X86 Lizenzen sind nicht übertragbar und verfallen beim Aufkauf des Unternehmens.
Ich weiß nicht, was da dran ist, aber es würde mich nicht wundern. Denn sonst könnte man locker Via kaufen wie du schon sagst.

Skysnake
2014-01-18, 11:39:31
Die Scheichs haben doch auch AMD gekauft. Wo ist da der Unterschied?

Was kritisch war, war ja der Verkauf von GF. Das wurde ja aber vor Gerichten geklärt und AMD hat seine Lizenz behalten. Also ich seh da jetzt nicht das Problem. Lass mich aber GERN! eines besseren belehren.

Hugo78
2014-01-18, 11:48:29
VIAs Lizens läuft nur noch bis 2018. Ging auch urspünglich nur bis 2013.
http://www.pcmag.com/article2/0,2817,2367376,00.asp
Other provisions include a stipulation that Via's X86 license, that it previously signed with Intel, will be extended to 2018, five years beyond the current agreement.

Skysnake
2014-01-18, 12:23:45
Ist mir aber neu, dass die Lizensen limitiert sind. An was ist denn das gekoppelt? Meines wissens nach müssen auch Chips produziert werden, also keine toten Lizenzen.

DAs wäre ja aber kein Problem.

robbitop
2014-01-18, 12:47:58
Das Problem ist vermutlich nichtmal unbedingt die reine x86 ISA sondern auch die Erweiterungen (SSE, AVX etc). Wenn man die nicht bekommt, braucht man gar nicht auf den Markt. Finde es aber auch seltsam, dass es erlaubt ist, einen Markt durch sowas abzuschotten.

-/\-CruNcher-/\-
2014-01-18, 12:54:32
Interessant der Windows overhead ist schon beachtlich auch Qualcomm scheint damit zu kämpfen :)

http://www.ld-host.de/uploads/images/013f16477fa0160d8c20e36ff3b61d2e.jpg
http://www.ld-host.de/uploads/images/1b7182f5fddd4d406b65d035039d6cd4.jpg
http://www.ld-host.de/uploads/images/7d342630186ed2c2c28441f6a8432ece.jpg

Tegra K1 = 60 FPS (Ende 2014,Anfang 2015)

Coda was hälst du von Kishontis GPU Benchmark System und Methodology vieleicht zu sehr auf OGL optimiert ?

Low Level sieht es noch komischer aus da schlägt Intel Nvidia selbst das Adreno 330 result ;)


Das hier ist auch Strange das chroma result ist total different (display) ?
Auch kommt das Surface 2 hier auf 24 fps onscreen junge diese benchmarks

L80nEEUG_Po#t=821

Label
2014-01-18, 14:53:41
NVidia hat ja geklagt wegen angeblicher Patentverletzungen seitens Intel.....

Bei dem Streit ging es aber vor allem um Chipsätze, die Nvidia nicht mehr herstellen durfte...
http://www.golem.de/1101/80629.html

Ailuros
2014-01-18, 15:31:18
Interessant der Windows overhead ist schon beachtlich auch Qualcomm scheint damit zu kämpfen :)

Tegra K1 = 60 FPS (Ende 2014,Anfang 2015)

Coda was hälst du von Kishontis GPU Benchmark System und Methodology vieleicht zu sehr auf OGL optimiert ?

Low Level sieht es noch komischer aus da schlägt Intel Nvidia selbst das Adreno 330 result ;)


Das hier ist auch Strange das chroma result ist total different (display) ?
Auch kommt das Surface 2 hier auf 24 fps onscreen junge diese benchmarks

L80nEEUG_Po#t=821

Was zum Henker murmelst Du selber schon ueber zwei Posts?

* Das Tegra K1 Resultat ist momentan immer noch nur von NV behauptet fuer noch unbekannten power envelope.

* GFXbench3.0 ist bald am ausrollen weil es auch so langsam Zeit wird fuer den naechsten Schritt.

* T4 im Surface2 hat keine aktive Kuehlung; sonst haengt der Rest an Treiberqualitaet und API overhead (auf was fuer kernels basiert denn Android?). Shield != Surface2, weswegen auch jegliche Zweifel fuers erste bis zum ersten objektiven Resultat total gerechtfertigt sind.
T4 bestes passiv gekuehltes Resultat ist 20.8 fps in GLB2.7 offscreen: http://gfxbench.com/device.jsp?benchmark=gfx27&os=Android&api=gl&D=Xiaomi%20MI%203%20%28Tegra%204%29 wobei es auch solche Resultate gibt (welch Ueberraschung): http://gfxbench.com/device.jsp?benchmark=gfx27&os=Android&api=gl&D=Acer%20TA2

Nur auf die peak Resultate zu glotzen hilft eben nicht.

* Und wenn es schon zu Intel kommt und der TDP nicht mehr innerhalb von der 5W Grenze liegt geht man eher zu solchen Resultaten in GFXbench2.7:

http://gfxbench.com/device.jsp?benchmark=gfx27&os=Android&api=gl&D=Intel%20Harris%20Beach%20FFRD

...und ja es ist Baytrail mit HD5k und einer 2GHz CPU Frequenz

* Was willst Du mit onscreen Resultaten? Bei offscreen wird ueberall auf 1080p gemessen ergo bei genau gleicher Aufloesung; onscreen ist jeweils auf nativer Aufloesung des Geraets. Das iPad4 laeuft hier rein "zufaellig" bei 2048*1536 gegen 1080p, 720p und die 1136*640 vom iPhone5S. Kurz Aepfel gegen Birnen.

Coda
2014-01-18, 15:37:06
x86-64 war wohl echt ein geschickter Zug von AMD. Damit haben sie wohl lange sichergestellt, dass Intel ihnen nicht die Lizenz wegnimmt.

-/\-CruNcher-/\-
2014-01-18, 15:42:16
Was zum Henker murmelst Du selber schon ueber zwei Posts?

* Das Tegra K1 Resultat ist momentan immer noch nur von NV behauptet fuer noch unbekannten power envelope.

* GFXbench3.0 ist bald am ausrollen weil es auch so langsam Zeit wird fuer den naechsten Schritt.

* T4 im Surface2 hat keine aktive Kuehlung; sonst haengt der Rest an Treiberqualitaet und API overhead (auf was fuer kernels basiert denn Android?). Shield != Surface2, weswegen auch jegliche Zweifel fuers erste bis zum ersten objektiven Resultat total gerechtfertigt sind.
T4 bestes passiv gekuehltes Resultat ist 20.8 fps in GLB2.7 offscreen: http://gfxbench.com/device.jsp?benchmark=gfx27&os=Android&api=gl&D=Xiaomi%20MI%203%20%28Tegra%204%29 wobei es auch solche Resultate gibt (welch Ueberraschung): http://gfxbench.com/device.jsp?benchmark=gfx27&os=Android&api=gl&D=Acer%20TA2

Nur auf die peak Resultate zu glotzen hilft eben nicht.

* Und wenn es schon zu Intel kommt und der TDP nicht mehr innerhalb von der 5W Grenze liegt geht man eher zu solchen Resultaten in GFXbench2.7:

http://gfxbench.com/device.jsp?benchmark=gfx27&os=Android&api=gl&D=Intel%20Harris%20Beach%20FFRD

...und ja es ist Baytrail mit HD5k und einer 2GHz CPU Frequenz

* Was willst Du mit onscreen Resultaten? Bei offscreen wird ueberall auf 1080p gemessen ergo bei genau gleicher Aufloesung; onscreen ist jeweils auf nativer Aufloesung des Geraets. Das iPad4 laeuft hier rein "zufaellig" bei 2048*1536 gegen 1080p, 720p und die 1136*640 vom iPhone5S. Kurz Aepfel gegen Birnen.

Onscreen interessiert mich nicht nur die Abweichung der Datenbank von dem Video Resultat ich muss daher davon ausgehen das das Video resultat in einer niedrigeren Auflößung war oder aber irgendetwas bei dem Datenbank result anders verlaufen ist (anderer treiber, andere power einstellungen, andere avg Gewichtung) ;)

Den Power Factor kannst du nicht wissen aus dieser Datenbank da kannst du nur ungefähre rückschlusse anhand des devices oder der platform ziehen, so gesehen ist Bay Trail nicht schlecht in dem 8 zoll form faktor tegra 4 note 7 ergebnisse gibt es noch keine im 7 zoll faktor :)

Du glaubst doch nicht im Ernst das ich die Ergebnisse so im Raw als ja so ist das sehe ohne den Power Envelope mit einzukalkulieren ;)

Am besten natürlich du hast alle platformen zuhause und testest selbst ;)


Die user Bewertungen für Bay Trail werden auch immer krasser Intel hat Preis/Leistung voll erwischt mit Windows 8.1 Native support :)

Ich bin drauf und dran mir beides zu holen nur um direkt komplett beide Platformen zu vergleichen und zu versuchen Android auf dem Intel zum laufen zu bekommen ;)

Sprich ein 8 zoll Intel Bay Trail Tab und Nvidias Reference Note 7 tab ;)

Ailuros
2014-01-18, 16:10:10
Onscreen interessiert mich nicht nur die Abweichung der Datenbank von dem Video Resultat ich muss daher davon ausgehen das das Video resultat in einer niedrigeren Auflößung war oder aber irgendetwas bei dem Datenbank result anders verlaufen ist (anderer treiber, andere power einstellungen, andere avg Gewichtung) ;)

Es hilft wenig bis gar nichts fuer Vergleiche. Es muss aber onscreen geben sonst sieht der User vom benchmark am Ende gar nichts ausser einen schwarzen Schirm :)

Den Power Factor kannst du nicht wissen aus dieser Datenbank da kannst du nur ungefähre rückschlusse anhand des devices oder der platform ziehen, so gesehen ist Bay Trail nicht schlecht in dem 8 zoll form faktor tegra note 7 ergebnisse gibt es noch keine im 7 zoll faktor :)

Am besten natürlich du hast alle platformen zuhause und testest selbst ;)

Nur mal nebenbei bei GLB2.5 faellt der groessere Stress auf Geometrie/vertex shader und bei GLB2.7 eher auf z/stencil wegen den alpha tests in dem unendlichen Gruenzeug.

Im Vergleich zum kommenden GLB3.0 sehen beide verdammt langweilig aus. NV hat ja in einem der K1 slides schon vorzeitige Resultate durchsickern lassen:

iPhone5S (PowerVR G6430) = 11 fps
Sony Xperia Z (Adreno 330) = 9 fps

Nach NV wieder und stets mit unbekanntem power envelope soll K1 in diesem um 2.6x Mal schneller sein als das erste, ergo 28.6 fps. Es ist zwar noch verdammt frueh fuer jegliche Schlussvolgerungen aber Resultate skalieren verdammt nahe an den GFLOP Unterschieden der GPUs bis jetzt.

Die user Bewertungen für Bay Trail werden auch immer krasser Intel hat Preis/Leistung voll erwischt mit Windows 8.1 Native support :)

Warme Semmeln ahoi! (uebrigens da Du ueber decoder/encoder von diesen irgendwo gefragt hast, ist es IMG IP und nicht Intel's eigenes Zeug).

-/\-CruNcher-/\-
2014-01-18, 16:20:37
Es hilft wenig bis gar nichts fuer Vergleiche. Es muss aber onscreen geben sonst sieht der User vom benchmark am Ende gar nichts ausser einen schwarzen Schirm :)



Nur mal nebenbei bei GLB2.5 faellt der groessere Stress auf Geometrie/vertex shader und bei GLB2.7 eher auf z/stencil wegen den alpha tests in dem unendlichen Gruenzeug.

Im Vergleich zum kommenden GLB3.0 sehen beide verdammt langweilig aus. NV hat ja in einem der K1 slides schon vorzeitige Resultate durchsickern lassen:

iPhone5S (PowerVR G6430) = 11 fps
Sony Xperia Z (Adreno 330) = 9 fps

Nach NV wieder und stets mit unbekanntem power envelope soll K1 in diesem um 2.6x Mal schneller sein als das erste, ergo 28.6 fps. Es ist zwar noch verdammt frueh fuer jegliche Schlussvolgerungen aber Resultate skalieren verdammt nahe an den GFLOP Unterschieden der GPUs bis jetzt.



Warme Semmeln ahoi! (uebrigens da Du ueber decoder/encoder von diesen irgendwo gefragt hast, ist es IMG IP und nicht Intel's eigenes Zeug).

hab ich mir schon gedacht in Atom hatten sie bis jetzt immer PowerVRs decoder/encoder Mobile sind sie halt noch verdammt abhängig von IMG :)

Wir haben doch real life demos gesehen wozu dann noch an einem Benchmark ergötzen und egal welche Kühlung das 7 reference hatte es ist zumindestens nicht geschmolzen ;)

Keiner hatte es anscheinend in der Hand und konnte die Wärmeentwicklung spüren bei Vollast das ist schade :)

Aber selbst ein Game ist keine Vollast 3D und Video DSP gleichzeitg laufen lassen da wird es erst interessant, alle komponenten schön an seine grenzen bringen hab ich mit RockChip schon öfter gemacht geschmolzen ist das tab nicht aber angst hab ich schon bekommen ;)

Gipsel
2014-01-18, 16:28:50
Bei dem Streit ging es aber vor allem um Chipsätze, die Nvidia nicht mehr herstellen durfte...
http://www.golem.de/1101/80629.htmlAuch deswegen habe ich oben die Bus-Technologien erwähnt. Aber im Endeffekt ist es egal, worum es ursprünglich ging. Entscheidend ist, was am Ende vereinbart wurde. Und das verbietet nVidia x86-kompatible CPUs welcher Art auch immer herzustellen.

-/\-CruNcher-/\-
2014-01-18, 16:51:39
Übrigens wir haben das EVGA ergebniss ja ich find das nur komischerweise nirgends in der offizielen Datenbank, als hätte THW das nicht eingepflegt ?

http://media.bestofmicro.com/L/U/418098/original/GFXBench27OffscreenSorted.png

also identisch mit dem HP Slate 7 Extreme was auch Tegra 4 zu sein scheint ;)

http://gfxbench.com/device.jsp?benchmark=gfx27&os=Android&api=gl&D=HP+Slate+7+Extreme&testgroup=system

und HP hat auch einen 8 zoll Formfaktor kandidaten :)

http://gfxbench.com/device.jsp?benchmark=gfx27&os=Android&api=gl&D=HP+Slate+8+Pro&testgroup=system

Das gute an dieser ganzen sache man kann nicht leicht davon abweichen jeder ist an die selben Physikalischen grenzen gebunden (Sicherheitsfaktor) hehe es geht nur cheaten oder optimieren und die meisten machen es sich eh leicht nehmen Nvidias Reference und hauen ihr Logo drauf ;)

Undertaker
2014-01-18, 16:52:03
Was zum Henker murmelst Du selber schon ueber zwei Posts?

* Das Tegra K1 Resultat ist momentan immer noch nur von NV behauptet fuer noch unbekannten power envelope.



Nicht ganz. Laut NV erreicht K1 z.B. bei 60% der Leistungsaufnahme des A7 im IP 5S die identische Performance im GLB 3.0. Und der veröffentlichte Maximalscore wurde in einem passiv gekühlten 7"-Tablet erzielt. Daraus lässt sich schon einiges ablesen, gerade aus der zuerst genannten Angabe.

Ailuros
2014-01-18, 17:18:08
Nicht ganz. Laut NV erreicht K1 z.B. bei 60% der Leistungsaufnahme des A7 im IP 5S die identische Performance im GLB 3.0.

Wobei man 2 smartphones gegen was genau vergleicht hat? Was willst Du wetten dass egal wie stark Du einen K1 runtertaktest es eben NICHT in einem smartphone mit einer 1600mAH Batterie auskommen wird?

Und der veröffentlichte Maximalscore wurde in einem passiv gekühlten 7"-Tablet erzielt. Daraus lässt sich schon einiges ablesen, gerade aus der zuerst genannten Angabe.

Sagt NV. Es ist und bleibt subjektiv bis es von einer unabhaengigen Quelle bewiesen wird.

-/\-CruNcher-/\-
2014-01-18, 17:27:57
Ich kan Ailuros schon verstehen Nvidia hat da immer viel versprochen und nur mal so ein Smartphone haben sie nicht gedemoed, das ist aber doch auch ne ganz andere Device kategorie noch viel härter ;)
In den Tablets kommen sie jetzt aber an 7 zoll 8 zoll 10 zoll aber wie gesagt Intel macht da momentan auch ramba zamba momentan erst bei 8 zoll aber mit einem extremen alleinstellungsmerkmal auch wenn keiner das wahrhaben will ;)
Interessant wird wie Intel sich wohin entwickelt nach Merriefield und ihrem Ausflug für Smartphones wieder hin zur full IMG IP ;)
Intel weiss ja wohin Nvidia will mit K1 die sind nicht dumm und haben jetzt ja auch schon länger unified IP und mit ihrem x86 block haben sie Nvidia sehr weh getan.

Nvidia brauch ein Gegengewicht abseits von Android eine "Solution" die meisten ihrer alten Ökosystem Genies sitzen aber momentan bei AMD und feuern mit Mantle auf sie ;)

Undertaker
2014-01-18, 17:56:50
Wobei man 2 smartphones gegen was genau vergleicht hat? Was willst Du wetten dass egal wie stark Du einen K1 runtertaktest es eben NICHT in einem smartphone mit einer 1600mAH Batterie auskommen wird?

:confused: Noch einmal: iPhone 5S Performance im GLB 3.0 bei 60 % der Leistungsaufnahme. Dazu wurden sogar exakte mW-Angaben genannt.


Sagt NV.

Das wurde nicht nur gesagt (http://www.youtube.com/watch?v=W1_kynC_4lc). ;) Klar, das Tablet konnte noch kein unabhängiger Tester auseinander nehmen, aber der Fakt – ein passives 7-Zoll-Tablet erreicht 60 fps im GLB 2.7 offscreen – steht erst einmal. Ja, wir können jetzt spekulieren, dass da flüssiger Stickstoff oder sonstiges eingefüllt wurde, aber derartige Unterstellungen sind mir dann doch etwas zu abstrus. Selbst wenn wir mal annehmen, dass der Score nach x-facher Ausführung abfällt, kann sich das zunächst absolut sehen lassen.

-/\-CruNcher-/\-
2014-01-18, 18:09:35
Undertaker
Konnte es nichtmal irgendjemand in der Hand halten während Trine 2, UE4 oder Serious Sam lief man sieht es immer nur mit Controller glaube in einem Video sogar mal in der Hand des Nvidia guys als er UE4 startet (schreien tut der da nicht) natürlich bleibt da auch die Frage was war eigentlich die Native Resolution ;) ?

Ailuros
2014-01-18, 18:16:14
:confused: Noch einmal: iPhone 5S Performance im GLB 3.0 bei 60 % der Leistungsaufnahme. Dazu wurden sogar exakte mW-Angaben genannt.

Ja und? Es ist nicht das erste Mal dass sie irgendwelche "Fehler" in ihrem Marketing-Material machen. Ich hab's jetzt schlecht in Erinnerung aber steht nicht 1.5x Mal im slide?

Das wurde nicht nur gesagt (http://www.youtube.com/watch?v=W1_kynC_4lc). ;) Klar, das Tablet konnte noch kein unabhängiger Tester auseinander nehmen, aber der Fakt – ein passives 7-Zoll-Tablet erreicht 60 fps im GLB 2.7 offscreen – steht erst einmal. Ja, wir können jetzt spekulieren, dass da flüssiger Stickstoff oder sonstiges eingefüllt wurde, aber derartige Unterstellungen sind mir dann doch etwas zu abstrus. Selbst wenn wir mal annehmen, dass der Score nach x-facher Ausführung abfällt, kann sich das zunächst absolut sehen lassen.

Dann ist es auch kein 5W TDP tablet mehr. Im vergangenen Sommer hies es dass GK20A 17 fps bei 900mW erreicht. 60 fps / 17 fps = 3.54x.

0.9W * 3.54 = 3.2W

Den Rest fuer die CPU und co. kann man sich selber ausrechnen. Das einzige was ich jetzt nochmal lesen koennte ist der Duennschiss dass je hoeher GK20A taktet es desto weniger verbraucht :rolleyes:

***edit: was hat das Glatzkopfdemo mit GLB2.7 zu tun?

******edit Nr.2: ok so koennte ich es schon verbinden:

http://www.anandtech.com/show/7169/nvidia-demonstrates-logan-soc-mobile-kepler

NVIDIA took its Ira demo, originally run on a Titan at GTC 2013, and got it up and running on a Logan development board. Ira did need some work to make the transition to mobile. The skin shaders were simplified, smaller textures are used and the rendering resolution is dropped to 1080p. NVIDIA claims this demo was done in a 2 - 3W power envelope.

2 waere gelogen zu wenig und 3 klingt zu viel; ergo schreibt man halt "2-3W" und hofft dass der Leser so daemlich ist und sich nicht vorstellt dass es sich nicht um TDP handelt sondern um "eingeschaetzten durchschnittlichen Verbrauch".

Undertaker
2014-01-18, 18:35:15
Ja und? Es ist nicht das erste Mal dass sie irgendwelche "Fehler" in ihrem Marketing-Material machen. Ich hab's jetzt schlecht in Erinnerung aber steht nicht 1.5x Mal im slide?

Bzgl. Performance im GLB 3.0 zwischen K1 und A7 steht 0,6-fache Leistungsaufnahme bei gleicher Performance. Faktor 1,5 taucht beim Vergleich mit dem S800 auf, wo man 50% mehr Performance bei gleicher Leistungsaufnahme verspricht.


Dann ist es auch kein 5W TDP tablet mehr. Im vergangenen Sommer hies es dass GK20A 17 fps bei 900mW erreicht. 60 fps / 17 fps = 3.54x.

Da habe ich keine Folie mehr im Kopf und kenne die Randbedingungen nicht – war das wirklich GLB 2.7, Offscreen, und schon der Entwicklungsstand auf dem K1 nun letztlich ist? KA ob man letzten Sommer überhaupt schon finales K1-Silizium in 28nm HPM in den Händen hatte... Da sind aktuelle Zahlen sicherlich aussagekräftiger.


***edit: was hat das Glatzkopfdemo mit GLB2.7 zu tun?

Es geht um das Reference Tablet, was exakt das gleiche ist, welches auch für die GLBenches diente. Und das hat keinen versteckten Lüfter, Peltier-Elemente oder sonstige Tricks... ;)

-/\-CruNcher-/\-
2014-01-18, 18:40:16
Tjo das wäre die GPU Power des Surface pro 1.5 bzw 2.0 in 7 zoll schon krass

aber Undertaker wieso haben sie die leute das nicht selber Benchen lassen am CES stand selbst wenn es gecheatet wäre währe das ein schönerer wow effekt gewesen als wie ne schnöde text presentation für die ganze versammelte presse ;)

Ailuros
2014-01-18, 18:43:31
Bzgl. Performance im GLB 3.0 zwischen K1 und A7 steht 0,6-fache Leistungsaufnahme bei gleicher Performance. Faktor 1,5 taucht beim Vergleich mit dem S800 auf, wo man 50% mehr Performance bei gleicher Leistungsaufnahme verspricht.

"Verspricht" ist akkurat formuliert. Ich muss es aber nicht glauben sorry.

Da habe ich keine Folie mehr im Kopf und kenne die Randbedingungen nicht – war das wirklich GLB 2.7, Offscreen, und schon der Entwicklungsstand auf dem K1 nun letztlich ist? KA ob man letzten Sommer überhaupt schon finales K1-Silizium in 28nm HPM in den Händen hatte... Da sind aktuelle Zahlen sicherlich aussagekräftiger.

Ja hatten sie sonst haetten sie auch nichts vorgezeigt.

Es geht um das Reference Tablet, was exakt das gleiche ist, welches auch für die GLBenches diente. Und das hat keinen versteckten Lüfter, Peltier-Elemente oder sonstige Tricks... ;)

Man braucht KEINE aktive Kuehlung um ein >5W TDP in einem Geraet zu haben. Im Lenovo AIO mit K1 steckt wohl auch kein Luefter drin, es hat Dir aber auch keiner versprochen dass der SoC nur maximal 5W verbrauchen wird. Ich dachte ich bekomme einen Link fuer ein video wo GLB2.7 in Echtzeit gebencht wird :rolleyes: stattdessen bekomm ich den Glatzkopf im Schneckentempo :P

Undertaker
2014-01-18, 19:16:13
"Verspricht" ist akkurat formuliert. Ich muss es aber nicht glauben sorry.


Gegen eine gesunde Portion Skepsis gibt es natürlich nichts einzuwenden. :) Ich denke aber ebenso, dass man es in der anderen Richtung nicht übertreiben muss. Wenn ein Serientablet am Ende bei ~50 fps (GLB 2.7 Offscreen) landet, wäre das noch immer höchst beachtlich.

Ich hätte derzeit noch am ehesten Bedenken was den Leer- und Teillastverbrauch betrifft, ganz einfach weil man diesbzgl. noch gar keine Aussagen hören konnte.

Ailuros
2014-01-18, 19:25:36
Gegen eine gesunde Portion Skepsis gibt es natürlich nichts einzuwenden. :) Ich denke aber ebenso, dass man es in der anderen Richtung nicht übertreiben muss. Wenn ein Serientablet am Ende bei ~50 fps (GLB 2.7 Offscreen) landet, wäre das noch immer höchst beachtlich.

Schafft ein Baytrail mit HD5k auch.

http://www.anandtech.com/show/7706/toshiba-excite-and-encore-tablets-click-and-z10t-hybrids-ces-2014

Schau Dir mal die Preisverteilung der Produkte an im obrigen Fall und erzaehl mir was hier nicht passt.

Ich hätte derzeit noch am ehesten Bedenken was den Leer- und Teillastverbrauch betrifft, ganz einfach weil man diesbzgl. noch gar keine Aussagen hören konnte.

Die Geschichte wiederholt sich so oder so; bis K1 in Geraeten erscheint erreicht die Konkurrenz wieder ganz andere Hoehen und es ist dann eben nicht mehr so beindruckend. Wuerde Ankuendigung mit Verfuegbarkeit kommen waere es schon mal ein ganz anderes Kapitel.

Undertaker
2014-01-18, 19:30:07
Schafft ein Baytrail mit HD5k auch.

http://www.anandtech.com/show/7706/toshiba-excite-and-encore-tablets-click-and-z10t-hybrids-ces-2014

HD5k?

Die HD Graphics von Bay Trail landet im Falle eines Z3770 oder Z3740 bei etwa 15 fps. Das ist kaum Tegra 4 Niveau und ganz sicher nicht Tegra K1. :confused:

Edit: Wirfst du gerade Haswell und Bay Trail durcheinander?

Ailuros
2014-01-18, 22:03:24
HD5k?

Die HD Graphics von Bay Trail landet im Falle eines Z3770 oder Z3740 bei etwa 15 fps. Das ist kaum Tegra 4 Niveau und ganz sicher nicht Tegra K1. :confused:

Edit: Wirfst du gerade Haswell und Bay Trail durcheinander?

Jup Harris beach ist ULP Haswell mein Fehler. Mit turbo bis zu 2.9GHz ein TDP von 15W: http://ark.intel.com/products/75033

Bei 2.0GHz wird's wohl niedriger liegen:

http://gfxbench.com/device.jsp?benchmark=gfx27&os=Android&api=gl&D=Intel%20Harris%20Beach%20FFRD

Baytrail verbraucht um einiges weniger als Harris beach.

Undertaker
2014-01-18, 22:15:20
Nun, wenn wir schon mit Haswell vergleichen wollen: Die passiv kühlbaren Y-Modelle liegen bei 4x fps im GLB 2.7 und verbrauchen dabei ~7-9 Watt (11,5W TDP). ;) Die Harris Beach Studie hat dagegen afair einen Lüfter und eine 15W CPU (edit: i5-4350U, der bei den schwachen obigen Werten wohl schon throttelt. Selbst die HD 4400 sollte eigentlich gut 60 fps erreichen.). Bay Trail ist schon der korrekte Maßstab für K1, von der GPU-Leistung aber nur auf T4 Niveau.

Ailuros
2014-01-18, 22:26:33
Nun, wenn wir schon mit Haswell vergleichen wollen: Die passiv kühlbaren Y-Modelle liegen bei 4x fps im GLB 2.7 und verbrauchen dabei ~7-9 Watt (11,5W TDP). ;) Die Harris Beach Studie hat dagegen afair einen Lüfter und eine 15W CPU. Bay Trail ist schon der korrekte Maßstab für K1, von der GPU-Leistung aber nur auf T4 Niveau.

Wo soll denn Deiner Meinung nach der TDP eines vollgetakteten K1 genau liegen?

Die Harris beach im GFXbench taktet die CPU maximal bei 2.0GHz anstatt 2.9 (wobei der 15W TDP fuer das letzte gilt afaik) und landet knapp ueber 2x Mal Baytrail GPU Leistung bei 42+fps. Im getesteten Harris beach taktet die GPU garantiert nicht bis zu 1.1GHz hoch sonst waeren die Resultate noch besser.

Sonst liegt T4 mit vollem Takt auch nicht im 5W TDP Bereich.

Hugo78
2014-01-18, 22:48:39
@Ailuros

667 MHz steht hier als Turbo für Intels HD Grafik im Z3770.
http://ark.intel.com/de/products/76760/Intel-Atom-Processor-Z3770-2M-Cache-up-to-2_39-GHz

Das wären 60%, ergo 25fps im GLB 2.7, eventuell noch weniger, weil die CPU ja eigentlich 2,39GHz erreichen soll, aber auch schon nur mit 2GHz läuft.

Und wer soll K1 denn schlagen, selbst wenn Nvidia mit den 60fps einen übelsten Peak Wert für Tablets abgibt?
Also sagen wir mal eher auf etwas über 50fps kommt.

QCOMs Adreno 420 soll max. 40% ggü. Adreno 330 zulegen, d.h. ausgehend vom ASUSs PadPone X mit S800 und das diese +40% auch 1:1 erreicht werden (best case), so wird ein S805 bei ~38fps landen im GLB 2.7 T-REx Offscreen.
Featurelevel ist dafür immerhin auch DX11 inkl. tessellation, wie bei K1 oder Z3770.

PowerVRs G6430 in Apples A7 ist ne Idee langsamer als QCOMs S800 im ASUSs Pad Phone, jetzt gibts ja noch G6630,
diese GPU wurde aber noch nicht mal verbaut obwohl schon seit 2012 released, wird wohl zu groß sein.
Aber gut, sagen wir mal die GPU passt, dann kommt das Teil auf 30-50% mehr ggü. G6430 ergo irgendwas über 35fps.
Und Featurelevel ist immernoch DX10.

Pentium M
2014-01-18, 22:53:14
http://www.mobilegeeks.de/intel-atom-5x-mehr-cpu-power-15x-mehr-grafikleistung-bis-2016-lte-integration-beschleunigte-roadmap/

Hugo78
2014-01-18, 22:57:25
Gut Intels 14nm Cherry Trail könnten es sein, oder ziehen am Ende nur gleich.
Da hätten wir dann 28nm vs. 14nm ...

Pentium M
2014-01-18, 23:00:29
14 nm in 3D oder brauch Ich eine Brille.

Ailuros
2014-01-18, 23:05:46
@Ailuros

667 MHz steht hier als Turbo für Intels HD Grafik im Z3770.
http://ark.intel.com/de/products/76760/Intel-Atom-Processor-Z3770-2M-Cache-up-to-2_39-GHz

Das wären 60%, ergo 25fps im GLB 2.7, eventuell noch weniger, weil die CPU ja eigentlich 2,39GHz erreichen soll, aber auch schon nur mit 2GHz läuft.

Ich redete von Harris beach mit reduzierten Frequenzen welches offensichtlich ein anderes Tier ist als Baytrail. Baytrail erreicht 19 fps in GLB2.7 fuer welchen Intel einen "SDP" von 2W angiebt. Marketing erzaehlt eben ziemlich viel Mist wenn der Tag lang ist.

Und wer soll K1 denn schlagen, selbst wenn Nvidia mit den 60fps einen übelsten Peak Wert für Tablets abgibt?
Also sagen wir mal eher auf etwas über 50fps kommt.

Apple A8 vielleicht?

QCOMs Adreno 420 soll max. 40% ggü. Adreno 330 zulegen, d.h. ausgehend vom ASUSs Pad Phone 10" Tablet mit S800 und das diese +40% auch 1:1 erreicht werden (best case), so wird ein S805 bei ~38fps landen im GLB 2.7 T-REx Offscreen.
Featurelevel ist dafür immerhin auch DX11 inkl. tessellation, wie bei K1 oder Z3770.

Ich weiss nicht was QCOM mit DX11 in Android smartphones will aber sie werden es wohl schon besser wissen.

Sonst um solche merkwuerdige Fragen zu beantworten: gebt mir eine Referenz-board mit einem S805 und lasst nachdem ich den genauen peak Stromverbrauch eines K1 gemessen habe, die S805 so weit hochtakten bis sie auf TDP Gleichstand liegen und dann mess ich nochmal in benchmarks nach.

Und damit ein bisschen ein Realitaets-check in die Debatte kommt: K1 hat maximal 17GB Bandbreite, S805 25GB/s. Was limitiert in den meisten Spielen zuerst?

PowerVRs G6430 in Apples A7 ist ne Idee langsamer als QCOMs S800 im ASUSs Pad Phone, jetzt gibts ja noch G6630,
diese GPU wurde aber noch nicht mal verbaut obwohl schon seit 2012 released, wird wohl zu groß sein.

A8 ist auf 20SoC.


Aber gut, sagen wir mal die GPU passt, dann kommt das Teil auf 30-50% mehr ggü. G6430 ergo irgenwas über 35fps.
Und Featurelevel ist immernoch DX10.

Apple will nicht mehr haben als DX10 sonst haetten sie schon seit einer Ewigkeit bei NV lizenziert und ja sie bekommen was sie haben wollen. Sonst rechnest Du leider nur mit der einheitlichen Steigerung einer 6630 und mit gleicher Frequenz.

Eben weil es DX10 ist, wird es zu gross sein :freak:

Undertaker
2014-01-18, 23:41:15
Wo soll denn Deiner Meinung nach der TDP eines vollgetakteten K1 genau liegen?

TDP ist erst einmal ohne Aussagekraft, da die Zahl nichts zu möglichem Throttling sagt. Ein Haswell (2C, GT2) braucht für 50 fps im GLB etwa 10 Watt. K1 sehe ich klar darunter, näheres gern per PN.

Ailuros
2014-01-19, 00:04:28
TDP ist erst einmal ohne Aussagekraft, da die Zahl nichts zu möglichem Throttling sagt. Ein Haswell (2C, GT2) braucht für 50 fps im GLB etwa 10 Watt. K1 sehe ich klar darunter, näheres gern per PN.

Was ist denn dann aussagekraeftiger? Intel's SDP oder sonst noch welche Erfindung? Soll ich Euch vielleicht daran erinnern dass die Debatte ueber den Stromverbrauch bei der T4 Praesentation nicht besonders unterschiedlich war? Was kam am Ende dabei raus? Ich haette schwoeren koennen dass T4 sogar im brutalen Vorteil fuer perf/mW gelegen haette gegen jeglichen S800 wenn man sich damals so manchen Post durchgelesen hat.... Spar mir die Antwort denn es geht nicht darum wer recht hat oder nicht, sondern was alle anderen davon erwarten. Hinter den Kulissen scheint keiner besonders unruhig zu sein.

10W sind ein akzeptabler Wert fuer ein ultrabook mit solcher Leistung und die Batterie ist bei den Dingern auch nicht nach nur ein paar Stunden alle. 5W TDP sind es fuer K1 eben nicht. Wieviel mehr es sind ist mir momentan scheissegal; wenn ich aber A mit B vergleichen soll dann kann eben das eine nicht maximal nur 2.5W verdonnern und das andere mehr als 2x Mal so viel. Wenn das zweite also dann ueber 2.5x Mal Leistung erreicht dann wundert mich das Resultat auch nicht.

Skysnake
2014-01-19, 00:08:44
Was ist denn dann aussagekraeftiger? Intel's SDP oder sonst noch welche Erfindung? Soll ich Euch vielleicht daran erinnern dass die Debatte ueber den Stromverbrauch bei der T4 Praesentation nicht besonders unterschiedlich war? Was kam am Ende dabei raus? Spar mir die Antwort denn es geht nicht darum wer recht hat oder nicht, sondern was alle anderen davon erwarten.

Und genau das trifft eben auch auf die OEMs zu, die eigentlich die Chips kaufen sollen. Wer glaubt denn aber noch ernsthaft nVidias Versprechen?

Ailuros
2014-01-19, 00:18:50
Und genau das trifft eben auch auf die OEMs zu, die eigentlich die Chips kaufen sollen. Wer glaubt denn aber noch ernsthaft nVidias Versprechen?

NV hat nirgends versprochen dass K1 nur maximal 5W verbraten wird. Wenn in einer Tafel 5W Stromverbrauch steht dann ist es auch nicht gelogen.

NV hat auch mit Tegra4 versprochen dass sie iPad4 GPU Leistung uebertroffen haben. Dass es eigentlicher quasi Gleichstand ist in tablets kann ich gerne uebersehen; zu dem Mega-Erfolg die sich die NV Tagtraeumer selber versprochen haben ist es aber trotzdem nie gekommen.

Undertaker
2014-01-19, 00:58:19
Was ist denn dann aussagekraeftiger? Intel's SDP oder sonst noch welche Erfindung?

Habe ich nicht gesagt. Aussagekräftig ist die reale Leistungsaufnahme in Relation zur Performance in einer bestimmten Anwendung. Siehe dazu z.B. das letzte Posting zu Haswell im GLB 2.7.

Soll ich Euch vielleicht daran erinnern dass die Debatte ueber den Stromverbrauch bei der T4 Praesentation nicht besonders unterschiedlich war? Was kam am Ende dabei raus? Ich haette schwoeren koennen dass T4 sogar im brutalen Vorteil fuer perf/mW gelegen haette gegen jeglichen S800 wenn man sich damals so manchen Post durchgelesen hat

Bei T4 gab es praktisch keine Aussagen von Nvidia, die die Energieeffienz unter Last direkt mit der Konkurrenz verglichen haben – wer damals also so etwas geschrieben hat, hat rein spekuliert. Diesmal gibt es konkrete Angaben, z.B. die 50% Mehrleistung bei gleicher Leistungsaufnahme (ggü. S800) bzw. 40% Minderverbrauch bei gleicher Performance (ggü. A7) jeweils im GLB 3.0. Selbst wenn der Benchmark cherry-picked ist, sind diese Zahlen wohl kaum aus der Luft gegriffen.


NV hat auch mit Tegra4 versprochen dass sie iPad4 GPU Leistung uebertroffen haben. Dass es eigentlicher quasi Gleichstand ist in tablets kann ich gerne uebersehen; zu dem Mega-Erfolg die sich die NV Tagtraeumer selber versprochen haben ist es aber trotzdem nie gekommen.

T4 ist gescheitert an den Lieferverzögerungen und der viel zu hohen Leistungsaufnahme. Die eigentlichen Leistungsversprechen hat man ja durchaus eingehalten, wenngleich zum Teil nur mit aktiver Kühlung in Shield. ;)


10W sind ein akzeptabler Wert fuer ein ultrabook mit solcher Leistung und die Batterie ist bei den Dingern auch nicht nach nur ein paar Stunden alle. 5W TDP sind es fuer K1 eben nicht. Wieviel mehr es sind ist mir momentan scheissegal; wenn ich aber A mit B vergleichen soll dann kann eben das eine nicht maximal nur 2.5W verdonnern und das andere mehr als 2x Mal so viel. Wenn das zweite also dann ueber 2.5x Mal Leistung erreicht dann wundert mich das Resultat auch nicht.

Darauf muss ich jetzt nochmal eingehen, weil du jetzt Äpfel und Birnen vergleichst. Die 10 Watt, die ich oben ganz allgemein für Haswell (kein konkretes Modell! Kommt allerdings den Modellen Y-Serie recht nah) erwähnte, bezogen sich auf eine bestimmte fps-Zahl und einen konkreten Benchmark. 50 fps und 10 Watt im GLBench 2.7 klingen in meinen Augen übrigens nicht so berauschend gegenüber K1 wie du es gerade verkaufen willst. ;) Egal, ob K1 für die genannten 60 fps nun bei 5 Watt oder etwas darüber liegt: Effizienter ist die Tegra-GPU wohl in jedem Fall. Die CPU-Seite brauchen wir hier natürlich nicht zu diskutieren (kein Stich gegen Haswell), die wird in dem Benchmark aber auch kaum belastet.

Und noch zu Ultrabooks: Spezifiziert ist ein Haswell-ULV mit 15 Watt TDP (GLBench ohne Throttling dann knapp über 60 fps), die unter Last auch exakt ausgereizt werden. Gesamtverbrauch des Systems liegt dann übrigens bei ~30 Watt, Akkulaufzeit bei typischerweise 1,5 bis 2h. Soviel also zu den "nicht nach nur ein paar Stunden alle". ;) Unter Last hält so ein Ultrabook eben auch nicht lange.

Pentium M
2014-01-19, 01:36:03
Yeah du Held ich lach mich Kaputt.

-/\-CruNcher-/\-
2014-01-19, 02:08:36
Nun, wenn wir schon mit Haswell vergleichen wollen: Die passiv kühlbaren Y-Modelle liegen bei 4x fps im GLB 2.7 und verbrauchen dabei ~7-9 Watt (11,5W TDP). ;) Die Harris Beach Studie hat dagegen afair einen Lüfter und eine 15W CPU (edit: i5-4350U, der bei den schwachen obigen Werten wohl schon throttelt. Selbst die HD 4400 sollte eigentlich gut 60 fps erreichen.). Bay Trail ist schon der korrekte Maßstab für K1, von der GPU-Leistung aber nur auf T4 Niveau.

Was heist den nur hallo reality check das sind die momentan available releases und Bay Trail devices haben gute Verfügbarkeit das sieht bei Tegra 4 anders aus, bis auf Shield.

Quasi das Einzige Alleinstellungsmerkmal was Nvidia hat bei Tegra 4 ist der Direct Stylus und ihre Selfmade Software solutions im Android stack (Kamera Integration ect) das wars aber auch was Prism und co gegen Bay Trail in real bringen wissen wir noch garnicht vor allem den Wacom Digitizer Versionen im vergleich zum Activ Pen und Direct Stylus.

Du hast auch immernoch nicht auf meine Frage bezüglich des Live Benchmarks vor Presse geantwortet den Nvidia ohne Probleme hätte machen können

Cherry Trail wird muss durschlagen sonst war der Kauf von Creatives 3Dlabs Part und IP im Fight vs Nvidia völlig umsonst

Hugo78
2014-01-19, 08:05:41
Ich redete von Harris beach mit reduzierten Frequenzen welches offensichtlich ein anderes Tier ist als Baytrail. Baytrail erreicht 19 fps in GLB2.7 fuer welchen Intel einen "SDP" von 2W angiebt. Marketing erzaehlt eben ziemlich viel Mist wenn der Tag lang ist.

Jo, und "SDP" bezieht sich nicht auf Benchmarks.

Apple A8 vielleicht?

Ja wie gesagt, dann brauchen sie was anderes als die G6630 GPU.
30% mehr Fläche + höherem Takt da kommt man dann vielleicht auf + 50%.
20nm kann das mit der Fläche ausgleichen, aber mehr als 20% mehr Takt würde ich nicht erwarten, dass es am ende reicht K1 zuschlagen.
Dafür waren die Effizenzgewinne in letzter Zeit, rein durch Shrinks einfach zu gering.
Und 28nm HPM ist ja auch nicht so weit weg von 20nm in dem Punkt Effizienz.
War da nicht mal was von nur 15% Unterschied?!

Sonst um solche merkwuerdige Fragen zu beantworten
Die Frage ist nicht merkwürdig, sondern quasi du selbst hast sie in den Raum geworfen mit deiner Aussage kurz zuvor.

Die Geschichte wiederholt sich so oder so; bis K1 in Geraeten erscheint erreicht die Konkurrenz wieder ganz andere Hoehen

... aber weiter im Text.
gebt mir eine Referenz-board mit einem S805 und lasst nachdem ich den genauen peak Stromverbrauch eines K1 gemessen habe, die S805 so weit hochtakten bis sie auf TDP Gleichstand liegen und dann mess ich nochmal in benchmarks nach.

Wäre nur Fair und wird auch eher so kommen, denn S805 wird ja auch nicht primär als Handychip vermarktet, sondern für Tablets und größer.


Und damit ein bisschen ein Realitaets-check in die Debatte kommt: K1 hat maximal 17GB Bandbreite, S805 25GB/s. Was limitiert in den meisten Spielen zuerst?

K1, zumindest rein von den Zahlen her.
Nvidia hat aber im Desktop gezeigt wie effizient sie mit Bandbreite umgehen können zuletzt, wenn sich das auch im mobilen Bereich fortsetzt, würde ich das nicht so einfach unterschreiben.

Ailuros
2014-01-19, 09:18:44
Habe ich nicht gesagt. Aussagekräftig ist die reale Leistungsaufnahme in Relation zur Performance in einer bestimmten Anwendung. Siehe dazu z.B. das letzte Posting zu Haswell im GLB 2.7.

Was soll jetzt das wieder heissen? Sobald Stromverbrauch nicht unbegrenzt ist fuer bestimmte form factors heisst es entweder Aepfel gegen Aepfel bei vergleichbaren W thresholds oder eben Aepfel gegen Birnen Vergleiche.

Bei T4 gab es praktisch keine Aussagen von Nvidia, die die Energieeffienz unter Last direkt mit der Konkurrenz verglichen haben – wer damals also so etwas geschrieben hat, hat rein spekuliert. Diesmal gibt es konkrete Angaben, z.B. die 50% Mehrleistung bei gleicher Leistungsaufnahme (ggü. S800) bzw. 40% Minderverbrauch bei gleicher Performance (ggü. A7) jeweils im GLB 3.0. Selbst wenn der Benchmark cherry-picked ist, sind diese Zahlen wohl kaum aus der Luft gegriffen.

Und dass soll Deine Entschuldigung sein dass T4 nicht das war was sich viele vorstellten? Es gab so viele Luegen in der verdammten T4 Praesentation dass man sich die Haare haette ausreissen koennen welche ich hoefliche "Fehler" nannte. Der gesamte damalige perf/mm2 war so verdreht, falsch und in den Boden gelogen dass es nicht mehr schoen war. Wieso soll ich ihnen jetzt ploetzlich bei jeglicher perf/mW Behauptung glauben? Weil es NVIDIA ist und sie NIE beschissenes marketing hatten? Aber ich komm nochmal darauf zurueck...

T4 ist gescheitert an den Lieferverzögerungen und der viel zu hohen Leistungsaufnahme. Die eigentlichen Leistungsversprechen hat man ja durchaus eingehalten, wenngleich zum Teil nur mit aktiver Kühlung in Shield. ;)

Ja natuerlich und ich wurde ja auch damals als "absurd" abgestempelt als ich sagte dass Shield nur gebaut wurde um in benchmarks gut auszusehen. Es wurde ja auch bei T4 kein TDP angegeben bei dem Leistungsversprechen ergo war es auch nicht gelogen....merkst Du etwas? Sicher nicht.

Behalt mal die viel zu hohe Leistungsaufnahme denn irgendwo hat Eure Logik wohl ein supergigantisches Loch....


Darauf muss ich jetzt nochmal eingehen, weil du jetzt Äpfel und Birnen vergleichst. Die 10 Watt, die ich oben ganz allgemein für Haswell (kein konkretes Modell! Kommt allerdings den Modellen Y-Serie recht nah) erwähnte, bezogen sich auf eine bestimmte fps-Zahl und einen konkreten Benchmark. 50 fps und 10 Watt im GLBench 2.7 klingen in meinen Augen übrigens nicht so berauschend gegenüber K1 wie du es gerade verkaufen willst. ;) Egal, ob K1 für die genannten 60 fps nun bei 5 Watt oder etwas darüber liegt: Effizienter ist die Tegra-GPU wohl in jedem Fall. Die CPU-Seite brauchen wir hier natürlich nicht zu diskutieren (kein Stich gegen Haswell), die wird in dem Benchmark aber auch kaum belastet.

Und noch zu Ultrabooks: Spezifiziert ist ein Haswell-ULV mit 15 Watt TDP (GLBench ohne Throttling dann knapp über 60 fps), die unter Last auch exakt ausgereizt werden. Gesamtverbrauch des Systems liegt dann übrigens bei ~30 Watt, Akkulaufzeit bei typischerweise 1,5 bis 2h. Soviel also zu den "nicht nach nur ein paar Stunden alle". ;) Unter Last hält so ein Ultrabook eben auch nicht lange.

Och Intel koennte locker ein Haswell auf 2.0 GHz turbo max veroeffentlichen, einen SDP von 7W angeben und sie locker in hybride tablet/ultrabooks mit windows verschleussen. Das ist der einzige Punkt hier.

Sonst ist die K1 GPU nur effizienter als HD5k in meinem Buch wenn sich bei exakt gleichem Stromverbrauch verglichen werden; selbst im desktop wenn ich eine 120W TDP GPU gegen eine 180W TDP GPU vergleiche und mir die zweite als schneller rauskommt werde ich sie nicht gleich als die "effizientere" erklaeren.

So und jetzt mal zurueck zu K1 vs. T4:

* Ich dachte zwar stets dass T4 auf 28LP hergestellt wurde, aber ich glaube Dir auch wenn Du mir sagst dass es auf 28HPm hergestellt wurde. Im Gegenfall kann ich mich stets nachtraeglich korrigieren aber nicht fuer viel.

* Nach NV selber sollen die 4+1 A15 (R3) bei 2.3GHz in etwa gleich viel Strom verbrauchen als die CPU cores im T4. Ich akzeptiere es und sehe auch nichts absurdes dabei, obwohl es bei wahrem TDP bei exakt gleichem process node schon eng werden koennte. Haarspalterei zur Seite: ich behaupte jetzt zur Vereinfachung dass der TDP der CPU von sich aus gleichauf liegen.

* Zurueck zur GPU; bis zu T4 hiess es nach NV selber dass getrennte ps/vs ALUs um einiges billiger sind. Akzeptiert. Von 72 solcher ALUs (ps+vs) sind wir jetzt auf USC gestiegen, von DX9L1 auf DX11.2, es sind ca. 2.7x mehr cores auf 192 und mit einer Taktsteigerung von ~41%. Von 4k*4k TMUs (4 insgesamt) im T4 ging es auf 16k*16k 8 TMUs in K1 und es sind bestimmt zumindest doppelt so viel ROPs im K1 im Vergleich zu T4. Anderen "Kleinkram" wie eine Unmenge an mehr SFUs oder 8SPs FP64 (die auf T4 nicht existierten) lassen wir mal weg.

Es ist ja nicht so dass z.B. decoder/encoder und andere Komponenten still geblieben sind bei K1 aber lassen wir es mal weg. Was ich jetzt akzeptieren soll ist dass beim exakt gleichen Prozess all das obrige zumindest mit gleichem Stromverbrauch ankommt als T4? Ich tu zwar mit meiner 4-jaerigen Tochter dass ich ihr ab und zu pixie dust ueber den Kopf schuette aber sie lacht und weiss dass es nur ein Scherz ist. Helft mir mal auf die Beine hier denn ich muss sehr wesentliches verpassen.

Nur mal so nebenbei wenn man bei DX10.1 improved rounding in ALUs weglaesst ist man sofort auf DX10 und hat um die 20% die are fuer die ALUs gespart. Jetzt stell Dir mal vor wie steil der Weg ganz nach oben zu DX11 genau ist. Und ja es kann durchaus sein dass sich die dedizierte die area fuer die GPU im K1 vervierfacht hat, aber bei gleichem Prozess gleicher Stromverbrauch bei ueber 40% mehr Takt? Yeahrightsureok..........

Jo, und "SDP" bezieht sich nicht auf Benchmarks.

Es ist aber Intel's Marketing-Beschiss hw mit relativ hohem TDP mit kleinerem Stromverbrauch zu verscherpeln. Man kann es aber uebersehen da Intel Baytrail wohl nicht in smartphones integrieren wird.

Ja wie gesagt, dann brauchen sie was anderes als die G6630 GPU.
30% mehr Fläche + höherem Takt da kommt man dann vielleicht auf + 50%.

Es gibt Resultate von einem dual cluster G6200 in der Kishonti Datenbank; bei vergleichbarer Frequenz zur A7 GPU erreicht es 14 fps gegen die 27 fps eines 4 cluster G6430. Mehr oder weniger skaliert Leistung also schon linear mit mehr clusters. 6630 hat 50% mehr clusters als 6430 ergo gewinnst Du fast 50% allein von den 2 zusaetzlichen clusters, hast dann noch Luftraum fuer N% hoehere Frequenzen dank u.a. kleinerem Prozess und es kommt noch etwas dazu durch bessere Treiber. Dabei ist es nichtmal garantiert dass Apple mir nichts dir nichts einen 6630 benutzen wird; haben sie hypothetisch einen 6650 von der Serie6XT Familie benutzt sind es nochmal 50% Effizienz Zuschlag zum 6630.

20nm kann das mit der Fläche ausgleichen, aber mehr als 20% mehr Takt würde ich nicht erwarten, dass es am ende reicht K1 zuschlagen.
Dafür waren die Effizenzgewinne in letzter Zeit, rein durch Shrinks einfach zu gering.
Und 28nm HPM ist ja auch nicht so weit weg von 20nm in dem Punkt Effizienz.
War da nicht mal was von nur 15% Unterschied?!

Mehr als 650MHz brauchen sie nicht mit einem 66x0 und ein K1 wird wohl nicht innerhalb 5W TDP die GPU bei 951MHz takten.

Die Frage ist nicht merkwürdig, sondern quasi du selbst hast sie in den Raum geworfen mit deiner Aussage kurz zuvor.


... aber weiter im Text.


Wäre nur Fair und wird auch eher so kommen, denn S805 wird ja auch nicht primär als Handychip vermarktet, sondern für Tablets und größer.

Backflash fuer was genau gelten die 40% die QCOM behauptet hat fuer den 420 vs. 330? Spricht bei einer S805 tablet Integrierung etwas dagegen die Frequenz um N% zu erhoehen und ist der Unterschied dann immer noch 40%? Wir haben noch ueberhaupt keine Indizien fuer S805 und NV hat es Gott sei Dank auch noch nicht in ihrem K1 Material benutzt.

K1, zumindest rein von den Zahlen her.
Nvidia hat aber im Desktop gezeigt wie effizient sie mit Bandbreite umgehen können zuletzt, wenn sich das auch im mobilen Bereich fortsetzt, würde ich das nicht so einfach unterschreiben.

Schoen. In vielen Faellen wird es nicht zaehlen, aber liess mal SEHR vorsichtig die letzten paar Paragraphen in meiner Antwort zu Undertaker durch und erzaehl mir wo der Denkfehler genau liegt. Einfacher geht es gar nicht und ja tut mir leid NV kocht auch nur mit Wasser.

Hugo78
2014-01-19, 10:52:52
- Deine Überlegungen sind sicher richtig, aber die nur rund 100mm^2 stehen erstmal im Raum.
Also irgendwie hat NV die fette DX11 GPU und alles andere in den kleinen Die gepresst ohne einen totalen Hitzkopf zubauen.
Und ja an über 900mhz in Handys glaube ich auch nicht, aber so 670Mhz, da hätte man immernoch 40fps, wenn der Lenovos 4K AIO-TFT mit seinen 804Mhz denn den richtigen GPU Takt ausgegeben hat.

- Die 40% für QCOMs 420 GPU kommen von QCOM selber und sind ein "bis zu" Spitzenwert.
Der Bezugspunkt ist dabei sicherlich ihre jeweilige Referenzplattform.

- G6630 wird ausgehend von den iPhone 5S und seinen 26,7fps, bei 50% mehr Cluster im G6630 bei 40fps landen und bräuchte nochmal 25% bzw. 50% mehr Takt um auf 50fps bzw 60fps zukommen, wenn alles optimal skaliert.
Nur wie gesagt ich glaub nicht, dass 20nm soviel her gibt ggü. 28nm, weil 50% mehr Cluster auch entsprechend viel saugen, die Technik bleibt ja gleich, und dann nochmal mehr Takt drauf ... ne.
Wenn gleich man in dem Punkt sicherlich auch Samsung vs. TSMCs vergleichen müsste.

Undertaker
2014-01-19, 11:41:47
Was soll jetzt das wieder heissen? Sobald Stromverbrauch nicht unbegrenzt ist fuer bestimmte form factors heisst es entweder Aepfel gegen Aepfel bei vergleichbaren W thresholds oder eben Aepfel gegen Birnen Vergleiche.

Vergleichbare Formfaktoren sind bei K1 vs. Haswell allerdings kaum gegeben, darum muss man sehr aufpassen, was man da vergleicht. Es ist keine Kunst, wenn ein 13" Ultrabook mit einem Verbrauch von 15/30 Watt (Chip/Gesamtverbrauch) auf 60 fps im GLB 2.7 kommt. Selbst wenn wir mal annehmen, dass das 7" Referenztablet mit heißester Nadel gestrickt ist und nicht mehr als einen Benchmarkrun ohne Überhitzung schafft, wird der Verbrauch des SoCs kaum die Hälfte betragen.


Ja natuerlich und ich wurde ja auch damals als "absurd" abgestempelt als ich sagte dass Shield nur gebaut wurde um in benchmarks gut auszusehen. Es wurde ja auch bei T4 kein TDP angegeben bei dem Leistungsversprechen ergo war es auch nicht gelogen...

T4 wurde ursprünglich mit 97 GFLOPS angegeben, und wie du schon richtig erkannt hast, ohne Angabe von Leistungsaufnahme und/oder dem Gerät, in dem diese Leistung erreicht wird. Die Decks von damals, ich habe sie gerade noch einmal angesehen, sprachen nur von einer Referenz Plattform, nicht von Smartphone oder Tablet Und, was ist letztlich passiert? Erreicht wurden die 97 GFLOPS, aber eben nur aktiv gekühlt in Shield. Das widerspricht keiner zuvor gemachten Angabe.

Bei K1 gibt es ganz andere Randbedingungen, die im letzten Jahr nicht existierten. Z.B. die schöne Folie, laut der der A7 im iPhone 5S im GLB 3.0 ~2,6 Watt braucht, K1 bei gleicher Performance 1,75 Watt (S800 bei schlechterer Performance ~2,2 Watt, K1 dann gut 1,5 Watt). Oder das die 60 fps im GLBench 2.7 mit einem passiv gekühlten 7" Tablet erzielt wurden, was die Leistungsaufnahme automatisch auf ein gewisses Maß begrenzt.

Och Intel koennte locker ein Haswell auf 2.0 GHz turbo max veroeffentlichen, einen SDP von 7W angeben und sie locker in hybride tablet/ultrabooks mit windows verschleussen. Das ist der einzige Punkt hier.

Sonst ist die K1 GPU nur effizienter als HD5k in meinem Buch wenn sich bei exakt gleichem Stromverbrauch verglichen werden

Es gibt zwei korrekte Wege für einen Effizienzvergleich: Vergleich der Leistungsaufnahme bei gleicher Performance oder Vergleich der Performance bei gleicher Leistungsaufnahme. Übrigens genau das, was NV in den K1 Präsentationen gemacht hat.

Bzgl. Haswell muss ich dich glaube mal auf den Boden der Tatsachen zurückholen. Extra für dich einmal untersucht, Haswell ULV + GT2:

5 Watt TDP-Begrenzung -> 13 fps (GLB 2.7 off)

http://abload.de/thumb/5wohuqh.png (http://abload.de/image.php?img=5wohuqh.png)

7 Watt TDP-Begrenzung -> 20 fps (GLB 2.7 off)

http://abload.de/thumb/7w54ung.png (http://abload.de/image.php?img=7w54ung.png)

9 Watt TDP-Begrenzung -> 33 fps (GLB 2.7 off)

http://abload.de/thumb/9wwdu46.png (http://abload.de/image.php?img=9wwdu46.png)

Darüber hinaus wird es etwas kompliziert, weil die Taktraten und TDP-Vorgaben nicht mehr exakt eingehalten werden. Meine vorherige Angabe von 10 Watt für 50 fps muss ich allerdings dennoch auf ~11-12 Watt nach oben korrigieren, mea culpa. Die fps-Werte musst du mir bitte glauben, die konnte ich nicht mit auf den Screenshot pressen.

Und jetzt sag mir bitte, wo das irgendwo in Konkurrenz zu Tegra K1 stehen soll. Haswell ist unter 10 Watt schlicht außerhalb seines optimalen Arbeitspunktes und verliert damit extrem an Performance, wenn man ihn z.B. auf 5 Watt drücken will. Bei 5 Watt dürfte K1 in diesem GPU-lastigen Szenario mindestens die dreifache Perf/Watt aufweisen.

Skysnake
2014-01-19, 11:42:38
Mal was zum auf der Zunge zergehen lassen

http://www.heise.de/newsticker/meldung/Intel-will-2014-fuenf-Prozent-seiner-Stellen-streichen-2088578.html

Der relevante Teil:

Stattdessen hofft man bei Intel, den Absatz von Tablets von 10 Millionen Stück 2013 in diesem Jahr vervierfachen zu können. Um mit den Preisen der Konkurrenz mithalten zu können, will Intel den Einbau seiner Mobil-Chips bei den Tablet- und Smartphone-Herstellern subventionieren und einen Teil der Entwicklungs- und Herstellungskosten übernehmen. Dadurch soll Intels Gewinnspanne 2014 um 1,5 Prozent schmelzen.

Ich hoffe es ist jett klar, was das bedeutet... Mich wundert es eher, dass die Wettbewerbshüter das wirklich alles so durchgehen lassen, was Intel da in letzter Zeit macht... Das nimmt nämlich alles überhand so langsam...

Und jetzt nochmal die Frage, wie will nVidia seinen Markt ausbauen bei den Tablets und auch ansonsten, wenn ne Firma wie Intel derart in nen Markt drückt, auf dem man selbst erst den Fuß auf den Boden bekommen will...

Und wir fangen lieber erst gar nicht damit an, wie nVidia mit Tegra so am Ende sogar noch Gewinne machen soll.

Undertaker
2014-01-19, 11:53:26
Da bleibt nur noch eines, nämlich schnellstmöglich K1 in den Markt zu bringen, der ggü. Bay Trail zumindest die viel schnellere GPU ins Feld werfen und damit Mehrpreise rechtfertigen kann. Noch problematischer sehe ich die Situation für Chips in direkter Konkurrenz zu Bay Trail – Tegra 4, S4 Pro/S600, Mediateks 8-Kerner, ...

Da hat Nvidia eigentlich noch Glück, eine High-End-Strategie zu fahren. Zumindest solange wie Intels GPUs noch nicht voll konkurrenzfähig sind.

Ailuros
2014-01-19, 14:13:47
- Deine Überlegungen sind sicher richtig, aber die nur rund 100mm^2 stehen erstmal im Raum.
Also irgendwie hat NV die fette DX11 GPU und alles andere in den kleinen Die gepresst ohne einen totalen Hitzkopf zubauen.
Und ja an über 900mhz in Handys glaube ich auch nicht, aber so 670Mhz, da hätte man immernoch 40fps, wenn der Lenovos 4K AIO-TFT mit seinen 804Mhz denn den richtigen GPU Takt ausgegeben hat.
Die 804MHz waren wohl nicht GPU Takt. ist aber auch egal. der AIO hat wohl passive Kühlung muss sich aber nicht auf tablet oder Smartphone TDP begrenzen.

- Die 40% für QCOMs 420 GPU kommen von QCOM selber und sind ein "bis zu" Spitzenwert.
Der Bezugspunkt ist dabei sicherlich ihre jeweilige Referenzplattform.
40% bei gleichem Takt.

- G6630 wird ausgehend von den iPhone 5S und seinen 26,7fps, bei 50% mehr Cluster im G6630 bei 40fps landen und bräuchte nochmal 25% bzw. 50% mehr Takt um auf 50fps bzw 60fps zukommen, wenn alles optimal skaliert.
Nur wie gesagt ich glaub nicht, dass 20nm soviel her gibt ggü. 28nm, weil 50% mehr Cluster auch entsprechend viel saugen, die Technik bleibt ja gleich, und dann nochmal mehr Takt drauf ... ne.
Wenn gleich man in dem Punkt sicherlich auch Samsung vs. TSMCs vergleichen müsste.
Es steckt ein 6430 im A7. Sonst bringt es nichts auf dem Zeug zu bestehen aber vielleicht solltest Du und Undertaker mal etwas mehr in die Apple relevante Gerüchteküche rein lesen, dann fällt vielleicht endlich der Groschen wieso NV so "über entwickelt" hat.

Sonst Lesematerial:

http://withimagination.imgtec.com/index.php/powervr/new-powervr-series6xt-gpus-go-rogue-ces-2014

Given that the Series6XT designs have already been delivered to customers, we might see them in actual devices sooner than the usual design cycle of 1 1/2 - 2 years (but that obviously can depend on how things evolve from the market's point of view).

Wann es ausgeliefert wurde sagt PR natuerlich nicht; aber dass Apple fuer so etwas Prioritaet haben koennte halte ich schon fast fuer selbstverstaendlich. Der G6430 im A7 wurde im Juni 2012 offiziell angekuendigt.

Undertaker,
Antwort kommt später weil es zu umständlich ist auf 6" display. Eine Antwort auf meinen T4 vs T5 Vergleich will ich trotzdem bitte.

Da bleibt nur noch eines, nämlich schnellstmöglich K1 in den Markt zu bringen, der ggü. Bay Trail zumindest die viel schnellere GPU ins Feld werfen und damit Mehrpreise rechtfertigen kann. Noch problematischer sehe ich die Situation für Chips in direkter Konkurrenz zu Bay Trail – Tegra 4, S4 Pro/S600, Mediateks 8-Kerner, ...


Bei $99-199 tablets mit K1 konkurrieren zu wollen wird ein sehr teurer Spass für K1. Du hast Dir auch meinen Toshiba link vor Seiten über den Kopf fahren lassen. Geh nochmal zurück und schau nach was sie für 99, 299 &was sie für 600 verkaufen. Das breite Publikum ist cost sensitive.
Warum fragst Du NV nicht direkt an in welche alternative Märkte sie einsteigen wollen. Wenn es verneint werden sollte dann versteckt sich jemand hinterm Finger.
Ja sie werden um einiges besser verkaufen als mit T4, aber das Blatt hat sich schon gewendet.
Da hat Nvidia eigentlich noch Glück, eine High-End-Strategie zu fahren. Zumindest solange wie Intels GPUs noch nicht voll konkurrenzfähig sind.

Wie wäre es wenn wir wirklich Geräte mit K1 abwarten damit wir zumindest den wahren GPU Verbrauch einschätzen können? NV sagt selber 2W Durchschnitt fuer die GPU in populären mobile Spiele die sie gespielt haben. Wieso das jetzt marketing-technisch besser sein soll als Intel's 2W SDP für Baytrail insgesamt muss mir jemand erklären....noch besser da Baytrail 15-19fps (je nach Geraet) in GLB2.7 leistet....

Windi
2014-01-19, 14:24:36
Eine Antwort auf meinen T4 vs T5 Vergleich will ich trotzdem bitte.

Also wenn beide im gleichen Herstellungsprozess gefertigt werden, dann wirken die Zahlen für den Tegra 5 nicht gerade vertrauenswürdig.
Das würde ja bedeuten, das der Tegra 4 eine total ineffiziente Katastrophe ist und bei der Entwicklung vom Tegra 5 unvorstellbare Wunder vollbracht wurden.

Da muss man erst einmal unabhängige Tests abwarten.
Momentan glaube ich den Herstellerangaben nicht mehr.

Mancko
2014-01-19, 14:37:18
Da bleibt nur noch eines, nämlich schnellstmöglich K1 in den Markt zu bringen, der ggü. Bay Trail zumindest die viel schnellere GPU ins Feld werfen und damit Mehrpreise rechtfertigen kann. Noch problematischer sehe ich die Situation für Chips in direkter Konkurrenz zu Bay Trail – Tegra 4, S4 Pro/S600, Mediateks 8-Kerner, ...

Da hat Nvidia eigentlich noch Glück, eine High-End-Strategie zu fahren. Zumindest solange wie Intels GPUs noch nicht voll konkurrenzfähig sind.

Ich bin gespannt wie die Situation in 3 Jahren aussieht, wenn das Patentaustauschabkommen zwischen Intel und Nvidia ausläuft. Sollte der Markt sich bis dahin signifikant in Richtung GPU verändert haben, hoffe ich das Nvidia Intel ordentlich auflaufen lässt.

In Bezug auf den Wettbewerb fände ich es gut, wenn x86 im mobile Segment außerhalb des PCs bitte möglichst außen vor bleibt. Die Kunden und OEMs sollen bitte alle nach Möglichkeit Android, Windows RT und andere auf ARM Technologie zugeschnittene Dinge unterstützen. Je schneller x86 beerdigt wird umso besser für den Kunden.
Eine andere für den Kunden sehr nette Geschichte wäre natürlich Intel zu zwingen x86 nach dem FRAND Prinzip zu lizensieren. Dann können die sich endlich ihrem Umbau zu einer Foundry widmen :) und alle anderen bauen zusätzlich zu ARM CPUs noch ein paar nette x86 CPUs.

Hübie
2014-01-19, 14:48:57
Was ist FRAND? :frown:
nVidia probiert doch sowieso gerade ein Lizenzmodell für deren GPUs zu etablieren also wo wäre jetzt die Schwierigkeit für Intel? :|

AffenJack
2014-01-19, 15:26:18
Was ich mich gerade in Bezug auf x86 frage ist, wie kann Intel die Verwendung davon eigentlich noch beeinflussen? Patente haben doch 20 Jahre Laufzeit, also wäre x86 da nicht mehr geschützt oder wie ist das da geregelt? Eigentlich sollte doch dann jeder ne x86 Cpu bauen dürfen. Das Problem wäre eher x64, weil das noch bis 2020 geschützt ist, sowie SSE.

@Hübie
FRAND sind grundlegende Patente die zu vertretbaren Lizenzgebühren freigegeben werden müssen. So in der Art irgendwie.

Ailuros
2014-01-19, 16:25:51
Also wenn beide im gleichen Herstellungsprozess gefertigt werden, dann wirken die Zahlen für den Tegra 5 nicht gerade vertrauenswürdig.
Das würde ja bedeuten, das der Tegra 4 eine total ineffiziente Katastrophe ist und bei der Entwicklung vom Tegra 5 unvorstellbare Wunder vollbracht wurden.

Darum geht es doch gar nicht; es geht eher darum dass sich mit fast allem NV systematisch selber wiederspricht. Ich kann sie auch verstehen denn erstens bescheissen Samsung und QCOM systematisch mit den maximalen Temperaturen fuer benchmarks wofuer sie bis jetzt gar nichts angestellt haben und zweitens wird wohl Apple ihre tablets weiter wachsen lassen.

Ich kann wirklich nichts dafuer wenn viele nicht das ganze Bild auf einmal erwischen koennen, aber ich trample auch hier zwischen vertraulichen Fetzen die ich links und rechts bekomme (und auch richtig interpretieren muss) und dem was ich sehen kann. Natuerlich kann ich total falsch liegen, aber bis jetzt hatte ich in der Mehrzahl der Faelle fuer den Markt eher Glueck als Pech.

Da muss man erst einmal unabhängige Tests abwarten.
Momentan glaube ich den Herstellerangaben nicht mehr.

Welche Herstellerangablen? Es sind nur NV's eigene Behauptungen; unabhaengige Indizien bzw. Beweise gibt es noch nicht.

Vergleichbare Formfaktoren sind bei K1 vs. Haswell allerdings kaum gegeben, darum muss man sehr aufpassen, was man da vergleicht. Es ist keine Kunst, wenn ein 13" Ultrabook mit einem Verbrauch von 15/30 Watt (Chip/Gesamtverbrauch) auf 60 fps im GLB 2.7 kommt. Selbst wenn wir mal annehmen, dass das 7" Referenztablet mit heißester Nadel gestrickt ist und nicht mehr als einen Benchmarkrun ohne Überhitzung schafft, wird der Verbrauch des SoCs kaum die Hälfte betragen.

....und jetzt huepf mal ein paar Posts zurueck und erzaehl mir was fruitco vielleicht fuer diesen Herbst planen koennte. Reicht ein link fuer das iPad PRO 13" Geruecht oder soll ich sie alle aufsuchen? Sonst bleib mal schoen im bis zu 15W TDP Bereich; mehr hab ich nirgends behauptet.

T4 wurde ursprünglich mit 97 GFLOPS angegeben, und wie du schon richtig erkannt hast, ohne Angabe von Leistungsaufnahme und/oder dem Gerät, in dem diese Leistung erreicht wird. Die Decks von damals, ich habe sie gerade noch einmal angesehen, sprachen nur von einer Referenz Plattform, nicht von Smartphone oder Tablet Und, was ist letztlich passiert? Erreicht wurden die 97 GFLOPS, aber eben nur aktiv gekühlt in Shield. Das widerspricht keiner zuvor gemachten Angabe.

Nein es geht nicht darum nochmal. Es geht darum das erstens der groesste Anteil der perf/mm2 bzw. GFLOP/mm2 verdreht, gelogen und uebertrieben waren; so stark dass ich am Anfang Lachkraempfe bekam. Wenn sie so bei perf per die area bescheissen soll ich ihnen jetzt WIESO genau trauen fuer perf/W. Weil sie bis jetzt ehrlich waren?

Der zweite Teil direkt danach ist dass Du unter anderen irgend etwas "besonderes" unter 4+1 erwartet hast und aSMP fuer Krait cores wohl nicht die bessere Loesung fuer perf/mW usw. Du hast es selber in diesem gleichen thread eingestanden dass T4 doch ein Verbrauchs-Problem hat obwohl wir wieder unendliche Seiten darueber verschwendeten.....Nein es stand nichts bezueglich perf/mW im T4 Material drin aber ich warte wohl immer noch auf eine anstaendige Erklaerung wie es moeglich ist dass T5 trotz vergleichbarem CPU Stromverbrauch mit T4 und einer brutal groesseren GPU bei ueber 40% zusaetzlicher Frequenz auf gleichem Prozess mit nur 25% mehr die area als T4 es schafft sogar weniger Strom als dieser zu verbrauchen. Nein es ist mehr? War es nicht noch vor ein paar Posts dass T4 zu viel verbrauchte?

Bei K1 gibt es ganz andere Randbedingungen, die im letzten Jahr nicht existierten. Z.B. die schöne Folie, laut der der A7 im iPhone 5S im GLB 3.0 ~2,6 Watt braucht, K1 bei gleicher Performance 1,75 Watt (S800 bei schlechterer Performance ~2,2 Watt, K1 dann gut 1,5 Watt). Oder das die 60 fps im GLBench 2.7 mit einem passiv gekühlten 7" Tablet erzielt wurden, was die Leistungsaufnahme automatisch auf ein gewisses Maß begrenzt.

Leg Dein Hand ins Feuer das alles daran stimmt....und ja ueberzeug mich dass die Vorbehalte nicht gerechtfertigt ist. :rolleyes:


Es gibt zwei korrekte Wege für einen Effizienzvergleich: Vergleich der Leistungsaufnahme bei gleicher Performance oder Vergleich der Performance bei gleicher Leistungsaufnahme. Übrigens genau das, was NV in den K1 Präsentationen gemacht hat.

Dumme Frage: ich nehme jetzt mal die unschuldige These...wie sicher bist Du Dir genau dass das was NV als GPU rail auf konkurrierendem Geraet X erwischt hat wirklich nur die GPU daran haengt? Ja, nein, vielleicht, ich weiss die Sterne.....nochmal ein iPhone5S hat eine <1600mAh Batterie. Wenn sie wirklich soooo viel verdonnern wuerde dann wuerde es ziemlich duester aussehen bei so einer mickrigen Batterie.

Bzgl. Haswell muss ich dich glaube mal auf den Boden der Tatsachen zurückholen. Extra für dich einmal untersucht, Haswell ULV + GT2:

...............................

Darüber hinaus wird es etwas kompliziert, weil die Taktraten und TDP-Vorgaben nicht mehr exakt eingehalten werden. Meine vorherige Angabe von 10 Watt für 50 fps muss ich allerdings dennoch auf ~11-12 Watt nach oben korrigieren, mea culpa. Die fps-Werte musst du mir bitte glauben, die konnte ich nicht mit auf den Screenshot pressen.

Den Link den ich Dir gegeben habe fuer Harris beach war bei 42.5 fps in GLB2.7 welches sehr wohl noch im </=10W TDP Bereich liegt, ergo treib mich bitte nicht ausser context. Ich sagte klipp und klar maximal 2.0GHz turbo fuer die CPU.

Und jetzt sag mir bitte, wo das irgendwo in Konkurrenz zu Tegra K1 stehen soll. Haswell ist unter 10 Watt schlicht außerhalb seines optimalen Arbeitspunktes und verliert damit extrem an Performance, wenn man ihn z.B. auf 5 Watt drücken will. Bei 5 Watt dürfte K1 in diesem GPU-lastigen Szenario mindestens die dreifache Perf/Watt aufweisen.

Und wo sind jetzt Deine relevanten GK20A bzw. K1 Daten damit ich es vergleichen kann? Spar Dir die Muehe; es ist genau das gleiche pertetuum mobile bis zum Zeitpunkt wo die ersten Geraete erscheinen werden.

fondness
2014-01-19, 16:35:22
Ich habe gerade ein Déjà-vu. Wie nach jeder Tegra Vorstellung hat NV tolle Folien die die angebliche Überlegenheit der eigenen Produkte darstellen. Und wie jedes mal springen ein paar Leute darauf an. Nur seltsamerweise bleibt von dieser angeblichen Überlegenheit am Ende bis jetzt immer nichts über. K1 ist wenig spektakulär - ein Kepler CU und 4 x A15 von ARM. Wo da jetzt plötzlich der große Fortschritt her kommen soll was die Leistungsaufnahme betrifft erschließt sich mir nicht, ganz im Gegenteil, die deutlich leistungsfähigere GPU gibt es bestimmt nicht umsonst was den Stromverbrauch betrifft. Ich lasse mich gerne positiv überraschen, aber am Ende wird das Ding im mobilen Bereich wohl wieder viel zu stark drosseln müssen um seine TDP einzuhalten und deshalb wieder nur bei größeren Geräten oder Geräten mit aktiver Kühlung interessant werden. Die reine Performance ist in diesem Markt vollkommen wertlos ohne den Stromverbrauch, sonst kann man da auch gleich mit einem Haswell vergleichen.

Undertaker
2014-01-19, 18:26:51
Bei $99-199 tablets mit K1 konkurrieren zu wollen wird ein sehr teurer Spass für K1. Du hast Dir auch meinen Toshiba link vor Seiten über den Kopf fahren lassen. Geh nochmal zurück und schau nach was sie für 99, 299 &was sie für 600 verkaufen. Das breite Publikum ist cost sensitive.

Schau mal zurück was ich geschrieben habe. ;) K1 darf teurer als Bay Trail sein, da letzter bzgl. GPU-Leistung nur auf T4 Level spielt.

Wie wäre es wenn wir wirklich Geräte mit K1 abwarten damit wir zumindest den wahren GPU Verbrauch einschätzen können? NV sagt selber 2W Durchschnitt fuer die GPU in populären mobile Spiele die sie gespielt haben. Wieso das jetzt marketing-technisch besser sein soll als Intel's 2W SDP für Baytrail insgesamt muss mir jemand erklären....noch besser da Baytrail 15-19fps (je nach Geraet) in GLB2.7 leistet....

Ich versteh nicht so ganz, wieso du immer Bay Trail mit K1 vergleichen willst. Selbst wenn K1 in Serientablets nicht bei 60 fps, sondern aus Verbrauchsgründen nur bei 50 fps landet, ist das noch immer die dreifache(!) GPU-Leistung. Du vergleichst doch auch keinen MT8125 mit einem S800 und reitest dann darauf herum, dass der S800 teurer ist?

Respekt hätte ich vor der nächsten Atom-Generation mit 16 EUs. Die könnte zusammen mit der 14nm-Fertigung so ziemlich alles plattwalzen. Bay Trail ist dagegen GPU-seitig nichts besonderes, selbst gegenüber aktuell verfügbaren ARM-Konkurrenten.

Nein es stand nichts bezueglich perf/mW im T4 Material drin aber ich warte wohl immer noch auf eine anstaendige Erklaerung wie es moeglich ist dass T5 trotz vergleichbarem CPU Stromverbrauch mit T4 und einer brutal groesseren GPU bei ueber 40% zusaetzlicher Frequenz auf gleichem Prozess mit nur 25% mehr die area als T4 es schafft sogar weniger Strom als dieser zu verbrauchen.

CPU: Gleicher Verbrauch bei gestiegener Performance bedeutet bessere Effizienz bedeutet weniger Verbrauch bei gleichem Workload. Aber die CPU ist nicht der eigentliche Knackpunkt, die zentrale Verbesserung bei K1 ist nun einmal die GPU. Die hat mit dem Vorgänger bekanntermaßen nichts mehr gemein, sodass ein technologischer Direktvergleich wohl wenig zielführend ist. Wie viele Generationssprünge sehen wir hier doch gleich auf einmal? Verwundert es da wirklich, dass die Effizienz einen überdurchschnittlich großen Sprung machen dürfte, (ohne dass wir diesen jetzt konkret beziffern wollen)?

Um das übrigens noch zu ergänzen: Am Maximalverbrauch wird sich sehr wahrscheinlich nicht viel ändern. Den gibt nun einmal der Formfaktor vor, sodass auch konkurrierende High-End Modelle alle auf einem ähnlichen Level landen. Deswegen betone ich ja auch immer wieder, wie wichtig die Angabe Nvidias ist, dass die 60 fps im GLB 2.7 auf einem 7"-Tablet erreicht worden sein sollen – genau das gibt der fps-Zahl ja erst eine grobe Aussagekraft.


Den Link den ich Dir gegeben habe fuer Harris beach war bei 42.5 fps in GLB2.7 welches sehr wohl noch im </=10W TDP Bereich liegt, ergo treib mich bitte nicht ausser context. Ich sagte klipp und klar maximal 2.0GHz turbo fuer die CPU.

Die Harris Beach Hardware ist bekannt, da steckt eine 15 Watt CPU mit Lüfter drin. Meinetwegen liegt der Momentanverbrauch bei 42,5 fps im GLB 2.7 bei rund 10 Watt (CPU-Takt ist hier eh irrelevant, der krebst bei GPU-Last vielleicht um 1 GHz herum). Nun frage ich dich aber: Wieviel soll K1 denn im 7"-Referenztablet verbraucht haben, um auf 60 fps zu kommen? 15 Watt? Die sind im gegebenen Formfaktor und mit passiver Kühlung selbst für einen Benchmarkrun nicht abführbar. Realistisch betrachtet sind mehr als ~7-8 Watt auch kurzzeitig nicht drin, etwa in dem Bereich dürfte auch Tegra 4 gelegen haben. Dauerhaft abführbar sind in einem 7" Tablet maximal 4-5 Watt SoC-Verbrauch. Sollte ein K1-Serientablet also nur bei den 42,5 fps von Harris Beach landen (ich würde eher 45- 50 fps erwarten, aber das ist eine persönliche Spekulation), hätten wir die GPU-Leistung dieses Haswell ULV bei weniger als dem halben Verbrauch. Ich kann aber nur nochmal betonen, dass dieser Vergleich für Haswell von vornherein nicht zu gewinnen ist, da wir uns hier unter jedem sinnvollen Arbeitspunkt bewegen.


Und wo sind jetzt Deine relevanten GK20A bzw. K1 Daten damit ich es vergleichen kann? Spar Dir die Muehe; es ist genau das gleiche pertetuum mobile bis zum Zeitpunkt wo die ersten Geraete erscheinen werden.

Die Haswell-Daten findest du schon einmal auf der letzten Seite - 13 fps im GLB 2.7 für einen 5 Watt Haswell, was das Maximum wäre, was du theoretisch in ein 7"-Tablet pflanzen könntest. ;) Da schafft selbst Tegra 4 bei gleichem Formfaktor und Verbrauch mehr (Tegra Note 7 laut Anandtech: 20 fps). Sofern du K1 von der GPU-Effizenz nicht unter T4 einordnest, ist der qualitative Vergleich bei einem 5W-Arbeitspunkt schon mehr als eindeutig.

Reicht ein link fuer das iPad PRO 13" Geruecht oder soll ich sie alle aufsuchen? Sonst bleib mal schoen im bis zu 15W TDP Bereich; mehr hab ich nirgends behauptet.

Sofern das Ding keinen Lüfter bekommt: Unmöglich. Passive 13"-Tablets mit Haswell riegeln bei ~7 Watt Chipverbrauch ab, die Physik ist auch bei Apple nicht anders. Deine 15 Watt sind für ein paar Sekunden Boost, aber nicht einmal annähernd als dauerhafte TDP drin.


Dumme Frage: ich nehme jetzt mal die unschuldige These...wie sicher bist Du Dir genau dass das was NV als GPU rail auf konkurrierendem Geraet X erwischt hat wirklich nur die GPU daran haengt? Ja, nein, vielleicht, ich weiss die Sterne.....nochmal ein iPhone5S hat eine <1600mAh Batterie. Wenn sie wirklich soooo viel verdonnern wuerde dann wuerde es ziemlich duester aussehen bei so einer mickrigen Batterie.

"Falschmessungen" wären ziemlich starker Tobak, daran will ich erstmal nicht glauben. Aber zum iPhone 5S: Unter Volllast ist der Akku nach 2-3h leer, obwohl der A7 ebenfalls nach einiger Zeit kräftig(!) drosselt – siehe Anandtech. Der Lastverbrauch des A7 ist mächtiger, als vielleicht mancher glauben mag. In Relation zur Leistung und zur Konkurrenz ist der A7 natürlich dennoch extrem effizient, da widerspreche ich nicht.

Ailuros
2014-01-19, 19:21:06
Schau mal zurück was ich geschrieben habe. ;) K1 darf teurer als Bay Trail sein, da letzter bzgl. GPU-Leistung nur auf T4 Level spielt.

Im $600 Toshiba Geraet steckt ein T4. Und ja natuerlich spielt BT auf T4 GPU Leistung.

Ich versteh nicht so ganz, wieso du immer Bay Trail mit K1 vergleichen willst. Selbst wenn K1 in Serientablets nicht bei 60 fps, sondern aus Verbrauchsgründen nur bei 50 fps landet, ist das noch immer die dreifache(!) GPU-Leistung.

Dann lies den Paragraph so lange durch bis er sitzt. Es geht um den Stromverbrauch.

NVIDIA behauptet SELBER im K1 whitepaper dass GK20A im Durschnitt 2W vergleicht in einer Reihe populaeren mobilen Spielen die sie getestet haben. Demzufolge und nochmal fettgedruckt der exakt gleiche Satz: Wieso das jetzt marketing-technisch besser sein soll als Intel's 2W SDP für Baytrail insgesamt muss mir jemand erklären....

2W SDP fuer den gesamten SoC ist marketingtechnisch genauso idiotisch wie durchschnittlichen 2W Verbrauch fuer GK20A zu behaupten. Steht irgendwo im besagten whitepaper welche mobile Spiele benutzt wurden, welche settings oder sonst was noch? Kurz es ist eine wertlose Aussage und die GPU VERBRAUCHT OFFENSICHTLICH UM EINIGES MEHR ALS NUR 2W.

...und jetzt zum zweiten Teil des Satzes der Dich wohl verwirrt:

...noch besser da Baytrail 15-19fps (je nach Geraet) in GLB2.7 leistet....

Wenn GK20A tatsaechlich 900mW in GLB2.7 fuer 17 fps braucht ist es durchaus relevant.

Du vergleichst doch auch keinen MT8125 mit einem S800 und reitest dann darauf herum, dass der S800 teurer ist?

Ich hab den Anstand DX11 gegen DX11 GPUs hier zu vergleichen.

CPU: Gleicher Verbrauch bei gestiegener Performance bedeutet bessere Effizienz bedeutet weniger Verbrauch bei gleichem Workload.

....oder wo sie genau in jeglichem Geraet throtteln muss :P


Aber die CPU ist nicht der eigentliche Knackpunkt, die zentrale Verbesserung bei K1 ist nun einmal die GPU. Die hat mit dem Vorgänger bekanntermaßen nichts mehr gemein, sodass ein technologischer Direktvergleich wohl wenig zielführend ist. Wie viele Generationssprünge sehen wir hier doch gleich auf einmal? Verwundert es da wirklich, dass die Effizienz einen überdurchschnittlich großen Sprung machen dürfte, (ohne dass wir diesen jetzt konkret beziffern wollen)?

Ich glaub weder an Maerchen noch an Zauberstaebe; irgendwo ist immer ein Haken selbst bei PowerVR Rogue welches ich auch woanders ausfuehrlich zu erklaeren versuchte.

Um das übrigens noch zu ergänzen: Am Maximalverbrauch wird sich sehr wahrscheinlich nicht viel ändern. Den gibt nun einmal der Formfaktor vor, sodass auch konkurrierende High-End Modelle alle auf einem ähnlichen Level landen. Deswegen betone ich ja auch immer wieder, wie wichtig die Angabe Nvidias ist, dass die 60 fps im GLB 2.7 auf einem 7"-Tablet erreicht worden sein sollen – genau das gibt der fps-Zahl ja erst eine grobe Aussagekraft.

Tut mir leid aber mir ist der letzte Dreck wichtiger als NV's Marketing-Firlefanz. Und es hat fondness oben leider recht: im ULP SoC Markt zaehlt hauptsaechlich perf/mW und nicht steril nur die Leistung. Noch genauer PPA = power, performance, area; in genau der Reihenfolge.

Die Harris Beach Hardware ist bekannt, da steckt eine 15 Watt CPU mit Lüfter drin. Meinetwegen liegt der Momentanverbrauch bei 42,5 fps im GLB 2.7 bei rund 10 Watt (CPU-Takt ist hier eh irrelevant, der krebst bei GPU-Last vielleicht um 1 GHz herum). Nun frage ich dich aber: Wieviel soll K1 denn im 7"-Referenztablet verbraucht haben, um auf 60 fps zu kommen? 15 Watt? Die sind im gegebenen Formfaktor und mit passiver Kühlung selbst für einen Benchmarkrun nicht abführbar. Realistisch betrachtet sind mehr als ~7-8 Watt auch kurzzeitig nicht drin, etwa in dem Bereich dürfte auch Tegra 4 gelegen haben. Dauerhaft abführbar sind in einem 7" Tablet maximal 4-5 Watt SoC-Verbrauch.

Lass doch erstmal die ersten Geraete erscheinen bevor Du mir solche Fragen stellst. Ich muss erstmal ueberzeugt werden dass K1 tatsaechlich zumindest so viel wie T4 verbraucht was mir immer noch nicht sitzen will (ausser man spielt mit dem Ding nur angry birds) und schon gar nicht wenn es zu annaehernd DX11 Material kommt, die 60 fps in GLB2.7 erstmal sehen und dann erst reden wir weiter. Intel wird gegen T1 auf die eine oder andere Art reagieren und wenn sie weiterhin Baytrail bzw. ULP Haswells fast umsonst loswerden, sieht es fuer K1 eher grau aus fuer windows tablets/hybride wasauchimmer weil die letzten eben spotbillig sein werden. K1 muss sich hier behaupten koennen (ja sogar gegen ULP Haswells mit reduziertem TDP) gegen jeglichem moeglichen tablet SoC von AMD und zu guter letzt zu groesseren tablets auch womoeglich von Apple.

Eben weil selbst Tegra4 bei einem =/>7W TDP gelegen ist rangiert die eigentliche GPU Leistung von diesem in tablets in der Kishonti Datenbank von 14 bis zu 20 fps im Vergleich zu dem "peak" Wert im Shield, wobei der durchschnittliche Wert bei 17 fps liegt welches "nur" ca. 30% weniger Leistung entspricht. Waermt man jetzt jeder dieser anstaendig auf mit etwas wie z.B. 20 benchmark Durchlaeufe welches wohl eher einem Echtzeit Spiel gleicht, faellt der Durschnitt garantiert noch ein bisschen weiter nach unten. Wenn Du schon mit Haswell herumexperimentierst probier es mal aus; obwohl die Dinger nicht viel throtteln, wenn man es richtig aufwaermt geht schon ein 10-15% die Hose runter dank throttling.

Am Ende des Tages hat dieses endlose hin und her keinen Sinn; wenn die Verkaufszahlen dann wieder nicht dem 8. Weltwunder entsprechen wird es bestimmt wieder irgend eine interessante Ausrede geben. Auf jeden Fall wissen wir eins nach der CES show:

1. JHH hat einen Automobil-fetisch.
2. JHH hat einen Automobil-fetisch.
3. JHH hat einen Automobil-fetisch.
4. JHH hat einen Automobil-fetisch.
5. JHH hat einen Automobil-fetisch.
6. JHH hat einen Automobil-fetisch.
7. JHH hat einen Automobil-fetisch.
8. JHH hat einen Automobil-fetisch.
9. JHH hat einen Automobil-fetisch.
10. JHH hat einen Automobil-fetisch. :P

-/\-CruNcher-/\-
2014-01-19, 19:25:16
Ich bin gespannt wie die Situation in 3 Jahren aussieht, wenn das Patentaustauschabkommen zwischen Intel und Nvidia ausläuft. Sollte der Markt sich bis dahin signifikant in Richtung GPU verändert haben, hoffe ich das Nvidia Intel ordentlich auflaufen lässt.

In Bezug auf den Wettbewerb fände ich es gut, wenn x86 im mobile Segment außerhalb des PCs bitte möglichst außen vor bleibt. Die Kunden und OEMs sollen bitte alle nach Möglichkeit Android, Windows RT und andere auf ARM Technologie zugeschnittene Dinge unterstützen. Je schneller x86 beerdigt wird umso besser für den Kunden.
Eine andere für den Kunden sehr nette Geschichte wäre natürlich Intel zu zwingen x86 nach dem FRAND Prinzip zu lizensieren. Dann können die sich endlich ihrem Umbau zu einer Foundry widmen :) und alle anderen bauen zusätzlich zu ARM CPUs noch ein paar nette x86 CPUs.

Intel hat sich schon mit anderer IP und neuem staff eingedeckt, die haben so gesehen keine Angst vor Nvidia und wieso sollten sie auch ?.

@Undertaker
du kannst davon ausgehen das Intel ihre GPU leistung um Minimum das 2x gesteigert haben wird ende 2014 mit Cherry Trail bei den 20 fps wenn wir davon ausgehen das die unter Android erreicht werden könnten sind 3x das was sie brauchen um an K1 zu kommen das ist auch nicht ausgeschlossen das sie das schaffen :) es wird spannend nächstes jahr, genau daraufhin arbeiten sie jedenfalls den Ausflug zu Rogue müssen sie aber denoch machen weil Bay Trails GPU Core noch zu innefizient ist für Smartphones in 4/5 zoll und man Smartphones vor Nvidia präsentieren will um ihnen nochmal vorher vor den buck zu kloppen und die gunst der Manufactures weiter zu steigern zusätzlich verschenken sie ihre Hardware jetzt quasi schon, was will Nvidia hier machen ausser beten das Intel versagt ?

Richtig so richtig auf die Kacke hauen und genau das haben sie gemacht und Nvidia war auch vorausschauend bei T4 und versucht mit Direct Stylus und Prism und einigen ihrer Android Stack Implementationen einen gewissen Mehrwert zu bieten gegen den Mehrwert von Windows 8.1 gegenüber Intel ;)

Nur momentan überwiegt Intels Mehrwert deutlich die simplicity kommt sehr gut an beim Endkonsumenten der Preis überzeugt auch, was besseres kann Intel sich nicht wünschen, und jetzt staune mal dafür nehmen die leute sogar den bischen GPU performance verlust in Kauf ;)

Intel wird auch sicherlich HEVC und Co in Cherry Trail nicht so stiefmütterlich behandeln wie Nvidia das gerade mit K1 tut, die schon verlauten lassen haben "wir hatten keine Zeit mehr HEVC Nativ zu implementieren"

Hugo
2014-01-19, 19:58:16
ich seh als großes Problem für NV, dass es den K1 erst in nem halben Jahr zu kaufen gibt.
Wäre er jetzt verfügbar würde es für NV deutlich besser aussehen.

Undertaker
2014-01-19, 20:01:48
Dann lies den Paragraph so lange durch bis er sitzt. Es geht um den Stromverbrauch.

Denk selbst mal darüber nach. Wenn dir der Vergleich mit S800 und MT8125 nicht passt, nimmt halt S800 und einen SoC der Snapdragon 400 Serie. Natürlich kostet der S800 mehr, weil er schneller ist, selbst wenn die Energieeffizienz ggü. dem kleineren Modell nicht besser ist. Bay Trail ist kein direkter K1/S805/...-Gegner, dabei bleibe ich. Nebenbei bemerkt gilt es erst einmal, einen Effizienzvergleich zwischen Bay Trail und K1 abzuwarten. GPU-technisch ist Bay Trail wie erwähnt keine Offenbarung, weder bzgl. Absolutleistung noch Effizienz. CPU-seitig sieht das anders aus.


....oder wo sie genau in jeglichem Geraet throtteln muss :P

Im Throttling-Fall bedeutet bessere Effizienz dann wiederum mehr Performance, das kommt im Endeffekt auf das gleiche raus. Aber wie gesagt, auf dem CPU-Teil will ich gar nicht zu sehr herumreiten. A15r3 + 28nm HPM ist ganz nett, aber auch keine Offenbarung. Denver wird zweifellos interessanter.

Ich glaub weder an Maerchen noch an Zauberstaebe; irgendwo ist immer ein Haken selbst bei PowerVR Rogue welches ich auch woanders ausfuehrlich zu erklaeren versuchte.

Keine Einwände. Ein breiterer Rogue wird aber sicher auch die GPU-Effizienz ggü. dem A7 weiter steigern können.

im ULP SoC Markt zaehlt hauptsaechlich perf/mW und nicht steril nur die Leistung.

Auch hier musst du einen Schritt weiter denken. Im High-End ist Perf/Watt und
Absolutleistung letztlich gleichbedeutend, da wir power-limited sind.


Lass doch erstmal die ersten Geraete erscheinen bevor Du mir solche Fragen stellst. Ich muss erstmal ueberzeugt werden dass K1 tatsaechlich zumindest so viel wie T4 verbraucht was mir immer noch nicht sitzen will (ausser man spielt mit dem Ding nur angry birds) und schon gar nicht wenn es zu annaehernd DX11 Material kommt, die 60 fps in GLB2.7 erstmal sehen und dann erst reden wir weiter.

Die Frage des Verbrauches ist ziemlich einfach: Mehr als T4 geht passiv einfach nicht. Bleibt die Performance, wo ich mich oben ja schon einmal aus dem Fenster gelehnt habe und für Serientablets 45 - 50 fps prophezeie.


Wenn Du schon mit Haswell herumexperimentierst probier es mal aus; obwohl die Dinger nicht viel throtteln, wenn man es richtig aufwaermt geht schon ein 10-15% die Hose runter dank throttling.

Hier musst du schon genauer werden: Ob und wann es zu Throttling kommt hängt von der Kühlung, dem genauen CPU-Modell und den Einstellungen des Herstellers ab. Meine Haswell-Messreihe habe ich darum bewusst bei 9 Watt beendet, weil bei dem getesteten Gerät höhere Einstellungen nicht mehr konstant gehalten werden und Verbrauch, Taktrate und Performance absinken. An zwei Dingen können wir uns aber festhalten:

1. Für 7/10/13 Zoll und passive Kühlung kann man ganz grob 5/6/7 Watt als dauerhaft abführbar ansetzen.

2. Bei 5/7 Watt kommt Haswell auf rund 13/20 fps im GLB 2.7. Diese beiden fps-Werte kannst du jetzt mit der Performance eines Tablets entsprechender Größe im x-ten Benchmarkdurchlauf vergleichen und wirst sehr schnell feststellen, dass Haswell hier nicht mit der Effienz eines guten ARM-SoCs konkurrieren kann, da schlicht für höhere TDP-Bereiche konzipiert.

Auf jeden Fall wissen wir eins nach der CES show:

1. JHH hat einen Automobil-fetisch.
2. JHH hat einen Automobil-fetisch.
3. JHH hat einen Automobil-fetisch.
4. JHH hat einen Automobil-fetisch.
5. JHH hat einen Automobil-fetisch.
6. JHH hat einen Automobil-fetisch.
7. JHH hat einen Automobil-fetisch.
8. JHH hat einen Automobil-fetisch.
9. JHH hat einen Automobil-fetisch.
10. JHH hat einen Automobil-fetisch. :P

:D

Blediator16
2014-01-19, 20:15:12
ich seh als großes Problem für NV, dass es den K1 erst in nem halben Jahr zu kaufen gibt.
Wäre er jetzt verfügbar würde es für NV deutlich besser aussehen.

Dieses Problem hat nicht nur Nvidia:biggrin:

Ailuros
2014-01-19, 20:18:24
Denk selbst mal darüber nach. Wenn dir der Vergleich mit S800 und MT8125 nicht passt, nimmt halt S800 und einen SoC der Snapdragon 400 Serie. Natürlich kostet der S800 mehr, weil er schneller ist, selbst wenn die Energieeffizienz ggü. dem kleineren Modell nicht besser ist. Bay Trail ist kein direkter K1/S805/...-Gegner, dabei bleibe ich. Nebenbei bemerkt gilt es erst einmal, einen Effizienzvergleich zwischen Bay Trail und K1 abzuwarten. GPU-technisch ist Bay Trail wie erwähnt keine Offenbarung, weder bzgl. Absolutleistung noch Effizienz. CPU-seitig sieht das anders aus.

Sagst Du nein zu hw4free? Ich nicht. Sonst hat Baytrail sehr wohl potential fuer die Zukunft aber das hat jetzt nichts mit dem Thema hier zu tun.

Im Throttling-Fall bedeutet bessere Effizienz dann wiederum mehr Performance, das kommt im Endeffekt auf das gleiche raus. Aber wie gesagt, auf dem CPU-Teil will ich gar nicht zu sehr herumreiten. A15r3 + 28nm HPM ist ganz nett, aber auch keine Offenbarung. Denver wird zweifellos interessanter.

Interessanter schon aber ein total unbekanntes Tier und Gott sei Dank sind sie bei dem quasi paper launch so still geblieben wie sie es haetten bleiben sollen. 2.5GHz riecht mir aber eher nach einem moeglichen "hybriden" zwischen einem Krait und einem Cyclone.

Keine Einwände. Ein breiterer Rogue wird aber sicher auch die GPU-Effizienz ggü. dem A7 weiter steigern können.

Ich sagte schon im Stadium wo ich nichts darueber wusste dass der Wandel von multi-core auf multi-cluster nicht umsonst sein wird. 6XT hat die meisten Probleme entbehrt.

Auch hier musst du einen Schritt weiter denken. Im High-End ist Perf/Watt und
Absolutleistung letztlich gleichbedeutend, da wir power-limited sind.

Ich denke schon eine Ewigkeit mit ULP im Hinterkopf.


Hier musst du schon genauer werden: Ob und wann es zu Throttling kommt hängt von der Kühlung, dem genauen CPU-Modell und den Einstellungen des Herstellers ab. Meine Haswell-Messreihe habe ich darum bewusst bei 9 Watt beendet, weil bei dem getesteten Gerät höhere Einstellungen nicht mehr konstant gehalten werden und Verbrauch, Taktrate und Performance absinken. An zwei Dingen können wir uns aber festhalten:

1. Für 7/10/13 Zoll und passive Kühlung kann man ganz grob 5/6/7 Watt als dauerhaft abführbar ansetzen.

2. Bei 5/7 Watt kommt Haswell auf rund 13/20 fps im GLB 2.7. Diese beiden fps-Werte kannst du jetzt mit der Performance eines Tablets entsprechender Größe im x-ten Benchmarkdurchlauf vergleichen und wirst sehr schnell feststellen, dass Haswell hier nicht mit der Effienz eines guten ARM-SoCs konkurrieren kann, da schlicht für höhere TDP-Bereiche konzipiert.

:D

Was ist im gegebenen Fall ein ARM SoC genau? Krait bzw. Cyclone oder irgendwelcher A15 config?

Sonst ist es nicht schwer ein Geraet vor benchmarks "aufzuwaermen". Machen sie ja fuer standalone GPUs auch schon.

-/\-CruNcher-/\-
2014-01-19, 20:40:48
2W = 20 fps (Bay Trail)
2W = 30 fps (Cherry Trail)
4W = 60 fps (Cherry Trail)

Der usability unterschied ist gigantisch mit Windows 8.1 auf einem Tablet, wie schonmal im Windows 8 thread gesagt wenn man Apps und Desktop richtig kombiniert spart man massig task execution time auf tablets da kann Android nicht mithalten :)

Bei Battery Life scheint Intel selbst über die normalen 8 stunden zu kommen schon beachtlich :)

EVAa6ozfBbw
cWx95o282KE
Uzbmwyt6q6Q
3J3otRvhbX8
3hVpgzaRNgk
fCxY73hkoqg
efDdh1iOC_8
urF6ZvmeAwI
s6ukPZimo8s
8hTmFSqsV1U
8W5jmg3WZGs
qwN22akspyA
x24qFbr2toY

Da fragt man sich wo bleibt AMD mit ihren APUs ?

Ailuros
2014-01-19, 23:04:24
Wo soll AMD ein Milliarden schweres Rueckzahlungsprogramm finden? :D

-/\-CruNcher-/\-
2014-01-20, 00:12:50
Jo schade eigentlich das sie nicht in der Lage momentan scheinen Intel hier Konkurenz zu machen Nvidia haben sie ausgeschaltet und AMD hat nicht die Resourcen, in meinen Augen hat Nvidia nur eine chance Linux pushen ohne ENDE :)
Vielleicht währe es für Nvidia auch ratsam sich mit Shuttleworth zusammen zu tun ;)

Wow Sonic Generations pushed ja schon ganz schön die Hardware ich frag mich ob das vielleicht zum teil mit der noch nicht voll multithread optimierten Havok version zu tun haben könnte oder eher von der GPU her rührt müsste man mal debugen :)

Das comment find ich cool vor allem für Intel ;)

UPDATE ---- Sold it a few weeks after owning it and bought aurface pro 2. The surface pro 2 while definitely a better piece of hardware I have a bit of regret.. this Asus T100ta did about 75 percent of everything I do now with the Surface Pro 2 but cost $700 less (yowza!}. Baytrail is really awesome and after owning both I really do think it's powerful enough for most average PC owners who do mostly browsing/light gaming and some work/Office/Quickboks


Jep AMD schaft die 8 zoll noch nicht ;)


g5FBUgZ_6ug
kgllxbD5D9w

Mullins soll ja genauso ~2W SDP werden nur zeigen sie anscheinend 0 8 zoll prototypen komisch

ahh lol AMD kooperiert auch mit XOLO wie Nvidia nur nicht bei 7 zoll sondern anscheinend 10 :D

Ailuros
2014-01-20, 07:57:46
Im ULP mobilen Markt gibt es Platz für alle; man muss nur seine Karten richtig spielen.

mboeller
2014-01-20, 10:46:34
ich finde die "Kontroverse" über die TDP des K1 hier ein wenig seltsam (ich hab mir aber nicht alle Postings dazu durchgelesen).

Nvidia hat doch selbst schon gesagt, das ein Kern bei voller Leistung ca. 1,6W benötigt. Also alle 4 Kerne zusammen schon mal 6.4W

Die GPU benötigt bei iPad4-Leistung nur 0,9W (siehe die Präsentation bei Anandtech). Dabei sollte die GPU mit ca. 430MHz takten wenn man die Leistung mal linear skaliert (60fps <-> 27fps). Bei 950MHz sollte der Verbrauch also ca. 4x -5x höher sein. Macht dann 3,6 - 4,5W (imho sehr wenig für die Leistung).

Alles zusammen und mit ein wenig Kleinvieh (Speicherinterface, Video, Sonstiges) dazu ;) ergibt das dann eine TDP von ca. 11 - 12W, die man in Benchmarks und im realen Leben natürlich nie sehen wird weil dabei nahezu immer nur ein Teil des SoC belastet wird.

Ailuros
2014-01-20, 11:59:46
ich finde die "Kontroverse" über die TDP des K1 hier ein wenig seltsam (ich hab mir aber nicht alle Postings dazu durchgelesen).

Nvidia hat doch selbst schon gesagt, das ein Kern bei voller Leistung ca. 1,6W benötigt. Also alle 4 Kerne zusammen schon mal 6.4W

Es duerfte um die 5W TDP sein wenn man R3 mitberechnet fuer genau gleiche use cases with T4 natuerlich.

Die GPU benötigt bei iPad4-Leistung nur 0,9W (siehe die Präsentation bei Anandtech). Dabei sollte die GPU mit ca. 430MHz takten wenn man die Leistung mal linear skaliert (60fps <-> 27fps). Bei 950MHz sollte der Verbrauch also ca. 4x -5x höher sein. Macht dann 3,6 - 4,5W (imho sehr wenig für die Leistung).

Woher kommen die 27fps und die 430MHz genau? Die Praesentation von Logan (das video von NV selber gibt es uebrigens auch bei youtube) zeigt 17 fps fuer GK20A in GLB2.7 bei einem Verbrauch von 0.9mW. Es wird nirgends Frequenz erwaehnt noch angedeutet.

Ich hab in einer Milchmaedchen-Rechnung fuer die 60 fps 3.2W ausgerechnet welches nicht unbedingt stimmen muss plus die 5W fuer die CPU oben, irgendwo um die =/>8W.

Alles zusammen und mit ein wenig Kleinvieh (Speicherinterface, Video, Sonstiges) dazu ;) ergibt das dann eine TDP von ca. 11 - 12W, die man in Benchmarks und im realen Leben natürlich nie sehen wird weil dabei nahezu immer nur ein Teil des SoC belastet wird.

Egal ob es jetzt 8,9 oder sogar 11W TDP sind mein Punkt war und ist dass Intel kinderleicht die peak CPU und GPU Frequenzen reduzieren kann auf ULP Haswell und sich mit etwas weniger Leistung aber geringeren Preisen auf der heutigen Baytrail Basis weiter-investieren und mit dem Rueckzahlungsprogramm werden wohl keine Hersteller nein dazu sagen.

Fuer smartphones wird das Ding genauso eine Zumutung wie auch T4 selbst mit reduzierten Frequenzen und was dann uebrig bleibt ist dass ihre bisherigen tablet Partner mit K1 high end tablets um einiges bessere Volumen verkaufen als mit T4. Fuer's letzte kein Zweifel aber dass es die Marktanteil im Markt ploetzlich neu vermischt will ich ernsthaft bezweifeln.

Hersteller wollen hauptsaechlich low cost Quark eben weil sie gesehen haben dass diese so gut verkauft werden.

Undertaker
2014-01-20, 12:52:04
Ein aktueller, passiv kühlbarer Haswell wie der i5-4202Y mit 1,6 - 2,0 GHz kostet rund 280$. Jetzt soll Intel den auf vielleich 20-25$ senken, um auf den Preis eines K1 oder S805 zu kommen? Den Optimismus habe ich nicht. :freak: Damit würde man sich das komplette(!) Preisgefüge kaputt machen, daran hat der Hersteller ganz sicher kein Interesse. Dafür dient einzig die Atom-Schiene, also Bay Trail + Nachfolger. Bei Bay Trail braucht es noch aggressive Preise da die (GPU-)Leistung nicht High-End ist, bei Cherry Trail wird Intel imo weiter oben einsteigen.

-/\-CruNcher-/\-
2014-01-20, 15:08:19
Das mit Mullins ist einfach nur komisch wenn sie doch Intel angreifen könnten mit 8 zoll würden sie es doch tun oder ?

wenn man den Nano Mullins PC sieht könnten sie es schaffen was aber dort interessant ist da läuft plötzlich keine Fox Engine drauf sondern sie demoen mit der abgespeckten Ignite Fifa 14 ;)

RO0IbIiaAVM

Weiss jemand ob sie auf dem Nano PC genauso PES wie auf dem Tablet gedemoed haben ?

Mir kommt das irgendwie wie so vor alls werden hier ideal szenarien gedemoed abhängig von der erreichten abwärme im jeweiligen Formfaktor ;)

Ein aktueller, passiv kühlbarer Haswell wie der i5-4202Y mit 1,6 - 2,0 GHz kostet rund 280$. Jetzt soll Intel den auf vielleich 20-25$ senken, um auf den Preis eines K1 oder S805 zu kommen? Den Optimismus habe ich nicht. :freak: Damit würde man sich das komplette(!) Preisgefüge kaputt machen, daran hat der Hersteller ganz sicher kein Interesse. Dafür dient einzig die Atom-Schiene, also Bay Trail + Nachfolger. Bei Bay Trail braucht es noch aggressive Preise da die (GPU-)Leistung nicht High-End ist, bei Cherry Trail wird Intel imo weiter oben einsteigen.

Kann mir nicht vorstellen das Intel so eine Strategie fährt eher die gleicher Preis bei Release als wie vorherige Generation für deutschland scheint es dann Anfang 2015 soweit mit Cherry Trail also gute verfügbarkeit im Januar wie jetzt auch.

Fürs Tegra Note sieht es immernoch böse aus

Verfügbarkeit: Liefertermin noch unbestimmt


Beim Dell Venue 8 pro hab ich eine sache in einem Testvideo gesehen die hat mir überhaupt nicht gefallen sehr komisch war das der reviewer es mitbekommen haben muss hat es aber ignoriert

Blediator16
2014-01-20, 15:26:49
http://semiaccurate.com/2014/01/20/well-nvidias-tegra-k1-really-perform/

Ziemlicher Brocken. Wie kommts, dass angeblich nur SA von dem Gerät ein Foto hat.

Ailuros
2014-01-20, 15:37:15
http://semiaccurate.com/2014/01/20/well-nvidias-tegra-k1-really-perform/

Ziemlicher Brocken. Wie kommts, dass angeblich nur SA von dem Gerät ein Foto hat.

Ich fuehl mich ja schon langsam ziemlich uebel dass ich fast wie Charlie klinge, aber man braucht wirklich kein NV Hasser sein damit man beide Augenbrauen hochzieht bei dem gelieferten BS.

Mal sehen ob man das Bild verlinken kann:

https://semiaccurate.com/assets/uploads/2014/01/Nvidia_TK1_NDA_demo.jpg

Wie war es nochmal dass extravagante Kuehlung fuer das Praesentations-Material fehlte? Ich hoer jetzt erstmal gerne die jeweiligen "ja aber" fuer das Monster als heatsink. Soll ich Bilder beantragen von anderen vorgezeigten Platformen bei der CES oder macht das obrige Bild schon seinen Punkt?

Blediator16
2014-01-20, 15:42:05
Beschiss ist es ja erst dann, wenn wirklich alles gezeigte, was aussergewöhnlich war, auch wirklich auf dem Ding gelaufen ist.

OT: TIL AMD hat 2003 schon "Crop Circles" gemacht nur etwas offensichtlicher :D

Undertaker
2014-01-20, 15:46:11
Also bei Charlie muss man erst einmal an allem zweifeln, z.B. was das Bild überhaupt zeigt. :freak:

Ansonsten ist es grundsätzlich nicht überraschend – das hat in dem Thema hier wohl noch keiner angezweifelt – das eine Version mit 950 MHz GPU-Takt und 60 fps im GLB 2.7 nicht so schnell in einem passiven Tablet landen wird. Worüber wir hier nun schon ewig spekulieren ist schlicht, wie groß die Einbußen am Ende sein werden. Da bringt auch der gute Charlie außer seinem üblichen BS wenig Licht ins Dunkel.

Ailuros
2014-01-20, 15:46:15
Beschiss ist es ja erst dann, wenn wirklich alles gezeigte, was aussergewöhnlich war, auch wirklich auf dem Ding gelaufen ist.

[Sarcasm mode]Ich will wetten dass Charlie uebertreibt; es IST ein 5W heatsink und daher gibt es nichts darueber auseinanderzusetzen. Dass der heatsink auf einem weiteren 5W heatsink hockt sollte die Presse einen feuchten Dreck angehen, es ist legitim.[/sarcasm mode]

mboeller
2014-01-20, 15:50:07
Es duerfte um die 5W TDP sein wenn man R3 mitberechnet fuer genau gleiche use cases with T4 natuerlich.


nach diesem Chart hier: http://www.notebookcheck.com/fileadmin/Notebooks/NVIDIA/Tegra_K1/tegra_k1_a15_vs_tegra4.png

sollten es pro Kern 1,6W (1600 mW) sein, also für 4 Kerne 6,4 Watt


Woher kommen die 27fps und die 430MHz genau? Die Praesentation von Logan (das video von NV selber gibt es uebrigens auch bei youtube) zeigt 17 fps fuer GK20A in GLB2.7 bei einem Verbrauch von 0.9mW. Es wird nirgends Frequenz erwaehnt noch angedeutet.


Schexxe....da habe ich wohl das iPad-Air mit dem iPad4 verwechselt.

Die 430MHz hatte ich mir so zusammengereimt: 27/60 x 950MHz = ~430MHz. Wenn es aber nur 17fps sind dann eben: 17/60 x 950 MHz = ~270MHz

Ich bin dann für die 950MHz von einer quadratisch höheren Spannung ausgegangen. Also bei 950/430MHz = 2,21² = 4,88 facher Verbrauch. Das ist natürlich "ein wenig" unsicher. Deshalb die größere Range mit der großzügigen Abrundung nach unten.

Bei 950/270MHz sollte der Verbrauch der GPU aber dann doch noch ein wenig höher sein.


Hersteller wollen hauptsaechlich low cost Quark eben weil sie gesehen haben dass diese so gut verkauft werden.


MT8135 .... nur hört man von dem leider nix mehr

Ailuros
2014-01-20, 15:50:39
Also bei Charlie muss man erst einmal an allem zweifeln, z.B. was das Bild überhaupt zeigt. :freak:

Ansonsten ist es grundsätzlich nicht überraschend – das hat in dem Thema hier wohl noch keiner angezweifelt – das eine Version mit 950 MHz GPU-Takt und 60 fps im GLB 2.7 nicht so schnell in einem passiven Tablet landen wird. Worüber wir hier nun schon ewig spekulieren ist schlicht, wie groß die Einbußen am Ende sein werden. Da bringt auch der gute Charlie außer seinem üblichen BS wenig Licht ins Dunkel.

Ja nur ist der "uebliche BS" in diesem Fall wohl eher common sense. Hast Du den Text ueberhaupt durchgelesen? Und nein bevor jemand daran denkt ich hab schon seit Monaten nicht mehr mit ihm geplaudert. Nur mit Angestellten von anderen Firmen die bei der CES waren und nein nicht die ueblichen "Verdaechtigen" die sich jeder vorstellen wuerde.

-/\-CruNcher-/\-
2014-01-20, 15:56:31
Naja so gesehen haben sie mit der Performance doch nicht gelogen die


GFXBench 2.5 Egypt HD C24Z16 - Offscreen (1080p) :
6243 Frames (55.2 Fps)

sind für 7 zoll korrekt

nur das shield schaft ein wenig mehr durch seine passive kühlung aber das können doch keine 10W sein ?

also ist doch quatsch was der typ da schreibt

zumindestens die Egypt werte spiegeln die von Nvidia bei release in den 7 zoll tabletts anscheinend wieder im Shield sogar besser

http://images.anandtech.com/doci/6787/Screen%20Shot%202013-02-24%20at%202.57.22%20PM_575px.png

aber naja es gibt ja auch leute die machen sollche tests ;)

1pF4G2k6NEk

da fragt man sich auch was das soll, geiler vergleich sasha ehrlich toll gemacht kannst du gleich das klo runterspüllen ;)

Ailuros
2014-01-20, 15:59:10
nach diesem Chart hier: http://www.notebookcheck.com/fileadmin/Notebooks/NVIDIA/Tegra_K1/tegra_k1_a15_vs_tegra4.png

sollten es pro Kern 1,6W (1600 mW) sein, also für 4 Kerne 6,4 Watt.

Rueckzieher Du hast recht. Ich dachte die 6.4W sind fuer die T4 CPU.

Schexxe....da habe ich wohl das iPad-Air mit dem iPad4 verwechselt.

Die 430MHz hatte ich mir so zusammengereimt: 27/60 x 950MHz = ~430MHz. Wenn es aber nur 17fps sind dann eben: 17/60 x 950 MHz = ~270MHz

Es ist nicht linear; ich hab es zwar nie bestaetigen koennen, aber es hiess damals ein Schnitt unter 200MHz ergo IMO ~195MHz?

Ich bin dann für die 950MHz von einer quadratisch höheren Spannung ausgegangen. Also bei 950/430MHz = 2,21² = 4,88 facher Verbrauch. Das ist natürlich "ein wenig" unsicher. Deshalb die größere Range mit der großzügigen Abrundung nach unten.

Bei 950/270MHz sollte der Verbrauch der GPU aber dann doch noch ein wenig höher sein.

Ohne zu wissen was sie genau mit der voltage angerichtet haben ist es wertlos. Kurz vor der CES ist aber GK20A in der Kishonti Datenbank nochmal schnell erschienen als devboard und es waren genau die gleichen 17 fps in GLB2.7 1080p offscreen (CPU bei 51MHz-2.3GHz).

MT8135 .... nur hört man von dem leider nix mehr

Mediatek macht keinen so grossen ramtamtam um ihr Zeug. Es gab eine kurze Ankuendigung fuer die CES wo auch der 8135 u.a. erwaehnt wurde aber das war es dann wohl auch.

Undertaker
2014-01-20, 15:59:36
Ja nur ist der "uebliche BS" in diesem Fall wohl eher common sense. Hast Du den Text ueberhaupt durchgelesen? Und nein bevor jemand daran denkt ich hab schon seit Monaten nicht mehr mit ihm geplaudert. Nur mit Angestellten von anderen Firmen die bei der CES waren und nein nicht die ueblichen "Verdaechtigen" die sich jeder vorstellen wuerde.

Es hat bei Charlie einige Tradition, durchaus berechtigte Kritikpunkte aufzunehmen, diese dann aber so hochzustilisieren das man den Mist nicht mehr lesen kann. Was bringt er denn in diesem Artikel deiner Meinung nach wirklich neues?

Ein maximal getakteter K1 wird jegliches Power-Budget eines passiven Tablets sprengen. Das ist weder unerwartet noch eine Sensationsmeldung, in dieser Klasse throttelt jedes Device. Entscheidend wird das Ausmaß, und noch einmal: Hierzu liefert auch Charlie erwartungsgemäß keine quantitative Aussage.

Edit:

Nur mal ein Beispiel für den angesprochenen BS, seine Aussage zu A7 und K1:

Beating Apple at the same power draw would be quit a trick, but for some reason that test is not shown either[...]

Da hat er wohl nicht einmal alle Folien studiert. Es gibt Perf/Watt-Vergleiche ggü. A7 sowohl für die CPU als auch die GPU. Er kann von mir aus darauf herumreiten, dass diese selbstverständlich cherry-picked sind (bzgl. Benchmarkauswahl), in dieser Form ist die Aussage aber schlicht falsch.

Ailuros
2014-01-20, 16:03:05
Naja so gesehen haben sie mit der Performance doch nicht gelogen die


GFXBench 2.5 Egypt HD C24Z16 - Offscreen (1080p) :
6243 Frames (55.2 Fps)

sind für 7 zoll korrekt

nur das shield schaft ein wenig mehr durch seine passive kühlung aber das können doch keine 10W sein ?

Ein wenig mehr ist schoen. Wie ich schon in meinem vorigen Post sagte die tablets mit T4 rangieren in GLB2.7 zwischen 14 und 20fps. Ich hab alle 18 Resultate addiert und der Durschnitt liegt bei 17 fps welches 30% niedriger ist als die 24 fps beim Shield. Neben der aktiven Kuehlung von Shield, hat es was fuer eine Batterie on board?

Dural
2014-01-20, 16:07:41
Ich halte es so wie so für sehr unwahrscheinlich das so ein SoC die maximale Theoretische TDP jemals erreichen kann, ich wüsste jetzt zb. keine einzige Android App die alle vier A15 Kerne und die 192SP gleichzeitig voll Auslasten könnte.

Deswegen gibt es in diesem Bereich auch immer eine "Teillast" TDP Vorgabe, somit wird quasi bei hoher Belastung immer gedrosselt. Man kann ja schliesslich keine 10W+ Passiv kühlen.

Ailuros
2014-01-20, 16:10:25
Es hat bei Charlie einige Tradition, durchaus berechtigte Kritikpunkte aufzunehmen, diese dann aber so hochzustilisieren das man den Mist nicht mehr lesen kann. Was bringt er denn in diesem Artikel deiner Meinung nach wirklich neues?

Neues gar nichts, aber ich fuehl ein klein bisschen weniger daemlicher als zuvor. Es kann einsam werden wenn man in den Keller gesperrt wird :biggrin: (metaphorisch und ja es ist ein Scherz).

Ein maximal getakteter K1 wird jegliches Power-Budget eines passiven Tablets sprengen. Das ist weder unerwartet noch eine Sensationsmeldung, in dieser Klasse throttelt jedes Device. Entscheidend wird das Ausmaß, und noch einmal: Hierzu liefert auch Charlie erwartungsgemäß keine quantitative Aussage.

Charlie konzentriert sich eher auf moegliche Verkaufszahlen. Hat er unrecht was smartphones betrifft? Ergo sagen wir mal sehr wenige design-wins. Was jetzt tablets betrifft und damit NV wirklich das Wunder auf die Strasse bringt muessten sich die Verkaufszahlen von Apple, Samsung, Amazon, Google und Intel radikal reduzieren. Ich wuerde in JHHs Schuhen auch ziemlich geil auf Karren sein :freak:

Ich halte es so wie so für sehr unwahrscheinlich das so ein SoC die maximale Theoretische TDP jemals erreichen kann, ich wüsste jetzt zb. keine einzige Android App die alle vier A15 Kerne und die 192SP gleichzeitig voll Auslasten könnte.

Deswegen gibt es in diesem Bereich auch immer eine "Teillast" TDP Vorgabe, somit wird quasi bei hoher Belastung immer gedrosselt. Man kann ja schliesslich keine 10W+ Passiv kühlen.

Anand hat das iPadAir bei fast genau 5W maximalen Verbrauch abgemessen und das Ding verkauft sich bei der Apple Kundschaft so oder so. Aber mach Dir ruhig Muehe weitere Ausreden zu finden; die kommen naehmlich bei den waren Kunden sprich den Herstellern nicht so gut an.

Undertaker
2014-01-20, 16:25:57
Anand hat das iPadAir bei fast genau 5W maximalen Verbrauch abgemessen

Anand hat übrigens auch festgestellt, dass das iPad Air (wie auch Mini Retina und 5S, also alle A7-Geräte) selbst bei alleiniger CPU-Last nach einiger Zeit throttelt:

http://www.anandtech.com/show/7519/apple-ipad-mini-with-retina-display-reviewed/2

Man kann also festhalten, dass allein die beiden CPU-Kerne des A7 bei vollem Takt ~5 Watt >>5 Watt (siehe auch iPad Air Review) ziehen werden. Für eine theoretische Volllast-TDP müsste man nun noch den GPU-Verbrauch addieren...

Edit: Wenn man hier (http://www.anandtech.com/show/7460/apple-ipad-air-review/3) schaut, sind es sogar rund 8 Watt Verbrauch bei alleiniger CPU-Belastung. Hui. :O Klar, real erreicht wird das natürlich nicht.

Dural
2014-01-20, 16:42:38
Das sind dann mal eben 2,5W pro Core bei etwas mehr als 1GHz?!
NV spricht somit nicht umsonst das ihre CPU Core / der A15 sparsamer sei als der A7.

Ist aber schon interessant wo hin das führen kann / führen wird. Da fragt man sich doch ob es nicht Intelligenter wäre etwas silizium zu sparen und gleich von anfang an eine SoC mit einer niedrigen TDP zu entwickeln. Problem dürfte da halt sein, das man um energie effizient zu sein in die breite gehen muss

Ailuros
2014-01-20, 16:53:16
Anand hat übrigens auch festgestellt, dass das iPad Air (wie auch Mini Retina und 5S, also alle A7-Geräte) selbst bei alleiniger CPU-Last nach einiger Zeit throttelt:

http://www.anandtech.com/show/7519/apple-ipad-mini-with-retina-display-reviewed/2

Man kann also festhalten, dass allein die beiden CPU-Kerne des A7 bei vollem Takt ~5 Watt >>5 Watt (siehe auch iPad Air Review) ziehen werden. Für eine theoretische Volllast-TDP müsste man nun noch den GPU-Verbrauch addieren...

Edit: Wenn man hier (http://www.anandtech.com/show/7460/apple-ipad-air-review/3) schaut, sind es sogar rund 8 Watt Verbrauch bei alleiniger CPU-Belastung. Hui. :O Klar, real erreicht wird das natürlich nicht.

Anand ist aber auch ziemlich deutlich dass das case scenario dass er benutzt hat nicht realistisch ist; alles was Du in solch einem Fall brauchst ist einen cross-reference Vergleich von Anand selber im genau gleichen Test wenn er endlich K1 hw in die Haende bekommt.

Da ich uebrigens mehr als oefters mit Anand privat plaudere, die Verbrauchstests die er anlegt sind in der Mehrzahl das Resultat von dem was viele von uns Lesern beantragen.

Am Ende des Tages und vom genau gleichen Artikel:

http://www.anandtech.com/show/7519/apple-ipad-mini-with-retina-display-reviewed/5

und ueberhaupt um mal anders -/\-CruNcher-/\- 's Frage bezueglich T4 zu beantworten zumindest zu einem Aspekt:

http://images.anandtech.com/graphs/graph7519/60134.png

Jetzt koennen sich viele wieder darueber "beschweren" wie legitim der Test ist oder nicht, aber es ist Anteil vom genau gleichen Projekt. Und waehrend es schoen ist nur mit TDPs herumzuschmeissen wenn NV's eigenes Tegra4 7" Referenz-tablet in einem GLB2.5 Durchlauf nur halb so viel Lebenszeit am Ende hat, braucht man wohl ein kleiiiiiiiiiiiiin bisschen bessere Argumente als solche Tests (und ja Anand hat display Helligkeit auf genau den gleichen Punkt angepasst fuer den Vergleich). Es ist eben genau der Punkt wo ein jeglicher Tegra Kunde/Hersteller die Augenbraue hochzieht.

Hugo78
2014-01-20, 17:02:53
@Ailuros

Och bitte, die Akkulaufzeittest zeigen nur wie sparsam dein Display ist.
Ein SoC hat wenn überhaupt einen Anteil von max. 30% am Gesamtverbrauch dieser Geräte.

Schau dir das HTC One Mini und das S4 Mini an, die Technik ist fast 1:1 die gleiche nur das Display macht den Unterschied.
Das S4 ist sogar 300MHz schneller getaktet.

http://www7.pic-upload.de/20.01.14/c713x68r2pv1.jpg (http://www.pic-upload.de/view-22010491/one-s4-mini.jpg.html)
Quelle:
- http://www.computerbase.de/artikel/handys/2013/htc-one-mini-im-test/5/

Undertaker
2014-01-20, 17:03:14
Anand ist aber auch ziemlich deutlich dass das case scenario dass er benutzt hat nicht realistisch ist

Zweifellos, den gleichen Maßstab muss du aber natürlich auch bei K1 anlegen. Die 2W, die Nvidia für K1 und A7 im Octane Benchmark angibt, dürften die Realität ganz gut widerspiegeln.


http://www.anandtech.com/show/7519/apple-ipad-mini-with-retina-display-reviewed/5

und ueberhaupt um mal anders -/\-CruNcher-/\- 's Frage bezueglich T4 zu beantworten zumindest zu einem Aspekt:

http://images.anandtech.com/graphs/graph7519/60134.png

Jetzt reden wir aber von einem anderen Thema als zuvor. Zum einen weil wir hier verschiedene Gerät mit unterschiedlichen Displays und 15 vs. 24 Wh Akku vergleichen... Und hast du nicht oben noch auf den Preis gepocht, und lässt diesen nun vollkommen außer Acht? ;)

Rein technisch stimme ich dir aber natürlich zu, dass T4 von der Effizienz nicht gegen den A7 ankommt. Auch das ist jetzt aber keine neue Info.

Ailuros
2014-01-20, 17:12:12
@Ailuros

Och bitte, die Akkulaufzeittest zeigen nur wie sparsam dein Display ist.
Ein SoC hat wenn überhaupt einen Anteil von max. 30% am Gesamtverbrauch dieser Geräte.

Schau dir das HTC One Mini und das S4 Mini an, die Technik ist fast 1:1 die gleiche nur das Display macht den Unterschied.
Das S4 ist sogar 300MHz schneller getaktet.



Es ist ein 3D benchmark; im Notfall teste es Dir selber bevor Du zu solchen Posts kommst.

Zweifellos, den gleichen Maßstab muss du aber natürlich auch bei K1 anlegen. Die 2W, die Nvidia für K1 und A7 im Octane Benchmark angibt, dürften die Realität ganz gut widerspiegeln.

Ja warum nicht? Das letzte was Anand je anrichten wuerde ist unfair zu NV zu sein. :biggrin:

Jetzt reden wir aber von einem anderen Thema als zuvor. Zum einen weil wir hier verschiedene Gerät mit unterschiedlichen Displays und 15 vs. 24 Wh Akku vergleichen... Und hast du nicht oben noch auf den Preis gepocht, und lässt diesen nun vollkommen außer Acht? ;)

Du darfst es mir alles gerne wegrechnen, es bleibt am Ende ein merkwuerdiges Loch in der eigentlichen Stromverbrauchs-Logik. Du willst mir wohl nicht einreden wollen dass T4 weniger verbraucht (selbst mit reduzierten Frequenzen) als ein A7 oder?

Rein technisch stimme ich dir aber natürlich zu, dass T4 von der Effizienz nicht gegen den A7 ankommt. Auch das ist jetzt aber keine neue Info.

Siehste. Parallelisier jetzt nochmal T4 zu T5 wie ich in etlichen vorigen Posts und dann ist meine Vorbehalte doch nicht absurd. Uebrigens dank der slide hier die ich von mboeller's Post noch offen hatte: http://www.notebookcheck.com/fileadmin/Notebooks/NVIDIA/Tegra_K1/tegra_k1_a15_vs_tegra4.png

wuerde ich wohl doch vorschlagen dass NUR K1 auf 28HPm hergestellt wird und nicht auch T4 (wenn dann waere es redundant es zu erwaehnen). Ich aendere aber selbst bei diesem noch nichts an meinen Gedanken.

-/\-CruNcher-/\-
2014-01-20, 17:24:16
Anand ist aber auch ziemlich deutlich dass das case scenario dass er benutzt hat nicht realistisch ist; alles was Du in solch einem Fall brauchst ist einen cross-reference Vergleich von Anand selber im genau gleichen Test wenn er endlich K1 hw in die Haende bekommt.

Da ich uebrigens mehr als oefters mit Anand privat plaudere, die Verbrauchstests die er anlegt sind in der Mehrzahl das Resultat von dem was viele von uns Lesern beantragen.

Am Ende des Tages und vom genau gleichen Artikel:

http://www.anandtech.com/show/7519/apple-ipad-mini-with-retina-display-reviewed/5

und ueberhaupt um mal anders -/\-CruNcher-/\- 's Frage bezueglich T4 zu beantworten zumindest zu einem Aspekt:

http://images.anandtech.com/graphs/graph7519/60134.png

Jetzt koennen sich viele wieder darueber "beschweren" wie legitim der Test ist oder nicht, aber es ist Anteil vom genau gleichen Projekt. Und waehrend es schoen ist nur mit TDPs herumzuschmeissen wenn NV's eigenes Tegra4 7" Referenz-tablet in einem GLB2.5 Durchlauf nur halb so viel Lebenszeit am Ende hat, braucht man wohl ein kleiiiiiiiiiiiiin bisschen bessere Argumente als solche Tests (und ja Anand hat display Helligkeit auf genau den gleichen Punkt angepasst fuer den Vergleich). Es ist eben genau der Punkt wo ein jeglicher Tegra Kunde/Hersteller die Augenbraue hochzieht.

Also die 2 unteren results würde ich glauben ganz einfach wegen dem batteriefactor auf 7 zoll verteilung und womöglich gleiche resolution in diesem dauerloop test die anderen geräte weichen mir einfach viel zu sehr ab um irgendwo vergleichbar zu sein ;)

Und von daher sieht das doch für Nvidia nicht soooo schlecht aus gegen quasi den Target Hauptkonkurenten mit Tegra 4 bezogen auf Preis Leistung + Direct Stylus + HDMI :)

jetzt müsste man sich genau anschauen welche größe haben die batterien und das gewicht vergleichen, und mal mit einberechnen das das Nexus 7 subventioniert ist ;)


also das Nexus 7 hat hier schon zu knüppeln gegen das Note 7 wenn man noch davon ausgeht das die Performance niedrieger war und wie hätte es ausgesehen wenn man das Note künstlich auf die gleiche Performance gedrosselt hätte das sind alles fragen die man testen muss :)

Da dieser Benchmark diese möglichkeit nicht bietet ist er auch ziemlich sinnlos er zeigt nur das Device verhalten an sich aber sagt nichts über die anderen sachen aus :)

vor allem sollte man mit abgekoppeltem display testen, in dem fall das sie nicht 100% identisch sind was sie hier ja nicht sind

Ailuros
2014-01-20, 17:28:22
Also die 2 unteren results würde ich glauben ganz einfach wegen dem batteriefactor auf 7 zoll verteilung und womöglich gleiche resolution in diesem dauerloop test die anderen geräte weichen mir einfach viel zu sehr ab um irgendwo vergleichbar zu sein ;)

Und von daher sieht das doch für Nvidia nicht soooo schlecht aus :)

Wenn es die gleiche Aufloesung ist (1080p) fuer alle, laeuft der Dauerloop sowieso offscreen, wobei ich mich frage was der display genau verbrauchen soll. Ist es onscreen dann ist wohl 2048*1536 fuer das mini retina gegen 720p auf das NV 7" tablet. Ich halte aber den ersten Fall als wahrscheinlicher.

Undertaker
2014-01-20, 17:28:37
Du willst mir wohl nicht einreden wollen dass T4 weniger verbraucht (selbst mit reduzierten Frequenzen) als ein A7 oder?

[...]

Siehste. Parallelisier jetzt nochmal T4 zu T5 wie ich in etlichen vorigen Posts und dann ist meine Vorbehalte doch nicht absurd.

Vermisch jetzt nicht Effizienz und Maximalverbrauch. Wenn ich sehe, dass der A7 schon bei reiner CPU-Last ~8 Watt ziehen kann, sind derartige Überlegungen für die Praxis eh irrelevant – CPU- und GPU-Volllast wird ohne aktive Kühlung immer zu umgehendem Throttling führen, bei A7 wie K1.

Bleiben wir also bitteschön bei der Effizienz. Ich weiß nicht, warum du seit einigen Postings über T4 redest, der wohl von niemandem auf dem Effizienzlevel des A7 eingeordnet wird. Wenn wir A7 vs. K1 vergleichen, halte ich in 3D-Anwendungen/Spielen einen Vorteil für K1 für denkbar, siehe die Folien zum GLB 3.0. Und bevor du jetzt mit Teillast oder ähnlichem argumentierst, dass ist dann wieder ein anderes Thema. ;)


wuerde ich wohl doch vorschlagen dass NUR K1 auf 28HPm hergestellt wird und nicht auch T4 (wenn dann waere es redundant es zu erwaehnen).

T4 = 28nm LP, K1 = 28nm HPM. Wer hat etwas anderes behauptet? :confused:

Ailuros
2014-01-20, 17:38:42
Vermisch jetzt nicht Effizienz und Maximalverbrauch. Wenn ich sehe, dass der A7 schon bei reiner CPU-Last ~8 Watt ziehen kann, sind derartige Überlegungen für die Praxis eh irrelevant – CPU- und GPU-Volllast wird ohne aktive Kühlung immer zu umgehendem Throttling führen, bei A7 wie K1.

Bleiben wir also bitteschön bei der Effizienz. Ich weiß nicht, warum du seit einigen Postings über T4 redest, der wohl von niemandem auf dem Effizienzlevel des A7 eingeordnet wird. Wenn wir A7 vs. K1 vergleichen, halte ich in 3D-Anwendungen/Spielen einen Vorteil für K1 für denkbar, siehe die Folien zum GLB 3.0. Und bevor du jetzt mit Teillast oder ähnlichem argumentierst, dass ist dann wieder ein anderes Thema. ;)

NV behauptet sowieso nur Teillast-Raten; sonst fuer den ersten Paragraphen drueck die Daumen dass Anand spaeter K1 im gleichen Fall testet und nein von NV's Folien (ausser mich immer und immer wieder zu amuesieren) halte ich nichts.

Sonst wird K1 gegen A8 konkurrieren muessen auf mehr als einer TDP Ebene.

T4 = 28nm LP, K1 = 28nm HPM. Wer hat etwas anderes behauptet? :confused:

Wieso hatte ich es Erinnerung dass Du mir gesagt hast dass auch T4 auf 28HPM sei? Afaik war es tatsaechlich 28LP, aber es muss wohl jemand anders gewesen sein.

Undertaker
2014-01-20, 17:48:25
NV behauptet sowieso nur Teillast-Raten; sonst fuer den ersten Paragraphen drueck die Daumen dass Anand spaeter K1 im gleichen Fall testet und nein von NV's Folien (ausser mich immer und immer wieder zu amuesieren) halte ich nichts.

Sonst wird K1 gegen A8 konkurrieren muessen auf mehr als einer TDP Ebene.

Nun, an den Wahrheitsgehalt für den gezeigten Fall glaube ich schon, auch wenn man natürlich vom Zeigen des Best-Case ausgehen kann.

Das K1 zeitlich eher zu A8 passen dürfte, mag durchaus sein. Da sieht es natürlich allein schon durch die 20nm-Fertigung weit weniger gut für K1 aus...

Wie schätzt du eigentlich die Chancen für einen 20nm Denver-Ableger (edit: in 2014) ein?


Wieso hatte ich es Erinnerung dass Du mir gesagt hast dass auch T4 auf 28HPM sei? Afaik war es tatsaechlich 28LP, aber es muss wohl jemand anders gewesen sein.

Scheint so. ;)

-/\-CruNcher-/\-
2014-01-20, 17:48:59
Also die Demos von Qualcomm für S805 (Adreno 420) waren schon nicht ohne vor allem der Native UHD HEVC support mit Dash Unterstützung aber für mich ist dieser SOC einfach in einem ganz anderen preisberreich und man kann ihn nur subventioniert in einem "normalen" bekommen :)

So wie man jetzt Adreno 320 subventioniert in einem irgendwo akzeptablen berreich allerdings mit Platform Einschränkungen als Konsument bekommt und da haut Intel jetzt voll rein ;)

Und Nvidia die gerade diese Balance erreicht haben zu Adreno 320 auf tablets vielleicht sogar 330 werden davon voll erwischt

Die ganzen China chips sind schon alle uninteresant von der Preis/Leistungs balance für Tablets geworden in diesem Kampf das war mit Tegra 3 noch nicht der Fall ;)

Ailuros
2014-01-20, 18:00:36
Nun, an den Wahrheitsgehalt für den gezeigten Fall glaube ich schon, auch wenn man natürlich von Zeigen des Best-Case ausgehen kann.

Ach wie gut dass niemand weiss....:wink:

Das K1 zeitlich eher zu A8 passen dürfte, mag durchaus sein. Da sieht es natürlich allein schon durch die 20nm-Fertigung weit weniger gut für K1 aus...

Keine Ahnung wie sich Samsung 28nm gegen TSMC 28LP bzw. HPm vergleicht. Wie gesagt wenn fruitco tatsaechlich einen 13" tablet plant dann hat NV auch richtig vorgesorgt wenn man mir nichts dir nichts high end haben will.

Wie schätzt du eigentlich die Chancen für einen 20nm Denver-Ableger ein?

Ich hab nichtmal eine Ahnung was ich von dem Tier halten soll. Was sollen Dir die 15% zwischen 28HPm und 20SoC noch genau fundamental aendern? Ich will hoffen dass Denver erstmal den CPU Stromverbrauch radikal reduziert durch aSMP u.a.

Scheint so. ;)

Ich muss aufhoeren waehrend der Arbeit zu tippen; Gott sei Dank passieren keine Fehler dort sonst ist schnell der Urlaub von jemand im Popo ;D

Also die Demos von Qualcomm für S805 (Adreno 420) waren schon nicht ohne vor allem der Native UHD HEVC support mit Dash Unterstützung aber für mich ist dieser SOC einfach in einem ganz anderen preisberreich und man kann ihn nur subventioniert in einem "normalen" bekommen :)

So wie man jetzt Adreno 320 subventioniert in einem irgendwo akzeptablen berreich allerdings mit Platform Einschränkungen als Konsument bekommt und da haut Intel jetzt voll rein ;)

Und Nvidia die gerade diese Balance erreicht haben zu Adreno 320 auf tablets vielleicht sogar 330 werden davon voll erwischt

Die ganzen China chips sind schon alle uninteresant von der Preis/Leistungs balance geworden in diesem Kampf

Bevor Du noch zich Male den Post editierst: http://www.fudzilla.com/home/item/33696-intel-to-cut-5000-jobs

Intel haut sicher "voll rein" aber man kann vieles damit meinen. Bleibt die Frage wie lange sich es NV noch leisten kann etliche hunderte Millionen in Tegra zu schuetten.

-/\-CruNcher-/\-
2014-01-20, 18:10:30
Wow was für ein Opfer
junge junge da gehts ja echt heis her Nvidia kann sich das sicher nicht so lange leisten deshalb würde ich sagen wenn K1 nicht endlich irgendwas erreicht dann wird es keinen T6 mehr geben und sie können müssen hoffen das T4 sich wenigstens etwas verkäuft aber mit dem Intel druck mein junge da wundert man sich ob Nvidia damit gerechnet hat. Intel scheint aber nicht so sehr auf Indien zu zielen und wenn Nvidia es schaft dort viele ihrer Tabs zu versenken wäre das schonmal positiv für K1 :)
Und jetzt kommt ja auch noch AMD so langsam in fahrt da bin ich sehr gespannt ob ihre OEM/ODM partner sich mit 10/11 zoll zufrieden geben oder ob AMD auch versuchen wird 8 zoll zu managen im nachhinein mal abwarten


Hmm einige der beschreibungen bei den sellern sind wirklich interessant da tauchen sehr komische daten auf ;)

Prozessor: Intel® AtomTM Prozessor Z3740 (1.8 GHz 2 MB Intel® Smart-Cache, DDR3 1067 MHz, 6.5 W)

das hier ist der burner ;)

Grafik: Intel® Graphics Media Accelerator 3650

fondness
2014-01-20, 23:25:31
Ein bisschen ein großer Kühler für ein 5W Device^^

http://imagizer.imageshack.us/v2/xq90/839/z99l.jpg (https://imageshack.com/i/nbz99lj)

http://semiaccurate.com/2014/01/20/well-nvidias-tegra-k1-really-perform/