PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 [16] 17 18 19 20 21 22 23 24 25 26

Ailuros
2014-01-21, 00:03:18
Ein bisschen ein großer Kühler für ein 5W Device^^

http://semiaccurate.com/2014/01/20/well-nvidias-tegra-k1-really-perform/

Alt. Siehe Post #3723. Sonst ist es nicht nur der heatsink sondern auch ein fan rechts oben an der Seite den man schlecht sehen kann.

-/\-CruNcher-/\-
2014-01-21, 00:24:30
Hmm http://gfxbench.com/result.jsp?benchmark=gfx27&data-source=1&version=all&test=478&text-filter=Intel%28R%29+HD+Graphics&order=score&os-Windows_dx=true&arch-x86=true&base=device

nur auf Intel HD Graphics einträge achten im 16 fps berreich versammeln sich die jetzigen bay trails :)

ist das Nvidias Tegra 4 Reference Platform result für Windows 8/RT ?

http://gfxbench.com/device.jsp?benchmark=gfx27&os=Windows&api=dx&D=NVidia+Tegra+4+%28Wayne%29&testgroup=overall

das bedeutet wir haben einen gleichstand zwischen 28nm Tegra 4 und 22nm Bay Trail GPU Performance unter Windows ?

das Surface 2 Result spiegelt im Prinzip das selbe http://gfxbench.com/device.jsp?benchmark=gfx27&os=Windows&api=dx&D=Microsoft%20Surface%202


@Ailuros
Vielleicht könnte ich recht gehabt haben und sie haben es von der Kiste auf die 7 zoll tabs Gestreamt ;)

Das wäre ja schon hammer von ihrer Auslegung von Wahrheit "Ja es läuft ja auf Logan auch hier auf den 7 zoll nur kommt es von da drüben aber wir haben ja nicht gesagt das es von dem Reference tab kommt nur drauf läuft oder ? ;)"

Hugo78
2014-01-21, 02:08:57
Na da hat der fette Char_LIE ja wieder erreicht was er wollte.

ZCCaqQyEIPI

y3PAmK9erDM

-/\-CruNcher-/\-
2014-01-21, 02:29:42
Glaub mir ich würde es Nvidia gönnen immerhin sind sie 3x auf die Nase gefallen trotzdem haben sie nicht aufgegeben zum teil klingt das aber wie magie ich meine wenn ich mir die ganzen werte anschaue sind die alle super glücklich wenn sie ne 40% ca die hälfte Steigerung erreichen und dabei auf dem gleichen Verbrauch bleiben nvidia redet hier von eine Steigerung von dem 3 fachen davon, da darf man doch skeptisch sein das sie das wirklich bei dem gleichen Verbrauch schaffen und das bei dem selben manufacturing.

Ailuros
2014-01-21, 06:28:06
Na da hat der fette Char_LIE ja wieder erreicht was er wollte.


Danke denn es wuerde heissen dass alle anderen die Zweifel haben luegen. NV ist notorisch dafuer, ich nicht. Sonst sagen mir die techdemos gar nichts im Vergleich zum monstroesen heatsink und fan auf einer development platform. Und wenn Du wirklich so naiv bist und glaubst dass nur Charlie davon Bilder hat:

http://hothardware.com/Reviews/NVIDIA-CES-2014-Denver-Debuts-Tegra-K1-192-Cores/

K1 wird nach wie vor gut und spannend sein wenn sie "nur" 2x Mal Durchschnitt die gleiche GPU Leistung in einem bestimmten form factor erreicht haben und dabei mit DX11 ist es tatsaechlich ein Ereignis. Alles andere kann momentan nur als Uebertreibung klingen. Es muss doch irgendwo ein "too good to be true" Gefuehl irgendwo schlummern. Ausrutschen und auf die Nase fallen muss ja nicht unbedingt weh tun; wenn man aber von etlichen Meter Hoehe auf die Nase faellt dann schon...

Skysnake
2014-01-21, 06:35:45
nVidia hat zumindest auf Seiten der GPU aber bisher auch den ältesten Rotz verbaut und sich damit rausgeredet, dass das ja so effizient gewesen sei :rolleyes:

Die zwei Sachen passen auf jeden Fall nicht zusammen, da gebe ich dir recht.

An sich glaub ich schon, das nVidia nen gewaltigen Effizienzsprung gemacht hat. Die Frage ist halt nur wo und wie.

Kleines Beispiel zu nachdenken:

(6W iGPU + 3W CPU + 1W I/O)/(6Punkte iGPU + 3Punkte CPU)= 1 W/P
(18W iGPU + 3W CPU + 1W I/O)/(36Punkte iGPU + 3Punkte CPU)= 0,5(6) W/P (die 6 lassen wir weg, weil wir mal Marketing spielen ;))

Und schon haben wir ein 77% Plus bei der Effizienz. Ein gewisse Teil von der Effizienzsteigerung kommt aber einfach davon, dass die CPU nicht mehr so rein haut und auch der I/O Kram, der ja einfach nur "Overhead" ist.

Je kleiner die TDP ist, desto schwieriger ist es in gewissen Umfang eine Effizienz zu steigern, weil einfach schon der ganze Bumsfallara Kram wie I/O eben nicht kleiner geht. Und gerade wenn man sich son SMX anschaut, dann schleppt das Ding aber einiges mit sich rum. Das wirklich nach weit unten zu skalieren wird nicht einfach.

Vor allem, T4 hatte ja ein Problem mit den CPU-Cores, weil die zu viel gesoffen haben. Falls es aufgefallen ist, an der Effizienz der CPU-Cores hat sich rein gar nicht getan in meinem Beispiel, obwohl die Effizienz stark gestiegen ist. Nur mal so ;)



Egal ob es jetzt 8,9 oder sogar 11W TDP sind mein Punkt war und ist dass Intel kinderleicht die peak CPU und GPU Frequenzen reduzieren kann auf ULP Haswell und sich mit etwas weniger Leistung aber geringeren Preisen auf der heutigen Baytrail Basis weiter-investieren und mit dem Rueckzahlungsprogramm werden wohl keine Hersteller nein dazu sagen.

Fuer smartphones wird das Ding genauso eine Zumutung wie auch T4 selbst mit reduzierten Frequenzen und was dann uebrig bleibt ist dass ihre bisherigen tablet Partner mit K1 high end tablets um einiges bessere Volumen verkaufen als mit T4. Fuer's letzte kein Zweifel aber dass es die Marktanteil im Markt ploetzlich neu vermischt will ich ernsthaft bezweifeln.

Hersteller wollen hauptsaechlich low cost Quark eben weil sie gesehen haben dass diese so gut verkauft werden.
Ja, die Leute sind nicht bereit einfach unsummen aus zu geben, und wenn dann noch son Angebot wie durch die subventionierten Intel Chips kommt, was zwar nicht NIE Megaleistung hat, aber nen unschlagbar gutes Pres/Leistungsverhältnis hat, dann kaufen das viele Leute. Und man muss eins immer festhalten!

Die Leute kaufen sich nur ein Gerät im Jahr, oder gar alle zwei Jahre. Auf jeden Fall in dem Jahr. Wenn Intel also eins mehr verkauft, dann ist das potenziell eins weniger für nVidia....

Ansonsten kann ich nur wieder zustimmen, in Smartphones wird man das Ding nicht sehen.

Alt. Siehe Post #3723. Sonst ist es nicht nur der heatsink sondern auch ein fan rechts oben an der Seite den man schlecht sehen kann.
Ich komm leider erst jetzt dazu, dazu etwas zu sagen, aber kommt euch das Ding nicht ungemein bekannt vor? :freak:

Das ist wohl nen weiterentwickelte Kayla Dev-Platform. http://www.extremetech.com/gaming/153535-nvidia-analyst-day-kepler-comes-to-smartphones-and-tablets-with-tegra-5-and-more

Sieht zumindest so aus, mit dem Chip+PCI-E Slot drunter. Halt noch, wenn ich das richtig sehe links mit Anschlüssen fürn Oszi. (EDIT: nein, hab ich nicht richtig gesehen, auf den anderen Bildern die Ailuros gerade verlinkt hat, sieht man, das es ne Expensioncard ist. Das wird dann wohl irgendwas WiFi oder G3 Modem oder sonst was sein vermute ich mal. Zumindest sieht es nach derartigen anschlüssen für ne Antenne aus, die ja ganz ähnlich zu denen für die Oszis sind.)

Was ich allerdings seltsam finde ist, dass das direkt sogar zwei! Platinen sind. :freak:


@Ailuros
Vielleicht könnte ich recht gehabt haben und sie haben es von der Kiste auf die 7 zoll tabs Gestreamt ;)

Das wäre ja schon hammer von ihrer Auslegung von Wahrheit "Ja es läuft ja auf Logan auch hier auf den 7 zoll nur kommt es von da drüben aber wir haben ja nicht gesagt das es von dem Reference tab kommt nur drauf läuft oder ? ;)"
Das wäre nen ziemlich harter Hund.....

Aber man muss leider sagen, zuzutrauen wäre es ihnen sogar -_-

Wäre ja nicht das erste mal, dass Sie nicht direkt lügen, aber die Wahrheit sooooooooo weit dehnen, dass eigentlich jeder bei sich denkt, das ihm frech ins Gesicht gelogen wurde.

Irgendwie erinnert mich das son bischen an den NSA-Style... "Nein wir überwachen Sie nicht mit dem Programm XY!" (Denkend: Es ist ja das Programm XY2 :devil:)

mboeller
2014-01-21, 07:28:15
An sich glaub ich schon, das nVidia nen gewaltigen Effizienzsprung gemacht hat. Die Frage ist halt nur wo und wie.


Der Sprung muss wirklich gewaltig gewesen sein:

192/2304 x 200 Watt = 16 Watt (im Vergleich zur Ti7800)

Der Takt ist ja fast gleich. Der Prozess ähnlich (HP <-> HPm). Der Speicher bringt sicher auch was. Aber weniger als die Hälfte von den 16 Watt glaube ich einfach nicht. Bei ihrem eigenen Demo kommen sie aber auf nur 0,9W bei wahrscheinlich 270 MHz. Also ist da IMHO eine "kleine" Lücke.

Ailuros
2014-01-21, 08:01:22
Der Sprung muss wirklich gewaltig gewesen sein:

192/2304 x 200 Watt = 16 Watt (im Vergleich zur Ti7800)

Der Takt ist ja fast gleich. Der Prozess ähnlich (HP <-> HPm). Der Speicher bringt sicher auch was. Aber weniger als die Hälfte von den 16 Watt glaube ich einfach nicht. Bei ihrem eigenen Demo kommen sie aber auf nur 0,9W bei wahrscheinlich 270 MHz. Also ist da IMHO eine "kleine" Lücke.

Es haut schon hin die GPU auf einstelliges wattage zu bekommen und dazu <5W ja mit 951MHz. Es ist eben NICHT eine 1:1 Kopie eines Kepler clusters. Leichte detour: ich wurde von vielen ziemlich intensiv damals angegriffen bei B3D als ich von Anfang an darauf bestand dass GK20A ein angepasster design ist und keine 1:1 Kopie von Kepler. Ich hab mich aber trotz allem nach der Ankuendigung oeffentlich selber korrigiert diesbezueglich. RecessionCone war einer dieser und er antwortete kurz folgendes:

http://forum.beyond3d.com/showpost.php?p=1819213&postcount=1858

Ich weiss jetzt nicht genau wie tief GK20A in die Vergangenheit greift, aber fuer den trisetup zumindest ist das Ding eher mit G80 verwandt, denn das erste kann nach Damien Triolet 0.5 Tri/clock oder 1 Tri/2 clocks (aber 1 zixel/clock). Eine stelle wo alle GPU Hersteller im ULP Markt zu verschiedenem Grad sparen ist die Abhaengigkeit beim texturing von den ALUs. Was sie hier angerichtet haben keine Ahnung (ich brauch Zeit einen developer zu finden der privat etwas darueber aussagen will), aber falls es doch hier irgend eine Art Koppelung gibt, haben wir auch noch Elemente aus der pre G80 Aera.

Es liegt auch nichts schlechtes daran alles andere; der eigentliche Punkt ist hier aber dass es tatsaechlich Wege gibt eine GPU auf sub-5W Verbrauch zu bekommen ohne dass man am featureset einer Kepler SMX sparen muss sondern man packt noch ein paar Einzelheiten wie ASTC und DX11.2 dazu.

Wer immer noch glaubt dass GK20A ein waschreiner Kepler ist, kann auch glauben dass man mit der Backofen-GPU-wiederbelebungs-Methode eine 8800GTX in den Backofen steckt und wenn man fertig mit dem "backen" ist man einen nagelneuen Titan aus dem Ofen bekommt. :D

-/\-CruNcher-/\-
2014-01-21, 22:52:23
Nicht vergessen sie selbst sagen ja immer wieder "The Heart of Tesla with the Soul of Kepler" ;)
wobei davon gibt es jetzt ja auch schon zig verschiedene versionen wie "The Heart of Geforce with the Soul of Tesla"

sehr interessant wird ob wir hier die Grundsteine für vielleicht Volta sehen :) ?

übrigens hab einen youtuber gefunden der ist besser als 1000x reviewer bei bay trail systemen der schaut sich die Hardware der verschiedenen OEM/ODM sehr genau an und findet auch Driver bugs, sowas können die meisten Reviews heutzutage einfach nicht bieten.

VXNNOYPAFjo

Hier fragt man sich echt was die vor Hardware release eigentlich testen ;)

BQbGKU9q7jg


Die datenblätter von Intel deuten auf eine combined Video Decoding solution hin sehr interessant :)

Gen7 Media Decode & VXD392

Weder VP9 noch H.265 werden supportet :(

Die Platform ist auch vollkommen auf Windows 8 Secure Boot ausgelegt man hat also pures glück wenn etwas anderes wie Win 8.1 booten sollte ohne certification keys im UEFI part keine chance :(

Heimatsuchender
2014-01-22, 15:31:11
Was ist eigentlich mit den Tegra Note 7 Tablets? Erscheinen die noch? Da hört man so gar nichts mehr von.


tobife

Undertaker
2014-01-22, 15:56:19
http://geizhals.de/evga-tegra-note-7-16gb-016-tn-0701-b1-a1050645.html

Allerdings zu diesem Preis und nach der K1 Vorstellung imo nicht sonderlich attraktiv, da zwar schneller als das Nexus 7, aber mit schlechterem Display und weniger RAM.

Ailuros
2014-01-22, 16:39:44
http://geizhals.de/evga-tegra-note-7-16gb-016-tn-0701-b1-a1050645.html

Allerdings zu diesem Preis und nach der K1 Vorstellung imo nicht sonderlich attraktiv, da zwar schneller als das Nexus 7, aber mit schlechterem Display und weniger RAM.

Der Preis ist alles andere als schlecht.Neben TDP hat NV auch "vergessen" ein launch Datum zu nennen. Dafür wird der Nachfolger mit K1 um 5x Mal schneller sein, gleichzeitig weniger Strom verbrauchen und weniger kosten :weg:

Undertaker
2014-01-22, 16:49:02
Den Preis muss man wie erwähnt im direkten Vergleich mit dem Nexus 7 sehen, welches nun einmal vor allem das bessere Display besitzt. Wie erwähnt ist das Note 7 dafür schneller, saugt dafür aber auch den Akku schneller leer. Anandtech hat es auch schon ausführlicher getestet:

http://www.anandtech.com/show/7508/nvidia-tegra-note-7-review

Bei den Amis passt der Preis, da 30 Euro günstiger als das Nexus. Hierzulande, bei jeweils 220€, ist das imo nicht ganz der Fall (außer man schaut wirklich vor allem auf die Leistung).

Was dein zweiter Satz soll, weiß ich leider nicht.

Skysnake
2014-01-22, 17:26:11
Also so begeistert bin ich da jetzt nicht von. Der Preis ist zwar nicht soo schlecht, aber wenn ich mir dagegen mal nen IPadAir anschaue, dann muss man sich schon fragen, ob man nicht lieber die ~200€ mehr ausgibt. Die Unterschiede sind schon gewaltig vom Display her. Aber nicht nur das. Es läuft auch noch länger und ist schneller :ugly:

Und das Air ist ja jetzt auch nicht mehr ganz taufrisch.

Dural
2014-01-22, 18:37:44
Dafür hat es vernünftigen Stereo Sound und Stifteingabe...

Aber wer kauft noch ein T4 wenn der K1 gerade Vorgestellt wurde?!?

Bei uns ist das Note7 übrigens schon "länger" gelistet.

Skysnake
2014-01-22, 18:39:45
Ah ja, und wann ist dann irgendwann mal so nen tolles Device mit nem K1 drin käuflich zu erwerben?

Vor H2/14 wird das wohl eher nichts mehr werden, wenn die erst die ersten Chips zurück hatten zur CES.

Dural
2014-01-22, 18:40:55
NV hat ja gesagt Ende Q2 sind Geräte auf dem Markt.

Undertaker
2014-01-22, 18:51:00
Vor H2/14 wird das wohl eher nichts mehr werden, wenn die erst die ersten Chips zurück hatten zur CES.

Verwechselst du das gerade mit Denver? Die A15-Variante ist schon länger draußen und auch bei den OEMs. Anfang Sommer hört man von den Herstellern für den Marktstart. ;)

Sehr wahrscheinlich ist auch ein Nachfolger des Note 7, der dann zu den ersten K1-Devices gehören könnte. Wie gesagt, darum würde ich den Vorgänger jetzt nicht mehr unbedingt nehmen. Allerdings nicht, weil ein mehr als doppelt so teures iPad Air besser ist, das wäre ja wie dem Golf-Käufer zur E-Klasse zu raten... ;)

Was Tegra 4 hier und jetzt noch einmal interessant machen könnte, wäre imo ein schlichtes 10" Tablet mit FullHD für max. 300€ – hier klafft momentan ein riesiges Loch im Markt zwischen Low-End-Geräten mit Cortex-A7/A9 und >400€ High-End-Modellen mit Snapdragon 600/800.

Ailuros
2014-01-22, 19:02:35
Verwechselst du das gerade mit Denver? Die A15-Variante ist schon länger draußen und auch bei den OEMs. Anfang Sommer hört man von den Herstellern für den Marktstart. ;)

Anfang Sommer wenn wohl alles nach Plan laeuft und wenn nicht ist man schnell zumindest am Rand von H2. Ob jetzt ein Monat vor oder zurueck ist nicht der Rede wert.

Was dein zweiter Satz soll, weiß ich leider nicht.

Satire basiert auf einer Reihe von Uebertreibungen die aber doch auf realen Tatsachen basieren.

Undertaker
2014-01-22, 19:07:23
Die Grenze zwischen Satire und Polemik ist manchmal ziemlich eng und ich denke, wir einem sachlichen Umgang fahren wir letztlich alle am besten. :)

Um übrigens nochmal bei Tegra 4 zu bleiben:

http://geizhals.de/gigaset-qv1030-16gb-s30853-h1168-r102-a1037754.html

Das Ding hatte ich bislang irgendwie noch gar nicht auf der Mattscheibe, hat dazu schon jemand etwas gelesen? Entspricht ja fast exakt dem Toshiba Excite Pro, ist aber nochmal leicht günstiger. Mal schauen, ob wir nicht doch bald die 300€-Marke knacken... ;)

Ailuros
2014-01-22, 19:21:01
Die Grenze zwischen Satire und Polemik ist manchmal ziemlich eng und ich denke, wir einem sachlichen Umgang fahren wir letztlich alle am besten. :)
Och ich hab "kulturelle Urheberrechte" auf banale Sachen wie Satire, Polemik & Demokratie u.v.a.
Um übrigens nochmal bei Tegra 4 zu bleiben:

http://geizhals.de/gigaset-qv1030-16gb-s30853-h1168-r102-a1037754.html

Das Ding hatte ich bislang irgendwie noch gar nicht auf der Mattscheibe, hat dazu schon jemand etwas gelesen? Entspricht ja fast exakt dem Toshiba Excite Pro, ist aber nochmal leicht günstiger. Mal schauen, ob wir nicht doch bald die 300€-Marke knacken... ;)

Gibt es überhaupt zumindest 1 win8 tablet mit T4? Es spricht doch nichts dagegen eher das Gegenteil.

Undertaker
2014-01-22, 19:22:38
Na klar, das Surface 2. Viel mehr existiert mit WIndows RT auch gar nicht... :biggrin:

(Von Windows x86/x64 redest du ja sicherlich nicht, dass das technisch nicht möglich ist sollte klar sein.)

Ailuros
2014-01-22, 19:25:01
Na klar, das Surface 2. Viel mehr existiert mit WIndows RT auch gar nicht... :biggrin:

(Von Windows x86/x64 redest du ja sicherlich nicht, dass das technisch nicht möglich ist sollte klar sein.)

Doch. Wieso nicht?

Von der Einsamkeit von RT will wohl die Mehrzahl nichts wissen.

Undertaker
2014-01-22, 19:25:47
Seit wann läuft Windows 8 auf ARM-SoCs? :confused:

Ailuros
2014-01-22, 19:29:50
Seit wann läuft Windows 8 auf ARM-SoCs? :confused:

Ich dachte es hat sich seit win8.1 gelöst.
Und wann ueberwaeltigt M$ den Blödsinn? RT soll doch am Auslauf sein oder?

Undertaker
2014-01-22, 19:32:17
8.1 setzt u.a. SSE2 voraus, das unterstützt kein ARM-SoC. Aber ja, diese Vereinigung ist überfällig...

Hugo78
2014-01-22, 21:54:19
Ich dachte es hat sich seit win8.1 gelöst.

Wenn das der Fall wäre, hätte Android heute schon ein richtig großes Problem, aber soweit denkt man bei MS nicht.
Die sparen sich lieber die Kosten, ihr richtiges Windows ARM fähig zubekommen und warten darauf, dass Intel konkurrenzfähig ggü. ARM Herstellern wird.

-/\-CruNcher-/\-
2014-01-22, 22:42:00
Die Grenze zwischen Satire und Polemik ist manchmal ziemlich eng und ich denke, wir einem sachlichen Umgang fahren wir letztlich alle am besten. :)

Um übrigens nochmal bei Tegra 4 zu bleiben:

http://geizhals.de/gigaset-qv1030-16gb-s30853-h1168-r102-a1037754.html

Das Ding hatte ich bislang irgendwie noch gar nicht auf der Mattscheibe, hat dazu schon jemand etwas gelesen? Entspricht ja fast exakt dem Toshiba Excite Pro, ist aber nochmal leicht günstiger. Mal schauen, ob wir nicht doch bald die 300€-Marke knacken... ;)

Bei der Auflösung bricht Tegra4 doch komplett weg das erinnert mich total an China tabs die auch mal gern retina like high resolution displays verbauen (um aus der masse zu stehen) aber garnicht die Power haben um es zu bedienen ;)
das ist doch völliger quatsch bei 20 fps offscreen bei 1080p kann sich ja jeder ausrechnen wo das landet ;)

fondness
2014-01-22, 22:54:27
Ich dachte es hat sich seit win8.1 gelöst.
Und wann ueberwaeltigt M$ den Blödsinn? RT soll doch am Auslauf sein oder?

Von was redest du bitte? Windows gib es seit Win8 in eine ARM-Version -> RT. Win8 für x86 kann logischerweise wegen ISA-Inkompatibilität nicht auf ARM-Chips laufen.

Ailuros
2014-01-22, 23:10:37
Bei der Auflösung bricht Tegra4 doch komplett weg das erinnert mich total an China tabs die auch mal gern retina like high resolution displays verbauen (um aus der masse zu stehen) aber garnicht die Power haben um es zu bedienen ;)
das ist doch völliger quatsch bei 20 fps offscreen bei 1080p kann sich ja jeder ausrechnen wo das landet ;)

Wieso soll T4 bei 2560 genau abbrechen? Bei 3d wird es dann schon knapp aber T4 ist schon mehr oder weniger iPad4 GPU Leistung.

Von was redest du bitte? Windows gib es seit Win8 in eine ARM-Version -> RT. Win8 für x86 kann logischerweise wegen ISA-Inkompatibilität nicht auf ARM-Chips laufen.

WinRT ist gerade beim sterben und ich dachte MS hatte es schon seit win8.1 gelöst. Wie wäre es wenn Du mal etwas ausführlicher in die Posts von anderen reinlesen würdest.
-__---------------------------------

Das dumme ist dass gerade für Windows tablets K1 ideal wäre.

-/\-CruNcher-/\-
2014-01-22, 23:52:28
Wieso soll T4 bei 2560 genau abbrechen? Bei 3d wird es dann schon knapp aber T4 ist schon mehr oder weniger iPad4 GPU Leistung.



WinRT ist gerade beim sterben und ich dachte MS hatte es schon seit win8.1 gelöst. Wie wäre es wenn Du mal etwas ausführlicher in die Posts von anderen reinlesen würdest.
-__---------------------------------

Das dumme ist dass gerade für Windows tablets K1 ideal wäre.


Jep hier bleibt dan praktisch nur AMD als Konkurenz über und die müssen erstmal dahin kommen die ersten anfänge könnten wir schon im Sommer sehen :)

Aber Intel hat nen headstart und die frage ist wer wird wo schneller aufholen, da die akzeptanz schonmal absolut da ist für Intels 8.1 Tablets und Intel ist ja nicht dumm und pushed Dual OS ;)

Einfach herlich das alles auf so einem Device zu sehen und vor allem die Fortschritte die Intel mit ihrer GPU seit dem GMA disaster gemacht hat :)

gfjhvd6Zb60


Gibt noch nicht viele die anscheinend Trine 2 testen aber immerhin schonmal ein wenn auch ziemlich kurzes result auf Bay Trail ;)

dsgQQOqpn7A


auch nicely :)

87iF_ujInfM

Hier ist der Slate 7 Extreme Tegra4

AORjjkWRdSo

Coda
2014-01-23, 03:37:11
Von was redet ihr gerade? Win RT IST Windows 8.1. Sie haben nur das RT aus dem Namen gestrichen, sonst hat es exakt die gleiche Limitierungen. Die sind sowieso nur politisch gewollt, es gibt keine technischen Gründe dafür. Und nein, ARM-Windows hat keinen x86-Emulator.

Neosix
2014-01-23, 04:31:40
Und wie unterscheidet man nun die ARM/x86 Varianten?

Muss ich bei jedem Gerät erst auf die CPU gucken bevor ich weiß ob ich außer Metro sonst was an dem Gerät nutzen kann?

Ailuros
2014-01-23, 07:48:56
Jep hier bleibt dan praktisch nur AMD als Konkurenz über und die müssen erstmal dahin kommen die ersten anfänge könnten wir schon im Sommer sehen :)

Aber Intel hat nen headstart und die frage ist wer wird wo schneller aufholen, da die akzeptanz schonmal absolut da ist für Intels 8.1 Tablets und Intel ist ja nicht dumm und pushed Dual OS ;)

Eine Bitte nebenbei: es ist ja schoen und gut dass jeder zweite Post von Dir zu etlichen videos/pics verlinkt, aber versuch mal solchen ueberlasteten Inhalt pro Post auf einem mobilen Geraet wie ein phablet oder sogar 7" tablet zu verfolgen. Kein Einwand zu den links, aber es wuerde helfen wenn Du sie ohne tags in Deine Posts einfuegst. Danke.

Von was redet ihr gerade? Win RT IST Windows 8.1. Sie haben nur das RT aus dem Namen gestrichen, sonst hat es exakt die gleiche Limitierungen. Die sind sowieso nur politisch gewollt, es gibt keine technischen Gründe dafür. Und nein, ARM-Windows hat keinen x86-Emulator.

Aber man kann ARM CPUs auf win8.1 benutzen oder doch nicht? Um das geht es gerade; denn ich hatte den daemlichen Eindruck dass es schon moeglich sei.

Skysnake
2014-01-23, 09:38:05
Selbst wenn, was bringt es dir???

Sobald die Software auch nur irgend eine x86 Instruction verwendet, dann wird das nicht laufen.

Du bist mit ARM und Windows halt darauf angewiesen, jedwede Software neu compiliert und angepasst zu bekommen. Du kannst halt selbst absolut nichts machen, weil die ganze Windows Software halt nicht openSource ist im Normalfall.

Da kann das ARM Zeug so schnell sein wie es will. Ohne nen Codepfad für ARM wird das nichts.

fondness
2014-01-23, 09:39:48
Es gibt natürlich auch ein Win8.1 für ARM.

Ailuros
2014-01-23, 09:41:52
Selbst wenn, was bringt es dir???

Sobald die Software auch nur irgend eine x86 Instruction verwendet, dann wird das nicht laufen.

Du bist mit ARM und Windows halt darauf angewiesen, jedwede Software neu compiliert und angepasst zu bekommen. Du kannst halt selbst absolut nichts machen, weil die ganze Windows Software halt nicht openSource ist im Normalfall.

Da kann das ARM Zeug so schnell sein wie es will. Ohne nen Codepfad für ARM wird das nichts.

Dann sollte sich Microsoft aber NICHT beschweren wenn der ULP Markt mal wieder an ihrem Arsch vorbei rennt; wenn sie nicht einsehen koennen dass sie damit keine OS Marktanteile gewinnen sondern verlieren, dann sind sie bloeder als ich mir bis jetzt vorgestellt habe.

***edit: $100Mio question was zum Henker brauchen dann NV und noch mehr QCOM DX11.x fuer? ES_Next = nada tessellation oder geometry shader. Custom extensions fuer tessellation mit der Hoffnung dass vielleicht irgend ein ISV etwas fuer Android entwickeln will?

fondness
2014-01-23, 09:43:36
Dann sollte sich Microsoft aber NICHT beschweren wenn der ULP Markt mal wieder an ihrem Arsch vorbei rennt; wenn sie nicht einsehen koennen dass sie damit keine OS Marktanteile gewinnen sondern verlieren, dann sind sie bloeder als ich mir bis jetzt vorgestellt habe.

Da kann MS doch gar nichts machen. Die Software ist für x86 kompiliert, es ist Aufgabe der Dritthersteller das zu ändern - und hier liegt ein klassisches Henne-Ei-Problem vor: Ohne Marktanteile werden sich viele nicht die Mühe machen.

Skysnake
2014-01-23, 10:06:14
Dann sollte sich Microsoft aber NICHT beschweren wenn der ULP Markt mal wieder an ihrem Arsch vorbei rennt; wenn sie nicht einsehen koennen dass sie damit keine OS Marktanteile gewinnen sondern verlieren, dann sind sie bloeder als ich mir bis jetzt vorgestellt habe.

***edit: $100Mio question was zum Henker brauchen dann NV und noch mehr QCOM DX11.x fuer? ES_Next = nada tessellation oder geometry shader. Custom extensions fuer tessellation mit der Hoffnung dass vielleicht irgend ein ISV etwas fuer Android entwickeln will?
HSA vergessen?

Das läuft alles auf HSA raus.

Der König könnte halt AMD werden mit x86+ARM+guter iGPU in einem Chip. Du schmeist egal welches OS, egal welche Software einfach drauf und es läuft. Damit wärst du alle Probleme los.

Die Frage ist halt nur, wie die anderen HSA Partner ohne x86 da rein passen....

Was möglich wäre, wäre das AMD ihnen hinten rum sehr kleine effiziente x86 Cores zur verfügung stellt, die halt ganz ganz unten in der eigenen Produktfamilie sind, bis HSA eben voll lauffähig ist, und Software dafür in Massen produziert wird.

Genau lässt sich das noch nicht wirklich abschätzen. Wer weiß, vielleicht bringt AMD auch nen x86->HSA wrapper oder sonst was mit ein.

Da ist vieles möglich. Die ganzen Firmen werden aber schon ihren Grund haben, warum Sie vom Featureset her ihre iGPUs hoch prügeln und gleichzeitig bei HSA mit machen.

Des wegen verstehe ich auch nicht, das nVidia da nicht mit macht. Im Prinzip ist es gar nicht so wichtig, ob HSA einschlägt oder nicht. Sich aber allein die ganzen Infos entgehen zu lassen, und zu wissen, was der komplette Markt außer Intel und man selbst macht, ist in meinen Augen ziemlich bescheuert.

Die Frage ist halt nur, wie lange hält die Allianz der Feinde. Der Feind meines Feindes (Intel) ist zwar mein Freund, aber auch nur so lange, wie ich ihn auch wirklich brauche...

Ailuros
2014-01-23, 11:40:49
Da ist vieles möglich. Die ganzen Firmen werden aber schon ihren Grund haben, warum Sie vom Featureset her ihre iGPUs hoch prügeln und gleichzeitig bei HSA mit machen.

QCOM koennte es nur als Reaktion zu NV machen, welches aber als Bloedsinn klingt wenn man bedenkt:

1. QCOM's Kerngeschaeft sind hauptsaechlich smartphone SoCs. Den DX11 overhead haetten sie in Transistoren investieren koennen fuer hoehere Leistung.

2. Man koennte ja sagen dass es QCOM als Reaktion zu NV gemacht hat, welches aber auch keinen besonderen Sinn macht weil sie ohne DX11 in Effizienz dazugewonnnen haetten.

NV hat ja mit HSA nichts am Hut und da eine AMD Initiative wuerde es mich VERDAMMT ueberraschen wenn NV je dabei teilnehmen wuerde.

Fuer NV und DX11 ist die Erklaerung einfach; sie haben von Anfang an Kepler wohl so entwickelt dass man es auch produktiv im ULP einsetzen kann.

Gaestle
2014-01-23, 13:16:06
Aber man kann ARM CPUs auf win8.1 benutzen oder doch nicht? Um das geht es gerade; denn ich hatte den daemlichen Eindruck dass es schon moeglich sei.

Beides. Es gibt zwei Win8.1, genauso, wie es vorher zwei Win8 gab:
vorher:
Win8 x86
Win8 RT ARM

jetzt:
Win8.1 x86
Win8.1 RT ARM

MS hat (unter Anderem) das Problem, dass wenn Windows drauf steht, die Leute ein x86 Windows erwarten mit voller x86-"App"-Kompatibilität (früher hießen die Dinger noch Programme) wie z.B. irgendwelche kleinen Helferlein, die man sich damals mal zu Win95-Zeiten aus dem Netz gesaugt hat (z.b. mp3Tag & Co.).
Die x86-"Apps" laufen aber nicht auf ARM (andersrum laufen die Windows-ARM-Apps aber auch auf dem x86-Windows 8). Dafür kann aber erstmal das OS nichts. Für mein persönliches Gefühl hat's das Marketing verbockt und natürlich endlos viele Reviewer, die nicht begriffen haben, dass Win8RT in der iOS-Liga spielen soll und nicht in der Desktop-Windows-Liga. Und natürlich die allseits "geliebten" Kacheln, wo die Konkurrenz mit seit Win95 gewohnten und zutiefst verinnerlichten Icons rumhantiert.
Jetzt ist MS eben auf die glorreiche Idee gekommen, das RT aus dem Namen für die ARM-Version zu streichen. Ganz großes Kino. Jetzt muss man nämlich wirklich auf den Prozzi schauen, um zu sehen, welche Version man bekommt.
[/OT]

Es gab auch eine ASUS Transformer Convertible Serie mit Win8RT und Tegra(3).

Im Nokia Tablet Lumia 2520 mit Win8.1 (ARM) steckt ein S800.

mczak
2014-01-23, 17:52:42
Beides. Es gibt zwei Win8.1, genauso, wie es vorher zwei Win8 gab:
vorher:
Win8 x86
Win8 RT ARM

jetzt:
Win8.1 x86
Win8.1 RT ARM

MS hat (unter Anderem) das Problem, dass wenn Windows drauf steht, die Leute ein x86 Windows erwarten mit voller x86-"App"-Kompatibilität (früher hießen die Dinger noch Programme) wie z.B. irgendwelche kleinen Helferlein, die man sich damals mal zu Win95-Zeiten aus dem Netz gesaugt hat (z.b. mp3Tag & Co.).
Die x86-"Apps" laufen aber nicht auf ARM (andersrum laufen die Windows-ARM-Apps aber auch auf dem x86-Windows 8). Dafür kann aber erstmal das OS nichts. Für mein persönliches Gefühl hat's das Marketing verbockt und natürlich endlos viele Reviewer, die nicht begriffen haben, dass Win8RT in der iOS-Liga spielen soll und nicht in der Desktop-Windows-Liga. Und natürlich die allseits "geliebten" Kacheln, wo die Konkurrenz mit seit Win95 gewohnten und zutiefst verinnerlichten Icons rumhantiert.
Jetzt ist MS eben auf die glorreiche Idee gekommen, das RT aus dem Namen für die ARM-Version zu streichen. Ganz großes Kino. Jetzt muss man nämlich wirklich auf den Prozzi schauen, um zu sehen, welche Version man bekommt.
[/OT]


Genau genommen gibt es 3 Windows 8 Versionen - denn es gibt ja auch noch Windows Phone 8.
Die Strategie von MS versteht wirklich kein Mensch. MS möchte ja gerne dass man eben Win 8 RT als vollverwertiges Windows sieht. Aber wie du schon sagst das wird natürlich nichts denn der Kunde versteht darunter ein System bei dem alle seine alten Apps laufen. Hingegen ist Win 8 RT eben Windows Shop only.
Die Unterscheidung zwischen Windows 8 RT und Windows Phone 8 hingegen ist hochgradig unsinnig - ist ja technisch praktisch dasselbe bloss ist letzteres abgespeckt, längst nicht alle APIs verfügbar aber da beide Shop-only sind (ist bloss ein anderer Shop...) interessiert das doch keinen. Es macht auch rein technisch gesehen keinen Sinn, ist doch die HW für Smartphones und Tablets weitestgehend identisch (mal abgesehen vom Display). Das illustriert ja schon die Existenz von Phablets. Aber Win 8 RT braucht halt minimal 32GB Flash was preislich für Smartphones wohl nicht akzeptabel war (nicht umsonst ist das weitaus meistverkaufte Win 8 Phone das billigste) - dass das auch für Tablets ein Problem ist hat MS wohl nicht bedacht...

Ailuros
2014-01-23, 18:10:18
Nebenbei rollt Kishonti gerade die ersten Resultate aus fuer GFXbench3.0:

http://gfxbench.com/result.jsp?benchmark=gfx30&data-source=1&version=all&test=545&text-filter=&order=score&os-Android_gl=true&os-iOS_gl=true&arch-ARM=true&arch-x86=true&base=device

grobi
2014-01-23, 18:22:42
Nebenbei rollt Kishonti gerade die ersten Resultate aus fuer GFXbench3.0:

http://gfxbench.com/result.jsp?benchmark=gfx30&data-source=1&version=all&test=545&text-filter=&order=score&os-Android_gl=true&os-iOS_gl=true&arch-ARM=true&arch-x86=true&base=device


Was hat das jetzt für eine Relevanz? Ich seh da keinen Tegra.


gruß grobi

Ailuros
2014-01-23, 18:40:54
Was hat das jetzt für eine Relevanz? Ich seh da keinen Tegra.


gruß grobi

NV hat unter anderem auch GFXbench3.0 Resultate in ihrer K1 Praesentation benutzt und es gibt im uebrigen schon T3 Resultate. Wie nahe verfolgst Du die Debatte hier ueberhaupt?

Undertaker
2014-01-23, 18:47:10
T3? Tegra 3 oder was meinst du? :confused:

Das die von NV angegebenen Werte für die Konkurrenz passen, ist schon einmal ein gutes Zeichen. Jetzt müssen nur noch die eigenen, versprochenen K1-Werte stimmen... ;)

Ailuros
2014-01-23, 18:58:04
T3? Tegra 3 oder was meinst du? :confused:

Das die von NV angegebenen Werte für die Konkurrenz passen, ist schon einmal ein gutes Zeichen. Jetzt müssen nur noch die eigenen, versprochenen K1-Werte stimmen... ;)

Natuerlich werden sie stimmen. Ungefaehr 28,6-29,0 fps fuer GK20A so lange der Stromverbrauch egal ist. Ich kann den 3-er benchmark leider noch nicht runterladen um mir die jeweiligen tests mal genauer anzuschauen. Vom "battery" test weiss ich nicht was ich davon halten soll wenn display Helligkeit nicht genau auf den gleichen Wert angepasst wird.

Interessant werden wohl auch low level test wie der fuer render quality sein; klingt mir nach irgend einem Praezisionstest.

***edit: T3 fuer Tegra3 ja. Es gibt bis jetzt nur low level test vom 3.0 dafuer aber es werden ja Resultate gerade hochgeladen.

******edit2: wofuer wohl der "driver overhead" test steht dass die A7 mit so grossen Unterschied von allen anderen abzieht. Hoeher ist besser oder schlechter? :confused:

Skysnake
2014-01-23, 20:12:50
öhm...

Was mir gerade erst auffällt, nVidia schreibt auf ihrer Folie im Leistungsvergleich:

(1) Measured data for GFXBench 3.0 GL Gold, Manhattan
Da steht aber nichts von Offscreen dabei. Die Werte passen zwar zu den Offsreen Werten, aber das sollte man dennoch im Auge behalten. Nicht dass da Äpfel mit Birnen verglichen wird.

Man muss auch schauen, wie die FPS genau aussehen. Nach der Folie nimmt man eventuell die FPS ohne Komma. Da wären dann ~10% Fehler drin.

Ailuros
2014-01-23, 20:40:08
In der Folie steht fuer's iPhone5S im GLB3.0 11 fps drin und fuer's XPeria Z dann 9 fps. Beide sind offscreen scores; das iPhone5S erreicht in nativer Aufloesung 21 fps :P

Sonst kann ich nur Manhattan (GLB3.0 only) nicht hier laufen lassen; fuer den Rest wird zwar beschrieben was jeder test anstellen will und wie sie in etwa vornehmen aber ich will noch ein bisschen nachforschen um zu sehen ob manche tests (wie z.B. die battery tests) etwas werd sind oder nicht.

Die driver overhead Resultate des A7 kann ich mir aber bis jetzt noch nicht erklaeren.

Skysnake
2014-01-23, 20:59:39
Hab ich was anderes gesagt?

Nö.

Nur sollte man halt auch schauen, ob die Werte von nVidia eben AUCH Offscreen sind. Steht ja nicht dabei. Mag jetzt zwar kleinlich klingen, aber nVidia trau ich leider sowas zu...

Hugo78
2014-01-23, 21:23:38
Nvidias Werte sind natürlich onscreen...
... in 4K

Undertaker
2014-01-23, 21:32:17
An anderer Stelle wurde definitiv bestätigt, dass alle Werte 1080p Offscreen sind. Ebenso übrigens, dass die K1-Zahlen mit dem (auf dem Note 7 basierenden) Referenztablet ermittelt wurden.

Ailuros
2014-01-23, 22:13:54
Hab ich was anderes gesagt?

Nö.

Nur sollte man halt auch schauen, ob die Werte von nVidia eben AUCH Offscreen sind. Steht ja nicht dabei. Mag jetzt zwar kleinlich klingen, aber nVidia trau ich leider sowas zu...

Wenn meine Infos stimmen dann hat das K1 Referenz 7" tablet eine native Auflösung von 1080p; offscreen ist bei 1080p...wobei ich nicht weiss ob ich mich mit Deinem Stuss oder den letzten beiden Posts mehr amüsieren sollte :P

Skysnake
2014-01-23, 22:46:50
Bei nVidia bin ich halt inzwischen schon paranoid, was solche Sachen angeht. Die haben einfach zu oft einen schon verarscht...

Dural
2014-01-23, 22:58:17
so ein Blödsinn.

NV ist ein Börsen Notiertes Unternehmen, falsche Informationen könnten Millionen kosten. Zudem es ziemlich Unklug wäre einem OEM bewusste falsch Informationen weiter zu leiten, auch das könnten Millionen kosten oder im geringstem fall einen Kunden für immer weniger bedeuten.

Manchmal frage ich mich echt was manche Menschen für ein Gefühl haben wie es im wahren Leben / Wirtschaft wirklich läuft. :freak:

Edit:
Mein T3 Tablet läuft im GFX Offscreen gar nicht?
T-Rex auf 1080p 4.1FPS

Note3 / 800
Manhattan Offscreen 9.2FPS
T-Rex Offscreen 25.0FPS

Somit ist der 800 schlappe 6,35x schneller als ein T3 :freak:
wenn man die damalige direkte Konkurrenz mit dem T3 vergleicht, sieht dieser aber nicht mal so schlecht aus:
Galaxy S2 2,7FPS
Galaxy S3 4,1FPS
IPhone 4S 2.8FPS
IPhone 5 6.7FPS

Von wegen unterlegene GPU, aber das sage ich ja nicht erst seit heute.

Ailuros
2014-01-23, 23:32:42
Die Infos sind nirgends falsch jede für sich ausgekapselt. Wenn ich in einem slide von reiner Leistung rede und im anderen von perf/W ist es nicht NVs Fehler wenn ein Leser sie kombiniert & zu falschen Schlussfolgerungen kommt.

Es wurde KEINEM erlaubt irgend etwas selber auf den Referenz-Geraeten zu messen und es wundert mich über haupt dass tomshw es schaffte das Lenovo AIO schnell zu benchen. BSN war sehr spartanisch ueber K1 diesmal (uva) und Anand bekam diesmal keine Exklusivität wie mit T4. Was hatte denn NV genau zu verstecken?



Manchmal frage ich mich echt was manche Menschen für ein Gefühl haben wie es im wahren Leben / Wirtschaft wirklich läuft. :freak:

Gute Frage aber dann eher für Dich selber und die Tegra Sparte generell.

Edit:
Mein T3 Tablet läuft im GFX Offscreen gar nicht?

Überhaupt nicht oder nur Manhattan nicht?

T-Rex auf 1080p 4.1FPS

Note3 / 800
Manhattan Offscreen 9.2FPS
T-Rex Offscreen 25.0FPS

Somit ist der 800 schlappe 6,35x schneller als ein T3 :freak:
wenn man die damalige direkte Konkurrenz mit dem T3 vergleicht, sieht dieser aber nicht mal so schlecht aus:
Galaxy S2 2,7FPS
Galaxy S3 4,1FPS
IPhone 4S 2.8FPS
IPhone 5 6.7FPS

Von wegen unterlegene GPU, aber das sage ich ja nicht erst seit heute.

T-Rex ist nichts anderes als GLB2.7 über dass schon seit zumindest 1 Jahr diskutiert wird. Die Resultate sind alles andere als neu.

Skysnake
2014-01-23, 23:54:52
so ein Blödsinn.

NV ist ein Börsen Notiertes Unternehmen, falsche Informationen könnten Millionen kosten. Zudem es ziemlich Unklug wäre einem OEM bewusste falsch Informationen weiter zu leiten, auch das könnten Millionen kosten oder im geringstem fall einen Kunden für immer weniger bedeuten.

Manchmal frage ich mich echt was manche Menschen für ein Gefühl haben wie es im wahren Leben / Wirtschaft wirklich läuft. :freak:

Siehste, und genau DAS ist ja das Problem mit nVidia. Die lügen nämlich nicht, aber Sie lassen alle möglichen falschen Deutungen ihrer Aussagen einfach laufen und drücken sich selbst immer so schwammig und unzulänglich/mehrdeutig aus, dass die Leute/Presse von ganz allein anfängt den größten Mist zu verbreiten...

Das einzige mal, wo Sie wirklich richtig gelogen haben war als Huang den Fermi-Dummi in die Linsen gehalten hat. Ansonsten haben Sie nie gelogen, aber die Wahrheit haben Sie auch nicht wirklich gesagt...

Ailuros
2014-01-24, 06:56:38
Wenn es moeglich waere T4 (in einem tablet nicht Shield) :P laufen zu lassen duerfte es sich im besten Fall irgendwo auf GC4000 Nivaeu platzieren nach den GFLOPs: http://gfxbench.com/result.jsp?benchmark=gfx30&test=545&order=median&base=gpu

Fuellraten tests sind diesmal ausnahmsweise nicht so DR-freundlich da ein ziemlich guter Brocken an alpha blending diesmal drinsteckt; Adrenos tun sich uebrigens ausnahmsweise ausserordentlich gut mit alpha blending und damit ich es nicht vergesse die 9 fps des Adreno330 sind nicht mit default 450MHz sondern den =/>550MHz im Note3.

Ich hab so meine Zweifel fuer den Batterie-Test:

Optimizations for reaching higher short-term GPU performance could negatively affect end-user experience by resulting unexpected performance drops, quality deterioration or increased battery drain. Kishonti’s comprehensive testing tool provides a solution to expose these effects to vendors, the technology press and consumers alike.

The new Battery and Stability test measures the device’s battery life and performance stability by logging frames-per-second performance (FPS) while running sustained game-like animations. In addition the Render Quality test measures the visual fidelity in the same complex scene.

Es kann sehr leicht zwielichtig werden. Bisher (denn nicht jeder hat Zeit solche tests laufen zu lassen) wurden das iPad Air mit ca. 5 Stunden Laufzeit und das Note3 (Mali T628) mit ca. 2+ Stunden Laufzeit getestet. Wenn ich die tests nicht falsch interpretiere verliert bei dem Stresstest das erste ca. 17% an Leistung, waehrend das zweite 42%. Es ist eine ziemlich merkwuerdige Formel die sie benutzen; der bench behaelt beim start das Batterie-Prozentual, laesst den bench 30x Mal an der Reihe durchlaufen und dann wird mit dem neuen Batterie-Prozentual ausgerechnet wie lange ein Geraet theoretisch anhalten wuerde. Ich zieh mal die Augenbraue hoch inwiefern so etwas Sinn macht fuer die Laufzeit, aber auf jeden Fall wenn kein Fehler im zweiten Resultat liegt dann ist dieses wohl wertvoller als alles andere. Wenn's stimmt ist ein >40% Leistungsverlust unakzeptabel.

Mal sehen was dabei rauskommt wenn Adreno330 durch den test gezogen wird und natuerlich Tegras.

Mancko
2014-01-24, 08:25:58
Siehste, und genau DAS ist ja das Problem mit nVidia. Die lügen nämlich nicht, aber Sie lassen alle möglichen falschen Deutungen ihrer Aussagen einfach laufen und drücken sich selbst immer so schwammig und unzulänglich/mehrdeutig aus, dass die Leute/Presse von ganz allein anfängt den größten Mist zu verbreiten...


Ist doch perfekt wenn andere für einen Marketing betreiben. Da kann ich ihnen nur dazu gratulieren. So muss das sein. Traumhaft. Würde ich auch gern erreichen.


Das einzige mal, wo Sie wirklich richtig gelogen haben war als Huang den Fermi-Dummi in die Linsen gehalten hat. Ansonsten haben Sie nie gelogen, aber die Wahrheit haben Sie auch nicht wirklich gesagt...

Marketing und Politik sind sehr vergleichbare Geschäftsfelder. Die pure Wahrheit hat da nichts verloren.

Ailuros
2014-01-24, 08:32:07
Ist doch perfekt wenn andere für einen Marketing betreiben. Da kann ich ihnen nur dazu gratulieren. So muss das sein. Traumhaft. Würde ich auch gern erreichen.

Jeder darf mal ab und zu traeumen; lange bleibt man ja selten auf der Wolke sonst darf man nicht mehr frei herumlaufen :freak:

Marketing und Politik sind sehr vergleichbare Geschäftsfelder. Die pure Wahrheit hat da nichts verloren.

Einen schoenen guten Morgen von ihrem ueblichen unangenehmen 3DC Weckdienst ;D

Undertaker
2014-01-24, 11:42:18
Es kann sehr leicht zwielichtig werden. Bisher (denn nicht jeder hat Zeit solche tests laufen zu lassen) wurden das iPad Air mit ca. 5 Stunden Laufzeit und das Note3 (Mali T628) mit ca. 2+ Stunden Laufzeit getestet. Wenn ich die tests nicht falsch interpretiere verliert bei dem Stresstest das erste ca. 17% an Leistung, waehrend das zweite 42%.

Das ist halt das typische Bild Smartphone vs. Tablet. Ein iPhone 5S wird wohl auch viel mehr Performance verlieren als das iPad, das hat ja schon Anandtech gezeigt.

Ailuros
2014-01-24, 12:00:29
Das ist halt das typische Bild Smartphone vs. Tablet. Ein iPhone 5S wird wohl auch viel mehr Performance verlieren als das iPad, das hat ja schon Anandtech gezeigt.

Fuer die CPU ja; gab es irgendwo GPU Vergleiche die ich verpasst habe? Nicht dass das 5S nicht auch throtteln wird aber um so viel?

Da es sich hier doch um T-Rex/GLB2.7 handelt schalten selbst auf einem quad A7 selten mehr als 2 cores ein und ich bezweifle dass die Frequenz mehr als nur ein paar Millisekunden ueber 800MHz steigt. Unter normalen Umstaenden duerfte das die CPU throttelt wenig bis gar nicht einen solchen Test beinflussen.

Bleibt nur abzusehen um wieviel andere smartphone GPUs in solch einem Fall ihre Leistung reduzieren.

***edit: Motorola X http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Motorola+Moto+X+%28XT1049%2C+XT105x%2C+XT1060%29&testgroup=battery

26 aus 26 fuer's Motorola X und 20 aus 20 fuer's iPad Air weil das long term Resultat onscreen ist. Entweder der test ist nutzlos oder das Motorola X und iPad Air throtteln ueberhaupt nicht bei 30x T-Rex runs.

Undertaker
2014-01-24, 13:07:17
Ja, Anandtech war CPU. Allerdings deuten ja die K1-Folien an, dass die G6430 im iPhone 5S sogar etwas mehr Leistung als die Adreno 330 im S800 (Xperia Z Ultra) ziehen soll; ergo liegt der Verdacht nahe, dass es auch hier zu heftigem Throttling kommt. Das iPad hat dieses Problem nur durch seinen größeren Formfaktor nicht.

Edit: Ach, vergiss es. Hatte oben nicht gesehen, dass du nicht von der S800-Variante des Note 3, sondern dem Exynos-Modell gesprochen hast.

-/\-CruNcher-/\-
2014-01-24, 22:44:06
Der Render Quality test betrift das den Video Encoder oder die GPU ?

Das Marketing Bla bla ist ja mal oh man

In addition the Render Quality test measures the visual fidelity in the same complex scene.

Also doch eher ein Reference Output test und sie measuren die PSNR difference ?

Ailuros
2014-01-25, 02:27:58
Der Render Quality test betrift das den Video Encoder oder die GPU ?

Das Marketing Bla bla ist ja mal oh man



Also doch eher ein Reference Output test und sie measuren die PSNR difference ?
Es ist ein reiner GPU benchmark und ja genau das misst der test.

-/\-CruNcher-/\-
2014-01-25, 03:22:12
gibt es davon eine S800 S4 Pro version oder ein anderes (hersteller) mit S800 in dem formfaktor ?

http://www.lg.com/de/tablet/lg-G-Pad-8.3

tritt aber eher gegen das Lenovo Thinkpad 8 an mit dem Display ;)

The purported 10-inch FHD tablet would be the legitimate successor to the original G Pad 8.3. The official told, "while the LG G Pad 8.3 features a Qualcomm Snapdragon 600 quad-core processor, the upcoming 10-inch tablet would incorporate a quad-core processor powered by Snapdragon 800 SoC."

Also wird S800 für 10 zoll getarget ?

Das Gpad 8.3 liegt bei 270 € Akku laufzeit scheint schlecht mit den 4600 mah also kein match gegen z.b das Dell Venue 8 pro in vieler hinsicht keine chance leider in der Resolution nicht wirklich vergleichbar da würde das Thinkpad 8 besser matchen :)

also steht da wirklich nur das Nexus 7 mit S4 Pro mit einem leicht differenten formfaktor für 240 €

und das Thinkpad 8 ist momentan das einzige was dagegen rennt von Intel aber mit einem weit höheren preis (gehen wir davon aus das google ca 50€ subsidized) wären das immernoch 100€ unterschied für das Bay Trail dafür aber mit HDMI

Das Thinkpad 8 wird ja in der 32 GB version bei ca 450€ liegen das wäre dann eher in Richtung S800 im berreich Amazon und Samsung allerdings mit wieder weniger resolution (2560 vs 1920)

Erstmal möchte man aber anscheinend die Early Adopter abziehen mit sage und schreibe 599 € für eine 128 GB version irgendwan im Februar naja nicht umsonst in der (Kategorie Buisness)

Da frag ich mich echt wie das hier abläuft als hätte Intel genau festgelegt ihr dürft das releasen und ihr das ;)


Nvidia hat keine chance bei ihrer jetzigen Verfügbarkeit

lastshady
2014-01-26, 00:32:56
Xiaomi MI 3W kriegt bei Glbenchmark 3 11fps,taktet der mehr?

-/\-CruNcher-/\-
2014-01-26, 02:49:42
1 FPS unterschied kann vieles sein vom Treiber bis hin zu messungenauigkeit

aber ich würde auch sagen sie haben ein wenig an der taktschraube gedreht um vor Samsung zu stehen, vor allem gibt es ja keinen battery test, chinesen halt die flunkern gerne ;)

So oft wie RockChip sich z.b auf ihrem Messestand bei den SOC daten vertuht und selbst neue Mali Chips entwickelt ist nicht mehr normal ;)

Ailuros
2014-01-26, 16:20:02
Xiaomi MI 3W kriegt bei Glbenchmark 3 11fps,taktet der mehr?

Unter 550MHz sicher nicht; es gibt 330-er die bei 450MHz anfagen und bis zu fast 600MHz takten.

-/\-CruNcher-/\-
2014-01-26, 17:10:12
Hui cheap octacore tablets mit big little und PowerVR6 sollen schon bald geshiped werden, momentan dreht sich alles verdamt schnell :)

Allwinner scheint immer schneller an RockChip vorbei zu ziehen :)

So ich verabschiede mich aus diesem Thread erstmal mein Bay Trail Tab ist unterwegs, vielleicht werd ich ein Deutsches Review machen mit den workflow und vor allen multimedia on the go possibilities ;)
Auf jedenfall wird ein Doom9 Review kommen ;)

Was auch noch mit Tegra K1 interessant ist ARM hat ihre Mali T760 auf Mid Range abgestufft also wird sie auch in low cost tablets auftauchen vorher war sie nur als Hig End eingeplannt ;)

fe7EMFvRXtk

SentinelBorg
2014-01-27, 16:34:26
gibt es davon eine S800 S4 Pro version oder ein anderes (hersteller) mit S800 in dem formfaktor ?

http://www.lg.com/de/tablet/lg-G-Pad-8.3
Das Galaxy Tab Pro 8.0 hat einen S800 drin.

deekey777
2014-01-27, 22:41:16
Microsoft hat Epic die Rechte an Gears of War abgekauft. Da fiel mir ein, dass Sweeney dies mal gesagt hat:
Sweeney revealed that "The most profitable game we've ever made, in terms of man years invested versus revenue, is actually Infinity Blade. It's more profitable than Gears of War."
http://www.gamasutra.com/view/news/173072/Epics_Sweeney_Platform_convergence_freemium_the_inevitable_future.php

Diese Behauptung ist aber viel interessanter:
Sweeney says, for instance, that the iPad 3 is approaching the performance of the Xbox 360 and PS3 -- and the pace of improvement is faster than Moore's Law. "We expect DirectX technology to be widely available on these mobile devices in the next few years," he added. "We're also seeing an interesting thing happen in terms of the overall development pattern globally."
Das war Ende Juni 2012.

Ailuros
2014-01-27, 22:51:45
Ich hab wohl meinen heutigen blonden Moment, denn ich verstehe ehrlich nicht auf was Du hinaus willst.

Heimatsuchender
2014-01-27, 23:17:48
http://geizhals.de/evga-tegra-note-7-16gb-016-tn-0701-b1-a1050645.html

Allerdings zu diesem Preis und nach der K1 Vorstellung imo nicht sonderlich attraktiv, da zwar schneller als das Nexus 7, aber mit schlechterem Display und weniger RAM.


Selbst wenn einem der Preis egal wäre. Man kann es nicht kaufen. Ein Freund hat bei Comtech vorbestellt. Die haben jetzt den Termin auf mindestens Ende Februar verschoben. Ist schon irgendwie lustig. Da wird erst so ein Trara gemacht, und dann kommt nichts.


tobife

Ailuros
2014-01-28, 08:08:26
Selbst wenn einem der Preis egal wäre. Man kann es nicht kaufen. Ein Freund hat bei Comtech vorbestellt. Die haben jetzt den Termin auf mindestens Ende Februar verschoben. Ist schon irgendwie lustig. Da wird erst so ein Trara gemacht, und dann kommt nichts.


tobife

In dem Punkt kann ich NV auch voll verstehen; sie koennen eben nicht eine Unmenge an SoCs herstellen und dann auf diesen am Ende sitzen bleiben.

Das ganze "Trara" ist eben das eigentliche Problem mit Tegra.

deekey777
2014-01-28, 21:02:36
Ich hab wohl meinen heutigen blonden Moment, denn ich verstehe ehrlich nicht auf was Du hinaus willst.
Zu subtil?
Es ging mir schon in Richtung K1-Präsentation, auch wenn der A5X meilenweit von einem Xenon/C1-Kombo entfernt ist.

Ailuros
2014-01-28, 22:00:05
Zu subtil?
Es ging mir schon in Richtung K1-Präsentation, auch wenn der A5X meilenweit von einem Xenon/C1-Kombo entfernt ist.

Ach die ~XBox Leistung meintest Du....Sweeney erzaehlt auch so manchen Mist wenn der Tag lang ist und das schon seit Jahrzehnten :P

Ailuros
2014-01-29, 15:27:50
http://www.fudzilla.com/home/item/33787-tegrazone-now-available-on-all-android-devices

Skysnake
2014-01-29, 20:16:02
tja, dazu muss man wohl nichts mehr sagen

deekey777
2014-01-29, 20:37:38
tja, dazu muss man wohl nichts mehr sagen
Ich hätte da doch was zu sagen:
Der Schritt ist absolut logisch und überfällig. Natürlich werden alle sagen, das liegt daran, weil die aktuellen Tegra-SoCs so supererfolgreich sind, aber TegraZone hatte mit der Beschränkung keine Chance gegen Google Play oder den Amazon-Store.

dildo4u
2014-01-29, 20:54:37
PhysX läuft auch auf CPU,das wird nur zeigen wie viel besser K1 bei den PC Umsetzungen performt gegenüber der Konkurrenz.

deekey777
2014-01-29, 21:19:03
PhysX läuft auch auf CPU, das wird nur zeigen wie viel besser K1 bei den PC Umsetzungen performt gegenüber der Konkurrenz.
Ich hab keine Ahnung, was du sagen willst.
Was hat PhysX jetzt damit zu tun? Und welche PC-Umsetzungen meinst du genau und wieviele werden es dann sein?

TegraZone ist ein gutes Beispiel, dass die Spieleentwickler sehr ungern Sonderversionen anbieten, wenn sie davon nicht profitieren. Und was Tegra 3/4 angeht, so hat insbesondere Gameloft gezeigt, dass sie null Bock auf Optimierungen haben. Real Racing 3 hat auf T4 weiterhin keine Echtzeit-Rückspiegel.

Als Endverbraucher bin ich von Tegra K1 vollüberzeugt - wegen K1. Aber Nvidia muss Hersteller überzeugen und nicht mich.

dildo4u
2014-01-29, 21:24:05
PhysX ist vergleichbar weil man sich die Effekte auf den Konkurrenz angucken kann man also angfixt wird es aber unterirdisch performt sowas erwarte ich von den PC Umsetzungen.Die PC Game's die sie bis jetzt gezeigt haben sind Trine2 und Serious Sam 3.Denke mal deutlich mehr werden folgen da Valve OpenGL mit Steam OS pusht,da ist der Übergang zu Android einfach.

deekey777
2014-01-29, 21:37:45
Da wird keiner folgen. Zumindest ohne die Gewissheit, dass kein Geld verbrannt wird.
Nach deiner Logik müsste Crysis und eigentlich alle PC-Spiele längst für mobile Geräte verfügbar sein, schließlich hat ein Atom Z2000 (und älter) einen PowerVR-Grafikchip.

Ailuros
2014-01-29, 21:56:15
PhysX ist vergleichbar weil man sich die Effekte auf den Konkurrenz angucken kann man also angfixt wird es aber unterirdisch performt sowas erwarte ich von den PC Umsetzungen.Die PC Game's die sie bis jetzt gezeigt haben sind Trine2 und Serious Sam 3.Denke mal deutlich mehr werden folgen da Valve OpenGL mit Steam OS pusht,da ist der Übergang zu Android einfach.

Sie haben durch die Jahre ziemlich viel vorgezeigt, aber es blieb nach wie vor dank unterirdisch kleinem Marktanteil nur bei einer handvoll Tagtraeumereien.

Warten wir erstmal auf die ersten Verkaufserfolge ab und wie sich diese am Ende insgesamt ausmessen werden und dann sehen wir ob das obrige mit der eigentlichen mobilen Realitaet am Ende zu tun hat.

Sonst sind PC games bei ab 16GB HDD Geraeten ein ausgezeichnete Idee :freak:;D

Dural
2014-01-29, 22:34:26
habe schon das 3. tegra tablet und nutze die tegrazone quasi gar nie.

ich wüsste auch nicht für was, alles bekomm ich im googleplay

deekey777
2014-01-29, 22:49:49
habe schon das 3. tegra tablet und nutze die tegrazone quasi gar nie.

ich wüsste auch nicht für was, alles bekomm ich im googleplay

Für Tegra-optimierte Spiele?

Dural
2014-01-29, 22:58:25
interessiert mich nicht, und ganz ehrlich die meisten games sehen auf ipad oder meinem note3 besser aus. :freak:

muss dazu aber sagen das ich nur ein t3 tablet habe und damit generell kaum spiele.

Edit:
um deine frage noch zu beantworten, die tegrazone leitet ja auch nur zu googleplay weiter, also ja.

Hugo78
2014-02-11, 19:30:43
Asus Android-Konsole "Gamebox"
http://www.computerbase.de/news/2014-02/asus-soll-portable-android-konsole-gamebox-entwickeln/

Ailuros
2014-02-11, 19:38:55
Asus Android-Konsole "Gamebox"
http://www.computerbase.de/news/2014-02/asus-soll-portable-android-konsole-gamebox-entwickeln/

Pfffff mit K1 waere so ein Geraet ein Ereignis. T4 und Antutu Resultate? :ass2:

Hugo78
2014-02-11, 19:44:33
Pfffff mit K1 waere so ein Geraet ein Ereignis. T4 und Antutu Resultate? :ass2:
Wer weiß welchen Markt Asus im Visier hat.
Eventuell bauen sie ihr "Shield" ja eher wie ein Nintendo DS mit einem Preis von um die 100 oder max. 150 USD.
Also etwas, was Eltern ihren Kleinen schenken, damit diese auf einem billigeren Gerät als auf Mamas oder Papas Edelsmartphone, paar Spiele zocken können.

Ailuros
2014-02-12, 11:08:28
Wer weiß welchen Markt Asus im Visier hat.
Eventuell bauen sie ihr "Shield" ja eher wie ein Nintendo DS mit einem Preis von um die 100 oder max. 150 USD.
Also etwas, was Eltern ihren Kleinen schenken, damit diese auf einem billigeren Gerät als auf Mamas oder Papas Edelsmartphone, paar Spiele zocken können.

Nichtmal fudzilla scheint es glauben zu wollen: http://www.fudzilla.com/home/item/33913-is-asus-working-on-a-tegra-4-console?

-/\-CruNcher-/\-
2014-02-12, 11:47:23
Jop das währe eine ziemliche Managing Katastrophe wenn das stimmt, allerdings ist dieser Veränderungszyclus sowas von Brutal schnell geworden im Mobile berreich das das auch nicht mehr Wundern würde ;)

Wenn ich mir China anschaue wie schnell die Tablets obsoleten aus Shengzen passt das irgendwo :)

Hugo78
2014-02-12, 12:02:14
Och nachdem Asus und Nvidia so gute Beziehungen haben und könnte ich mir schon vorstellen, dass Asus hier Resteverwertung mit den letzten Tegra 4 Chips betreibt.
Asus ist ja gut darin, den Rotstift anzusetzen ohne gleich billig zuwirken.
Klappt bei den aktuellen $99 bis $199 Klug-Handys ja auch.
- http://www.forum-3dcenter.org/vbulletin/showthread.php?t=549628
- http://www.pcwelt.de/videos/Asus_Zenfone_4_im_Hands-on_-_Techhive-Videoblog-99-Dollar-Smartphone-8382625.html

-/\-CruNcher-/\-
2014-02-12, 12:19:05
Resteverwertung ist gut bis auf Shield ist fast nichts an Devices da die du easy bekommst das HP slate 7 extreme scheint voll auf Eis gelegt worden zu sein und das EVGA Tegra NOTE 7 hat auch fast keiner ;)

Das sind jetzt schon quasi raritäten, wo man sich fragt haben sie eigentlich je exestiert oder bilde ich mir das nur ein ? :D

http://www.theverge.com/2014/1/6/5281696/hp-brings-out-its-slate-7-extreme-tablet-a-few-months-too-late

Glaub mir Intel hat hier voll reingehauen mir ihrem Preis/Leistungsverhältnis und mit ihrer OEM/ODM for Free Strategie haben sie Nvidia ziemlich alt aussehen lassen einen kompletten x86 Windows Desktop zum rumtragen schlägt kein pures Android, vor allem nicht wenn die Performance und Laufzeit auf selben niveou ist oder sogar besser ;) .

Nvidia will sich mit K1 rächen wir werden sehen ;)

Intel versucht momentan ihre GPU sehr schnell zu pushen um mit AMD und Nvidia mithalten zu können und sie laufen auf Android/Win 8.1 :)

AMD wird demnächst eintretten mit sehr viel besserer GPU Performance :)

es ist total spannend :)

Hugo
2014-02-12, 14:13:49
vielleicht wechselt ASUS bei der Verkaufsversion zum K1 und die Prototypen laufen mit Tegra4?

Ailuros
2014-02-13, 11:04:09
Nicht dass man es nicht erwartet haette:

http://phx.corporate-ir.net/phoenix.zhtml?c=116466&p=irol-SECText&TEXT=aHR0cDovL2FwaS50ZW5rd2l6YXJkLmNvbS9maWxpbmcueG1sP2lwYWdlPTkzODQ4OTEmRFNFUT0 wJlNFUT0wJlNRREVTQz1TRUNUSU9OX0VOVElSRSZzdWJzaWQ9NTc%3d

The Tegra Processor business decreased by $366 million due to decreases in our Tegra 3 line of smartphones and Android and Surface tablets. These declines were partially offset by strength of our growing line of products for Tegra 4 smartphones, tablets, and other devices as well as infotainment systems for automobiles.

-48%

GAAP operating expenses for fiscal 2014 were $1.77 billion, up $193 million, or 12 percent, from the prior year. Non-GAAP operating expenses were $1.61 billion, up $215 million, or 15 percent, in line with our outlook given at the beginning of the year.

The increase in operating expenses was primarily due to an increase in employees and employee-related expenses. These resource investments were across the company and focused on completion of our Kepler product lines, next-generation GPUs on the Maxwell architecture, the Tegra K1 32-bit and 64-bit product lines, and supporting functions.

“Quarterly revenue came in well above our outlook, driven by PC gaming, capping an outstanding year for our GPU business,” said Jen-Hsun Huang, president and chief executive officer of NVIDIA. “Tesla and Quadro both achieved record annual revenue. GRID cloud technology is being evaluated at hundreds of large enterprises worldwide. And Tegra K1 is disrupting the auto industry, paving the way to self-piloted cars. The groundbreaking work we are doing in visual computing is expanding the opportunities for our GPUs.”

Damit man das fettgedruckte auch richtig versteht: der Vertrag mit Audi und co ist durchaus real, da aber Karren mit auto-pilots noch ein paar legale Problemchen zu ueberwaeltigen haben sind sie noch nicht kaufbar. Und ja fuer solches Zeug ist so hohe Rechenleistung durchaus brauchbar, nur braucht man dafuer auch wieder kein DX11.

Entweder ich hab das Dokument zu schnell durchgekaemmt oder es steht kein Piep von T4i oder jeglichen K1 design wins drin. Wenn ich etwas verpasst habe, macht mich bitte darauf aufmerksam damit ich den Paragraphen streichen kann.

Kurz wie schon etliche Male wiederholt: Ausgaben steigen zunehmend mit der Zeit und Umsatz macht einen riesigen Rueckzieher.

-/\-CruNcher-/\-
2014-02-13, 11:13:24
Ich würde mal sagen K1 darf nicht scheitern (so wie Tegra 3 und 4) aber selbst wenn haben sie sich den Boden wenigstens etwas gepolstert, voll ungebremst wollen sie nicht auf den boden knallen im Ernstfall ;)

dildo4u
2014-02-13, 11:26:17
NV hat noch den Deal mit MS,MS wird alles dran setzen Surface zu einer wichtigen Marke zu machen.Ich würde MS nicht unterschätzen in Deutschland haben sie Win Phone 8 schon auf Platz 3 gehievt dicht an iOS.

http://www.zdnet.de/88174775/windows-phone-erreicht-in-europa-marktanteil-von-fast-10-prozent/

Sind zwar wenige Prozent aber wenn man weiß wie klein NV gegenüber MS ist dürfte NV ausgesorgt haben wenn sie den Deal behalten.

Undertaker
2014-02-13, 13:00:16
Surface (RT) ist nicht gleich Windows Phone, bislang sieht mir die ARM-Version für Tablets noch nicht so wirklich zukunftsträchtig aus... Tegra 3 dürfte vor allem vom Nexus-Deal und den zahlreichen Mittel- und Oberklasse-Tablets von Asus & Co. profitiert haben.

Dafür, das Tegra 4 praktisch kaum in einer handvoll Geräte verkauft wird, hätte ich eigentlich einen größeren Umsatzeinbruch erwartet. Bleibt zu hoffen, das K1 jetzt möglichst schnell anrollt.

Ailuros
2014-02-13, 14:22:04
Dafür, das Tegra 4 praktisch kaum in einer handvoll Geräte verkauft wird, hätte ich eigentlich einen größeren Umsatzeinbruch erwartet. Bleibt zu hoffen, das K1 jetzt möglichst schnell anrollt.

Das stecken noch T3 Verkaufszahlen drin (ist ja nicht so dass T3 von den Regalen verschwunden ist sobald T4 auftauchte; im Gegenteil es wird immer noch in Geraeten verkauft) und es steckt noch ein Furz von Konsolen-royalties drin welches sie schon immer in die Tegra Sparte schmeissen.

K1 mit oder ohne autopilot? :naughty:

fondness
2014-02-13, 14:27:34
Komm Ailuros pack aus :D

Gaestle
2014-02-13, 14:33:03
NV hat noch den Deal mit MS,MS wird alles dran setzen Surface zu einer wichtigen Marke zu machen.Ich würde MS nicht unterschätzen in Deutschland haben sie Win Phone 8 schon auf Platz 3 gehievt dicht an iOS.
Surface (RT) ist nicht gleich Windows Phone, bislang sieht mir die ARM-Version für Tablets noch nicht so wirklich zukunftsträchtig aus...

Ich stimme Undertaker zu und gebe außerdem zu bedenken, dass WinRT eigentlich mit den neuen Atoms fast überflüssig werden könnte, weil es dank Atom das Standard-x86-Windows problemlos in der gleichen Geräte- und Preissparte und mit dem gleichen UI wie WinRT geben kann.

Eine Frage ist sicherlich auch, ob Intel irgendwann auch auf Smartphones ankommt und wir dann auch ein WindowsPhone auf x86-Basis sehen werden.

Ailuros
2014-02-13, 14:33:53
Es gibt nichts auszupacken; ausser natuerlich einer nebenwichtigen Einzelheit die ich NV versprochen habe nicht zu erwaehnen :biggrin:

Nakai
2014-02-13, 15:21:41
Ich würde da erstmal abwarten, wie sich die Tegra-Sparte entwickelt. K1 ist schonmal toll, aber teilweise ziemlich am Consumer-Markt vorbeientwickelt.

@Ail:
Damit man das fettgedruckte auch richtig versteht: der Vertrag mit Audi und co ist durchaus real, da aber Karren mit auto-pilots noch ein paar legale Problemchen zu ueberwaeltigen haben sind sie noch nicht kaufbar. Und ja fuer solches Zeug ist so hohe Rechenleistung durchaus brauchbar, nur braucht man dafuer auch wieder kein DX11.

Entweder ich hab das Dokument zu schnell durchgekaemmt oder es steht kein Piep von T4i oder jeglichen K1 design wins drin. Wenn ich etwas verpasst habe, macht mich bitte darauf aufmerksam damit ich den Paragraphen streichen kann.

Ich bin da eh ziemlich gespannt. Wenn nichts von Designwins steht, dann kann man darauf schließen, dass es im Consumerbereich noch keine sicheren gibt.

Unicous
2014-02-13, 16:13:57
Ich würde da erstmal abwarten, wie sich die Tegra-Sparte entwickelt. K1 ist schonmal toll, aber teilweise ziemlich am Consumer-Markt vorbeientwickelt.


Nach 6 Jahren in der Öffentlichkeit wäre ich langsam aber sicher etwas ungeduldig und des Wartens müde. Tegra1 war halbherzig, Tegra2 war nicht so schlecht hat sich aber viel zu sehr auf den CPU-Teil beschränkt. Tegra 3 war langweilig und Tegra4... das Ergebnis sieht man.

Nvidia geht mit Tegra viel zu halbherzig um und dennoch pumpen sie unentwegt Kohle rein.

Das Eis bricht ihnen weg wenn sie nicht ihr ganzes Gewicht in Tegras R&D stecken.

Meines Erachtens wird das auch nichts mehr. Die Chinesen (Rockchip, Allwinner) werden immer stärker, es ist auch spannend was IMG mit MIPS vorhat (obwohl man sich ja gerade die Frage stellen muss ob da überhaupt was kommt:rolleyes:)

Der K1 wird sie mE auch nicht retten. Ich finde es sowieso reichlich unverschämt ein Produkt zu "launchen" und dann nichts zu haben für die nächsten Monate und dennoch ausgesuchte Redaktionen mit Benches zu versorgen die dann mit aktuell verfügbaren Chips vergleichen.
Ein kleiner Marketing Coup (wie so oft in der Vergangenheit) aber bis dahin hat auch Qualcomm neue Chips und Samsung ist auch nicht untätig.

Alles in allem mal wieder eine große Blendungsaktion von Jensen. Wie so oft. Ich hoffe er fliegt mal auf die Fresse und wird von einer ehrlicheren Haut ersetzt. (Man erinnere sich an letztes? Jahr wo er von den vielen design wins von Tegra sprach? Ja welches Tegra denn?)

deekey777
2014-02-13, 16:17:50
Tegra 2 hat der Welt beigebracht, dass sie einen DualCore-SoC braucht. T3 hat die Welt überzeugt, dass sie ohne einen Quad-SoC untergeht.

Unicous
2014-02-13, 16:22:16
Tegra 2 hat der Welt beigebracht, dass sie einen DualCore-SoC braucht. T3 hat die Welt überzeugt, dass sie ohne einen Quad-SoC untergeht.


Apple straft dich aber sowas von Lügen.;D

edit: Und bei Apple kann man auch sehen, dass sie von Anfang an besonderen auf Fokus den GPU-Part gelegt haben. Was ja auch nötig ist bei den Retina Displays. Und dennoch sind sie meist effizienter als die anderen ARM-Konkurrenten. Und Nvidia muss sich mit ihrem Companion Core aushelfen, von dem man übrigens auch nicht mehr viel hört.

Nakai
2014-02-13, 16:22:44
@Unicious:
NV ist im Consumerbereich auf die Fresse geflogen, ja. Deswegen wird das bald etwas anders aussehen. Bzgl Tegra K1 und Automotive sieht es für NV nicht mal so schlecht aus.

Blediator16
2014-02-13, 16:24:09
Ist die Marge bei Automotiven besonders hoch, denn die Absatzzahlen lassen sich mit Sicherheit nichtmal annähernd mit dene der Smartphones oder Tabs vergleichen.

fondness
2014-02-13, 16:25:20
@Unicious:
NV ist im Consumerbereich auf die Fresse geflogen, ja. Deswegen wird das bald etwas anders aussehen. Bzgl Tegra K1 und Automotive sieht es für NV nicht mal so schlecht aus.

Definiere nicht mal so schlecht. Die Stückzahlen in den paar Luxusschlitten wo das Sinn macht sind viel zu gering. Und auch da ist NV beliebig ersetzbar wenn sie keine guten Preise anbieten.

Ailuros
2014-02-13, 16:33:56
Ist die Marge bei Automotiven besonders hoch, denn die Absatzzahlen lassen sich mit Sicherheit nichtmal annähernd mit dene der Smartphones oder Tabs vergleichen.

Selbst JHH "verspricht" ein 2 Milliarden Geschaeft ueber wie viele Jahre gestreckt? Ich weiss jetzt ehrlich nicht mehr wie viele Jahre es waren aber damit man solchen Umsatz erreicht in den 3-4 Jahren um die es ging muesste fast jeder Karren einen Tegra integriert haben.

Im Durchschnitt kaufen die Verbraucher alle 2 Jahre oder so ein neues smartphone bzw. tablet. Gilt heutzutage auch die gleiche Kadenz fuer jeglicher Art Automobile?

Definiere nicht mal so schlecht. Die Stückzahlen in den paar Luxusschlitten wo das Sinn macht sind viel zu gering. Und auch da ist NV beliebig ersetzbar wenn sie keine guten Preise anbieten.

Es heisst dass wenn sie das Personal der Tegra Sparte auf's absolut notwendigste minimalisieren und von da ab nur noch im Schneckentempo entwickeln fuer die weitere Zukunft dass man davon sogar etwas Gewinn machen koennte. Noch ein paar GPU IP deals in Maerkten die noch nicht besonders beruehrt wurden und gut ist es.

Unicous
2014-02-13, 16:42:39
Ich verstehe nicht, warum ihr euch auf den Automotive Bereich stürzt. Audi ist nicht Volkswagen (also wenn man es genau nimmt schon;D). Audi produzierte 2012 1,5 Millionen Autos Volkswagen 9 Millionen. Ein Tropfen im Mobile-Ozean.

Selbst wenn wir davon ausgehen, das 100% einen Tegra integriert haben, wird das Nvidia nicht auf die vordersten Plätze katapultieren. Qualcomm verkaufte 2013 213 Millionen Chips (da ist natürlich jetzt alles drin, aber es geht mir um die Verhältnisse).

Nvidias market share war 2012 bei 4,9%. 2013 bei 1,4%... was denkt ihr wie sich das entwickelt wenn die K1 und T4i nicht zünden. (btw. der T4i ist jetz schon asbach uralt, den würde ich persönlich schon jetzt ausmustern)

Dieser Tegra Optimus ist schon bemerkenswert. Der scheint wohl auch bei Nvidia vorzuherrschen sonst würden sie endlich mal aus den Puschen kommen und keine Produkte launchen die in einem halben, dreiviertel Jahr (vermutlich) schon von links und rechts überholt werden.

Nakai
2014-02-13, 16:44:14
Selbst JHH "verspricht" ein 2 Milliarden Geschaeft ueber wie viele Jahre gestreckt? Ich weiss jetzt ehrlich nicht mehr wie viele Jahre es waren aber damit man solchen Umsatz erreicht in den 3-4 Jahren um die es ging muesste fast jeder Karren einen Tegra integriert haben.

Im Durchschnitt kaufen die Verbraucher alle 2 Jahre oder so ein neues smartphone bzw. tablet. Gilt heutzutage auch die gleiche Kadenz fuer jeglicher Art Automobile?

Also das durchschnittliche Alter in DE für einen Autokauf(Neuwagen) liegt bei etwa ~50 Jahre, wenn ich mich recht erinnere. ;)

Ich frage mich, wann NV wieder ihre Tegra-Roadmap updatet. Das letzte Mal war vor einem Jahr etwa und ein weiterer Blick in die Zukunft wurde nicht gewährt(post 2015).

Ist die Marge bei Automotiven besonders hoch, denn die Absatzzahlen lassen sich mit Sicherheit nichtmal annähernd mit dene der Smartphones oder Tabs vergleichen.

Kommt drauf an. Im unteren Bereich wird jeder Cent umgedreht, aber umso höher es geht, umso mehr "Geld" wird frei, dafür Stückzahlen geringer. Im Endeffekt liefert NV nur die Hardware. Vollständige Systeme werden von Dienstleistern oder vom Automobilhersteller direkt entwickelt.

Es heisst dass wenn sie das Personal der Tegra Sparte auf's absolut notwendigste minimalisieren und von da ab nur noch im Schneckentempo entwickeln fuer die weitere Zukunft dass man davon sogar etwas Gewinn machen koennte. Noch ein paar GPU IP deals in Maerkten die noch nicht besonders beruehrt wurden und gut ist es.

Ich wollte das wirklich so nicht sagen, aber so sieht es eben derzeit für NV aus. Es ist ja nicht so, dass NV der Erste ist, dem das passiert ist. Viele SOC-Hersteller wurden gezwungen auf ruhigere Märkte auszuweichen.

@Unicious: Qualcomm ist derzeit nur im Consumermarkt. In anderen Bereichen ist Qualcomm keine Konkurrenz.

Unicous
2014-02-13, 16:55:39
@Unicious: Qualcomm ist derzeit nur im Consumermarkt. In anderen Bereichen ist Qualcomm keine Konkurrenz.

Und was soll mir das jetzt sagen?

http://www.qualcomm.com/media/releases/2014/01/06/qualcomm-introduces-snapdragon-automotive-solutions-connected-car


Als ob Qualcomm sich diesen Markt von Nvidia aus Faulheit abnehmen lassen würde.

Außerdem halte ich das für eine Lüge. Und Consumer-Markt ist sowieso so eine diffuse Aussage.

Ailuros
2014-02-13, 17:02:23
Kommt drauf an. Im unteren Bereich wird jeder Cent umgedreht, aber umso höher es geht, umso mehr "Geld" wird frei, dafür Stückzahlen geringer. Im Endeffekt liefert NV nur die Hardware. Vollständige Systeme werden von Dienstleistern oder vom Automobilhersteller direkt entwickelt.


Ist mir durchaus bekannt; mich wundert eher was zum Henker freescale und co. treiben. Wenn sie nicht bald reagieren schenken sie den Markt regelrecht NV. Und es ist eben nicht so dass man nicht genauso hohe rohe Rechenleistung mit diametrisch kleinerem Stromvebrauch finden kann, eher das brutale Gegenteil.

Und was soll mir das jetzt sagen?

http://www.qualcomm.com/media/releases/2014/01/06/qualcomm-introduces-snapdragon-automotive-solutions-connected-car


Als ob Qualcomm sich diesen Markt von Nvidia aus Faulheit abnehmen lassen würde.

Außerdem halte ich das für eine Lüge. Und Consumer-Markt ist sowieso so eine diffuse Aussage.

Ach fuer infotainment gibt es so manchen Schnickschnack von Renesas, Texas Instruments, Freescale etc etc.

Im Fall von K1 handelt es sich um den Einsatz von diesem in Audi's noch nicht veroeffentlichten "auto pilot" Karren und fuer so etwas braucht man schon fette Rechenleistung die man eben in einem pissat infotainment Dingsbums nicht finden kann.

Unicous
2014-02-13, 17:07:59
Ich habe immer noch Schwierigkeiten zu glauben, dass ein ARM SoC die Rechenleistung aufbringen kann um einen Autopiloten zu bedienen, aber du scheinst ja da mehr zu wissen.

Was benutzt eigentlich Google momentan? Gibt es da überhaupt Informationen zu?

Nakai
2014-02-13, 17:08:22
Ist mir durchaus bekannt; mich wundert eher was zum Henker freescale und co. treiben. Wenn sie nicht bald reagieren schenken sie den Markt regelrecht NV. Und es ist eben nicht so dass man nicht genauso hohe rohe Rechenleistung mit diametrisch kleinerem Stromvebrauch finden kann, eher das brutale Gegenteil.


Ich fand damals die Folien von Freescale bzgl iMX6 sehr interessant, wo hier eine krasse Leistung prognostiziert wurde. In der Realität sah es anders aus. Aber wann irgendwelche Nachfolger kommen, das kann ich dir nicht sagen. :freak:

Im Fall von K1 handelt es sich um den Einsatz von diesem in Audi's noch nicht veroeffentlichten "auto pilot" Karren und fuer so etwas braucht man schon fette Rechenleistung die man eben in einem pissat infotainment Dingsbums nicht finden kann.

NVs Vorteil ist, dass sie mit CUDA kein schwaches Argument hierfür haben. Bzgl Compute ist NV hier ziemlich weit voraus, vor allem bei dem, was sonst auf dem Markt ist.

€:
Ich habe immer noch Schwierigkeiten zu glauben, dass ein ARM SoC die Rechenleistung aufbringen kann um einen Autopiloten zu bedienen, aber du scheinst ja da mehr zu wissen.


Bei NV ist wohl der GPU-Teil ziemlich mächtig.

Ailuros
2014-02-13, 17:15:15
Ich habe immer noch Schwierigkeiten zu glauben, dass ein ARM SoC die Rechenleistung aufbringen kann um einen Autopiloten zu bedienen, aber du scheinst ja da mehr zu wissen.

Was benutzt eigentlich Google momentan? Gibt es da überhaupt Informationen zu?

Die GK20A GPU im K1 liefert bei voller Frequenz 365 GFLOPs FP32. Ich weiss zwar nicht wie ein auto pilot genau damit umgeht (Nakai ist da besser dafuer) aber wenn ein Karren 12 Sensoren hat um z.B. selber zu parken wuerde ich dafuer eher die GPU einsetzen.

Ich fand damals die Folien von Freescale bzgl iMX6 sehr interessant, wo hier eine krasse Leistung prognostiziert wurde. In der Realität sah es anders aus. Aber wann irgendwelche Nachfolger kommen, das kann ich dir nicht sagen. :freak:

Vivante GC7000 liefert 250 GFLOPs FP32 bzw. 512 GFLOPs FP16. Vivante gibt leider keine die area noch Stromverbrauch mehr an, aber da das Zeug zwar OGL_ES3.0 ist, ist es fuer windows immer noch DX9L3. Gegen DX11.2 ist da schon einiges gespart.

NVs Vorteil ist, dass sie mit CUDA kein schwaches Argument hierfür haben. Bzgl Compute ist NV hier ziemlich weit voraus, vor allem bei dem, was sonst auf dem Markt ist.

Ist CUDA ueberhaupt von irgendwelchem Nutzen in der automobile Industrie?

Unicous
2014-02-13, 17:28:39
Das FLOPS-Geklopsemopse in allen Ehren, das dann aber auf die, Achtung... Straße zu bringen sind für mich dann doch noch zwei verschiedene Sachen. Als Auto-Einparkhilfe ja, aber Abstand halten, Bremsen und Co. ... da würde ich schon gern wissen wie Google und Co. das gelöst haben und wie sich das bis 2014 entwickelt hat.

Nakai
2014-02-13, 17:40:46
Vivante GC7000 liefert 250 GFLOPs FP32 bzw. 512 GFLOPs FP16. Vivante gibt leider keine die area noch Stromverbrauch mehr an, aber da das Zeug zwar OGL_ES3.0 ist, ist es fuer windows immer noch DX9L3. Gegen DX11.2 ist da schon einiges gespart.


Ich weiß nur, dass der GC2000 im iMX6 einige "Bottlenecks" hat, die die Leistung schon stark schmälern. Keine Ahnung, ob der GC7000 das noch hat.

Ist CUDA ueberhaupt von irgendwelchem Nutzen in der automobile Industrie?

Das kann ich leider noch nicht sagen. Derzeit definitiv noch nicht. Ich frage mich wie reaktiv, solche Systeme sein müssen und ob es sich lohnt Berechnungen auszulagern. Assistenzsysteme sind jedenfalls keine unkritischen Bereiche. Wenn man mit CUDA in der Lage ist, robuste echtzeitfähige Anwendungen zu liefern, dann wird man definitiv damit liebäugeln. Ansonsten hat K1 sogar 5 x A15 verbaut, welches für viele Tasks nutzbar wäre. Dynamisch wird da wohl nicht viel sein(außer bei Infotainmentsysteme), da es zu unkontrollierbar ist. Aber selbst der Stromspar-A15 wird für die meisten Subnetzkommunikation und Verwaltung ohne Probleme ausreichen.

Schade, dass K1 keinen nativen Support für einige Feldbusse(CAN, Flexray, LIN) hat...da wird man wohl extra Hardware verbauen müssen.

Der Automotive Bereich ist meistens relativ rückständig, deswegen erstmal abwarten, wie es sich entwickelt.

Unicous
2014-02-13, 17:52:35
Darf/Kann der Companion Core gleichzeitig genutzt werden bei K1? Ich dachte das war bis einschließlich Tegra4 nicht möglich/sanktioniert oder erzähle ich Mist?

Ailuros
2014-02-13, 19:29:04
Ich weiß nur, dass der GC2000 im iMX6 einige "Bottlenecks" hat, die die Leistung schon stark schmälern. Keine Ahnung, ob der GC7000 das noch hat.

Es ist nicht fundamental andere hw; kann aber durchaus sein dass sie ein paar Wehwehchen entfernt haben.

Das kann ich leider noch nicht sagen. Derzeit definitiv noch nicht. Ich frage mich wie reaktiv, solche Systeme sein müssen und ob es sich lohnt Berechnungen auszulagern. Assistenzsysteme sind jedenfalls keine unkritischen Bereiche. Wenn man mit CUDA in der Lage ist, robuste echtzeitfähige Anwendungen zu liefern, dann wird man definitiv damit liebäugeln. Ansonsten hat K1 sogar 5 x A15 verbaut, welches für viele Tasks nutzbar wäre. Dynamisch wird da wohl nicht viel sein(außer bei Infotainmentsysteme), da es zu unkontrollierbar ist. Aber selbst der Stromspar-A15 wird für die meisten Subnetzkommunikation und Verwaltung ohne Probleme ausreichen.

Schade, dass K1 keinen nativen Support für einige Feldbusse(CAN, Flexray, LIN) hat...da wird man wohl extra Hardware verbauen müssen.

Der Automotive Bereich ist meistens relativ rückständig, deswegen erstmal abwarten, wie es sich entwickelt.

Einen K1 nur wegen der CPU einzubauen klingt schon irgendwie merkwuerdig.

Darf/Kann der Companion Core gleichzeitig genutzt werden bei K1? Ich dachte das war bis einschließlich Tegra4 nicht möglich/sanktioniert oder erzähle ich Mist?

Wenn ich es jetzt nicht falsch in Erinnerung habe ist es entweder/oder. Der companion core duerfte auch hier von 50 auf 500MHz takten. Wenn man wirklich Strom sparen will baut man einen quad A7 in einem big.LITTLE config dazu und nicht 4+1. Wenn's wirklich so "ideal" ist wundert es mich wieso Denver im K1 ein Halbjahr spaeter mit wohl asynchroner Taktung und "nur" 2 CPU cores ankommt.

Undertaker
2014-02-13, 20:04:04
Wenn ich es jetzt nicht falsch in Erinnerung habe ist es entweder/oder. Der companion core duerfte auch hier von 50 auf 500MHz takten.

1 GHz ist Maximum.

Wenn man wirklich Strom sparen will baut man einen quad A7 in einem big.LITTLE config dazu und nicht 4+1. Wenn's wirklich so "ideal" ist wundert es mich wieso Denver im K1 ein Halbjahr spaeter mit wohl asynchroner Taktung und "nur" 2 CPU cores ankommt.

Ich weiß nicht was genau Nvidia als Vorteile des 4+1 ggü. big.LITTLE sieht, aber "besser als" muss ja nicht zwingend "ideal" gleichzusetzen sein. Das der Cortex-A15 überhaupt solche Stromspar-Spielchen erfordert, ist nun einmal so; nur ein weiterer Grund für Denver, neben der höheren Pro-Kern-Leistung.

Unicous
2014-02-13, 20:07:05
Das war ja genau meine Frage. Nakai hat es so geschrieben, dass man davon ausgehen könnte der Companion Core könnte mitgenutzt werden also 5xA15 anstatt 4+1.

Das ist ja im Endeffekt nicht sooo wichtig, aber wäre natürlich dennoch gut zu wissen.

Meine letzte Information war auch Entweder/Oder. Und ich hatte in Erinnerung, dass es nicht nur eine Softwarebeschränkung ist? (Abgesehen von TDP-Beschränkungen)

Ailuros
2014-02-13, 20:45:37
1 GHz ist Maximum.

Welches selten bis nie der Fall ist;

Ich weiß nicht was genau Nvidia als Vorteile des 4+1 ggü. big.LITTLE sieht, aber "besser als" muss ja nicht zwingend "ideal" gleichzusetzen sein. Das der Cortex-A15 überhaupt solche Stromspar-Spielchen erfordert, ist nun einmal so; nur ein weiterer Grund für Denver, neben der höheren Pro-Kern-Leistung.

Ideal ist ueberhaupt keine Loesung weil es eben nirgends Perfektion gibt. Von dem abgesehen wenn man keine custom cores frueher entwickeln "konnte" weil JHH Achterbahn mit den Nerven vom engineering spielen musste, hatte man die Wahl zwischen big.LITTLE oder einer eigenen Idee wobei das letzte zumindest besser sein sollte als das erste.

Nebenbei ist die TDP fuer die 4 * A15 cores bei voller Frequenz im K1 wie sich herausstellt bei 4.6W.

Skysnake
2014-02-13, 20:45:45
Damit man das fettgedruckte auch richtig versteht: der Vertrag mit Audi und co ist durchaus real, da aber Karren mit auto-pilots noch ein paar legale Problemchen zu ueberwaeltigen haben sind sie noch nicht kaufbar. Und ja fuer solches Zeug ist so hohe Rechenleistung durchaus brauchbar, nur braucht man dafuer auch wieder kein DX11.

Und man sollte sich auch fragen, was Huang wieder alles versprochen hat, was man am Ende nicht halten kann....

Sorry, aber wie BESCHEUERT! kann man denn bitte sein, für nen "Auto-Pilot" nen XY GPU-SOC nehmen zu wollen.... :facepalm:

Wenn das mehr als ne bessere "Einparkhilfe" werden soll, dann kannste son GPU-SOC hat direkt in die Tonne treten...

Keine RAS-Features
Kein ECC
Kein RtOS
Kein Preemption auf der iGPU
usw usw usw

Huang wird da wieder das blaue vom Himmel versprochen haben, oder einfach nen Marketingdeal ausgehandelt haben, um die Anleger zu beruhigen...


Ist die Marge bei Automotiven besonders hoch, denn die Absatzzahlen lassen sich mit Sicherheit nichtmal annähernd mit dene der Smartphones oder Tabs vergleichen.
Kommt drauf an.

Wenn du State of the Art Technik hast um in nen Maybach, Bentlay oder sonst was rein zu kommen dann ja, da bekommste ganz ordentliche Margen, die Stückzahlen bewegen sich dann aber im 4-5 stelligen Bereich.

Und wenn ins Volumensegment geht, dann wird um jeden! Cent gefeilscht.

Ist mir durchaus bekannt; mich wundert eher was zum Henker freescale und co. treiben. Wenn sie nicht bald reagieren schenken sie den Markt regelrecht NV. Und es ist eben nicht so dass man nicht genauso hohe rohe Rechenleistung mit diametrisch kleinerem Stromvebrauch finden kann, eher das brutale Gegenteil.

PFT!

Was bringt dir denn die mega super duper Rechenleistung, wenn du nichts damit anzufangen weißt???? :P

Schon mal dran gedacht, dass die Daten von Sensoren kommen in analoger oder digitaler Form, und dein ach so geiler XY SOC damit erstmal NICHTS!!! aber auch rein gar NICHTS! anfangen kann?

Für sowas bauste dir nen ASIC, oder nimmst halt nen paar FPGAs. Da haste wenigstens direkt die Interfaces parat. Ganz zu schweigen davon, dass es dort ja auch inzwischen SOCs gibt, und du allen möglichen Scheis bzgl Fehlertolleranz usw einbauen kannst...



Im Fall von K1 handelt es sich um den Einsatz von diesem in Audi's noch nicht veroeffentlichten "auto pilot" Karren und fuer so etwas braucht man schon fette Rechenleistung die man eben in einem pissat infotainment Dingsbums nicht finden kann.
Ganz im Ernst, wenn Audi so dumm ist, nen K1 für nen echten Autopiloten zu nehmen, der mehr als einparken kann, dann gehören Sie geschlagen... :P

Ich freu mich dann schon auf die ersten Millionen/Milliarden Strafen aus den USA, weil nen Bitfehler oder sonst nen Hardwarefehler zu nem tödlichen Unfall geführt hat...


Die GK20A GPU im K1 liefert bei voller Frequenz 365 GFLOPs FP32. Ich weiss zwar nicht wie ein auto pilot genau damit umgeht (Nakai ist da besser dafuer) aber wenn ein Karren 12 Sensoren hat um z.B. selber zu parken wuerde ich dafuer eher die GPU einsetzen.

Absolut richtig, wie ich oben schon gesagt habe!

K1 hat rein gar keine Interfaces um überhaupt die Daten auf zu nehmen, und komm jetzt nicht mit PCI-e oder son Scheis....

Die Datenraten die du da hast, willste direkt in den Chip ballern und verarbeiten. Am Besten mit DSPs, damit du deterministische Latenzen hast usw usw usw.

Ich wüde für sowas ganz sicher nicht nen popelligen K1 nehmen, oder auch sonst irgend nen ARM-SOC von der Stange....

Man sollte da auch nicht so sehr auf Qualcomm usw schauen. Das sind gar nicht die Spezialfirmen für so was. DA sollte man eher nen Auge auf GeneralElectrics usw haben, die auch in der Rüstungsindustrie tätig sind. Die haben die entspechenden Systeme eher zu Hand, die auch robust und zuverlässig genug sind.


Ist CUDA ueberhaupt von irgendwelchem Nutzen in der automobile Industrie?
Wenn du abseits von virtuellen Windkanälen/Crashtests und CAD usw schaust, dann nein. Da gibts ganz eigene Interfaces und Standards im Automobilbereich.


Das kann ich leider noch nicht sagen. Derzeit definitiv noch nicht. Ich frage mich wie reaktiv, solche Systeme sein müssen und ob es sich lohnt Berechnungen auszulagern. Assistenzsysteme sind jedenfalls keine unkritischen Bereiche. Wenn man mit CUDA in der Lage ist, robuste echtzeitfähige Anwendungen zu liefern, dann wird man definitiv damit liebäugeln. Ansonsten hat K1 sogar 5 x A15 verbaut, welches für viele Tasks nutzbar wäre. Dynamisch wird da wohl nicht viel sein(außer bei Infotainmentsysteme), da es zu unkontrollierbar ist. Aber selbst der Stromspar-A15 wird für die meisten Subnetzkommunikation und Verwaltung ohne Probleme ausreichen.

Schade, dass K1 keinen nativen Support für einige Feldbusse(CAN, Flexray, LIN) hat...da wird man wohl extra Hardware verbauen müssen.

Der Automotive Bereich ist meistens relativ rückständig, deswegen erstmal abwarten, wie es sich entwickelt.
Wie gesagt, ich halte für nen echten Autopiloten K1 und alle anderen vergleichbaren Chips für nen total bescheuerte Idee.

Ailuros
2014-02-13, 20:50:03
Das war ja genau meine Frage. Nakai hat es so geschrieben, dass man davon ausgehen könnte der Companion Core könnte mitgenutzt werden also 5xA15 anstatt 4+1.

Das ist ja im Endeffekt nicht sooo wichtig, aber wäre natürlich dennoch gut zu wissen.

Meine letzte Information war auch Entweder/Oder. Und ich hatte in Erinnerung, dass es nicht nur eine Softwarebeschränkung ist? (Abgesehen von TDP-Beschränkungen)

Ich lass mich gerne eines besseren belehren denn ich hab mich nie damit beschaeftigt aber es fehlt irgend etwas an geteilter cache dass man nicht alle 5 cores simultan benutzen kann. Duerfte auch so nicht unproblematisch sein denn ich wuerde mir vorstellen dass die 4 cores fuer Leistung implementiert wurden und der companion core fuer die area; ergo duerfte der letzte so oder so kuerzer geschnitten sein und wird wohl auch deshalb nicht ueber 1GHz takten. Da die restlichen 4 cores immer den gleichen Takt haben muessen duerfte es nicht so leicht sein selbst wenn es ginge.

Undertaker
2014-02-13, 21:09:20
Welches selten bis nie der Fall ist

Das ist ja nun kein technischer Grund sondern hängt rein von der Belastung ab. ;) Wenn du so willst, wird zu 99% der Minimaltakt von 50 MHz (?) aktiv sein (= Standbybetrieb mit Display off ;)).

Von dem abgesehen wenn man keine custom cores frueher entwickeln "konnte"

Dafür müsste man wissen, seit wann NV an Denver schraubt. Ist das bekannt? :confused:

Nebenbei ist die TDP fuer die 4 * A15 cores bei voller Frequenz im K1 wie sich herausstellt bei 4.6W.

Wer will das gemessen haben? Selbst NV gibt für Octane (Single Core Last!) schon 2 Watt an, in der gleichen Region liegen Cyclone (@1,3 GHz) und Krait (@2,3 GHz). Da erscheinen mir 4,6 Watt für alle Kerne deutlich zu wenig...

Coda
2014-02-13, 21:13:49
Keine RAS-Features
Kein ECC
Ja. Soll ja auch nichts sicherheitsrelevantes drauf laufen. Meinst du ein Navigationssystem hat RAS und ECC?

Kein RtOS
Was hat denn bitte der Chip damit zu tun? Natürlich läuft da auch ein Real-Time-OS drauf. Das ist doch ein Softwareproblem.

Kein Preemption auf der iGPU
Keine existierende, auf dem Markt kaufbare GPU kann Preemption.

Zum Rest: Chill mal, du hast schon wieder Schaum vor dem Mund. Natürlich werden sie keinen Autopiloten auf einem Entertainment-SoC laufen lassen, das würde ihnen auch keiner genehmigen.

Skysnake
2014-02-13, 21:28:46
Ja. Soll ja auch nichts sicherheitsrelevantes drauf laufen. Meinst du ein Navigationssystem hat RAS und ECC?

Die Rede war von "Auto-Pilot".

Das ist Sicherheitsrelevant. Für nen Navi usw brauchste kein K1.


Was hat denn bitte der Chip damit zu tun? Natürlich läuft da auch ein Real-Time-OS drauf. Das ist doch ein Softwareproblem.

Gibt es Treiber für ein RtOS von nVidia?

Und wie geht ein RtOS überhaupt mit einer GPU um, die überhaupt keine Laufzeitvorhersagen machen kann?

RtOS und GPGPU schließen sich eigentlich aus. Zumindest bisher. Da müsste nVidia ziemlich die Hosen runter lassen, um das vernünftig zu bewerkstelligen.


Keine existierende, auf dem Markt kaufbare GPU kann Preemption.

Würde ich jetzt meine Hand für nicht ins Feuer legen. AMD hat so einiges in ihren iGPUs drin, aber genau die bekommen ja den Arsch nicht hoch, um die Sachen auch mal durch Software nutzbar zu machen...

Zudem wurde bzgl. HSA von GPU preemption gesprochen. Es war nur nicht klar, ob die jetzigen ersten HSA-APUs das jetzt shcon drin haben oder nicht. Das aber halt mal wieder typisch AMD...


Zum Rest: Chill mal, du hast schon wieder Schaum vor dem Mund. Natürlich werden sie keinen Autopiloten auf einem Entertainment-SoC laufen lassen, das würde ihnen auch keiner genehmigen.
Sag das nicht mir, sondern den Leuten, die son Mist verbreiten... Und ja, mir schwillt da grad der Kamm, wenn ich dran denke, wie mich der Scheis wieder über Wochen/Monate/Jahre verfolgen wird, weil die Leute den Dreck wieder raus ziehen werden, um Tegra/nVidia/Huang hoch leben zu lassen....

Coda
2014-02-13, 21:31:41
Du hast echt ein Problem.

Skysnake
2014-02-13, 22:31:24
Mag sein, aber ich kann den Automist aktuell echt nicht mehr hören...

Von mir aus sollen Sie die 4k Video usw Sau durchs Dorf treiben, aber den Autokram als der große Heilsbringer kann ich einfach nicht mehr hören.

Coda
2014-02-13, 22:47:28
Ich denke auch nicht dass es Tegra retten wird. Wenn sie was retten kann, dann solide Execution und Performance mit Tegra K1 und vor allem M1.

Hugo78
2014-02-14, 00:28:14
Niemand hat behauptet, K1 allein regelt "Piloted Driving".
Audis CES zFAS Modul hat immernoch Laptop Ausmaße...

Achtung ist 4961x3307 groß. (Quelle (https://www.audi-mediaservices.com/publish/ms/content/de/public/fotos/2014/01/08/CES140149.html))
http://www7.pic-upload.de/thumb/14.02.14/enh16jahyiir.jpg (http://www.pic-upload.de/view-22261368/CES140149_large.jpg.html)

Ab 1:30min.
Z7QXAebLmd0

Akkarin
2014-02-14, 01:14:41
Sry für OT, aber was benutzt google für seine Autos ?

Unicous
2014-02-14, 01:16:39
Hatte ich schon gefragt und bei meiner kurzen Recherche keinerlei Anhaltspunkte gefunden, von daher wahrscheinlich: secret sauce.

http://media.cleveland.com/opinion_impact/photo/autonomous-vehiclejpg-3f28dbe8737178ee.jpg
edit: oops falsche url http://www.cleveland.com/opinion/index.ssf/2013/06/caution_or_elation_driverless.html

Das sieht sehr x86-mäßig aus. (Könnte aber noch die 2011er Version sein? http://expresslane.idrivesafely.com/google-self-driving-car/)

Ailuros
2014-02-14, 06:51:48
Das ist ja nun kein technischer Grund sondern hängt rein von der Belastung ab. ;) Wenn du so willst, wird zu 99% der Minimaltakt von 50 MHz (?) aktiv sein (= Standbybetrieb mit Display off ;)).

A7 Cores fangen meistens bei 500MHz an. Wenn es nicht 50 sondern 60 sind beim A15 macht mir keinen großen Unterschied.

Dafür müsste man wissen, seit wann NV an Denver schraubt. Ist das bekannt? :confused:
Ich hoerte zuerst davon als sie zu Goforce Zeiten Q3A in 1024*768 behaupteten. Die Presse hatte noch keine Ahnung damals & Arun war ziemlich verblüfft dass ich es schon damals wusste. Es war der originale x86 design. Q3A lief auf der Goforce in 1024 aber mit zu vielen einstelligen Frameraten. Zwielichtige marketing war schon damals die Norm.


Wer will das gemessen haben? Selbst NV gibt für Octane (Single Core Last!) schon 2 Watt an, in der gleichen Region liegen Cyclone (@1,3 GHz) und Krait (@2,3 GHz). Da erscheinen mir 4,6 Watt für alle Kerne deutlich zu wenig...

Eine gewisse marketing Abteilung die Nie lügt. Einer der K1 4+1 CPU solides "basieren" sogar darauf. Gut sie haben wohl SDP mit TDP verwechselt aber wie sie auf die 5W SoC Verbrauch in einer anderen slide kamen sitzt mir immer noch auf dem Hals.

AffenJack
2014-02-14, 07:27:42
Sry für OT, aber was benutzt google für seine Autos ?

Was hängt ihr beiden euch so bei Google auf? In Sachen Autopilot hat Google bisher nix besonderes gezeigt. Audi, Mercedes usw sind nicht weniger weit in der Entwicklung.

Coda
2014-02-14, 07:57:28
Wat? Die haben schon Straßenzulassung für autonome Fahrzeuge in manchen US-Bundesstaaten.

Ailuros
2014-02-14, 08:02:02
Wat? Die haben schon Straßenzulassung für autonome Fahrzeuge in manchen US-Bundesstaaten.

Widerspricht auch nicht dem "nix besonderes" dass er sagte. Uebrigens ist u.a. auch Volvo im gleichen Entwicklungsprozess.

Undertaker
2014-02-14, 09:06:33
Eine gewisse marketing Abteilung die Nie lügt. Einer der K1 4+1 CPU solides "basieren" sogar darauf. Gut sie haben wohl SDP mit TDP verwechselt aber wie sie auf die 5W SoC Verbrauch in einer anderen slide kamen sitzt mir immer noch auf dem Hals.

Abgesehen davon, dass die wenigsten Hersteller in dieser Klasse TDP-Angaben publizieren, nenn mir auch nur ein Beispiel, wo der entsprechende Wert mit Volllast auf allen Einheiten bei gleichzeitiger Maximalfrequenz ermittelt wurde. ;) Das ist selbst im Low-Power X86-Segment nicht der Fall, auch Bay Trail (http://www.notebookcheck.com/Test-HP-Omni-10-5600eg-F4W59EA-Tablet.108388.0.html) oder die sparsamsten Haswells (http://www.notebookcheck.com/Test-HP-Spectre-13-h205eg-x2-Convertible.105231.0.html) throtteln bei CPU- + GPU-Last. Die TDP ist hier vielmehr eine willkürlich gewählte Zahl, die den Beginn von Abriegelung/Throttling einläutet.

Dural
2014-02-14, 09:28:29
sehe ich auch so, ich verstehe das TDP Theater komischer weisse immer nur bei Tegra auch nicht.

Das 192SP und 4 A15 Core nicht 1Watt unter Volllast verbrauchen ist klar... Ich denke das hier nicht mal 10Watt ausreichen würden. Na und??? Es zählt wie effizient der Chip ist und da weis man genau das fette Chips in der Regel immer effizienter arbeiten. Und genau das sagt NV ja auch selber, das ihr Chip pro Watt am meisten auf die Strasse bringt. Diese Aussage muss man aber erst noch überprüfen, obwohl ich es bei SoC generell als sehr schwierig sehe da an genau vergleichsangaben zu kommen.

Ailuros
2014-02-14, 11:39:20
Abgesehen davon, dass die wenigsten Hersteller in dieser Klasse TDP-Angaben publizieren, nenn mir auch nur ein Beispiel, wo der entsprechende Wert mit Volllast auf allen Einheiten bei gleichzeitiger Maximalfrequenz ermittelt wurde. ;) Das ist selbst im Low-Power X86-Segment nicht der Fall, auch Bay Trail (http://www.notebookcheck.com/Test-HP-Omni-10-5600eg-F4W59EA-Tablet.108388.0.html) oder die sparsamsten Haswells (http://www.notebookcheck.com/Test-HP-Spectre-13-h205eg-x2-Convertible.105231.0.html) throtteln bei CPU- + GPU-Last. Die TDP ist hier vielmehr eine willkürlich gewählte Zahl, die den Beginn von Abriegelung/Throttling einläutet.

Nur weil Intel mit SDP bescheisst heisst es noch lange nicht dass es legitim ist. Sonst gibt es hoch und "verdammt hoch"; ich ueberlasse es Dir selber K1 bei vollem Takt zu kategorisieren.

sehe ich auch so, ich verstehe das TDP Theater komischer weisse immer nur bei Tegra auch nicht.

Das 192SP und 4 A15 Core nicht 1Watt unter Volllast verbrauchen ist klar... Ich denke das hier nicht mal 10Watt ausreichen würden. Na und??? Es zählt wie effizient der Chip ist und da weis man genau das fette Chips in der Regel immer effizienter arbeiten. Und genau das sagt NV ja auch selber, das ihr Chip pro Watt am meisten auf die Strasse bringt. Diese Aussage muss man aber erst noch überprüfen, obwohl ich es bei SoC generell als sehr schwierig sehe da an genau vergleichsangaben zu kommen.

Effizienz steht im Grund fuer perf/W. Ob es wirklich das Effizienz-Wunder sein wird dass NV hier vorgekault hat bleibt abzusehen. Du kannst Dich natuerlich beschweren dass das Publikum nach all den Tegra Jahren nicht mehr an ihre Maerchen so leicht glauben will, aber solltest auch wiederrum froh sein dass trotz dem generellen lauwarmen Empfang im Markt das Ding ueberhaupt noch besprochen wird.

Hugo78
2014-02-14, 12:56:42
Niemand hat behauptet, K1 allein regelt "Piloted Driving".
Audis CES zFAS Modul hat immernoch Laptop Ausmaße...

Ich seh grad der zFAS Gen2 Prototyp schaut schon kleiner aus und hat zwei festverlötete K1 drauf ... oder?

http://www.flickr.com/photos/fanatictrx/11838875936/

Ailuros
2014-02-14, 15:25:50
Ich seh grad der zFAS Gen2 Prototyp schaut schon kleiner aus und hat zwei festverlötete K1 drauf ... oder?

http://www.flickr.com/photos/fanatictrx/11838875936/

Das Photo ist aus so einem ueblem Winkel aufgenommen dass man fast nichts auf den chips lesen kann (auch den nicht bedeckten) :mad:

***edit: ja koennten zwei K1 chips sein

Undertaker
2014-02-14, 17:01:13
Nur weil Intel mit SDP bescheisst heisst es noch lange nicht dass es legitim ist. Sonst gibt es hoch und "verdammt hoch"; ich ueberlasse es Dir selber K1 bei vollem Takt zu kategorisieren.

Ich sage auch nicht, dass es legitim oder zu begrüßen wäre, sondern nur, das KEIN Hersteller in dieser Klasse wahrheitsgetreue TDP-Werte angibt. Warum also jetzt einen einzelnen herauspicken? Wäre ein A7 jetzt besser oder schlechter, wenn Apple 3 oder 10 Watt TDP dranklebt? Mal ganz abgesehen davon, dass je nach Formfaktor sogar beide Werte als Maß für die maximale Leistungsaufnahme korrekt sein könnten.

Nochmal: Wenn Nvidia 5 Watt TDP für ein bestimmtes K1-Modell spezifiziert heißt das nix anderes, als das der Chip bei spätestens dieser Marke throtteln wird. Wieviel wissen wir nicht, darum ist auch jede Diskussion über die Einordnung dieses Wertes müßig. Viel interessanter sind da z.B. die zuvor erwähnten 2 Watt im Google Octane.

Nakai
2014-02-14, 17:02:37
Das war ja genau meine Frage. Nakai hat es so geschrieben, dass man davon ausgehen könnte der Companion Core könnte mitgenutzt werden also 5xA15 anstatt 4+1.

Das ist ja im Endeffekt nicht sooo wichtig, aber wäre natürlich dennoch gut zu wissen.

Meine letzte Information war auch Entweder/Oder. Und ich hatte in Erinnerung, dass es nicht nur eine Softwarebeschränkung ist? (Abgesehen von TDP-Beschränkungen)

Ich lass mich gerne eines besseren belehren denn ich hab mich nie damit beschaeftigt aber es fehlt irgend etwas an geteilter cache dass man nicht alle 5 cores simultan benutzen kann. Duerfte auch so nicht unproblematisch sein denn ich wuerde mir vorstellen dass die 4 cores fuer Leistung implementiert wurden und der companion core fuer die area; ergo duerfte der letzte so oder so kuerzer geschnitten sein und wird wohl auch deshalb nicht ueber 1GHz takten. Da die restlichen 4 cores immer den gleichen Takt haben muessen duerfte es nicht so leicht sein selbst wenn es ginge.

Ich glaube auch nicht, dass der Companion Core mit den anderen Kernen zusammenarbeiten würde. Wenn er genutzt wird, dann definitiv nicht zum Stromsparen. Der würde dann eigene Aufgaben bekommen.

Grundsätzlich wirbt NV mit K1 für den Automotive Bereich, dass er CUDA beherrscht und zwei Streams parallel bearbeiten kann. NV zielt definitiv mit ComputeFeatures auf den Automotive Bereich ab. Assistenzsysteme benutzen dann eben einen K1 für visuelle Berechnungen.

@Skysnake:
Wie gesagt, ich halte für nen echten Autopiloten K1 und alle anderen vergleichbaren Chips für nen total bescheuerte Idee.

Wieso? Natürlich besteht die gesamte Hardware für ein Autopilot-Modul aus mehr als nur 1-2 K1s.

Gibt es Treiber für ein RtOS von nVidia?

Und wie geht ein RtOS überhaupt mit einer GPU um, die überhaupt keine Laufzeitvorhersagen machen kann?

RtOS und GPGPU schließen sich eigentlich aus. Zumindest bisher. Da müsste nVidia ziemlich die Hosen runter lassen, um das vernünftig zu bewerkstelligen.

Ein K1 wird nicht für Grafik und visuelle Berechnungen gleichzeitig benutzt werden. Entweder oder. Kann ja nicht sein, wenn ein eine höhere Grafiklast anliegt, dass Berechnungsergebnisse "verspätet" ankommen.

Da läuft wohl ein Unix/Linux mit RT-Funktionalitäten drauf, welches noch ziemlich schnelle Bootzeiten hat.

sehe ich auch so, ich verstehe das TDP Theater komischer weisse immer nur bei Tegra auch nicht.

Das 192SP und 4 A15 Core nicht 1Watt unter Volllast verbrauchen ist klar... Ich denke das hier nicht mal 10Watt ausreichen würden. Na und??? Es zählt wie effizient der Chip ist und da weis man genau das fette Chips in der Regel immer effizienter arbeiten. Und genau das sagt NV ja auch selber, das ihr Chip pro Watt am meisten auf die Strasse bringt. Diese Aussage muss man aber erst noch überprüfen, obwohl ich es bei SoC generell als sehr schwierig sehe da an genau vergleichsangaben zu kommen.

Im Automotive Bereich wird auch nichts dynamisch getaktet, wenn weniger Last anliegt. Da gibt es feste Spezifikationen, wenn das Gerät läuft, unter Last ist oder sich schlafen legt.

Ich seh grad der zFAS Gen2 Prototyp schaut schon kleiner aus und hat zwei festverlötete K1 drauf ... oder?

http://www.flickr.com/photos/fanatictrx/11838875936/

Zum Vergleich zFAS Gen1 mit VCM K1-Modul.

http://www.flickr.com/photos/nvidia/11845076443/in/photostream/

Sieht für mich ziemlich stark nach K1 aus.

Ailuros
2014-02-14, 17:10:15
Und ich dachte das Ding ist tot:

http://www.fudzilla.com/home/item/33949-nvidia-confirms-t4i-devices-for-early-q2

Es hiess sogar dass es fuer T4i keinen einzigen design win gibt; geglaubt hab ich es nicht weil ich es nicht bestaetigen konnte.

We have heard that there will be a lot of design wins in this mainstream LTE capable SoC market for Nvidia.

Von Null auf "viele" design wins ist schon ein Unterschied. Mal sehen wie's weitergeht.

Unicous
2014-02-14, 17:23:35
Tegra Note. Nvidia Shield 1.1+LTE.;D


Wenn die "a lot of design wins" aus Jensen's Mund kommt wissen wir ja was am Ende bei rauskommt.

@K1 bei zFAS

Seit wann muss Nvidia darauf verzichten ihre Initialen auf dem Heatspreader zu drucken? Von den Ausmaßen kann das hinkommen, aber es gibt ja dennoch andere Mitbewerber von denen man bis jetzt auch noch kein "Silicium" zu Gesicht bekommen hat. Und warum werkelt auf dem einen Board nur ein K1, auf dem anderen zwei?

Interessant, dass der mutmaßlich Chip auf dem Gen1 Board mit einer Art MXM Schnittstelle verbunden ist. Hat man da noch mit verschiedene Chips evaluiert oder war das einfach dem Entwicklungsstand geschuldet.

Fragen über Fragen und so wenig Anhaltspunkte.:frown:

Nakai
2014-02-14, 17:34:05
Interessant, dass der mutmaßlich Chip auf dem Gen1 Board mit einer Art MXM Schnittstelle verbunden ist. Hat man da noch mit verschiedene Chips evaluiert oder war das einfach dem Entwicklungsstand geschuldet.

Fragen über Fragen und so wenig Anhaltspunkte.:frown:

Das was wie MXM aussieht, ist nur das VCM von Nvidia. VCM := Visual-Computing-Module.

Und nein, das ist nichts spezielles von NV, sondern sowas gibts für sehr viele Automotive und Embedded Systeme.

Bsp.:
http://www.iwavesystems.com/i-mx6-mxm-som.html
http://www.iwavesystems.com/product/cpu-modules/atom-z5xx-q7-som-34/atom-z5xx-q7-som.html
http://www.iwavesystems.com/product/cpu-modules/vybrid-vf6xx-mxm-som/vybrid-vf6xx-mxm-som.html

NV hat eben für alles einen schönen Namen...

Seit wann muss Nvidia darauf verzichten ihre Initialen auf dem Heatspreader zu drucken? Von den Ausmaßen kann das hinkommen, aber es gibt ja dennoch andere Mitbewerber von denen man bis jetzt auch noch kein "Silicium" zu Gesicht bekommen hat. Und warum werkelt auf dem einen Board nur ein K1, auf dem anderen zwei?

Ich würde vermuten, dass das erste Board weniger parallele Inputs gleichzeitig verarbeiten kann bzw. nur zur Evaluation nur einen K1 hatte. Das zweite Board wird schon näher am finalen Stand sein und wohl mehr Eingaben verarbeiten können.

Dural
2014-02-14, 17:41:36
Ich sehe da nur einen Tegra.


Aha T4 lief schlecht weil er sehr spät kam, das sage ich schon seit einer gefühlten ewigkeit. Aber nein gewisse User müssen sich noch was zusätzliches dazu denken ;)

Nakai
2014-02-14, 17:45:21
Mal aus dem Whitepaper von K1:
http://www.nvidia.com/object/white-papers.html

The NVIDIA Tegra K1 Kepler GPU is the world’s first mobile GPGPU architecture that delivers considerable amounts of compute performance, and can support many different types of Compute Shaders used in games, enable real-time beautification of videos, or computation photography effects including real-time local tone mapping, and real-time video editing. Tegra K1 gives developers the flexibility to create compelling compute-based mobile applications.

The NVIDIA Tegra K1 processor includes a brand new, high performance dual-ISP core that supports up to a 100 Megapixel sensor, handling 4096 simultaneous focus points, and providing a throughput of 1.2 Gigapixels per second.

The ISP core is architected for full GPGPU interoperability and seamlessly works with the Tegra K1 Kepler GPU to deliver advanced features.

Ailuros
2014-02-14, 18:04:15
Ich sehe da nur einen Tegra.


Aha T4 lief schlecht weil er sehr spät kam, das sage ich schon seit einer gefühlten ewigkeit. Aber nein gewisse User müssen sich noch was zusätzliches dazu denken ;)

Der Tegra Marktanteil selbst mit Tegra3 (ergo bei seinem peak) war maximal bei pissat 3.2%. Tegra4 verdonnert zu viel Strom und es gab genauso Verspaetungen mit vorigen Tegras.

AffenJack
2014-02-14, 19:15:22
Wat? Die haben schon Straßenzulassung für autonome Fahrzeuge in manchen US-Bundesstaaten.

Hat Audi auch, hat sogar Continental. Ne Straßenzulassung an sich sagt nix aus. Könnten andere Hersteller auch kriegen, wenn sie wollten. Das ist mehr oder weniger gerade eh nur ne Erlaubniss auf öffentlichen Straßen zu testen, während alles überwacht wird. Mercedes zeigte auch ihre Präsentation von 100km durchgehender Fahrt auf der IAA auf normalen Strassen mit Beachtung aller Verkehrsregeln und Teilnehmern. Weiterhin muss man sehen, was für Systeme benutzt werden. Googles System war am Anfang äußerst teuer und ich hab bisher noch nicht allzu viel davon gesehen, dass man die Kosten deutlich gedrückt hat. Die Autohersteller dagegen versuchen das mit deutlich billigeren Systemen zu realisieren, die näher an der Massentauglichkeit sind. Die 100km von Mercedes sollen mit fast serientauglicher Technologie gewesen sein. Große Unterschiede gibts bei Entwicklungsstufen nicht und der Erscheinungstermin der Systeme könnte eher von den Designzyklen der Modelle abhängen.

Und ich dachte das Ding ist tot:
http://www.fudzilla.com/home/item/33949-nvidia-confirms-t4i-devices-for-early-q2
Es hiess sogar dass es fuer T4i keinen einzigen design win gibt; geglaubt hab ich es nicht weil ich es nicht bestaetigen konnte.
Von Null auf "viele" design wins ist schon ein Unterschied. Mal sehen wie's weitergeht.

Joa, anscheinend nicht. Hatte auch den Conference Call angehört und es wurde gesagt es läuft alles nach Plan und gibt nicht viel zu berichten. So ganz nach Plan sieht mir das zwar nicht aus, weil es zu ruhig ist, aber zumindest wird das Ding kommen. An vielen Design Wins zweifle ich aber noch ernsthaft, bei dem Design.

Skysnake
2014-02-14, 21:52:11
Das Photo ist aus so einem ueblem Winkel aufgenommen dass man fast nichts auf den chips lesen kann (auch den nicht bedeckten) :mad:

***edit: ja koennten zwei K1 chips sein
Hab ich jetzt eigentlich was verpasst? Das ist doch nur reine Spekulation, dass das nen K1 ist. Oder hab ich nen Link auf nen Bericht verpasst :confused:


Wenn die "a lot of design wins" aus Jensen's Mund kommt wissen wir ja was am Ende bei rauskommt.

Yeah, Bestellung über 1k Chips und 4 Testmuster = 5 Designwins ;D


@K1 bei zFAS

Seit wann muss Nvidia darauf verzichten ihre Initialen auf dem Heatspreader zu drucken? Von den Ausmaßen kann das hinkommen, aber es gibt ja dennoch andere Mitbewerber von denen man bis jetzt auch noch kein "Silicium" zu Gesicht bekommen hat. Und warum werkelt auf dem einen Board nur ein K1, auf dem anderen zwei?

Interessant, dass der mutmaßlich Chip auf dem Gen1 Board mit einer Art MXM Schnittstelle verbunden ist. Hat man da noch mit verschiedene Chips evaluiert oder war das einfach dem Entwicklungsstand geschuldet.

Fragen über Fragen und so wenig Anhaltspunkte.:frown:
Wie gesagt, ich versteh auch nicht, wie die Leute darauf kommen, dass das K1 sein sollten.

Es spricht ja auch einiges dagegen.

Z.B. ist der RAM asymmetrisch angeordnet bei den beiden Chips.

Dann hat man mit Tegra und jedwedem anderen normalen SOC das Problem, das man gar keine Interfaces hat, um die Daten von den Sensoren in die Chips zu bekommen. Allein das spricht schon massiv gegen K1 und jeden anderen derartigen Chip.

Hugo78
2014-02-14, 22:07:34
Es sind zwei Tegra K1 im zFAS.

Hackenberg said yesterday that his company got help from chipmaker Nvidia on shrinking the zFAS. It is powered by two processors from Nvidia more typically used in tablet computers.
- http://www.technologyreview.com/news/523351/ces-2014-audi-shows-off-a-compact-brain-for-self-driving-cars/

Nakai
2014-02-14, 23:08:19
Es spricht ja auch einiges dagegen.


Naja NV preist mit K1 schon sehr die eigenen bildverarbeitenden Features und den Automotive Bereich an. Also niemand macht das umsonst.

Z.B. ist der RAM asymmetrisch angeordnet bei den beiden Chips.

Ich glaube nicht, dass so die finale Hardware aussieht(aber schon nahe dran). Wie man sieht, hat zFAS viele Iterationen hinter sich. Der RAM ist einfach so angeordnet, weil es nicht anders vom Layout ging. Ich bin mir auch nicht sicher, ob der RAM unbedingt für die K1 da ist. Außerdem glaub ich nicht, dass die Automotiveversion die vollen Specs erfüllt, wegen thermischen und elektrostatischen Anforderungen.

Dann hat man mit Tegra und jedwedem anderen normalen SOC das Problem, das man gar keine Interfaces hat, um die Daten von den Sensoren in die Chips zu bekommen. Allein das spricht schon massiv gegen K1 und jeden anderen derartigen Chip.

Wie soll es denn anders gemacht werden? Auf der Platine sind noch andere Chips mit anderen Funktionalitäten(Bsp.: für Konnektivität zum gesamten Subnetz). K1 wird wohl nicht nur Bilddaten zur Analyse bekommen, sondern der ganze Cluster braucht Informationen übers Fahrzeug. Ich denke ein K1 wird für das Infotainment und für Grafik zuständig sein und der andere um Bildinformationen und Werte von anderen Sensoren zu verarbeiten.

Ailuros
2014-02-14, 23:44:40
Hab ich jetzt eigentlich was verpasst? Das ist doch nur reine Spekulation, dass das nen K1 ist. Oder hab ich nen Link auf nen Bericht verpasst :confused:

Ja das hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10108327&postcount=3847

Timbaloo
2014-02-14, 23:48:20
Ich denke ein K1 wird für das Infotainment und für Grafik zuständig sein und der andere um Bildinformationen und Werte von anderen Sensoren zu verarbeiten.
Ich würde eher erwarten, dass die beiden K1 redundant sind. Weichen Ergebnisse von K1-1 und K1-2 ab -> ZOMG

Hugo78
2014-02-14, 23:58:56
Ja Redundanz liegt nahe, wobei man das auch einfach durch zwei zFAS erledigen könnte.

Skysnake
2014-02-15, 00:17:46
THX erstmal fürs auf die Sprünge helfen.

Naja NV preist mit K1 schon sehr die eigenen bildverarbeitenden Features und den Automotive Bereich an. Also niemand macht das umsonst.

"Bildverarvbeitung" ist halt ein WEITES Feld.

Das reicht von irgendwelchen Sensoreverarbeitungen über Objekttracking bis hin zur Wiedergabe der neuesten BD der Kinder die hinten sitzen und sonst keine Ruhe geben...


Ich glaube nicht, dass so die finale Hardware aussieht(aber schon nahe dran). Wie man sieht, hat zFAS viele Iterationen hinter sich. Der RAM ist einfach so angeordnet, weil es nicht anders vom Layout ging. Ich bin mir auch nicht sicher, ob der RAM unbedingt für die K1 da ist. Außerdem glaub ich nicht, dass die Automotiveversion die vollen Specs erfüllt, wegen thermischen und elektrostatischen Anforderungen.

Na, final wird das sicherlich noch nicht sein. Steht ja auch auf dem PCB, das es ein zFAS B-1Sample ist. Wohl in der V0.

Ich hab mir mal die Platine vorgenommen so btw. Gibt nen paar lustige Sachen da drauf :biggrin:

Der Knaller ist wohl der Audio- und Signaltransformator HX1188NL von Pulse (http://de.mouser.com/ProductDetail/Pulse/HX1188NL/?qs=7h3O1UVlCGMpHy/psf5GUA==). Seht ihr den NRND Vermerk? ;D


Wie soll es denn anders gemacht werden? Auf der Platine sind noch andere Chips mit anderen Funktionalitäten(Bsp.: für Konnektivität zum gesamten Subnetz). K1 wird wohl nicht nur Bilddaten zur Analyse bekommen, sondern der ganze Cluster braucht Informationen übers Fahrzeug. Ich denke ein K1 wird für das Infotainment und für Grafik zuständig sein und der andere um Bildinformationen und Werte von anderen Sensoren zu verarbeiten.
Ich würde das mit nem DSP machen, oder halt allgemein mit nem speziellen ASIC/FPGA what ever. Halt etwas, wo ich speziell für den Einsatzzweck designe und ich volle Kontrolle drüber habe. Gerade am Anfang eher ne FPGA-Version, da man da noch schön dran schrauben kann, und für den Massenmarkt halt nen süßen kleinen ASIC, in den ich alles Integriere, und eben mich auch direkt um die ganzen Fehlerbehandlung kümmere.

So was sieht nen 0815 SOC halt nicht vor, und das ist in meinen Augen tötlich.

Ansonsten hier mal mein Ergebnis vom Zerpflücken der Platine:tongue:

Was man alles sieht:

Die zwei großen Chips haben nicht nur ziemlich wild angeordneten Speicher, sondern sogar unterschiedlichen. Im Detail sind das jeweils DDR3 Chips von Micron.

Oben: https://www.micron.com/parts/dram/ddr3-sdram/mt41j256m16re-15e-it
Unten:https://www.micron.com/parts/dram/ddr3-sdram/mt41j128m16ha-15e-it?pc={1743ACB0-199F-4A10-9E7C-5162BAE130AF}

Dann gibt es noch einen Chip von ST (http://www.st.com/web/en/home.html). Leider konnte ich nicht herausfinden, welcher das sein soll :( Aber sicherlich irgendetwas aus ihrem Automotivprogramm.

Recht interessant ist oben Links noch er Chip von Altera. Es handelt sich dabei um einen MAX II (http://www.altera.com/devices/cpld/max2/mx2-index.jsp). Für was er genau zuständig ist, ist schwer zu sagen. Son Ding wird für vieles eingesetzt. Angefangen bei Power über Schnittstellen bis hin zur Programmierung von FPGAs beim Startup. Aus der Positionierung wird man halt auch nicht wirklich schlauer, da es halt zwischen allem hockt -.-

Noch ein lustiger Punkt ist, das auf der anderen Seite des Boards ein Xillinx Spartan 6 (http://www.xilinx.com/products/silicon-devices/fpga/spartan-6/) hockt ;D Altera und Xilinx auf einem Board. ;D Leider kann ich nicht entziffern, was das für einer sein soll.

Wie zu erwarten war, wird sich das Ding wohl um die Verarbeitung der Sensorsignale kümmern, wobei die Anornung schon sehr seltsam anmutet, da so weit weg von den Sensoranschlüssen :freak:
Was das direkt daneben sein soll kann ich auch nicht sagen. Ich schätze aber mal, dass das auch ein Altera MAX II ist. Zumindest meine ich die Ansätze der Schrift zu erkennen. Irgend was braucht man ja eh noch, um den FPGA zu programmieren beim power_on.

Zwischen dem ST und dem Startan 6 scheint auch noch nen Chip von Micron zu hängen, den kann man aber auch nicht lesen, eventuell ist das ein epron oder nen Flash doer sonst was in die Richtung.

Auf jeden Fall ist schonmal ein FPGA auf dem Board drauf, hätte mich auch SEHR schwer gewundert, wenn da keiner drauf gewesen wäre :rolleyes:

Die Frage ist nur, ob die anderen großen Chips wirklich K1 sind, oder am Ende eventuell sogar nur FPGAs, die nen K1 simulieren oder sonst was.

Der MAX II lässt auf jeden Fall Zweifel daran aufkommen, dass das wirklich K1 sind, genau wie die ungleiche Bestückung.

Ich hoffe die ungleiche Bestückung zeigt, das man im Automotivbereich eben DOCH auch jeden Cent zweimal umdreht...

Nakai
2014-02-17, 13:29:41
Um auch mal wieder was beizutragen:

Das reicht von irgendwelchen Sensoreverarbeitungen über Objekttracking bis hin zur Wiedergabe der neuesten BD der Kinder die hinten sitzen und sonst keine Ruhe geben...

So sieht NV auch die Anwendungsbereiche von K1.

Das Board bekommt jedenfalls hochfrequente digitale Daten eingespeißt. Von welchen Sensoren die kommen und wie diese aussehen, keine Ahnung. Es kann sein, dass eben der FPGA verbaut ist, um diese Daten vorzubearbeiten.
Aber ich wüsste jetzt keinen FPGA, der die Leistungsfähigkeit eines K1 erreichen würde.

Ich würde eher erwarten, dass die beiden K1 redundant sind. Weichen Ergebnisse von K1-1 und K1-2 ab -> ZOMG

Also so ein Autopilot-Modul kann je nach Einsatzszenario definitiv sicherheitskritisch sein. Aber fürs Einparken oder ähnlichen Einsatzszenarien, eher nicht. Normalerweise werden andere Teile des Automobils gespiegelt oder redundant eingebaut. Normalerweise eher weniger komplexe Teile(Bremsmechanik/systeme, Beschleunigungssensoren, etc..). Ich weiß ja selber, dass man solche redundante Systeme und deren Konzeption in der Vorlesung lernt, aber solche komplexen Systeme, sind davon eher nicht betroffen.

Ja Redundanz liegt nahe, wobei man das auch einfach durch zwei zFAS erledigen könnte.

Mhh, das klingt zwar schon besser, aber das denke ich nicht.

Es sind zwei Tegra K1 im zFAS.

Ich denke, die beiden K1 sind wirklich nur für Funktionalität da, nicht für Redundanz.

@Skysnakes Spoiler:
Ich würde bei vielen Sachen noch nichts final und nicht so eng sehen.

Ailuros
2014-02-17, 13:37:18
Redundanz macht mir keinen Sinn; wenn am gesamten zFas etwas ko gehen sollte warum gerade K1 und nicht jeglicher anderer Baustein auf der Platine? Wenn ein anderer chip/modul auf zFas krepiert wird einer der beiden K1 trotzdem weiterhin funktionieren koennen und wenn ja warum sind nicht alle restlichen chips/module dupliziert auf dem Ding?

zfas2 koennte ganz einfach eine Art Test-Platform sein die effektiv Parker/Tegra M1 emuliert fuer die Zukunft und sie koennten schon jetzt hypothetisch an der sw arbeiten, oder weiss der Geier was noch.

Nakai
2014-02-17, 14:02:44
Redundanz macht mir keinen Sinn; wenn am gesamten zFas etwas ko gehen sollte warum gerade K1 und nicht jeglicher anderer Baustein auf der Platine? Wenn ein anderer chip/modul auf zFas krepiert wird einer der beiden K1 trotzdem weiterhin funktionieren koennen und wenn ja warum sind nicht alle restlichen chips/module dupliziert auf dem Ding?

zfas2 koennte ganz einfach eine Art Test-Platform sein die effektiv Parker/Tegra M1 emuliert fuer die Zukunft und sie koennten schon jetzt hypothetisch an der sw arbeiten, oder weiss der Geier was noch.

Was mich irritiert ist, dass zFAS Prot2 weniger Anschlüsse, aber wohl zwei K1 hat. Prot1 hat nur einen K1 und deutlich mehr Interfaces gehabt. Es ist zwar sehr wahrscheinlich, dass Prot1 hauptsächlich zur Evaluation existierte(wegen VCM). Aber wieso eine Testplattform für M1/Parker mit verlöteten K1? Eine Testplattform hätte anders ausgesehen, eher wie Prot1 mit VCM. Nv meint auch, dass ihre Modulbauweise(VCM) für solche Sachen da sind, ähnlich wie die meisten anderen Module von solchen Chips.
Ich denke zFas Prot2 ist schon ziemlich final.

Ailuros
2014-02-17, 17:44:50
Was mich irritiert ist, dass zFAS Prot2 weniger Anschlüsse, aber wohl zwei K1 hat. Prot1 hat nur einen K1 und deutlich mehr Interfaces gehabt. Es ist zwar sehr wahrscheinlich, dass Prot1 hauptsächlich zur Evaluation existierte(wegen VCM). Aber wieso eine Testplattform für M1/Parker mit verlöteten K1?

Weil (vorsicht frei erfundene These):

1. Braucht Audi K1*2 Rechenkraft und nicht nur K1 fuer auto pilot und wasauchimmer.
2. Bis zum Punkt wo die Karren auf europaeischen Strassen fahren duerfen sowieso schon Parker am Anmarsch sein wird.

Eine Testplattform hätte anders ausgesehen, eher wie Prot1 mit VCM. Nv meint auch, dass ihre Modulbauweise(VCM) für solche Sachen da sind, ähnlich wie die meisten anderen Module von solchen Chips.
Ich denke zFas Prot2 ist schon ziemlich final.

Ich kenn mich in dem Feld ueberhaupt nicht aus; Du bist der einzige den ich kenne der am naehesten an der Materie liegt. Fuer mich braucht Audi einfach die Rechenkraft von 2*K1; aus welchem Grund genau wie gesagt ist das obrige nur eine frei erfundene These. Aber ich sorge zumindest dass sie halbwegs Sinn macht ;)

Ailuros
2014-02-17, 18:26:17
http://www.fudzilla.com/home/item/33957-nvidia-reshapes-tegra-focus

Fuer mich ist es nichts Neues und die Aussage ist verdammt zwielichtig und spartanisch gestaltet. Zur Enttaeuschung vieler ist die "Umkrempelung" um einiges tiefer als ihr im obrigen lesen koennt.

Maybe, another way of saying it is what is our non-focus and our non-focus is mainstream phones.

BULLSHIT JHH; Du und allein Du hast die gesamte Sparte zum Grab getragen und versucht jetzt in Deiner eigenen Pampe zu schwimmen. Malzeit.

http://www.fudzilla.com/home/item/33963-tegra-business-recovery-starts-in-q2

In der Zwischenzeit wird es endlich wieder ab Q2 bergauf gehen. Aber T4i wird womoeglich der erste und letzte mainstream smartphone SoC sein.

Skysnake
2014-02-17, 19:40:01
Das Board bekommt jedenfalls hochfrequente digitale Daten eingespeißt. Von welchen Sensoren die kommen und wie diese aussehen, keine Ahnung. Es kann sein, dass eben der FPGA verbaut ist, um diese Daten vorzubearbeiten.
Aber ich wüsste jetzt keinen FPGA, der die Leistungsfähigkeit eines K1 erreichen würde.

Dann haste dir aber schon lang keine FPGAs mehr angeschaut :freak:

Nur um mal nen Gefühl dafür zu geben, was heutzutage machbar ist, guckst du hier auf Seite 11 (http://xilinx.eetrend.com/files-eetrend-xilinx/download/201106/1939-3483-wp387teraflopsperformanceandhls.pdf).

The simple floating-point example based on a matrix multiplication shows that, as an HLS project, it enables a peak theoretical performance of 0.5
TeraFLOPs (Single Precision) for the largest Virtex-6 FPGA, and beyond 1.0
TeraFLOPs (Single Precision) for the largest Virtex-7 FPGA


Und das sind ECHTE! GFlop/s, also Flops, die man tatsächlich erreicht hat in ner Anwendung, und nicht theoretische Werte von denen man nochmal X% abziehen darf.

Wieviele GFlop/s soll K1 nochmal haben?

Ach ja genau 384 GFlop/s, und das sind die rein sterilen theoretischen GFlop/s und nicht die realen, die irgendwo hinten bei rum kommen. Gerade bei komplexen/divergenten Aufgaben kann nen FPGA gegen ne GPU glänzen.

Über den Preis von so nem FPGA brauchen wir natürlich nicht! reden. Da biste im fünfstelligen Bereich, aber das Ding ist ja eh nur zur Evaluation da, um das ASIC-Design zu testen, und der wäre dann eben deutlich billiger zu haben als nen K1.



Also so ein Autopilot-Modul kann je nach Einsatzszenario definitiv sicherheitskritisch sein. Aber fürs Einparken oder ähnlichen Einsatzszenarien, eher nicht. Normalerweise werden andere Teile des Automobils gespiegelt oder redundant eingebaut. Normalerweise eher weniger komplexe Teile(Bremsmechanik/systeme, Beschleunigungssensoren, etc..). Ich weiß ja selber, dass man solche redundante Systeme und deren Konzeption in der Vorlesung lernt, aber solche komplexen Systeme, sind davon eher nicht betroffen.

Schau dir einfach mal Flugzeuge an, da ist alles! mindestens doppelt vorhanden. Und son Flugzeug ist nochmal etwas komplexer. Das ist an sich nur ne Kosten/Sicherheitsfrage und sonst nichts.

Ailuros
2014-02-17, 19:47:58
192 SPs * 2 FLOPs * 0.951GHz = 365 GFLOPs

deekey777
2014-02-17, 20:24:25
Ihr seit so langweilig. Und da ihr so langweilig seit, schreibe ich "seid" absichtlich mit "t" (und damit falsch).

Nvidia Tegra Note (P1761) mit Tegra K1 & 1920 x 1200 Pixeln aufgetaucht (http://www.tabtech.de/android-bzw-google-tablet-pc-news/nvidia-tegra-note-p1761-mit-tegra-k1-1920-x-1200-pixeln-aufgetaucht)

"... Es handelt sich dabei weiterhin um den ARM Cortex-A15 der in dem Fall mit satten 2,1 GHz pro Kern getaktet ist. ... Der neue Tegra K1 Prozessor soll aber sogar mit bis zu 2,3 GHz noch höher getaktet werden können. Die Leistung in Kombination mit der Kepler GPU ist in jedem Fall gegeben, was auch die Ergebnisse der AnTuTu-Benchmarks belegen. Dort kommt das Nvidia Tegra Note (P1761) auf immerhin über 38.000 Punkte. Der Tegra K1 hat aber bereits über 41.000 Punkte erreicht – vermutlich mit der vollen Taktfrequenz. In einem Tablet muss man diesen Maximaltakt aber nicht unbedingt ausreizen."

Ich finde den K1 weiterhin cool.

Unicous
2014-02-17, 21:13:19
Wow.

Dann hat sich ja meine Vorhersagung (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10110112#post10110112)ja schon erfüllt. Sie haben EIN, in Zahlen 1, design win von 2. Jetzt fehlt ja nur noch Shield und dann ist Nvidia wieder auf dem grünen Zweig.:freak:


Und hui, er kann sogar bis zu 2,1 GHz takten. Das sind zwar 200 MHz weniger als der angedachte Peak Clock, aber gut darüber wollen wir mal großzügig hinwegsehen. Es ist ja nicht so als wären wir an diese Takt-"Ansagen" von JHH und Co. nicht schon gewöhnt.
Ist ja auch nur ein Tablet. Im Auto kann er dann seine vollen 2,3 GHz ausfahren.;D

Aber hey, ein design win. Ist zwar selbst bezahlt, aber: "Who cares, right? A win is a win."

Blediator16
2014-02-17, 21:20:37
Das Gesicht sieht nachwievor unheimlich gut aus genau wie die Animationen.

Ailuros
2014-02-17, 21:21:12
Wow.

Dann hat sich ja meine Vorhersagung (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10110112#post10110112)ja schon erfüllt. Sie haben EIN, in Zahlen 1, design win von 2. Jetzt fehlt ja nur noch Shield und dann ist Nvidia wieder auf dem grünen Zweig.:freak:


Und hui, er kann sogar bis zu 2,1 GHz takten. Das sind zwar 200 MHz weniger als der angedachte Peak Clock, aber gut darüber wollen wir mal großzügig hinwegsehen. Es ist ja nicht so als wären wir an diese Takt-"Ansagen" von JHH und Co. nicht schon gewöhnt.
Ist ja auch nur ein Tablet. Im Auto kann er dann seine vollen 2,3 GHz ausfahren.;D

Aber hey, ein design win. Ist zwar selbst bezahlt, aber: "Who cares, right? A win is a win."

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10113525&postcount=3917

*hust*

Unicous
2014-02-17, 21:27:30
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10113525&postcount=3917

*hust*

*hust* Was?:uconf2:

Ailuros
2014-02-17, 21:44:37
*hust* Was?:uconf2:

NV steigt fuer den Anfang aus smartphones raus mit Tegras. Dass es Referenz Geraete fuer K1 geben ist schon garantiert nachdem sie schon vorangekuendigt wurden.

Unicous
2014-02-17, 22:13:22
Referenz-Geräte heißt doch aber nicht design win?

Wie oft habe ich schon tolle Referenz-Geräte gesehen die es so nie auf den Markt geschafft haben.

Und wenn ihr Fokus nicht auf Mainstream-Phones liegt kann er dennoch auf HighCost... äh End Phones liegen.

Aber auch da gibt es keine Wins.

In genau einer Woche wissen wir, was die OEMs von Nvidia halten, denn dann ist MWC und danach wird erstmal sicherlich nichts Weltbewegendes veröffentlicht. Entweder gibt es wenigstens ein paar 4i wins und ein paar K1 Ankündigungen, oder gar nichts.

Ich tippe auf Letzteres. Wie gesagt, ich glaube das Eis wird dünn für Nvidia und "eigene" design wins werden sie nicht retten.

Als gebranntes "Tegra-Kind", das immer die Entwicklung verfolgt hat und von Generation zu Generation enttäuscht wurde, sehe ich nicht das Nvidia da etwas reißen wird. Der Markt scheint sich auch nicht um die Chips zu reißen (ich glaube nämlich auch, dass sie einfach zu teuer sind und nicht mit Qualcomms Chip-Paketen mithalten können).

Nvidia ist dazu verdammt, jetzt mindestens 30+ design wins zu holen um wenigstens zu behaupten können, sie seien relevant. Nur sehe ich nicht einen einzigen (excluding the obvious).

Ailuros
2014-02-17, 23:19:19
Referenz-Geräte heißt doch aber nicht design win?

Nicht wirklich; ich sagte nach dem Tegra4 launch natuerlich dass NVIDIA 5 design wins gelandet hat mit NV, NV, NV, NV und NV aber es war wohl ein offensichtlicher Scherz :biggrin:

Wie oft habe ich schon tolle Referenz-Geräte gesehen die es so nie auf den Markt geschafft haben.

Und wenn ihr Fokus nicht auf Mainstream-Phones liegt kann er dennoch auf HighCost... äh End Phones liegen.

Aber auch da gibt es keine Wins.

In genau einer Woche wissen wir, was die OEMs von Nvidia halten, denn dann ist MWC und danach wird erstmal sicherlich nichts Weltbewegendes veröffentlicht. Entweder gibt es wenigstens ein paar 4i wins und ein paar K1 Ankündigungen, oder gar nichts.

Ich tippe auf Letzteres. Wie gesagt, ich glaube das Eis wird dünn für Nvidia und "eigene" design wins werden sie nicht retten.

NV aendert ihre Ziele fuer Tegra und bezweifle dass sich auch tablets besonders lange halten werden koennen. Die Konzentration fuer die Zukunft wird hauptsaechlich fuer automotive/embedded und HPC sein und das wird wohl auch heissen dass sie Entwicklungskosten radikal reduzieren werden muessen in der Zukunft.

Als gebranntes "Tegra-Kind", das immer die Entwicklung verfolgt hat und von Generation zu Generation enttäuscht wurde, sehe ich nicht das Nvidia da etwas reißen wird. Der Markt scheint sich auch nicht um die Chips zu reißen (ich glaube nämlich auch, dass sie einfach zu teuer sind und nicht mit Qualcomms Chip-Paketen mithalten können).

Nvidia ist dazu verdammt, jetzt mindestens 30+ design wins zu holen um wenigstens zu behaupten können, sie seien relevant. Nur sehe ich nicht einen einzigen (excluding the obvious).

Och Audi zaehlt schon dazu. Es wird schon einige design wins mit K1 haben, nur wird es nichts am obrigen langfristig aendern. Der ramtamtam wird mit der Zeit nachlassen, nur will eben NV nicht so schlagartig ueber Nacht ein Texas Instruments fuer Tegra drehen.

Unicous
2014-02-17, 23:34:32
Ok dann habe ich deinen Witz, der in die gleiche Kerbe schlägt, einfach zu ernst genommen.:biggrin:

Hört sich auf jeden Fall nicht nach "High Times at Nvidia" an. Aber dann müsste Jensen ja eine Niederlage eingestehen und dass den shareholders verklickern.
Das wird ja ein Spaß.:eek:

Das klingt schon alles sehr plausibel, nur vorstellen kann ich es mir noch nicht.
Wir werden sehen, wie Jensen dass hingebogen bekommt, das es so aussieht als wäre das sein Plan von vornherein gewesen.:rolleyes:

Müssten sie aber diesen Schritt nicht schon längst in einem CC oder Shareholder Meeting mitgeteilt haben? Immerhin ist das ein langfristiger Strategieumschwung in einer kritischen Phase (die schon ein paar Jahre anhält wenn man es genau nimmt)?

Wenn das auch nur ansatzweise der Plan ist, sehe ich einen guten Gegenwind bei den Aktionären voraus.

Ailuros
2014-02-17, 23:43:45
Ok dann habe ich deinen Witz, der in die gleiche Kerbe schlägt, einfach zu ernst genommen.:biggrin:

Vorsicht kann gefaehrlich werden :P

Hört sich auf jeden Fall nicht nach "High Times at Nvidia" an. Aber dann müsste Jensen ja eine Niederlage eingestehen und dass den shareholders verklickern.
Das wird ja ein Spaß.:eek:

Das klingt schon alles sehr plausibel, nur vorstellen kann ich es mir noch nicht.
Wir werden sehen, wie Jensen dass hingebogen bekommt, das es so aussieht als wäre das sein Plan von vornherein gewesen.:rolleyes:

Fudo wird direkt von NV gefuettert; der vorige link wurde nur so nebenbei reingesteckt damit es doch irgendwo eine Referenz dafuer gibt aber fett oben wird mit dem link geworben dass das Geschaeft ab Q2 um einiges besser laufen wird. Es wird auch besser laufen, nur wird es keinen Gewinn in die Bude bringen.

Müssten sie aber diesen Schritt nicht schon längst in einem CC oder Shareholder Meeting mitgeteilt haben? Immerhin ist das ein langfristiger Strategieumschwung in einer kritischen Phase (die schon ein paar Jahre anhält wenn man es genau nimmt)?

Wenn das auch nur ansatzweise der Plan ist, sehe ich einen guten Gegenwind bei den Aktionären voraus.

Wart ab wie es in den naechsten Tagen gegen mich wegen meiner "Frechheit" von den fanboys regnen wird ;) Sonst am 02/12/14 und ich hasse es wenn Charlie mit einem "I told you so" kommt aber ja leider:

http://semiaccurate.com/2013/12/02/nvidia-exits-another-major-market-segment/

Nakai
2014-02-18, 00:34:04
Dann haste dir aber schon lang keine FPGAs mehr angeschaut :freak:

Nur um mal nen Gefühl dafür zu geben, was heutzutage machbar ist, guckst du hier auf Seite 11 (http://xilinx.eetrend.com/files-eetrend-xilinx/download/201106/1939-3483-wp387teraflopsperformanceandhls.pdf).


Und das sind ECHTE! GFlop/s, also Flops, die man tatsächlich erreicht hat in ner Anwendung, und nicht theoretische Werte von denen man nochmal X% abziehen darf.

Wieviele GFlop/s soll K1 nochmal haben?

Ach ja genau 384 GFlop/s, und das sind die rein sterilen theoretischen GFlop/s und nicht die realen, die irgendwo hinten bei rum kommen. Gerade bei komplexen/divergenten Aufgaben kann nen FPGA gegen ne GPU glänzen.

Über den Preis von so nem FPGA brauchen wir natürlich nicht! reden. Da biste im fünfstelligen Bereich, aber das Ding ist ja eh nur zur Evaluation da, um das ASIC-Design zu testen, und der wäre dann eben deutlich billiger zu haben als nen K1.


Ich stimm dir natürlich zu, dass FPGAs in vielen Bereichen sinnvoll sind. Vor allem da, wo sehr niedrige Latenzen wichtig sind. FPGAs sind da exzellent. Dass es mittlerweile solche starken FPGA-Systeme gibt, hab ich tatsächlich nicht gewusst. Einzelne FPGA-DSPs(mittlerweile auch mit ARM-Kernen) sind natürlich bei weitem nicht so stark. Außerdem bezweifle ich, dass ein solches FPGA-System jegliches notwendige Power-Envelope erfüllt. Ich habe auf die schnelle keine Werte und Daten auf Xilinx gefunden, was ein solches FPGA-System verbraucht. Ebenso muss ein dementsprechender ASIC auch erstmal gefertigt werden und dann verifiziert werden. Da ist doch ein Chip der die bereits notwendigen Funktionalitäten bereitstellt, deutlich einfacher zu handhaben. Vor allem glaube ich, dass NV mit ihrer Dual-ISP-Core im K1 eine schnelle Methode zur Bildbearbeitung anbietet. K1 ist definitiv bei einigen namhaften Automobilhersteller und bald einigen Zulieferern zugange.

€: Um noch etwas hinzuzufügen: Bei dem was man derzeit sonst im Automotive Bereich vorfindet, ist ein jeglicher K1 einfach nur Overkill.

Schau dir einfach mal Flugzeuge an, da ist alles! mindestens doppelt vorhanden. Und son Flugzeug ist nochmal etwas komplexer. Das ist an sich nur ne Kosten/Sicherheitsfrage und sonst nichts.

Ja, das ist klar. Man sollte aber hier wirklich zwischen Zuverlässigkeit und Sicherheit unterscheiden. Sicherheit hat bei einem Flugzeug einen unglaublich hohen Wert. Man kann ja nicht einfach in der Luft stehen bleiben...;)

Ich hoffe mal für NV, dass sie damit ihr Tegra-Geschäft etwas stabilisieren. Dass NV in Q2 ihr Tegra-Geschäft wieder auf den aufsteigenden Ast bringen will, kann gut stimmen, da in diesem Zeitraum K1 breiter verfügbar sein wird, in jeglichen Bereich. Außerdem finde ich es erstaunlich, dass K1 bereits jetzt im Automotive ist, wo jegliche Verifizierung und Umsetzung normalerweise etwas länger dauert.

Skysnake
2014-02-18, 10:08:22
Referenz-Geräte heißt doch aber nicht design win?

Wie oft habe ich schon tolle Referenz-Geräte gesehen die es so nie auf den Markt geschafft haben.

Und wenn ihr Fokus nicht auf Mainstream-Phones liegt kann er dennoch auf HighCost... äh End Phones liegen.

Aber auch da gibt es keine Wins.

Schon mal in Betracht gezogen, das nVidia mit K1 einfach too big für SmartPhones gleich jedweder Art ist?

Und selbst bei den Tablets siehts ja eher dünn aus. Wenn man sich dazu auch noch so manchen Kommentar von Ailuros reinpfeift, dann sollte man sich fragen, ob überhaupt abseits von nVidia selbst, relevante Tablets Deals auftauchen werden. Rein vom Gefühl her würde ich sagen eher nicht.

K1 wird wohl eher in die Surface-Liga und größer fallen. An sich eigentlich ok, nur sind da halt AMD und vor allem Intel auch am wildern, und gerade Intel scheist auf Marge aktuell....

Wie soll man nochmal Gewinne machen, wenn die Konkurrenz ihre Chips zum Selbstkostenpreis oder darunter verschleudert?



In genau einer Woche wissen wir, was die OEMs von Nvidia halten, denn dann ist MWC und danach wird erstmal sicherlich nichts Weltbewegendes veröffentlicht. Entweder gibt es wenigstens ein paar 4i wins und ein paar K1 Ankündigungen, oder gar nichts.

Ich tippe auf Letzteres. Wie gesagt, ich glaube das Eis wird dünn für Nvidia und "eigene" design wins werden sie nicht retten.

Als gebranntes "Tegra-Kind", das immer die Entwicklung verfolgt hat und von Generation zu Generation enttäuscht wurde, sehe ich nicht das Nvidia da etwas reißen wird. Der Markt scheint sich auch nicht um die Chips zu reißen (ich glaube nämlich auch, dass sie einfach zu teuer sind und nicht mit Qualcomms Chip-Paketen mithalten können).

Oh ja, die nächsten Wochen werden "heis" werden. Ich bin schon auf die Rechtfertigungsposts gespannt....


Nvidia ist dazu verdammt, jetzt mindestens 30+ design wins zu holen um wenigstens zu behaupten können, sie seien relevant. Nur sehe ich nicht einen einzigen (excluding the obvious).
Pft... Was bringen dir 30+ Designswins, bei denen an jedem Deal nur paar tausend Chips dran hängen?

Schau mal in den Automotivbereich. Da wird nVidia sicherlich schon >10 Designwins verkünden können. Die machen halt einfach aus jedem Dreck nen Designwin. Scheis drauf, ob das nur 1k Chips sind.


Fudo wird direkt von NV gefuettert; der vorige link wurde nur so nebenbei reingesteckt damit es doch irgendwo eine Referenz dafuer gibt aber fett oben wird mit dem link geworben dass das Geschaeft ab Q2 um einiges besser laufen wird. Es wird auch besser laufen, nur wird es keinen Gewinn in die Bude bringen.

Ist "besser laufen" eine Kunst bei der Ausgangslage?

Wirklich schlechter kanns ja auch nicht mehr werden.

Ich stimm dir natürlich zu, dass FPGAs in vielen Bereichen sinnvoll sind. Vor allem da, wo sehr niedrige Latenzen wichtig sind. FPGAs sind da exzellent. Dass es mittlerweile solche starken FPGA-Systeme gibt, hab ich tatsächlich nicht gewusst. Einzelne FPGA-DSPs(mittlerweile auch mit ARM-Kernen) sind natürlich bei weitem nicht so stark. Außerdem bezweifle ich, dass ein solches FPGA-System jegliches notwendige Power-Envelope erfüllt. Ich habe auf die schnelle keine Werte und Daten auf Xilinx gefunden, was ein solches FPGA-System verbraucht.

Sowas um die 30-40W (http://www.xilinx.com/content/xilinx/en/products/technology/power/_jcr_content/mainParsys/xilinxcolumns_d567/column0/xilinximagemodal_16c/image.img.jpg/1369425578891.jpg) sollten es wohl maximal sein.


Ebenso muss ein dementsprechender ASIC auch erstmal gefertigt werden und dann verifiziert werden.

Natürlich musst du den ASIC erstmal bauen und verifizieren, aber genau dabei hilft dir ja ein FPGA-Design. Du packst da alles oder halt fast alles rein, was du später auch im ASIC haben willst.

Nen FPGA oder ASIC brauchste eh! Denn K1 und auch sonst nen Chip kann die Daten von den Sensoren ja nicht einfach entgegen nehmen. Also warum nicht gleich alles in nen ASIC packen, wenn man eh schon einen bauen muss.


Da ist doch ein Chip der die bereits notwendigen Funktionalitäten bereitstellt, deutlich einfacher zu handhaben.

Nur kann K1 halt nicht alles, was dazu führt, das du eh nen FPGA/ASIC noch dazu brauchst...


Vor allem glaube ich, dass NV mit ihrer Dual-ISP-Core im K1 eine schnelle Methode zur Bildbearbeitung anbietet. K1 ist definitiv bei einigen namhaften Automobilhersteller und bald einigen Zulieferern zugange.

Was heist hier "Bildbearbeitung" du musst ne Datenanalyse machen und gleichzeitig auch noch viele unterschiedliche Eingangssignale miteinander abgleichen.


€: Um noch etwas hinzuzufügen: Bei dem was man derzeit sonst im Automotive Bereich vorfindet, ist ein jeglicher K1 einfach nur Overkill.

Naja, für Routenberechnung und Infotainment eignet sich K1 doch wunderbar. Du hast quasi nen kleines Subnotebook im Auto, welches dir Sprachsteuerung erlaubt und eben den einzelnen Fahrgästen Medien zuspielen muss und auch Internet usw bietet.

Man darf ja nicht aus den Augen verlieren, dass das Infotainmentsystem maximal 3-5 Leuten gleichzeitig Kontent bereitstellen muss.


Ja, das ist klar. Man sollte aber hier wirklich zwischen Zuverlässigkeit und Sicherheit unterscheiden. Sicherheit hat bei einem Flugzeug einen unglaublich hohen Wert. Man kann ja nicht einfach in der Luft stehen bleiben...;)

Dann schau mal bitte nach Amerika, was Toyota da wegen Fußmatten blechen musste und auch sonst schon Autokonzerne für Strafzahlungen leisten mussten... Da wird niemand an der Sicherheit sparen. Klar ist nen Flugzeugabsturz noch etwas teurer, aber ein Unfall durch einen Defekt im Autopilot kann dich als Konzern schon einen hohen zweistelligen Millionenbetrag kosten. Da sind die paar Dollar für Redundanz nen klacks dagegen.


Ich hoffe mal für NV, dass sie damit ihr Tegra-Geschäft etwas stabilisieren. Dass NV in Q2 ihr Tegra-Geschäft wieder auf den aufsteigenden Ast bringen will, kann gut stimmen, da in diesem Zeitraum K1 breiter verfügbar sein wird, in jeglichen Bereich.

Naja, was heist "aufsteigender Ast"? Schlechter gehts ja nicht mehr.

Zwischen "aufsteigender Ast" und "Gewinne machen" liegen aber teils noch Welten.


Außerdem finde ich es erstaunlich, dass K1 bereits jetzt im Automotive ist, wo jegliche Verifizierung und Umsetzung normalerweise etwas länger dauert.
Ich würde nicht davon ausgehen, das nVidia schon durch die Verifikation durch ist.

Ailuros
2014-02-18, 10:14:23
Wenn sie zumindest die Mehrzahl ihrer jaehrlichen Ausgaben decken koennen ist es schon in Ordnung; ein zweites Jahr wie das vorige fuer Tegra und sie muessten die Sparte dann gleich dicht machen. So wie es aussieht kommen sie mit einer mittleren Loesung davon.

Fudo berichtet gerade auch von dem "vontutenundblasen" score des K1; hat jemand in Erinnerung wieviel Tegra4 in dem Ding erreichte (ehrliche Frage)?

Undertaker
2014-02-18, 10:17:34
Ihr seit so langweilig. Und da ihr so langweilig seit, schreibe ich "seid" absichtlich mit "t" (und damit falsch).

Nvidia Tegra Note (P1761) mit Tegra K1 & 1920 x 1200 Pixeln aufgetaucht (http://www.tabtech.de/android-bzw-google-tablet-pc-news/nvidia-tegra-note-p1761-mit-tegra-k1-1920-x-1200-pixeln-aufgetaucht)

Ich finde den K1 weiterhin cool.

2,1 GHz sind für ein 7 Zoll taugliches Modell gar nicht mal übel, auch wenn die spannende Frage sicherlich die GPU-Performance bleibt. Vor einiger Zeit habe ich ja mal auf etwa 45 - 50 fps im GLB 2.7 getippt (in Relation zu den 60 fps Referenz von Nvidia), die mir da noch keiner glauben wollte... Jetzt sehen wir auf einmal bei Maxwell, das ausgehend von Kepler doch noch einiges an Effizienz herausgeholt werden kann. ;) Na warten wir mal ab.

Das überhaupt ein neues Tegra Note kommt, geistert schon seit einiger Zeit durch die Kanäle und ist darum nicht wirklich überraschend.


Fudo berichtet gerade auch von dem "vontutenundblasen" score des K1; hat jemand in Erinnerung wieviel Tegra4 in dem Ding erreichte (ehrliche Frage)?

Hmm? Das alte Note ist doch bei Tabtech und Fudzilla im Diagramm enthalten. Wirklich aussagekräftig scheinen die Werte aber nicht zu sein (fps-Limit in den GPU-Tests? Fließt die Auflösung ein?), da praktisch identisch hoch.

Ailuros
2014-02-18, 10:23:09
2,1 GHz sind für ein 7 Zoll taugliches Modell gar nicht mal übel, auch wenn die spannende Frage sicherlich die GPU-Performance bleibt.

85x fuer tablets? ;)

Vor einiger Zeit habe ich ja mal auf etwa 45 - 50 fps im GLB 2.7 getippt (in Relation zu den 60 fps Referenz von Nvidia), die mir da noch keiner glauben wollte... Jetzt sehen wir auf einmal bei Maxwell, das ausgehend von Kepler doch noch einiges an Effizienz herausgeholt werden kann. ;) Na warten wir mal ab.

Das überhaupt ein neues Tegra Note kommt, geistert schon seit einiger Zeit durch die Kanäle und ist darum nicht wirklich überraschend.

Ich glaubte es schon nur behauptete dass es bei dem TDP nichts mehr besonderes ist. Ein ziemlich gewaltiger Unterschied. In realen Geraeten liegt das Ding 18-20+ (je nach Fall) fuer GLB3.0 afaik.

***edit: ich wart ab bis Du fuer Antutu kommentierst, aber Du weisst dass ich von dem Ding nichts halte. Ist der score zu nahe am T4 ist der Mist noch wertloser als ich dachte.

Skysnake
2014-02-18, 10:24:58
Wenn sie zumindest die Mehrzahl ihrer jaehrlichen Ausgaben decken koennen ist es schon in Ordnung; ein zweites Jahr wie das vorige fuer Tegra und sie muessten die Sparte dann gleich dicht machen. So wie es aussieht kommen sie mit einer mittleren Loesung davon.

Klar, das wäre schonmal ne Hausnummer. Auf ner glatten Null kann man gut aufbauen und sich den einen oder anderen Deal noch über die Preisschraube holen, um noch ein bischen mehr Gewinn zu machen. Ich habe da aber so meine Zweifel, dass Sie das rein durch Automotiv schaffen, es sei denn Sie hauen massiv die Forschungs- und Entwicklungsgelder nach unten.

An sich ist das aber keine gute Idee, denn die Konkurrenz schläft eben nicht und drückt in jeden Markt rein der Gewinne verspricht.

nVidia muss da echt aufpassen, dass Sie nicht wie Matrox enden. Die nagen auch nur noch an einigen winzigen Nieschen, und was Neues können Sie nicht bringen, weil R&D ihnen das Genick brechen würden bis Sie was in der Hand hätten, um die Konkurrenz in anderen Feldern zu schlagen.

OpenPOWER seh ich da an sich viel vielversprechender an im Vergleich zu Tegra, denn das was von Tegra im Prinzip jetzt noch übrig bleibt überschneidet sich zumindest teilweise mit OpenPOWER, und der Rest reicht nicht aus um so viel zu verdienen, um mit der Konkurrenz mithalten zu können.

Die können da jetzt noch die Kuh melken und jeglichen R&D einstellen , bzw nach OpenPOWER verschieben, bis da halt was läuft, aber sonst?


Fudo berichtet gerade auch von dem "vontutenundblasen" score des K1; hat jemand in Erinnerung wieviel Tegra4 in dem Ding erreichte (ehrliche Frage)?
Sorry, keine Ahnung.

Undertaker
2014-02-18, 10:35:05
85x fuer tablets? ;)

850 MHz GPU-Takt? Zu hoch.


Ich glaubte es schon nur behauptete dass es bei dem TDP nichts mehr besonderes ist.

Jegliche Interpretation von TDP-Angaben können wir uns, das habe ich schon in der Vergangenheit begründet, aus den verschiedensten Gründen sparen: 1. Die TDP steht in dieser Klasse nicht für Throttling-freie Maximalbelastung aller Chipteile. 2. Wir kennen die zugehörigen Taktraten nicht. 3. Kaum ein Konkurrent gibt überhaupt TDP-Werte an. 4....

Viel interessanter ist doch der Formfaktor von 7 Zoll, der ganz automatisch die Leistungsaufnahme begrenzt. Selbst ein größeres iPad Mini Retina klebt bei 3D-Last mehr oder minder am thermischen Limit, ergo sind dessen ~27 fps (GLB 2.7) der passende Perf/Watt Maßstab im GPU-Bereich.

In realen Geraeten liegt das Ding 18-20+ (je nach Fall) fuer GLB3.0 afaik.

Schätzt du das oder basiert das auf realen Benchmarks? Ausgehend davon wären ~40 fps im GLB 2.7 zu erwarten. Ich tendiere wie erwähnt zu noch etwas höheren Werten, aber mal schauen.

Ailuros
2014-02-18, 10:45:01
Die Frage ist ob der tablet Markt mit vergleichbarem Tempo weiterwachsen wird oder ob er schon anfangen wird zu stagnieren? Gut Fudzilla ist eine der fruitco-feindlichsten Seiten aber ich frage mich trotz allem ob wahres daran liegt: http://www.fudzilla.com/home/item/33960-apple-unlikely-to-refresh-ipads

Man sollte bedenken wie viele schon ein tablet haben, gross/klein/billig/teuer egal. Wie viele von diesen haben wirklich Bock sich eventuell ein neues zu kaufen; anders ich kann mir nicht vorstellen dass in der absehbaren Zukunft tablets in die Milliarden Stueck/Jahr Region steigen werden. Ein paar hundert tausend Einheiten pro Hersteller verkauft ist nicht der Rede wert.

Mal sehen inwiefern K1 das Blatt fuer tablets wenden wird. Werden es nicht ueberteuerte Premium-Produkte koennte es tatsaechlich einiges aendern.


Viel interessanter ist doch der Formfaktor von 7 Zoll, der ganz automatisch die Leistungsaufnahme begrenzt. Selbst ein größeres iPad Mini Retina klebt bei 3D-Last mehr oder minder am thermischen Limit, ergo sind dessen ~27 fps (GLB 2.7) der passende Perf/Watt Maßstab im GPU-Bereich.

Wenn die obrigen Geruechte stimmen hat Apple keinen Bock diesen Herbst ein neues 7" tablet zu veroeffentlichen; wenn's stimmt eine Eulogie fuer NV.

Schätzt du das oder basiert das auf realen Benchmarks? Ausgehend davon wären ~40 fps im GLB 2.7 zu erwarten. Ich tendiere wie erwähnt zu noch etwas höheren Werten, aber mal schauen.

Ich bekam ein Prozentual dazugesteckt und ich hab mich verrechnet; ab 22 je nach Fall.

Skysnake
2014-02-18, 10:49:10
"Peak-Oil" ist sicherlich erreicht, bzw steht relativ kurz bevor.

Es wurden ja unglaubliche Mengen an Tablets und Smartphones ausgeliefert. Zudem haben die Dinger inzwischen eine wahrhaft beeindruckende Leistungsfähigkeit erreicht. Der Bedarf an noch mehr Leistung sinkt bei immer mehr Leuten. Wenn wird sich mehr Akkulaufzeit gewünscht.

Nur für mehr Akkulaufzeit schmeist man aber nicht 500€ aus dem Fenster.

Der Markt wird sicherlich stagnieren, daher sind die Unternehmen ja so scharf auf den "Internet-of-Everything"-Markt so scharf. Die Stückzahlen die man da absetzen kann sind einfach abartig, und man wird halt nur sehr sehr sehr wenig R&D effektiv rein stecken müssen. Da geht es ja nicht um stateoftheart Chips, sondern um klein und billig.

Dural
2014-02-18, 10:50:56
Ich sehe weit und breit keine Konkurrenz die in einem Jahr schon so was wie ein Denver+ Core mit Maxwell Grafik ankündigen wird. :rolleyes:

Und das man mit einem K1 keine grossen Stückzahlen erwarten kann, dürfte selbstverständlich sein. Dazu fehlt NV es nach wie vor an kleineren Ausbaustufen, die für NV meiner Meinung nach aber derzeit auch keinen Sinn ergeben würden. Zudem wird man im Grössten Kuchen (Apple) Garantiert so schnell gar nie laden können...


Zudem muss man sagen das gewisse User hier überhaupt nicht mehr Sachlich sind und gerade zu in einen Anti Tegra Wahn vertieft sind. Ich sehe da fast nur noch Fanboy Gelaber und fast nichts sachliches. Ich meine da werden zb. 2.1GHz / A15 Quad / 28nm in eine 7" Tablet kritisiert :freak:
Falls so ein Tablet auf den Markt kommt und sich der Verbrauch in Grenzen hält wäre ich persönlich sogar extrem Überrascht vom K1.

AffenJack
2014-02-18, 10:53:24
Die Frage ist ob der tablet Markt mit vergleichbarem Tempo weiterwachsen wird oder ob er schon anfangen wird zu stagnieren? Gut Fudzilla ist eine der fruitco-feindlichsten Seiten aber ich frage mich trotz allem ob wahres daran liegt: http://www.fudzilla.com/home/item/33960-apple-unlikely-to-refresh-ipads

Man sollte bedenken wie viele schon ein tablet haben, gross/klein/billig/teuer egal. Wie viele von diesen haben wirklich Bock sich eventuell ein neues zu kaufen; anders ich kann mir nicht vorstellen dass in der absehbaren Zukunft tablets in die Milliarden Stueck/Jahr Region steigen werden. Ein paar hundert tausend Einheiten pro Hersteller verkauft ist nicht der Rede wert.


Die frage muss man sich nicht nur beim Tabletmarkt stellen. Beim Smartphonemarkt ist es nichts anderes. Wo früher noch alle die High-End Phones haben wollten, reicht immer mehr Leuten ein Telefon der Mittelklasse. Der Smartphonemarkt wird zwar weiter wachsen, aber das Wachstum verlagert sich in tiefere Preisbereiche.

Ailuros
2014-02-18, 10:54:41
Ich sehe weit und breit keine Konkurrenz die in einem Jahr schon so was wie ein Denver+ Core mit Maxwell Grafik ankündigen wird. :rolleyes:

Musst Du auch nicht; lass Dich ueberraschen.


Zudem muss man sagen das gewisse User hier überhaupt nicht mehr Sachlich sind und gerade zu in einen Anti Tegra Wahn vertieft sind. Ich sehe da fast nur noch Fanboy Gelaber und fast nichts sachliches. Ich meine da werden zb. 2.1GHz / A15 Quad / 28nm in eine 7" Tablet kritisiert :freak:
Falls so ein Tablet auf den Markt kommt und sich der Verbrauch in Grenzen hält wäre ich persönlich sogar extrem Überrascht vom K1.

Wohingegen der obrige Paragraph das Beispiel der Sachlichkeit ist oder etwas mit etwas Substanz zum Thema beitraegt?

deekey777
2014-02-18, 11:01:48
2,1 GHz sind für ein 7 Zoll taugliches Modell gar nicht mal übel, auch wenn die spannende Frage sicherlich die GPU-Performance bleibt. Vor einiger Zeit habe ich ja mal auf etwa 45 - 50 fps im GLB 2.7 getippt (in Relation zu den 60 fps Referenz von Nvidia), die mir da noch keiner glauben wollte... Jetzt sehen wir auf einmal bei Maxwell, das ausgehend von Kepler doch noch einiges an Effizienz herausgeholt werden kann. ;) Na warten wir mal ab.

Das überhaupt ein neues Tegra Note kommt, geistert schon seit einiger Zeit durch die Kanäle und ist darum nicht wirklich überraschend.
.
Es wäre mMn ein Fehler, wenn Tegra Note bei 7 Zoll bleibt, da ist nichts zu holen. Sinnvoller wäre ein 8''-Gerät, dafür kann man mehr Geld verlangen, ohne dass sich der Leistungsaufwand viel ändert (Auflösung bleibt ja gleich, nur der Akku muss ggf. größer sein).

Skysnake
2014-02-18, 11:02:13
Ich sehe weit und breit keine Konkurrenz die in einem Jahr schon so was wie ein Denver+ Core mit Maxwell Grafik ankündigen wird. :rolleyes:
Darf ich an HSA erinnern?

Das ziehlt eher auf leistungsstarke Systeme ab. Man könnte es auch als ProjectDenver reloaded ansehen.

Ich wäre da also nicht so selbstsicher, dass da nichts vergleichbares kommt in absehbarer Zeit.


Und das man mit einem K1 keine grossen Stückzahlen erwarten kann, dürfte selbstverständlich sein. Dazu fehlt NV es nach wie vor an kleineren Ausbaustufen, die für NV meiner Meinung nach aber derzeit auch keinen Sinn ergeben würden. Zudem wird man im Grössten Kuchen (Apple) Garantiert so schnell gar nie laden können...

Es gibt Groß und GROSS!!!!!! Apple fällt eindeutig in letztere Kategorie. Das was nVidia zuletzt aber abgeliefert hat ist einfach nur winzig, und Automotiv lässt auch keine signifikanten Stückzahlen erwarten, und selbst eine verdoppelung oder vervierfachung der T4 Stückzahlen reicht halt nicht aus. Die würden dennoch nen Minus machen, und genau das muss sich endlich mal ändern.

Sie müssen keinen Gewinn machen, aber die schwarze Null muss endlich mal stehen! Selbst wenn Sie ihre Chips fast verschenken und die Marge ins bodenlose fällt. Aber die schwarze Null muss endlich mal kommen.


Zudem muss man sagen das gewisse User hier überhaupt nicht mehr Sachlich sind und gerade zu in einen Anti Tegra Wahn vertieft sind. Ich sehe da fast nur noch Fanboy Gelaber und fast nichts sachliches. Ich meine da werden zb. 2.1GHz / A15 Quad / 28nm in eine 7" Tablet kritisiert :freak:
Falls so ein Tablet auf den Markt kommt und sich der Verbrauch in Grenzen hält wäre ich persönlich sogar extrem Überrascht vom K1.
Stimmt, die Vergangenheit war ja so rosig, das nVidia sogar immer zu tief gestapelt hat, und ihre Ziele übertroffen hat... Oh wait, da war doch was :P

Dural
2014-02-18, 11:10:50
Keine andere Firma ausser ATi kann NV im Grafiksektor mit NV mithalten. Gerade Maxwell Beeindruckt mit seiner Leistung/Watt Durchschnitt extrem und wir alle wissen das dies im Mobile Sektor Gold wert ist.

Schon Kepler im K1 zeigt deutlich wohin die reise mit Tegra geht.

-/\-CruNcher-/\-
2014-02-18, 11:15:21
Es wäre mMn ein Fehler, wenn Tegra Note bei 7 Zoll bleibt, da ist nichts zu holen. Sinnvoller wäre ein 8''-Gerät, dafür kann man mehr Geld verlangen, ohne dass sich der Leistungsaufwand viel ändert (Auflösung bleibt ja gleich, nur der Akku muss ggf. größer sein).

Sie dir die momentane lage an HP hat das 7 zoll note quasi zurückgesetzt um ein 8 gegen die Win 8.1 Tabs von Intel aufzustellen.

Für ca 340€ 16 GB

jetzt kommt das Thinkpad 8 für 400€ mit 64 GB ram und voller Bay trail ausbaustufe

Nvidia wollte einmal den markt mit low cost high power umkrempeln das haben sie bis heute nicht geschaft und die ganzen Chinesen rennen ihnen schon davon und Intel macht nun auch druck ohne Ende und
demnächst kommt noch AMD dazu K1 muss bombe werden richtig bombe

Ailuros
2014-02-18, 11:20:11
Keine andere Firma ausser ATi kann NV im Grafiksektor mit NV mithalten. Gerade Maxwell Beeindruckt mit seiner Leistung/Watt Durchschnitt extrem und wir alle wissen das dies im Mobile Sektor Gold wert ist.

Muss der Grund sein wieso sie nach ueber 6 Jahren bei 1.3% Marktanteil momentan liegen. Ein Prozentual das durchaus einem Marktfuehrer wuerdig ist.

Schon Kepler im K1 zeigt deutlich wohin die reise mit Tegra geht.

Mit einem A' class ticket in eine embedded only Richtung.

Es wäre mMn ein Fehler, wenn Tegra Note bei 7 Zoll bleibt, da ist nichts zu holen. Sinnvoller wäre ein 8''-Gerät, dafür kann man mehr Geld verlangen, ohne dass sich der Leistungsaufwand viel ändert (Auflösung bleibt ja gleich, nur der Akku muss ggf. größer sein).

Ich wuerde sogar ein >10" tablet nicht fuer absurd halten.

deekey777
2014-02-18, 11:37:56
.

Ich wuerde sogar ein >10" tablet nicht fuer absurd halten.
Das sowieso.
Worauf ich hinaus will, ist, dass vieles dafür spricht, dass Tegra K1 nicht schon in der 7''-Klasse eingesetzt wird (da werden wirklich fast nur Billig-SoCs eingesetzt, also sind auch die Preise sehr niedrig, darum spekuliert man, dass Google ein Nexus 8 präsentiert), sondern erst ab 8 Zoll. Diese Geräte können größer ausfallen, man hätte mehr Platz für Akku (da darf man aber den größeren Bildschirm nicht vergessen) und mehr Kühlmöglichkeit, damit der K1 sich besser austoben kann. Ob der K1 ausreichend Leistung für höhere Auflösungen haben wird, wird sich noch zeigen.

Skysnake
2014-02-18, 11:41:24
Ich würde K1 sogar noch eine Stufe höher ansetzen als Einstieg, und zwar die Convertibles.

Ailuros
2014-02-18, 11:51:36
Ich würde K1 sogar noch eine Stufe höher ansetzen als Einstieg, und zwar die Convertibles.

Will das Publikum fuer diese nicht eher windows?

Das sowieso.
Worauf ich hinaus will, ist, dass vieles dafür spricht, dass Tegra K1 nicht schon in der 7''-Klasse eingesetzt wird (da werden wirklich fast nur Billig-SoCs eingesetzt, also sind auch die Preise sehr niedrig, darum spekuliert man, dass Google ein Nexus 8 präsentiert), sondern erst ab 8 Zoll. Diese Geräte können größer ausfallen, man hätte mehr Platz für Akku (da darf man aber den größeren Bildschirm nicht vergessen) und mehr Kühlmöglichkeit, damit der K1 sich besser austoben kann. Ob der K1 ausreichend Leistung für höhere Auflösungen haben wird, wird sich noch zeigen.

Ist zwar rein subjektiv aber mir stehen 7 und 8" tablets sowieso nicht so ganz weil man beim surfen immer noch etwas "zoomen" muss. Zum e-book lesen bzw. surfen sind die >9" tablets dann schon um einiges idealer. Mir klingt fuer ein 8" tablet ein K1 immer noch als Ueberfluss.

Skysnake
2014-02-18, 12:25:59
Will das Publikum fuer diese nicht eher windows?
Das ist eine ganz andere Baustelle ;)

Aber ja, die wollen da eher Windows, oder besser gesagt x86. nVidia ist da auf Linux angewiesen, wird aber immer einen Makel haben im Vergleich zu x86 Systemen. nVidia muss da also rein über den Preis punkten, und wie gut Sie das können wissen wir ja, zumal eben die HSA-ARM-Chips von Samsung, Qualcomm usw eben auch in diese Kerbe schlagen werden...

N0Thing
2014-02-18, 12:28:01
Es gäbe ja noch Windows Phone 8 bzw. RT oder dessen Nachfolger für ARM.

Ailuros
2014-02-18, 12:33:29
Es gäbe ja noch Windows Phone 8 bzw. RT oder dessen Nachfolger für ARM.

Nur wie viele wollen von winRT etwas wissen? Waere es moeglich ARM auch auf win8.1 zu benutzen waere K1 ein ausgezeichneter Kandidat fuer hybride tablet/ultrabooks mit win8.1.

Skysnake
2014-02-18, 12:36:50
Windows könntest du sicherlich fit für ARM machen, wenn du denn willst. Die Frage ist nur, will MS das überhaupt? Oder noch besser gefragt, kann MS das überhaupt ohne unterm Strich nen riesen Minusgeschäft zu machen mit der Software?

Rein vom Bauchgefühl her würde ich sagen, das MS damit auf keinen grünen Zweig kommen würde, und selbst wenn, bleibt ein Problem. Alle x86 Software läuft dann halt nicht...

Spätestens wenn MMX/SSE/AVX usw verwendet werden, haste verloren. Bei allem anderen könnte MS auf die Entwickler einwirken, nen ARM-Compile an zu bieten.

Ich würde aber keine all zu großen Hoffnungen darin setzen.

Undertaker
2014-02-18, 12:39:54
Man sollte vielleicht die Chromebooks nicht vergessen, die in den USA mittlerweile auf zweistellige Marktanteile kommen. Wäre auch ein möglicher Markt für K1, ein stark wachsender zudem.

Skysnake
2014-02-18, 12:43:30
An sich ja, aber bzgl Marge sollteste dich dabei dann auch von jedwedem Höhenflug verabschieden.

Zudem wäre ich bzgl Chromebook vorsichtig, welche Auswirkungen der NSA-Skandal auf das Geschäft hat. Zumindest außerhalb der USA dürfte da sehr viel Misstrauen inzwischen bestehen.

Undertaker
2014-02-18, 12:54:33
Ich erwarte da immerhin mehr Marge als bei einem 100-200€ Tablet bzw. Smartphone. ;) Nebenbei, von welchen Margen soll man denn überhaupt träumen? Apple-SoCs haben prinzipbedingt in ihrem Markt eine 100% Monopolstellung, Intel ist wiederum im x86-Bereich praktisch ohne Konkurrenz. Deren Margen kann sich kein anderer Hersteller als Ziel setzen (bzw. das schon, nur eben nicht erreichen ;)).

Nakai
2014-02-18, 22:22:35
Sowas um die 30-40W (http://www.xilinx.com/content/xilinx/en/products/technology/power/_jcr_content/mainParsys/xilinxcolumns_d567/column0/xilinximagemodal_16c/image.img.jpg/1369425578891.jpg) sollten es wohl maximal sein.



Das ist viel weniger, als ich erwartet hätte.

Natürlich musst du den ASIC erstmal bauen und verifizieren, aber genau dabei hilft dir ja ein FPGA-Design. Du packst da alles oder halt fast alles rein, was du später auch im ASIC haben willst.

Nen FPGA oder ASIC brauchste eh! Denn K1 und auch sonst nen Chip kann die Daten von den Sensoren ja nicht einfach entgegen nehmen. Also warum nicht gleich alles in nen ASIC packen, wenn man eh schon einen bauen muss.

Heyhey, ich sage nicht, dass es nicht so gemacht wird, nur das K1 definitiv mindestens bei Audi drin ist.

Nur kann K1 halt nicht alles, was dazu führt, das du eh nen FPGA/ASIC noch dazu brauchst...

Das kann kein Chip...nicht mal ein ASIC.

Fahrerassistenzsysteme sind viel breitgefächeter, als man denkt. Das fängt beim Tempomat an, geht über Spurkontrollsysteme, bis hin zur kompletten Verkehrerkennung sowie Straßenerkennung. Ziel ist das vollkommen selbstständige Automobil. Man muss eine abartige Menge an Informationen verarbeiten. K1 kann nicht alles übernehmen, richtig. K1 wird auch nichts steuern.

Was heist hier "Bildbearbeitung" du musst ne Datenanalyse machen und gleichzeitig auch noch viele unterschiedliche Eingangssignale miteinander abgleichen.

Ich kann dir definitiv nicht sagen, was alles auf K1 gemacht wird.

Naja, für Routenberechnung und Infotainment eignet sich K1 doch wunderbar. Du hast quasi nen kleines Subnotebook im Auto, welches dir Sprachsteuerung erlaubt und eben den einzelnen Fahrgästen Medien zuspielen muss und auch Internet usw bietet.

Man darf ja nicht aus den Augen verlieren, dass das Infotainmentsystem maximal 3-5 Leuten gleichzeitig Kontent bereitstellen muss.

Das brauchst du mir nicht erzählen.

Dann schau mal bitte nach Amerika, was Toyota da wegen Fußmatten blechen musste und auch sonst schon Autokonzerne für Strafzahlungen leisten mussten... Da wird niemand an der Sicherheit sparen. Klar ist nen Flugzeugabsturz noch etwas teurer, aber ein Unfall durch einen Defekt im Autopilot kann dich als Konzern schon einen hohen zweistelligen Millionenbetrag kosten. Da sind die paar Dollar für Redundanz nen klacks dagegen.


Das brauchst du mir auch nicht erzählen. Grundsätzlich wird nur das mit Redundanz versehen, was sicherheitskritisch ist. Klimabedienteile, Mediengeräte oder Kombiinstrumente sind es zum Beispiel nicht. Und damit kommen wir auf die Frage zurück, wie soetwas, wie das zFas, eingestuft wird.

Skysnake
2014-02-18, 22:38:26
Das ist viel weniger, als ich erwartet hätte.

Ja, die Dinger sind wirklich ziemlich sparsam :biggrin:

Aber der Aufwand um überhaupt mal was zum laufen zu bekommen ist halt abartig im Vergleich zu normaler Softwareentwicklung :freak:


Heyhey, ich sage nicht, dass es nicht so gemacht wird, nur das K1 definitiv mindestens bei Audi drin ist.

Naja, ist halt die Frage, für WAS es drin ist. Das ist halt der Knackpunkt. Ist K1 wirklich auf der Platine drauf oder nicht? Und wenn ja, hat es überhaupt etwas mit autonomen Fahren außer Routenberechnung zu tun?

Das mag jetzt Erbsenzählerisch wirken, aber es ist halt entscheidend, denn bei der einen Variante kannste nicht so einfach mehr oder weniger jeden 0815 SOC reinpacken, bei der anderen dafür schon, und rein vom Gefühl her, wie ich mir das Leben "einfach" machen würde bei der Entwicklung eines derartigen Großseriensystems, würde ich so nem SOC eher nur völlig belanglose Aufgaben geben, für die ich dann eben auch auch zich andere Chips einsetzen kann, wenn ich bock habe.


Das kann kein Chip...nicht mal ein ASIC.

Wieso?

Du musst halt "nur" die Integration hochtreiben. Gehen tut das schon, wenn man will. Die Frage ist nur, will man das auch immer haben.

Man will sich ja eine gewisse Modularität erhalten, um die Yields oben zu halten und auch die Systeme besser konfigurieren zu können.



Fahrerassistenzsysteme sind viel breitgefächeter, als man denkt. Das fängt beim Tempomat an, geht über Spurkontrollsysteme, bis hin zur kompletten Verkehrerkennung sowie Straßenerkennung. Ziel ist das vollkommen selbstständige Automobil. Man muss eine abartige Menge an Informationen verarbeiten.

Klar ist es breit gefächert, und man hat große Datenmengen, aber genau deswegen will ich ja nen FPGA/ASIC haben. Die packen das nämlich relativ problemlos.

Schau dir doch einfach mal die LHC Experimente an. Da werden Multi-FPGA Boards für die ersten Stufen der Datenanalyse verwendet, die entscheiden, ob die Daten "interessantes" enthalten oder nicht. Mit "normalen" Chips von der Stange würdest du einfach an den Datenmengen krepieren, und nen ASIC baut/verwendet man halt nicht, weil man nur ein paar dutzen/hundert Chips braucht. Da sind selbst die vier-fünstelligen Preise für die FPGAs noch billiger.


K1 kann nicht alles übernehmen, richtig. K1 wird auch nichts steuern.

Wenn K1 nicht steuern soll, was soll das Ding denn sonst machen, was es unentbehrlich macht im Vergleich zu Konkurrenz?


Ich kann dir definitiv nicht sagen, was alles auf K1 gemacht wird.

Das versteh ich, der Punkt ist doch aber, wenn K1 nicht an der Steuerung beteiligt ist, dann macht er nichts, was nicht auch jeder andere SOC machen kann. Du wirst nämlich nicht in K1 ne Objekterkennung machen, um die Daten dann raus zu hauen an nen anderen Chip, der dann darauf aufbauend die Steuerung des Fahrzeugs übernimmt...

Das wäre ne totale Schnapsidee.



Das brauchst du mir nicht erzählen.



Das brauchst du mir auch nicht erzählen. Grundsätzlich wird nur das mit Redundanz versehen, was sicherheitskritisch ist. Klimabedienteile, Mediengeräte oder Kombiinstrumente sind es zum Beispiel nicht. Und damit kommen wir auf die Frage zurück, wie soetwas, wie das zFas, eingestuft wird.
Wenn man an Toyota denkt, dann alles was nur irgendwie mit der STeuerung des Fahrzeugs zu tun hat und nicht mechanisch ist.

Also alles was Lenkung, Gas und Bremse betrifft muss zwingend redundant sein. Also mindestens einfach redundant, eher sogar doppelt redundant mit zwei völlig getrennten Systemen, wobei jedes System in sich eben schon ne Fehlerbehandlung hat für jede Funktionalität.

Ailuros
2014-02-18, 23:22:58
Ich erwarte da immerhin mehr Marge als bei einem 100-200€ Tablet bzw. Smartphone. ;) Nebenbei, von welchen Margen soll man denn überhaupt träumen? Apple-SoCs haben prinzipbedingt in ihrem Markt eine 100% Monopolstellung, Intel ist wiederum im x86-Bereich praktisch ohne Konkurrenz. Deren Margen kann sich kein anderer Hersteller als Ziel setzen (bzw. das schon, nur eben nicht erreichen ;)).

Natuerlich sind Intel's Verlust-Margen im ULP Markt ohne Vergleich :P

Was soll mir eine bessere Marge genau bringen wenn der eine sagen wir mal $10 pro SoC gewinnt und nur 10Mio Stueck verkauft und der andere nur $2 pro SoC und 200Mio verkauft.

Undertaker
2014-02-19, 15:41:22
Ganz so einfach darfst du es dir dann doch nicht machen. Um 200 Mio SoCs zu verkaufen, braucht man nicht 1-2, sondern ein ganzes Portfolio aktueller Modelle mit entsprechenden Entwicklungskosten. Zudem muss man in einen Preiskampf mit billig-Massenproduzenten wie MediaTek oder Allwinner treten, was die Margen noch weiter in den Boden drückt. Nvidia ist auch nicht blöd und wird sich vorher schon durchgerechnet haben, warum man z.B. kein abgespecktes Mittelklasse-Modell angeboten hat (selbst T4i wäre 2013, wo das Ding ursprünglich mal erscheinen sollte, ziemlich weit oben im Preisgefüge gelandet.

Warum glaubt eigentlich jeder schlauer zu sein als ein Unternehmen, welches solche Dinge im Vorfeld genauestens simulieren und berechnen wird? :confused: Wenn wir auf die aktuelle Situation der Tegra-Sparte blicken, scheint das Hauptproblem Nr. 1 zuletzt eher die Vielzahl von Verspätungen gewesen zu sein. Unter Beachtung des HPL-Prozesses war z.B. T4 nach 2013er Maßstäben kein so schlechter Tablet-Chip, nur kam er eben einfach zu spät.

Skysnake
2014-02-19, 15:57:58
Weil nVidia, ähhhh.... Huang den Mobile-Markt nicht verstanden hat, und von seinem hohen Desktop-Ross nicht runter kommt.

Nakai
2014-02-19, 16:31:01
@Skysnake:
FPGA hier und FPGA da. Ich glaub dir ja, dass die Dinger manchmal sehr nützlich sind. Es ist immer eine Abwägungssache und da im Automotive Bereich schon jeder Cent umgedreht wird und Entwickler ihre eigenen Vorlieben haben, orientiert man sich an Systemen deren Support und Kenntnissen davon gewährleistet ist. Ich habe da auch meine Theorien und Ideen, was NV mit K1 im Automotive Markt angestellt hat, welche ich erst mal für mich behalte.

Wenn K1 nicht steuern soll, was soll das Ding denn sonst machen, was es unentbehrlich macht im Vergleich zu Konkurrenz?

K1 wird nichts alleine steuern. Punkt.

Derzeit sieht es noch sehr wirr aus. Anscheinend strebt Google sehr in diesen Markt, leider ist man nur ein Softwareentwickler. Von Automotive Systemen hat man keine Ahnung. Genauso, wie gerade wirklich jeder Hersteller oder Zulieferer, der etwas von sich hält, auch hier mitspielen will.

Das versteh ich, der Punkt ist doch aber, wenn K1 nicht an der Steuerung beteiligt ist, dann macht er nichts, was nicht auch jeder andere SOC machen kann. Du wirst nämlich nicht in K1 ne Objekterkennung machen, um die Daten dann raus zu hauen an nen anderen Chip, der dann darauf aufbauend die Steuerung des Fahrzeugs übernimmt...

Das wäre ne totale Schnapsidee.

Und nochmal, K1 wird nichts alleine machen. Ich bin mir ziemlich sicher, dass das zFas Prot2 zwar gut aussieht und schon viele Funktionalitäten bereitstellt, aber wohl nicht alles. Man hat auch erhebliche nationale oder länderübergreifende Probleme, welche man modular halten will.

Außerdem munkelt man, dass K1 doch etwas mehr Funktionalitäten integriert, welche derzeit noch nicht beworben wurden. Das K1 Whitepaper ist ziemlich lächerlich und sagt gar nichts aus. Aber hier erstmal ein großes ?.

Ich werde hier auch keine definitiven Aussagen machen.

Skysnake
2014-02-19, 17:19:52
@Skysnake:
FPGA hier und FPGA da. Ich glaub dir ja, dass die Dinger manchmal sehr nützlich sind.

Sie sind halt universell einsetzbar. Vor allem ihr I/O, wo man alles mögliche dran hängen kann und eben nicht auf PCI-E usw beschränkt ist, macht sie halt für die Sensorverarbeitung sehr interessant/nützlich.

Für Großserie willste sowas dann ab in nen ASIC packen. Denn selbst der billigste FPGA für die Datenschnittstelle für die Sensoren ist noch viel zu teuer. Da kannste rein von den Produktionskosten sicherlich nen ganzen ASIC draus bauen.


Es ist immer eine Abwägungssache und da im Automotive Bereich schon jeder Cent umgedreht wird und Entwickler ihre eigenen Vorlieben haben, orientiert man sich an Systemen deren Support und Kenntnissen davon gewährleistet ist. Ich habe da auch meine Theorien und Ideen, was NV mit K1 im Automotive Markt angestellt hat, welche ich erst mal für mich behalte.

Absolut richtig, es wird jeder Cent umgedreht, und genau deswegen ist nen reines FPGA-Design für alle relevanten Dinge auch interessant, da man später wenns in die Massenfertigung geht, nen ASIC draus basteln kann. Ansonsten hat man eben immer nen FPGA mit dabei, oder halt nen kleinen ASIC, denn K1 kann es eben nicht allein. Es würde mich zumindest sehr überraschen, wenn nVidia allgemeine SerDes, die für mehr als PCI-E taugen, anbieten würde. Um das vernünftig zu realisieren, müssten Sie nen paar Logikgatter wie bei nem FPGA mit drauf packen, und da ist es wohl wahrscheinlicher Pferde kotzen zu sehen. ;)


K1 wird nichts alleine steuern. Punkt.

Dann ist es nichts besonderes und kann quasi durch jeden 0815 SOC ersetzt werden, der halt noch genug Rechenleistung hat. Wenn ich da so an das HSA-Konfortium denke, dann sind da genug Konkurrenten in den Pipelines.


Derzeit sieht es noch sehr wirr aus. Anscheinend strebt Google sehr in diesen Markt, leider ist man nur ein Softwareentwickler. Von Automotive Systemen hat man keine Ahnung. Genauso, wie gerade wirklich jeder Hersteller oder Zulieferer, der etwas von sich hält, auch hier mitspielen will.

Und nochmal, K1 wird nichts alleine machen. Ich bin mir ziemlich sicher, dass das zFas Prot2 zwar gut aussieht und schon viele Funktionalitäten bereitstellt, aber wohl nicht alles. Man hat auch erhebliche nationale oder länderübergreifende Probleme, welche man modular halten will.

Von welchen "länderübergreifenden" Problemen sprichst du? Von unterschiedlichen Fahrbahnmakierungen und Schildern?

Wenn ja, das sollte man eigentlich allgemein lösen können, ansonsten würde ja jedes neue Verkehrschild ne Katastrophe bedeuten :freak:


Außerdem munkelt man, dass K1 doch etwas mehr Funktionalitäten integriert, welche derzeit noch nicht beworben wurden. Das K1 Whitepaper ist ziemlich lächerlich und sagt gar nichts aus. Aber hier erstmal ein großes ?.

Ich werde hier auch keine definitiven Aussagen machen.
So Hardware-Secret Souce wie Maxwell auch bekommen soll für Unified (Virtual) Memory? :rolleyes:

Glaub ich eher nicht dran, dass da irgendwas besonderes drin ist. Wenn wäre die größte Überraschung, das man die SerDes eben für mehr als PCI-E verwenden könnte. Das ist dann aber eben nur überraschend, aber nichts revolutionäres.

fondness
2014-02-19, 17:20:07
Warum glaubt eigentlich jeder schlauer zu sein als ein Unternehmen, welches solche Dinge im Vorfeld genauestens simulieren und berechnen wird? :confused:

Würde die Simulationen auch nur annähernd zutreffen würde auch niemand etwas sagen. Ich glaub ich brauche hier nicht zu erwähnen wo NV heute mit Tegra laut den eigenen Prognosen eigentlich stehen sollte. Da kann man nur sagen sie haben den Markt krass falsch eingeschätzt und haben jetzt statt "den größten Umsatzbringen im Unternehmen" eine Sparte die nicht mal den Umsatz der ehemaligen Chipsatzsparte ausgleicht. Das man solche Ziele inzwischen längst aufgegeben hat zeigen ja auch schon die Aussagen der eigenen Führungsriege - kein NV-Verantwortlicher nimmt mittlerweile noch das Wort Smartphones in den Mund. Das Wachstum in diesem Bereich ist hier völlig an NV vorbei gegangen.

Undertaker
2014-02-19, 17:28:34
Weil nVidia, ähhhh.... Huang den Mobile-Markt nicht verstanden hat, und von seinem hohen Desktop-Ross nicht runter kommt.

Du meinst vorhersagen zu können, dass man mit Strategie X erfolgreicher wäre? Das halte ich für ähnlich naiv wie die üblichen Diskussionen in Architektur-Threads, warum man diesen Cache nicht größer und jenen Takt höher gewählt hat. Das Thema, wie sich eine bestimmte Unternehmensentscheidung am Ende wirtschaftlich genau auswirken würde, ist viel zu komplex, als das du oder ich das von außen ohne jegliche Kenntnis jeglicher Zahlen einschätzen könnten. ;)

Skysnake
2014-02-19, 17:31:46
Ich kann mit gewissheit sagen, dass das was Sie gemacht haben nen riesen Schuss in den Ofen war. Alles andere leitet sich daraus ab.

Zudem zeigt ja MediaTek wie mans richtig macht.

Undertaker
2014-02-19, 17:35:35
Würde die Simulationen auch nur annähernd zutreffen würde auch niemand etwas sagen.

Es gilt, zwischen der Strategiediskussionen und (möglicherweise auch unerwarteten!) Problemen der Produkte zu unterscheiden.

Ich kann mit gewissheit sagen, dass das was Sie gemacht haben nen riesen Schuss in den Ofen war. Alles andere leitet sich daraus ab.

Zudem zeigt ja MediaTek wie mans richtig macht.

Nein, so einfach ist es eben nicht. Was wäre wenn Nvidia ein paar hundert Millionen in die Entwicklung eines billigen Smartphone-SoCs gesteckt hätte, der sich gegen die Angebote aus Fernost vielleicht nie rentiert hätte? Wer sagt, dass die finanzielle Situation der Sparte dann vielleicht nicht noch schlechter wäre?

Dural
2014-02-19, 17:47:50
Das einzige das man NV vorwerfen könnte, ist das sie sich offensichtlich völlig verschätzt haben das Marken wie Nvidia und Geforce in diesem Bereich keinen Cent mehr einnimmt.

Die Konsumenten kaufen ein "iPad" und nicht ein Tablet oder Handy weil eine Geforce drin ist wie im Computer Bereich. Ich würde jetzt mal behaupten das 99% + der Konsumenten nicht mal wissen was sie da für einen SoC herumtragen!

In diesem Bereich zählt der Preis und eine grosse Verfügbarkeit mehr als alles andere, und genau da wird NV sich nie mit irgend welchen grossen Konzernen behaupten können. Genau deswegen ist NV Strategie genau die richtige und einzige für sie: High-End wie sie es jetzt mit K1 abliefern.

mboeller
2014-02-19, 18:33:46
was das für eine Ente....

Tegra4i mit 1,2GHz:
http://www.heise.de/newsticker/meldung/Bericht-LG-Smartphone-G2-mini-mit-Tegra-4i-2118539.html

Ailuros
2014-02-19, 18:38:48
was das für eine Ente....

Tegra4i mit 1,2GHz:
http://www.heise.de/newsticker/meldung/Bericht-LG-Smartphone-G2-mini-mit-Tegra-4i-2118539.html

Fuer die beschissene Idee ist aber rein LG verantwortlich. Ist die maximale Frequenz nicht 2.3GHz fuer die T4i CPU?

Undertaker
2014-02-19, 18:49:56
Das ist doch auf Garantie ein Snapdragon 400 bzw. ein anderer A7-Quad-Core, so schreiben es auch andere Seiten.

Edit: Auch eine Koexistenz beider Versionen mutet sehr merkwürdig an. Warum sollte man einen viel schnelleren und sicherlich auch teureren T4i so weit heruntertakten? Da gibt es doch weit sinnvollere Alternativen.

mboeller
2014-02-19, 19:06:03
Das ist doch auf Garantie ein Snapdragon 400 bzw. ein anderer A7-Quad-Core, so schreiben es auch andere Seiten.

Genau meine Meinung. Das kann einfach kein Tegra4i sein. Wer bei heise.de wohl diese "News" geschrieben bzw. mit heißer Nadel gestrickt hat?

fondness
2014-02-19, 19:14:43
John Carmack himself, in der Vergangenheit nicht gerade Nvidia abgeneigt:

"Take Nvidia's comparisons between their K1 SoC and consoles with several grains of salt."

http://www.brightsideofnews.com/news/2014/2/19/john-carmack-says-to-take-nvidias-k1-claims-with-a-grain-of-salt.aspx

Skysnake
2014-02-19, 19:27:34
Der haut aber auch gleich richtig auf die Kacke. :ugly:

Nicht nur eine Priese Salz, sondern gleich mehrere. Also diplomatisch ist was anderes.

Ailuros
2014-02-19, 21:25:04
John Carmack himself, in der Vergangenheit nicht gerade Nvidia abgeneigt:

"Take Nvidia's comparisons between their K1 SoC and consoles with several grains of salt."

http://www.brightsideofnews.com/news/2014/2/19/john-carmack-says-to-take-nvidias-k1-claims-with-a-grain-of-salt.aspx

Um fair zu war NV der letzte an der Reihe der solches behauptete. IMG hat damit angefangen, Qualcollm machte schnell mit und dann erst kam NV.

Für die GPU alleine stimmt es schon wenn man ein Auge für die fehlende Bandbreite zudrückt. Xenos war eine imposante GPU für ihre Zeit, aber ja heutzutage kann sie eine ULP GPU locker überholen, wobei Xenos auch nur SM3.0 ist.

Hugo78
2014-02-19, 22:35:14
Der Schreiberling von Bullshit of News interpretiert aus einem Twitter Einzeiler heraus, einen kompletten Artikel ohne mit Carmack gesprochen zu haben...
Mehr noch, da wird neben viel heißer Luft, auch noch schön ne Lüge unterbracht,
The truth is that all of the performance we're seeing with the Tegra K1 is in actively cooled environments

Gibt ja nur 100 Videos im Netz vom Referenztablet wo man Trine 2 und halbes Dutzend NV Demos zeigt.

Ailuros
2014-02-19, 22:39:21
Und wo stehen im Netz die Spezifikationen des Gerätes wo die demos abliefen?

Hugo78
2014-02-19, 22:44:18
Die Taktraten bei Seite, geht es um die Behauptung, es wäre nur aktiv gekühlt worden.
Das ist gelogen, Bullshit ebend.

Mir ist völlig klar, dass gedrosselt wird, aber das Thema hatten wir schon.
k0scfNDxNqc

Ailuros
2014-02-19, 23:02:00
Da die peak Taktraten wohl nicht mit passiver Kühlung erreicht werden können sehe ich nicht wieso sie nicht recht haben sollten. Es ist wohl eher so dass sehr viele Webseiten nach dem T4 Fiasko ziemlich große Vorbehalte diesmal haben und da ist BSN nicht alleine.

Nur finale Geräte von dritten und von dritten gemessen werden das Rätsel lösen. Und nein in dem Vorzeige-tablet oben gibt es keine aktive Kuehlung aber es laeuft auch DEFINITIV nicht bei 2.3GHz/951MHz.

Undertaker
2014-02-20, 09:06:59
Von peak Taktraten war nicht die Rede, dann würde sich wohl auch keiner an der Formulierung stören.

Skysnake
2014-02-20, 09:16:05
Beim Vergleich mit den Konsolen geht es aber eben um die Peakwerte.

Das ist einfach der übelste Äpfel mit Birnenvergleich, den man nur machen kann.

Im Prinzip ist es aber auch scheis egal. Das Ding muss nicht gegen irgendwelche zich Jahre alte bereits abgelöste stationäre Konsolen antreten, sondern gegen Chips der Konkurrenz.

Und da wird sich zeigen müssen, wieviel da am Ende noch von der Selbstbeweihräucherung übrig bleibt. Mir würde ja schon völlig ausreichen, wenn Sie genau so schnell sind wie die Konkurrenz, aber nicht mehr Verbrauchen, und nicht mehr als 10% mehr Chipfläche brauchen.

Alles danach ist dann nur noch Kür.

Hugo78
2014-02-20, 09:20:30
Da die peak Taktraten wohl nicht mit passiver Kühlung erreicht werden können sehe ich nicht wieso sie nicht recht haben sollten.

Wie Undertaker grad schrieb, Er schreibt nicht explizit vom Peak, sondern verallgemeinert.
Und wenn man einen Satz mit "Die Wahrheit ist" anfängt, aber dann nur undifferenzierte Gülle kommt, ist das mal wieder so typisch BSN.
Die Typen löschen ihren alten Scheiß der sich später als nicht haltbar herausstellt genauso wie Char_LIE.
Große Klappe, keine Eier.

Und das P1761 erreicht zumindest auf der CPU 91%, und insgesamt 87% zum peak. Ergo wird die GPU bei 800-850 MHz rennen. Kein schlechter Wert für ein 7 zoll Tablet.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10113735&postcount=3920

Undertaker
2014-02-20, 09:27:52
Hmm Vorsicht was Antutu da misst. ;) Die Abstände zu T4 sind so klein, dass das förmlich nach irgendeiner Limitierung stinkt.

Skysnake
2014-02-20, 09:38:12
CB meint jetzt, dass das LG G2 mini nen Qualcomm Snapdragon 400 bekommt.

Also wohl wie erwartet doch kein T4i. Müssen wir weiter warten, ob da noch was kommt.

Wenn da aber auf der Messe in Barcelona nichts mehr vorgestellt/angekündigt wird, erwarte ich auch kein einziges Gerät mehr mit dem Chip.

EDIT:
Ok, es ist jetzt scheinbar offiziell:
http://www.golem.de/news/lg-g2-mini-abgespecktes-g2-erscheint-in-zwei-ausfuehrungen-1402-104678.html

LG wird das G2 Mini in zwei Ausführungen anbieten. Das Smartphone mit LTE-Unterstützung läuft mit Qualcomms Quad-Core-Prozessor MSM8926, während die UMTS-Variante den Prozessor MSM8226 verwendet. Beide Prozessoren laufen mit einer Taktrate von 1,2 GHz. Zum Vergleich: Das normale G2 hat einen 2,3 GHz schnellen Snapdragon 800 von Qualcomm. Für Deutschland ist wohl nur die LTE-Version geplant.

robbitop
2014-02-20, 09:45:25
Für die GPU alleine stimmt es schon wenn man ein Auge für die fehlende Bandbreite zudrückt. Xenos war eine imposante GPU für ihre Zeit, aber ja heutzutage kann sie eine ULP GPU locker überholen, wobei Xenos auch nur SM3.0 ist.
Von den reinen GFlops schon. Aber jede GPU bringt diese unterschiedlich gut auf die Straße. Ist bei K1 TMU/ALUs entkoppelt? Das macht viel aus. Bei den SFF GPUs werden ja jede Menge Dinge weggespart. Wie sieht es bei den ROPs und den Caches aus? Sind bei K1 die ALUs dual issue fähig (bei einem echten Kepler müsste man diese Fragen nicht stellen - aber du sagtest ja mal, dass es doch schon eine ziemlich starke Abwandlung von Kepler ist).
Mit der Bandbreite hast du natürlich auch schon ein gehöriges Argument getroffen. Und ansonsten muss man auch erstmal finale Taktraten abwarten. Und zwar Dauerbetrieb (ohne Drossel).

Ich bin mir nicht sicher, ob K1 es in der Praxis auch schon mit C1 aufnehmen könnte.

Undertaker
2014-02-20, 09:51:44
Bei vollem Takt soll K1 mit 60 fps im GLB 2.7 gut halb so schnell wie eine GeForce GT 740M sein (60 zu 112 fps). Pro Takt und ALU ergibt das so ziemlich die gleiche Leistung.

robbitop
2014-02-20, 10:01:20
Die Frage ist, wie vergleichbar ein Benchmark auf 2 verschiedenen Betriebssystemen sein soll.

Ailuros
2014-02-20, 11:02:36
Von peak Taktraten war nicht die Rede, dann würde sich wohl auch keiner an der Formulierung stören.

BSN ist mehr als nur einmal mit den NV Maerchen auf die Nase gefallen und ist auch nicht die einzige Webseite die mit Vorbehalte reagiert. Ausser ihr seit so naiv und denkt dass sich gar nichts im Hintergrund herumspricht oder dass NV's Konkurrenz nicht weiss was sie genau haben.

Wie Undertaker grad schrieb, Er schreibt nicht explizit vom Peak, sondern verallgemeinert.
Und wenn man einen Satz mit "Die Wahrheit ist" anfängt, aber dann nur undifferenzierte Gülle kommt, ist das mal wieder so typisch BSN.
Die Typen löschen ihren alten Scheiß der sich später als nicht haltbar herausstellt genauso wie Char_LIE.
Große Klappe, keine Eier.

Dann wird es nach den wiederholten Tegra Disasters fuer BSN und co natuerlich Zeit einen Rueckzieher zu machen und eben NICHT an die ueblichen Tegra Luegen zu glauben. Hol mir die T4 Praesentation nochmal raus und ich zerreiss Dir zich gewollte Luegen in der Luft.

Und das P1761 erreicht zumindest auf der CPU 91%, und insgesamt 87% zum peak. Ergo wird die GPU bei 800-850 MHz rennen. Kein schlechter Wert für ein 7 zoll Tablet.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10113735&postcount=3920

Bei welchem Stromverbrauch genau? Weisst Du am Ende wenn die Geraete rauskommen und es sich doch nicht soooo toll verkauft wie alle erwarten werde ICH zumindest nicht derjenige sein der sich blamiert hat. Nach all den Jahren von Tegra Misserfolgen kann ich nicht der Schwarzmaler hier sein sondern es seit Ihr die die gruenen Brillen mal ausnahmsweise abnehmen muesst denn es sie verdammt beschissen fuer die Abteilung aus.

deekey777
2014-02-20, 11:08:48
Die Frage ist, wie vergleichbar ein Benchmark auf 2 verschiedenen Betriebssystemen sein soll.
Und dazu unterschiedliche Schnittstellen.
OT:
Man kann auf Android-Geräten Doom 3 installieren (auch Q4). Die Spiele laufen auf Shield mit gewissen Abstrichen. Es stellt sich die Frage wie gut die OpenGL-Treiber optimiert sind.

Oder ist die Engine auf OpenGL ES portiert worden?

Ailuros
2014-02-20, 11:14:01
Von den reinen GFlops schon. Aber jede GPU bringt diese unterschiedlich gut auf die Straße. Ist bei K1 TMU/ALUs entkoppelt? Das macht viel aus. Bei den SFF GPUs werden ja jede Menge Dinge weggespart. Wie sieht es bei den ROPs und den Caches aus? Sind bei K1 die ALUs dual issue fähig (bei einem echten Kepler müsste man diese Fragen nicht stellen - aber du sagtest ja mal, dass es doch schon eine ziemlich starke Abwandlung von Kepler ist).
Mit der Bandbreite hast du natürlich auch schon ein gehöriges Argument getroffen. Und ansonsten muss man auch erstmal finale Taktraten abwarten. Und zwar Dauerbetrieb (ohne Drossel).

Ich bin mir nicht sicher, ob K1 es in der Praxis auch schon mit C1 aufnehmen könnte.

GPU zu GPU ausgekapselt? Ein deutliches ja fuer mich und dass natuerlich wenn man auch stets auf 720p bleibt. Ja es ist eine Abwandlung aber es sind auch 365 GFLOPs FP32 aus skalaren ALUs.

Bei vollem Takt soll K1 mit 60 fps im GLB 2.7 gut halb so schnell wie eine GeForce GT 740M sein (60 zu 112 fps). Pro Takt und ALU ergibt das so ziemlich die gleiche Leistung.

In GLB2.7 spielt die groesste Rolle die Z Fuellrate da das Ding mit alpha test foliage ueberladet ist. Bei vollem Takt hat GK20A fast 61 GTexels/s, wobei ein quad core 554MP4 im iPad4 immer noch mit unter 18 GTexels/s auskommen muss.

-/\-CruNcher-/\-
2014-02-20, 11:20:00
Weil nVidia, ähhhh.... Huang den Mobile-Markt nicht verstanden hat, und von seinem hohen Desktop-Ross nicht runter kommt.

Er und vor allem Petersen (bei jeder Demo) haben immer wieder betohnt und versprochen das sie High End Low Cost (bezahlbar für jeden) machen wollten das war aber von Anfang an nicht der Fall Mali 400 konnte mit Tegra 3 mithalten und der Preis der Asiaten für ein Mali 400 oder SGX tablet (Allwinner,Rockchip,Mediatek) war weitaus niedriger als wie mit Tegra 3 bei Tegra 4 sieht es schon ein wenig anders aus aber hier steht man auch nicht im low cost sondern gerade mal unter Qualcomm.
Und Intel macht druck auf Nvidia mit einem weitaus vielseitigeren Ökosystem womit Nvidia noch nicht mithalten kann. Auch werd ich das Gefühl nicht los als weis Nvidia nicht so recht welcher Markt für sie am wichtigsten ist wenn ich ihre Releasepolitik sehe und naja anscheinend haben sie schnell begriffen das was schief läuft und fahren jetzt das K1 backup im Car bereich gut für uns Consumer ist das sie das Tegra ULP Research mit in den Desktop übernehmen (wären ja auch dumm wenn nicht) also war ja nicht alles umsonst :)
Und im teureren Smartphone bereich hatten sie so gut wie nie eine chance gegen Qualcomm, MediaTek, Samsung.
Wenn jetzt noch AMD in den ULP tablet bereich demnächst voll einsteigt wird es noch viel enger für Nvidia werden, deswegen K1 muss Bombe werden und bezahlbar ;)

Undertaker
2014-02-20, 11:33:36
Dann wird es nach den wiederholten Tegra Disasters fuer BSN und co natuerlich Zeit einen Rueckzieher zu machen und eben NICHT an die ueblichen Tegra Luegen zu glauben. Hol mir die T4 Praesentation nochmal raus und ich zerreiss Dir zich gewollte Luegen in der Luft.


Ail, bleib doch mal bei dem konkret besprochenen Punkt und spring nicht von einem Thema zum nächsten. ;) Nur weil eine jede Marketingabteilung die eigenen Zahlen schönrechnet, rechtfertigt das noch lange nicht, dass irgendeine Seite wiederum Unfug in der anderen Richtung daraus macht. BSN kann nicht schreiben, dass der Chip ausschließlich aktiv gekühlt wurde, wenn das Gegenteil bereits bewiesen ist. Das ist der gleiche, nur eben umgekehrte Unfug wie die Behauptung, dass die Peak-Clocks passiv kühlbar wäre. Nur das letzteres nicht einmal von Nvidia erzählt wird. ;)

Ailuros
2014-02-20, 11:58:53
Ail, bleib doch mal bei dem konkret besprochenen Punkt und spring nicht von einem Thema zum nächsten. ;)

Das Thema ist seit den letzten 2 Seiten der Artikel von BSN. Es weicht eben NICHT von diesem ab wenn man erklaert wie BSN genau zum heutigen Standpunkt gekommen ist. Anshel ist zwar nicht der "beste" Redakteuer dort draussen aber er laesst sich zumindest nicht so stark auf die Palme jagen wie Theo.

Nur weil eine jede Marketingabteilung die eigenen Zahlen schönrechnet, rechtfertigt das noch lange nicht, dass irgendeine Seite wiederum Unfug in der anderen Richtung daraus macht.

Bei T4 ist "schoengerechnet" die hoefliche Beschreibung von einer Reihe an Luegen. Ob es sich heute um Unfug handelt oder nicht - mitberechnet was so hinter den Kulissen kursiert - bleibt abzusehen.

BSN kann nicht schreiben, dass der Chip ausschließlich aktiv gekühlt wurde, wenn das Gegenteil bereits bewiesen ist.

Nur wenn man es so verstehen will.

http://www.brightsideofnews.com/news/2014/2/19/john-carmack-says-to-take-nvidias-k1-claims-with-a-grain-of-salt.aspx

Blah blah blah Carmarck blah blah blah...

Bildchen:

http://www.brightsideofnews.com/Data/2014_2_19/John-Carmack-Says-to-Take-Nvidias-K1-Claims-with-Grain-of-Salt/ConsoleClaims.jpg

Text:

So, John Carmack, the co-founder of ID Software and current CTO of Oculus simply stated that people should, "Take Nvidia's comparisons between their K1 SoC and consoles with several grains of salt." As to saying that one grain of salt clearly wasn't enough. And to be honest, it is a somewhat fair assessment as we had made a similar one in our article covering the Tegra K1 announcement. The truth is that all of the performance we're seeing with the Tegra K1 is in actively cooled environments, nothing like we'd see in most applications of this SoC in tablets and such.

"All of the performance" soll sich auf was beziehen? Auf die fehlenden K1 oeffentlichen und unabhaengigen Messungen zum Zeitpunkt wo sie den Artikel geschrieben haben oder vielleicht auf die Reihe an Bullshit die NV fuer K1 behauptet hat, u.a. *bling bling* Bildchen oben fuer 365 GFLOPs.

Aber wenn wir schon beim Thema bleiben sollen, streng Dich mal an und erklaer mir wo der wirkliche Haken im obrigen CPU Vergleich liegen koennte.

Das ist der gleiche, nur eben umgekehrte Unfug wie die Behauptung, dass die Peak-Clocks passiv kühlbar wäre. Nur das letzteres nicht einmal von Nvidia erzählt wird. ;)

Mit einem 20cm dicken heatsink schon und es wundert mich ehrlich wie NV noch NICHT auf die Schnappsidee bis jetzt kam :rolleyes:

Dural
2014-02-20, 12:08:51
das tut im kopf schon fast weh...

erstens troselt jede SoC in diesem bereich, also müsst man schon sagen es lügen alle :freak:

zweitens haben wir mittlerweilen ein 7" tablet das mit rund 10% weniger takt daher kommt, die satten 10% weniger takt sind wahrscheinlich der welt untergang, vor allem in anbetracht dessen das es weit und breit keinen A15 quad gibt der in die nähe dieser leistung kommt. :P


lächerlich was hier gerade abgezogen wird!

Undertaker
2014-02-20, 12:11:41
"All of the performance" soll sich auf was beziehen?

Merkst du nicht, dass er hier das gleiche macht, was du dem Marketing immer vorwirfst? Nämlich Aussagen so schwammig zu formulieren, dass man letztlich alles hineininterpretieren kann. Wenn du das auf der einen Seite als "Lügen" bezeichnest, musst du das – um nicht mit zweierlei Maß zu messen – bei der anderen ebenso tun.

Wirklich belegen kannst du jegliche Vorwürfe ohnehin kaum, da stets immer das letzte Puzzleteilchen zur Analyse fehlt. Z.B. steht bei der Angabe der Leistungsaufnahme im Vergleichsbildchen mit den Konsolen nicht, wo oder wie der gemessen wurde. Als Durchschnittsverbrauch in irgendwelchen Spielen können die erwähnten 5 Watt durchaus hinkommen, da nirgends etwas von "Volllast" oder "TDP" steht. Wer so naiv ist, in solche Slides mehr zu interpretieren, ist letztlich selbst schuld wenn er am Ende falsch liegt.

Ailuros
2014-02-20, 12:15:53
das tut im kopf schon fast weh...

Sollte es auch; nur beruehrt es anscheinend bei Dir die falschen Schmerzzellen.

erstens troselt jede SoC in diesem bereich, also müsst man schon sagen es lügen alle :freak:

Zu welchem Grad bleibt dann die Frage.

zweitens haben wir mittlerweilen ein 7" tablet das mit rund 10% weniger takt daher kommt, die satten 10% weniger takt sind wahrscheinlich der welt untergang, vor allem in anbetracht dessen das es weit und breit keinen A15 quad gibt der in die nähe dieser leistung kommt. :P

Wir haben es wo genau momentan? Hersteller, Preis und wo kann man es kaufen? Sonst fuer den letzten Satz: ja es ist tatsaechlich keiner so bloed 4+1 A15 einzubauen. Komischerweise will die Mehrzahl der K1 Interessierten eher ueber Denver etwas wissen als ueber die erste Auflage.

lächerlich was hier gerade abgezogen wird!

...und stell Dir vor Du machst sogar mit! :rolleyes:

Dural
2014-02-20, 12:16:09
zudem auf einem prototypen der lüfter rein gar nichts aussagen muss.

gut möglich das hier der chip bewusst "kalt" gehalten wird, wie so auch immer.

kann natürlich auch sein das der chip nicht trosseln soll, um das maximal mögliche zu zeigen, na und?


ich erwarte vom K1 keine wunder, aber einige tuen hier so als der K1 nie und nimmer im 5Watt bereich laufen würde.

Ailuros
2014-02-20, 12:28:17
Merkst du nicht, dass er hier das gleiche macht, was du dem Marketing immer vorwirfst? Nämlich Aussagen so schwammig zu formulieren, dass man letztlich alles hineininterpretieren kann. Wenn du das auf der einen Seite als "Lügen" bezeichnest, musst du das – um nicht mit zweierlei Maß zu messen – bei der anderen ebenso tun.

Charlie kann man so etwas auch noch vorwerfen aber Theo's Seite? Wird wohl nicht Dein Ernst sein. Ja und Carmack luegt sich gerade den Arsch ab denn um darum geht es eigentlich im Artikel, aber da es Euch aus verstaendlichen Gruenden stoert ist mal wieder der Botsmann der Schuldige oder eine "merkwuerdige" Formulierung ueber die aktive Kuehlung.

Wirklich belegen kannst du jegliche Vorwürfe ohnehin kaum, da stets immer das letzte Puzzleteilchen zur Analyse fehlt. Z.B. steht bei der Angabe der Leistungsaufnahme im Vergleichsbildchen mit den Konsolen nicht, wo oder wie der gemessen wurde. Als Durchschnittsverbrauch in irgendwelchen Spielen können die erwähnten 5 Watt durchaus hinkommen, da nirgends etwas von "Volllast" oder "TDP" steht. Wer so naiv ist, in solche Slides mehr zu interpretieren, ist letztlich selbst schuld wenn er am Ende falsch liegt.

Ich behalt aber angenehmerweise nur den letzten Satz, denn er stellt den eigentlichen Sinn des besprochenen Artikels dar "nehmt die NV K1 Behauptungen mit einigen grains of salt". Carmack ist lediglich mal mit dem linken Bein aufgestanden, bohrte ein bisschen in der Nase rum und dachte sich "warum mal nicht NV ein bisschen bashen heute"? Ausser natuerlich Du willst mir einreden dass jemand wie JC nicht weiss wo es lang geht.

Er spielt selbstverstaendlich auf die anderen Einheiten ausserhalb der GPU an oder einfacher das Gesamtpaket einer XBox360 u.a.

zudem auf einem prototypen der lüfter rein gar nichts aussagen muss.

Es sagte weder BSN noch ich dass prototypen einen Luefter haben.

gut möglich das hier der chip bewusst "kalt" gehalten wird, wie so auch immer.

kann natürlich auch sein das der chip nicht trosseln soll, um das maximal mögliche zu zeigen, na und?

Tut mir leid wenn ich dem obrigen nicht folgen kann.

ich erwarte vom K1 keine wunder, aber einige tuen hier so als der K1 nie und nimmer im 5Watt bereich laufen würde.

Die Frage ist nicht ob sondern "wie oft" aber das ist viel zu kleingehacktes anscheinend fuer Dich.

Undertaker
2014-02-20, 12:33:44
Und was willst du mit dem letzteren nun sagen? Denkst du das JC über eine Qualcomm, Samsung oder sonstwede Marketing-Präsentation anders urteilen würde, täte er sich dafür interessieren? Und ist es auf Basis dieser Erkenntnis nun sinnvoll alle zwei Tage in diesem Thread erneut zu betonen, dass wir hier nur Marketing-Material vor uns haben?

Diese ganze schwarz-weiß Malerei ödet letztlich nur an. Auf der einen Seite haben wir ein paar Herstellerfolien, in die man naiv hineininterpretieren kann, ein 365 GFLOPS-Chip wäre nun auf einmal in Smartphones möglich. Und auf der anderen Seite gibt es hier welche die meinen, das kein anderer Hersteller ähnlich plattes Marketing betreibt und K1 als passive Tablet-Version plötzlich nur noch 10% der versprochenen Performance liefert.

Ailuros
2014-02-20, 12:44:00
Und was willst du mit dem letzteren nun sagen? Denkst du das JC über eine Qualcomm, Samsung oder sonstwede Marketing-Präsentation anders urteilen würde, täte er sich dafür interessieren? Und ist es auf Basis dieser Erkenntnis nun sinnvoll alle zwei Tage in diesem Thread erneut zu betonen, dass wir hier nur Marketing-Material vor uns haben?

Carmack ist der letzte Mensch auf dieser Erde der gegen NV oder sonst noch einen IHV feindlich oder voreingenommen waere. Er hat in dem was er sagt - und ja es machen leider eben stets viele den Fehler falsches aus seinen Aussagen rauszulesen - eben rein zufaellig recht. Ein jeglicher Bumsfallera ULP SoC wird nie ein Konsolen Spiel fuer diese Konsolen aushalten koennen. Braucht man wirklich eine besondere Entzifferung dafuer?

Nein ich werde von jetzt nur an JHH's Lippen haengen um durch seinen Duenschiss weisser zu werden. Nach neuestem werden sie von Tegras mehr verdienen da sie jetzt auch lizenzieren. :freak:

Diese ganze schwarz-weiß Malerei ödet letztlich nur an. Auf der einen Seite haben wir ein paar Herstellerfolien, in die man naiv hineininterpretieren kann, ein 365 GFLOPS-Chip wäre nun auf einmal in Smartphones möglich. Und auf der anderen Seite gibt es hier welche die meinen, das kein anderer Hersteller ähnlich plattes Marketing betreibt und K1 als passive Tablet-Version plötzlich nur noch 10% der versprochenen Performance liefert.

Ich bin mir sicher dass bisher Tegras sich nicht bunt verkauften wegen jeglicher Schwarzmalerei oder? Der Konsumer-Anteil von Tegra ist am aussterben und als erstes Opfer sind smartphones dran. JHH selber im neuesten transcript.

Sonst von 10% der versprochenen Leistung hab ich nichts gesehen. Ich sehe lediglich vergleichbare Leistung zu dem was Anteil der Konkurrenz im Jahr noch liefern wird, ergo entschuldige wenn ich nichts ausserordentliches mehr am K1 sehen kann.