PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20 21 22 23 24 25 26

Avalox
2014-01-05, 18:36:39
Heute in der Nacht zum Montag hält nVidia um 5 Uhr hiesiger Zeit, die CES Pressekonferenz mit den Neuvorstellungen ab.

Es gibt einen mitlaufenden Live Blog.

http://nvidianews.nvidia.com/Releases/NVIDIA-Announces-2014-CES-Press-Conference-Live-Webcast-Coverage-Dedicated-CES-Newsroom-a84.aspx

deekey777
2014-01-05, 21:26:27
Wird also morgen Tegra 5 präsentiert und möglicherweise erneuerte Shield-Konsole.

Dural
2014-01-05, 21:57:49
und hoffentlich bald mal lieferbar, nicht so wie bei T4 :rolleyes:

Skysnake
2014-01-06, 05:32:39
Ich habs mir doch gegeben, und es hat sich echt gelohnt... Huang labert wieder einen SCHEIS daher, das muss man einfach live erleben.....

Er meint doch tatsächlich: Autos werden das wichtigste "Mobil-Device" das wir besitzen werden..
:facepalm::ucrazy:

OMFG USA zentralisiert WTF... Huang hallo, den knall nicht gehört? Die Welt besteht nicht nur aus den USA... Auto wichtiger als Smartphone usw... ich krieg mich nicht mehr...

Skysnake
2014-01-06, 05:36:37
EDIT( und das Forum hängt wieder)...


Und K1 mit 192 Cores...

Jaja, 192 Cores in K1... Ist ja nicht rein zufällig auf Kepplerbasis, und das Ding hat wieviel ALUs? Ah ja genau 192...

Huang das stinkt gerade gewaltig.

EDIT:
Und jetzt kommen Sie wieder mit DX11.1 und Kepler daher :facepalm:... Ich bekomms kotzen :down:

Sorry, aber was soll denn der Scheis denn schon wieder? Und dann sagt er auch noch Next Gen Gameing starte mit DX11.1... NoGo....:uattack4:

Hugo78
2014-01-06, 05:50:57
Skysnake tut schon wieder, was er am liebsten macht. ;D

Alter das ist ne CES Press Show.
CES ist das selbe wie bei uns die IFA, d.h. da ist auch Presse die sich nicht jeden Tag nur um Computergrafik dreht.
Entsprechend muss Jensen das Material bringen.
Details interessieren nicht, das große Ganze ist interessant.

Hugo78
2014-01-06, 06:07:28
Tegra K1 in zwei Versionen.

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=47601&d=1388984847

Skysnake
2014-01-06, 06:14:28
Trotzdem muss man nicht bullshit erzählen...

Huang macht einfach mal wieder Bullshit-bingo. Er meinte gerade auch was von "first Android 64-Bit" bla bla.

Gut, an Apples 64 Bit Chip hat er gedacht, aber den von Samsung und ARM hat er wohl schlicht vergessen.

Interessant ist aber, das Package was man gerade sieht. Da ist der Ram direkt mit drauf.

Coda
2014-01-06, 06:17:28
Was hast du denn wieder für nen Anfall gerade? Das ist halt dann ein Kepler-SMX mit 192 ALUs ("CUDA cores").

Was ist daran jetzt besonderer Bullshit? Das bezeichnen sie seit G80 so.

Der RAM ist in vielen SOCs mit im Package.

Hugo78
2014-01-06, 06:17:36
Samsung hat einen 64Bit Chip?

Skysnake
2014-01-06, 06:17:49
Ist jetzt die Frage, ob nVidia wirklich Kepler 1:1 geportet hat.

Wenn ja, dann weiß man auch, warum Huang nur von Autos redet und kein Wort mehr von Ultramobile, also Smartphone und selbst Tablets. Das Ding wird wohl schlicht zu viel verheizen.

Man bleibt ja auch bei A15 in der einen Version, und ich habe so meine Zweifel, ob ihr Denver so viel effizienter sein wird.

Skysnake
2014-01-06, 06:19:00
Liest du ein "CUDA-Cores"?

Ich nicht, aber vielleicht hab ich auch was an den Augen. Aber ich les nur "Cores".

EDIT:
Sogar zwei ;)

Exynos 6 und Exynos S.

Und ARM hat das A53 und A57 Design im Oktober bekannt gegeben.

EDIT2:
Das Dev-Board für Automotive ist ganz schön groß. Vor allem der Kühler ist ziemlich heftig groß. Klar es ist passiv und auch nen Dev-Board!, aber das sieht trotzdem ziemlich heftig groß aus.

Kann es sein, dass das noch nen Logan Brett ist?

Hugo78
2014-01-06, 06:24:46
Denver war schon immer für High Performance geplant.
Das ist Nvidias "bottom up" Weg, im Gegensatz zu Intels "top down".

Coda
2014-01-06, 06:26:28
Ich hab keine Lust mehr auf die ständigen Semantik-Diskussionen mit dir. Das ist wie im Kindergarten.

Skysnake
2014-01-06, 06:28:37
Wir reden hier aber schon über "Tegra K1" oder?

Tegra war bisher immer für den Ultramobile Markt. Also Tegra 1-4 und von Tegra 5 hat man nichts anderes erwartet.

Was soll denn noch kommen für Ultramobile? Das Ding kannste halt runtertakten, aber nen wirklicher burner wird das dann trotzdem nicht. Hat man ja an Tegra 4 gesehen.

Coda
2014-01-06, 06:32:56
128K L1$ (vermutlich data) ist ne ganze Menge. Und 7-way superskalar (vermutlich die Ausführungseinheiten) ist auch extrem. Nichtmal Haswell ist so breit. Bin mal gespannt wie das Ding am Ende wirklich aussieht.

Konami
2014-01-06, 06:36:15
mwahahah: http://grenzwissenschaft-aktuell.blogspot.com/2014/01/kontroverse-um-kornkreis-in-kalifornien.html

Aber nix über Maxwell, schade.

Skysnake
2014-01-06, 06:41:04
Sorry, aber die Steilvorlage hast du selbst gelegt.

Mir ist auch klar, das es ne PR-Veranstaltung ist, aber deswegen muss man noch lange nicht solche Klopper raushauen, wie Huang grad.

Jeder Firma verkackeiert dich zu nem gewissen grad, weil Sie kleine feine Details weglassen, aber Sie bleiben dabei immer bei der Wahrheit. Da kannste dann nen :rolleyes: machen und dir Äpfel und Birnen vorstellen. Aber dumm dreist ins Gesicht lügen tun Sie dir nicht. Huang hat damit aber, wie wir seit Spax-Schrauben-Thermi wissen, scheinbar kein Problem.

Und wenn man genau hinschaut, wirds da sicherlich noch so manches Fragezeichen geben. Ich sag nur Latenzen bzgl Streaming. Da hat er was von 30ms geredet, aber das muss ich mir nochmal in Ruhe anhören. Da konnte man nicht wirklich so schnell folgen.

Skysnake
2014-01-06, 06:45:50
Ja, das ist sehr breit. Fragt sich, wie Sie das überhaupt vernünftig füllen wollen.

Wenn man sich aber die 32er Warp-size denkt, dann kommen wir auf 6 Instructionen, die man sich beschaffen könnte für die CPU, bei den 192 CUDA-Cores.

Also quasi etwas angelehnt gedanklich an das was AMD mit seinen Skalareinheiten macht. Könnte je nachdem Sinn machen, das entsprechend zu mappen.

Marty98
2014-01-06, 06:47:35
mwahahah: http://grenzwissenschaft-aktuell.blogspot.com/2014/01/kontroverse-um-kornkreis-in-kalifornien.html

Aber nix über Maxwell, schade.

http://www.cropcircleconnector.com/2013/chualar/articles.html

http://www.youtube.com/watch?v=nGv-aPXAfAM&feature=youtu.be

Ridcully
2014-01-06, 06:48:37
5 Watt für den k1 steht auf der Folie. Was verbracht den so ein s800 bei volllast? Ich finde da nichts zum vergleichen. Außer den Tegra 4 mir 4 bis 6 Watt was wohl rückblickend etwas viel war.

Coda
2014-01-06, 06:50:02
Ja, das ist sehr breit. Fragt sich, wie Sie das überhaupt vernünftig füllen wollen.

Wenn man sich aber die 32er Warp-size denkt, dann kommen wir auf 6 Instructionen, die man sich beschaffen könnte für die CPU, bei den 192 CUDA-Cores.

Also quasi etwas angelehnt gedanklich an das was AMD mit seinen Skalareinheiten macht. Könnte je nachdem Sinn machen, das entsprechend zu mappen.
Was hat denn bitte die GPU mit der CPU zu tun? Das ist eine andere Taktdomäne und ein anderes Registerfile. Ganz andere Auslegung bei den Latenzen.

Hugo78
2014-01-06, 06:53:21
EDIT:
Sogar zwei ;)

Exynos 6 und Exynos S.

Gurgel spuckt mir nur Gerüchte aus, über eine mögliche offizielle Ankündigung auf der aktuell laufenden CES.
Und du verlangst von Jensen er soll neben Apples realem Produkt und Nvidias realem, wenn gleich nicht notwendigerweise finalem Produkt,
auch Samsungs, bisher reinen, Gerüchte-Papiertiger berücksichten?

Ja klar ... was auch immer.

Skysnake
2014-01-06, 06:56:43
Man will ja aber im Optimalfall die Sachen jeweils da machen, wo es am meisten Sinn macht, und eben am wenigsten Verbraucht. Das ganze startup geraffel usw muss man ja machen, und auch sonst kann man sich ja überlegen, wo ein Datenaustausch noch sinn macht. Rein aus Spaß an der Freude werden die keinen 7x Superskalaren CPU-Core designt haben. Da werden die sich schon was bei gedacht haben. Blöd sind die Jungs und Mädels bei nVidia ja auch nicht...

Btw. Weß jemand eigentlich ob Shield nen GBit Ethernet Port hat?

Huang meinte, als auf den 4k TV gestreamt wurde, dass das Ding an ner GBit Leitung hängen würde.

Coda
2014-01-06, 06:57:48
Es wird keinen Datenaustausch auf der Ebene geben, das ist schlicht absurd aus so vielen Gründen.

Hugo78
2014-01-06, 06:58:52
5 Watt für den k1 steht auf der Folie.

Ich verlink die mal, damit es noch was On Topic gibt, ehe Skysnake mit seinem Mimimi wieder alles ins OT zieht.

http://blogs.nvidia.com/wp-content/uploads/2014/01/consolesweb-500x333.jpg

Marty98
2014-01-06, 07:01:32
Gurgel spuckt mir nur Gerüchte aus, über eine mögliche offizielle Ankündigung auf der aktuell laufenden CES.
Und du verlangst von Jensen er soll neben Apples realem Produkt und Nvidias realem, wenn gleich nicht notwendigerweise finalem Produkt,
auch Samsungs, bisher reinen, Gerüchte-Papiertiger berücksichten?

Ja klar ... was auch immer.

Skysnakes NVidia Hass geht eben schon in einen perversen Bereich. NVidia zeigt die erste 64bit CPU unter Android und das passt Skysnake nicht. Also kommt er mit Apple (Android?) und Samsung (Gerüchte). Hauptsache was gegen Nvidia herauswürgen.

Skysnake
2014-01-06, 07:06:54
Danke.

Die Angabe zur Leistungsaufnahme habe ich tatsächlich übersehen.

5W ist da doch erstaunlich wenig, aber man muss sich fragen, wie aussagekräftig der Wert ist. Die Zahlen kann man ja fast jedem Ultra-Mobile-Hersteller oft um die Ohren hauen. z.B. Samsung cheatet ja durch höhere Leistungsaufnahme bei Benchmarks, wenn ich mich recht erinnere.

Du meintest Tegra 4 wäre mit 4-6W angegeben, wieviel hat er denn real gezogen in nem Tablet und wieviel in Shield?

Es legt aber wohl den Verdacht nahe, dass das Dev-Board vielleicht wirklich nen Logan war.


Es wird keinen Datenaustausch auf der Ebene geben, das ist schlicht absurd aus so vielen Gründen.
We will see.


@Shield:
Die englische Wikipedia (http://en.wikipedia.org/wiki/Nvidia_Shield) sagt nichts zu nem Gbit Ethernetanschluss bei Shield.

Wie soll das Ding dann bitte angeschlossen sein :confused:

Haben die Shield2 gezeigt?

Shield hat "nur" 802.11n an sich. Eventuell bekommt es ja nen Update auf 802.11ac? Ist das möglich? Shield brüchte ja zwei Antennen dafür, um mit ac auf >=1GBit zu kommen. Wieviel Antennen hat denn das Ding?

EDIT2:
Ich hab mit den Stream nochmal angehört.

Bei 26:20 redet er von den Latenzen beim Streaming an die Westküste der USA ~6000 Meilen entfernt,


Ablauf: (Anmerkung: er meinte die 6k Meilen würden 30ms brauchen mit der Lichtgeschwindigkeit. Kann also gut sein, dass die Latenzen nicht real sind)
Knopf wird gedrückt -> 30ms bis in die USA -> Verarbeitung im Grid-Server -> 30ms später zurück an Shield.

Insgesamt soll das alles unter 200ms sein, weil man 200ms wahrnehmen könne.

Wenn man sich das in Ruhe nochmal anhört, sagt er da rein gar nichts zu dem was man mit Shield beim Streaming aus den USA für eine Latenz hat.

Er sagt nur, man braucht ne gewisse Zeit für die Datenübertragung, dann braucht man Zeit zu verarbeitung, und mehr als 200ms kann man wahrnehmen. Wieviel man aber da gerade real braucht sagt er mit keinem Ton. :ugly:

Die 200ms werden auch ziemlich schwer ein zu halten sein.

6000 Meilen sind ca. 9656,1km. Das macht schon minimal ne Latenz von 64ms. Also wenn man die 6k Meilen als echte Distanz ansieht, und man sich mit Vakuumlichtgeschwindigkeit bewegen würde, was man natürlich nicht macht, sondern leicht darunter. Ganz zu schweigen davon, das man ja auch noch mehrere Hops hat.

Ich hab mal nen ping auf den Server der Princeten Uni an der Ostküste gemacht. Allein das dauert schon ~130ms. Man hat da absolut keine Chance unter 200ms zu bleiben, wenn man von Europa an die Westküste der USA will. Ich hab nur 19 Hops zu denen gebraucht, was nicht viel ist für die Distanz.

Die drei großen Zeitfresser sind Frankfurt->Amsterdam->London->NewYork und die haste immer, weil das halt die Hauptglasfaserkabel sind.

Dawn on Titan
2014-01-06, 07:20:50
Edit: Der Originalpost war zu provozierend.

Im Mobilbereich vermisse ich immer noch das bemerkenswerte Alleinstellungsmerkmal der NV SoCs.

gnahr
2014-01-06, 07:39:36
das muss definitiv ein spasmus sein, den er da auslebt.OMFG USA zentralisiert WTF... Huang hallo, den knall nicht gehört? Die Welt besteht nicht nur aus den USA...
schonmal was von e-mobilität gehört? ach, quatsch, rechenleistung geht immer nur in entertainment wenn man shows schlechtreden will und vice versa.

Skysnake
2014-01-06, 08:09:56
Also der Qualcomm 410 ist z.B. ganz offiziell vorgestellt. Die Serienproduktion startet in H2.

http://www.areamobile.de/news/25954-qualcomm-kuendigt-snapdragon-410-mit-lte-und-64-bit-an

Aber er hat auch noch dreo Worte mehr dazu gesagt "worlds first demonstration of 64Bit v8 ARM on Android"

Und ja, das stimmt dann natürlich. Wirklich gezeigt haben Sie es erst auf Android. Intel hat Android schon auf nem 64 Bit Prozessor, aber eben nen x86_64. (http://www.anandtech.com/show/7038/intel-demonstrates-bay-trailt-running-windows-8-and-android-422)

Und ARM (http://www.arm.com/about/newsroom/arm-targets-automotive-and-industrial-control-markets-with-new-architecture.php) und Qualcomm (http://www.anandtech.com/show/7573/qualcomm-announces-snapdragon-410-based-on-64bit-arm-cortex-a53-and-adreno-306-gpu) (Samsung an sich auchm also ich versteh das bei Samsung zumindest so, dass Sie die Exynos 6/s schon angekündigt haben an sich, aber gut, lassen wir die raus, genau wie AMD (http://www.youtube.com/watch?v=rNWG9eegXqc) die auch welche Angekündigt haben, aber zumindest öffentlich noch nichts gezeigt haben) haben zwar welche Angekündigt, aber eben noch kein Demo mit Android gezeigt. Zumindest nicht öffentlich. Und Dell hat halt ne 64 Bit ARM Demo (http://www.youtube.com/watch?v=MLLOUzJX9ec) öffentlich gezeigt, aber eben kein Android drauf laufen lassen, was jetzt natürlich VOLL das PRoblem gewesen wäre -_-

Aber ja, steinigt mich, das ich die Konstellation aus 64Bit V8 ARM + Android + Demonstation nicht gleich geschnallt habe...

Wobei ich davon ausgehe, das Samsung auf ihrer Show noch was zeigt.


Was aber wirklich gut ist, ist dass der erste Chip direkt funktioniert! Das lässt hoffen, dass Sie dieses mal im Zeitplan bleiben. Das ist sehr wichtig für die. Was Sie wirklich nicht brauchen können sind wieder verzögerungen bei Tegra.

Dawn on Titan
2014-01-06, 08:10:53
Aber rein von den Produktzahlen kommt Automotive nicht annähernd an die mobile Unterhaltungselektronik heran.

Skysnake
2014-01-06, 08:17:58
Richtig, aber das ist ja nur ein "kleines unbedeutendes" Detail.

2013 gabs wohl so ca 71 Mio abgesetzte Autos weltweit (http://www.t-online.de/wirtschaft/unternehmen/id_66474854/weltweiter-autoabsatz-auf-rekordniveau-dreikampf-um-die-weltspitze.html), von denen nur ein kleiner Bruchteil überhaupt relevant ist für Chips wie "Tegra K1"

Zum Vergleich dazu sind die ca 250 Mio Smartphones in Q3 2013 (http://www.giga.de/unternehmen/apple/news/infografik-der-weltweite-smartphone-absatz-im-3-quartal-2013/) ja natürlich nicht so heftig. Wobei vielleicht reisen es ja dann die ca. 47 Mio Tablets in Q3 2013 (http://de.statista.com/statistik/daten/studie/181569/umfrage/weltweiter-absatz-von-media-tablets-nach-quartalen/) raus? :rolleyes:

gnahr
2014-01-06, 08:23:36
abgesehen davon, dass die posts sowiso rausgelöscht werden:
smartphone: klein und extrem energiebegrenzt,
auto: groß und mit gigantischen akkus ausgerüstet.
in nem e-wagen steckt das potenzial für locker die 10fache leistung und damit auch absatzvolumen.
es ist ein großer zusätzlicher markt. darauf zu pfeifen und die branche nicht zu versorgen wär wesentlich sträflicher.
aber wer sich auf äpfel-birnen spezialisisert... man sollte das mal im tegra-thema vertiefen.

Dawn on Titan
2014-01-06, 08:31:40
Auf der einen Seite begrüße ich, dass NV Richtung Automotive denkt, dann die Systeme mit Tegra, die man jetzt bekommen kann, sind schon stark, aber auf der anderen Seite kann die Sparte nicht einmal annähernd vom Volumen mit der mobilen Unterhaltungselektronik mithalten. Selbst wenn jedes Auto 2 SoCs hätte, wäre man beim Absatzvolumen bei rund 50% des Absatzes an Handys in einem Quartal. Wahrscheinlich werden die Margen leicht besser sein, aber spätestens wenn die SoCs nicht mehr nur Bestandteil hochwertiger Sonderausstattungen sind, wird auch dort der Preiskampf in der Branche voll einschlagen und Margen vernichten.

Auf der anderen Seite wäre ist für jede Branche gut wenn sie bei ihren Socs mal pünktlich wären. Auch wenn mir bei diesen immer noch ein bedeutendes Alleinstellungsmerkmal fehlt.

Skysnake
2014-01-06, 08:38:15
Das ist halt der Punkt. Automotive unterscheidet sich an sich nicht wirklich vom Smartphone/Tablet Markt, außer dass der Stromverbrauch nicht ganz soooo wichtig ist. Dafür muss nVidia da im Prinzip aber auch mit Intel und AMD Systemen Konkurrieren, die dann gleich nochmal etwas mehr Leistung ziehen, und gerade wenn ich an autonomes fahren denke, könnte es mit Tegra (ARM) dann eventuell doch etwas knapp werden. Man muss ja schnell genug reagieren, und da hilft einfach hohe Singlethread Leistung. Das wird man sich in den nächsten Jahren genau anschauen müssen, wie die Hersteller damit umgehen.

Ich vermisse auch nen Tegra 5i. Überhaupt hat man rein gar nichts über Smartphone oder selbst Tablets gehört. Kann/soll/muss man das als Aufgabe/Segel streichen in dem Bereich von nVidia werten?

Ich hoffe nicht, denn der automotive Bereich wird sich nicht von allein tragen können auf mittlere Sicht.

dildo4u
2014-01-06, 08:46:31
MS setzt seit Gen 1 auf Tegra schätze die werden beim nästen Update T5 nutzen schon weil NV brauchbare DX11 Treiber hat.

http://www.microsoftstore.com/store/msde/de_DE/pdp/productID.289756900?srccode=cii_303774298&cpncode=32-305036864-2&WT.mc_id=PLA_DE_GooglePLA

Asus hat auch ein T4 Tablet.
http://www.mobilegeeks.de/asus-transformer-pad-tf701-tegra-4-tablet-gaming-test/

gnahr
2014-01-06, 08:48:25
Wahrscheinlich werden die Margen leicht besser sein, aber spätestens wenn die SoCs nicht mehr nur Bestandteil hochwertiger Sonderausstattungen sind, wird auch dort der Preiskampf in der Branche voll einschlagen und Margen vernichten.
jein mit klarer tendenz zum "nein". in einem auto ist es nicht das core-feature und ein auto kostet einfach mal das 100fache und mehr von nem smartphone. das kann nicht die gleiche marge haben. ;D und zudem sind serien wesentlich langlebiger was bereits einzelne deals wertvoll macht.

smartphones wie sie heute massig verkauft werden sterben eh schnell aus, wenn es endlich ne hand voll geräte gibt die facebook und whatsapp sowie konsorten kennen. das wollen die meißten käufer und keine fancy kamera oder ultraschnelle datentransporte.
das hat schon seine richtigkeit, dass man seine produkte in neue bereiche trägt. sagt ja keiner, dass wir nächstes jahr nur noch tegra für tata-nanos gezeigt bekommen, aber das ist einfach mal ein neues, dickes scheibchen was da präsentiert wird.

Skysnake
2014-01-06, 08:54:37
Wovon träumst du bitte?

Schau dir doch den "tollen" Deal den nVidia mit Audi (?) hatte. Da sind Sie mal ganz klamm heimlich teilweise durch TI (?) ersetzt worden, und das in der laufenden Produktion. Wenn ich mich recht erinnere gab es bis zu 3 oder 4 verschiedene Chips in den Intertainmentsystemen.

Und ja, Autos sind teurer, aber du hast auch einen GEWALTIG! höheren Kostenfaktor für die ganzen Materialien und die Arbeitszeit. Marge an sich sagt nicht unbedingt was aus. Die Rendite muss stimmen.

Und du brauchst nicht glauben, das man im automotiven Umfeld bei den Fahrzeugherstellern große Margen erwarten darf, und nicht hart kalkulieren muss.... Selbst bei Daimler sind Zulieferer, die schon seit zich Jahren, wenn nicht Jahrzehnten mit denen arbeiten, wegen Cent rausgeflogen... Der Anbieter aus der Türkei war halt minimal billiger. Scheise nur, das am Ende die Qualität beschissen war, aber lassen wirs mal.

AnarchX
2014-01-06, 08:56:24
Denver könnte wohl SMT mitbringen? Laut Jensen "highly multi-threaded" und eben 7-way.
Mal sehen ob man es bei der IPC mit Cyclone aufnehmen kann.

K1 Die im Bild: http://nvidianews.nvidia.com/imagelibrary/displaymedia.ashx?MediaDetailsID=2650&SizeID=4

Dawn on Titan
2014-01-06, 09:02:24
Wenn etwas Teil der Serienausstattung wird, dann geht es um 0,0X Cent - auch in der Automobilbranche. Jetzt hat man die SOCs ja "nur" in den hochwertigen Sonderoptionen, so dass der Hersteller der Fahrzeuge da relativ entspannt ist, aber der Ersatz von Tegra bei Audi zeigt eben auch, dass der Hersteller der Geräte sehr kosten optimierend arbeitet. Automotive kann schon ein kleines Standbein für die Tegra-Sparte sein, aber Automotive kann die Sparte nicht am Leben halten.

Weiterhin muss man den Trend der Branche hinterfragen. Hat einer von euch die Tests der Single-Core-Billig-ARM-Tablets aus China gesehen. Wie nah die mit heute 40 Euro bereits daran sind die meisten Ansprüche zu befriedigen ist erschreckend. Für 60 Euro wird man bald HD Tablets bekommen die für die meisten casual Anwendungen ausreichen. Für die High-End-Tablets wird man bald eine Killer-Ap brauchen um sie am Leben zu erhalten. Dauerhaft wird man keine 300+ Euro Geräte für Facebook-Nutzung verkaufen können. Die Kindle Reihe zeigt ja schon wo es hingeht. (Preise der alten Dual-Cores)

Locuza
2014-01-06, 09:02:59
Denver überrascht und das die Cores so fett sind, wow.
Hat er etwas spezielles darüber gesagt oder den Erscheinungstermin?
Ich las bei Computerbase nur, dass Denver ganz frisch erst einen Prototypen heraus bekommen hat, also man sich noch auf einige Monate gefasst machen sollte.

Denver könnte wohl SMT mitbringen? Laut Jensen "highly multi-threaded" und eben 7-way.
Mal sehen ob man es bei der IPC mit Cyclone aufnehmen kann.

Was sollte man wohl sonst mit so viel Cache und Ausführungseinheiten?

StefanV
2014-01-06, 09:04:18
in nem e-wagen steckt das potenzial für locker die 10fache leistung und damit auch absatzvolumen.
Jo und wie willst das ganze kühlen? Bei 50-60°C Umgebungstemperatur??

Nightspider
2014-01-06, 09:04:42
Lustig wäre es natürlich wenn Nvidias DualCore die ganzen OctaCores von Mediatek und Samsung zertreten würde. ;D

Locuza
2014-01-06, 09:06:06
Welche bisher ja alle nur jeweils aktive Quadcores sind oder nicht?

AffenJack
2014-01-06, 09:06:49
Denver könnte wohl SMT mitbringen? Laut Jensen "highly multi-threaded" und eben 7-way.
Mal sehen ob man es bei der IPC mit Cyclone aufnehmen kann.

K1 Die im Bild: http://nvidianews.nvidia.com/imagelibrary/displaymedia.ashx?MediaDetailsID=2650&SizeID=4

Zutrauen würde ich es Nv, dass man mit Cyclone Geschwindigkeitsmässig mithält. Beim Stromverbrauch zweifle ich da deutlich mehr.

Gaestle
2014-01-06, 09:30:58
Ich raff es nicht ganz: ist K1 jetzt T5?

Skysnake
2014-01-06, 09:32:17
Scheinbar ja.

Mit der komplett neuen GPU macht ein Reset der Benennung auch durchaus Sinn. Man nähert das Namensschema damit auch den anderen GPUs an. Da gibts ja K10/K20(x) usw.

AnarchX
2014-01-06, 09:34:11
Man sollte aber das Tegra vor K1 nicht vergessen: http://www.nvidia.de/object/grid-vdi-graphics-cards-de.html ;)

Skysnake
2014-01-06, 09:40:27
Stimmt :up:;D

AnarchX
2014-01-06, 09:48:07
Das Die-Bild nochmal in groß: http://www.techpowerup.com/196459/nvidia-slides-supercomputing-technology-into-the-car-with-tegra-k1.html

Ausgehend von den 4Gbit Hynix (9x13mm) DDR3 Chips, ist Tegra K1 wohl ~100mm² groß.

Skysnake
2014-01-06, 09:53:05
Coda, also wenn ich mir die Presse so anschaue, egal ob CB, THG oder Hardwareluxx, die gehen alle auf "CUDA-Cores" und nicht einfach nur Cores. Gerade die nicht ganz so informierten würden halt sehr leicht die 192 Cores mit normalen CPU Cores wie beim Quad/Octa-core von Samsung usw vergleichen.

Huang hat mit seiner umständlichen und "speziellen" formulierung zur Latenz bei der Nutzung von Streaming über 6k Meilen auch direkt ein Opfer gefunden, das drauf reingefallen ist...

Ich weiß schon genau, warum mich sowas aufregt...


Über eine Strecke von 6.000 km tauschen die Konsole in Las Vegas und der Server in Sofia, Frankreich, ihre Daten aus. Eingaben wurden innerhalb von 30 ms nach Sofia übertragen und der Video-Stream benötigte weitere 30 ms um von Sofia wieder auf der Shield angezeigt zu werden.
Muss man mehr dazu sagen? (http://www.hardwareluxx.de/index.php/news/hardware/prozessoren/29265-ces-2014-nvidia-praesentiert-den-tegra-k1.html)

Avalox
2014-01-06, 10:03:34
Welche bisher ja alle nur jeweils aktive Quadcores sind oder nicht?

Nö. Nur die Unterstützung vom OS für heterogenes Multithreading wird immer besser.
Im Prinzip sind diese SoCs so gedacht, dass alle 8 Kerne auch parallel arbeiten können, was sie heute teilweise nicht tun können.


Lustig wäre es natürlich wenn Nvidias DualCore die ganzen OctaCores von Mediatek und Samsung zertreten würde. ;D

Die Konsequenz dieser Aussage, musst du dir mal auf der Zunge zergehen lassen.

Der CPU Kern im Apple A7 hat ja einen IPC, welcher gleichauf mit dem eines schnellsten Intel Cores liegt.
Dabei kommt der Apple A7 von seiner gesamte Rechenleistung aber nicht, an einen der aktuellen Quadcore ARM SoC heran.

Wenn nun der nVidia CPU Kern deutlich schneller wäre, als der Apple A7 oben, um eben schneller zu sein als die heutigen Wettbewerber ARM SoCs. Sei es, weil er deutlich höher taktet, oder weil die IPC nochmal kräftig gesteigert wurde, dann ist das Niveau der schnellen Intel Desktop Chips erreicht.


@Topic

nVidia mag Android : "Android ist das wichtigste Betriebssystem seit 20 Jahren."

fondness
2014-01-06, 10:05:28
Gibt es auch einen konkreten Erscheinungstermin, oder wie bei T4 nur Luftblasen? Warum man den Chip mit A15 und Denver bringt verstehe ich auch nicht ganz. Entweder die Denver Version kommt deutlich später oder Denver hat nur bei Spezialgebiete Vorteile.

AnarchX
2014-01-06, 10:06:54
K1-A15: Q2 14
K1-D: H2 14??? (http://www.computerbase.de/news/2014-01/nvidia-kuendigt-tegra-k1-mit-192-kernen-an/)

Bei Shield 2 könnte wohl auch die GPU-Frequenz etwas höher ausfallen. Die 500 GFLOPs Grenze könnte wohl im stationären Betrieb (650 statt 475MHz@5W) fallen. 365GFLOPs @ 192SPs => ~950MHz (Boost).

Avalox
2014-01-06, 10:19:11
MS setzt seit Gen 1 auf Tegra schätze die werden beim nästen Update T5 nutzen schon weil NV brauchbare DX11 Treiber hat.

http://www.microsoftstore.com/store/msde/de_DE/pdp/productID.289756900?srccode=cii_303774298&cpncode=32-305036864-2&WT.mc_id=PLA_DE_GooglePLA


Microsoft unterstützt beim Tegra den Energiesparkern nicht. Das kann Windows nicht.

Der neue Tegra K1 scheint aber wieder einen 5. Energiesparkern zu besitzen.
Jedenfalls, wenn man sich die nVidia Folie (oder den Kornkreis) ansieht.

Optimal ist und wäre das also nicht.

Solch ein SoC könnte ja noch ganz andere Anwendungsfelder erschließen.

fondness
2014-01-06, 10:28:00
K1-A15: Q2 14
K1-D: H2 14??? (http://www.computerbase.de/news/2014-01/nvidia-kuendigt-tegra-k1-mit-192-kernen-an/)


Okay danke also mal wieder sehr zeitig angekündigt. Mal sehen wann man die Dinger kaufen kann, Lenovo spricht von Juli für die A15 Version.

Skysnake
2014-01-06, 10:32:01
Da muss ich nVidia mal in Schutz nehmen!

Die haben das dann auch nicht wirklich früher angekündigt, als die Konkurrenz, und insbesondere lauffähige Chips sind sehr wichtig. Zu Not sollte man selbst jetzt noch nen fixen respin schaffen. Wird zwar dann EXTREM eng, bzw nur mit minimaler Verzögerung zu schaffen, aber man liegt wies scheint gut im Zeitplan.

Jetzt muss sich halt "nur" noch zeigen, wie schnell es die OEMs schaffen, die Chips in ihre Produkte zu packen. Kann sein das Samsung, Qualcomm usw nach außen nicht so viel reden/zeigen, aber dennoch ihren Kunden schon Chips liefern.

Dural
2014-01-06, 10:33:30
Bin Begeistert, das ding wird den Markt ziemlich aufmischen sofern NV endlich mal schnell Liefern kann.

K1 wird in Geräten für Q2 versprochen, Denver ab zweiten halb Jahr. Da stell ich mir die Frage ob man nicht sogar besser auf diesen warten sollte. Jedoch dürfte das wohl eher ende Jahr werden...

AnarchX
2014-01-06, 10:33:36
Der gezeigte K1-A15 ist aus der 33. Woche 2013. Da sollte wohl manches Gerät schon in der Endfertigung sein.

Avalox
2014-01-06, 10:43:01
Jetzt muss sich halt "nur" noch zeigen, wie schnell es die OEMs schaffen, die Chips in ihre Produkte zu packen. Kann sein das Samsung, Qualcomm usw nach außen nicht so viel reden/zeigen, aber dennoch ihren Kunden schon Chips liefern.

Ich sehe da schon noch eine große Hürde.

So wie es aussieht, hat nVidia nichts über ein Mobilfunk Modem gesagt.

Wer soll die SoCs denn einbauen? Dann gibt es nur wieder Pads ohne Mobilfunk, wie wir es heute schon kennen, plus der Spezialgeräte. Also PC im Monitor, Spielkonsole, etc.


Das Problem ist dabei natürlich, dass der Wettbewerb, diese Pad SoCs einfach aus dem riesigen Volumenvertrag mit den SoCs für die populären Smartgeräte einfach mitliefert.

So wie heute beim Tegra wäre dann ein Tegra K1 nur für die Hersteller interessant, die nicht gleichzeitig auch Smartphone Hersteller sind. Das ist dann etwas dünn.

fondness
2014-01-06, 10:44:03
Man hat nicht mal irgendwas über mobil gesagt, nur Autos und Gaming.

Avalox
2014-01-06, 10:48:00
Man hat nicht mal irgendwas über mobil gesagt, nur Autos und Gaming.

5W ist schon mobil. Da gibt es nichts gegen zu sagen.

dildo4u
2014-01-06, 10:52:05
NVIDIA Tegra K1 Demo: Unreal Engine 4

http://youtu.be/GkJ5PupShfk

fondness
2014-01-06, 10:55:09
5W ist schon mobil. Da gibt es nichts gegen zu sagen.

Die Angabe der einzelnen Hersteller sind leider überhaupt nicht mehr Vergleichbar, da muss man Tests abwarten. Wenn dies nur durchschnittliche Verbrauchsangaben sind oder mit hoher Drosselung erreicht werden wie bei T4 wäre es für Smartphones schon grenzwertig.

dildo4u
2014-01-06, 10:58:00
Es nutzt keiner T4 in Smartphones dafür ist T4i.T5(K1) wird auch nur im Tablet zum Einsatz kommen,da man dort nicht zwingend LTE braucht.

Avalox
2014-01-06, 11:01:37
Die Angabe der einzelnen Hersteller sind leider überhaupt nicht mehr Vergleichbar, da muss man Tests abwarten. Wenn dies nur durchschnittliche Verbrauchsangaben sind oder mit hoher Drosselung erreicht werden wie bei T4 wäre es für Smartphones schon grenzwertig.

Fürs Smartphone wird es ohne Modem eh nichts.
Das Modem hat ja neben der Technik die große Herausforderung der Zulassung in den einzelnen Ländern, was ja die erhebliche Hürde darstellt.

Sobald ein Modem eines Drittherstellers gekauft wird, gibt es genau zwei Möglichkeiten. Entweder ist es so teuer, dass man gleich einen anderen SoC inkl. Modem kaufen kann, oder man hat keine Unterstützung aktueller Standards, was auch nicht attraktiv ist.

nVidia baut ja an einem eigenen Modem rum, aber leider hatten sie wohl nichts neues zu sagen.


Jedenfalls sieht man bei nVidia wo die Prio und der Fokus der nVidia Entwicklung liegt. Die Grafikkarte ist es jedenfalls nicht mehr.

Mancko
2014-01-06, 11:02:35
Auf der einen Seite begrüße ich, dass NV Richtung Automotive denkt, dann die Systeme mit Tegra, die man jetzt bekommen kann, sind schon stark, aber auf der anderen Seite kann die Sparte nicht einmal annähernd vom Volumen mit der mobilen Unterhaltungselektronik mithalten. Selbst wenn jedes Auto 2 SoCs hätte, wäre man beim Absatzvolumen bei rund 50% des Absatzes an Handys in einem Quartal. Wahrscheinlich werden die Margen leicht besser sein, aber spätestens wenn die SoCs nicht mehr nur Bestandteil hochwertiger Sonderausstattungen sind, wird auch dort der Preiskampf in der Branche voll einschlagen und Margen vernichten.


Ich find den Automotive Trend eigentlich gut. Als Geschäftsmann der viel im Auto unterwegs ist schätze ich die ganzen Funktionen die es da heute schon gibt sehr. Nvidia sollte hier vielleicht noch zusätzlich im Softwarebereich investieren. Vom Pricing her werden die Margen sicher höher sein. Mein A5 hat mich fast 62.000 Euro mit Vollausstattung gekostet. In den Preisregionen ist der SoC Preis schon fast wurscht.

Skysnake
2014-01-06, 11:08:23
Deinem Autobauer aber nicht...

Überleg mal, was dein 500€ Smartphone in der Herstellung kostet? 50-100$?

So und jetzt überleg mal wieviel dich deine Karre gekostet hat, und wieviel die PRoduktion inkl WErbund usw gekostet hat.

Und wenn du da durch bist, denk einfach mal darüber nach, wie viele Chips man da überhaupt absetzen kann im autobereich und wieviele bei Smartphones und Tablets.

Und da danach denk mal über die Entwiklungs aka Fixkosten nach...

Siehst du deine tolle Marge auch ins bodenlose schrumpfen?

Rein mit automotiv wird nVidia nicht aus der Verlustzone mit Tegra kommen. Das kannste knicken.

Coda
2014-01-06, 11:08:24
Der CPU Kern im Apple A7 hat ja einen IPC, welcher gleichauf mit dem eines schnellsten Intel Cores liegt.
Das halte ich für ein Gerücht. Haswell hat absolut brutale Execution-Resourcen und ein viel höheres Power-Budget.

Avalox
2014-01-06, 11:14:15
Das halte ich für ein Gerücht. Haswell hat absolut brutale Execution-Resourcen und ein viel höheres Power-Budget.

Na, IPC liegt schon durchaus auf Augenhöhe.

http://browser.primatelabs.com/geekbench3/compare/321857?baseline=321796

Natürlich skaliert die Rechenleistung mit den Takt nicht linear, die Speicheranbindung ist eine andere usw. usw.

Aber Apples Aussage mit dem neuen ARM CPU Kern Desktop Niveau zu erreichen, ist nicht unbegründet.

Mancko
2014-01-06, 11:14:49
Deinem Autobauer aber nicht...

Überleg mal, was dein 500€ Smartphone in der Herstellung kostet? 50-100$?

So und jetzt überleg mal wieviel dich deine Karre gekostet hat, und wieviel die PRoduktion inkl WErbund usw gekostet hat.

Und wenn du da durch bist, denk einfach mal darüber nach, wie viele Chips man da überhaupt absetzen kann im autobereich und wieviele bei Smartphones und Tablets.

Und da danach denk mal über die Entwiklungs aka Fixkosten nach...

Siehst du deine tolle Marge auch ins bodenlose schrumpfen?

Rein mit automotiv wird nVidia nicht aus der Verlustzone mit Tegra kommen. Das kannste knicken.

Es hat doch niemand von reinem Automotive gesprochen. Es ist ein Zusatzsgeschäft mehr nicht. In Bezug auf die Kosten bleib ich dabei. Ob der SoCo 15 oder 25$ kostet spielt in einem 60.0000 Euro Auto keine Rolle - speziell bei den deutschen Premiummarken. Es hat keiner von Tata oder Brilliance oder einem anderen Chinesen gesprochen.

Zur Serienausstattung wird sowas in absehbarer Zukunft auch nicht gehören. Deutsche Premiummarken leben mittlerweile erheblich von der Sonderausstattung. Die haben das Thema Sonderausstattung kurzerhand in den letzten Jahren zu einer Art "After Sales" umfunktioniert. Der Kunde muss für Autos tiefer in die Tasche greifen. Alle anderen ziehen damit nach. Das machen die Autobauer schon geschickt. Der Preis eines Audi A4 hat sich seit der Euro Einführung mehr als verdoppelt.

fondness
2014-01-06, 11:14:59
Too late. bitte löschen.

deekey777
2014-01-06, 11:19:15
Welche bisher ja alle nur jeweils aktive Quadcores sind oder nicht?
Diese Woche werden neue Octas angekündigt, die alle acht Kerne gleichzeitig arbeiten lassen können. Mediathek hat dies bereits angekündigt, wenn ich mich nicht irre.
Scheinbar ja.

.
Anscheinend.

@Topic

nVidia mag Android : "Android ist das wichtigste Betriebssystem seit 20 Jahren."
Wäre ja blöd, wenn sie iOS loben würden.

Mancko
2014-01-06, 11:21:29
Na, IPC liegt schon durchaus auf Augenhöhe.

http://browser.primatelabs.com/geekbench3/compare/321857?baseline=321796

Natürlich skaliert die Rechenleistung mit den Takt nicht Linear, die Speicheranbindung ist eine andere usw. usw.

Aber Apples Aussage mit dem neuen ARM CPU Kern auf Desktop Niveau zu erreichen, ist nicht unbegründet.

Ich finde etwas anderes als den Vergleich zu x86 bzw. den PC viel interessanter. Man schaue sich mal den Konsolen Markt an. Die ganzen kleinen mobilen Geräte sind aus meiner Sicht der Tod der Konsolen. Die aktuelle Generation wird wahrscheinlich die letzte sein bzw. wird der Stellenwert erheblich sinken. Die Dinger braucht man in Zukunft einfach nicht mehr, weil die Leistung von irgendwelchen Kleinstgeräten bereits erreicht wird.

Das ein PC die Konsolen regelmäßig überflügelt ist ja ein gewohntes Szenario. Er ist aber auch wesentlich teurer und natürlich aufwändiger in der Pflege bzw. komplizierter in der Handhabung.

Die ganzen mobilen Geräte mit den SoCs aber sind es nicht und wenn die dann zukünftig 1 Jahr nach Erscheinen einer Konsole diese überflügeln, dann sind die Konsolen wie wir sie kennen tot. Hinzu kommt Android. Ich glaube der Huang liegt nicht so wirklich falsch damit wenn er sagt, dass es das wichtigste Betriebssystem werden wird. Auch wenn man Google und deren Praktiken nicht mag bin ich erst mal grundsätzlich dankbar für jedes System, dass die Wintel Allianz und die geschlossenen Konsolensysteme aufbricht. Das ist gut für den Kunden und den Markt insgesamt denn es erhöht ganz massiv den Konkurrenzdruck.

Duplex
2014-01-06, 11:29:58
Ist den bereits bekannt wieviel Energie ein SMX Cluster mit 192 Shader benötigt?

AnarchX
2014-01-06, 11:32:27
Ist den bereits bekannt wieviel Energie ein SMX Cluster mit 192 Shader benötigt?
In einer Demo hatte man A6X (554MP4) Leistung mit 900mW für die GPU erreicht: http://www.anandtech.com/show/7169/nvidia-demonstrates-logan-soc-mobile-kepler/2

Coda
2014-01-06, 11:34:58
Na, IPC liegt schon durchaus auf Augenhöhe.

http://browser.primatelabs.com/geekbench3/compare/321857?baseline=321796

Natürlich skaliert die Rechenleistung mit den Takt nicht linear, die Speicheranbindung ist eine andere usw. usw.

Aber Apples Aussage mit dem neuen ARM CPU Kern Desktop Niveau zu erreichen, ist nicht unbegründet.
Geekbench ist für die Tonne, sorry.

Ich weiß es ist extrem schwer ARM gegen x86 zu messen aber diese Microbenchmarks sind nichtssagend, vor allem mit unterschiedlichen Compilern.

Ich fress nen Besen wenn Haswell in gängigem Code Cyclone nicht vernichtet in der IPC. Das ist einfach unplausibel bei den Transistor-Count und dem R&D-Vorsprung von Intel.

Skysnake
2014-01-06, 11:39:05
Ist den bereits bekannt wieviel Energie ein SMX Cluster mit 192 Shader benötigt?
Also wenn man nach den Folien vom July geht 2W.

Das würde bedeuten, man hat 3W für die CPU und das ganze restliche Geraffel.

http://www.ubergizmo.com/2013/07/nvidia-tegra-5-release-date-specs-news/

Avalox
2014-01-06, 11:41:27
Geekbench ist für die Tonne, sorry.

Eingeschätzt, oder mit konkreten Hintergrund? Natürlich ist es ein Benchmark,
aber gut geschlagen hat er sich bisher schon. Woher kommt die Ablehnung?


Apples Cyclone CPU hat den mächtigsten IPC Fortschritt zu dem direkten Vorgänger, bestimmt in den letzten 10 Jahren im Konsumerbereich gemacht. Verglichen mit der IPC der ARMv7 CPU Kerne der Wettbewerber spielt Apple dort tatsächlich auf einem ganz anderen Niveau.

Edit:
Na ja. Sehe die den neuen Punkte.
Da kann man sicher lange über die Hintergründe diskutieren.

Cyclone fährt einen doppelt so hoch getakteten Silvermont Atom Kern in Grund und Boden (mehr als vernichtet) und dieses Szenario lässt sich ja bei weiten besser testen. Die IPC Leistung von Cyclone liegt um Faktoren über den des Silvermount. Cyclone ist sehr beeindruckend. Aber natürlich ist die Anforderung eine völlig andere, als bei der Desktop CPU. Der angestrebte Takt ist weit geringer, die I/O Schnittstellen sind unproblematischer und natürlich hat Cyclone weit weniger zu tun in Sachen Energie sparen, als ein Intel Desktop Prozessor, von den mitgeschleppten Altlasten im Desktop gar nicht zu sprechen.

mboeller
2014-01-06, 11:56:18
365 GFlops / 192 Cores = 950 MHz?

2 Watt bei 950MHz -> eher nicht.

Hugo
2014-01-06, 12:02:08
hat Tegra K1 mit den A15/Denver Kernen den selben Namen?
haben Sie auch was zum Tegra 4i gesagt?

Skysnake
2014-01-06, 12:05:08
Nö zu Tegra 4i gabs rein gar nichts. Vielleicht wurde der auch komplett eingestampft :ugly: Und das ist jetzt sogar wirklich ernst gemeint! Mit dem Modem gabs ja Probleme mit der Zertifizierung von Verizon oder so. Hatte das leider nur SEHR flüchtig mitbekommen. Wenn das nicht durch ist, kanns eventuell wirklich sein, dass Sie das Ding komplett eingestampft haben. Das Modem sollte ja wenn ich mich richtig erinnere integriert sein. Zudem steht ja T5 auch in absehbarer Zeit in den Regalen.

@Name:
Also zu einem unterschiedlichen Namen wurde nichts gesagt.

Hugo
2014-01-06, 12:18:28
Nö zu Tegra 4i gabs rein gar nichts. Vielleicht wurde der auch komplett eingestampft :ugly: Und das ist jetzt sogar wirklich ernst gemeint! Mit dem Modem gabs ja Probleme mit der Zertifizierung von Verizon oder so. Hatte das leider nur SEHR flüchtig mitbekommen. Wenn das nicht durch ist, kanns eventuell wirklich sein, dass Sie das Ding komplett eingestampft haben. Das Modem sollte ja wenn ich mich richtig erinnere integriert sein. Zudem steht ja T5 auch in absehbarer Zeit in den Regalen.

@Name:
Also zu einem unterschiedlichen Namen wurde nichts gesagt.

eingestampft :confused:
Hmm ich dachte das wäre nen guter Mittelklasse SoC, vielleicht auch was für mein nächstes Handy.

Hat der Tegra K1 mit Denver-Cores auch den Companion-Core?

Dafür das immer viel spekuliert wurde, über das ominöse Projekt "Denver", hätte ich ein wenig mehr Info's erwartet.

fondness
2014-01-06, 12:36:40
Stimmt T4i fehlt komplett. Vielleicht ist das der gecancelte Chip den Carlie ansprach....oder wie war das noch mal schnell? Jedenfalls sollte der ja ursprünglich noch dieses Jahr, zumindest vor T5 kommen.

fondness
2014-01-06, 12:40:36
Ich finde etwas anderes als den Vergleich zu x86 bzw. den PC viel interessanter. Man schaue sich mal den Konsolen Markt an. Die ganzen kleinen mobilen Geräte sind aus meiner Sicht der Tod der Konsolen. Die aktuelle Generation wird wahrscheinlich die letzte sein bzw. wird der Stellenwert erheblich sinken. Die Dinger braucht man in Zukunft einfach nicht mehr, weil die Leistung von irgendwelchen Kleinstgeräten bereits erreicht wird.

Das ein PC die Konsolen regelmäßig überflügelt ist ja ein gewohntes Szenario. Er ist aber auch wesentlich teurer und natürlich aufwändiger in der Pflege bzw. komplizierter in der Handhabung.

Die ganzen mobilen Geräte mit den SoCs aber sind es nicht und wenn die dann zukünftig 1 Jahr nach Erscheinen einer Konsole diese überflügeln, dann sind die Konsolen wie wir sie kennen tot. Hinzu kommt Android. Ich glaube der Huang liegt nicht so wirklich falsch damit wenn er sagt, dass es das wichtigste Betriebssystem werden wird. Auch wenn man Google und deren Praktiken nicht mag bin ich erst mal grundsätzlich dankbar für jedes System, dass die Wintel Allianz und die geschlossenen Konsolensysteme aufbricht. Das ist gut für den Kunden und den Markt insgesamt denn es erhöht ganz massiv den Konkurrenzdruck.

Das hört man bereits so lange, die Konsolen marschieren dabei jedes Jahr von Verkaufsrekord zu Verkaufsrekord. Und von den 192SPs des T5 zu den 1280SPs einer PS4 ist es doch noch ein gutes Stück, das dauert locker 5 Jahre, eher länger bis man da aufschließt. Und bereits T5 kommt mindestens ein dreiviertel Jahr nach der PS4.

Das man ein Jahr nach Erscheinen die Konsolen überflügelt ist also ein vollkommen unrealistisches Szenario, Huang vergleicht mit der Xbox 360 die seit 2005(!) am Markt ist.

dildo4u
2014-01-06, 12:40:40
Stimmt T4i fehlt komplett. Vielleicht ist das der gecancelte Chip den Carlie ansprach....oder wie war das noch mal schnell? Jedenfalls sollte der ja ursprünglich noch dieses Jahr, zumindest vor T5 kommen.
T4i Q1 2014 News ist vom Juni,das Problem war endlich das eigen LTE Modem zu Integrieren.Der wichtigste Schritt seit der Einführung von Tegra und man hat in dem Bereich AMD und Intel geschlagen.
Die haben keine LTE Modems in ihren APU's.

http://bgr.com/2013/06/11/nvidia-tegra-4i-release-date/

Sunrise
2014-01-06, 12:42:06
Stimmt T4i fehlt komplett. Vielleicht ist das der gecancelte Chip den Carlie ansprach....oder wie war das noch mal schnell? Jedenfalls sollte der ja ursprünglich noch dieses Jahr, zumindest vor T5 kommen.
Der kommt wohl trotzdem noch. NV wollte da jetzt aber anscheinend erster sein mit den aktuellen Entwicklungen, weil sie sonst für dieses Jahr sonst nichts mehr Interessantes zu bieten haben. Da prescht man eben mal schnell vor und stellt klar, dass man mit allen Brecheisen unbedingt in die High-End-Nische will.

Mich würde übrigens mal interessieren, ob der K1 mit den A15-Kernen (was sich für mich aktuell so darstellt) in 28nm HPM kommt und die Denver-Variante ebenso. Denn einerseits werkelt man da schon recht lange rum, und 28nm HPM wäre daher am wahrscheinlichsten. Andererseits hat NV bereits 20nm SoC-Kapazitäten bei TSMC gebucht und ich frage mich, was das sonst sein soll. Sind das die Denver+Maxwell-Varianten?

Avalox
2014-01-06, 13:00:25
eingestampft :confused:
Hmm ich dachte das wäre nen guter Mittelklasse SoC, vielleicht auch was für mein nächstes Handy.


Ein Mittelklasse SoC morgen, ist aber nicht mehr der von vorgestern.
Arm lizenziert die äusserst günstigen und hinreichend schnellen Cortex A7, diese sogar in ihrer 64Bit Inkarnation Cortex A53.
Selbst Qualcomm erdet für die günstige Reihe ihre Eigenentwicklung.
Auf der anderen Seite erscheinen Arm CPU Kerne mit einer weit aus höheren IPC, als der des aufgedrämelten Cortex A9 im Tegra 4i
nVidia fehlte zum Tegra 4i einfach das Modem und nun ist der CPU Kern nicht mehr toll.

Zwei niedrig getakteter Denver Kerne erscheint dort vielleicht zielführender. Ansonsten kann nVidia sich für eine günstige Reihe bei ARM bedienen. Schlüssel ist das Modem. Inzwischen ist man ja beim LTE Nachfolger angekommen. (soviel zu Long Term)



Hat der Tegra K1 mit Denver-Cores auch den Companion-Core?


Sieht nicht so aus.

Ailuros
2014-01-06, 13:27:25
365 GFlops / 192 Cores = 950 MHz?

2 Watt bei 950MHz -> eher nicht.

Bei uns ist heute ein Feiertag ergo wollte ich mir nicht den Tag mit NV's Mist versauen und hab mich deshalb davon weggehalten; das meiste war ja schon bekannt.

Die meisten sollten abwarten wie und was genau in finalen Geraeten integriert wird, bevor man zu zu bunten Schlussfolgerungen kommt. Dass die peak Frequenz fuer GK20A ueber 950MHz liegen wird, war schon seit einer Ewigkeit klar.

Uebrigens muss NV's technisches marketing wohl mit Denver denn ersten doppelten Besen fressen: "nur" dual core und kein N+1. Denver scheint auch nicht mainstream Material zu sein.

Dural
2014-01-06, 13:33:43
T4i war schon immer für Q1 2014 angekündigt. Denke da kommt was im Februar aus Spanien.

Schnitzl
2014-01-06, 13:41:06
T4i war schon immer für Q1 2014 angekündigt. Denke da kommt was im Februar aus Spanien.
Seltsam, warum wurde der T4i dann heute nicht erwähnt?
Die letzte News ist vom Juni 2013
Ich befürchte eher man sagt nix weil man nix hat. :(

Ailuros
2014-01-06, 13:43:33
Die A15 im K1 sind uebrigens R3, da hat sich jemand im Hintergrund darueber verzettelt und dummerweise R4 angegeben (wenn es R4 ueberhaupt gibt heh...). Es duerfte pro Takt ca. 20% mehr Effizienz im Vergleich zu den ersten A15 cores liegen (Exynos 5250), bleibt jetzt abzusehen wie perf/mW bei 2.3GHz genau aussieht.

Seltsam, warum wurde der T4i dann heute nicht erwähnt?
Die letzte News ist vom Juni 2013
Ich befürchte eher man sagt nix weil man nix hat. :(

Es wird vieles "seltsames" im naechsten Jahr erscheinen fuer Tegra; Du bist mit Deiner Vorbehalte schon auf dem richtigen Pfad.

Duplex
2014-01-06, 14:04:16
Also wenn man nach den Folien vom July geht 2W.

2W für 1-SMX mit 192 Shader ist doch Super.
Dann wissen wir ja ungefähr was später in 16FinFET zu erwarten ist, mind. das doppelte :smile:

Ailuros
2014-01-06, 14:12:14
2W für 1-SMX mit 192 Shader ist doch Super.
Dann wissen wir ja ungefähr was später in 16FinFET zu erwarten ist, mind. das doppelte :smile:

Das "aber" hier ist dass es eben nicht mit der peak Frequenz unbedingt kombiniert ist; http://www.nvidia.com/object/tegra-k1-processor.html sagen Dir die package size Unterschiede etwas?

16 FinFET ist noch 1.5 Jahr entfernt, bis dann kann vieles passieren.

Skysnake
2014-01-06, 14:21:14
2W für 1-SMX mit 192 Shader ist doch Super.
Dann wissen wir ja ungefähr was später in 16FinFET zu erwarten ist, mind. das doppelte :smile:
Nur sind die 2W sowas von ner Nullaussage, weil die Randbedingungen nicht bekannt sind. Zudem ist es eben eine ALTE! Aussage.

Wer weiß wie sich PErf/W am Ende wirklich entwickelt hat. Ist ja nicht so, das nVidia noch nie zurückrudern musste was Perf/W anbetrifft....

Ailuros
2014-01-06, 14:28:35
Nur sind die 2W sowas von ner Nullaussage, weil die Randbedingungen nicht bekannt sind. Zudem ist es eben eine ALTE! Aussage.

Wer weiß wie sich PErf/W am Ende wirklich entwickelt hat. Ist ja nicht so, das nVidia noch nie zurückrudern musste was Perf/W anbetrifft....

Frequenz mal zur Seite, 2W fuer 192SPs/8TMUs@DX11.x sind schon verdammt imposant.

Ich muss wohl uebrigens noch einen Rueckzieher machen: wenn NV fuer dieses Jahr nur einen einzigen 20SoC bin geplant hat dann ist Denver/Tegra der wahrscheinlichste Kandidat sonst hauen auch NV's perf/W Schaetzungen dafuer nicht rein.

Ravenhearth
2014-01-06, 14:34:00
Wenn NV den 4i/Grey nicht mehr bringt, womit will man dann dieses Jahr in Smartphones (Massenmarkt)? Den K1 wird es, wenn überhaupt, imho nur in wenigen Phones geben, wie schon den T4.

Avalox
2014-01-06, 14:37:02
Wenn NV den 4i/Grey nicht mehr bringt, womit will man dann dieses Jahr in Smartphones (Massenmarkt)? Den K1 wird es, wenn überhaupt, imho nur in wenigen Phones geben, wie schon den T4.

nVidia hat nichts von Smartphone Markt erzählt.

Sie haben erzählt, dass Android Spitze ist (stimmt natürlich) und das nVidia Android auf den "nicht bisherigen" Markt auszuweiten sieht.

Blediator16
2014-01-06, 14:55:17
Wer glaubt jetzt alles, was da erzählt wurde?

Ailuros
2014-01-06, 14:58:34
Wer glaubt jetzt alles, was da erzählt wurde?

Ich. Ich weiss aber auch innerhalb von Grenzen was fuer was genau steht.

MadManniMan
2014-01-06, 15:03:03
NVIDIA Tegra K1 Demo: Unreal Engine 4

http://youtu.be/GkJ5PupShfk

Diese Ruckelbilder sind Promo? Seriously?

Skysnake
2014-01-06, 15:04:37
Frequenz mal zur Seite, 2W fuer 192SPs/8TMUs@DX11.x sind schon verdammt imposant.

Ich muss wohl uebrigens noch einen Rueckzieher machen: wenn NV fuer dieses Jahr nur einen einzigen 20SoC bin geplant hat dann ist Denver/Tegra der wahrscheinlichste Kandidat sonst hauen auch NV's perf/W Schaetzungen dafuer nicht rein.
Du musst aber auch berücksichtigen, dass der RAM aufs Package gewandert ist.

Dazu kommt noch das fehlende Modem usw.

Auch ist nicht klar, was eben in den 2W alles drin ist. Sind da bleastete ROPs mit drin oder nicht usw usw usw.

Klar hören sich 2W nicht schlecht an, aber hexen kann nVidia auch nicht. Zudem wird bei sowas auch gern schön gerechnet, und sorry, nach dem Bullshit den Samsung, nVidia und Konsorten im Ultra-Mobile-bereich aktuell abgezogen haben glaub ich keinem von denen auch nur noch ein Wörtchen was Perf/W anbelangt....

Undertaker
2014-01-06, 15:10:53
Bzgl. Perf/Watt kann man auch einfach mal die TDP-Werte beiseite lassen und einfach auf die 60 fps im TRex 1080p Offscreen schauen. Und zwar in einem 7" Tablet mit passiver Kühlung. Das ist mal eben doppelt so schnell wie ein Apple A7 und das Niveau der HD 4400.

Da kommt derzeit nichts, aber auch gar nichts der Konkurrenz auch nur annähernd heran. Und schon gar nichts mit dem Featureumfang.

Ailuros
2014-01-06, 15:10:53
Klar hören sich 2W nicht schlecht an, aber hexen kann nVidia auch nicht. Zudem wird bei sowas auch gern schön gerechnet, und sorry, nach dem Bullshit den Samsung, nVidia und Konsorten im Ultra-Mobile-bereich aktuell abgezogen haben glaub ich keinem von denen auch nur noch ein Wörtchen was Perf/W anbelangt....

Ich vergleich es stets zu dem was die Konkurrenz hat oder haben wird im vergleichbarem Zeitraum.

Apple A7 GPU:

160 SPs@466MHz (?)
DX10.0
SoC TDP = 5W (ergo wird die GPU schon bis zu 2-2.5W davon verpuffern)

QCOM Adreno420 (S805):

128 SPs@500MHz
DX11

Nun wird wohl bei der CES IMG z.B. ihre DX11.x GPU IP wohl ankuendigen als Gegenbeispiel, wird aber einige Zeit dauern bis es integriert wird von Partnern ausser Apple hat mal wieder "Vorsprung" bekommen und es hockt etwas davon schon im iPad PRO im Herbst.

Blediator16
2014-01-06, 15:11:33
Diese Ruckelbilder sind Promo? Seriously?

Man muss sich mal überlegen. Eine Demo. Eine Demo war noch nie ein Anhaltpunkt eher schlimmer, es war immer besser als das Endresultat.

gnahr
2014-01-06, 15:12:37
Jo und wie willst das ganze kühlen? Bei 50-60°C Umgebungstemperatur??
brätst du spiegeleier auf dem lenkrad?
ähm wie wär es mit nem größeren kühler? kein problem in nem auto von locker 500kg bzw. eher dem dreifachen.
wie wär es mit fahrtwind? wie wär es mit nem lauten lüfter, die karosserie ist eh auf geräuschabsorption ausgelegt.

jammy, langsam bekomm ich richtig lust auf nen dedizierten maxwell fürs entertainment im wagen. von wegen car-pc im handschuhfach oder nem ollen dvd-player für die rückbank. echter kinderkram gegen die mögliche leistung.

Ailuros
2014-01-06, 15:14:09
Bzgl. Perf/Watt kann man auch einfach mal die TDP-Werte beiseite lassen und einfach auf die 60 fps im TRex 1080p Offscreen schauen. Und zwar in einem 7" Tablet mit passiver Kühlung. Das ist mal eben doppelt so schnell wie ein Apple A7 und das Niveau der HD 4400.

Da kommt derzeit nichts, aber auch gar nichts der Konkurrenz auch nur annähernd heran. Und schon gar nichts mit dem Featureumfang.

Ich wuerde trotz allem auf die REALE GLB2.7 Leistung eines 7" tablets abwarten; aendert zwar nichts an meinem vorigen Post aber die 60fps wirst Du wohl nicht sooo leicht in einem passiv gekuehltem mainstream Produkt sehen.

Ailuros
2014-01-06, 15:16:34
brätst du spiegeleier auf dem lenkrad?
ähm wie wär es mit nem größeren kühler? kein problem in nem auto von locker 500kg bzw. eher dem dreifachen.
wie wär es mit fahrtwind? wie wär es mit nem lauten lüfter, die karosserie ist eh auf geräuschabsorption ausgelegt.

jammy, langsam bekomm ich richtig lust auf nen dedizierten maxwell fürs entertainment im wagen. von wegen car-pc im handschuhfach oder nem ollen dvd-player für die rückbank. echter kinderkram gegen die mögliche leistung.

Wenn's zu Kinderkram kommt ist Deine Schreibart wohl das beste Beispiel. Wieso sollte sich ueberhaupt jemand die Muehe machen das Kauderwelsch zu verstehen?

Undertaker
2014-01-06, 15:20:16
Ich wuerde trotz allem auf die REALE GLB2.7 Leistung eines 7" tablets abwarten; aendert zwar nichts an meinem vorigen Post aber die 60fps wirst Du wohl nicht sooo leicht in einem passiv gekuehltem mainstream Produkt sehen.

Ich weiß bislang noch nichts zu verschiedenen Varianten mit unterschiedlicher Taktrate, aber dass das Referenztablet derart flink sein soll ist auf jeden Fall vielversprechend. Selbst wenn wir ein paar Prozent Marketing-Übertreibung abziehen. ;)

Betonung des letzten Posts lag auch auf dem "derzeit" - jetzt gilt es, das Ding schnellstmöglich auf den Markt zu bekommen.

Skysnake
2014-01-06, 15:20:39
Ailuros, das ist halt der Punkt.

Von der Konkurrenz kommt auch neues Sach, und die werden auch Ram on Package und solche Ferz bringen. Vor einem Jahr hätte nVidida damit alle alt aussehen lassen. Wenn man aber sich so anschaut, was man rumoren hört, ist die Konkurrenz eben auch so weit. Im Prinzip auch nicht verwunderlich. Nutzen Sie doch alle den gleichen Hersteller...

Und von denen ist halt keiner wirklich ein extremer Angsthase was Neues zu bringen.

Also nicht falsch verstehen, ich gehe davon aus, das nVidia besser dasteht, als mit den Tegras zuvor! Aber ich habe da so meine Zweifel ob das für den Mobilebreich wirklich reicht. Da sind einfach noch zu viele Hacken an der STory dran wie das Modem usw.

Das vergrault einem die OEM Kunden.

Zudem hat sich nVidia eben mit den bisherigen Tegras nicht mit Ruhm bekleckert. Da ist viel Vertrauen kaputt gegangen.

Vor 2 Jahren hätten 2% bessere Perf/W usw gereicht um in so manchen Deal rein zu kommen, aber nach allem was bisher passiert ist, wird das heute nicht mehr reichen.

Ganz im Ernst, wer holt sich denn freiwillig nVidia ins Boot nach allem was Sie mit Tegra bisher abgeliefert haben? Da ist doch Null vertrauen da, dass die das auch wirklich alles intime gebacken bekommen.

Wenn die 10%+ besser sind ja, dann drängen Sie sich auf, weil man nicht mehr so einfach drüber wegschauen kann. Dann können Sie auch sich beweisen, aber ich habe so meine Zweifel, ob Sie halt überhaupt die Chance bekommen sich zu beweisen :(

Hübie
2014-01-06, 15:21:33
Coda, also wenn ich mir die Presse so anschaue, egal ob CB, THG oder Hardwareluxx, die gehen alle auf "CUDA-Cores" und nicht einfach nur Cores. Gerade die nicht ganz so informierten würden halt sehr leicht die 192 Cores mit normalen CPU Cores wie beim Quad/Octa-core von Samsung usw vergleichen.

Huang hat mit seiner umständlichen und "speziellen" formulierung zur Latenz bei der Nutzung von Streaming über 6k Meilen auch direkt ein Opfer gefunden, das drauf reingefallen ist...

Ich weiß schon genau, warum mich sowas aufregt...


Muss man mehr dazu sagen? (http://www.hardwareluxx.de/index.php/news/hardware/prozessoren/29265-ces-2014-nvidia-praesentiert-den-tegra-k1.html)

Versteh ich dich falsch oder wie?

http://abload.de/img/googletraceroutezpuzn.png (http://abload.de/image.php?img=googletraceroutezpuzn.png)

Was guckst dir das auch an wenn du eh nur bashen willst? :rolleyes: Die kommenden Maxwell-Gurken interessieren doch eh keine Sau oder? Man, selbst Intels Gurken sind fast so schnell. Was soll der Scheiß?

@AnarchX: Der war gut ;D;D:freak:

So einen Chip an das Klimagerät mit anzuschließen sollte ja nun wirklich kein Problem darstellen. Die glänzen mit einigen Kilowatt! :rolleyes: Als obs den Klimakompressor jucken würde wenn da noch so ein popeliger Chip dran hängt.

Ailuros
2014-01-06, 15:26:49
Ich weiß bislang noch nichts zu verschiedenen Varianten mit unterschiedlicher Taktrate, aber dass das Referenztablet derart flink sein soll ist auf jeden Fall vielversprechend. Selbst wenn wir ein paar Prozent Marketing-Übertreibung abziehen. ;)

Betonung des letzten Posts lag auch auf dem "derzeit" - jetzt gilt es, das Ding schnellstmöglich auf den Markt zu bekommen.

60 fps sind 3.5x Mal so viel wie GK20A im vorigen Vorzeige-modus bei ~900mW erreichte. Linear der Stromverbrauch hochskaliert sind es 3.2W nur fuer die GPU bei absolut linearer Skalierung zwischen Leistung und Stromvebrauch.

Sunrise
2014-01-06, 15:43:49
Ich muss wohl uebrigens noch einen Rueckzieher machen: wenn NV fuer dieses Jahr nur einen einzigen 20SoC bin geplant hat dann ist Denver/Tegra der wahrscheinlichste Kandidat sonst hauen auch NV's perf/W Schaetzungen dafuer nicht rein.
Da sind wir dann ja auf dem selben Trichter, so war mein vorheriger Post auch gemeint. Ich wüsste sonst nicht, wofür NV da Kapazität bei TSMC gebucht hat. Das würde zumindest zeitlich zur angegebenen Verfügbarkeit passen, da Apple in etwa im gleichen Zeitraum mit A8 kommen wird. Mal davon ab, dass NV da erstmal noch was zu beweisen hat, was echte Verfügbarkeit angeht. Und ob das dann gleich fertige Produkte betrifft, wie bei Apple, will ich mal stark bezweifeln.

Anders sehe das natürlich dann aus, wenn der noch auf 28nm HPM wäre. Aber dafür kommt das Ding einfach zu spät, wenn man mal bedenkt, warum NV so lange für das Teil benötigt. Das wäre schon etwas eigenartig.

Bei Parker wartet man wohl definitiv auf FinFETs.

Man merkt aber schon, dass NV da massiv in Richtung Tegra geht, wenn die so weitermachen.

Skysnake
2014-01-06, 16:18:22
Dir ist schon klar, dass das nicht stimmen kann?

Du hast von Frankfurt an die Westküste der USA 18,759ms. Damit kommste aber nur 5624km weit. Da haste es noch nicht mal über den Atlantik geschafft...

Ganz abgesehen davon, dass die Hopwerte am Ende auch sehr komisch aussehen. Aber gut. Haste am Ende ne Gesamtlatenz von 52,919ms Das sind halt immer noch 76% mehr.

Auch nutzt du bei der Verbindung, wie es aussieht einen Sat-Link, wobei die Werte dafür eigentlich fast zu niedrig sind.

Ach und btw. dir ist schon aufgefallen, dass das ne Google IP ist?

Ich wäre mir da gar nicht mal sicher, dass der Ping überhaupt je Europa verlassen hat, und nicht von Google in deren Rechenzentren vorher abgefangen wurde. Wenn ich mich grad an die Verfolgung der IPs erinnere läuftst du vorher nämlich schonmal über ne IP, die Google gehört.

Müsste man sich aber nochmal genau anschauen.

Wenn ich mir aber z.B. mal M5 (http://www.m5industries.com/) anschaue, die auch da in der Nähe ne IP haben, dann sieht das schon wieder GANZ anders aus...

Da haste dann nämlich ne Latenz von knapp 200 ms..

Oder schau dir doch z.B. mal die IP an, die auch in San Francisco lokalisiert ist: 64.30.133.3

auch wieder knapp 200ms. Komisch nee...

EDIT:
@Topic:
Für Elektronik im automotiven Bereich gelten ziemlich hohe Anforderungen an die Technik. Die muss meist von -30 bis >+60°C funktionieren. Frag mich nicht genau wie hoch, aber an die 90°C wird wahrscheinlich getestet werden.

Die tolle Klima muss ja auch erstmal anlaufen. Wenn dein Wagen in Dubai bei 40°C im Schatten 3 Stunden in der prallen Sonne Stand, muss er ja genau so funktionieren wie wenn er bei Minus 30°C in Alaska über NAcht stand....

Das sollte man NICHT aus der Augen verlieren. Die Anforderungen an Elektronik im Automobilbereich ist deutlich höher als die an Smartphones und so Späße.

Sunrise
2014-01-06, 16:26:20
Man sieht doch schon am DNS, dass er da noch Hamburg gepingt hat. Zumindest wenn die DNS auch die Ortschaft in Kurzform enthalten, was normalerweise auch oft Praxis ist. Ich bekomme da zwischen 20ms und 35ms raus, was niemals möglich ist, wenn es direkt in die USA und wieder zurück gehen soll.

Coda
2014-01-06, 16:28:18
K1 kann ASTC. Das ist wirklich interessant.

Timbaloo
2014-01-06, 16:29:06
@Topic:
Für Elektronik im automotiven Bereich gelten ziemlich hohe Anforderungen an die Technik. Die muss meist von -30 bis >+60°C funktionieren. Frag mich nicht genau wie hoch, aber an die 90°C wird wahrscheinlich getestet werden.
Kurz: Du weisst eigentlich nichts aber wolltest mal was zum Thema sagen das nichtmal Thema ist.

gnahr
2014-01-06, 16:31:41
@Topic:
Für Elektronik im automotiven Bereich gelten ziemlich hohe Anforderungen an die Technik.
ach und smartphones werden generell mit region-lock verkauft und betrieben?

Nightspider
2014-01-06, 16:39:58
Braucht man das in einem mobilen Chip?

Ailuros
2014-01-06, 16:42:42
K1 kann ASTC. Das ist wirklich interessant.

Es waere wohl jeglicher GPU Hersteller ziemlich bloed einen offenen standard wie ASTC nicht zu unterstuetzen. Ueberhaupt mit den Vorteilen vom letzteren.

Braucht man das in einem mobilen Chip?

Gerade dort! Imaginations PVRTC ist proprietaer und man muss es lizenzieren um es benutzen zu koennen. ASTC laeuft nicht nur auf einer aehnlichen Schiene, es erweitert sogar an einige Stellen und zum allerbesten es ist umsonst.

Die Konsolen ISVs wuerden jubeln wenn sie Textur-Kompression bekommen wuerden die auf 2bpp oder sogar 1bpp stellenweise reduziert.

Timbaloo
2014-01-06, 16:54:42
Gibt es denn genaueres zu den Denver-Kernen? Also ausser dem was man aus dem "One Chip - Two Versions" Slide kennt? (also 64-Bit, 7-fach Superskalar, <=25.GHz, Cachesize)

mboeller
2014-01-06, 17:13:33
hübsch,

schaut so aus, als ob die CPU im K1 bis zu ~1,6W pro Core braucht (bei 2,3GHz). Zusammen wären das dann 6,4W für die CPUs alleine. Die werden also nie alle 4 zusammen mit 2,3GHz laufen.

Quelle: http://images.anandtech.com/doci/7622/Screen%20Shot%202014-01-06%20at%206.18.12%20AM_575px.png

http://www.anandtech.com/show/7622/nvidia-tegra-k1

Coda
2014-01-06, 17:22:19
Es waere wohl jeglicher GPU Hersteller ziemlich bloed einen offenen standard wie ASTC nicht zu unterstuetzen. Ueberhaupt mit den Vorteilen vom letzteren.
Je nachdem wie ASTC genau spezifiziert ist, ist das aber möglicherweise gar nicht so einfach. Die ganzen DX-Formate sind extrem ähnlich mit Ausnahme von BC6 und BC7.

dildo4u
2014-01-06, 17:24:55
hübsch,

schaut so aus, als ob die CPU im K1 bis zu ~1,6W pro Core braucht (bei 2,3GHz). Zusammen wären das dann 6,4W für die CPUs alleine. Die werden also nie alle 4 zusammen mit 2,3GHz laufen.

Quelle: http://images.anandtech.com/doci/7622/Screen%20Shot%202014-01-06%20at%206.18.12%20AM_575px.png

http://www.anandtech.com/show/7622/nvidia-tegra-k1
Ist halt ein Lückenfüller bis Denver kommt laut anandtech macht der Chip wesentlich mehr Sinn.

Skysnake
2014-01-06, 17:25:34
Gibt es denn genaueres zu den Denver-Kernen? Also ausser dem was man aus dem "One Chip - Two Versions" Slide kennt? (also 64-Bit, 7-fach Superskalar, <=25.GHz, Cachesize)
Nein, mehr gibts nicht. Mir wäre zumindest nichts anderes bekannt.

Timbaloo
2014-01-06, 17:27:12
Nein, mehr gibts nicht. Mir wäre zumindest nichts anderes bekannt.
Schade :(

dildo4u
2014-01-06, 17:29:34
Ist NV mit Denver dann eigentlich der King im CPU und GPU Bereich?Alle anderen ARM SOC scheinen 2014 A15 Core's zu nutzen.

Timbaloo
2014-01-06, 17:32:10
Ist NV mit Denver dann eigentlich der King im CPU und GPU Bereich?Alle anderen ARM SOC scheinen 2014 A15 Core's zu nutzen.
Apple nicht.

Gipsel
2014-01-06, 17:39:01
Laut Jensen "highly multi-threaded" und eben 7-way.
Denver überrascht und das die Cores so fett sind, wow.Auch ein Krait von Qualcomm hat sieben issue ports. Hilft auch nicht soo viel und bedeutet auch nicht, daß er 7way superskalar ist (zumindest nicht im allgemeinen Sprachgebrauch). Wenn man so zählt, wäre ein alter K7 9-way superskalar. Merke: Die Anzahl der Issue Ports ist kein Maß für die Performance und auch kein Maß dafür, wieviele Instruktionen pro Takt (sustained) ein Kern letztendlich ausführen kann, da Front- (Decoder) bzw. Backend (Retire) das normalerweise limitieren (mal ganz abgesehen von anderen potentiellen Performancebremsen).

Skysnake
2014-01-06, 17:40:32
hübsch,

schaut so aus, als ob die CPU im K1 bis zu ~1,6W pro Core braucht (bei 2,3GHz). Zusammen wären das dann 6,4W für die CPUs alleine. Die werden also nie alle 4 zusammen mit 2,3GHz laufen.

Quelle: http://images.anandtech.com/doci/7622/Screen%20Shot%202014-01-06%20at%206.18.12%20AM_575px.png

http://www.anandtech.com/show/7622/nvidia-tegra-k1
Ah cool DANKE!

Also das scheint wirklich ein echter, wenn wohl auch geshoppter DIE-Shot zu sein.

Wie es scheint, hat man maximal ein 192 Bit Interface. Von den Pads her siehts zumindest so aus, als ob man ~192 differenzielle Leitungspaare hätte an der oberen Kannte, wo ja auch der Speicher sitzt auf dem Bild vom Package.

Was das unten links sein soll weiß ich nicht so recht. Nach PCI-E sieht es aber nicht wirklich aus.

Rechts und links an den Kanten die Pads sehen auch seltsam aus, keine Ahnung für was die da sein sollen? Ground vielleicht? Oder Stromversorgung? Oder ist das PCI-E/Memory und das oben dann eventuell PCI-E?

Was man aber mit absoluter Sicherheit sagen kann ist, dass das Ding kein Modem drin hat.

Gipsel
2014-01-06, 17:43:17
Also das scheint wirklich ein echter, wenn wohl auch geshoppter DIE-Shot zu sein.Da ist gar nichts echt dran.

Skysnake
2014-01-06, 17:53:33
Hab ich schon befürchtet, bzw das Licht ging mir auch inzwischen auf, als ich T3 und T4(i) "DIE"-Shots mir angehschaut habe.

Die sehen sehr sehr ähnlich aus. Das ist wirklich geshoppt. Frag sich nur, ob einfach "wild" was zusammengeklickt wurde, oder nen Replacement passiert ist. Paar Sachen sehen ja durchaus halbwegs vernünftig aus für nen Ground/Metal layer.

Wenn man sich aber auf jeden Fall T3 vs T4(i) anschaut und dann das T5 Bild, dann könnte das unten links wohl wirklich für nen PCI-E Interface stehen. Sieht zumindest so aus wie das, was Sie einem auf dem T3 wohl als PCI-E verkauft haben.

Stellt sich nur die Frage, warum die wieder PCI-E rein gepackt haben, nachdem es beim T4 raus geflogen ist. :confused:

Oder man kann das Ding wirklich einfach in die Tonne treten ;D

Ich bin mal gespannt, was noch an Infos kommt die nächsten Monate. Irgendwie steht man nach dem Event fast genau so dumm da wie zuvor :(

Ailuros
2014-01-06, 17:56:01
Ist NV mit Denver dann eigentlich der King im CPU und GPU Bereich?Alle anderen ARM SOC scheinen 2014 A15 Core's zu nutzen.

Ich setz Dir auch gerne eine Krone aufs Haupt wenn Du mir nur erzaehlt von was Du Koenig sein willst.

Hab ich schon befürchtet, bzw das Licht ging mir auch inzwischen auf, als ich T3 und T4(i) "DIE"-Shots mir angehschaut habe.

Die sehen sehr sehr ähnlich aus. Das ist wirklich geshoppt. Frag sich nur, ob einfach "wild" was zusammengeklickt wurde, oder nen Replacement passiert ist. Paar Sachen sehen ja durchaus halbwegs vernünftig aus für nen Ground/Metal layer.

Wenn man sich aber auf jeden Fall T3 vs T4(i) anschaut und dann das T5 Bild, dann könnte das unten links wohl wirklich für nen PCI-E Interface stehen. Sieht zumindest so aus wie das, was Sie einem auf dem T3 wohl als PCI-E verkauft haben.

Stellt sich nur die Frage, warum die wieder PCI-E rein gepackt haben, nachdem es beim T4 raus geflogen ist. :confused:

Oder man kann das Ding wirklich einfach in die Tonne treten ;D

Ich bin mal gespannt, was noch an Infos kommt die nächsten Monate. Irgendwie steht man nach dem Event fast genau so dumm da wie zuvor :(

Der letzte echte die shot war noch von T3 wenn ich mich nicht irre; von T4 gab's nie etwas reales afaik.

Der nachgemalte Scheiss den sie in letzter Zeit benutzen ist nutzlos.

Eine realistischere Illustration waere vielleicht dieses, dass die GPU ungefaehr 1/4 des SoCs einnimmt klingt realistischer:

http://images.anandtech.com/doci/7622/Screen%20Shot%202014-01-06%20at%206.32.49%20AM_678x452.png

http://www.anandtech.com/show/7622/nvidia-tegra-k1


***edit:

Ergo haben wir fuer die GPU (GK20A) im K1:

192 SPs (6*SIMD32) FP32 (365 GFLOPs/s FP32)
8 SPs FP64 (15.2 GFLOPs/s FP64)
8 TMUs
4 ROPs
DX11.2/OGL4.4
ASTC
951MHz core clock (peak)

mboeller
2014-01-06, 18:07:42
Ah cool DANKE!

Also das scheint wirklich ein echter, wenn wohl auch geshoppter DIE-Shot zu sein.

Wie es scheint, hat man maximal ein 192 Bit Interface.

du hättest einfach nur den letzten Absatz im Artikel lesen sollen:


Feeding the CPU (and GPU) cores is a 64-bit wide LPDDR3 memory interface. NVIDIA will offer Tegra K1 in PoP, discrete and another package revision for standard clamshell notebook use.


nix 192bit.....nix 128bit....nur 64bit. ;)


edit: Seite 2 des Artikels:

NVIDIA announced that Denver would have a 128KB L1 instruction cache and a 64KB L1 data cache. It’s fairly unusual to see imbalanced L1 I/D caches like that in a client machine,


128KB Instruction-Cache ???

Skysnake
2014-01-06, 18:09:18
Naja, dass die Cores und GPU gemalt sind, das sieht man ja wohl hoffentlich direkt :ugly:

Der I/O-Kram sieht aber ganz vernünftig aus, wenn ich mir da so den T3 Shot anschaue im Vergleich dazu.

EDIT:
Ah danke.

Ich hab den Anandtech Artikel jetzt nicht noch gelesen, war eigentlich nicht davon ausgegangen, das es da noch echte Neuigkeiten draus gibt.

Gibts sonst noch was Neues bzw. lohnt er sich sonst noch zu lesen? Oder wars das dann auch?

Ailuros
2014-01-06, 18:13:11
Ich hab den Anandtech Artikel jetzt nicht noch gelesen, war eigentlich nicht davon ausgegangen, das es da noch echte Neuigkeiten draus gibt.

Gibts sonst noch was Neues bzw. lohnt er sich sonst noch zu lesen? Oder wars das dann auch?

Stets nirgends drin aber ich fress einen Besen wenn bei der Bandbreite die GPU je annaehernd ihre peak FP Werte in Echtzeit erreichen kann.

Undertaker
2014-01-06, 18:14:21
hübsch,

schaut so aus, als ob die CPU im K1 bis zu ~1,6W pro Core braucht (bei 2,3GHz). Zusammen wären das dann 6,4W für die CPUs alleine. Die werden also nie alle 4 zusammen mit 2,3GHz laufen.

Jep, das ist allerdings ziemlich normal. Zudem soll ein einzelner Kern bei gleichem Verbrauch ja ähnlich schnell wie ein Cyclone Core sein – wenn das stimmt, passt die Perf/Watt.

http://abload.de/img/csm_020_1752672ade03u24.jpg (http://abload.de/image.php?img=csm_020_1752672ade03u24.jpg)

Wie immer gilt natürlich: Tests abwarten. Aber die Papierform stimmt... Bei Tegra 4 hat NV keine Perf/Watt-Vergleiche mit der Konkurrenz gewagt. ;)

Stets nirgends drin aber ich fress einen Besen wenn bei der Bandbreite die GPU je annaehernd ihre peak FP Werte in Echtzeit erreichen kann.

Da ist sicherlich etwas daran, aber nur mal im Vergleich: 17 GB/s und 365 GFLOPS sind ein deutlich besseres Verhältnis als z.B. die 25,6 GB/s zu ~700 GFLOPS bei einer HD 5000. Oder auch ähnlich viel wie einem A10-6800K bei optimaler Speicherbestückung. Bei Kaveri z.B. sollte das Verhältnis auch schon wieder schlechter sein. So übel sieht es also gar nicht aus... Letztlich zählt eh nur, was hinten heraus kommt.

Skysnake
2014-01-06, 18:14:38
@Ailuros:
Wegen Power limit?

Oder weil die Bandbreite zu gering ist, bzw sonstige Flaschenhälse da sind?

@Undertaker:
Ah interessant, wobei man bei sowas natürlich immer aufpassen muss, wie das verglichen wird. Bei wieviel soll denn z.B. nen A7 überhaupt laufen?

Ansonsten kann ich mich dir aber voll auf anschließen. Es sieht VIEL besser aus als bei T4.

Die Frage ist halt nur, ob Sie sich eben nicht schon versaut haben mit den OEMs. Ich drück ihnen aber mal die Däumchen, das Sie ne Chance bekommen. Die OEMs werden sicherlich auch realisiere, das nVidia sich das erste mal wirklich richtig um Tegra gekümmert hat, und nicht so nen halbherzigen Sparflammenscheis abgeliefert hat...

Ailuros
2014-01-06, 18:23:30
Je nachdem wie ASTC genau spezifiziert ist, ist das aber möglicherweise gar nicht so einfach. Die ganzen DX-Formate sind extrem ähnlich mit Ausnahme von BC6 und BC7.

Bis jetzt unterstuetzen folgende ULP GPUs ASTC:

Qualcomm Adreno4xx
Imagination Series6XT
ARM Mali T7xx
NVIDIA GK20A
...und ich bin ehrlich zu faul Vivante fuer ihre neuesten DX11 cores nachzuchecken aber es wird wohl auch hier positiv sein.

Da ASTC eine ARM Initiative eigentlich war sobald es Khronos angekuendigt hat haben fast alle vorerwaehnten einen PR veroeffentlicht dass sie in vorhersehbarer Zeit ASTC integrieren werden.

Ich wuerde sogar wetten dass DX11.2 umstaendlicher war fuer NV als ASTC ;)

Undertaker
2014-01-06, 18:24:32
@Undertaker:
Ah interessant, wobei man bei sowas natürlich immer aufpassen muss, wie das verglichen wird. Bei wieviel soll denn z.B. nen A7 überhaupt laufen?

1,3 GHz laut Folie.

Ansonsten kann ich mich dir aber voll auf anschließen. Es sieht VIEL besser aus als bei T4.

Die Frage ist halt nur, ob Sie sich eben nicht schon versaut haben mit den OEMs. Ich drück ihnen aber mal die Däumchen, das Sie ne Chance bekommen.

Es ist etwas komisch, dass man nicht gleich mit den ersten Launch-Partnern wirbt. Von Asus & Co. kann man auf Garantie wieder entsprechende Tablets erwarten, wenn die aber jetzt noch nicht angekündigt werden, wird es bis zur Verfügbarkeit wohl noch etwas dauern. Hoffentlich nicht so lange wie bei T4...

Ailuros
2014-01-06, 18:27:15
@Ailuros:
Wegen Power limit?

Oder weil die Bandbreite zu gering ist, bzw sonstige Flaschenhälse da sind?



Eher Bandbreite IMHO. Beispiel: http://www.anandtech.com/show/7537/qualcomms-snapdragon-805-25ghz-128bit-memory-interface-d3d11class-graphics-more

Skysnake
2014-01-06, 18:27:35
3-6 Monate sicherlich.

Ist halt "dumm gelaufen", dass die Samples erst jetzt so kurz vor der CES kamen. Da hatten die OEMs wohl einfach keine Chance sich zu überlegen ob sie mit T5 nen GErät bringen wollen oder nicht. nVidia ist ja nicht so zuverlässig gewesen.

2-3 Wochen später würde das sicherlich schon wieder anders aussehen.

Wann ist denn die nächste Messe? Erst danach würde ich mir nen Kopf um Absatzzahlen machen.

Ailuros
2014-01-06, 18:28:51
1,3 GHz laut Folie.

Im ipad Air sind's mehr und erlaube mir dem Zeug keinen Schimmer an Glauben zu schenken bis ich unabhaengige tests sehe. Die T4 Praesentation war so vollgepumpt mit absichtlichen Luegen und Verdrehungen dass man dem Mist wohl schwer vertrauen kann. Uebrigens ist der A7 im iPhone5S wieso genau Vergleichsmaterial und weiss der Geier welchen S800 sie genommen haben.

***edit: am Rand da die Mediatek A15 cores im MT8135 frueher erscheinen koennten als K1, die sind afaik auch R3.

Undertaker
2014-01-06, 18:36:01
Im ipad Air sind's mehr und erlaube mir dem Zeug keinen Schimmer an Glauben zu schenken bis ich unabhaengige tests sehe.

100 MHz mehr, also 1,4 GHz um genau zu sein. Darauf würde ich jetzt mal gepflegt pfeifen. ;) Mit den unabhängigen Tests gebe ich dir natürlich Recht.

Uebrigens ist der A7 im iPhone5S wieso genau Vergleichsmaterial und weiss der Geier welchen S800 sie genommen haben.

Warum iPhone 5S? Eher das iPad Mini Retina, eben weil das Tegra-Tablet auch nur ein 7-Zoll-Gerät war. Ich meine, das stand auch irgendwo.

S800 müsste btw ein Xperia Z Ultra mit 6" gewesen sein. (Edit: Evtl. auch ein Kindle HDX)

Skysnake
2014-01-06, 18:40:16
Würde ich nicht. Schau dir mal an, wie steil die Kurve da ist. Das macht schon recht schnell einen wesentlichen Unterschied.

Undertaker
2014-01-06, 18:44:43
Würde ich nicht. Schau dir mal an, wie steil die Kurve da ist. Das macht schon recht schnell einen wesentlichen Unterschied.

Warum wohl taktet Apple den A7 im iPad Air nur 100 MHz höher als im iPhone 5S oder Mini Retina? Genau, weil die Kurve dort nicht anders aussehen wird – beim S800 ja genauso.

Um Missverständnissen vorzubeugen: Die 100 MHz machen sehr wohl etwas aus, absolut bzgl. des Verbrauches. Am Effizienzvergleich eines 1,3 GHz A7 vs. 2,2 GHz Tegra bzw. 1,4 GHz A7 vs. 2,4 GHz Tegra (Beispielzahlen) wird sich aber nicht viel ändern. An sich ist der angestellte Vergleich schon erst einmal seriös, da es den A7 @ 1,3 GHz in einem vergleichbar großen Produkt gibt. Ja, die Zahlen müssen sich natürlich auch praktisch bestätigen. ;)

Skysnake
2014-01-06, 19:02:15
Naja, kommt halt darauf an. Wenn die Taktrate schon nicht stimmt, fragt man sich halt auch, ob die Performance und/oder Verbrauchswerte stimmen.

Kleine verschiebungen in die eine oder andere Richtung machen da bei den kleinen Verbrauchen und Leistungen ja direkt richtig viel aus.

Ob jetzt ne dGPU statt 250W 251W frisst interessiert jetzt echt keine Sau. Bei so nem SOC ist das aber nen gewaltiger Unterschied...

Undertaker
2014-01-06, 19:09:54
Welche Taktrate stimmt denn jetzt nicht? :confused: Wie gesagt: Verglichen wird mit dem iPad Mini Retina, das hat exakt die 1,3 GHz die auch auf der Folie stehen.

Ailuros
2014-01-06, 19:19:29
Warum iPhone 5S? Eher das iPad Mini Retina, eben weil das Tegra-Tablet auch nur ein 7-Zoll-Gerät war. Ich meine, das stand auch irgendwo.

S800 müsste btw ein Xperia Z Ultra mit 6" gewesen sein. (Edit: Evtl. auch ein Kindle HDX)

Im Graph steht weder iPhone5S noch iPad mini; der Vergleich ist nach wie vor beschissen weil es in echten Geraeten fundamental anders aussehen wird. Nebenbei bis zum Punkt wo irgend ein Geraet vom K1 erscheint haben wir womoeglich auch schon Krait 450 Geraete und der Apple A7 wird irgendwo ueber der Mitte seiner Lebenszeit hocken.

Die Logik danach fuer Apple A8 wird natuerlich mit einem indirekten Denver-paper-launch geregelt.

Was ich NV gerne glaube ist perf/mW fuer die GPUs in GFXbench 3.0 gegen die Apple A7 GPU (obwohl es die meisten hier wundern sollte :P ). IMG hat ja auch heute ihr 6XT Zeug angekuendigt mit einem bis zu 50% Leistungszusatz gegenueber heutigen Serie6 GPUs. Dass sie leider im Bereich Geometrie/Z-stencil Mist gebaut haben hab ich ja schon ausfuehrlich im Apple thread erlaeutert.

Undertaker
2014-01-06, 19:30:10
Im Graph steht weder iPhone5S noch iPad mini; der Vergleich ist nach wie vor beschissen weil es in echten Geraeten fundamental anders aussehen wird. Nebenbei bis zum Punkt wo irgend ein Geraet vom K1 erscheint haben wir womoeglich auch schon Krait 450 Geraete und der Apple A7 wird irgendwo ueber der Mitte seiner Lebenszeit hocken.

Wenn Qualcomm bei Krait 450 nicht spürbar an der IPC geschraubt hat, sollte es ausgehend vom Graph des S800 auch noch für den S805 reichen, der bei mutmaßlich gleicher Leistungsaufnahme nur minimal höher taktet. Apple mag mit dem A8 wieder in Führung gehen, aber schon A7-Niveau wäre für 2014 im Android-Markt ein schönes Level. Ich bleibe mal optimistisch und ersetzte dein "weil" mit einem "wenn", aber jegliche Beurteilung bleibt natürlich vorerst an den Wahrheitsgehalt der Folien gekoppelt.

Btw: Man sollte natürlich nicht vergessen, dass wir hier in erster Linie über den Volllastverbrauch reden. Beim 3G- oder WLAN-Surfen kann es natürlich ganz anders aussehen – dieses Szenario war zumindest auch schon bei T4 nicht gerade die Paradedisziplin.

Ailuros
2014-01-06, 19:50:26
Wenn Qualcomm bei Krait 450 nicht spürbar an der IPC geschraubt hat, sollte es ausgehend vom Graph des S800 auch noch für den S805 reichen, der bei mutmaßlich gleicher Leistungsaufnahme nur minimal höher taktet.

Du hast mich nicht verstanden; eine Referenz-Platform wuerde ich nur mit einer Referenz-Platform vergleichen. Wo jeglicher Hersteller am Ende in seinem finalen Geraet anlegt ist dann ein anderes Bier.

Wenn ich sagen wir mal im Maerz ein Samsung high end smartphone mit einem S805 habe (rein erfundens Beispiel) und ein HP tablet mit K1 gilt dann ein direkter Vergleich zwischen den beiden immer noch? Throttelt ein SoC im smartphone nicht wohl um einiges eher?

Apple mag mit dem A8 wieder in Führung gehen, aber schon A7-Niveau wäre für 2014 im Android-Markt ein schönes Level. Ich bleibe mal optimistisch und ersetzte dein "weil" mit einem "wenn", aber jegliche Beurteilung bleibt natürlich vorerst an den Wahrheitsgehalt der Folien gekoppelt.

Weil oder wenn ist mir persoenlich wurscht; ich werde verdammt ueberrascht sein wenn es irgendein Partner es schafft K1 in ein smartphone zu quetschen und immer noch den angeblichen perf/mW "Vorteil" hat denn NV wohl nur sich selber vorgaukelt. Da das technische marketing von der Tegra Abteilung mehr als Beschiss-anfaellig ist bis jetzt werd ich zumindest die spefizische Folie gleich in meine Muelltonne klatschen. Und mit Verlaub wir hatten auch eine aehnliche Debatte ueber Tegra4 obwohl die damaligen PR-Folien nirgends etwas von perf/W erwaehnten; ich war es auf jeden Fall nicht der glaubte dass A15 um so viel besser sind als Krait cores fuer perf/W und ich hab auch damals nichts von dem 4+1 Mist gehalten.

I love Denver hauptsaechlich weil nix mit companion core ausser ich hab etwas verpasst :P

Btw: Man sollte natürlich nicht vergessen, dass wir hier in erster Linie über den Volllastverbrauch reden. Beim 3G- oder WLAN-Surfen kann es natürlich ganz anders aussehen – dieses Szenario war zumindest auch schon bei T4 nicht gerade die Paradedisziplin.

Sonst wuerde ich Vergleiche mit smartphones erstmal gar nicht erwaehnen :P

Wie gross soll den K1 eigentlich sein? :biggrin:

Mancko
2014-01-06, 20:04:24
Die Frage ist halt nur, ob Sie sich eben nicht schon versaut haben mit den OEMs.

Warum sollten sie? OEMs schauen sich stetig bei neuen Modellreihen/-serien um. Die halten nie an einem für ewig fest. Sowas kann die schnell Geschäft kosten.

Hugo78
2014-01-06, 20:05:37
Wie gross soll den K1 eigentlich sein? :biggrin:
AnarchX meint ~100mm^2

Das Die-Bild nochmal in groß: http://www.techpowerup.com/196459/nvidia-slides-supercomputing-technology-into-the-car-with-tegra-k1.html

Ausgehend von den 4Gbit Hynix (9x13mm) DDR3 Chips, ist Tegra K1 wohl ~100mm² groß.

Ailuros
2014-01-06, 20:12:40
AnarchX meint ~100mm^2

Oh danke; also wohl doch etwas mehr die area als zuvor.

Undertaker
2014-01-06, 20:14:55
AnarchX meint ~100mm^2

War das nicht auch die Größe des Apple A7? :wink:

Oh danke; also wohl doch etwas mehr die area als zuvor.

Na alles andere wäre aber auch kaum zu erwarten gewesen... Der Speichercontroller kann höher takten, leistungsfähigere ISPs und Videodecoder, und in allererster Linie natürlich die dicke GPU. Allein ein halber GK208 misst ja schon 40mm² (ja, ich weiß, die GPU ist kein halber GK208, da nur 1/4 der TMUs etc.).

Ailuros
2014-01-06, 20:31:37
Es sind auch "nur" 4 ROPs auf GK20A. Ich bin extrem faul jetzt es aufzusuchen, ueber wieviel zixel ist jede Kepler ROP faehig?

Skysnake
2014-01-06, 20:34:40
Naja, in Smartphones ist das eh ne so ne Sache. Das externe Modem verhagelt einem die Perf/W mit Tegra.

Da kann nVidia machen was Sie wollen. Andersrum schleppen halt die Konkurrenten das Modem mit. Man wird es wohl Powergaten können, aber im Normalfall wird man das Modem halt nutzen, und dann geht die Perf/W etwas runter im Vergleich zu nem Chip mit ausgeschaltetem oder gleich gar keinem Modem.

Skysnake
2014-01-06, 20:37:36
Warum sollten sie? OEMs schauen sich stetig bei neuen Modellreihen/-serien um. Die halten nie an einem für ewig fest. Sowas kann die schnell Geschäft kosten.
OEMs wollen aber Liefersicherheit und Einhalten der versprochenen Specs, sonst sitzen die am Ende auf nem großen Haufenelektroschrott, weil der Mist entweder gar incht funktioniert, oder halt schlechter als erwartet und dann eben auch nur zu einem geringeren Preis verkauft werden kann, und bei dem recht harten Geschäft kann das dann auch mal schnell dazu führen, das man mit nem Minus raus geht....

Vor allem DARAUF haben OEMs keinen Bock, und ja auch AMD hat in der Vergangenheit bei den Serverherstellern GENAU da so manches auch verkackt. Auf der anderen Seite aber auch mal profitiert, bzw die eigenen Scharten ausgebügelt, als Intel Lieferschwierigkeiten hatte.

Man muss aber eben die Chance dazu haben sich zu beweisen, und das Vertrauen in nVidia ist halt wie gesagt weg.

Ailuros
2014-01-06, 20:39:08
Es sind auch "nur" 4 ROPs auf GK20A. Ich bin extrem faul jetzt es aufzusuchen, ueber wieviel zixel ist jede Kepler ROP faehig?

64 samples/clock ergo bei 951MHz = 60.864 GPixels/s z/stencil :eek:

Mancko
2014-01-06, 20:39:10
Man muss aber eben die Chance dazu haben sich zu beweisen, und das Vertrauen in nVidia ist halt wie gesagt weg.

Sagts bzw. behauptest Du. Mehr nicht. Es hat sich noch kein OEM gemeldet.

Ailuros
2014-01-06, 20:40:22
Es hat sich noch kein OEM gemeldet.

Da kann ich sogar zustimmen ;D

----------------------------------------------------------------------------

Spass beiseite...

Undertaker ich hatte die slide in Erinnerung:

http://www.hardware.fr/medias/photos_news/00/43/IMG0043753_1.jpg

Mag sein dass fuer die CPUs etwas anderes benutzt haben, aber fuer die GPUs ist es schon Aepfel vs. Birnen. Jetzt muessen wir nur noch einen K1 in ein smartphone mit einer 1600mAh Batterie quetschen und hoffen dass bei vollen Frequenzen dieser mehr als 1 Stunde aushaelt :P

Undertaker
2014-01-06, 21:11:16
Naja, in Smartphones ist das eh ne so ne Sache. Das externe Modem verhagelt einem die Perf/W mit Tegra.

Fehlt nicht auch dem S805 das Modem? Apple A7? Exynos 5420? Oder anders gefragt: Welcher aktuelle bzw. angekündigte High-End-SoC außer dem S800 hat integriertes LTE mit allen gängigen Bändern?

@Ail: Dein Bild geht nicht.

Ailuros
2014-01-06, 22:29:44
@Ail: Dein Bild geht nicht.

http://www.hardware.fr/focus/94/nvidia-tegra-k1-son-gpu-kepler-details.html

(der GPU efficiency slide - sorry ich bin zu faul das Ding bei mir hochzuladen)...

Skysnake
2014-01-07, 01:11:22
Kurz: Du weisst eigentlich nichts aber wolltest mal was zum Thema sagen das nichtmal Thema ist.

Mr. Roxxer hätte mich ja belehren können, statt einfach nur nen stumpfen dummen Spruch los zu lassen, aber du hast halt wirklich gar keinen Plan...

Ich weiß was die Größenordnungen sind, und da du nichtmal in der Lage bist vor deinem getrolle google zu benutzen habe ich das mal für dich gemacht:


TÜV SÜD:...
Die elektrischen Bauelemente sind grundsätzlich für einen Temperaturbereich zwischen minus 40 und plus 85 Grad Celsius ausgelegt. „Gerade beim Parken kann die Temperatur unter der Motorhaube auf 100 Grad Celsius ansteigen. Dann leiden Halbleiter und Co.“, sagt Philip Puls von TÜV SÜD.
... (http://www.kfz-auskunft.de/news/9540.html)



Anforderungen an elektrische Bauteile

Elektronische Bauteile für Motoranbau müssen für einen Temperaturbereich von −40 bis 125 °C spezifiziert sein. Für andere Bereiche wie dem Innenraum wird ein Temperaturbereich von −40 bis 85 °C vorgegeben.[1] Bei vielen Chip-Herstellern gibt es eine eigene Rubrik für ICs die im Automobilbau verwendet werden dürfen. (http://de.wikipedia.org/wiki/Automobilelektronik)



Betriebstemperaturbereiche Temperaturbereich Bezeichnung typische Anwendung
0 °C bis +70 °C Kommerzieller Temperaturbereich Unterhaltungselektronik, z. B. Spielzeuge, Radio- und Fernsehgeräte, Computer
−40 °C bis +85 °C Industrieller Temperaturbereich Industrieelektronik, z. B. industrielle Steuerungen und Regelungen
−40 °C bis +125 °C Automobil-Temperaturbereich Motornahe Elektronik im Automobilbereich, z. B. Motorsteuergerät, Klimasteuergeräte, Sensoren
−55 °C bis +125 °C Militärischer Temperaturbereich Militärische Anwendungen, Luftfahrtindustrie, z. B. Flugzeuge, Schiffe, Messgeräte, Funkgeräte (http://de.wikipedia.org/wiki/Temperaturbereiche_von_Elektronikbauelementen)


Nur weil dein MP3 Player und dein Roxxer Smartphone auch bei -1°C schon den Geist aufgeben dürfen, und auch nicht mehr als 70°C abkönnen muss, heist das noch lange nicht, dass sich alle Bereich mit sowas zufrieden geben können...

Ich war also mit meinen-30 bis >+60°C
Soo extrem schlecht, was ich mir aus der Erinnerung rausgesaugt hab...

N0Thing
2014-01-07, 13:08:25
Aber ist das ernsthaft ein Problem? In Autos stecken ja heute schon mehrere Chips, die kein Problem mit der Umgebung haben und heutige CPUs und GPUs können ohne Probleme Temperaturen über 90°C aushalten und wenn sie unter 0°C nicht funktionieren würden, würde keiner mit flüssigem Stickstoff kühlen.

Ich sehe da keine großen Hürden um einen 5W SoC in einem Auto unterzubringen.

Skysnake
2014-01-07, 13:14:09
Da denkst du aber falsch. Es muss halt IMMER funktionieren, und das in Großserie. Da sind so Bastellösungen wie wir daheim machen einfach völlig inakzeptabel. Auch muss das über zich Jahre hinweg funktionieren, und das im Notfall auch unter 24/7 Bedingungen.

Da sind halt ganz andere Anforderungen da, und Temperaturen über 60°C sind nicht ohne, genau wie Temperaturen unter 0 Grad.

Du musst halt auch mit Taubildugn usw usw klar kommen. Das ist schon nicht soo ganz trivial. Da hat sich schon so mancher Autobauer fett auf die Fresse gelegt mit seiner Elektronik. Ganz abgesehen davon sind Elektronikprobleme heutzutage einer der, wenn nicht gar die Hauptursache für einen Fahrzeugdefekt.

YfOrU
2014-01-07, 13:58:09
Ich sehe da keine großen Hürden um einen 5W SoC in einem Auto unterzubringen.

Das ist nicht so entspannt wie es aussieht. Im Winter kann das Delta selbst in unseren Breitengraden bis zu 150°C betragen. Führt zwangsläufig zu extremen Belastungen des Materials und dabei sind Vibrationen etc. noch nicht mal mit einbezogen.

Wir haben zum Beispiel in unseren BHKW Containern UMTS VPN Router welche von -33 bis +70°C spezifiziert sind. Die sind sau teuer aber die vorherige Lösung im Testbetrieb mit -10 bis +55°C für 1/4 des Preises hat den äußeren Einflüssen nicht dauerhaft standgehalten. Sowas auf Garantie in der Pampa austauschen zu müssen ist derart teuer das man lieber gleich auf Nummer sicher geht.

N0Thing
2014-01-07, 14:05:01
Das ist schon klar, nur reden wir hier zum einen nur von dem Chip, nicht von der deutlich empfindlicheren restlichen Elektronik. Zudem gehe ich davon aus, daß die Autobauer inzwischen, z.B. durch Erfahrunegn mit anderen Chips in ihren Autos wissen, wie und wo man die platzieren muß, um Umwelteinflüsse zu vermeiden.
Durch den Chip selber und um den dreht sich die Diskussion doch, kommen da meiner Meinung nach keine Probleme hinzu, die seit der Verwendung des Tegra 4 nicht schon bekannt und gelöst sind.

YfOrU
2014-01-07, 14:16:02
Wer sagt dir als Beispiel das ein Package welches bei Chip A den Belastungen stand gehalten hat es auch bei Chip B schafft ? Es ist anzunehmen aber das ist in dem Bereich nicht ausreichend. Kompletter Validierungsprozess auf beiden Seiten des Tischs.

Hätte man vor ein paar Jahren bei Nvidia im Consumer Bereich besser auch durchgeführt ;)

N0Thing
2014-01-07, 14:19:59
Daß die Autohersteller den Chip nicht blind in ihre Autos bauen sollte klar sein, dachte ich. Das das gilt aber für alle Chips, die verwendet werden. Die modernen Navi-Entertainment-Systeme funktionieren ja auch nicht nur mit Strom und Liebe.

Skysnake
2014-01-07, 14:29:44
Und deswegen kosten die teilweise auch nen gutes GEld für beschissene Leistung.

Man darf das einfach nicht unterschätzen, welche Umgebungsbedingungen in nem Auto herrschen. Der Innenraum kann sich locker auf >60°C aufheizen. Das muss das ZEug einfach ab können, genau wie die niedrigen Temperaturen.

Versuch mal nen normalen PC in nem Auto zu betreiben, also schon mit externer Stromversorgung und so. Das Ding wirst du nicht das ganze Jahr betreiben können.

Ich weiß auch überhaupt nicht, was es daran rum zu diskutieren gibt. Es gibt die Spezifikationen, und die sind verdammt nochmal einfach ein zu halten und fertig. Die Leute haben sich bei ihrer Arbeit schon was gedacht, und nicht einfach mal die Specs erwürfelt...

N0Thing
2014-01-07, 14:52:00
Ich weiß auch überhaupt nicht, was es daran rum zu diskutieren gibt. Es gibt die Spezifikationen, und die sind verdammt nochmal einfach ein zu halten und fertig. Die Leute haben sich bei ihrer Arbeit schon was gedacht, und nicht einfach mal die Specs erwürfelt...

Eben. Deshalb verstehe ich auch nicht, warum Äpfel und Birnen, bzw. Router- und PC-Vergleiche herangezogen werden, wenn die Leute, die dafür verantwortlich sind, schon wissen was sie tun.

Skysnake
2014-01-07, 15:32:58
Ja und das ist eben nicht "mal eben" gemacht. Darum gehts doch.

N0Thing
2014-01-07, 16:52:59
Hm, ich habe geschrieben, es sei kein großes Problem. Unter anderem, weil ein Chip im Auto nichts Neues ist und der Tegra 4 (oder war es der 3.?) auch in Autos Verwendung fand. Ich habe nirgendwo geschrieben, das ginge "mal eben" (wo hast du zitieren gelernt??), sondern nur in Frage gestellt, daß es mit dem Chip große Hürden zu überwinden gilt. Darauf hin hast du mir unterstellt, ich denke falsch...

Da im Zusammenhang mit der Open Automotive Alliance auch der Tegra K1 in Autos von Audi wandert, sehe ich meine Skepsis in Bezug auf deine Ausführungen bestätigt. Abgesehen von der Selbstverständlichkeit, daß vorher ausgiebige Tests notwendig sind und an den Haaren herbei gezogenen Beispielen, hast du in deinen Beiträgen nichts geliefert.

Botcruscher
2014-01-07, 16:59:12
Versuch mal nen normalen PC in nem Auto zu betreiben, also schon mit externer Stromversorgung und so. Das Ding wirst du nicht das ganze Jahr betreiben können.

Der Vergleich ist nun ja. Das Ding wird auf einen Kühlblock geschraubt und dann im Gehäuse eingegossen. Für Geräte mit <5W Leistung absolut kein Problem. Die müssen einfach auf 80° ausgelegt sein.

Zum Thema. 5W TDP ist lächerlich für das Ding. AMD blinkt da schon zum Überholen und Intel ist nicht mehr in Sicht. Grafikleistung ist nun auch genau der Grund sich für diesen SoC zu entscheiden. Braucht ja im Tablet jeder... Kann man ja als Shield 2 verramschen.

Ailuros
2014-01-07, 17:07:58
Ich kann bei Eurer Debatte ueber automotive/infotainment wirklich nicht verstehen um was es geht. Erstens brauchen Autos momentan noch nicht so etwas fortschrittliches wie K1 ergo wird es wohl auch einige Zeit dauern bis so etwas in einem Auto erscheint und zweitens bin ich der Ansicht (welches aber auch nichts direkt mit dem Thema zu tun hat) dass je mehr Fortschritt im elektronischen Bereich in Autos kommt desto empfindlicher werden sie welches nicht immer zum Vorteil ist.

prinz_valium
2014-01-07, 17:16:12
mal abseits der auto debatte. gibts denn nun nach einen tegra 4i, oder nicht?

oder wirklich erstmal nur den tegra "4,5" aka k1?

N0Thing
2014-01-07, 17:20:58
Ich kann bei Eurer Debatte ueber automotive/infotainment wirklich nicht verstehen um was es geht.

Es ging mir um die Frage, warum eine Integration des K1 in ein Automobil besonders schwer sein soll. Ob das passiert, zu welchem Zeitpunkt und ob es überhaupt sinnvoll ist, war dabei außen vor.

Skysnake
2014-01-07, 17:28:16
Es ging doch gar nicht um das "überhaupt" machbar, sondern um den Aufwand, den man treiben muss, und der halt deutlich höher als z.B. bei nem simplen Smartphone.

Ergo sinkt selbst bei höherem Preis die Marge, einfach weil auch die Kosten höher sind. Das Automivgeschäft ist halt auch nicht das Schlaraffenland, sondern auch nen hartes Buisnes, wenn auch wohl nicht ganz so hart wie Smartphones.

Ailuros
2014-01-07, 17:30:01
Es ging mir um die Frage, warum eine Integration des K1 in ein Automobil besonders schwer sein soll. Ob das passiert, zu welchem Zeitpunkt und ob es überhaupt sinnvoll ist, war dabei außen vor.

Ach es gibt Luxuskarren mit Tegra wo der ganze Teil zwischen dem Lenkrad und dem Mitfahrersitz von oben bis fast unten ein riesiges display ist. Sieht wohl fuer manche "wow" aus, aber ich frage mich ernsthaft ob es nicht zu verdammt ablenkend vom fahren ueberhaupt ist.

Sonst ist die Integration kinderleicht und es wird auch kein Schwein die Dinger bei voller Frequenz einbauen am Ende und daher kannst Du den 5W Mist auch beruhigt in die Muelltonne schmeissen....

Im Gegensatz ist backseat infotainment wirklich keine schlechte Idee ueberhaupt wenn man Kleinkinder hat und laengere Strecken fahren will ;)

Was mich dann meistens stoert an NV's Bumsfallera Marketing-Mist ist dass sie so tun als sie wirklich den Markt total kapitulieren wuerden; es gibt fuer automotive immer noch Texas Instruments, Renesas, Freescale und v.a. die ziemlich viel in embedded und automotive investieren. Wenn man sich die K1 Vorstellung angesehen hat wusste man dass JHH Karren wirklich "lieb" hat.

Nakai
2014-01-07, 18:22:31
Ach es gibt Luxuskarren mit Tegra wo der ganze Teil zwischen dem Lenkrad und dem Mitfahrersitz von oben bis fast unten ein riesiges display ist. Sieht wohl fuer manche "wow" aus, aber ich frage mich ernsthaft ob es nicht zu verdammt ablenkend vom fahren ueberhaupt ist.

Sonst ist die Integration kinderleicht und es wird auch kein Schwein die Dinger bei voller Frequenz einbauen am Ende und daher kannst Du den 5W Mist auch beruhigt in die Muelltonne schmeissen....

Im Gegensatz ist backseat infotainment wirklich keine schlechte Idee ueberhaupt wenn man Kleinkinder hat und laengere Strecken fahren will ;)

Was mich dann meistens stoert an NV's Bumsfallera Marketing-Mist ist dass sie so tun als sie wirklich den Markt total kapitulieren wuerden; es gibt fuer automotive immer noch Texas Instruments, Renesas, Freescale und v.a. die ziemlich viel in embedded und automotive investieren. Wenn man sich die K1 Vorstellung angesehen hat wusste man dass JHH Karren wirklich "lieb" hat.

Ich bin zwar im Automotive Bereich tätig(auch die von dir beschriebene Hardware), aber Tegra sehe ich derzeit nirgends. Das wird sich auch nicht so schnell ändern, da der Automotive Bereich ziemlich "träge" ist. Ich sehe dennoch derzeit einen Wandel, auf deutlich performantere Systeme. Und ein Tegra K1 ist viel zu groß für so Automotive Systeme, da reichen andere SOCs besser aus.

Ahja, weil sich im Automotive Bereich die Systeme ziemlich unterscheiden, sind proprietäre Systeme ziemlich unerwünscht. Portabilität und Kosten sind der Knackpunkt. Generelle Softwaretoolkits sind bevorzugt.

Ailuros
2014-01-07, 18:26:20
"Performantere" ist auch relativ; mit dem Apple A7 als Massstab vielleicht irgendwo die Haelfte davon. Und in dem Fall ist K1 schon um mehrere Strecken voraus, aber selbst wenn ein Automobil-Hersteller dafuer heute unterschreiben wuerde heisst es auch nicht Integrierung heute sondern womoeglich nach ein paar Jahren.

Nakai
2014-01-07, 18:28:11
"Performantere" ist auch relativ; mit dem Apple A7 als Massstab vielleicht irgendwo die Haelfte davon. Und in dem Fall ist K1 schon um mehrere Strecken voraus, aber selbst wenn ein Automobil-Hersteller dafuer heute unterschreiben wuerde heisst es auch nicht Integrierung heute sondern womoeglich nach ein paar Jahren.

Richtig, deswegen muss auch ein guter Support geleistet werden. Kosten ist auch so ein Knackpunkt. Da wird jeder Cent umgedreht. Wenn man einen SOC kauft, muss der Support hierfür einige Jahre laufen.

Hugo78
2014-01-07, 18:28:28
aber Tegra sehe ich derzeit nirgends.

Audi nutzt Tegra.

CES 2014 Audi Keynote
- http://www.audimedia.tv/

http://pics.computerbase.de/5/4/2/0/3/1_m.jpg
- http://www.computerbase.de/news/2014-01/nvidia-kuendigt-tegra-k1-mit-192-kernen-an/

Nakai
2014-01-07, 18:36:08
Audi nutzt Tegra.


Sry, aber so sieht die Automotive Welt nicht aus. Selbst Tegra 2 war schon in einem Audi drin. Wenn du wüsstest, wieviel in diesem Bereich recyclet wird. Da sind Kombiinstrumente und andere Kontrollelemente über viele Automobile praktisch identisch, nur mit einem leicht unterschiedlichem Design. Kosten ist das A und O(selbst bei Premiumdesigns). Wenn Nvidia da drin ist, dann nur weil man sehr viel Geld draufgeschmissen hat.

Blediator16
2014-01-07, 18:38:24
Sry, aber so sieht die Automotive Welt nicht aus. Selbst Tegra 2 war schon in einem Audi drin. Wenn du wüsstest, wieviel in diesem Bereich recyclet wird. Da sind Kombiinstrumente und andere Kontrollelemente über viele Automobile praktisch identisch, nur mit einem leicht unterschiedlichem Design. Kosten ist das A und O(selbst bei Premiumdesigns). Wenn Nvidia da drin ist, dann nur weil man sehr viel Geld draufgeschmissen hat.

Hat schon seinen Grund wieso man auf Automotive herumreitet, wenn man sonst nirgends drinne ist. Die Frage stellt sich auch wieso Nvidia sich besonders gut in Autos machen soll im gegensatz zu anderen.

Skysnake
2014-01-07, 18:39:07
DANKE Nakai, dass du das sagst mit den Kosten. Ich wurde ja doof hingestellt für die gleiche Aussage... Hoffentlich glaubt man dir mehr.

Nakai
2014-01-07, 18:42:28
Hat schon seinen Grund wieso man auf Automotive herumreitet, wenn man sonst nirgends drinne ist. Die Frage stellt sich auch wieso Nvidia sich besonders gut in Autos machen soll im gegensatz zu anderen.

Selbst im Automotive Bereich ist man nirgends drin. Das ist nur ein Markteing-Gag. Im Automotive Bereich wird sich jetzt niemand auf Tegra stürzen, nur weil der in Audi drin ist. Außerdem ist der Automotive Bereich viel zu gewissenhaft, als, dass man einen Newcomer nimmt.

Hugo78
2014-01-07, 18:50:57
Außerdem ist der Automotive Bereich viel zu gewissenhaft, als, dass man einen Newcomer nimmt.
Also Audi macht auf seiner CES 2014 Show Werbung für Nvidia, obwohl sie eigentlich Qualcomm verbauen?

Ailuros
2014-01-07, 18:52:31
Richtig, deswegen muss auch ein guter Support geleistet werden. Kosten ist auch so ein Knackpunkt. Da wird jeder Cent umgedreht. Wenn man einen SOC kauft, muss der Support hierfür einige Jahre laufen.

Im Fall von NV spricht aber fuer's obrige nichts dagegen rein theoretisch. In Realitaet verkauft NV nie so teuer wie jeder glauben will sonst wuerden sie die Mengen die sie verkauft haben auch nie los und beim support sind sie auch nicht problematisch.

Das aber die ganze Affaere auch ein ziemlich grosser marketing-gag ist brauchst Du mir nicht erzaehlen. Denn keine von JHHs Angaben diesbezueglich machen irgendwo Sinn, aber andersrum ist er beruehmt dafuer dass er mit finanziellen Uebertreibungen nur so herumschmeisst.

Dural
2014-01-07, 18:52:53
ich frage mich auch um was ihr hier diskutiert, nv beliefert schon seit t2 audi/vw mit tegras also ist der markt für sie nicht wirklich neu.

zudem liefert nv ja nur den chip und nicht die komplette electronik, solche chips halten ohne probleme grosse temperatur unterschide aus und das weis man nicht erst seit gestern.

Ailuros
2014-01-07, 18:53:41
Also Audi macht auf seiner CES 2014 Show Werbung für Nvidia, obwohl sie eigentlich Qualcomm verbauen?

Menschenskinder versucht doch zumindest zu verstehen was jedermann sagen will. Fang mal damit an wie viele Audis verkauft werden jaehrlich.

Hugo78
2014-01-07, 18:55:48
Was hat die Anzahl der verkauften Audis, mit Nakai Behauptung zutun, Audi würde nur zum Spaß, als PR Gag Tegra verbauen aber im Alltag den Newcomer Nvidia links liegen lassen?

Skysnake
2014-01-07, 18:57:29
Nakai, ich könnt dich grad umarmen für die Worte aus deinem "Mund". :love3:

Das nVidia es ganz schwer hat als Newcommer, der nichts vor zu weisen hat, wollte ich hier nicht auch noch austreten, sonst heist es nur wieder, ich hätte was gegen nVidia und würde alles schlecht machen...

Danke dafür, dass du das sagst, was ich denke. :up:

Ein klein wenig muss ich dir aber widersprechen. Sie hatten ja schonmal nen Deal mit Audi (oder wars sogar VW?) und wurden mit T3 in Infotainmentsystem verbaut. Da hatte Huang ja groß rumposaunt, sie würden in allen Autos drin sein bla bla. Ende vom lied war, Sie waren in ein paar Geräten drin und wurden ziemlich schnell von TI&Qualcomm ersetzt (? bei den Firmen bin ich mir nicht mehr sicher, ich weiß nur noch, das es mehr als eine Firma war).

Wenn die in einem Jahr in 1% der verkauften Audis drin sind, können sich glücklich sein denke ich.

Dural
2014-01-07, 18:57:38
tegra war auch in allen golfs drin, da es die selbe basis wie der a3 ist, wie es beim golf7 aussieht weis ich nicht.

wie auch immer, so ganz wenige stück waren das sicher nicht.

Skysnake
2014-01-07, 19:01:15
Soll ich nochmal die Zahlen zu den Weltweiten Autoverkäufen und allein den Smartphone+Tabletverkäufen in Q3/2013 rausholen?

Und jetzt überleg mal, wieviele Autos VW verkauft, und in wievielen dann die Chips tatsächlich drin waren. DAs sind absolut geringe Zahlen.

Und ich hoffe von dem "die Marge im Automobilbereich ist FETT alter" trip hat euch Nakai runter geholt. Mir glaubt ihr das ja eh nicht, obwohl ich es schon versucht habe zu sagen...

Hugo
2014-01-07, 19:01:32
@all
können wir die Automotiv Diskusion woanders hin verlagern und uns auf Tegra konzentrieren?

Ailuros
2014-01-07, 19:02:45
Was hat die Anzahl der verkauften Audis, mit Nakai Behauptung zutun, Audi würde nur zum Spaß, als PR Gag Tegra verbauen aber im Alltag den Newcomer Nvidia links liegen lassen?

Er braucht nichtmal damit recht haben dass dem so ist. Wenn Du laut Statistiken berechnest wie viele Audis pro Jahr verkauft werden hauen JHHs Behauptungen auch nicht hin.

Nakai behauptet er sei taetig in der Industrie; ich hab ihm vor ein paar posts eine Schaetzung gegeben wo die heutigen Leistungsansprueche in der Automobil-Industrie in etwa liegen und er sagte zu was mir zeigt dass er erstmal nicht unwissend ist wie es dort aussieht.

Wo und zu welchem Grad Audi wirklich NV's SoCs verbaut kann ich persoenlich nicht wissen; auf jeden Fall ist es Tatsache dass NV in dem Markt ein genauso unwichtiger Spieler ist mit ULP SoCs wie auch im Markt insgesamt.

Dural
2014-01-07, 19:02:51
@sky

ja und? jeder auftrag ist ein guter auftrag sofern die rechnungen bezahlt werden.

Ailuros
2014-01-07, 19:05:42
@all
können wir die Automotiv Diskusion woanders hin verlagern und uns auf Tegra konzentrieren?

Nein tut mir leid; NV's K1 Marketing-Material hat sich zu einem zu grossen Prozentual auf automotive konzentriert dass man es so leicht uebersehen kann. Mir sind realistische Anwendungsgebiete genauso wichtig wie ueber das hw config zu spekulieren.

@sky

ja und? jeder auftrag ist ein guter auftrag sofern die rechnungen bezahlt werden.

Die Rechnungen werden schon seit Jahren von GeForces, Quadros und Teslas bezahlt; Tegra gibt bis heute nur rote Zahlen ab.

Skysnake
2014-01-07, 19:10:06
Ailuros du warst zu schnell, daher einfach /sign

Dural
2014-01-07, 19:10:42
glaub ich nicht, t3 war garantiert kosten deckent, war ja eine zeit lang quasi in jedem android tablet. in der zeit machte nv 150mio oder sogar mehr jede q mit tegra umsatz.

Hugo78
2014-01-07, 19:13:30
auf jeden Fall ist es Tatsache dass NV in dem Markt ein genauso unwichtiger Spieler ist mit ULP SoCs wie auch im Markt insgesamt.

Ja moment, die Frage ist doch warum?
Der in der Vergangenheit vielzitierte Grund warum Tegras ersetzt wurden bei deutschen Autobauern,
war nicht mangelnder Support oder weil das Zeug zuteuer wäre oder weil deutsche Autobauer zublöd für neuen Stuff sind und lieber altbekanntes verbauen, wie von Nakai impliziert.

Der Grund war doch die fehlenden GPGPU Fähigkeiten. Genau das womit Tegra K1 jetzt endlich aufräumt. Autobauer wollen also das max. an Leistung, nicht konservatives, billig Zeug.

Also ist es logisch das K1 jetzt besonders oft im Zusammenhang mit Automotiv genannt wird und in der Sache heute auch deutlich bessere Karten hat, als frühere Tegraversionen.

Skysnake
2014-01-07, 19:18:02
glaub ich nicht, t3 war garantiert kosten deckent, war ja eine zeit lang quasi in jedem android tablet. in der zeit machte nv 150mio oder sogar mehr jede q mit tegra umsatz.
Klar doch, nVidia verbreitet in ihren Geschäftsberichten einfach lügen, was denn sonst... :freak:

Nochmals. Tegra hat NIE, never ever auch nur am Break-Even-Point gekratzt.

Dural
2014-01-07, 19:20:46
dann such mal etwas, den ich bin mir ziemlich sicher das nv mal einen gewinn mit tegra verbuchen konnte, eben gerade in der von mir erwähnte t3 zeit.

Ailuros
2014-01-07, 19:27:26
glaub ich nicht, t3 war garantiert kosten deckent, war ja eine zeit lang quasi in jedem android tablet. in der zeit machte nv 150mio oder sogar mehr jede q mit tegra umsatz.

NVIDIA kann ihre Finanzen nicht verstecken und Du kannst sie jederzeit nachschlagen anstatt Dich laecherlich zu machen. Sonst nach Jensen selber (welches Du auch nachschlagen kannst) ist Tegra's break even point bei $1Mrd Umsatz. Anders wenn sie theoretisch erstmal so viel Umsatz erreichen gibt es keinen Verlust mehr. Der hoechste Punkt war in FY12 wenn ich mich nicht irre mit 700Mio und dabei steckte noch ein guter Batzen an anderem non Tegra Zeug drin.

dann such mal etwas, den ich bin mir ziemlich sicher das nv mal einen gewinn mit tegra verbuchen konnte, eben gerade in der von mir erwähnte t3 zeit.

Mensch Deine Sicherheit will ich mal wirklich haben :biggrin: Das ist schon Komoedie pur....:freak:

Dural
2014-01-07, 19:29:34
auf die schnell mit dem smartphone gefunden:

http://www.tabtech.de/sonstiges/nvidia-gute-geschaftszahlen-dank-tablets-mit-tegra-prozessoren-vorhersagen-weniger-erfreulich


Begründet wurden die erfolgreichen Zahlen vor allem mit der*starken Nachfrage nach den Tegra-Prozessoren.

Skysnake
2014-01-07, 19:30:39
dann such mal etwas, den ich bin mir ziemlich sicher das nv mal einen gewinn mit tegra verbuchen konnte, eben gerade in der von mir erwähnte t3 zeit.
Warum sollte ich nach einer Bestätigung für ne Aussage von dir suchen, der ich klar widerspreche :freak: Als ob ich nichts bessers zu tun hätte.

EDIT:
Und wo steht da was von Gewinn mit der Tegra-Sparte?

Die haben einfach nur weniger Verlust mit Tegra gemacht.

Dural
2014-01-07, 19:32:51
und hier:
http://www.notebookcheck.com/Nvidia-Ein-tolles-Tablet-ist-besser-als-ein-billiger-PC.84073.0.html

da wird zudem auch gleich bestädigt das auch der neue golf 7 tegra hat.

-/\-CruNcher-/\-
2014-01-07, 19:36:37
Hehe jetzt könnte Crytek ja durchstarten mit K1 und CryEngine Mobile gegen UE, Unity und Havok ;)
Aber ei mit wem wird da Exclusiv geworben der UE und Crytek wird nichtmal im Ansatz nur erwähnt holla da ist wohl wer bösse auf "together we will redefine the future of PC Gaming but we shifted to AMD" :D

Dural
2014-01-07, 19:37:13
laut dieser qwelle wird t3 im kompletten audi program verbaut:

http://www.notebookcheck.com/Nvidia-Das-neue-Infotainmentsystem-des-VW-Golf-7-arbeitet-mit-Tegra-3.82579.0.html

zudem bei den tesla und golf modelle.

Ailuros
2014-01-07, 19:37:41
Ja moment, die Frage ist doch warum?
Der in der Vergangenheit vielzitierte Grund warum Tegras ersetzt wurden bei deutschen Autobauern,
war nicht mangelnder Support oder weil das Zeug zuteuer wäre oder weil deutsche Autobauer zublöd für neuen Stuff sind und lieber altbekanntes verbauen, wie von Nakai impliziert.

Der Grund war doch die fehlenden GPGPU Fähigkeiten. Genau das womit Tegra K1 jetzt endlich aufräumt. Autobauer wollen also das max. an Leistung, nicht konservatives, billig Zeug.

Nein das war BMW welches offensichtlich NICHTS mit der VW-Gruppe zu tun hat. BMW hat fuer einen Anteil ihrer Luxuskarren ein freescale SoC damals gewaehlt afaik und in dem steckte Vivante GPU IP. Nach JPR neuester Statistik hat Vivante einen Marktanteil von irgendwo 10% gegen 1+furz% fuer NVIDIA und ich kann Dir garantieren dass Vivante's Markanteil nicht durch BMW so hoch liegt.

Vivante hat erfolgreich 2D GPU IP verkauft und diesen hat sogar Texas Instruments in ihrem OMAP4470 benutzt.

Also ist es logisch das K1 jetzt besonders oft im Zusammenhang mit Automotiv genannt wird und in der Sache heute auch deutlich bessere Karten hat, als frühere Tegraversionen.

Weisst Du wie spottbillig jemand wie Freescale solche automotive SoCs verkauft? Vivante hat im gegebenen Beispiel zwar momentan OGL_ES3.0/DX9L3 in ihren GPUs aber die Dinger haben schon seit einer Ewigkeit USC ALUs und daher GPGPU Faehigkeiten und sogar FP64 in hw. Wenn man 3D Leistung ignoriert duerften sie momentan das beste GFLOP/mm2 ratio haben egal was andere behaupten. Nakai erwaehnte auch sehr niedrige Kosten und ich persoenlich schreie schon seit langer Zeit dass sich NV mit dem high end Zeug selber einen Strick um den Hals legt.

NV ist kein Apple und hat auch nicht Apple als Kunden; ergo ist IMHO ihre eigentliche Eintrittskarte fuer den ULP SoC Markt low end/mainstream genauso wie es Intel macht. Intel koennte es sich im Gegensatz leisten mit Moneten nur so rumzuschmeissen; NV aber langfristig NICHT wenn es mit Verkaufszahlen nicht irgendwann ernsthaft steigt.

Undertaker
2014-01-07, 19:37:59
NVIDIA kann ihre Finanzen nicht verstecken und Du kannst sie jederzeit nachschlagen anstatt Dich laecherlich zu machen. Sonst nach Jensen selber (welches Du auch nachschlagen kannst) ist Tegra's break even point bei $1Mrd Umsatz.

Interessehalber, wann und wo soll er das eigentlich gesagt haben (per Google finde ich es nicht)? Ich kann mich noch gut an die auch von Dural verlinkten Meldungen zu Zeiten des Tegra 3 Erfolges erinnern, wo man bei einem Tegra-Umsatz von irgendwas zwischen 200-300 Millionen die guten Geschäftszahlen explizit mit dem Erfolg dieser Sparte begründete. Das würde sich mit der 1-Mrd.-Geschichte irgendwie ziemlich beißen.

Edit: Oder redest du von 1 Mrd. pro Jahr und nicht Quartal? Das wäre von der Größenordnung sinnvoller, aber eine Quelle wäre trotzdem ganz interessant. Insbesondere auch mit dem Hintergrund, wann diese Zahl genannt wurde.

Ailuros
2014-01-07, 19:40:32
laut dieser qwelle wird t3 im kompletten audi program verbaut:

http://www.notebookcheck.com/Nvidia-Das-neue-Infotainmentsystem-des-VW-Golf-7-arbeitet-mit-Tegra-3.82579.0.html

zudem bei den tesla und golf modelle.

Wie schoen. Wo ist nochmal genau die Bestaetigung dass Tegra je Gewinn gemacht hat? Moment nach 3 versagten Posts brauch ich Futter: :popcorn::popcorn::popcorn:

Skysnake
2014-01-07, 19:42:06
Das war aber mal wieder reine Verarsche...

Man hat mit den extrem guten Margen im dGPU Markt, wo man die Leute gemolken hat, Tegra kaschiert. Tegra 3 war zwar besser, aber die haben immer noch Minus gemacht, und zwar nicht zu knapp.

Das ist halt typisch für nVidia. Sie lügen nicht (also zumindest meist nicht), aber die Wahrheit sagen Sie auch nicht, und überlassen es einem selbst sich zu belügen und Sachen falsch zu verstehen. Eingreifen und richtig stellen tun Sie dabei nicht, wenns ihnen rein läuft...

Undertaker
2014-01-07, 19:45:52
Tegra 3 war zwar besser, aber die haben immer noch Minus gemacht, und zwar nicht zu knapp.

Auch hier nochmal die Frage: Kann ich das aus den Quartalsberichten irgendwo ablesen? Am besten auch in Zahlen? :confused:

Skysnake
2014-01-07, 19:49:53
Schwierig.

CB glaub war es, hat immr mal wieder Zusammenfassungen von Analysten dazu. Das ist auch das, was ich im Hinterkopf dazu habe.

So was findet sich aber im Allgemeinen ziemlich schwer, weil fast alle einfach wenn überhaupt die Pressemitteilung dazu abdurcken, und da halt geschickt die Wahrheit untern Tisch gefallen lassen wird.

Ailuros
2014-01-07, 19:52:17
Interessehalber, wann und wo soll er das eigentlich gesagt haben (per Google finde ich es nicht)? Ich kann mich noch gut an die auch von Dural verlinkten Meldungen zu Zeiten des Tegra 3 Erfolges erinnern, wo man bei einem Tegra-Umsatz von irgendwas zwischen 200-300 Millionen die guten Geschäftszahlen explizit mit dem Erfolg dieser Sparte begründete. Das würde sich mit der 1-Mrd.-Geschichte irgendwie ziemlich beißen.

$723 genau fuer FY13 (ich bring die FY bei NV stets durcheinander):

http://blogs.barrons.com/techtraderdaily/2013/04/11/nvda-slips-plans-1b-cash-return-this-year/

Mr. Huang indicated that Nvidia made a strategic decision last year to pull-in the integrated LTE-based Tegra 4i by two quarters (surprisingly currently in production) at the expense of a 1 quarter delay in Tegra 4. Given the strategic important of LTE modem capability in today’s smartphone/tablet markets, the decision makes sense to us while admittedly creating investor frustration [...] Tegra Breakeven Closer than Thought: A common bear case for investors has been that Tegra R&D efforts will continue to pressure profitability going forward. Management lifted the kimono with a segregated R&D composition, revealing that Tegra specific R&D was only $300 million. With ~50% gross margins on ~$700 million in sales, Tegra is already above breakeven on an annualized basis.

http://seekingalpha.com/article/1117241-nvidias-tegra-4-is-already-a-winner

Ich kann den link jetzt mit JHHs Aussage nicht mehr finden aber getraeumt davon hab ich nicht. Und Asche in die Augen von Analysten kann jeder sonst schmeissen denn es ist auch nicht das erste Mal dass JHH sein eigenes Zeug schlucken musste. Gewinn gab es mit T3 afaik auf jeden Fall nicht. Kosten fuer Tegra haben auf jeden Falle eine steigende Tendenz aus verstaendlichen Gruenden waehrend momentan Umsatz verdammt stark seit FY13 (ergo -2012) abgenommen hat.

Undertaker
2014-01-07, 19:56:11
With ~50% gross margins on ~$700 million in sales, Tegra is already above breakeven on an annualized basis.

Also wenn ich das jetzt richtig verstehe, widerspricht das doch der 1 Mrd.? :confused:

Ailuros
2014-01-07, 19:59:56
Also wenn ich das jetzt richtig verstehe, widerspricht das doch der 1 Mrd.? :confused:

Management lifted the kimono with a segregated R&D composition, revealing that Tegra specific R&D was only $300 million.

So und jetzt erzaehl mir wo sich JHH genau widersprochen hat, denn es war nicht "meine" Mrd sondern seine. Entweder hat er mit Absicht den break even point zu hoch eingeschaetzt (wobei es schon nach T2 timeframe war wenn ich mich nicht irre als er es behauptete) oder man hat R&D Kosten fuer Tegra einfach reduziert.

Nakai
2014-01-07, 21:01:53
Ich habe es vor einiger Zeit mal gesagt, aber manchmal trifft der :facepalm: für sehr viele Aussagen zu. Wenn hier die mal die Leute nicht aus ihrer Consumer-Brille die Sachen sehen würde, könnte man hierbei einigermaßen diskutieren. In mancher Hinsicht, treffen Codas Gesichtplanierungen(oder von anderen Leute) voll aufs Auge. Wenn man nichts rafft, sollte man einfach die Klappe halten...im Ernst.

@Ail:
Im Fall von NV spricht aber fuer's obrige nichts dagegen rein theoretisch. In Realitaet verkauft NV nie so teuer wie jeder glauben will sonst wuerden sie die Mengen die sie verkauft haben auch nie los und beim support sind sie auch nicht problematisch.

Richtig, dann stellt sich die Frage, wieso das so ist. NV hat guten Support, richtig. Aber so blöd sind die Leute nicht an diesen Positionen, dass sie sich von Marketing-Blafasel beeinflussen lassen.

Das aber die ganze Affaere auch ein ziemlich grosser marketing-gag ist brauchst Du mir nicht erzaehlen. Denn keine von JHHs Angaben diesbezueglich machen irgendwo Sinn, aber andersrum ist er beruehmt dafuer dass er mit finanziellen Uebertreibungen nur so herumschmeisst.

Es gibt soviele Alternativen zu NVidia im Automotive Bereich. Du hast schon einige genannt. Reden wir hierbei in ein paar Jahren nochmal...dann sehen wir, wie weit NV Fuss in diesem Markt fassen kann.

Ich bemühe mich wirklich, immer dezent zu wirken und Sachen von denen ich nicht 100% die Ahnung habe, dementsprechend auszudrücken.

Was hat die Anzahl der verkauften Audis, mit Nakai Behauptung zutun, Audi würde nur zum Spaß, als PR Gag Tegra verbauen aber im Alltag den Newcomer Nvidia links liegen lassen?

Weil die Leute die Audis kaufen, auf solche PR-Gags reinfallen, genauso wie bei solchen Sachen im Hintergrund Geldströme fließen, welche der Normaldepp nicht rafft. Audi tut soetwas, weil es interessante Publicitiy ist und von NV bestimmt ordentlich :comfort2: wurde.

Reduziere die Kosten unterhalb der Konkurrenz und versuch ein bisschen rumzublafaseln, dann kann man ein bisschen Erfolge feiern. Der Automotivemarkt wird damit nicht revolutioniert, weil so ein Infotainmentsystem nur ein kleines Puzzlestück ist.

ich frage mich auch um was ihr hier diskutiert, nv beliefert schon seit t2 audi/vw mit tegras also ist der markt für sie nicht wirklich neu.

zudem liefert nv ja nur den chip und nicht die komplette electronik, solche chips halten ohne probleme grosse temperatur unterschide aus und das weis man nicht erst seit gestern.

Ich habe nicht gewusst, dass ein Chip, welcher erst seit einiger Zeit produziert wird, schon komplett verfiziert ist, vor allem in kritischen Bereichen.

@Skysnake:
Ein klein wenig muss ich dir aber widersprechen. Sie hatten ja schonmal nen Deal mit Audi (oder wars sogar VW?) und wurden mit T3 in Infotainmentsystem verbaut. Da hatte Huang ja groß rumposaunt, sie würden in allen Autos drin sein bla bla. Ende vom lied war, Sie waren in ein paar Geräten drin und wurden ziemlich schnell von TI&Qualcomm ersetzt (? bei den Firmen bin ich mir nicht mehr sicher, ich weiß nur noch, das es mehr als eine Firma war).


Es wird ja gerade so dargestellt, dass NV auf einmal komplette Automotive Systeme liefern kann.

http://www.freescale.com/webapp/sps/site/taxonomy.jsp?code=IMX6X_SERIES

So nun ratet mal, wieso dieser SOC noch keinen offensichtlichen Nachfolger hat?

http://www.toshiba-components.com/automotive/display_controller.html

Nur als Beispiel, die Dinger sind relativ neu...

Ja moment, die Frage ist doch warum?
Der in der Vergangenheit vielzitierte Grund warum Tegras ersetzt wurden bei deutschen Autobauern,
war nicht mangelnder Support oder weil das Zeug zuteuer wäre oder weil deutsche Autobauer zublöd für neuen Stuff sind und lieber altbekanntes verbauen, wie von Nakai impliziert.

Der Grund war doch die fehlenden GPGPU Fähigkeiten. Genau das womit Tegra K1 jetzt endlich aufräumt. Autobauer wollen also das max. an Leistung, nicht konservatives, billig Zeug.

Also ist es logisch das K1 jetzt besonders oft im Zusammenhang mit Automotiv genannt wird und in der Sache heute auch deutlich bessere Karten hat, als frühere Tegraversionen.

Ja stimmt die deutschen Autobauer sind zu blöd...manchmal kann ich da sogar zu stimmen.

Weißt wie lange solche Produkte laufen? Weißt du, wie da Leute dahinterstehen? Wie das kontrolliert wird? Wie genau die Finanzen geregelt sind? Das wird nicht aus Spaß gemacht.

Und nochmal Ail:
Weisst Du wie spottbillig jemand wie Freescale solche automotive SoCs verkauft? Vivante hat im gegebenen Beispiel zwar momentan OGL_ES3.0/DX9L3 in ihren GPUs aber die Dinger haben schon seit einer Ewigkeit USC ALUs und daher GPGPU Faehigkeiten und sogar FP64 in hw. Wenn man 3D Leistung ignoriert duerften sie momentan das beste GFLOP/mm2 ratio haben egal was andere behaupten. Nakai erwaehnte auch sehr niedrige Kosten und ich persoenlich schreie schon seit langer Zeit dass sich NV mit dem high end Zeug selber einen Strick um den Hals legt.

Da wo ich etwas Einsicht habe, ist der iMX6 ziemlich populär. Da gibts auch sehr viele abgespeckte Versionen, welche funktional einem jeglichen Tegra in vielerlei Hinsicht überlegen sind. Aber Compute ist noch nicht so im Kommen. Langsam wird das in vielerlei Hinsicht ausgebaut, auch im Smartphonebereich. Das wird interessant, aber einfach so läuft das nicht...tut es niemals.

€2: Vivante und IMX6 ist ganz lustig. Das Ding ist anscheinend, für das, was es kann, unfassbar billig. Hat ein extrem gutes Featureset, ist Pinkompatibel untereinander, hat CAN, ist für viele kritische Bereiche spezifiziert und gibt es in vielen Kombinationen und Konfigurationen. Es hat ja nur einen A9-Quad drin eine schon etwas ältere GPU, blabla. Manchmal sind hald Balkendiagramme erst interessant, wenn es nicht um Performance geht.

€:
Das war aber mal wieder reine Verarsche...

Man hat mit den extrem guten Margen im dGPU Markt, wo man die Leute gemolken hat, Tegra kaschiert. Tegra 3 war zwar besser, aber die haben immer noch Minus gemacht, und zwar nicht zu knapp.

Das ist halt typisch für nVidia. Sie lügen nicht (also zumindest meist nicht), aber die Wahrheit sagen Sie auch nicht, und überlassen es einem selbst sich zu belügen und Sachen falsch zu verstehen. Eingreifen und richtig stellen tun Sie dabei nicht, wenns ihnen rein läuft...

Tja, wenn man bei sowas in Verhandlungen die Hose runterlassen muss...da schütteln viele Leute mal den Kopf.


Es ist einfach so, dass viele Bereiche nicht so ablaufen, wie es gerne dargestellt wird...sry, aber NV ist ein Meister darin Sachen "unkorrekt" darzustellen und nur weil es so dargestellt wird, heißt es nicht, dass es so ist...

-/\-CruNcher-/\-
2014-01-07, 21:42:03
Infotainment ? Nvidia zielt ganz klar auf das ADAS ab und das ist ja auch logisch, weil da Visual Computing am meisten sinn macht Komplexe Realtime low latency Video Bild Analyse und Compute keine Ahnung wer da ihre Konkurenz ist im Automotive berreich momentan.
Denke mal Bosch und ihre Research Abteilung wird eine sein kann ich mir aber auch als zukünftigen Hardware Kunden gut vorstellen ;)

Sowas hier z.b
http://www.bosch-kraftfahrzeugtechnik.de/en/de/specials/specials_for_more_driving_safety/automated_driving/technology_and_development_1/technical_requirements_1/sensors_for_the_surroundings_and_the_driver/Sensors_for_the_surroundings_and_the_driver.html
http://www.bosch-kraftfahrzeugtechnik.de/en/de/specials/specials_for_more_driving_safety/automated_driving/technology_and_development_1/technical_requirements_1/technical_requirements.html
http://www.bosch-kraftfahrzeugtechnik.de/en/de/specials/specials_for_more_driving_safety/automated_driving/automated_driving.html
http://www.bosch-kraftfahrzeugtechnik.de/en/de/specials/specials_for_more_driving_safety/fahrerassistenzsysteme/fahrerassistenzsysteme_1.html
http://www.bosch-automotivetechnology.com/media/db_application/downloads/pdf/safety_1/en_4/adaptive_cruise_control_2010_de.pdf

Timbaloo
2014-01-07, 22:06:53
Einen Partner wie Bosch werden sie für ADAS brauchen, da sind zulässige Temperaturbereiche der SG Kindergarten dagegen. Stichwort ASIL.

Nakai
2014-01-07, 22:15:18
Ich habe zwar in vielerlei Hinsicht nicht soviel Ahnung, wie ich gerne hätte, aber der Markt ist im Automotive Bereich voller Dienstleister und Hersteller, welche untereinander konkurrieren. Es gibt nicht nur einen Hersteller, der in irgendwas gut ist, sondern einen Haufen von Konkurrenz, welche sich gegenseitig unterbieten. Verträge laufen nicht nur kurz, sondern ziemlich lange...

-/\-CruNcher-/\-
2014-01-07, 22:20:54
Jo kenne von einem bekannten her so die elektro sachen die da alle stimmen müssen redundanzen und sowas ist schon heftig ;)

jo und da will Nvidia rein mit ihrer Hardware dazu müssen die CTOs überzeugt werden und ich denke mal die sind alle TOP und werden K1 ausgiebig testen gegenüber ihren anderen solutions und ich denke mal Nvidia wird hier sicher auch nicht still sein wenn sie sich jemanden sichern können von diesen ADAS zu lieferern :)
Das Audi announcement ist ganz offensichtlich nen publicity stunt den Audi sich wie du das schon sagtest sicher gut vergüten lässt :)

Wenn die da jetzt so jemanden wie den CTO von Bosh Automotive oder sowas auf die Bühne gezert hätten würde das wohl anders aussehen ;)

Ailuros
2014-01-08, 00:03:18
Als ob jemand so blöd wäre und einen Karren für Tegra kaufen würde. Die Projektion ist für Tegra automotive bei 2Mrd. über zich Jahre verstreut mit denen sie selbst wenn stimmt gerade noch die Kosten decken,außer der break even point rutscht noch mal ein Stück tiefer welches ziemlich leicht machbar ist.. TI verkauft übriges OMAP5 in guten Mengen obwohl viele glauben dass es storniert wurde..

Ailuros
2014-01-10, 15:13:31
Schamlos links vom B3D Tegra thread geklaut:

http://androidandme.com/2014/01/devices/hands-on-with-the-lenovo-thinkvision-28-because-we-all-need-angry-birds-in-4k/

http://reviews.cnet.com/lcd-monitors/lenovo-thinkvision-28-smart/4505-3174_7-35833676.html

Ich will nicht wissen wieviel der Quark wiegt...

Avalox
2014-01-10, 15:22:42
Schamlos links vom B3D Tegra thread geklaut:

Ich will nicht wissen wieviel der Quark wiegt...


Warum Gewicht? Das ist ein All in One PC mit Fuß.

Acer, HP, etc. haben ähnliche Geräte, wenn auch ohne 4K Panel auf der CES vorgestellt.

Interessanter Weise hat HP solch ein Gerät gezielt für den Business vorbetankt gezeigt.

Skysnake
2014-01-10, 15:58:27
schonmal nen 28" Monitor mit dir rumgeschleppt?

Das ist nicht mal mehr mit nem Laptop vergleichbar. Das ist nen AIO-Gerät, das stationär ist.

Avalox
2014-01-10, 16:02:38
schonmal nen 28" Monitor mit dir rumgeschleppt?

Das ist nicht mal mehr mit nem Laptop vergleichbar. Das ist nen AIO-Gerät, das stationär ist.

Warum solltest du ein All in One PC rumschleppen?

Den schleppt der Postbote an und dann steht er auf dem Tisch, solange bis ihn die Müllabfuhr wieder auf die Deponie schleppt.


Das Ding ist das, nur mit 4K Auflösung und Touch.

http://www.newgadgets.de/uploads/2012/10/Apple-iMac-2012-2-197x300.jpg

Ailuros
2014-01-10, 16:08:47
Warum Gewicht? Das ist ein All in One PC mit Fuß.

Acer, HP, etc. haben ähnliche Geräte, wenn auch ohne 4K Panel auf der CES vorgestellt.

Interessanter Weise hat HP solch ein Gerät gezielt für den Business vorbetankt gezeigt.

Dass es sarkastisch gemeint war kann Dir wohl nicht einleuchten oder? So in etwa ein Riesen-tablet dass aber kein tablet ist vielleicht? :cool:

Fuer so etwas ist K1 natuerlich ideal [/nichtsarkastischgemeint]

Avalox
2014-01-10, 16:15:14
Dass es sarkastisch gemeint war kann Dir wohl nicht einleuchten oder? So in etwa ein Riesen-tablet dass aber kein tablet ist vielleicht? :cool:

Fuer so etwas ist K1 natuerlich ideal [/nichtsarkastischgemeint]

Ah.
87ra6qKzXDA

Irgend eine Quelle hatte geschrieben, dass Lenovo einen Tegra 4 einbaut. Aber das war noch vor der Vorstellung des Tegra K1.

Was für ein oninöser Hexa SoC soll das eigentlich im Samsung Note 3 Neo sein? Ist der Zettel ein Fake?

Skysnake
2014-01-10, 16:23:04
Warum solltest du ein All in One PC rumschleppen?

Den schleppt der Postbote an und dann steht er auf dem Tisch, solange bis ihn die Müllabfuhr wieder auf die Deponie schleppt.


Das Ding ist das, nur mit 4K Auflösung und Touch.

1. Deeplinks zu bildern sind eigentlich nicht erlaubt nur mal so.

2. Schau mal auf den Titel des Topics ;)

Ailuros
2014-01-10, 16:56:52
Was für ein oninöser Hexa SoC soll das eigentlich im Samsung Note 3 Neo sein? Ist der Zettel ein Fake?

Hab's schnell nachgesucht und im Samsung thread gepostet:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10068983&postcount=173

Avalox
2014-01-10, 17:01:36
1. Deeplinks zu bildern sind eigentlich nicht erlaubt nur mal so.


Mist. An diesen Kleinigkeiten merkt man es immer, wenn man mal wieder aus einem Paralleluniversum getunnelt ist, in welchen der Sachverhalt anders geregelt war.

2. Schau mal auf den Titel des Topics ;)

Ja. Ich hatte es auch bei Ailuros schon verstanden.
Der Gedanke Tegra mit Tablet gleichzusetzen ist mir nur so fremdartig, dass es etwas gedauert hat.

Skysnake
2014-01-10, 17:37:53
Von Tablets hat zumindest bisher bei allen gepasst. Ich würde das aber nicht mal so eng fassen, und von "Mobile-Devices" sprechen. Wo ist aber son AIO noch nen "Mobile-Device"????

Bei dem ganzen Autogequatsche hab ich mir schon gedacht, wo das noch Mobile ist, aber gut.

Um was es mir da aber geht ist folgendes:
Warum um GOTTES WILLEN! soll ich mir nen Tegra in nen AIO Gerät packen? :ugly:

Da nehm ich doch tausend mal lieber nen AMD oder Intel Chip rein. Vor allem bei nem 4k Display. Was will ich denn bitte mit Tegra, oder eher ganz allgemein mit nem ARM in so nem Ding?????

Da will ich nen x86, allein schon wegen der ganzen Software.

Avalox
2014-01-10, 17:43:16
Von Tablets hat zumindest bisher bei allen gepasst. Ich würde das aber nicht mal so eng fassen, und von "Mobile-Devices" sprechen. Wo ist aber son AIO noch nen "Mobile-Device"????


Habe ich nie so gesehen.

nVidia baut dort "Fix und Fertig" Computer und die passen überall rein, ob mobiles Gerät, oder PC für den Schreibtisch.

Auch Intel entwickelt doch faktisch seit Jahren keine Desktop oder stationären Server Prozessoren mehr,
die die es zu kaufen gibt, sind alles Abspaltungen der Notebook-, also der mobilen Prozessorfamilien.

Für nVidia (oder auch den Rest der Hersteller), war halt die Wintel Dominanz eine Herausforderung. Aber seitdem diese gefallen ist, explodiert der Innovationsrythmus ja geradezu.

Skysnake
2014-01-10, 18:30:08
Also S2011 ist fuer dich ne Notebookfamilie? :ugly:

Nochmal, warum sollte ich mit bei nem AIO! Geraet nen ARM SOC holen? vor allem bei nem 4k Geraet, das eh nicht guenstig wie noch was sein wird. Auf die paar Euro/$ fuer nen zich mal schnelleren Prozessor kommts dann auch nicht mehr drauf an, und die hoehere Leistungsaufnahme ist bei nem AIO Problem auch kein Problem. Muss ja nicht gleich die 90W Version sein, aber 45W bekommste in nem AIO gut gekuehlt, und das ist zich mal schneller als son Tegra.

Avalox
2014-01-10, 18:37:05
Also S2011 ist fuer dich ne Notebookfamilie? :ugly:

Die CPUs dafür? Diese entstammt einer Mobil CPU Familie, natürlich.
Die entsprechenden Desktop- und Serverlinien, sind vor Jahren schon eingestellt worden.
Es gibt nur noch die eine Linie, welche gleichermaßen alle Gerätekekategorien in unterschiedlicher Ausprägung bedient und diese Linie hat ihren Ursprung
bei den Mobil CPUs.

Nochmal, warum sollte ich mit bei nem AIO! Geraet nen ARM SOC holen?

Weil er ausreicht?

Skysnake
2014-01-10, 18:56:41
Klar, Quadchannel, 40PCI-E Lanes und zwei QPI Links sind Mobile. Is klar ne.

Die reinen CPU Cores machen noch keine CPU aus heutzutage. Der gesamte Chip entscheidet, wie man das ein zu ordnen hat.

Und wofuer reicht denn bitte nen Tegra in nem 4k AIO?

Was willste denn damit machen? Fratzenbook usw? Dafuer brauchste keinen 4k AIO....

Und bei allem abseits von nem Browser bricht dir der Softwaresupport das Genick. Was gibts denn fuer Android fuer Software, die du benutzen willst an nem AIO?

Die ganze Windows und x86 Software bleibt dir ja verwaehrt. Also selbst wenn du massig Leistung haettest, wobei du never ever gegen nen 45W Chip von Intel oder AMD ankommst, was willste denn machen außer den Browser zu nutzen und vielleicht nen AngryBird zu zocken. Fuer mehr wirste die 4k eh nicht nutzen koennen, weil die Leistung fehlt.

Hugo78
2014-01-10, 19:03:09
Auf die paar Euro/$ fuer nen zich mal schnelleren Prozessor kommts dann auch nicht mehr drauf an,

Intels i5er mit einer TDP von 11,5W kosten um die 300USD.
Tegra K1 wird vielleicht 25USD kosten und ist ein komplettes SOC, keine simple APU.
edit: Das Lenovo soll ne UVP von 1199,- USD haben.
Günster kommt man kaum an einen 4K, selbst ohne interne CPU/APU/SoC.

Wenn du nur einen großen Monitor für zu Haus / im Büro brauchst, der primär fürs Arbeiten in Verbindung mit deinem Notebook gedacht ist, weil da sowieso deine Daten drauf sind, reicht son Android AIO völlig.
Und bist du nicht zu Haus, kann dein Nachwuchs oder deine bessere Hälfte Android Games zocken, "facebooken", surfen, passt.


und die hoehere Leistungsaufnahme ist bei nem AIO Problem auch kein Problem. Muss ja nicht gleich die 90W Version sein, aber 45W bekommste in nem AIO gut gekuehlt, und das ist zich mal schneller als son Tegra.

Einen 5W Tegra kann man passiv kühlen.

Avalox
2014-01-10, 19:04:04
Klar, Quadchannel, 40PCI-E Lanes und zwei QPI Links sind Mobile. Is klar ne.


Reine Skalierung.
Ich sage ja nicht, dass das Ding in ein Notebook kommt. Ich sage, es sind aufgepimpte Notebook CPUs.


Und wofuer reicht denn bitte nen Tegra in nem 4k AIO?

Was willste denn damit machen? Fratzenbook usw? Dafuer brauchste keinen 4k AIO....


4K ist der Gegenentwurf zu HDReady. Es ist die Einstiegsgröße der nächsten Generation.

Absehbar wird alles in der Größe 4K sein.

4K sieht man sich natürlich 4K Medien an und man erfreut sich endlich über etwas verträglicheres Fontrendering.

Machen tust du damit das selbe, wie mit jeden anderen PC, nur in modern.



Die ganze Windows und x86 Software bleibt dir ja verwaehrt

na ein Glück, sonst würde ja Touch gar kein Sinn machen.

Irgendwo wird das Ding schon ein Eingang haben, um eine alte Windows Kiste dran anzuknüppern. Oder auch nicht. Auch egal.

Hübie
2014-01-10, 19:47:57
Hahahaaa. Der Untertitel ist gut (because we all need Angry Birds in 4k) ;D;D Fehlt nur noch: and we all need a Tegra K1 for Angry Birds in 4k) :naughty:

=Floi=
2014-01-10, 20:17:00
ist hald huangs lieblingsspiel! :rolleyes: er schießt hald gerne auf die schweine. (von amd ;) :D )

Undertaker
2014-01-10, 20:20:38
Und wofuer reicht denn bitte nen Tegra in nem 4k AIO?

Was willste denn damit machen? Fratzenbook usw? Dafuer brauchste keinen 4k AIO....

Wofür gibt es Notebooks mit 3K-Auflösung? Und demnächst Smartphones mit 2,5K? Klar ist das Overkill... 4K auf 28" sind da imo im Vergleich sogar noch am sinnvollsten. Z.B. für 4K-Videos, die man mit dem Tegra abspielen kann. Ansonsten ist der Hauptzweck natürlich im Webbereich zu suchen.

Timbaloo
2014-01-10, 20:44:23
Ich finde das Konzept gar nicht so blöd. Man hat einen guten (?) Monitor den man ohne weiteres System zum Surfen/Email/Whatever benutzen kann und wenn man hat/will kann man auch einen Desktop damit benutzen.

Skysnake
2014-01-10, 21:48:59
An sich schon, aber einen Hacken hat die Sache halt. Du hast deine Daten entweder auf dem AIO oder auf dem PC.

Wenn muss es auch fuer einen Leihen PROBLEMLOS! moeglich sein, auf die Daten des AIO mit dem Hauptrechner zu zugreifen und umgekehrt. Denn ansonsten aergert man sich am laufenden Band. Wobei das ja wieder ein Problem ist. Wenn ich den Hauptrechner eh an haben muss, um auf die Daten zugreifen zu koennen, dann brauch ich den Tegra ja nicht mehr.

Wie gesagt an sich ne coole Idee, aber ohne zentrales NFS macht das schnell keinen Spass mehr :(

Timbaloo
2014-01-10, 22:11:15
Daten sind doch eh nur noch in der Cloud :freak:

Skysnake
2014-01-10, 22:26:12
Das haetten einige wohl gern...