Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs
Ailuros
2014-07-08, 12:08:40
http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Xiaomi%20MiPad
3 Stunden eingeschaetzte Laufzeit wenn es hypothetisch durchgehend TRex onscreen laeuft klingen vollkommen akzeptabel fuer ein 7" tablet. Dass es aber bei 700MHz eingeschaetzter GPU Frequenz immer noch zu 25% throttelt klingt nicht besonders cool ausser es stimmt irgend etwas nicht mit dem Test.
Undertaker
2014-07-08, 12:28:01
Wäre long-term noch immer fast 50% schneller als ein iPad Air... Klar, Throttling ist doof, aber bei dem absoluten Performance-Level würde ich gar nicht mal groß meckern wollen. Mal schauen, wie 10"-Modelle so abschneiden.
Nightspider
2014-07-08, 12:31:30
Wird also gut abstinken gegen Apples A8 in 20nm. :D
iPad Air ist immerhin schon bald 1 Jahr alt.
Durch 20nm kann Apple einiges an Effizienz herausholen. Nicht nur durch den Prozess sondern auch durch den damit verbundenen Flächenzuwachs. Große GPU = bessere Effizienz
Undertaker
2014-07-08, 12:36:50
20nm wird allein nicht unbedingt 50% Plus bringen, in Kombination mit einer verbesserten Architektur dürfte das aber kein Problem sein ja. Dennoch: Alles andere als ein überdeutlicher Vorsprung des 20nm A8 ggü. einem 28nm K1 wäre für Apple ziemlich peinlich – und ob das am Ende, speziell im 10"-Bereich, wirklich so eintreten wird?
Als interessanter sehe ich ohnehin den Vergleich mit 28nm Android-SoCs.
Nightspider
2014-07-08, 12:41:20
Stimmt schon. A8 spielt eigentlich eh keine Rolle weil eh nur in iDevices verbaut.
Zumindest wird sich wohl auch in Zukunft Apple nicht die Krone nehmen lassen was den SoC betrifft. Zumindest der S810 könnte nächstes Frühjahr zeitweise die Krone zurückholen. QualComm ist ja wenigstens so nett und gibt schon immer weit vorher eine Leistungsprognose ab.
Wobei mich in den nächsten Monaten die CPU-Leistung am meisten interessieren wird. Gerade A15 vs. A57 vs. Cyclone.
Ailuros
2014-07-08, 12:43:31
Wäre long-term noch immer fast 50% schneller als ein iPad Air... Klar, Throttling ist doof, aber bei dem absoluten Performance-Level würde ich gar nicht mal groß meckern wollen. Mal schauen, wie 10"-Modelle so abschneiden.
Huh? 28.5 fps long term gegen 21.5 long term (und ja das mini 2 ist der eigentliche Vergleich hier) sind knapp 33% Unterschied wobei das mini2 eine leicht kleinere Batterie hat und nicht throttelt: http://gfxbench.com/device.jsp?benchmark=gfx30&os=iOS&api=gl&D=Apple%20iPad%20Mini%20Retina
Battery life und long term performance lassen T-Rex onscreen 30x Mal an der Reihe ablaufen.
Undertaker
2014-07-08, 12:43:59
Ergänze mal noch Denver dazu, denn wenn wir über S810 reden, sind wir weit in 2015. GPU-seitig verspricht Qualcomm für den S810 übrigens nur roundabout 80% Plus ggü. der Adreno 330.
deekey777
2014-07-08, 12:45:11
http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Xiaomi%20MiPad
3 Stunden eingeschaetzte Laufzeit wenn es hypothetisch durchgehend TRex onscreen laeuft klingen vollkommen akzeptabel fuer ein 7" tablet. Dass es aber bei 700MHz eingeschaetzter GPU Frequenz immer noch zu 25% throttelt klingt nicht besonders cool ausser es stimmt irgend etwas nicht mit dem Test.
7,9'' wie beim iPad mini.:D
Undertaker
2014-07-08, 12:46:47
Huh? 28.5 fps long term gegen 21.5 long term (und ja das mini 2 ist der eigentliche Vergleich hier) sind knapp 33% Unterschied wobei das mini2 eine leicht kleinere Batterie hat und nicht throttelt:
Hatte jetzt nur knapp über 20 zu knapp unter 30 fps gesehen, meinetwegen auch 33% schneller – wir reden aber wohlgemerkt noch immer über SoCs im gleichen Prozess. Das iPad Mini throttelt, wie du in deinem Link sehen kannst, übrigens auch etwas.
Ailuros
2014-07-08, 12:47:33
7,9'' wie beim iPad mini.:D
LOL :D stimmt natuerlich.
Ailuros
2014-07-08, 12:51:30
Hatte jetzt nur knapp über 20 zu knapp unter 30 fps gesehen, meinetwegen auch 33% schneller – wir reden aber wohlgemerkt noch immer über SoCs im gleichen Prozess.
Was hat der Prozess jetzt schon wieder damit zu tun? Samsung 28nm ist im ziemlichen Nachteil im Vergleich zu 28HPm, wenn's schon sein muss macht aber das Ganze zum throtteln kein bisschen relevanter.
Das iPad Mini throttelt, wie du in deinem Link sehen kannst, übrigens auch etwas.
T-Rex onscreen = 21.4 fps
Long term performance = 21.5 fps
http://gfxbench.com/device.jsp?benchmark=gfx30&os=iOS&api=gl&D=Apple%20iPad%20Mini%20Retina
Ja es "kontra-throttelt" um 0.1 fps nach oben....*seufz* :rolleyes:
Undertaker
2014-07-08, 12:53:53
Long-Term ist nicht offscreen?
Ailuros
2014-07-08, 12:55:54
Long-Term ist nicht offscreen?
Nein. Es ist onscreen welches auch um zich mal mehr Sinn macht da der Bildschrim aktiv ist durch die 30x loops. Bei offscreen siehst Du gar nichts nur das schwarze display.
Undertaker
2014-07-08, 12:58:06
Offscreen wäre natürlich schöner für die Vergleichbarkeit der Belastung (jetzt nicht in diesem Vergleich, sondern generell)... Aber nun gut. Wie erklärst du dir eigentlich den gewaltigen Unterschied zwischen der Onscreen/Offscreen-Skalierung bei MiPad und Mini Retina? Haben doch beide die gleiche Displayauflösung... :confused:
Ailuros
2014-07-08, 13:03:38
Offscreen wäre natürlich schöner für die Vergleichbarkeit der Belastung (jetzt nicht in diesem Vergleich, sondern generell)... Aber nun gut. Wie erklärst du dir eigentlich den gewaltigen Unterschied zwischen der Onscreen/Offscreen-Skalierung bei MiPad und Mini Retina? Haben doch beide die gleiche Displayauflösung... :confused:
Fuer einen G6430 hat der A7 afaik ziemlich karge Bandbreite (man sieht es an den alpha blending und Fuellraten Resultaten); sonst sollte es klar sein dass ein TBDR weniger Leistung verliert in Bandbreiten-kritischeren Faellen.
Offscreen misst die maximale theoretische Leistung mit vsync off bei 1080p fuer alle Geraete. Du kannst auf keinem vsync abschalten noch eine geringere Aufloesung waehlen. Bei einem Durchlauf entfaellt zwar bei offscreen der display Verbrauch aber bei so kurzer Zeit dass ein Geraet dafuer braucht ist es nicht der Rede wert; bei 30x loops aber und ueberhaupt wenn man Echtzeit Batterie-Laufzeit einschaetzen will sollte schon der display aktiv sein. Fuer so einen test waere offscreen Schwachsinn und es ist auch nicht in unbedingt in bester Interesse der Geraete die dabei throtteln ;)
***edit: http://semiaccurate.com/2014/07/08/nvidia-replacing-denver-erista/ ich kann mir wirklich nichts anderes als reinen BS hinter der paywall vorstellen....
Dural
2014-07-08, 13:11:47
Finde es erstaunlich das ihr hier High-End Tablet mit billig China Tablet vergleichen wollt. ;)
Für ein China Teil finde ich die Resultate erstaunlich gut.
Ailuros
2014-07-08, 13:18:38
Finde es erstaunlich das ihr hier High-End Tablet mit billig China Tablet vergleichen wollt. ;)
China tablets throtteln auch nicht unbedingt. Dass Xiaomi stets ihr DVFS zu aggressiv anlegt ist nichts Neues, hat aber nichts mit dem Markt dass es anspricht zu tun.
Für ein China Teil finde ich die Resultate erstaunlich gut.
Ausser Du findest einen Weg wie ich hier keinen Zoll zu bezahlen, wuerde das Ding insgesamt schon zumindest auf die 300 Euros kommen.
deekey777
2014-07-08, 13:18:50
Finde es erstaunlich das ihr hier High-End Tablet mit billig China Tablet vergleichen wollt. ;)
Für ein China Teil finde ich die Resultate erstaunlich gut.
Hm, warum vergleicht dann der Chef das MiPad die ganze Zeit mit dem iPad mini retina? Was denkt er sich dabei?
robbitop
2014-07-08, 14:04:33
Das iPad wird auch in China hergestellt. :D
Ich bin mal gespannt, ob man zum A8 auch wieder einen A8x auflegen wird.
Was Bandbreite und TBDR angeht. Viele IMRs (eigentlich alle modernen) haben Tilecaches. Der Bandbreitenvorteil ist da schon ziemlich geschrumpft.
Dural
2014-07-08, 16:08:00
Ich muss in einen Technik Forum ja nicht wirklich die eventuell vorhandene unterschiede (Ich sage nicht das es unterschiede geben muss) zwischen billig / Premium Tablet nennen?!? :rolleyes:
Ich sage nur so viel:
Verwendete Materialien
Unterschiede Kühlung
Akku Qualität
etc.
AffenJack
2014-07-08, 17:52:00
http://www.androidcentral.com/50000-units-xiaomis-mipad-sold-just-under-four-minutes
Alte News, war ja schon am 01.07 der Fall. Heute wurden die nächsten 50k in noch schnellerer Zeit verkauft und in 1 Woche kommt die nächste Tour. Frage ist, wann Xiaomi mal mehr an andere Reseller liefern wird. Ziel soll angeblich 2Mio Stück dieses Jahr sein.
Mit größerer Verbreitung sollte es dann irgendwann mal mehr gute Tests geben. Das Throtling wie Ailuros ja schon schrieb sieht nicht allzu gut aus, aber mal mehr Resultate abwarten. Den Laufzeittest von GLbench finde ich Onscreen sinnlos, um etwas über Tegra aussagen zu können. Kann auch sein, dass das Mipad nen Stromfressenden Bildschirm hat und sonst etwas besser abschneiden würde. Schade, dass es da nicht auch On und Offscreen gibt.
Ailuros
2014-07-08, 17:54:09
Was Bandbreite und TBDR angeht. Viele IMRs (eigentlich alle modernen) haben Tilecaches. Der Bandbreitenvorteil ist da schon ziemlich geschrumpft.
http://www.google.gr/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&ved=0CCUQFjAB&url=http%3A%2F%2Fwww.seas.upenn.edu%2F~pcozzi%2FOpenGLInsights%2FOpenGLInsights-TileBasedArchitectures.pdf&ei=qRK8U_DTPOX40gWZ24HgDQ&usg=AFQjCNHS9kf5LLj_zTl2DkYUM3mr8wCjKg&bvm=bv.70138588,d.bGQ&cad=rja
Wir muessen nicht staendig herumgeigen wo das eine oder andere seine Vorteile hat. Warum ein TBDR im Fall von GLB2.7 um einiges weniger Leistung verliert von 1080 auf 1536p ueberlass ich Deiner Phantasie.
Ich muss in einen Technik Forum ja nicht wirklich die eventuell vorhandene unterschiede (Ich sage nicht das es unterschiede geben muss) zwischen billig / Premium Tablet nennen?!? :rolleyes:
Wer sagt dass das MiPad ein billig-tablet ist? Fuer die Verhaeltnisse in China alles andere und bevor Du es bei seinem finalen Preis auf Regalen in Deutschland siehtst wuerde ich noch zu keinen Schlussfolgerungen kommen.
Ich sage nur so viel:
Verwendete Materialien
Unterschiede Kühlung
Akku Qualität
etc.
Dann analysier mal alles Punkt fuer Punkt was das MiPad spezifisch betrifft denn so eine Billig-Muehle wie Du sie hinstellen willst ist es nun auch wieder nicht.
Alte News, war ja schon am 01.07 der Fall. Heute wurden die nächsten 50k in noch schnellerer Zeit verkauft und in 1 Woche kommt die nächste Tour. Frage ist, wann Xiaomi mal mehr an andere Reseller liefern wird. Ziel soll angeblich 2Mio Stück dieses Jahr sein.
2 Mio ist verdammt wenig IMHO; wenn sie das MiPad auf die online chinesischen retailers mit 240-260 Euros schicken werden die Dinger weggehen wie warme Semmeln.
Mit größerer Verbreitung sollte es dann irgendwann mal mehr gute Tests geben. Das Throtling wie Ailuros ja schon schrieb sieht nicht allzu gut aus, aber mal mehr Resultate abwarten. Den Laufzeittest von GLbench finde ich Onscreen sinnlos, um etwas über Tegra aussagen zu können. Kann auch sein, dass das Mipad nen Stromfressenden Bildschirm hat und sonst etwas besser abschneiden würde. Schade, dass es da nicht auch On und Offscreen gibt.
Ich hab viele andere Geraete throtteln sehen bei deren ersten Resultaten und dann ploetzlich haben die sich mit der Zeit komischerweise ausgebuegelt. Das soll jetzt gar nichts heissen aber ich will endlich einen review von einem erfahrenen reviewer ueber das MiPad lesen denn sie fummeln jetzt schon seit einem Monat an den Resultaten rum. Die durchschnittlichen Werte lassen sich durchaus mit einer grosser Anzahl "guter" runs ausbuegeln und das machen wohl leider alle Hersteller.
robbitop
2014-07-09, 09:20:46
Wir muessen nicht staendig herumgeigen wo das eine oder andere seine Vorteile hat. Warum ein TBDR im Fall von GLB2.7 um einiges weniger Leistung verliert von 1080 auf 1536p ueberlass ich Deiner Phantasie.
Auflösung kostet linear bei jeder Komponente der GPU. Bandbreite, Füllrate, Rechenleistung. Nur die Anforderung an die Geometrieleistung bleibt gleich.
Wenn eine GPU bei einer Auflösungssteigerung weniger verliert als andere kann das grob gesagt nur einen Grund haben:
Die geringere Auflösung hatte einen Flaschenhals.
Das kann die CPU sein. Das kann die Geometrieleistung/Rasterleistung der GPU sein. Das kann natürlich auch das Verhältnis Rohleistung/Bandbreite sein (also ein unbalanciertes Verhältnis zwischen Rohleistung und Bandbreite) etc pp.
Aber einen glasklaren Schluss, dass es an der Bandbreite liegt, lässt diese Beobachtung nicht zu IMO.
Das Paper was du verlinkt hast (danke dafür :)), dreht sich um Tile Based Renderer im Allgemeinen (und nennt auch im Speziellen Unterschiede zu PowerVRs Tile Based Defered Renderer). Also nicht nur um Tile Based Defered Renderer. Tile Based Renderer sind heute eigentlich fast alle GPUs. Die haben alle einen Tile Cache zwischen ROP und Speicherinterface. Ansonsten wäre das Verhältnis zwischen Rohleistung und Bandbreite heute extrem unbalanciert (immerhin hat die Bandbreite nicht annähernd so zugenommen wie die Rohleistung seit der Zeit der "klassischen" IMRs).
Außerdem spart man damit schön Energie.
Wenn die anderen ULP GPUs noch klassische IMRs wären, würden die alle von PowerVRs GPUs bei gleicher Rohleistung verprügelt werden. Tun sie aber nicht. Die sind bei vergleichbarer Rohleistung alle auch vergleichbar schnell.
Ailuros
2014-07-09, 09:59:12
Auflösung kostet linear bei jeder Komponente der GPU. Bandbreite, Füllrate, Rechenleistung. Nur die Anforderung an die Geometrieleistung bleibt gleich.
Wenn eine GPU bei einer Auflösungssteigerung weniger verliert als andere kann das grob gesagt nur einen Grund haben:
Die geringere Auflösung hatte einen Flaschenhals.
Das kann die CPU sein. Das kann die Geometrieleistung/Rasterleistung der GPU sein. Das kann natürlich auch das Verhältnis Rohleistung/Bandbreite sein (also ein unbalanciertes Verhältnis zwischen Rohleistung und Bandbreite) etc pp.
Aber einen glasklaren Schluss, dass es an der Bandbreite liegt, lässt diese Beobachtung nicht zu IMO.
Doch und sogar in Manhattan als Alternative. Das peak Resultat fuer Manhattan onscreen fuer das mini retina ist bei 10.7 fps. Man muesste es nur so oft durchlaufen lassen mit einem so hohen Resultat dass es den Durschnitt eben nicht auf 8.8 fps haengen laesst. Kurz der Vorsprung von GK20A von bis zu 2.3x Mal im Vergleich zum mini retina unter 1080p kann unter Umstaenden bis zu 1.8x in 1536p schrumpfen.
Das Paper was du verlinkt hast (danke dafür :)), dreht sich um Tile Based Renderer im Allgemeinen (und nennt auch im Speziellen Unterschiede zu PowerVRs Tile Based Defered Renderer). Also nicht nur um Tile Based Defered Renderer.
Es ist ein ziemlich objektives whitepaper fuer TBR relative Optimierungen unter OGL und OGL_ES.
Tile Based Renderer sind heute eigentlich fast alle GPUs. Die haben alle einen Tile Cache zwischen ROP und Speicherinterface. Ansonsten wäre das Verhältnis zwischen Rohleistung und Bandbreite heute extrem unbalanciert (immerhin hat die Bandbreite nicht annähernd so zugenommen wie die Rohleistung seit der Zeit der "klassischen" IMRs).
Außerdem spart man damit schön Energie.
GK20A ist ein waschreiner IMR genauso wie jegliche desktop GPUs von NVIDIA. Fuer Geometrie liegt dieser dadurch auch im absoluten Vorteil da Geometrie im Hintergrund wie auf allen tilers nicht endlos herumgepuffert wird. Wie waere es vielleicht als Vorschlag wenn Du nachdenken wuerdest dass bei T-Rex hauptsaechlich z/stencil limitiert und die Geometrie generell auf sehr niedrigem Nivaeu ist in relativem Sinn?
Wenn die anderen ULP GPUs noch klassische IMRs wären, würden die alle von PowerVRs GPUs bei gleicher Rohleistung verprügelt werden. Tun sie aber nicht. Die sind bei vergleichbarer Rohleistung alle auch vergleichbar schnell.
Du musst Dir ehrlich klar machen wo und wieso jegliche Architektur tiling anwendet. Wenn man nur so tiling in die Luft schmeisst ja hallo sind natuerlich alle tiler. Und hier genau hilft das whitepaper oben etwas ein paar Differenzen auseinander zu halten.
robbitop
2014-07-09, 11:45:40
Doch und sogar in Manhattan als Alternative. Das peak Resultat fuer Manhattan onscreen fuer das mini retina ist bei 10.7 fps. Man muesste es nur so oft durchlaufen lassen mit einem so hohen Resultat dass es den Durschnitt eben nicht auf 8.8 fps haengen laesst. Kurz der Vorsprung von GK20A von bis zu 2.3x Mal im Vergleich zum mini retina unter 1080p kann unter Umstaenden bis zu 1.8x in 1536p schrumpfen.
Das sagt zumindest aus, dass GK20A andere Bottlenecks hat als Rogue. Kann Bandbreite sein. Kann aber auch was anderes sein. Bist du sicher, dass ein Geometriebottleneck (gerade Rogue ist dort ja nicht gerade der König - und wir erinnern uns alle an Tahiti, der hatte u.A. auch diesen Flaschenhals) auszuschließen ist?
Es ist ein ziemlich objektives whitepaper fuer TBR relative Optimierungen unter OGL und OGL_ES.
Ich weiß. Ich habe es gelesen.
GK20A ist ein waschreiner IMR genauso wie jegliche desktop GPUs von NVIDIA. Fuer Geometrie liegt dieser dadurch auch im absoluten Vorteil da Geometrie im Hintergrund wie auf allen tilers nicht endlos herumgepuffert wird.
Warum ist das Puffern von Nachteil?
Wie waere es vielleicht als Vorschlag wenn Du nachdenken wuerdest dass bei T-Rex hauptsaechlich z/stencil limitiert und die Geometrie generell auf sehr niedrigem Nivaeu ist in relativem Sinn?
Hast du da irgendwelche Zahlen oder Entwickleraussagen oder ähnliches, die das bestätigen?
Z/Stencil ist traditionell im Vorteil bei einem TBDR.
Du musst Dir ehrlich klar machen wo und wieso jegliche Architektur tiling anwendet. Wenn man nur so tiling in die Luft schmeisst ja hallo sind natuerlich alle tiler. Und hier genau hilft das whitepaper oben etwas ein paar Differenzen auseinander zu halten.
Das Paper differenziert aber auch klar TBRs und TBDRs.
Ailuros
2014-07-09, 11:54:29
Das sagt zumindest aus, dass GK20A andere Bottlenecks hat als Rogue. Kann Bandbreite sein. Kann aber auch was anderes sein. Bist du sicher, dass ein Geometriebottleneck (gerade Rogue ist dort ja nicht gerade der König - und wir erinnern uns alle an Tahiti, der hatte u.A. auch diesen Flaschenhals) auszuschließen ist?
In GLB2.7 ein Geometrie-bottleneck? :rolleyes: :freak:
Warum ist das Puffern von Nachteil?
Weil alles zusaetzliche rein zufaellig zusaetzliche resources kostet vielleicht?
Hast du da irgendwelche Zahlen oder Entwickleraussagen oder ähnliches, die das bestätigen?
Da wir das Thema GLB2.7 schon mal in der Vergangenheit besprochen haben, weigere ich mich das off topic und die endlose quote Orgie einfach so weiterzufuehren nur weil Du mal wieder Lust um den Brei zu kehren. Ja es ist z/stencil bound und selbst ein Blinder sieht es beim Durchlauf.
Z/Stencil ist traditionell im Vorteil bei einem TBDR.
Na unterschreib die bloedsinnige Generalisierung erstmal nicht; SGX hat Probleme mit alpha tests wegen einem hw bug oder sonst was und beim 6430 duerften es nach meiner Schaetzung halb so viele z's/clock im Vergleich zu GK20A sein.
Das Paper differenziert aber auch klar TBRs und TBDRs.
...und auch IMRs. Loese bitte Deine Fragen via PM denn es hat keiner unbedingt Lust den OT Kaese mitzulesen.
Ailuros
2014-07-09, 14:53:18
http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Xiaomi%20MiPad
Der heutige Standpunkt der Boerse ist 30.8 fps T-Rex onscreen vs. 29.9 fps in Long term performance. Eine Schande wer sich dabei boeses vorstellen koennte; einfacher man dreht die DVFS Schraube runter, man verliert ca. 26% an Leistung und eliminiert damit das throttling Problem :wink:
Ailuros
2014-07-10, 18:06:23
http://www.merimobiles.com/the-xiaomi-mipad-16gb_p/meri10163.htm
Merimobiles erste Verfuegbarkeit vom 16GB MiPad bei 240 Euro. Immer schoen langsam, bitte nicht pruegeln :biggrin:
Skysnake
2014-07-15, 21:55:08
Kann das vielleicht jemand in Reallation zu Tegra K1 setzen?
http://www.golem.de/news/snapdragon-805-ausprobiert-qualcomms-32-bit-bandbreitenmonster-1407-107791-2.html
Undertaker
2014-07-15, 21:58:34
50 Prozent schneller als die Adreno 330 heißt deutlich unter K1. Dazu noch ein als dick beschriebenes 10 Zoll Tablet - da stellt sich natürlich die Frage, was bei 7-8 Zoll noch geht.
y33H@
2014-07-15, 22:06:29
K1 sehen wir bald ;-)
Ailuros
2014-07-16, 11:30:47
Kann das vielleicht jemand in Reallation zu Tegra K1 setzen?
http://www.golem.de/news/snapdragon-805-ausprobiert-qualcomms-32-bit-bandbreitenmonster-1407-107791-2.html
Nur zu Jetson K1 denn dev platform gegen dev platform: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10280962&postcount=672 :P
Skysnake
2014-07-16, 11:44:09
Das ist ja völlig legitim, so lange die Platformen halbwegs vergleichbar sind.
Ailuros
2014-07-16, 11:52:33
Das ist ja völlig legitim, so lange die Platformen halbwegs vergleichbar sind.
Gut; dann leistet die dev platform was die GPU betrifft genau die Haelfte von einem Jetson K1.
AffenJack
2014-07-16, 12:38:16
Naja, nen aktiv gekühltes Device ist nun auch unfair als Vergleich. Nehmen wir einfach das Xiaomi, da sindwa dann bei 27.5 FPS gegen 17.5 vom Adreno in GfxBench. Die 30FPS am Anfang vom Mipad waren ja auch nur geschummelt und die Taktraten wurden mittlerweile klar abgesenkt.Selbst jetzt soll das Mipad noch ziemlich warm laufen. In anderen Tablets werden wir wohl eher 25FPS GFXBench sehen
Ailuros
2014-07-16, 12:49:07
Naja, nen aktiv gekühltes Device ist nun auch unfair als Vergleich. Nehmen wir einfach das Xiaomi, da sindwa dann bei 27.5 FPS gegen 17.5 vom Adreno in GfxBench. Die 30FPS am Anfang vom Mipad waren ja auch nur geschummelt und die Taktraten wurden mittlerweile klar abgesenkt.Selbst jetzt soll das Mipad noch ziemlich warm laufen. In anderen Tablets werden wir wohl eher 25FPS GFXBench sehen
Die neuesten Jetson devboards sind nicht aktiv gekuehlt und die erreichen fast 34 fps ohne zu schwitzen. Die 17.7 fps vom Adreno420 sind das "peak" Resultat und dagegen erreicht das MiPad schon 30.2 fps ja bei 700+MHz, waehrend das Jetson K1 die GPU bei 850MHz taktet.
Wie sicher bist Du Dir dass das MDP tablet auch wirklich im Durschnitt 17.7 fps erreichen wird?
***edit: uebrigens ist Adreno420 nicht um 50% schneller als der schnellste momentan Adreno330; die letzte leistet (stets peak) 12.5 fps gegen 17.7 fps ist eine 40+% Differenz.
AffenJack
2014-07-16, 20:20:56
Ok, das war mir nicht klar, dass es schon passive gibt. Ja gut, an 17,7 Durchschnitt glaube ich bei Adreno auch nicht unbedingt. Der Abfall wird nicht bei fast 10% wie beim Mipad liegen, aber etwas wirds bestimmt runter gehen. Genaue Werte sind da dann auch eh egal. K1 wird im Tabletbereich deutlich schneller sein.
Interessant wirds aber wieweit es bei Telefonen bei beiden runtergehen wird. Nächsten Dienstag wird das Mi4 wohl vorgestellt und Gerüchteweise in einer S805 und einer K1 Version kommen. Mag zwar der einzige K1 Telefondeal werden, aber interessant wirds trotzdem wie er sich schlägt.
Ailuros
2014-07-16, 20:31:52
Na auf jeden Fall wird Xiaomi wohl schwer so bloed sein und im K1/Mi4 einen 2x Mal so schnellen SoC einbaut (nicht dass es technisch moeglich ist...) :freak:
Ich tippe auf ~15fps fuer die S805 Variante (ausser Xiaomi nutzt wieder aggressives DVFS und taktet nur in benchmarks die GPU auf =/>600MHz) und einen Schnitt mehr fuer die K1 Mi4 Variante.
AffenJack
2014-07-16, 21:19:48
Du unterschätzt die Benchmarkjagd von Xiaomi befürchte ich, die werden die Dinger wieder recht hoch takten. Selbst Tegra4 im Mi3 hatte man ja Taktraten, die höher waren als die meisten T4 Tablets. Dafür wurde das Ding auch brüllend warm. Nur Shield taktete höher.
Unter 20FPS wird Xiaomi glaube ich nicht gehen.
Aber erstmal muss sich das bewahrheiten und nicht nur ein Gerücht sein und dann ist die Frage ob man das K1 Mi4 ernsthaft verkaufen will oder ob es nur ein Marketingstunt wie mit Tegra4 wird, welches schnell verschwindet.
Ailuros
2014-07-16, 21:38:07
ROFL wehe wenn ich gesagt hatte dass das Mi3/T4 zu heiss wurde :D
Dass sie versucht haben das MiPad hoher zu takten aber dass es nicht klappte hast Du ja selber gesehen. Natürlich werden sie womöglich versuchen über 500MHz zu takten, aber es wird auch wieder schön throtteln.
Avalox
2014-07-18, 08:42:19
Bild des Shield Pads.
"NVIDIA Shield tablet press render leaks"
http://www.talkandroid.com/213738-nvidia-shield-tablet-press-render-leaks-shows-front-stereo-speakers
Unicous
2014-07-18, 18:05:30
The fuck ist this?
http://ultimate.nvidia.eu/en-gb
Ich schätze mal es könnte was mit dem Shield Tablet zu tun haben, oder es ist ganz was Anderes.
Edit:
http://shield.nvidia.com/
"Ultimate Portable for Serious Gamers"
Ailuros
2014-07-18, 18:19:36
The fuck ist this?
http://ultimate.nvidia.eu/en-gb
Ich schätze mal es könnte was mit dem Shield Tablet zu tun haben, oder es ist ganz was Anderes.
Edit:
http://shield.nvidia.com/
"Ultimate Portable for Serious Gamers"
Ein UU (Kurzschreibung fuer Ultimate Unicous) ;D
Unicous
2014-07-18, 18:33:19
Und FF (Fuad der Fuchs) weiß auch schon ganze 4 Tage vorher, dass sie am 22. launchen.
http://fudzilla.com/home/item/35277-shield-tablet-8-launching-on-tuesday-july-22nd
fondness
2014-07-18, 18:39:20
Shield Tablet plus Wireless Controller
http://videocardz.com/51059/nvidia-extends-shield-family-shield-tablet-wireless-controller
hasebaer
2014-07-18, 18:49:13
Schaut toll aus.
Fragt sich nur was das kostet.
edit: ach da stehts ja.
http://cdn.videocardz.com/1/2014/07/NVIDIA-SHIELD-Tablet-9.jpg
AnarchX
2014-07-18, 18:50:09
Schaut toll aus.
Fragt sich nur was das kostet.
http://cdn.videocardz.com/1/2014/07/NVIDIA-SHIELD-Tablet-9.jpg
Nett wäre noch ein Power-Dock, in welchem der K1 auf vollen Takt fahren könnte.
Hübie
2014-07-18, 18:57:25
Warum will ich auf einem 8-Zoll-Gerät mit Controller spielen? :|
Ein Stick mit einem K1 am HDMI meines 46-Zoll-Gerätes macht sich mit Controller deutlich besser als dieser Quatsch...
Toll dass wir so etwas querfinanzieren "dürfen". GeForce wird dann wohl noch teurer...
fondness
2014-07-18, 19:02:53
Ich stelle mir das auch spannend vor, das kleine Tablet muss man sich ja fast vor die Nase halten um was zu sehen und dann habe ich einen Wireless Controller wie bei eine vollwertigen Konsolen?! IMO wird das Ding ähnlich erfolgreich wie Shield, der Preis ist auch bereits relativ niedrig also Gewinn wird man da nicht viel machen. Jensen hat es wohl noch immer nicht verkraftet das er keinen Konsolendeal gelandet hat, vermutlich wird man das Tablet schon irgendwie Richtung TV streamen können.
hasebaer
2014-07-18, 19:09:20
Warum will ich auf einem 8-Zoll-Gerät mit Controller spielen? :|
Ein Stick mit einem K1 am HDMI meines 46-Zoll-Gerätes macht sich mit Controller deutlich besser als dieser Quatsch...
Seit Tegra 3 gibt es Miracast bei NV.
U1t7BfpiRAE
deekey777
2014-07-18, 19:09:32
Also ich habe keine Probleme an meinem W4-820 mit dem Xbox One Controller zu spielen.
Hübie
2014-07-18, 19:12:32
Miracast frisst Latenzen und geht z.B. nicht mit meinem Philips-TV anno 2010.
hasebaer
2014-07-18, 19:16:24
Die Latenz im Video könnte mittlerweile deutlich geringer ausfallen, das Video ist jetzt ein Jahr alt.
Und Miracast kann man nachrüsten:
http://geizhals.at/de/netgear-ptv3000-push2tv-ptv3000-100pes-a893996.html
Ok ist nicht grad günstig, aber es geht.
Ailuros
2014-07-18, 19:28:46
Also ich hab nichts gegen Shield2 als Geraet; man muss den controller ja nicht mitkaufen und das Ding sieht nicht so unpraktisch und bescheuert aus wie Shield1.
http://cdn.videocardz.com/1/2014/07/NVIDIA-SHIELD-Tablet-9.jpg
Nett wäre noch ein Power-Dock, in welchem der K1 auf vollen Takt fahren könnte.
Koennte NV auch so machen via sw sobald man das Ding in die Steckdose steckt; nur hilft es nicht im geringsten zur Hitze die dann in so einem engen tablet generiert wird. Von mir aus dann eben mit einem gratis gruenen Backofen-Handschuh damit man sich nach dem Spielen nicht die Pfoten verbrennt :D
Unicous
2014-07-18, 19:31:36
Also ich hab nichts gegen Shield2 als Geraet; man muss den controller ja nicht mitkaufen und das Ding sieht nicht so unpraktisch und bescheuert aus wie Shield1.
Ach, du meinst das ist Shield 2? Ich dachte es gäbe noch eine wirkliche Shield 2 Konsole?
AffenJack
2014-07-18, 19:33:14
Also das Tablet an sich gefällt mir und für 300$ könnte ich mir durchaus eine Anschaffung davon vorstellen. Aber was hat Nv denn geritten einen eigenen controller zu bauen?
Ailuros
2014-07-18, 19:34:29
Ach, du meinst das ist Shield 2? Ich dachte es gäbe noch eine wirkliche Shield 2 Konsole?
Was haette denn eine wirklich Shield2 Konsole noch tolles? Spiele? :freak:
Also das Tablet an sich gefällt mir und für 300$ könnte ich mir durchaus eine Anschaffung davon vorstellen. Aber was hat Nv denn geritten einen eigenen controller zu bauen?
Sie wollten wohl irgend eine Art "Folge" zu Shield1 haben IMO. So oder so ich warten auf Volantis Kollega :smile:
deekey777
2014-07-18, 19:53:10
Also das Tablet an sich gefällt mir und für 300$ könnte ich mir durchaus eine Anschaffung davon vorstellen. Aber was hat Nv denn geritten einen eigenen controller zu bauen?
Mögliche Einnahmen? Keine Lizenzkosten? Der Preis orientiert sich an vergleichbaren Geräten.
Es wäre aber sehr unwahrscheinlich, dass es der einzige Controller für das Shield-Tablet sein wird.
=Floi=
2014-07-18, 19:54:55
nur ein einzelner micro usb schnitstelle ist arg wenig.
hasebaer
2014-07-18, 20:40:54
Es wäre aber sehr unwahrscheinlich, dass es der einzige Controller für das Shield-Tablet sein wird.
Steam Controller plz. =)
Dural
2014-07-18, 23:24:10
das einzig interessante bis jetzt habt ihr wohl verpasst, K1 und LTE!?
Hübie
2014-07-18, 23:36:16
Warum sollte K1 kein LTE können? T4 wird man sicher nicht wiederholen wollen. ;)
Unicous
2014-07-18, 23:55:35
Warum sollte K1 kein LTE können? T4 wird man sicher nicht wiederholen wollen. ;)
Gegenfrage: Warum sollte K1 LTE können? Wo kommt das magische Modem her?
Skysnake
2014-07-19, 08:51:21
Durch ein externes Modem?
Da steht nirgends, das K1 LTE unterstützt, sonder nur, dass das Tablet LTE kann. Oder hat K1 inzwischen auch nen IPS Panel mit integriert? :tongue:
Hübie
2014-07-19, 10:29:26
Gegenfrage: Warum sollte K1 LTE können? Wo kommt das magische Modem her?
Zukauf? :rolleyes:
fondness
2014-07-19, 10:37:00
Würde mich auch schwer wundern wenn der Chip LTE integriert hätte, bei der Vorstellung von K1 wurde schließlich auch kein Modem erwähnt. Gerade wo man den kampf um Smartphones für beendet erklärt hat, da ist mit ziemlicher Sicherheit ein externes Modem verbaut wie bei den meisten anderen Tablets auch.
Unicous
2014-07-19, 11:12:54
Zukauf? :rolleyes:
http://www.freeware.de/blog/uploads/orly.png
Nvidias Stift-Tablet Tegra Note 7 kommt mit LTE nach Deutschland (http://www.heise.de/newsticker/meldung/Nvidias-Stift-Tablet-Tegra-Note-7-kommt-mit-LTE-nach-Deutschland-2122655.html)
Das von Nvidia entwickelte Android-Tablet Tegra Note 7 mit Stifteingabe startet nach langer Wartezeit demnächst in Europa, auch in der brandneuen LTE-Variante. Drin stecken der bekannte Tegra 4 und optional ein LTE-Modem von Nvidia.
http://www.nvidia.de/object/i500-mobile-4g-lte-modem-de.html
Der K1 hat natürlich kein internes Modem, das wäre in der Tat eine große Überraschung. Ob es das i500 ist natürlich eine andere Frage, aber ich wüsste nicht was Nvidia für Probleme mit LTE haben sollte.
Dural
2014-07-19, 11:37:12
vor kurzem hiess es das nv lte fallen lässt und nichts mehr kommt, und ich kann mir nicht vorstellen das nv ein anderes modem einkauft.
von dem her ist es schon eine grosse überraschung.
zudem der k1 nie mit lte in verbindung gebracht wurde.
Unicous
2014-07-19, 11:52:45
Nvidia lässt vllt. Consumer Tegras fallen, aber was hat das Ganze mit LTE-Modems zu tun?:confused:
Was hält Nvidia davon ab ein LTE-Modem zu einzukaufen? Der Stolz?
Was hält andere OEMs davon ab einen K1 mit einem externen LTE-Modem zu koppeln (außer den Kosten natürlich:rolleyes:)?
Ailuros
2014-07-19, 14:42:39
Mich persoenlich interessiert LTE auf einem tablet kein bisschen. Und ja was genau soll daran so besonders da auch das Tegra4 NV tablet in einer Variante mit LTE erhaeltlich ist?
Unicous
2014-07-19, 15:03:28
Mich persoenlich interessiert LTE auf einem tablet kein bisschen. Und ja was genau soll daran so besonders da auch das Tegra4 NV tablet in einer Variante mit LTE erhaeltlich ist?
I wouldn't go thaat far.
http://geizhals.eu/evga-tegra-note-7-lte-16gb-a1075628.html
:wink:
Ich glaube fast, dass das eingestampft wurde/wird, und mit dem HTC ersetzt wird.
Ailuros
2014-07-19, 15:06:58
I wouldn't go thaat far.
http://geizhals.eu/evga-tegra-note-7-lte-16gb-a1075628.html
:wink:
Ich glaube fast, dass das eingestampft wurde/wird, und mit dem HTC ersetzt wird.
Keine Ahnung; es ist ja auch nicht so dass all zu viele besonders wild auf T4 waren generell. Beim K1 gibt es momentan schon guten Grund aufrecht zu sitzen.
dildo4u
2014-07-19, 16:23:15
http://www.computerbase.de/2014-07/chromebox-acer-cxi2610-kommt-als-chrome-os-mini-pc/
Das Chromebook mit dem K1 als einzingstes mit 1080p Display,macht das Sinn ist die GPU stärker als in den Intel's?
Undertaker
2014-07-19, 16:29:47
K1 ist etwa auf dem Level der HD 4400 (zumindest im GLBench).
Ravenhearth
2014-07-19, 16:43:02
Und in den Intel-Chromebooks werkelt halt ein Celeron mit einer HD Graphics, welche über 10 EUs verfügt. Die schafft 160 GFLOPs auf 1 GHz, die Nvidia schafft die 2,4-fache Rechenleistung bei gleichem Takt, taktet aber etwas niedriger. Nur um mal sterile Zahlenvergleiche zu bemühen.
Hübie
2014-07-19, 16:51:07
HD 4400 kann ich persönlich nicht so gut einordnen, aber die Performance der GPU sollte so ziemlich gleich mit eine GT630m sein.
Ailuros
2014-07-19, 17:13:14
Und in den Intel-Chromebooks werkelt halt ein Celeron mit einer HD Graphics, welche über 10 EUs verfügt. Die schafft 160 GFLOPs auf 1 GHz, die Nvidia schafft die 2,4-fache Rechenleistung bei gleichem Takt, taktet aber etwas niedriger. Nur um mal sterile Zahlenvergleiche zu bemühen.
Das "etwas" niedriger ist irgendwo in der 30% Region wobei es dann nur noch 1.7x Mal die Rechenleistung eines 4400 bedeutet auch bei deutlich mehr die area fuer den GK20A. Nur mal so um sterilen Missverstaendnissen zu entgehen.
Ich will hoffen dass Intel die Nachricht so oder so bekommen hat, denn bei zukuenftigen Microsoft OSs die dann auch ARM unterstuetzen muss sich Intel wirklich aufruesten denn so kann es nicht lange weitergehen.
fondness
2014-07-19, 17:33:08
Ich will hoffen dass Intel die Nachricht so oder so bekommen hat, denn bei zukuenftigen Microsoft OSs die dann auch ARM unterstuetzen muss sich Intel wirklich aufruesten denn so kann es nicht lange weitergehen.
Intel hat schon seit einer halben Ewigkeit die schlechtere iGPU, solange die CPU unerreicht ist interessiert das niemanden. Und auch Win8 unterstützt bereits ARM und ist als ARM-Version grandios gefloppt.
Undertaker
2014-07-19, 17:52:46
Die GPU-Leistung ist wie immer in Relation zur Leistungsaufnahme zu sehen; für einen 15-Watt-SoC sind HD 4400/5000 trotz ihres Alters zumindest im x86-Bereich noch immer der Maßstab. Im ARM-Bereich gab es vor Tegra K1 schlicht keine leistungsmäßig äquivalente Konkurrenz.
fondness
2014-07-19, 18:14:36
Wenn du jetzt unbedingt Rosinen picken willst und dir genau einen Haswell bei 15W raus suchst bitte.
Aber ich habe keine Lust mehr auf deinen penetranten Diskussionsstil, deshalb belasse ichs dabei.
Ailuros
2014-07-19, 18:31:20
Intel hat schon seit einer halben Ewigkeit die schlechtere iGPU, solange die CPU unerreicht ist interessiert das niemanden.
Muss eben genau der Grund sein warum sich in vielen Aspekten Intel's GenX in den letzten Jahren verbessert haben (von Bildqualitaet, Treibern, Effizienz bis zur Leistung).
Und auch Win8 unterstützt bereits ARM und ist als ARM-Version grandios gefloppt.
Das heisst immer noch nicht dass ein Hersteller einen Tegra K1 auf windows8 heute integrieren kann.
Wenn du jetzt unbedingt Rosinen picken willst und dir genau einen Haswell bei 15W raus suchst bitte.
Aber ich habe keine Lust mehr auf deinen penetranten Diskussionsstil, deshalb belasse ichs dabei.
Wenn Du kein Gegenwort lesen willst dann schick gefaelligst PMs an Dich selber.
Undertaker
2014-07-19, 18:34:32
Wenn du jetzt unbedingt Rosinen picken willst und dir genau einen Haswell bei 15W raus suchst bitte.
Wie du vielleicht überlesen hast, ging es hier um den Leistungsvergleich zwischen K1 und HD 4400 bzw. HD Graphics (jeweils 15 Watt TDP SoCs) in den Chromebooks. Muss ich zu dem Kommentar jetzt also noch irgendetwas anmerken? :rolleyes:
fondness
2014-07-19, 18:37:13
Muss eben genau der Grund sein warum sich in vielen Aspekten Intel's GenX in den letzten Jahren verbessert haben (von Bildqualitaet, Treibern, Effizienz bis zur Leistung).
Ja offenbar haben sie es mittlerweile doch geschnallt, aber wohl auch nur weil Apple Druck gemacht hat.
Das heisst immer noch nicht dass ein Hersteller einen Tegra K1 auf windows8 heute integrieren kann.
Warum sollte das nicht gehen?
Undertaker
2014-07-19, 18:44:18
Weil Windows 8 nur mit x86 Hardware läuft? ARM-Chips brauchen nach wie vor Windows 8 RT, was insbesondere durch das mangelhafte App-Angebot ziemlich floppt. Lange wird MS diese Trennung imo nicht mehr aufrechterhalten können.
Ailuros
2014-07-19, 18:46:44
Warum sollte das nicht gehen?
Weil ARM CPUs nicht unter "normalem" win OS unterstuetzt wird. Ich hab jetzt keinen genauen Durchblick und lass eines besseren belehren aber es gibt eine Art Spezialversion fuer win8.1 die ARM CPUs unterstuetzt nur heisst sie einfacht nicht mehr "RT".
Wir hatten die Debatte hier schon mal weil ich selber nicht wusste was los damit ist, da ich selber Tegra K1 auf low end windows notebooks erwartete.
fondness
2014-07-19, 18:49:08
Win8 für x86 und ARM ist vollkommen identisch. MS kann weder zaubern noch etwas dafür das viele Windows-Programme nur für x86 kompiliert wurden. MS verpflichtet sogar alle App-Entwickler das sie auch eine ARM-Version zur Verfügung stellen müssen.
Undertaker
2014-07-19, 18:50:01
Ich hab jetzt keinen genauen Durchblick und lass eines besseren belehren aber es gibt eine Art Spezialversion fuer win8.1 die ARM CPUs unterstuetzt nur heisst sie einfacht nicht mehr "RT".
http://www.microsoft.com/surface/de-de/products/surface-2
"Windows RT 8.1"
Win8 für x86 und ARM ist vollkommen identisch.
Nö.
Win8 für x86 und ARM ist vollkommen identisch. MS kann weder zaubern noch etwas dafür das viele Windows-Programme nur für x86 kompiliert wurden.
Das ist nicht richtig. Auf ARM-Windows kannst du keine Desktop-Programme nachinstallieren, was es völlig verkrüppelt.
fondness
2014-07-19, 18:51:47
Das ist nicht richtig. Auf ARM-Windows kannst du keine Desktop-Programme nachinstallieren, was es völlig verkrüppelt.
Okay das ist natürlich wirklich lächerlich.
Ailuros
2014-07-19, 19:16:38
http://www.microsoft.com/surface/de-de/products/surface-2
"Windows RT 8.1"
Na wenigstens kann man die OSs mit dem RT besser auseinanderhalten. I stand corrected. Sonst:
Unzählige Apps
Riesige Auswahl
Apps, mit denen Sie in Verbindung bleiben, Fotos organisieren, Dateien in der Cloud speichern oder spielen können. Schauen Sie sich doch einfach einmal um. Der Windows Store bietet Apps für jedermann.7
ROFL :biggrin: :weg:
Thunder99
2014-07-20, 12:31:00
Henne Ei Problem? :D
Tizen wurde ja auch verschoben wegen mangelndem App Angebot
Aber soweit ich gelesen habe soll ja Win9 x86/64 uns ARM in einem OS unterstützen
Avalox
2014-07-20, 12:52:59
Aber soweit ich gelesen habe soll ja Win9 x86/64 uns ARM in einem OS unterstützen
Damit würden die ganzen Windows Desktop Anwendungen immer noch nicht auf ARM Geräten laufen.
Microsoft hat zu spät angefangen und viel zu inkonsequent umgesetzt die Anwendungserstellung zu abstrahieren.
So wäre auf ARM Geräten eine x86 Emulationssoftware nötig, um die Masse an Anwendungen auszuführen.
Wie da die Perfomance aussieht, sieht man ja, wenn man auf ARM Geräten heute x86 Windows Images in eine VM über eine Emulation ausführt.
Mancko
2014-07-20, 16:39:59
Damit würden die ganzen Windows Desktop Anwendungen immer noch nicht auf ARM Geräten laufen.
Microsoft hat zu spät angefangen und viel zu inkonsequent umgesetzt die Anwendungserstellung zu abstrahieren.
So wäre auf ARM Geräten eine x86 Emulationssoftware nötig, um die Masse an Anwendungen auszuführen.
Wie da die Perfomance aussieht, sieht man ja, wenn man auf ARM Geräten heute x86 Windows Images in eine VM über eine Emulation ausführt.
Dann wirds Zeit, dass x86 weiter an Marktanteilen / Einflussmasse verliert. Je schneller desto besser für alle. Dann kann M$ bei der nächsten Generation alles gleich von Anfang an richtig aufsetzen. Für den Gesamtmarkt und den Kunden ist es jedenfalls am Besten, x86 weiter an Bedeutung verliert und für den normalen Tagesbedarf tut es das ja bereits. Auch M$ kann sich nicht ewig auf Office verlassen. Es gibt bereits ordentlich Konkurrenzangebote - auch von Google - die für den Heimbereich ausreichend sind. Ich habe neulich zum erstenmal das Ganze in Google Docs genutzt und muss sagen, dass ich überrascht war. Funktioniert ganz ordentlich.
Wie da die Perfomance aussieht, sieht man ja, wenn man auf ARM Geräten heute x86 Windows Images in eine VM über eine Emulation ausführt.
Schlechter Vergleich. Einfache Emulation ist nicht mit sowas wie Rosetta zu vergleichen.
Blediator16
2014-07-20, 16:47:51
Xiaomi MiPad with Nvidia Tegra K1 review
http://www.eurogamer.net/articles/digitalfoundry-2014-xiaomi-mipad-review
Undertaker
2014-07-20, 16:56:48
5h Battery Life beim Spielen, 11h Surfen, sehr nett. Zur Performance muss man nicht mehr viel sagen.
Ailuros
2014-07-20, 17:06:35
Xiaomi MiPad with Nvidia Tegra K1 review
http://www.eurogamer.net/articles/digitalfoundry-2014-xiaomi-mipad-review
Richard hatte schon immer eine ausgezeichnete Feder. Well done.
deekey777
2014-07-20, 17:58:04
Der Grafikchip ist der absolute Traum der x86-Welt, da wird kaum der A10 Mikro-6700T mithalten können.
fondness
2014-07-20, 18:04:37
Der Grafikchip ist der absolute Traum der x86-Welt, da wird kaum der A10 Mikro-6700T mithalten können.
Bleibt die Frage ob der Chip bei der Leistungsaufnahme nicht näher am Core i5-4200U liegt, denn die HD4400 ist offenbar deutlich schneller.
deekey777
2014-07-20, 18:15:11
Bleibt die Frage ob der Chip bei der Leistungsaufnahme nicht näher am Core i5-4200U liegt, denn die HD4400 ist offenbar deutlich schneller.
Meinst du diesen: http://ark.intel.com/products/75459 ?
So einen siehst du nie in einem 400€-Tablet. Und die mit SDP von 4,5 W mit HD4200 werden in deutlich teureren Geräten verbaut.
Das MiPad wird doch über Slimport verfügen.
Undertaker
2014-07-20, 18:16:43
Ein 4200U ist im Leben nicht in einem 8"-Tablet passiv einsetzbar. Die Leistungsaufnahme des gesamten MiPads beträgt beim Spielen offenbar rund 5 Watt (5h Laufzeit mit 25Wh Akku).
Hübie
2014-07-20, 18:55:42
Okay jetzt nicht lachen!
Wenn die Benchmarks auf Tablets mit so unterschiedlichen Auflösungen gemacht werden sind doch die Ergebnisse nicht miteinander vergleichbar oder?
Also das Razor Edge hat ja z.B. 1366x768 während das 2048x1536 hat. Das sind ja locker 2,1 Megapixel Differenz. Oder haben die Benchmarks eine fixierte Auflösung? Wenn ja welche? Glaub kaum dass es nur 1366x768 oder 280x720p sind.
Undertaker
2014-07-20, 18:57:02
3DMark 720p, GFXBench 1080p (jeweils offscreen).
Hübie
2014-07-20, 19:01:10
Also ist das Edge ~80% schneller als das Xiamo Mi? Da steht nämlich nix von offscreen. :| Oder ist das automatisch offscreen? Hab die benches noch nie genutzt (mein Galaxy S III packt das wohl nicht mal X-D)
Unicous
2014-07-20, 19:11:14
Wenn bei der Akkulaufzeitsangabe "sollte" steht, kann man dann davon ausgehen dass er 3D Mark 5 mal hat laufen lassen und dann das Ergebnis hochgerechnet hat?:rolleyes:
Hübie
2014-07-20, 19:14:42
Hast du dich auf einer meiner Beiträge bezogen? Dann fehlt mir gerade der Zusammenhang ;D
Die Akkulaufzeit ist wohl guter Durchschnitt (wie erwartet). Ist das denn jetzt ein ARM-custom core oder von der "Stange"?
Undertaker
2014-07-20, 19:15:13
Also ist das Edge ~80% schneller als das Xiamo Mi? Da steht nämlich nix von offscreen. :| Oder ist das automatisch offscreen? Hab die benches noch nie genutzt (mein Galaxy S III packt das wohl nicht mal X-D)
Ja, ist offscreen. Das kommt übrigens auch ganz gut hin, hat das Edge ja auch eine GT 640M LE mit doppelter Shaderzahl und doppelt so breitem SI.
Unicous
2014-07-20, 19:16:30
Hast du dich auf einer meiner Beiträge bezogen? Dann fehlt mir gerade der Zusammenhang ;D
Nö, war eine allgemeine Frage.::comfort:
Hübie
2014-07-20, 19:21:18
*puh* Und ich dacht schon...
@Undertaker: Danke für die Aufklärung :smile:
AffenJack
2014-07-20, 19:36:06
Die Akkulaufzeit ist wohl guter Durchschnitt (wie erwartet). Ist das denn jetzt ein ARM-custom core oder von der "Stange"?
Normale A15, Denver wird man so wies aussieht erst in 2 Wochen was über die Architektur erfahren und Ende des Jahres in Geräten.
hasebaer
2014-07-20, 19:55:27
Ich finde die A15 aber auch ordentlich.
Ich mein im Einzelkerntest ist man zwar immernoch 66% langsamer als ein aktueller Haswell i5, aber im Geekbench Multi-Core sind es nur noch 55% Unterschied.
Die vier echten Kerne machen sich hier bezahlt ggü. 2+SMT.
Wie war das?!
Munkelte man nicht, dass zwei Denver @ 3GHz 80% des Speeds der vier A15 @ 2,3GHz erreichen sollen?
Dann müssten diese Denver im Geekbench Singel-Core bis auf 97,8% an einen aktuellen Haswell rankommen.
Taktbereinigt (2,6GHz) wären das immernoch 84,7% ggü. einem i5 Haswell Kern @ 2,6GHz.
Gut Geekbench ist jetzt nur ein Test, aber geil wäre das schon.
Edit #1:
Hatte da grad einen Denkfehler in Sachen Skalierung und die Geekbench Werte stimmen eh nicht, bzw während Shield mit T4 immerhin noch auf einen Steigerung um den Faktor 3 Single ggü. Multi CPU kommt, bleibt bei K1 nur Faktor 2 übrig.
So wird das ganze Hochgerechne zum Stochern im Nebel ...
Edit #2:
Zumindest kann man sagen, dass K1 in Sachen Leisung pro Kern ohne Taktbereinigung um 60% zulegt.
Unicous
2014-07-20, 21:28:32
http://www.pcper.com/reviews/Mobile/Xiaomi-Mi-Pad-79-Android-Tablet-Review-Utilizing-NVIDIA-Tegra-K1-SoC
hasebaer
2014-07-20, 22:13:51
Cool, PCPer ist schon umfangreicher und es reicht zumindest für einen Quervergleich Tablet A15 ggü. Desktop CPUs. :D
http://img.hexus.net/v2/cpu/intel/Haswell/4770K/HVK/graph-07.jpg
- http://hexus.net/tech/reviews/cpu/56005-intel-core-i7-4770k-22nm-haswell/?page=11
http://images.anandtech.com/graphs/graph7933/62704.png
- http://www.anandtech.com/show/7933/the-desktop-kabini-review-part-1-athlon-5350-am1/3
http://cdn.pcper.com/files/imagecache/article_max_width/review/2014-07-15/sunspider_0.png
Avalox
2014-07-20, 22:18:56
Mit Sunspider ist es nicht möglich vernünftig Vergleiche zwischen Systemen mit verschiedenen Webbrowser anzustellen, zudem muss man aufpassen nicht den Internet Explorer zu benutzen.
hasebaer
2014-07-20, 22:24:07
Ok, welcher Bechmark wäre dann eine solide Vergleichsbasis für die CPU Leistung?
Über den GPU Teil von K1 muss man ja nichts mehr sagen, der ballert alles weg, aber die CPU ist immernoch ungenau einzuordnen.
Ich hätte ja mal gern einen Vergleich J1900 @ 2GHz vs. K1 32bit @ 2GHz.
deekey777
2014-07-20, 22:34:20
Ok, welcher Bechmark wäre dann eine solide Vergleichsbasis für die CPU Leistung?
Über den GPU Teil von K1 muss man ja nichts mehr sagen, der ballert alles weg, aber die CPU ist immernoch ungenau einzuordnen.
Ich hätte ja mal gern einen Vergleich J1900 @ 2GHz vs. K1 32bit @ 2GHz.
Was bringt dir so ein Vergleich?
Du kannst dir maximal die Ergebnisse in 3DMark anschauen, da sieht man, dass es komisch aussieht: Die Grafikleistung eines Silvermont ist unterlegen, aber der Wert in den Physik-Tests höher ist. Egal ob Android oder unter Windows.
Undertaker
2014-07-20, 22:45:54
Jetzt bezogen auf welche Modell? Ggü. dem Z3745 ist K1 durchgängig knapp schneller, auch im 3DMark Physics. Allerdings würde ich Silvermont auch etwas sparsamer einschätzen. Dennoch: Die aktuelle A15 Revision kann sich imo durchaus sehen lassen, da war T4 (OK, kein HPM Prozess) ein anderes Kaliber.
hasebaer
2014-07-20, 23:32:26
Was bringt dir so ein Vergleich?
Hab grad einen J1800 mit 2*2GB (zweck Dualchannel) + SSD als Client PC verbaut und die Leistung reicht für alles bei 9-12W.
Aber wenn ein K1 die gleiche CPU Leistung (single IPC) + deutlich mehr GPU Power bringt bei nochmal weniger Verbrauch ... ja dann fehlt immernoch die Softwarebasis, aber immerhin könnte ich für mich die Leistung im Alltag abschätzen.
deekey777
2014-07-21, 09:07:24
Jetzt bezogen auf welche Modell? Ggü. dem Z3745 ist K1 durchgängig knapp schneller, auch im 3DMark Physics. Allerdings würde ich Silvermont auch etwas sparsamer einschätzen. Dennoch: Die aktuelle A15 Revision kann sich imo durchaus sehen lassen, da war T4 (OK, kein HPM Prozess) ein anderes Kaliber.
Ich glaub, da war ich vorschnell.
Dural
2014-07-21, 10:58:37
sehr cool, ich freue mich umso mehr auf M1 mit Maxwell und eventuell vier Denver Cores.
Das ganze dann 2016/17 in 16nm und die Konkurrenz dürfte sich so ziemlich die Zähne daran ausbeissen. Aber auch schon der M1 in 20nm dürfte ziemlich cool werden.
Unicous
2014-07-21, 11:31:03
sehr cool, ich freue mich umso mehr auf M1 mit Maxwell und eventuell vier Denver Cores.
Das ganze dann 2016/17 in 16nm und die Konkurrenz dürfte sich so ziemlich die Zähne daran ausbeissen. Aber auch schon der M1 in 20nm dürfte ziemlich cool werden.
Uhuh.
Diese blöde Konkurrenz. Das die auch nicht versteht, dass man neue Produkte entwickeln muss um wettbewerbsfähig zu bleiben. Nur Nvidia weiß wie es geht, deswegen verdienen sie mit Halo-Produkten die in "westlichen" Ländern nicht angeboten werden diese Unmengen an Kohle.
Qualcomm schlottert schon vor Angst, dass ihr 2/3 (mobile SoC) Marktanteil auf einstellige Prozentzahlen schrumpfen wird und sie nichts unternehmen können.
Undertaker
2014-07-21, 11:46:02
GPU-seitig darf man durchaus optimistisch sein, wenn man sieht, wo K1 aktuell steht und was z.B. von Qualcomm in nächster Zeit noch so zu erwarten ist. Und was Maxwell für ein zusätzliches Perf/Watt-Potential bietet, ist ja bekannt.
Deutlich größer ist imo das Fragezeichen hinter Denver, da fehlen bislang einfach jegliche belastbare Fakten. Allerdings muss Denver mindestens so effizient wie A57 sein, sonst würde der ganze Aufwand wenig Sinn ergeben. Außer Apple hat momentan eh kein anderer Hersteller einen 64 Bit Custom Core (edit: OK, jetzt hätte ich Intel fast vergessen), und das wird sich nach aktuellen Stand auch nicht so schnell ändern.
Avalox
2014-07-21, 11:55:07
Außer Apple hat momentan eh kein anderer Hersteller einen 64 Bit Custom Core (edit: OK, jetzt hätte ich Intel fast vergessen), und das wird sich nach aktuellen Stand auch nicht so schnell ändern.
Das stimmt nicht.
Schon lange vor Apple gab es den X-Gene ARMv8 SoC, ein ARM Custom Design und der vor kurzen durch die Presse gegeisterte ThunderX von Cavium hat auch ein ARMv8 ARM Custom Design und konkrete Ankündigungen weiterer Hersteller gibt es auch, wo mir der Name nur jetzt nicht spontan einfällt.
Hinreichende Menge an Designs gibt es schon.
Ailuros
2014-07-21, 12:01:25
GPU-seitig darf man durchaus optimistisch sein, wenn man sieht, wo K1 aktuell steht und was z.B. von Qualcomm in nächster Zeit noch so zu erwarten ist.
Wobei QCOM's Kerngeschaeft nach wie vor smartphone SoCs sind fuer den ULP Markt.
Und was Maxwell für ein zusätzliches Perf/Watt-Potential bietet, ist ja bekannt.
Wobei NVIDIA selber in einem slide angegeben hat dass der naechste SoC fuer die GPU eine Steigerung von 50% fuer FLOPs/Watt bringen wird oder noch besser es ist zumindest momentan so viel projeziert.
Undertaker
2014-07-21, 12:10:49
Das stimmt nicht.
Schon lange vor Apple gab es den X-Gene ARMv8 SoC, ein ARM Custom Design und der vor kurzen durch die Presse gegeisterte ThunderX von Cavium hat auch ein ARMv8 ARM Custom Design und konkrete Ankündigungen weiterer Hersteller gibt es auch, wo mir der Name nur jetzt nicht spontan einfällt.
Hinreichende Menge an Designs gibt es schon.
Ich hätte vielleicht konkretisieren sollen das ich von SoCs rede, die auch irgendwie in Konkurrenz zur Tegra-Serie stehen. ;) Da gibt's im Android-Lager vorerst nur Intel mit einem eigenen Core.
Wobei QCOM's Kerngeschaeft nach wie vor smartphone SoCs sind fuer den ULP Markt.
Klar, Smartphones sind für Tegra kein wirkliches Thema.
fondness
2014-07-21, 12:13:07
Wobei QCOM's Kerngeschaeft nach wie vor smartphone SoCs sind fuer den ULP Markt.
Bingo, das wird hier laufend ignoriert. Die Konurrenz muss und wird also bei der TDP eine Stufe drunter liegen.
Avalox
2014-07-21, 12:16:07
die auch irgendwie in Konkurrenz zur Tegra-Serie stehen.
Meinst du? Ich denke es könnte sogar viel interessanter sein. Weil ich mal irgendwo das Gerücht gelesen habe, dass nVidia gar nicht selbst den Kern entwickelt hat, sondern ihrerseits ein CPU Design eingekauft oder zumindest kooperiert haben. So viele Kandidaten kommen da nicht in Frage
und Denver ist garantiert mit Blick auf nVidia High-Performance Computing Schiene entwickelt worden. Schnittmengen gibt es schon einige.
Undertaker
2014-07-21, 12:17:15
Denver ein Lizenz-Core? Das hab ich ja noch nie gehört.
AffenJack
2014-07-21, 12:27:58
Ich auch nicht, klingt aber auch nach Blödsinn. Denver könnte wohl auf Transmetas Knowhow basieren, aber da hat man nix lizensiert, sondern die firma aufgekauft.
YfOrU
2014-07-21, 12:37:09
Schon lange vor Apple gab es den X-Gene ARMv8 SoC, ein ARM Custom Design
X-Gene Samples: March'13
X-Gene Production: June'14
http://2eof2j3oc7is20vt9q3g7tlo5xe.wpengine.netdna-cdn.com/wp-content/uploads/2014/06/applied-micro-x-gene-roadmap.jpg
In Relation dazu: A7 gab es Q4/2013 in Endgeräten und Apple braucht vom Start weg ganz andere Stückzahlen.
Avalox
2014-07-21, 12:38:44
X-Gene Samples: March'13
In Relation dazu: A7 gab es Q4/2013 in Endgeräten.
Ja kann sein, jedenfalls wurde das X-Gene SoC vorgeführt, als von Apple noch lange nichts zu sehen war. Mehr will ich auch gar nicht behauptet haben.
Dural
2014-07-21, 12:47:11
Bingo, das wird hier laufend ignoriert. Die Konurrenz muss und wird also bei der TDP eine Stufe drunter liegen.
Ich halte das für ein Gerücht, den NV könnte locker in diese TDP Klasse einsteigen wenn sie möchten. Bisschen weniger Takt und man wäre drin. Viele vergessen immer wieder das die Tegra SoC im vergleich zur Konkurrenz gar nicht gross sind, gegenüber Apple sogar kleiner sind.
NVs Problem ist sicher nicht die TDP, sondern LTE. Eventuell wird es ja mit M1 in 20nm oder später mal wieder einen Versuch mit LTE geben. Zudem könnte ihr Soft LTE Modem gerade in den kleineren Fertigungen umso interessanter werden.
eligos
2014-07-21, 13:51:21
Das stimmt nicht.
Schon lange vor Apple gab es den X-Gene ARMv8 SoC...
Ja kann sein, jedenfalls wurde das X-Gene SoC vorgeführt, als von Apple noch lange nichts zu sehen war. Mehr will ich auch gar nicht behauptet haben.
Was willst du denn sonst behauptet haben? Es wurde schon an anderer Stelle darauf hingewiesen dass es unfug ist was du erzählst und du kommst wieder damit an.
Oder wolltest du damit Apples Execution loben? Deiner Logik nach (nicht gezeigt, also nicht vorhanden ) müsste ja Apple nach März 2013 das Ding aus dem Boden gestampft haben und paar Monate später in Produktion gegangen sein, um die Millionen zum Launch bereit zu haben und zwar in Produkten!
Als ob Apple alles und jedem zeigen würde was die im Petto haben, echt mal. Wenn mans weiter spinnt existiert der Nachfolger vom A7 überhaupt noch nicht, da nicht vorgeführt! Dürfte aber auf der anderen Seite bald in Geräten auftauchen...
Deiner hinreichenden Menge an Designs geht es allerdings blendend, auf dem Papier! Da kann man ganz viele Kopien von machen und als Stückzahlen verkaufen.
Ailuros
2014-07-21, 13:56:42
Ich halte das für ein Gerücht, den NV könnte locker in diese TDP Klasse einsteigen wenn sie möchten. Bisschen weniger Takt und man wäre drin. Viele vergessen immer wieder das die Tegra SoC im vergleich zur Konkurrenz gar nicht gross sind, gegenüber Apple sogar kleiner sind.
Fast bis zur Haelfte des maximalen GPU Takts ist keineswegs ein "bisschen" und in dem Fall ist ein solcher SoC eben "ueberentwickelt" oder einfach zu stark fuer den smartphone Markt. Genauso wie andersrum Qualcomm's S805 im gleichen relativen Sinn zu schwach und "unterentwickelt" fuer ein high end tablet ist. Man kann eben nicht alles haben.
NVs Problem ist sicher nicht die TDP, sondern LTE. Eventuell wird es ja mit M1 in 20nm oder später mal wieder einen Versuch mit LTE geben. Zudem könnte ihr Soft LTE Modem gerade in den kleineren Fertigungen umso interessanter werden.
Jensen hat schon mehr als einmal angegeben dass der smartphone Markt fuer sie praktisch irrelevant werden wird. Ueber den einen oder zwei smartphone deals pro Jahr furzt auch keiner darueber.
------------------------------------------------------------------------------------------------
Sonst ausser Intel and Apple gibt es momentan keine high end SoCs mit 64bit CPUs, da kann ich noch lange weiter Duennschiss und Ausweichungen darueber reden. Und bei Intel ist es sogar so eine Sache fuer sich da die ersten Baytrail tablets nur 32bit unterstuetzten.
Avalox
2014-07-21, 15:30:45
Was willst du denn sonst behauptet haben? Es wurde schon an anderer Stelle darauf hingewiesen dass es unfug ist was du erzählst und du kommst wieder damit an.
Was willst du mir jetzt eigentlich sagen?
X-Gene war und ist die erste ARMv8 Implementierung gewesen. ARMv8 welches ARM im Jahr 2011 vorgestellt hat und X- Gene ist das erste Custom Design einer ARMv8 CPU.
Tape Out des X-Gene war übrigens 2012 und März 2013 gingen die Entwicklungsbausteine schon an externe Geräteentwickler.
Willst du das was bestreiten?
Haben mehr Firmen als nur Apple das Potential frühzeitig erkannt.
Dural
2014-07-21, 15:36:47
Apple taktet auch nur mit 1GHz und etwas, der K1 wäre immer noch sehr Konkurrenzfähig im Handy Markt, auch wenn man bei der CPU 1,x GHz hätte und die GPU nur noch mit 6xxMHz läuft. Zb. 1,8GHz CPU und 600MHz für die GPU.
Wie auch immer, ohne LTE macht es keinen Sinn. Das LTE Modem scheint einfach zu viel zu verbrauchen in 28nm. Das könnte aber zb. in 16nm wie gesagt anders Aussehen.
Jensen hat schon mehr als einmal angegeben dass der smartphone Markt fuer sie praktisch irrelevant werden wird. Ueber den einen oder zwei smartphone deals pro Jahr furzt auch keiner darueber.
Was man sagt muss man nicht meinen, und überhaupt wenn NV irgend wo ein Gewinn im Handy Markt ausmachen kann mit ihren Produkten, wird das wieder ganz schnell anders ausschauen.
Tatsache ist das NV derzeit nichts im Handy Markt zu bieten hat.
Denkst du wirklich die haben LTE begraben? Ich kann mir nicht vorstellen das Jensen die 300Mio irgend was für den Aufkauf so schnell in den Sand gesetzt hat.
eligos
2014-07-21, 16:00:16
Was willst du mir jetzt eigentlich sagen? ...
Haben mehr Firmen als nur Apple das Potential frühzeitig erkannt.
Nur weil Apple es nicht verkündet heißt es nicht dass es bei denen nicht schon eher gab, das will ich damit sagen. Vielleicht haben das die Apple Ingenieure eine Minute früher auf eine Serviette bei einem Bier gekritzelt aber nichts gesagt um dich in die Irre zu führen...
Ich will gar nichts bestreiten, da man nur einen Bruchteil des Ganzen zu Gesicht bekomm. Aber du im Gegensatz bist dir immer sicher, genauso bei dem ersten pfeilschnellen Octacore der am Ende gar nicht richtig "Octacore" war aber auf dem Papier sicher super innovativ aussah.
Am Ende zählt das was geliefert und da führt Apple alle vor.
PS: "Das Potential erkannt", so etwas kann auch nur von dir kommen.
Dann bin ich aber Nostradamus, denn man konnte vorher schon mit 100%tiger Wahrscheinlichkeit sagen dass es so kommt und jetzt halt dich fest: Bei einer hypothetischen v9 wird das genauso kommen!
Avalox
2014-07-21, 16:39:54
Aber du im Gegensatz bist dir immer sicher, genauso bei dem ersten pfeilschnellen Octacore der am Ende gar nicht richtig "Octacore" war aber auf dem Papier sicher super innovativ aussah.
Was heißt es war kein richtiger Achtkerner? Natürlich, ist es ein absolut richtiger Achtkerner und zudem absolut wegweisend im Design.
Vielleicht ist es dir noch nicht aufgefallen, inzwischen ist der aller, aller, allergrößte Teil aller Hersteller genau auf dieses Muster SoCs zu bauen umgeschwenkt.
Es gibt nur keinen Anlass darauf rumzureiten.
eligos
2014-07-21, 17:06:04
Man konnte die bei dieser Muster-CPU ja auch so gut parallel nutzen und Moto X hatte auch einen 8 Kerner verbaut :biggrin:
Bei einem "Ture Octa Core" konnte man sich schon wegen dem Namen sicher sein dass es auch einer ist... :smile:
Außerdem war das doch gar kein wegweisendes custom Design, sonder ein wegweisendes von der Stange (?). Und BigLittle verbauen alle nur weils ARM so liefert, wenn ARM was anderes bringt (BigBgBigBig-*Little oder 2 flexible die von 1Hz bis 10 Ghz takten) dann verbauen die halt das (wobei die Zahl der Cores am besten möglichst bis ins Unendliche zu steigern ist).
Edit: "muster" und "wegweisend" eingebaut weils einfach zu gut ist!
*Minus
Avalox
2014-07-21, 17:27:16
Man konnte die bei dieser Muster-CPU ja auch so gut parallel
Doch geht und es war sehr wegweisend, weil genau diese Entwicklung dafür gesorgt hat, dass das moderne Betriebssystem damit besser umzugehen versteht.(entgegen alten Systemen, die es bis heute nicht können)
eligos
2014-07-21, 17:31:04
Hauptsache du bleibst dir treu, war aber auch nicht anders zu erwarten ;D
Ailuros
2014-07-21, 18:39:26
Das LTE Modem scheint einfach zu viel zu verbrauchen in 28nm. Das könnte aber zb. in 16nm wie gesagt anders Aussehen.
Weisst Du wie man es nennt wenn man darauf wartet dass ein zukuenftiger Prozess hw-Probleme loesst? Schlampiges engineering.
Was man sagt muss man nicht meinen, und überhaupt wenn NV irgend wo ein Gewinn im Handy Markt ausmachen kann mit ihren Produkten, wird das wieder ganz schnell anders ausschauen.
Tatsache ist das NV derzeit nichts im Handy Markt zu bieten hat.
Und wird wohl auch fuer die naechsten Jahre nichts dafuer zu bieten haben. Ist wirklich nichts Neues mehr.
Denkst du wirklich die haben LTE begraben? Ich kann mir nicht vorstellen das Jensen die 300Mio irgend was für den Aufkauf so schnell in den Sand gesetzt hat.
Dass was er in Zwischenzeit fuer custom CPUs und server SoCs begraben hat, hat sogar noch mehr als Icera gekostet.
Avalox und eligos: da Ihr beide eine OT Tendenz habt und womoeglich auch irrsinnige persoenliche Differenzen die keinen interessieren, loesst es bitte via PMs.
Weisst Du wie man es nennt wenn man darauf wartet dass ein zukuenftiger Prozess hw-Probleme loesst? Schlampiges engineering.
Sonst hätten wir zum Beispiel auch schon lange 10GBit/s-Ethernet über Kupfer für billig. Manche Dinge brauchen eben erst den Fortschritt in der Fertigung bis sie mit geringer TDP machbar sind.
Ailuros
2014-07-21, 19:15:51
Sonst hätten wir zum Beispiel auch schon lange 10GBit/s-Ethernet über Kupfer für billig. Manche Dinge brauchen eben erst den Fortschritt in der Fertigung bis sie mit geringer TDP machbar sind.
So lange es effizientere kaufbare LTE modems auf dem Markt gibt fehlt Dir wohl der Punkt.
hasebaer
2014-07-21, 21:24:00
Wie ist das eigentlich bei LTE mit dem Patent-trolling?
Patentkosten können die Entwicklung eigener Lösungen auch unrentabel machen, wenn man einen bestimmten Preispunkt nicht überschreiten darf.
Dural
2014-07-22, 15:12:14
Der Tegra K1 arbeitet mit 2,2 GHz und soll zu jeder Zeit mit dem vollen Takt laufen. Um eine dafür ausreichende Kühlung zu gewährleisten, hat Nvidia das Tablet mit 92 Millimeter etwas dicker gestaltet. Das Gewicht beträgt 390 Gramm
Die Akkulaufzeit soll zehn Stunden beim Schauen von HD-Videos und drei bis fünf Stunden beim Spielen betragen – je nachdem, wie anfordernd der Titel ist. Technisch einfach Spiele wie Angry Birds sollen länger als zehn Stunden spielbar sein.
http://www.computerbase.de/2014-07/nvidia-shield-tablet-tegra-k1-hands-on/
wie war das noch mal? aktive Kühlung Notwendig und 45Watt :P
deekey777
2014-07-22, 15:16:10
Das ist ohne Frage ein geiles Gerät. Mit falschem OS.
y33H@
2014-07-22, 15:18:12
Hier ein paar Messwerte, die Geräte waren aber alle offline, selbst installieren war nicht gestattet: http://www.golem.de/news/nvidia-shield-tablet-ausprobiert-schnelles-spiele-tablet-fuer-android-mit-wlan-controller-1407-108025-3.html
Dural
2014-07-22, 15:19:45
Schon die Vermuteten 10Watt TDP können so wohl kaum Stimmen, den ich kann mir nicht vorstellen das ein 8" Tablet 10Watt passiv Kühlen kann.
Die Frage bleibt aber natürlich offen, ob der K1 wirklich nie trosselt.
dildo4u
2014-07-22, 15:21:09
Das ist ohne Frage ein geiles Gerät. Mit falschem OS.
Dürfte Surface 3 nicht auch K1 nutzen?
Schon die Vermuteten 10Watt TDP können so wohl kaum Stimmen, den ich kann mir nicht vorstellen das ein 8" Tablet 10Watt passiv Kühlen kann.
Die Frage bleibt aber natürlich offen, ob der K1 wirklich nie trosselt.
Der CPU takt ist im Vergleich zum 805 sehr niedrig könnte passen.
2.7Ghz im Smartpohne,da dürfte durchgänig 2.7Ghz im Tablet kein Problem sein.
http://www.computerbase.de/2014-07/lg-g3-cat.6-mit-snapdragon-805-gegen-galaxy-s5-lte-a/
deekey777
2014-07-22, 15:23:36
Dürfte Surface 3 nicht auch K1 nutzen?
Ein noch falscheres OS.
dildo4u
2014-07-22, 15:26:57
Nicht wirklich K1 ist dazu da PC Port's auf Mobile SOC's zu bringen,daher die Kombination mit dem Kontroller.
PCGH Artikel.
http://www.pcgameshardware.de/Project-Shield-Hardware-256897/Specials/Tablet-Tegra-K1-Test-1129521/
Hübie
2014-07-22, 15:52:02
Und ich frage noch mal: Warum will ich sowas auf einem 8"-Gerät machen. Mit einer Mobilverbindung kann ich nicht zocken und Zuhause hab ich n großen TV. Ich checks nicht.
Dural
2014-07-22, 16:00:29
da kannst du dir auch gleich die Frage stellen für was man ein Tablet benötigt. ;)
Es soll sogar Leute geben die mit einem 10" iPad durch die Gegend rennen um Fotos und Videos damit zu machen. Die Leute wollen heute In sein, ob es gut oder Praktisch ist können sie offensichtlich nicht mehr beurteilen.
mboeller
2014-07-22, 16:33:41
http://www.notebookcheck.com/NVIDIA-Shield-Tablet-mit-Tegra-K1-und-Wireless-Controller-vorgestellt.121930.0.html
Ein paar Benchmark-Werte
Hübie
2014-07-22, 16:36:10
Ein Tablet als solches akzeptiere ich. Wenn ich Kochrezepte brauche, Nähanleitungen nachvollziehe oder sonstiges im Haushalt damit anstelle ists voll okay. Gibt auch ne Menge Einsatzmöglichkeiten außerhalb des Haushaltes, aber Zocken als Primärattribut ist - zumindest in meiner Welt - totaler Schwachsinn. Ein HDMI-Stick für den TV fände ich hingegen schon sinniger. Vor allem die Kombination mit dem (überteuerten) Controller.
Nightspider
2014-07-22, 16:44:37
Wollten die nicht Portal 2 portieren?
Gibts da schon Benchmarks und Eindrücke zur optischen Qualität?
Hübie
2014-07-22, 16:49:03
Von Portal 2 kam mir noch nix zu Ohren. Hast n link? HL2 & Portal 1 sind portiert.
Dural
2014-07-22, 17:57:48
es ist ja auch ein normales Tablet, mit dem Unterschied das man einen Controller dazu kaufen kann, wenn man möchte.
Wer mal zb. im Sommer im Garten Zocken möchte kann das doch gut finden, wer weis.
Gerade auch wenn man unterwegs oder im Bett mal einen Film anschauen möchte, ist das Tablet doch mit dem hoffentlich gutem Stereosound auch super, viele Tablet bieten hier nur miesen Monosound.
Wer ein normales Tablet sucht wird mit dem Nexus9 oder neuem iPad sicher fündig. ;)
deekey777
2014-07-22, 19:02:30
Nicht wirklich, K1 ist dazu da PC Ports auf Mobile SoCs zu bringen, daher die Kombination mit dem Controller.
Glaubst du auch an den Weihnachtsmann?
Damit es nicht zu gemein wirkt:
Nvidia kann erzählen, was sie wollen. Es gibt unzweifelhaft Portierungen bekannter älterer und noch älterer Spiele auf mobile Geräte (Rockstar ist das beste Beispiel dafür: Max Payne, GTA3, GTA Vice City und SA; das aktuellste Spiel ist aber XCOM). Das bedeutet aber nicht viel, denn um ein PC-Spiel auf ein mobiles Gerät zu portieren, muss das Spiel kräftig umgekrempelt werden: Es wäre ja blöd, wenn ein Crysis auf einem mobilen Gerät wie HL1 aussieht und dazu noch mehrere GB an Speicher frisst.
Ailuros
2014-07-22, 19:05:47
http://www.computerbase.de/2014-07/nvidia-shield-tablet-tegra-k1-hands-on/
wie war das noch mal? aktive Kühlung Notwendig und 45Watt :P
http://cdn.pcper.com/files/imagecache/article_max_width/review/2014-07-18/powerconsumption.png
http://www.pcper.com/reviews/Mobile/Xiaomi-Mi-Pad-79-Android-Tablet-Review-Utilizing-NVIDIA-Tegra-K1-SoC/Battery-Life-and
This graph is a bit more interesting, as it presents a calculated estimate of power consumption of each tablet, including the SoC, memory, display, etc. These numbers were calculated by finding the total battery size of each tablet (in Watt-hours) and then dividing that by the actual number of hours the tablet ran in our testing. Obviously this result isn't going to be 100% accurate, and takes into the calculation the other components in the tablet, not just the SoC. Still, it's an interesting look at the overall efficiency of the Tegra K1 platform.
Selbst wenn irgend ein Depp die 45W behauptet hat heisst es noch lange nicht dass es irgend jemand geglaubt hat; aber eben weil Leistung NICHT umsonst ist scheint in der INDIZIE die der obrige graph gibt das MiPad ca. 43% mehr zu verbrauchen als Tegra4 welches auch nicht gerade bescheiden im Stromverbrauch war. Dieses bei schaetzungsweise =/>700MHz fuer die GPU welches nochmal 26% niedriger ist als die angegebene peak Frequenz von 951MHz die nichtmal mit aktiver Kuehlung realisiert wurde bis jetzt. Du wolltest sagen?
es ist ja auch ein normales Tablet, mit dem Unterschied das man einen Controller dazu kaufen kann, wenn man möchte.
Wer mal zb. im Sommer im Garten Zocken möchte kann das doch gut finden, wer weis.
Gerade auch wenn man unterwegs oder im Bett mal einen Film anschauen möchte, ist das Tablet doch mit dem hoffentlich gutem Stereosound auch super, viele Tablet bieten hier nur miesen Monosound.
Wer ein normales Tablet sucht wird mit dem Nexus9 oder neuem iPad sicher fündig. ;)
Ich will das Volantis haben aus vielen Gruenden. U.a. sind updates dank Google und NV garantiert und es wird ein 9" Geraet. Das MiPad ist schoen und gut aber leider zu klein fuer meinen Geschmack.
Undertaker
2014-07-22, 19:19:43
Selbst wenn irgend ein Depp die 45W behauptet hat heisst es noch lange nicht dass es irgend jemand geglaubt hat; aber eben weil Leistung NICHT umsonst ist scheint in der INDIZIE die der obrige graph gibt das MiPad ca. 43% mehr zu verbrauchen als Tegra4 welches auch nicht gerade bescheiden im Stromverbrauch war.
Ich hoffe dir ist bewusst, dass das MiPad ein größeres und weitaus feiner aufgelöstes Display hat (wurde denn zumindest bei gleicher Helligkeit verglichen?), was einen Vergleich ziemlich schwierig macht. Gerade beim Surfen ist das der Hauptverbraucher Nummer 1.
Dieses bei schaetzungsweise =/>700MHz fuer die GPU welches nochmal 26% niedriger ist als die angegebene peak Frequenz von 951MHz die nichtmal mit aktiver Kuehlung realisiert wurde bis jetzt.
Interessieren die Frequenzen, wenn die Performance nun erscheinender Endgeräte nun teils sogar höher(!) ist, als noch zum Launch versprochen? Da wurden ja selbst meine defensiven Schätzungen von 45 -50 fps im TRex Offsceen noch als passiv unmöglich abgetan... ;) Ergo: Scheiß drauf, ob das jetzt 100, 500 oder 1000 MHz sind. Die versprochene Leistung wird vollständig geliefert, passiv kühlbar. Damit haben selbst die größten Optimisten nicht gerechnet.
Ailuros
2014-07-22, 19:24:05
Ich hoffe dir ist bewusst, dass das MiPad ein größeres und weitaus feiner aufgelöstes Display hat (wurde denn zumindest bei gleicher Helligkeit verglichen?), was einen Vergleich ziemlich schwierig macht. Gerade beim Surfen ist das der Hauptverbraucher Nummer 1.
Ich hoffe Dir ist genauso bewusst dass display Technologie mit der Zeit effizienter wird und nicht das Gegenteil. Und zum allerletztem Mal die Groesse des displays beinflusst den Stromverbrauch MEHR als nur steril verglichene Aufloesungen. Ein gleich grosses display mit einer hoeheren Aufloesung und neuerer display Technologie wird eben NICHT unbedingt mehr verbrauchen, ergo such Dir eine bessere Ausrede oder renn selber einen solchen test. Ueberhaupt wenn ich es sogar mit Blockbustaben als "INDIZIE" beschreibe.
Beim surfen ist der groesste Verbrauch eigentlich der wifi block bzw. chip selber je nachdem auch wie beschissen das wifi Signal ist.
Interessieren die Frequenzen, wenn die Performance nun erscheinender Endgeräte nun teils sogar höher(!) ist, als noch zum Launch versprochen? Da wurden ja selbst meine defensiven Schätzungen von 45 -50 fps im TRex Offsceen noch als passiv unmöglich abgetan... ;) Ergo: Scheiß drauf, ob das jetzt 100, 500 oder 1000 MHz sind. Die versprochene Leistung wird vollständig geliefert, passiv kühlbar. Damit haben selbst die größten Optimisten nicht gerechnet.
Du wirst wie jeder andere mit der Kritik gegen Tegra leben muessen. Und es hat gar nichts mit der Leistung zu tun die Du Dir spezifisch vorgestellt hast. Scheiss drauf Du musst ja sowieso Tegra mir nichts dir nichts verteidigen.
Undertaker
2014-07-22, 19:30:52
Ein gleich grosses display mit einer hoeheren Aufloesung und neuerer display Technologie wird eben NICHT unbedingt mehr verbrauchen
Jetzt zu spekulieren, dass ein 2014er 7,9" 2048x1536 Display das Verbrauchslevel eines 1280x720 Displays von 2013 erreicht, ist genau das: Spekulation. Ich wage zu behaupten, dass das nahezu unmöglich ist. Um dir die Zahlen mal näher zu bringen:
MiPad vs. Note 7:
+ 43% Bildfläche
3,4x Pixelzahl
Nein, so einen Effizienzsprung gab es in einem Jahr eher nicht.
Bei surfen ist der groesste Verbrauch eigentlich der wifi block bzw. chip selber je nachdem auch wie beschissen das wifi Signal ist.
In einem Tablet: Nö, eher nicht. Edit: Das vergleichbare Panel des iPad Mini Retina zieht übrigens 3,3 Watt bei voller Helligkeit, das Nexus 7 1,8 Watt – 1,5 Watt Mehrverbrauch, und da hatte das Nexus 7 sogar schon FHD. Aber keine Ahnung, wie hier gemessen wurde.
Du wirst wie jeder andere mit der Kritik gegen Tegra leben muessen. Und es hat gar nichts mit der Leistung zu tun die Du Dir spezifisch vorgestellt hast. Scheiss drauf Du musst ja sowieso Tegra mir nichts dir nichts verteidigen.
Hust, Argumente? Ich bitte dich mal einen Grund zu nennen, warum eine höhere Leistung als erwartet bei niedrigerer Taktrate schlechter ist als das Gegenteil.
Ailuros
2014-07-22, 19:39:28
Jetzt zu spekulieren, dass ein 2014er 7,9" 2048x1536 Display das Verbrauchslevel eines 1280x720 Displays von 2013 erreicht, ist genau das: Spekulation. Ich wage zu behaupten, dass das nahezu unmöglich ist. Um dir die Zahlen mal näher zu bringen:
MiPad vs. Note 7:
+ 43% Bildfläche
3,4x Pixelzahl
Nein, so einen Effizienzsprung gab es in einem Jahr eher nicht.
Was fuer einen display benutzt denn das MiPad?
In einem Tablet: Nö, eher nicht.
Dann beobachte die Verbrauchs-statistiken von Android oefters; wenn diese natuerlich verkorkst sind dann touche.
Hust, Argumente? Ich bitte dich mal einen Grund zu nennen, warum eine höhere Leistung als erwartet bei niedrigerer Taktrate schlechter ist als das Gegenteil.
Was zum Teufel heisst hoehere Leistung als erwartet genau? Hat NVIDIA einen Unterschied von 2x Mal fuer Manhattan in ihrem Material behauptet oder rein zufaellig mehr? Such es Dir selber nochmal raus und ich setz mich nicht nochmal hin und erklaere wieso es am Ende weder 950MHz fuer die GPU im Jetson wurden noch 850MHz in passiv gekuehlten ultra thin tablets.
Es gibt Marketing-material von NVIDIA selber die das obrige bestaetigen, ergo ist nichts davon frei erfunden.
Das was Du als Endleistung vermittelt bekommen hast war wohl schon die konservative endgueltige Leistung eines realistischen tablets, wo es ihnen zu dem Zeitpunkt wohl schon klar war dass sie selbst ein metal spin nicht retten kann.
Undertaker
2014-07-22, 19:45:10
Was zum Teufel heisst hoehere Leistung als erwartet genau?
versprochen:
60 fps TRex
28 fps Manhattan
geliefert (Shield 2):
66 fps TRex
31 fps Manhattan
Und nun? ;) Soll ich jetzt noch damit anfangen, dass ich sogar nur 45 - 50 fps TRex spekuliert habe und du selbst das nicht glauben wolltest? ;)
Edit: Wenn du für die Werte eine Quelle brauchst -> PN.
Ailuros
2014-07-22, 19:53:08
versprochen:
60 fps TRex
28 fps Manhattan
geliefert (Shield 2):
66 fps TRex
31 fps Manhattan
Und nun? ;) Soll ich jetzt noch damit anfangen, dass ich sogar nur 45 - 50 fps TRex spekuliert habe und du selbst das nicht glauben wolltest? ;)
Edit: Wenn du für die Werte eine Quelle brauchst -> PN.
Dann such Dir selber die NV slides raus wo sie 2.6x Mal die A7 Leistung behaupteten (damals mit 11 fps fuer's letzte). Jetzt kommen Treiber-steigerungen noch dazu fuer beide Seiten aber der Unterschied in Manhattan ist bei 2.3x wie die peak Resultate fuer's MiPad auch zeigen.
Ich brauche keine Quelle; es wurden NIE und NIRGENDS 365 GFLOPS von der GPU im K1 erreicht und viel laesst sich nicht daran aendern. Irgendwann werden die Deppen im Tegra marketing schon sehen dass es wohl doch nicht hilft wenn man zu viel und zu frueh veroeffentlicht.
***edit: damit Du nicht endlos suchst: das MiPad hat einen LTPS Sharp display wie das iPad mini retina falls es helfen sollte.
Undertaker
2014-07-22, 19:56:55
Dann such Dir selber die NV slides raus wo sie 2.6x Mal die A7 Leistung behaupteten (damals mit 11 fps fuer's letzte).
Bleib doch mal bei den konkreten Zahlen die ich genannt habe. Wie gesagt, ich kann sie dir bei Bedarf gerne belegen, falls es da Zweifel gibt. K1 ist schneller, als im Vorfeld versprochen, ohne das zum Launch explizit die Kühlung verraten wurde. Wie oft kommt das im IT-Geschäft genau vor? Ob die Performance jetzt aus Takt, Treiber oder dem schönen Wetter resultiert ist doch vollkommen belanglos. Nochmal: Wie man bei höherer Performance als vom Marketing versprochen noch ein Haar in der Suppe finden kann, ist doch sehr verwunderlich. Außer man versucht auf Zwang, selbst eines hineinzuwerfen...
Dural
2014-07-22, 19:57:45
von wo hast du die 700MHz für die GPU?
Ailuros
2014-07-22, 20:11:51
Bleib doch mal bei den konkreten Zahlen die ich genannt habe.
Nur weil sie rein zufaellig zu Deiner logischen Folge passen? Hat NV oder haben sie nicht bis zu 365 GFLOPs von der GPU versprochen, ja oder nein?
Wie gesagt, ich kann sie dir bei Bedarf gerne belegen, falls es da Zweifel gibt. K1 ist schneller, als im Vorfeld versprochen, ohne das zum Launch explizit die Kühlung verraten wurde. Wie oft kommt das im IT-Geschäft genau vor?
Es ist stinknormal dass durch Treiberupdates eine GPU nach ihrem launch schneller wird. Im ULP SoC Markt sind die Spruenge oefters sogar ziemlich radikal eben weil es fuer alle noch viele Schrauben zum drehen gibt. Haette sie je irgendwo die 950MHz erreicht dann waeren es mit heutigen Treibern ueber 41 fps in Manhattan offscreen.
Ob die Performance jetzt aus Takt, Treiber oder dem schönen Wetter resultiert ist doch vollkommen belanglos. Nochmal: Wie man bei höherer Performance als vom Marketing versprochen noch ein Haar in der Suppe finden kann, ist doch sehr verwunderlich. Außer man versucht auf Zwang, selbst eines hineinzuwerfen...
In einem technischen Forum wie diesem ist es weder ueberfluessig noch Haarspalterei. Sonst koennte wir dicht machen und fuer Kochrezepte werben via youtube videos.
Undertaker
2014-07-22, 20:12:11
***edit: damit Du nicht endlos suchst: das MiPad hat einen LTPS Sharp display wie das iPad mini retina falls es helfen sollte.
Ja, was möchtest du mir damit jetzt sagen? Oder wollen wir jetzt mal vergleichen, was das Mini Retina aus seinem 23% größerem Akku genau macht? ;) Ich wollte dir oben nur aufzeigen, das ein Verbrauchsvergleich beim Surfen ggü. kleineren Tablets wenig zielführend ist, da du so keinen Rückschluss auf den SoC ziehen kannst. Ggü. dem Mini Retina sind Vergleiche schon interessanter.
Nur weil sie rein zufaellig zu Deiner logischen Folge passen? Hat NV oder haben sie nicht bis zu 365 GFLOPs von der GPU versprochen, ja oder nein?
Ich kann nur wiederholen, dass dein abstraktes Zahlengeschiebe vollkommen irrelevant ist. Von FLOPs und MHz kannst du dir nichts kaufen, über diese stupide Zählerei sollte nach Pentium 4 und Bulldozer nun wirklich jeder informierte Nutzer hinweg sein. Damit überzeugst du allenfalls die DAUs im Blödmarkt...
Ailuros
2014-07-22, 20:13:49
von wo hast du die 700MHz für die GPU?
Von den Jetson K1 Resultaten wo die GPU auf 850MHz taktet.
Ja, was möchtest du mir damit jetzt sagen? Oder wollen wir jetzt mal vergleichen, was das Mini Retina aus seinem 23% größerem Akku genau macht? ;) Ich wollte dir oben nur aufzeigen, das ein Verbrauchsvergleich beim Surfen ggü. kleineren Tablets wenig zielführend ist, da du so keinen Rückschluss auf den SoC ziehen kannst. Ggü. dem Mini Retina sind Vergleiche schon interessanter.
Das iPad mini retina verbraucht ca. 30% mehr vom display im Vergleich zum originalen mini (wobei es aber nur 1024*768 im zweiten sind). Sonst frag Dich selber wieso A7 mehr verbraucht als der A5 im ersten mini.
Ich kann nur wiederholen, dass dein abstraktes Zahlengeschiebe vollkommen irrelevant ist. Von FLOPs und MHz kannst du dir nichts kaufen, über diese stupide Zählerei sollte nach Pentium 4 und Bulldozer nun wirklich jeder informierte Nutzer hinweg sein. Damit überzeugst du allenfalls die DAUs im Blödmarkt...
Es ist nur "irrelevant" in Deiner Welt. Ich will niemanden ueberzeugen und schon gar nicht die NV fans hier die in Sekunden mit edits nur so rumschmeissen damit ihnen ja kein Komma entgeht, eben weil es alles soooo "irrelevant" und "stupide" ist. Bloedmarkt ist genau die richtige Beschreibung fuer diejenigen die auf NV's Tegra Marketingscheiss reinfallen.
Sonst ist eine GPU bei 950MHz gegen eine gleiche mit 700MHz eben NICHT nur um N mehr FLOPs faehiger sondern um einiges mehr.
Undertaker
2014-07-22, 20:18:00
Dad iPad mini retina verbraucht ca. 30% vom display im Vergleich zum originalen mini.
Na sicher.
http://www.displaymate.com/iPad_mini_ShootOut_1.htm 2,3 Watt Mini @ 388 cd/m²
http://www.displaymate.com/Tablet_ShootOut_4.htm 3,3 Watt @ 414 cd/m²
Sind deine Zahlen alle so fundiert? :D
Ailuros
2014-07-22, 20:28:00
Na sicher.
http://www.displaymate.com/iPad_mini_ShootOut_1.htm 2,3 Watt Mini @ 388 cd/m²
http://www.displaymate.com/Tablet_ShootOut_4.htm 3,3 Watt @ 414 cd/m²
Sind deine Zahlen alle so fundiert? :D
Vom zweiten link:
The iPad mini Retina Display has the lowest Power Efficiency of the tested Mini Tablets. It uses 30 percent more display power than the original (Non-Retina) iPad mini.
Hab ich was anderes behauptet?
Nightspider
2014-07-22, 20:33:40
Was sagen denn die aktuellsten Quellen, wann K1 Denver (64Bit/A57) erscheinen wird?
Kommen erste Geräte vielleicht noch 2014 auf den Markt?
Undertaker
2014-07-22, 20:34:15
Hab ich was anderes behauptet?
Ja. Du hast geschrieben, dass das Mini Retina 30% des originalen Mini verbraucht.
Ailuros
2014-07-22, 20:39:09
Ja. Du hast geschrieben, dass das Mini Retina 30% des originalen Mini verbraucht.
ROFL :D da fehlt offensichtlich ein mehr. Also so bloed bin ich nun auch wieder nicht :P
Was sagen denn die aktuellsten Quellen, wann K1 Denver (64Bit/A57) erscheinen wird?
Kommen erste Geräte vielleicht noch 2014 auf den Markt?
Also nur SA glaubt dass kein custom core im 64bit K1 stecken wird ;)
Ich will Q1 2015 hoffen :)
Undertaker
2014-07-22, 20:41:21
Gut, dann sind wir soweit auf einem Stand. :)
Nur: Diese Zahlen belegen doch genau das, was ich sagte. Das Mini Retina Display zieht bei Displaymate 1,5 Watt mehr als das Nexus 7. Gegenüber einem 720p/7" Panel wird die Differenz also noch größer sein. Da kommt also wohl locker Faktor zwei zusammen. Und das macht, wie schon gesagt, einen Verbrauchsvergleich der Gesamtplattform unsinnig.
Ailuros
2014-07-22, 20:57:01
Gut, dann sind wir soweit auf einem Stand. :)
Nur: Diese Zahlen belegen doch genau das, was ich sagte. Das Mini Retina Display zieht bei Displaymate 1,5 Watt mehr als das Nexus 7. Gegenüber einem 720p/7" Panel wird die Differenz also noch größer sein. Da kommt also wohl locker Faktor zwei zusammen. Und das macht, wie schon gesagt, einen Verbrauchsvergleich der Gesamtplattform unsinnig.
Ein Faktor 2x klingt ziemlich passend die Tabelle auf das Nivaeu zu degradieren dass ein MiPad angeblich genausoviel als ein Nexus7 2013 verbrauchen wuerde wenn es ein 720p/7" display haben wuerde. Das dumme ist halt auch dass es sich dann auch um eine 3950 gegen eine 6700mAh Batterie handelt, wobei irgendwo irgendwelche krumme Formel 11 Stunden web browsing fuer's Nexus7 2013 im graph direkt darueber ergibt.
mczak
2014-07-22, 21:08:42
Beim Display kommt es ja punkto Stromverbrauch nicht nur auf die Auflösung an. So wie ich das verstanden habe ist insbesondere bei den LTPS Displays die Auflösung gar nicht so entscheidend, da kommt auch bei vielen Pixeln eine Menge Licht vom Backlight durch. (Gibt ja auch noch OLED die das Problem eigentlich auch nicht haben.) Höhere Auflösung heisst natürlich auch mehr Arbeit für den Grafikchip, das kommt dann wohl darauf an was da genau läuft ob der Unterschied entscheidend ist (braucht natürlich auch mehr Speicherbandbreite, der Unterschied wird aber wohl mit Framebufferkomprimierung auch wieder kleiner).
Undertaker
2014-07-22, 21:21:01
Ein Faktor 2x klingt ziemlich passend die Tabelle auf das Nivaeu zu degradieren dass ein MiPad angeblich genausoviel als ein Nexus7 2013 verbrauchen wuerde wenn es ein 720p/7" display haben wuerde.
Abgesehen davon, dass es das nicht zwangsläufig heißt (du kannst den Faktor zwischen den Displayverbräuchen nicht auf den Gesamtverbrauch umlegen): Wir reden wohlgemerkt vom Verbrauch beim WLAN-Surfen und nicht etwa von Volllast. Nicht schon wieder Effizienz, Volllastverbrauch vieles mehr vermischen.
Das dumme ist halt auch dass es sich dann auch um eine 3950 gegen eine 6700mAh Batterie handelt, wobei irgendwo irgendwelche krumme Formel 11 Stunden web browsing fuer's Nexus7 2013 im graph direkt darueber ergibt.
Ohne die Angabe der Spannung Akkus bitte nicht über die Ladung vergleichen (auch wenn das oft halbwegs klappt). Anstatt des kruden Quervergleiches mit dem Nexus 7, wo wir die Teilverbräuche umständlich verrechnen müssen, schlage ich nochmals das iPad Mini Retina als Referenz vor. Gerade wo wir festgestellt haben, was es dort für Display-Parallelen gibt.
Und jetzt wird es interessant: Mini Retina beim WLAN surfen:
http://www.anandtech.com/show/7519/apple-ipad-mini-with-retina-display-reviewed/5
Und das mit einem wohlgemerkt 23% größeren Akku als das MiPad.
Wenn ich das mit den Werten bei pcper (http://www.pcper.com/reviews/Mobile/Xiaomi-Mi-Pad-79-Android-Tablet-Review-Utilizing-NVIDIA-Tegra-K1-SoC/Battery-Life-and) vergleiche, scheint beide WLAN-Test ähnlich anspruchsvoll zu sein. Dennoch hält das MiPad mit Akku-Nachteil nur unwesentlich kürzer durch. Akku-bereinigt ist der Verbrauch also sogar geringer.
Ailuros
2014-07-22, 22:05:48
Wobei der Verbrauch des wifi chips/blocks beim surfen alles andere als irrelevant ist :P
Err Moment das mini retina soll eine grössere Batterie als das Mipad haben?
Undertaker
2014-07-22, 22:10:09
Was willst du jetzt mit dem Modem? Ich vergleiche rein die WLAN-Laufzeiten zwischen MiPad und iPad Mini Retina unter Beachtung der Akkugröße. Ohne 3G/4G Funk. Ka wie sich Nvidias Modem da schlägt, interessiert mich persönlich jetzt auch weniger.
Ailuros
2014-07-22, 22:19:58
Verdammte daumentipperei auf tablets....ich meinte wifi und nicht das modem. Sonst ist die Batterie im mini retina etwas kleiner als im MiPad.
deekey777
2014-07-22, 22:39:21
Wie groß ist eigentlich der K1-Grafikchip im Verhältnis zum Rest und in Relation zu anderen SoCs?
Stark ist das Teil allemal, vielleicht die schnellste Grafikeinheit für die nächsten Monate (sprich auch nach September).
Undertaker
2014-07-22, 22:40:07
Ich wollte mich gerade korrigieren: Habe bei Akku MiPad und Shield 2 verwechselt. Heißt also, dass das MiPad beim Surfen doch etwa 10% mehr Leistung benötigt, zumindest dem ersten Test nach. Mea Culpa.
deekey777
2014-07-22, 22:54:12
Kann es sein, dass iXBT die einzige Seite ist, die den GPU-Takt des K1 angibt und dazu gleich mit 950 MHz?
http://www.ixbt.com/portopc/nvidia-tablet-launch.shtml
Wobei ich das Gefühl habe, sie beziehen sich auf die Präsentation des Tegra K1.
http://abload.de/thumb/img_2110qbsoa.jpg (http://abload.de/image.php?img=img_2110qbsoa.jpg)
Alle Werte des Mi Pad in 3DMark.
Wie groß ist eigentlich der K1-Grafikchip im Verhältnis zum Rest und in Relation zu anderen SoCs?
Woher sollen wir das wissen? Niemand hat einen echten Die-Shot.
Ailuros
2014-07-22, 23:42:51
Wie groß ist eigentlich der K1-Grafikchip im Verhältnis zum Rest und in Relation zu anderen SoCs?
Stark ist das Teil allemal, vielleicht die schnellste Grafikeinheit für die nächsten Monate (sprich auch nach September).
121mm2@28HPm TSMC vs. 101mm2@28nm Samsung Apple A7. 1 Mrd. Transistoren für den letzten, K1 unbekannt. Ich würde aber schon =/>1.4 Mrd. schätzen.
Im Vergleich zu anderen high Ende SoCs von Qualcomm oder Samsung ist K1 alles andre als gross. Packdichte wäre nett zu wissen, gibt aber leider keiner an.
deekey777
2014-07-23, 08:25:32
Woher sollen wir das wissen? Niemand hat einen echten Die-Shot.
Jetzt bin ich aber maßlos enttäuscht. ;(
Wenn du schon da bist: Gib zu, dass ein paar Praktikanten die Konsolen-Crysisse für Tegra K1 portieren.
Im Ernst:
Abgesehen von der starken Grafikleistung ist da immernoch der arme Vierkerner. Ist er überhaupt in der Lage mit einem Xenon oder dem Cell mitzuhalten, damit ein Spiel wie Crysis läuft?
Undertaker
2014-07-23, 08:37:55
Von der Leistung pro Thread liegt ein 2,2 GHz A15 durchaus in Schlagdistanz zu einem 1,6 GHz Jaguar-Kern in der PS4 (die aber natürlich 8 davon hat). Ich hätte aus dem Bauch heraus schon geschätzt, dass das mindestens dem Niveau der Vorgängerkonsolen entsprechen sollte.
Allerdings dürfte die TDP jedes mobile SoCs kaum eine parallele Vollauslastung von CPU und GPU hergeben...
Dural
2014-07-23, 08:58:50
Das wird dann mit dem M1 in 20nm gehen ;)
Ich finde den M1 so wie so interessanter: Maxwell und sicher schon die 2. Generation Denver.
Ailuros
2014-07-23, 09:44:14
http://www.fudzilla.com/home/item/35306-xiaomi-unveiles-new-mi-4-smartphone
Sieht nicht nach K1 im Mi4 aus, sonst haetten sie es wohl erwaehnt.
Dural
2014-07-23, 10:05:53
Da ist auch ein 801 drin :)
hasebaer
2014-07-23, 10:11:24
Im Ernst:
Abgesehen von der starken Grafikleistung ist da immernoch der arme Vierkerner. Ist er überhaupt in der Lage mit einem Xenon oder dem Cell mitzuhalten, damit ein Spiel wie Crysis läuft?
Ach ne plötzlich fragst du dich auch wo man den A15 ggü. Desktop CPUs einordnen kann? ;D
AffenJack
2014-07-23, 10:22:07
http://www.fudzilla.com/home/item/35306-xiaomi-unveiles-new-mi-4-smartphone
Sieht nicht nach K1 im Mi4 aus, sonst haetten sie es wohl erwaehnt.
Jop, haben sich wie es aussieht für die billigere Lösung mit integriertem Modem entschieden. Deshalb wohl auch kein S805, was wohl schon einige Leute enttäuscht hat, da man auf absolutes High-End gehofft hat. Wird dann aber wohl gar kein Telefon mit K1 geben, wenn nichtmal XIaomi drauf anspringt.
fondness
2014-07-23, 10:28:49
Qualcomm-Chips sind vieles, aber sicher nicht billig. Und wäre K1 für Smartphones geeignet dann würde ihn sicher auch jemand verbauen.
Dural
2014-07-23, 10:32:29
naja bei einem 801 kann man schon von billiger sprechen, sonst hätte man ja auch einen 805 nehmen können ;)
deekey777
2014-07-23, 10:33:52
Internes vs. externes Modem. Auch weiß niemand, was der i500 kostet.
Dural
2014-07-23, 10:35:19
der sehr wahrscheinlich zu viel säuft, interessant ist ob NV den i500 weiter entwickeln wird oder nicht.
fondness
2014-07-23, 10:35:33
naja bei einem 801 kann man schon von billiger sprechen, sonst hätte man ja auch einen 805 nehmen können ;)
Der 805 hat kein Modem integriert und ist deshalb wohl eher für Tablets konzipiert.
deekey777
2014-07-23, 10:37:33
Der 805 hat kein Modem integriert und ist deshalb wohl eher für Tablets konzipiert.
http://www.qualcomm.com/snapdragon/processors/805
Integrated 4G LTE Advanced World Mode, supporting LTE FDD, LTE TDD, WCDMA (DC-HSPA+, DC-HSUPA), CDMA1x, EV-DO Rev. B, TD-SCDMA and GSM/EDGE (when paired with 3rd or 4th gen. Integrated LTE modem)
CAT6 speeds of up to 300 Mbps when paired with 4th generation Integrated LTE modem, with support for LTE-Broadcast, and LTE multimode dual SIM (DSDS and DSDA)
4G LTE Advanced CAT4 speeds of up to 150 Mbps when paired with 3rd generation integrated LTE modem, with support for Qualcomm RF360 and LTE-Broadcast
Dural
2014-07-23, 10:39:04
wie jetzt? ihr sagt doch immer die Qualcomm seien sparsamer und dürfen schwächer sein als ein Tegra Chip. :wink:
805 mit LTE etwa doch zu grob für Smartphones :rolleyes: ;)
fondness
2014-07-23, 10:40:03
http://www.qualcomm.com/snapdragon/processors/805
Das Modem ist extern auch wenn die Angabe zweideutig ist, das sieht man schon daran, dass dort zwei verschiedenen Modelle angegeben werden.
Unicous
2014-07-23, 14:50:18
fondness hat recht, ich hatte mich da auch aufs Glatteis führen lassen. Chips mit integrierten Modem kommen wohl erst Ende des Jahres bzw. Anfang nächsten Jahres.
Das hier ist entscheidend:
(when paired with 3rd or 4th gen. Integrated LTE modem)
Der 810 dürfte ein integriertes Modem haben:
http://www.qualcomm.com/snapdragon/processors/810
Integrated 4G LTE Advanced CAT6 World Mode modem, supporting LTE FDD, LTE TDD, WCDMA (DC-HSPA+, DC-HSUPA), CDMA1x, EV-DO Rev. B, TD-SCDMA and GSM/EDGE
Hübie
2014-07-23, 15:22:43
Man kauft ja trotzdem das "Gesamtpaket". Weiß gar nicht ob die Modems Eigenentwicklungen von Qualcomm sind oder durch Zukauf / Lizenzen gefertigt werden. Kann da einer was zu sagen?
NVIDIA hatte doch wen geschluckt um selber Modems zu fertigen, oder hab ich was verwechselt?
Unicous
2014-07-23, 15:31:30
Ney, ney. Qualcomm stellt seit zig Jahren ihre eigenen Gobis:biggrin: her.
(Qualcomm Gobi ist ihre Breitbandmodem Sparte).
Nvidia hatte Icera aufgekauft und dann später noch ein paar Breitband-Patente. Bei Intel war es glaube ich Infineons Mobil-Sparte und auch ein Patent-Portfolio.
Qualcomm hat sicherlich über die Jahre auch Einiges an Patenten oder Klitschen aufgekauft, das generelle Know How hatten sie aber schon intern.
fondness
2014-07-23, 15:58:30
Weiß gar nicht ob die Modems Eigenentwicklungen von Qualcomm sind oder durch Zukauf / Lizenzen gefertigt werden. Kann da einer was zu sagen?
Qualcomm ist Quasi der Inbegriff der Mobilfunkttechnologie und durch den Handy und Smartphone-Boom groß geworden. Mittlerweile hat Qualcomm eine Marktkapitalisierung welche die von Intel übertrifft.
Man kauft ja trotzdem das "Gesamtpaket".
Nicht zwangsläufig. Qualcomm hatte bei LTE-Modems 2013 eine Marktanteil von 95% weltweit. Bei den SoCs hält man ~2/3.
Unicous
2014-07-23, 16:12:47
Aso: Wenn es darum geht kann man auch sagen: 3G(UMTS)? Wer hats erfunden? Qualcomm. Bzw. halten sie essentielle Patente am Standard und haben sich das gut bezahlen lassen über die Jahre. Konkurrenz war/ist nicht begeistert.
Bei CDMA und zig anderen Standards halten sie auch essentielle Patente, es geht also nicht an Qualcomm vorbei.:freak:
Und weil sie nicht die die nettesten sind wenn es um FRAND (fair and reasonable and nond discriminatory)-Lizenzbedingungen geht, wurden sie auch schon öfter verklagt oder von Kartellbehörden beäugt. Sie sind sozusagen "Mobile Broadband Intel".:tongue:
Ich würde mich kringelig lachen, wenn da ein 20nm Gobi und kein i500 Modem im Shield Tablet ist. Und da es ja von HTC gefertigt wird, ist das gar nicht mal so unwahrscheinlich.:freak:
fondness
2014-07-23, 16:17:04
Ich würde mich kringelig lachen, wenn da ein 20nm Gobi und kein i500 Modem im Shield Tablet ist. Und da es ja von HTC gefertigt wird, ist das gar nicht mal so unwahrscheinlich.:freak:
Wäre alles andere als überraschend IMO. Umsonst verbaut nicht fast jeder Qualcomm und das NV da mithalten kann, wo Qualcomm laut eigenen Aussagen 20 Milliarden in die Entwicklung von LTE-Modems gesteckt hat darf getrost bezweifelt werden.
IMO war es von NV nicht sonderlich klug ins Modem-Geschäft einzusteigen. Intel okay die haben wenigstens die Kohle und damit einen langen Atem, aber selbst für Intel wird es nicht leicht da gegen Qualcomm zu bestehen und eine profitable Sparte aufzubauen.
mboeller
2014-07-24, 07:37:01
280,- Euro für das 64GB Mi Pad sind ja nicht schlecht (wenn der Preis wirklich stimmt):
http://blog.gsmarena.com/64gb-xiaomi-mi-pad-comes-europe-280/#more-70552
Undertaker
2014-07-24, 08:15:38
Ich würde mich kringelig lachen, wenn da ein 20nm Gobi und kein i500 Modem im Shield Tablet ist. Und da es ja von HTC gefertigt wird, ist das gar nicht mal so unwahrscheinlich.:freak:
Laut Nvidia ist's der gleiche wie im Note 7, also der eigene Icera i500.
Ailuros
2014-07-24, 08:29:57
280,- Euro für das 64GB Mi Pad sind ja nicht schlecht (wenn der Preis wirklich stimmt):
http://blog.gsmarena.com/64gb-xiaomi-mi-pad-comes-europe-280/#more-70552
Duerfte stimmen wenn sie den Zoll in einem EU warehouse umgehen koennen. Die 16GB Variante schwankt um die 230 Euros, ergo machen die 280-290 Euros fuer die 64GB Sinn. Preise schwanken meistens nach dem Umrechnungswert vom Euro.
***edit: 223 Euro fuer's 16GB
Dural
2014-07-24, 09:08:49
Qualcomm verkaufte ihre LTE Chips bis jetzt nur zusammen mit ihren SoC. Was denkt ihr eigentlich wie so die so einen grossen Markt Anteil haben, das liegt zu 99% an ihrer LTE Technik und sie nützen das halt aus.
Daher wäre es eine ganz grosse Überraschung sollte da ein Gobi drin sein.
Da wird sicher ein i500 sein Werk verrichten oder die LTE Version hat wie so oft einen anderen SoC.
Zudem stelle ich mir gerade die Frage ob dies Technisch überhaupt machbar wäre. Das Modem muss ja irgend wie mit dem SoC verbunden werden...
Ailuros
2014-07-24, 09:16:54
Wenn ich mich richtig erinnere hat das i500 kein UCDMA welches ziemlich vebreitet ist in den Staaten? Ist mir aber wirklich scheissegal, da ich LTE auf einem tablet nirgends benutzen wuerde.
Halbwegs OT: ist auf dem MiPad praktisch Android 4.4 nur mit einem hauseigenen GUI von Xiaomi (MIUI)?
fondness
2014-07-24, 09:32:04
Qualcomm verkaufte ihre LTE Chips bis jetzt nur zusammen mit ihren SoC.
Tun sie nicht.
Hübie
2014-07-24, 09:56:53
Einen Qualcomm-Chip gibt's nur zusammen mit deren Modems - so wars glaub ich gemeint. Deren Modems kann man ja offenbar einzeln erwerben.
So eins könnte im i9305 z.B. verbaut worden sein.
fondness
2014-07-24, 10:00:46
Einen Qualcomm-Chip gibt's nur zusammen mit deren Modems - so wars glaub ich gemeint.
Auch so stimmt es nicht. Gibt ja auch Qualcomm Tablets ohne LTE.
deekey777
2014-07-24, 10:09:16
Das Modem ist extern auch wenn die Angabe zweideutig ist, das sieht man schon daran, dass dort zwei verschiedenen Modelle angegeben werden.
Irgendwas stimmt da nicht. Entweder habe ich Halluzinationen oder Wikipedia und auch die QCom-Seite wurden nachträglich editiert. APQ8284 (HSPA+) und APQ8984 (LTE) sind nirgendwo zu finden.
Ach, egal. Dann gibt es halt nur die eine Variante ohne integriertes Modem.
Dural
2014-07-24, 10:45:47
Doch ist so, frag Google.
Ihre LTE Modems gibt es nur in Verbindung mit einem Qualcomm SoC.
Oder hast du schon mal ein Gerät mit Qualcomm LTE Modem OHNE Qualcomm SoC gesehen?
früher gab es ausnahmen zb. bei Apple, aber da muss Qualcomm auch rein, weil Apple nie einen Qualcomm SoC verbauen würde.
Hübie
2014-07-24, 11:01:19
Auch so stimmt es nicht. Gibt ja auch Qualcomm Tablets ohne LTE.
Öhm. Die haben dennoch ein Qualcomm-Modem. Nur kein LTE-fähiges.
Simon
2014-07-25, 02:03:38
Doch ist so, frag Google.
Ihre LTE Modems gibt es nur in Verbindung mit einem Qualcomm SoC.
Oder hast du schon mal ein Gerät mit Qualcomm LTE Modem OHNE Qualcomm SoC gesehen?
Apple iPhone 5, iPhone 5S, iPads, etc. :rolleyes:
mczak
2014-07-25, 03:27:56
Öhm. Die haben dennoch ein Qualcomm-Modem. Nur kein LTE-fähiges.
Seit wann haben denn Tablets wie z.B. Nexus 7 2013 in den Varianten ohne Mobilfunk Modems? Der wlan Chip zählt nicht...
Hübie
2014-07-25, 09:59:47
Hä? Wenn kein Mobilfunk verbaut ist gibt's auch kein Modem. Wenn Qualcomm SoC drin ist dann auch ein Qualcomm-Modem drin. In älteren ohne LTE in aktuellen mit LTE. Soweit klar? Gut. Dann können wir weiter machen.
Umgekehrt ists nicht gesagt. Gibt Tablets mit Qualcomm-Modem aber anderem SoC (Samsung Exynos z.B.).
Nakai
2014-07-25, 10:26:42
Doch ist so, frag Google.
Ihre LTE Modems gibt es nur in Verbindung mit einem Qualcomm SoC.
Oder hast du schon mal ein Gerät mit Qualcomm LTE Modem OHNE Qualcomm SoC gesehen?
früher gab es ausnahmen zb. bei Apple, aber da muss Qualcomm auch rein, weil Apple nie einen Qualcomm SoC verbauen würde.
Nur weil es keine Geräte gibt, muss es doch so nicht sein. Apple ist die Ausnahme. Ahja alle qualcomm socs sind eigentlich sips, ergo gibt es einzelne modemchips, aber es macht nicht viel Sinn die Dinger einzeln zu kaufen. Außerdem gibt es dadurch viele Möglichkeiten der Konfiguration.
fondness
2014-07-25, 10:30:04
Hä? Wenn kein Mobilfunk verbaut ist gibt's auch kein Modem. Wenn Qualcomm SoC drin ist dann auch ein Qualcomm-Modem drin. In älteren ohne LTE in aktuellen mit LTE. Soweit klar? Gut. Dann können wir weiter machen.
Umgekehrt ists nicht gesagt. Gibt Tablets mit Qualcomm-Modem aber anderem SoC (Samsung Exynos z.B.).
Ähm nein wie schon gesagt gibt auch Qualcomm Tablets ohne Modem. Verstehe nicht wo das Problem ist. Oder stehe ich gerade auf der Leitung?
Undertaker
2014-07-25, 13:09:21
Umgekehrt ists nicht gesagt. Gibt Tablets mit Qualcomm-Modem aber anderem SoC (Samsung Exynos z.B.).
Wobei in Bezug auf Samsung auffällt, dass die eigenen Exynos-SoCs zunehmend mit Intel-Modems kombiniert werden. Gibt es überhaupt noch ein aktuelles Samsung-Tab mit Qualcomm-Modem? :confused:
Btw, ist ja eigentlich der falsche Thread hier dafür, lasst uns mal zurück in Richtung Tegra kommen.
dildo4u
2014-07-25, 13:33:23
NVIDIA SHIELD Tablet Interview - Newegg TV
http://youtu.be/6rI5wdrUDxs
Avalox
2014-07-25, 13:45:47
Wobei in Bezug auf Samsung auffällt, dass die eigenen Exynos-SoCs zunehmend mit Intel-Modems kombiniert werden. Gibt es überhaupt noch ein aktuelles Samsung-Tab mit Qualcomm-Modem? :confused:
Ich weiß nur, dass die Preispolitik von Qualcomm es faktisch ausgeschlossen hat, wirtschaftlich noch einen nicht Qualcomm SoC zu verbauen, wenn ein Qualcomm Modem verwendet weden sollte. Den SoC gab es faktisch geschenkt, wenn das Modem für einen utopischen Preis eingekauft wurde. Apple mag da mit ihren Stückzahlen andere Verträge gehabt, oder einfach bezahlt haben. Samsung hat da sicherlich für einige Prestige-Geräte auf Prestige-Märkten die Preise in Kauf genommen und in den sauren Apfel (doppeldeutig) gebissen.
Intel wird da sich sicherlich genau hinein grätschen. Noch haben die Intel Modems ja Nachteile, allerdings mag man ja diese ja in Kauf nehmen, wenn der Preis stimmt.
Ailuros
2014-07-25, 13:52:16
Das Intel-Samsung Taechtelmaechtel ist etwas komplizierter als dass es nur vom Preis abhaengen wuerde, aber ich denke es reicht so langsame mit dem OT.
mczak
2014-07-25, 16:11:06
Hä? Wenn kein Mobilfunk verbaut ist gibt's auch kein Modem.
Das ist mir schon klar.
Wenn Qualcomm SoC drin ist dann auch ein Qualcomm-Modem drin.
Das widerspricht sich aber leider komplett mit der obigen Aussage...
Ein Nexus 7 2013 hat nun mal kein Qualcomm-Modem aber sehr wohl ein Qualcomm SoC. Klar es hat auch kein anderes Modem aber so wie du das geschrieben hast ist das nicht relevant...
Hübie
2014-07-25, 18:18:00
Oh man. Gehörst du auch in die Kategorie "ich-muss-dir-die-Suppe-vorkauen"? Das ist doch offensichtlich und auch logisch dass gar kein Modem verbaut ist wenn kein Mobilfunk im Produkt vorkommt :rolleyes:
Offensichtliches offensichtlich machen ist... ach egal.
mczak
2014-07-25, 22:18:02
Oh man. Gehörst du auch in die Kategorie "ich-muss-dir-die-Suppe-vorkauen"? Das ist doch offensichtlich und auch logisch dass gar kein Modem verbaut ist wenn kein Mobilfunk im Produkt vorkommt :rolleyes:
Offensichtliches offensichtlich machen ist... ach egal.
Für mich ist das offensichtlich, aber ich habe auch nicht behauptet dass Qualcomm SOCs nur im Bundle mit Qualcomm-Modems erhältlich sind...
Ailuros
2014-07-26, 04:27:29
Es reicht mit dem OT zurück zum Thema.
-/\-CruNcher-/\-
2014-07-26, 10:16:49
NVIDIA SHIELD Tablet Interview - Newegg TV
http://youtu.be/6rI5wdrUDxs
Jo man DirectX 12 auf einem Google Linux OS you got it man ;)
Wenn sie nen Native Linux Pushen bin ich dabei ;)
hasebaer
2014-07-26, 13:44:28
Das Hands-On von "tested".
ACli2jGvMJo
Martin171
2014-07-26, 19:21:46
Ich werde mir das Tablet zulegen, sobald es erscheint.
Ich war auf der Such nach einem Nachfolger für mein Nexus 7 1.G.
Eigentlich wollte ich mir das aktuelle Nexus 7 zulegen aber da kam mir das Shield gerade recht.
8 Zoll FullHD, SDXD, HDMI 1.4a, Front Stereo, ein deutlich moderner und schnellerer CPU/GPU und das für unter 300€. Warum also nicht?
Heimatsuchender
2014-07-26, 23:39:08
Mal aus Interesse: Welche Tablet würdet ihr bevorzugen? Das MiPad oder das Shield? Das MiPad ist günstiger. Allerdings weiss ich nicht, wie die Softwareunterstützung aussieht.
tobife
Ailuros
2014-07-26, 23:45:27
Ich hab bis jetzt nichts negatives über das MiPad gehört bzw gelesen. Garantiert zwar nichts, aber irgend jemand haette schon etwas erwähnt.
lumines
2014-07-26, 23:49:20
Ich würde das Shield bevorzugen. MIUI gefällt mir eher nicht so gut. Außerdem scheint Nvidia vergleichsweise flott Android-Updates zu liefern, was mit dem kommenden Android L nicht uninteressant ist.
Dural
2014-07-27, 00:19:08
Habe mir die lte version vorbestellt, liefertermin leider erst am 19.09.
AffenJack
2014-07-27, 00:45:29
Mal aus Interesse: Welche Tablet würdet ihr bevorzugen? Das MiPad oder das Shield? Das MiPad ist günstiger. Allerdings weiss ich nicht, wie die Softwareunterstützung aussieht.
tobife
Shield, auch wenn es teurer ist. Aber das Mipad holt man sich eher nur, wenn man Lust hat daran etwas rumzufrickeln. Die ganzen Googledienste, sogar der Playstore müssen erst mehr oder weniger umständlich installiert werden. Die Software ist im Moment auch noch nicht der Hit und Xiaomi konnte wohl so früh launchen, weil sie am Anfang eher nen Betatest mit den Nutzern gemacht haben. Mittlerweile soll das allerdings schon besser sein.
Aber prinzipiell würde ich erstmal warten, bis es ordentliche Reviews vom Shield gibt. Das Display sollte schon gut sein und die Akkulaufzeit relativ in Ordnung.
deepmac
2014-07-27, 01:19:32
Ich werde mir das Tablet zulegen, sobald es erscheint.
Ich war auf der Such nach einem Nachfolger für mein Nexus 7 1.G.
Eigentlich wollte ich mir das aktuelle Nexus 7 zulegen aber da kam mir das Shield gerade recht.
8 Zoll FullHD, SDXD, HDMI 1.4a, Front Stereo, ein deutlich moderner und schnellerer CPU/GPU und das für unter 300€. Warum also nicht?
fehlt halt nur n oled, aber wäre dann zum preis nicht machbar , schade.
Martin171
2014-07-27, 11:05:06
Was mir ein wenig fehlt ist WLAN AC aber aufm Tablet ist es wahrscheinlich eh egal.
FullHD findet vielleicht auch der Eine oder Andere zu wenig aber selbst die 720p vom Nexus sind meistens ausreichend. Zumahl die Performance und der Akkuverbrauch bei höherer Auflösung in den Keller gehen. Nur bei Real Racing wünschte ich mir eine höhere Auflösung.
Freue mich schon darauf die zwei Tablets ausgiebig zu vergleichen.
Unicous
2014-07-27, 11:51:56
Wozu brauchst du ac?
Streamst du 800 Mbit/s Videos oder musst du deine 64GB so schnell wie möglich befüllen?:confused:
Martin171
2014-07-27, 14:06:30
Wie schon gesagt ist es wohl ziemlich egal. nur aufm Papier sieht es eben gut aus.
Wenn es alle Andren bieten möchte ich es eben auch haben. Auf meinem Notebook bin ich mit der AC7260 recht zufrieden.
Bei meinem Nexus 7 1.G. laggt Chrome ziemlich stark. Kaum zu glauben das ein 1,3 Ghz Quadcore zu langsam zum browsen sein soll.
Hübie
2014-07-27, 15:04:41
Hands on nVidia Shield Tablet: aG2kIUerD4c
Irgendwo bei 40 Minuten startet das Auspacken. Die labern übelst viel X-D
hasebaer
2014-07-27, 16:28:31
Was mir neu war, ist die Tatsache das mit den letzten Updates für Shield, man hier nicht mehr nur in-House streamen kann, sondern auch übers Netz.
Also hätte ich dann mein eigenes Could Gaming.
Nicht das ich dafür Zeit hätte, aber allein die Möglichkeit zuhaben ist verdammt cool. =)
Ailuros
2014-07-27, 17:31:18
Shield, auch wenn es teurer ist. Aber das Mipad holt man sich eher nur, wenn man Lust hat daran etwas rumzufrickeln. Die ganzen Googledienste, sogar der Playstore müssen erst mehr oder weniger umständlich installiert werden. Die Software ist im Moment auch noch nicht der Hit und Xiaomi konnte wohl so früh launchen, weil sie am Anfang eher nen Betatest mit den Nutzern gemacht haben. Mittlerweile soll das allerdings schon besser sein.
Aber prinzipiell würde ich erstmal warten, bis es ordentliche Reviews vom Shield gibt. Das Display sollte schon gut sein und die Akkulaufzeit relativ in Ordnung.
Und ich dachte ehrlich dass es eine stinknormale Android 4.4 Installation ist nur mit Xiaomi's eigenem UI. Wenn man anfaengt selbst nachzuinstallieren vergeht mir dann auch gleich der Appetit. Es zockte mich selber in den Fingern bei dem so niedrigen Preis. Scheiss drauf in irgendwo einer Woche sollte das MiPad meines Kumpels ankommen und ich hoffe ich kann mal schnell damit herumfuchteln.
AffenJack
2014-07-27, 19:07:57
Und ich dachte ehrlich dass es eine stinknormale Android 4.4 Installation ist nur mit Xiaomi's eigenem UI. Wenn man anfaengt selbst nachzuinstallieren vergeht mir dann auch gleich der Appetit. Es zockte mich selber in den Fingern bei dem so niedrigen Preis. Scheiss drauf in irgendwo einer Woche sollte das MiPad meines Kumpels ankommen und ich hoffe ich kann mal schnell damit herumfuchteln.
Hauptsächlich isses das wohl auch, aber die Google Services werden bei den Chinesen fast immer durch chinesische Sachen ersetzt. Teilweise muss man die Dinger dann rooten, um Googlesachen zu installieren. Beim Mipad geht das allerdings glaube auch ohne rooten. Kannst ja berichten, wie deine Erfahrungen sind.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.