PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : PowerVR - GPU IP


Seiten : 1 [2] 3 4 5 6 7

Ailuros
2009-06-29, 17:13:02
Nicht dass es nicht schon erwaehnt wurde aber ich wuerde gerne wissen welcher Depp die Tabelle zusammengestellt hat. SGX535 im Atom Z ist nicht D3D10.1 kompliant oder anders wenn dem so waere waere es nicht nur auf OGL 2.0 begrenzt....

AnarchX
2009-06-29, 17:14:50
Ist da was bekannt, ob HD Video jetzt funzt?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7377962#post7377962

Ailuros
2009-06-29, 22:04:18
http://www.fudzilla.com/content/view/14430/1/

KraetziChriZ
2009-06-29, 22:31:33
Ich denke beim iPhone wird der "Updatezylkus" zwar erstmal jährlich bleiben, aber die Hardware (CPU, Ram, VGA) wird sich wohl nur alle 2 Jahre ändern.

iPhone Classic & iPhone 3G hatten ja bereits die selbe Hardware.

iPhone 3GS + iPhone 4G (??) werden dann wohl auch erstmal die selbe HW haben.

Die 5te Generation wird dann sicher 2x600Mhz, 512MB Ram und noch ne fettere VGA haben ;)

Wie gesagt, alles nur Spekulation ;)

Gruß
Chris

Ailuros
2009-06-29, 22:34:57
Da fuer 2010 TI's OMAP4 mit SGX54x und auch andere aehnliche SoCs vorliegen, sieht es nicht danach aus als ob Apple dem Trend auch nicht folgen wuerde.

Gast
2009-06-29, 22:43:13
Apple hat mächtig eingekauft an guten Leuten u.a. von IBM, AMD und Microsoft (aus dem XBOX Team)... bzw. sogar eine ganze Firma geschluckt (P.A. Semi, mit u.a. Dobberpuhl). Die drehen bestimmt nicht nur Däumchen. Die Frage ist, was die machen... und was die machen, will Apple dann auch nutzen.

Ailuros
2009-06-29, 22:49:18
Apple hat mächtig eingekauft an guten Leuten u.a. von IBM, AMD und Microsoft (aus dem XBOX Team)... bzw. sogar eine ganze Firma geschluckt (P.A. Semi, mit u.a. Dobberpuhl). Die drehen bestimmt nicht nur Däumchen. Die Frage ist, was die machen... und was die machen, will Apple dann auch nutzen.

Bitte kein weiterer PA Semi Weihrauch in diesem Thread; der Apple iPhone 3GS SoC wurde weiterhin von SAMSUNG hergestellt und im Thread hier geht es hauptsaechlich um IMG bzw. PowerVR IP. Danke.

AnarchX
2009-07-07, 21:34:28
PSP2 features quad core graphics chip - rumour (http://www.gamesindustry.biz/articles/psp2-features-quad-core-graphics-chip-rumour)

FelixPaul
2009-07-08, 09:45:08
Wäre schon ein Knaller, wenn Sony jetzt auch auf die PowerVR Technik setzt. Loewe hatte ja bereits geschrieben das der Chip sehr gut ist, wenn man ihn anständig nutzt. Das traue ich Sony und Apple für ihre mobilen Spielkonsolen allerdings zu.

Wo kann man nochmal Imagination Technologies Aktien kaufen? :biggrin:

Ailuros
2009-07-08, 10:29:23
Wäre schon ein Knaller, wenn Sony jetzt auch auf die PowerVR Technik setzt. Loewe hatte ja bereits geschrieben das der Chip sehr gut ist, wenn man ihn anständig nutzt. Das traue ich Sony und Apple für ihre mobilen Spielkonsolen allerdings zu.

Wo kann man nochmal Imagination Technologies Aktien kaufen? :biggrin:

Die Lizenz kannst Du als garantiert ansehen und sie wurde vor einiger Zeit unterschrieben nur hat IMG nie den Namen des Herstellers bis jetzt erwaehnt.

PSP2 features quad core graphics chip - rumour (http://www.gamesindustry.biz/articles/psp2-features-quad-core-graphics-chip-rumour)

Zumindest MP4; falls noch mehr cores desto besser.

Also of interest is the fact that Imagination Technologies itself describes the chip as a GP-GPU, meaning it has the ability to operate as both CPU and graphics processor in one, similar to projects being worked on by Intel and AMD. It may well be that PSP2 will centralise all of its processing into a single chip, thus saving power and providing other efficiency savings from a programming perspective (lightning fast interaction between game logic and graphics, for example).

Der Author hat hoechstwahrscheinlich immer noch nicht verstanden wofuer SoC genau steht. Natuerlich kann man SGX Kerne fuer GPGPU benutzen aber sie werden nicht die CPU im System ersetzen koennen.

Nakai
2009-07-08, 11:46:57
Der Author hat hoechstwahrscheinlich immer noch nicht verstanden wofuer SoC genau steht. Natuerlich kann man SGX Kerne fuer GPGPU benutzen aber sie werden nicht die CPU im System ersetzen koennen.

Höchstwahrscheinlich wird man einen Dual-Arm....neee eher wieder einen MIPS verwenden. Einen Quad-MIPS mit 800Mhz wäre schon nicht schlecht. In der PSP ist immerhin schon ein Dualcore drin.


mfg Nakai

robbitop
2009-07-08, 18:25:06
Höchstwahrscheinlich wird man einen Dual-Arm....neee eher wieder einen MIPS verwenden. Einen Quad-MIPS mit 800Mhz wäre schon nicht schlecht. In der PSP ist immerhin schon ein Dualcore drin.


mfg Nakai
Warum einen MIPS? Die kommen AFAIK nicht auf ähnliche Performance/W hin. Der Cortex A9 (MP2) wäre die ideale Plattform. Das Ding hat sogar OoO-Execution. Mehr als 2 Kerne sind für diesen Einsatz (Handheldgaming) kaum sinnvoll. Wichtig ist dort, wie schnell die einzelne CPU ist. Ein MIPS Quad wäre IMO sinnfrei. Zumal die neusten MIPS auch SMT an Board haben.

Nakai
2009-07-08, 18:37:32
Warum einen MIPS? Die kommen AFAIK nicht auf ähnliche Performance/W hin. Der Cortex A9 (MP2) wäre die ideale Plattform. Das Ding hat sogar OoO-Execution. Mehr als 2 Kerne sind für diesen Einsatz (Handheldgaming) kaum sinnvoll. Wichtig ist dort, wie schnell die einzelne CPU ist. Ein MIPS Quad wäre IMO sinnfrei. Zumal die neusten MIPS auch SMT an Board haben.

Sony hat bei der PS1, bei der PS2 und bei der PSP auf einen MIPS gesetzt. Die PSP hatte einen DualCore 32R2 mit maximal 333Mhz. Imo hätte man schon damals auf einen anderen Core setzen können, aber anscheinend tat man das nicht. IMO sind MIPS vor allem wegen dem veralteten Herstellungsprozess meistens der Konkurrenz im Verbrauch unterlegen.



mfg Nakai

robbitop
2009-07-08, 19:37:19
Sony hat bei der PS1, bei der PS2 und bei der PSP auf einen MIPS gesetzt.
Ja das stimmt.Oftmals bekommt nicht unbedingt das beste Produkt den Zuschlag sondern hängt auch von anderen Bedingungen ab (Preis pro Kern, Zahlungsbedingungen bei den Royalties etc). MIPS war schon damals nicht die beste Lösung. Aber mit der PS3 hat man gezeigt, dass man bereit ist, von MIPS eine Abkehr einzuleiten. Die Cortex-Reihe sollte drückend überlegen sein, dass sie IMO eine echte Chance bekommen wird. Hinzu kommt, dass SGX bisher AFAIK nur in Verbindung mit ARM Cores verbaut wurde. Dass das auch mit MIPS geht ist klar. Aber funktionierende Referenzen sind immer ein Pro-Argument.

Die PSP hatte einen DualCore 32R2 mit maximal 333Mhz.
Jepp. Wobei der 2.Prozessor nur als MediaEngine für Sound und Video nutzbar war. Also für Spiele kein wahrer nutzbarer Dualcore. Entlasten konnte man damit trotzdem unter gewissen Bedingungen.

Aus heutiger (Handheld-) Sicht ist die CPU ziemlich lahm. Nur 1x Execution Pipeline, kein L2-Cache, In-Order (ok das sind die meisten embedded CPUs heut immernoch - bis auf den Cortex A9 - ich vermute, dass das wohl dort auch nicht all zu weit getrieben wurde, weil es ja die Komplexität enorm erhöht - weiß jemand mehr zu diesem speziellen Thema?), niedrige Taktfrequenz und nur 1x echte CPU. Ein Coretex-A9 ist eine Größenordnung schneller.
Das würde sich gerade in der Geometrie und Physik zeigen.

IMO sind MIPS vor allem wegen dem veralteten Herstellungsprozess meistens der Konkurrenz im Verbrauch unterlegen.

Eigentlich ist dem nicht so. Beide Hersteller geben die Verbräuche für den 65 nm Prozess aktuell an. Auch ist der MIPS in der PSP in keinem veralteten Prozess gebaut.
PSP-1000: 90 nm
seit PSP-2000: 65 nm

Nakai
2009-07-08, 22:39:55
Eigentlich ist dem nicht so. Beide Hersteller geben die Verbräuche für den 65 nm Prozess aktuell an. Auch ist der MIPS in der PSP in keinem veralteten Prozess gebaut.
PSP-1000: 90 nm
seit PSP-2000: 65 nm

Interessant, dass man beim Fertigungsprozess schon so weit ist bei der PSP.
Das hätte ich nicht gewusst.

MIPS war schon damals nicht die beste Lösung. Aber mit der PS3 hat man gezeigt, dass man bereit ist, von MIPS eine Abkehr einzuleiten.

Naja, dass man auf den Cell umgestiegen ist, heißt nicht, dass man damit eine passende CPU für eine Spielekonsole einsetzt.;)

Sony hat bis jetzt eher unpassende Entscheidungen bei der Prozessorwahl getroffen.
Es gibt ja auch andere Möglichkeiten, die man nehmen könnte.

Ich sollte mir mal die Spezifikationen von dem Cortex reinziehen. Ich hätte ihn auf In-Order geschätzt.



mfg Nakai

€: Das würde sich gerade in der Geometrie und Physik zeigen.

Dafür könnte man ja auch SGX verwenden.

Jepp. Wobei der 2.Prozessor nur als MediaEngine für Sound und Video nutzbar war. Also für Spiele kein wahrer nutzbarer Dualcore. Entlasten konnte man damit trotzdem unter gewissen Bedingungen.

Er ist jedenfalls vorhanden.

robbitop@work
2009-07-09, 09:35:35
Naja, dass man auf den Cell umgestiegen ist, heißt nicht, dass man damit eine passende CPU für eine Spielekonsole einsetzt.;)

Sony hat bis jetzt eher unpassende Entscheidungen bei der Prozessorwahl getroffen.
Ja das stimmt. Aber das hat MS auch, wenn auch nicht ganz so schlimme. (ein 700 MHz Celeron/P3 auf Coppermine Basis war damals schon zur Xbox1 Zeiten viel zu schwachbrüstig. Man hätte von AMD damals etwas mit mehr Bums zu weniger Geld haben können. Wollte man aber nicht. Die 360 hat auch nur einen lahmen InOrder PPC. Nur dass man davon 3x Kerne hatte.)


Es gibt ja auch andere Möglichkeiten, die man nehmen könnte.
Im Handheldbereich gibt es nicht allzuviele µArchs die vertreten sind.


Ich sollte mir mal die Spezifikationen von dem Cortex reinziehen. Ich hätte ihn auf In-Order geschätzt.
Der A8 ist In-Order. Der A9 ist OoO.


Dafür könnte man ja auch SGX verwenden.
Für die Transformation, Backface Culling und evtl auch für Tesslation. Aber echte Geometrie muss erstmal erzeugt werden. Wenn man hohe Geomtriedetails in Spielen will, braucht man eine leistungsstarke CPU. Man schaue sich einmal die Geometriedetails bei PSP-Spielen an. Aus heutiger Sicht total klobig. Aus damaliger schon ziemlich gut. Aber IMO noch deutlich schlechter als die PS2/Dreamcast/Xbox Generation.

Für die PSP2 erwarte ich mehr als von obiger Generation aber weniger als von der X360/PS3 generation.


Er ist jedenfalls vorhanden.
Fungiert aber nicht als klassischer Dualcore.

Ailuros
2009-07-09, 13:06:10
Für die Transformation, Backface Culling und evtl auch für Tesslation. Aber echte Geometrie muss erstmal erzeugt werden. Wenn man hohe Geomtriedetails in Spielen will, braucht man eine leistungsstarke CPU. Man schaue sich einmal die Geometriedetails bei PSP-Spielen an. Aus heutiger Sicht total klobig. Aus damaliger schon ziemlich gut. Aber IMO noch deutlich schlechter als die PS2/Dreamcast/Xbox Generation.

Sei nicht so geizig; man kann mit einem PPP viel mehr anstellen als nur Transformationen und ff Tesselation:

Procedural Geometry
— Allows generation of more primitives on output compared with input data
— Effective geometry compression
— High order surface support

http://download.intel.com/design/chipsets/embedded/datashts/319537.pdf

(page 95)

Aus dem VGX150 whitepaper:

Tile-based deferred rendering (TBDR) architecture
with native support for Bézier curves
Programmable geometry processor and blend unit

Dynamic tessellation of Béziers is handled in hardware and deferred until the rasterisation phase to reduce bandwidth.

The Geometry Processor (GP) is a programmable multi-threaded processor based on the META™ architecture with a vector ALU and custom instruction set targeting geometry shape processing (transformation, stroking, parameter generation), culling, clipping and tiling of poly-lines and Béziers. The Programmable Blend Unit enables efficient support for all OpenVG blend modes, colour space conversion and alpha masking, using a 56-bit
(16:16:16:8) internal format for the highest image quality independent of frame buffer colour depth. The programmable nature of both components
enables minimal host CPU loading and enables support for evolving and future standards.


Für die PSP2 erwarte ich mehr als von obiger Generation aber weniger als von der X360/PS3 generation.

Es haengt stets von den Entwicklern ab und auch der Flexbilitaet der HW. Dass sich jetzt Entwickler spezifisch ueber den zukuenftigen PSP2 lehnen werden und soweit gehen selbst einfache Tesselation zu verwenden will ich bezweifeln. Ein wichtiger Aspekt waere wie das iPhone XXX das im gleichen Jahr mit dem PSP2 ankommen wird genau aussehen wird. Je groesser die Verbreitung von SGX desto bessere Chancen hat das letztere dass mehr und mehr seiner Faehigkeiten ausgenutzt werden.

***edit: was Eure Debatte ueber die diversen Prozessoren und Co-Prozessoren bisheriger PSx und PSP betrifft, vielleicht hilft es zu bedenken dass SGX MIMD Einheiten hat und es bei einem 4 MP cluster Bloedsinn waere noch zusaetzliche Co-Prozessoren in so einen SoC zu integrieren.

robbitop@work
2009-07-09, 15:32:58
***edit: was Eure Debatte ueber die diversen Prozessoren und Co-Prozessoren bisheriger PSx und PSP betrifft, vielleicht hilft es zu bedenken dass SGX MIMD Einheiten hat und es bei einem 4 MP cluster Bloedsinn waere noch zusaetzliche Co-Prozessoren in so einen SoC zu integrieren.

Man kann einen Medien-Coprozessor sparen für Videodecoding. Einen DSP für Sound und eine SIMD FPU wird der SoC schon brauchen.

Ailuros
2009-07-09, 23:49:44
Man kann einen Medien-Coprozessor sparen für Videodecoding. Einen DSP für Sound und eine SIMD FPU wird der SoC schon brauchen.

Man kann sie theoretisch alle sparen in diesem Fall, wenn es egal sein sollte wie viel Strom jegliche Aufgabe verbrauchen wuerde. SoCs haben heutzutage oefters eben einen zusaetzlichen Video-Decoder als Beispiel weil dieser eben einfach viel weniger Strom verbraucht als ein jeglicher komplizierterer Grafik-chip.

Sonst hockt im Herzen jegliches SGX ein quasi META GPP (USSE eben) der so aussieht:

http://www.audiodesignline.com/183701195;jsessionid=RPJGLFLOGUWYSQSNDLOSKH0CJUNN2JVN?pgno=1

Alle SGX Modelle haben ein eingebettetes OpenCL Profil.

Sven7
2009-07-14, 15:12:00
Da fuer 2010 TI's OMAP4 mit SGX54x und auch andere aehnliche SoCs vorliegen, sieht es nicht danach aus als ob Apple dem Trend auch nicht folgen wuerde.
TI's OMAP4 geht aber erst im zweiten Halbjahr 2010 in Produktion, d.h. mit kaufbaren Endgeräten würde ich nicht vor dem Weihnachtsgeschäft rechnen. Daher sehe ich keinen zwingenden Grund warum Apple schon ein halbes Jahr vorher auf SGX54x setzen sollte. Ein halbes Jahr später (Juni/Juli 2011) tuts dann auch noch, v.a. da Apple bereits eine relativ starke GPU verbaut hat (imho der Grund für SGX535) und es im Vergleich zu anderen Herstellern auch relativ einfach hat die Hardware gut auszunutzen (nur eine Version die unterstützt werden muss).

Ailuros
2009-07-14, 16:22:25
TI's OMAP4 geht aber erst im zweiten Halbjahr 2010 in Produktion, d.h. mit kaufbaren Endgeräten würde ich nicht vor dem Weihnachtsgeschäft rechnen. Daher sehe ich keinen zwingenden Grund warum Apple schon ein halbes Jahr vorher auf SGX54x setzen sollte.

Es gab auch keinen zwingenden Grund fuer SGX535 im heutigen iPhone. Wann erscheint Intel's SGX54x basierender SoC und was koennte es mit NOKIA zu tun haben?

Ein halbes Jahr später (Juni/Juli 2011) tuts dann auch noch, v.a. da Apple bereits eine relativ starke GPU verbaut hat (imho der Grund für SGX535) und es im Vergleich zu anderen Herstellern auch relativ einfach hat die Hardware gut auszunutzen (nur eine Version die unterstützt werden muss).

SGX520 war zu dem Zeitpunkt noch nicht erhaeltlich; ja natuerlich koennte Apple locker durch 2010 mit einem 535 ziehen, aber dann selbstverstaendlich mit einem kleineren Herstellungsprozess und zumindest doppelt so hohe Frequenz. Es gibt viele Wege die Leistung zu verdoppeln.

Gast
2009-07-17, 17:28:24
Warum einen MIPS?
Weil der MIPS perfekt auf das anwendungsgebiet ausgelegt ist. Von Vector dot vector bis matrix dot matrix mit transpose usw. ist alles enthalten was man braucht.

Die kommen AFAIK nicht auf ähnliche Performance/W hin.
Theoretisch vielleicht nicht, sie sind aber sehr viel praktischer in der benutzung. Schau dir einfach an wie wenig man SSE benutzt weil es viel arbeit braucht um nutzen daraus zu bekommen. Ein einfaches Vec3 dot Vec3 bei einer schnittpunkts berechnung? klar, ein instrinsic bei MIPS. bei <SS3 hast du 9 instruktionen mit massive register dependancies und Load/store penalties falls du weiter mit fpu rechnen willst. Du brauchst aber performance? Schon musst du 4 schnittpunkte auf einmal rechnen damit es was bringt, schon musst du code refactorn. einfach an jede stelle die math nutzen die du moechtest ist unmoeglich. so in der art ist es mit dem cortex soweit ich gelesen habe.
wenn du mal ein FFT zum dekodieren von mp3s brauchst, ist der cortex super. willst du aber immer und jeder zeit flexibel ne simple math-lib nutzen mit gutem gewissen, dass es nicht langsammer wird wie z.b. bei SSE, ist MIPS echt super in der art wie die PSP es erlaubt.

Der Cortex A9 (MP2) wäre die ideale Plattform. Das Ding hat sogar OoO-Execution. Mehr als 2 Kerne sind für diesen Einsatz (Handheldgaming) kaum sinnvoll. Wichtig ist dort, wie schnell die einzelne CPU ist. Ein MIPS Quad wäre IMO sinnfrei. Zumal die neusten MIPS auch SMT an Board haben.bei einer fixen plattform ist OOO kein vorteil, eher nachteilig wenn du stattdessen einen zusatz core oder mehr register haben kannst.

Coda
2009-07-17, 18:54:49
OOO ist schon ein Vorteil, weil es auch Dinge wie Stalls durch Cache-Misses verstecken kann.

YfOrU
2009-07-17, 20:13:20
TI's OMAP4 geht aber erst im zweiten Halbjahr 2010 in Produktion, d.h. mit kaufbaren Endgeräten würde ich nicht vor dem Weihnachtsgeschäft rechnen. Daher sehe ich keinen zwingenden Grund warum Apple schon ein halbes Jahr vorher auf SGX54x setzen sollte. Ein halbes Jahr später (Juni/Juli 2011) tuts dann auch noch, v.a. da Apple bereits eine relativ starke GPU verbaut hat (imho der Grund für SGX535) und es im Vergleich zu anderen Herstellern auch relativ einfach hat die Hardware gut auszunutzen (nur eine Version die unterstützt werden muss).

Es wäre kein Problem die Fähigkeiten der Hardware auch unter WM ordentlich zu nutzen. Das scheitert allerdings meistens am Willen der Gerätehersteller. Ein Beispiel wäre der Qualcomm MSM7201a. Praktisch verwendet fast kein Gerät den integrierten ATI Imageon. Das spart Kosten denn der Chip wird sozusagen mit deaktiviertem Beschleuniger verkauft. Die rudimentären OpenGL Funktionen werden dann per Software über den ARM Kern realisiert. Deutlich sichtbar wird das hier: http://www.glbenchmark.com/

Der Omap4 existiert bereits und wird kurz nach dem Start der Serienproduktion in Endgeräten zu finden sein denn die Entwicklerkits sollen in absehbare Zeit erscheinen. Ob das genügt ist eine andere Frage denn bis auf einen neuen Fertigungsprozess und kleinere Updates bleibt der Omap3 in seiner jetzigen Form bis dahin bestehen.

Mit dem Snapdragon von Qualcomm existiert ein Produkt das ebenfalls auf ARM v7 basiert und in den im Gegensatz zum regulären Cortex A8 mehr Entwicklungsarbeit investiert wurde
(etwas älter:http://www.insidedsp.com/Articles/tabid/64/articleType/ArticleView/articleId/238/Qualcomm-Reveals-Details-on-Scorpion-Core.aspx)
und der integrierte ATI 3D Beschleuniger (z430, Adreno 200 ?) ist zumindest auf dem Papier ein TBR mit Unified Shader Architecture. http://developer.amd.com/gpu_assets/gdc2008_ribble_maurice_TileBasedGpus.pdf

Coda
2009-07-17, 20:43:38
Ein TBR ja, aber kein TBDR.

YfOrU
2009-07-17, 20:58:44
Trotzdem ein vergleichsweise großer Schritt nach dem Imageon 2300.

Coda
2009-07-17, 21:07:08
Hat ATI das Geschäftsfeld eh nicht komplett aufgegeben?

YfOrU
2009-07-17, 21:10:25
Wurde an Qualcomm verkauft aber die jetzigen Kerne wurden alle noch unter ATi entwickelt.

Ailuros
2009-07-17, 22:57:08
Wenn man nach der verkorksten "miniXenos" Beschreibung fuer "Imageon2" geht oder wikipedia Zeug traut dann glaubt man natuerlich dass es ein USC ist.

Hat ATI das Geschäftsfeld eh nicht komplett aufgegeben?

Wie schon erwaehnt an Qualcolmm verkauft und diese werden mit diesen (es ist ja lediglich nur eine 3D Variante und ein OpenVG core) werden hauptsaechlich in lower end Handys integriert.

Ich wuerde aber nicht ausschliessen wenn AMD in der weniger absehbaren Zukunft nach Fusion in den Markt wieder einsteigt.

Coda
2009-07-17, 22:59:28
Wenn man nach der verkorksten "miniXenos" Beschreibung fuer "Imageon2" geht oder wikipedia Zeug traut dann glaubt man natuerlich dass es ein USC ist.
Was ist es denn dann und warum wird das nicht zugegeben?

Ailuros
2009-07-17, 23:18:34
Was ist es denn dann und warum wird das nicht zugegeben?

Ich bin mir zwar nicht sicher aber es gab vor einiger eine hitzige Debatte im B3D Forum wo jemand von IMG ziemlich wuetend donnerte dass ATI nicht nur features angepriesen hatte die nie existierten sondern auch selber quasi "mini Xenos" taufte wobei Imageon 2 nicht das geringste mit Xenos zu tun hat.

Ich kenn mich zwar mit den Imageon Modellen nicht besonders gut aus, aber Z430 duerfte zur gleichen Familie zaehlen:

http://www.glbenchmark.com/compare.jsp

Vergleich mal den Z430 hier mit dem MBX Lite des iPhone 3G und erklaer mir warum ein angeblicher USC insgesamt miserabler abschlaegt in einem stinknormalen OGL_ES1.x Benchmark.

robbitop
2009-07-18, 07:47:05
Weil der MIPS perfekt auf das anwendungsgebiet ausgelegt ist. Von Vector dot vector bis matrix dot matrix mit transpose usw. ist alles enthalten was man braucht.
Ohne die Spec von NEON und fpSIMD von ARM durchzulesen, vermute ich, dass die das auch können.


Theoretisch vielleicht nicht, sie sind aber sehr viel praktischer in der benutzung. Schau dir einfach an wie wenig man SSE benutzt weil es viel arbeit braucht um nutzen daraus zu bekommen. Ein einfaches Vec3 dot Vec3 bei einer schnittpunkts berechnung? klar, ein instrinsic bei MIPS. bei <SS3 hast du 9 instruktionen mit massive register dependancies und Load/store penalties falls du weiter mit fpu rechnen willst. Du brauchst aber performance? Schon musst du 4 schnittpunkte auf einmal rechnen damit es was bringt, schon musst du code refactorn. einfach an jede stelle die math nutzen die du moechtest ist unmoeglich. so in der art ist es mit dem cortex soweit ich gelesen habe.
Das ist alles SIMD Code. Soweit ich weiß, limitiert das eine CPU bei Spielen nicht. AFAIK waren es eher die Integerdurchsätze bei sequenziellem Code, die das tun. Und genau um Spiele geht es ja.


bei einer fixen plattform ist OOO kein vorteil, eher nachteilig wenn du stattdessen einen zusatz core oder mehr register haben kannst.
Natürlich kannst du mit einem guten Compiler was dran drehen, aber an die IPC einer OOO CPU kommst du trotzdem nicht ran.

Coda
2009-07-18, 13:12:23
Das ist alles SIMD Code. Soweit ich weiß, limitiert das eine CPU bei Spielen nicht.
Also eigentlich sind gerade die rechenintensivsten Dinge der Grafik-Engine sehr gut SIMD fähig. Gamecode ist nochmal was anderes. Das kann natürlich auch limitieren.

Ohne die Spec von NEON und fpSIMD von ARM durchzulesen, vermute ich, dass die das auch können.
Ich glaube nicht. Vor allem nicht komplette Matrix-Operationen. Das ist schon sehr ungewöhnlich.

Edit: Jepp, wie ich dachte. ARM Neon ist vom Instruction-Set SSE sehr ähnlich. Nichtmal ein Dot-Product gibt es.

robbitop
2009-07-18, 14:12:47
Also eigentlich sind gerade die rechenintensivsten Dinge der Grafik-Engine sehr gut SIMD fähig. Gamecode ist nochmal was anderes. Das kann natürlich auch limitieren.
Wenn SIMD oder FP Code bei Spielen limitiere würde, wäre der K7 dem P3 um Einiges voraus gewesen und der Core 2 dem K8 nicht so drückend überlegen.


Ich glaube nicht. Vor allem nicht komplette Matrix-Operationen. Das ist schon sehr ungewöhnlich.
Wie häufig kommen die in Spielen für CPUs vor, wenn man eine moderne GPU zur Seite hat?

Edit: Jepp, wie ich dachte. ARM Neon ist vom Instruction-Set SSE sehr ähnlich. Nichtmal ein Dot-Product gibt es.
Wäre es für Spiele eine enorme Bereicherung, wäre es sicher bereits implementiert, oder? :)

Coda
2009-07-18, 14:17:26
Wenn SIMD oder FP Code bei Spielen limitiere würde, wäre der K7 dem P3 um Einiges voraus gewesen und der Core 2 dem K8 nicht so drückend überlegen.
Als ob damals schon irgend jemand gescheiten SIMD-Code produziert hat. Core 2 ist K8 vor allem auch wegen seiner Speicher-Architektur überlegen. Das schlägt auch bei SIMD durch.

http://software.intel.com/en-us/articles/optimizing-the-rendering-pipeline-of-animated-models-using-the-intel-streaming-simd-extensions/

Wie häufig kommen die in Spielen für CPUs vor, wenn man eine moderne GPU zur Seite hat?
Physik? Occlusion-Culling? Strahlenverfolgung?

Da fällt mir so einiges ein, was immer noch die CPU machen muss. Es wird aber zugegebenermaßen immer weniger, weil GPGPU im Aufkommen ist.

Wäre es für Spiele eine enorme Bereicherung, wäre es sicher bereits implementiert, oder? :)
ARM ist nicht unbedingt eine "Spielearchitektur".

robbitop
2009-07-18, 14:30:00
Als ob damals schon irgend jemand gescheiten SIMD-Code produziert hat. Core 2 ist K8 vor allem auch wegen seiner Speicher-Architektur überlegen. Das schlägt auch bei SIMD durch.
Und genau darauf kommt es u.A. an und IMO weniger auf die Implementierung aller möglichen SIMD Befehle, solange man dort einen brauchbaren Grundschatz vorweisen kann.


ARM ist nicht unbedingt eine "Spielearchitektur".
Im Zusammenhang mit einer möglichen PSP2? Da sollte ein Cortex A9 schon deutlich mehr Bums pro Watt bieten können, als alles was MIPS im Portfolio hat.

Coda
2009-07-18, 15:30:40
Und genau darauf kommt es u.A. an und IMO weniger auf die Implementierung aller möglichen SIMD Befehle, solange man dort einen brauchbaren Grundschatz vorweisen kann.
Es spielt beides mit rein.

Falls der MIPS wirklich alle Basisoperationen der Linearen Algebra abdeckt, dann wird er in vielen Teilen einer Engine jeden gleichgetakteten ARM vernichten.

Im Zusammenhang mit einer möglichen PSP2? Da sollte ein Cortex A9 schon deutlich mehr Bums pro Watt bieten können, als alles was MIPS im Portfolio hat.
Da wäre ich mir nicht so sicher. Speziell Out-Of-Order ist nicht immer energieeffizient, da kann auch ARM nichts daran ändern. Insbesondere hat man mehr Instructions In-Flight die evtl. nie retired werden, etc.

Sony baut schon immer darauf, dass die Hardware eher einfach ist, aber dafür sehr hohe Peak-Performance hat wenn man sie richtig programmiert. Die Philosophie sehe ich auch bei der PSP2.

robbitop
2009-07-18, 15:58:28
Es spielt beides mit rein.

Falls der MIPS wirklich alle Basisoperationen der Linearen Algebra abdeckt, dann wird er in vielen Teilen einer Engine jeden gleichgetakteten ARM vernichten.
Meinst du? Warum ist das denn in keinem SSE integriert? Als Beispiel beschleunigt RADIX-16 beim Penryn Bruchrechnung theoretisch um eine Größenordnung. Was bringt es bei Spielen? ;)


Da wäre ich mir nicht so sicher. Speziell Out-Of-Order ist nicht immer energieeffizient, da kann auch ARM nichts daran ändern. Insbesondere hat man mehr Instructions In-Flight die evtl. nie retired werden, etc.
Es bringt aber (zumindest in der PC Historie) enorme Performancesprünge. Leistungsaufnahmen finde ich leider weder bei ARM noch bei MIPS. Aber die MIPS Kerne nehmen bei gleichem Prozess eine größere Fläche auf.

Sony baut schon immer darauf, dass die Hardware eher einfach ist, aber dafür sehr hohe Peak-Performance hat wenn man sie richtig programmiert. Die Philosophie sehe ich auch bei der PSP2.
Ja leider war das bisher so.

Sven7
2009-07-18, 16:32:45
Es gab auch keinen zwingenden Grund fuer SGX535 im heutigen iPhone.
Meine Hypothese ist ja dass der zwingende Grund für SGX535 im heutigen iPhone SoC war dass Apple damit bis zum grundlegend neuen SoC in 2011 durchhalten kann (u.U. mit die-shrink und möglicherer höherer Frequenz im iPhone 2010) ohne von der Mehrheit der 2010 Smartphone Konkurrenz vollständig versenkt zu werden in Sachen GPU Leistung.

YfOrU
2009-07-18, 17:58:24
Ich bin mir zwar nicht sicher aber es gab vor einiger eine hitzige Debatte im B3D Forum wo jemand von IMG ziemlich wuetend donnerte dass ATI nicht nur features angepriesen hatte die nie existierten sondern auch selber quasi "mini Xenos" taufte wobei Imageon 2 nicht das geringste mit Xenos zu tun hat.
Ich kenn mich zwar mit den Imageon Modellen nicht besonders gut aus, aber Z430 duerfte zur gleichen Familie zaehlen:
http://www.glbenchmark.com/compare.jsp
Vergleich mal den Z430 hier mit dem MBX Lite des iPhone 3G und erklaer mir warum ein angeblicher USC insgesamt miserabler abschlaegt in einem stinknormalen OGL_ES1.x Benchmark.

Die grauenhafte Leistung kann eigentlich nur auf den Treiber zurückzuführen sein. Sowohl TG01 als auch das Acer F1 kommen auf ähnliche Werte und diese liegen teilweise unterhalb der Softwareimplementierung eines Touch HDs / 4G. http://www.glbenchmark.com/compare.jsp?benchmark=glpro&showhide=true&D1=HTC Max 4G&D2=Acer F1&D3=Apple iPhone 2G

Der z430 gehört auf jeden Fall zur "mini Xenos" Familie. Marketing machts möglich und deshalb wurden die Chips auch umbenannt. Aus Imageon z4x0 wurden Adreno 200, 210 und 220. Viel mehr greifbare Informationen sind aber nicht aufzufinden.


Wie schon erwaehnt an Qualcolmm verkauft und diese werden mit diesen (es ist ja lediglich nur eine 3D Variante und ein OpenVG core) werden hauptsaechlich in lower end Handys integriert.

Das betrifft hauptsächlich die ganz alten Kerne. Die neueren (2x00) sind in der Mehrzahl der WM Smartphones vertreten. Hauptsächlich natürlich weil die MSM7 Produktreihe von Qualcomm sehr erfolgreich ist. Allerdings werden die Features des Imageon meist nur in sehr beschränktem Umfang genutzt was wieder keine ordentlichen Vergleiche ermöglicht.

Der Verkauf an Qualcomm ist aus meiner Sicht etwas unverständlich denn gerade die Entwicklung hin zu größeren Displays und Tochscreens im Consumer-Bereich hat dem Markt neuen Schwung verliehen. Zusätzlich werden die 3D Funktionen nicht mehr ausschließlich nur in Spielen eingesetzt.

Kurzfristig war es sicher eine Möglichkeit Kosten einzusparen, ich vermute aber das AMD dem Markt nicht langfristig fern bleibt. Vor allem weil sich die einzelnen Geräteklassen immer weiter vermischen.

Gast
2009-07-20, 17:18:34
OOO ist schon ein Vorteil, weil es auch Dinge wie Stalls durch Cache-Misses verstecken kann.
Du musst das im zusammenhang sehen. Wie ich schrieb, wenn du stattdessen andere vorteile auf das selbe silizium giessen kannst, ist es bei einer kleinen fixen plattform besser.
wenn du also z.b. 128 register hast, statt 8 mit OOO (weil intern renaming gemacht wird), kannst du dir viele store-load-hits sparen, viele register dependancys fallen weg und parameteruebergabe an funktionen kann auch viel effizienter sein (immerhin haben x86 OOO cpus extra dafuer optimierungen um das stackproblem mit stores und gleich danach loads zu umgehen).
128 register mit vielen task switches wie auf PC ist weit aus unfreundlicher wenn es die applikation machen muss.

weiter hast du den vorteil auf einer fixen plattform genau darauf zu optimieren. du kannst also versuchen es schon cachefreundlich zu machen und weisst es wird immer so bleiben und brauchst die cpu nicht bemuehen ein generisches programm zur laufzeit zu optimieren auf diese architektur.

Gast
2009-07-20, 17:25:21
Ohne die Spec von NEON und fpSIMD von ARM durchzulesen, vermute ich, dass die das auch können.
als ich das das letzte mal sah, war es quasi wie normales altivec, nichtmal sse aenliches single-float operationen gab es (die ja aber eigentlich auch nutzlos sind seit ein paar x86 generationen, ausser ATOM).

Das ist alles SIMD Code. Soweit ich weiß, limitiert das eine CPU bei Spielen nicht. AFAIK waren es eher die Integerdurchsätze bei sequenziellem Code, die das tun. Und genau um Spiele geht es ja.wenn simd/float code nicht wichtig waere, braeuchte man simd nicht, das waere jetzt ne paradoxe behauptung ;).
Man benutzt halt das in spielen was man haben kann, hat man mehr int leistung, nutzt man die natuerlich. hat man nur int, nutzt man kein float (z.b. auf ds), hat man SSE, nutzt man es auch nur an sehr wenigen kritischen stellen die dediziert optimiert wurden. hat man aber die PSP spu, nutzt man es ueberall, weil man weiss, es bringt so ziemlich immer was (es gibt ein paar ausnahmen, es ist aber leicht diese falsche verwendung zu verhindern).




Natürlich kannst du mit einem guten Compiler was dran drehen, aber an die IPC einer OOO CPU kommst du trotzdem nicht ran.
natuerlich kann ein compiler nie so gut wie ooo arbeiten wenn die architektur sonst gleich ist, alleine schon weil ooo dynamisch auf das ganze system reagiert.
aber wenn du statt ooo mehr register, oder ein extra core, oder... einbaust, kannst du weit besser wegkommen.

Gast
2009-07-20, 17:31:24
Wenn SIMD oder FP Code bei Spielen limitiere würde, wäre der K7 dem P3 um Einiges voraus gewesen und der Core 2 dem K8 nicht so drückend überlegen.die meisten spiele liefen auf k7 besser.
ein paar sehr sse optimierte, z.b. quake's tesselation, waren auf ps3 schneller.



Wie häufig kommen die in Spielen für CPUs vor, wenn man eine moderne GPU zur Seite hat?es wird dich wundern, aber die meisten matrix operationen werden auf der cpu gemacht. weil die gpu meistens soviel load hat, dass man versucht alles vorweg zu berechnen was man kann. auf einer psp muss man das sogar, aufgrund von ein paar hardware..emm... du weisst schon.



Wäre es für Spiele eine enorme Bereicherung, wäre es sicher bereits implementiert, oder? :)
die SIMD einheiten sind meistens generisch, egal welcher konsolenhersteller, man nimmt immer mehr etwas von der stange.
baut man etwas individuelles wie z.b. die psp cpu, ist es dabei.
das erste was jeder spielehersteller bei neuen cpus fragt ist "gibt es dots?" ;)

Gast
2009-07-20, 17:33:33
Es spielt beides mit rein.

Falls der MIPS wirklich alle Basisoperationen der Linearen Algebra abdeckt, dann wird er in vielen Teilen einer Engine jeden gleichgetakteten ARM vernichten.

schau es dir an ;)
http://mrmrice.fx-world.org/vfpu.html

Gast
2009-07-20, 17:40:12
Meinst du? Warum ist das denn in keinem SSE integriert? Als Beispiel beschleunigt RADIX-16 beim Penryn Bruchrechnung theoretisch um eine Größenordnung. Was bringt es bei Spielen? ;)
das ist das traurige an SSE, es wird immer als multimedia ding verkauft, die zielgruppe ist aber HPC.
ganz ehrlich, wie lange haben alle entwickler nach dot gebettelt? dann gab es ne halbgare loesung mit ss3 (haddps) und erst 4 konnte dots.
was soll dagegen ein spiel mit zwei doubles im vector anfangen? ganz einfach, fuer jede wissenschaftliche simulation (atomtests, wetter, fluids, etc) brauchst du genau, komplexe zahlen.
da machst es dir auch nichts wenn die daten alligned sein muessen, du hast eh meistens GB weise den selben typ. (SOA).
bei spielen, alligned, da haben damals sogar compiler ziemlich versagt (und selbst neuste VC++ koennen das nicht als parameter uebergeben, gcc kanns, was sehr register freundlich waere).

also kurz: es war mehr marketing als nutzen. waere 3dnow nicht so bescheuert auf fpu register angewiesen, es haette sse verdraengt.


Ja leider war das bisher so.aus programmierer sicht fand ich das nicht schlecht. die hardware war meistens sehr gut.
die software ist das problem.
es ist schoen performante hardware zu haben
es ist schoen alles aus ihr rauskitzeln zu duerfen
es ist schlecht dass jeder, immer bei adam&eva anfangen muss bei sony develn.

Coda
2009-07-20, 20:17:41
schau es dir an ;)
http://mrmrice.fx-world.org/vfpu.html
Ich habe es ja nicht bestritten :)

Ist aber echt cool. Ich hätte nicht gedacht, dass jemand das mal alles implementiert in Hardware.

bei spielen, alligned, da haben damals sogar compiler ziemlich versagt (und selbst neuste VC++ koennen das nicht als parameter uebergeben, gcc kanns, was sehr register freundlich waere
Ja, das Problem hatte ich auch schon grml.

also kurz: es war mehr marketing als nutzen. waere 3dnow nicht so bescheuert auf fpu register angewiesen, es haette sse verdraengt.
3DNow! kann auch keine Dots oder mehr.

Ailuros
2009-07-21, 12:16:27
Die grauenhafte Leistung kann eigentlich nur auf den Treiber zurückzuführen sein. Sowohl TG01 als auch das Acer F1 kommen auf ähnliche Werte und diese liegen teilweise unterhalb der Softwareimplementierung eines Touch HDs / 4G. http://www.glbenchmark.com/compare.jsp?benchmark=glpro&showhide=true&D1=HTC Max 4G&D2=Acer F1&D3=Apple iPhone 2G

Der z430 gehört auf jeden Fall zur "mini Xenos" Familie. Marketing machts möglich und deshalb wurden die Chips auch umbenannt. Aus Imageon z4x0 wurden Adreno 200, 210 und 220. Viel mehr greifbare Informationen sind aber nicht aufzufinden.

Nur kann es nach meiner Logik auf dem F1 keine reine SW Implementierung sonst wuerde es die OGL_ES1.0 bzw. 1.1 Tests erstmal nicht erforlgreich bewaeltigen.



Kurzfristig war es sicher eine Möglichkeit Kosten einzusparen, ich vermute aber das AMD dem Markt nicht langfristig fern bleibt. Vor allem weil sich die einzelnen Geräteklassen immer weiter vermischen.

Wie ich schon sagte Fusion koennte ihnen durchaus ausgezeichneten Anlass geben den Markt wieder zu betreten.

Gast
2009-07-21, 15:20:48
Ich habe es ja nicht bestritten :)
deine moeglichkeitsform klang als haettest du dich noch nicht ueberzeugt gehabt ;)


Ist aber echt cool. Ich hätte nicht gedacht, dass jemand das mal alles implementiert in Hardware.
es ist fast so flexibel wie shader und ueberall im code verwendbar und bringt wirklich speed, gegenueber anderen SIMDs ist das ueberlegen.
und weshalb ich das nochmals sage? wegen:
3DNow! kann auch keine Dots oder mehr.
3dnow is weit weit aus flexibler. simple beispiele:
-horizontal add und mul von anfang an, dots waren tatsaechlich sehr viel schneller.
-unaligned reads mit vollem speed, du konntest also eine generisch lib schreiben die immer ging, egal ob jemand inplacement new machte und deswegen unaligned arbeitete, oder ob er pointertypes vergewaltigte.
-flexibler wegen 2 floats pro register. ein dot3 oder dot4 war einfach so aus dem handgelenk geschuettelt und schnell, du musstest dir nicht zig schuffles machen und am ende wegen den ganzen register dependancies den kopf wundernd kratzen, ob das jeeee annaehernd so schnell laufen koennte wie eine fpu.

problem waren die register. wenn irgendwo jemand mal ein printf einbaute. oder sonst irgendwas zum debuggen gemacht hat, es flog einfach zufaellig ab und die leute fingen mit der "volatile krankheit" an und platzierten den emms reset einfach ueberall.

Coda
2009-07-21, 16:59:38
Ja, das war echt unschön. Das Problem hatte MMX ja auch schon. Aber AFAIK gehen die MMX-Opps jetzt ja auch auf SSE-Register.

YfOrU
2009-07-21, 17:04:22
Nur kann es nach meiner Logik auf dem F1 keine reine SW Implementierung sonst wuerde es die OGL_ES1.0 bzw. 1.1 Tests erstmal nicht erforlgreich bewaeltigen.

Wie ich schon sagte Fusion koennte ihnen durchaus ausgezeichneten Anlass geben den Markt wieder zu betreten.

Nicht das F1 sondern der Touch HD bzw. Touch 4G

TG01 und Acer F1 nutzen den Snapdragon und OpenGL ist zumindest funktional auch wenn die Performance gnadenlos schlecht ist.

Touch HD den üblichen msm 7201a. Mehr dazu gibt es auf http://www.htcclassaction.org/

Ailuros
2009-08-11, 12:46:46
http://business.timesonline.co.uk/tol/business/article6788569.ece

Interessanter Artikel.

AnarchX
2009-08-18, 22:16:43
Was könnte das für ein SGX @ 333/400MHz in Queensbay sein?

http://www.computerbase.de/bildstrecke/26587/1/

robbitop
2009-08-19, 08:38:03
Anscheinend auch nur ein SGX535, da die GPU Punktezahl nur in etwa um Faktor 2 stieg (wie auch die Taktfrequenz).

Ailuros
2009-08-27, 09:31:58
http://www.icjournal.com/articles/2009/20090825_decisions.htm

META ist tatsaechlich nichts Neues; es sieht aber wohl doch danach aus als ob die Anfrage fuer effiziente GPP/multimedia (complimentary) cores mehr und mehr steigt. METAphorisch gesehen ist es lediglich ein SGX ohne Klamotten ;D

Was ich nicht wusste ist dass sie nach Umsatz die vierte IP Firma weltweit in der Zwischenzeit sind. So wie es aussieht haette ARM hoehere Flexibilitaet zeigen sollen um die Zusammenarbeit mit IMG zu erhalten. IMG wollte verstaendlicherweise ihre Einnahmen nicht mehr mit ARM teilen; jetzt nachdem die letztere Falanx aufgekauft hat konkurrieren sie mit IMG in der Zukunft in mehr als nur einem Feld. Zwei britische Firmen die eng zusammenarbeiten wuerden, koennten viel mehr gemeinsam als getrennt anstellen.

robbitop
2009-08-27, 11:40:00
Das ist theoretisch so. Aber praktisch ist gesunde Konkurrenz immer entwicklungsfördernd. Ab einer gewissen Menge an Entwicklern ist ein Projekt gesättigt und danach wird das Team eher träge und es gibt Machtkämpfe. Mehrere kleine Teams mit einer guten Mischung aus "stars" (charismatische, kreative, geniale Entwickler) und nichtstars (zuviele Stars pro Team führen oftmals zu Reibungsverlusten), kommt bei den Ergebnissen im Entwicklungsbereich immer auf sehr gute Ergebnisse. Und zwar in soziemlich jeder Branche.

Ailuros
2009-08-27, 11:52:29
Das ist theoretisch so. Aber praktisch ist gesunde Konkurrenz immer entwicklungsfördernd. Ab einer gewissen Menge an Entwicklern ist ein Projekt gesättigt und danach wird das Team eher träge und es gibt Machtkämpfe. Mehrere kleine Teams mit einer guten Mischung aus "stars" (charismatische, kreative, geniale Entwickler) und nichtstars (zuviele Stars pro Team führen oftmals zu Reibungsverlusten), kommt bei den Ergebnissen im Entwicklungsbereich immer auf sehr gute Ergebnisse. Und zwar in soziemlich jeder Branche.


robbi ich meinte keinesfalls eine Firmen-vereinigung falls es als solches klang. Eine einfachere Zusammenarbeit zwischen ARM und IMG, ohne dass eben die erste Wucherprozentuale wie zu MBX Zeiten vom zweiten kassiert. Heutzutage verkauft sich wie toll ihre Mali Zeug dass sie eventuell sogar umsonst mit einer CPU Lizenz verschenken damit sie es irgendwann mal loswerden.

Ailuros
2009-08-31, 14:49:50
http://www.symbian-freak.com/news/009/08/n900_specifications_beyond_your_wildest_imaginations.htm

YfOrU
2009-08-31, 17:07:46
Sowas noch erleben zu dürfen, Nokia verbaut aktuelle Hardware und das sogar vor HTC. Wobei beide was performante SoCs angeht nicht gerade auf der Sonnenseite stehen. Gerade die letzten Geräte wie N97 oder Diamond 2 sind nicht gerade günstig und trotzdem alles andere als auf der Höhe der Zeit.

Da Nokia als großer Volumenhersteller praktisch immer mehrere Geräte auf Basis einer Platform anbietet wird der Omap3 wahrscheinlich in mehreren Neuerscheinungen zu finden sein und zumindest teilweise endlich den alten Freescale ablösen.

Ailuros
2009-09-01, 06:38:09
Sowas noch erleben zu dürfen, Nokia verbaut aktuelle Hardware und das sogar vor HTC. Wobei beide was performante SoCs angeht nicht gerade auf der Sonnenseite stehen. Gerade die letzten Geräte wie N97 oder Diamond 2 sind nicht gerade günstig und trotzdem alles andere als auf der Höhe der Zeit.

Da Nokia als großer Volumenhersteller praktisch immer mehrere Geräte auf Basis einer Platform anbietet wird der Omap3 wahrscheinlich in mehreren Neuerscheinungen zu finden sein und zumindest teilweise endlich den alten Freescale ablösen.

Ich hab den Link einfach mal gepostet weil es irgendwo Zweifel gab dass NOKIA OMAP3 integriert.

Ailuros
2009-09-24, 18:15:22
http://channel.hexus.net/content/item.php?item=20357

Ailuros
2009-10-16, 20:31:55
http://www.brightsideofnews.com/news/2009/10/16/exclusive-sony-psp2-arriving-in-20102c-features-powervr-sgx543-graphics.aspx

Hmmm ich wuerde mal von 4MP@400MHz ausgehen, obwohl wenn es in den power envelope passt 8MP natuerlich besser waere. :eek:

Ailuros
2009-11-14, 09:42:02
http://www.imgtec.com/demo_room/index.asp

Ailuros
2009-11-19, 12:46:13
Hmmm never say never aber ich halte es momentan fuer bullshit:

http://fgnonline.webs.com/

Sony has chosen the GPU for the next generation PlayStation.

We can officially reveal in this world exclusive that SCEI has officially chosen the Imagination Technologies currently in development PowerVR Series 6 architecture for it's next generation PlayStation console scheduled for 2012 worldwide deployment.

The PlayStation 4 shall use a high end variant of the Series 6 line. Performance, specifications and features are at this time unknown. The Series 6 shall receive an official announcement from IMGTEC sometime in 2010, with initial models targeting the smartphone and netbook sector.

It is believed that Sony has gained exclusive rights to the technology for the console space.

IMGTEC's PowerVR technology uses an advance technique called TBDR which can outperform a competing IMR product from nVidia/ATi by 3-5 fold whilst maintaining equal die size and price point. TBDR was the primary reason the SEGA DreamCast was capable of such astonishing graphical feats as early as 1998.

Interestingly SCEI has also chosen IMGTEC as the graphics provider for their next generation PSP. That particular product shall however be using the Series 5XT.

Mr Zachary Morris

3-5 fold? Was sauft denn der Kerl? LOL

davidzo
2009-11-19, 16:22:13
ne quelle nennt er nicht, na dann wers glaubt wird selig. fänd ich toll für IMGTEC, aber irgendwie glaub ich dem noch nicht so recht ohne dass es weitere quellen gibt die das bestätigen.

robbitop
2009-11-19, 16:33:16
Vieleicht waren sie von der Charakterstik von Serie5 XT für PSP so zufrieden und IMG hat einen guten Preis gemacht. Möglich wäre es. Vieleicht ist Serie 6 noch skallierbarer als Serie5 XP.
Vieleicht soll die PS4 eher in die Richtung von Nintendos Konzept werden: Keine High End Hardware + wenig Subventionen + breite Zielgruppe. Dafür wäre eine SGX-MP perfekt.

davidzo
2009-11-19, 16:47:17
Vieleicht soll die PS4 eher in die Richtung von Nintendos Konzept werden: Keine High End Hardware + wenig Subventionen + breite Zielgruppe. Dafür wäre eine SGX-MP perfekt.

Das wäre Sonys Intention. Klingt unwahrscheinlich und PowerVR hat auch das Zeug dazu einen großen Chip zu bauen, glaube kaum, dass sie Sony ein minidesign angedreht haben. Man würde wird mit den Mitteln die man damit zur Verfügung hätte, klar darauf abziehlen einen beeindruckenden Chip ab zu liefern der NV und AMD in nichts nachsteht.

Alles was Sony derzeit haben kann ist SGX535 (desktop) oder den 530 aus dem iphone und anderen geräten. daran lässt sich die 543 Charakteristik sicher abschätzen, ich bezweifle aber dass sie schon so weit sind, von Zufriedenheit mit PowerVR in hard- und software zu sprechen.

Auch die Planung einen 4-core SGX543 in die PSP2 zu bauen entspricht eher Sonys bisheriger klotzen statt kleckern Politik in bezug auf die hardware. Für den ultramobilen bereich wird die PSP2 vollkommen überdimensionierte Leistungsdaten haben, da würde manches Netbook von träumen.
Nintendo hat die Kreativen Köpfe und ein gutes Management um sich auf mittelmäßiger Hardware auszuruhen, Sony hat sowas noch nie probiert. Eine leistungsmäßig schwache Sonykonsole mit bisheriger wenig innovativer Software wäre eine Katastrophe für die Marke!

loewe
2009-11-19, 20:37:38
Alles was Sony derzeit haben kann ist SGX535 (desktop) oder den 530 aus dem iphone und anderen geräten. daran lässt sich die 543 Charakteristik sicher abschätzen, ich bezweifle aber dass sie schon so weit sind, von Zufriedenheit mit PowerVR in hard- und software zu sprechen.

Sony kann und wird, falls die Meldung dann stimmt, Serie 6 schon in Aktion gesehen haben!
Serie 6 ist schon seit einiger Zeit "fertig" und liegt auch schon in Hardware vor. Auf dem AGM im August hat Hossein Yassaie (CEO von imgtec) das bestätigt und auch das sowohl Intel als auch Apple sie schon gesehen haben. Serie 6 soll noch einmal wesentlich effizienter und leistungsfähiger sein als Serie 5.
BTW, iPhone enthält auch den SGX535. ;)

Ailuros
2009-11-19, 22:16:05
Es handelt sich natuerlich nur um Humbug. Ich hab gerade die Antwort bekommen.

Das wäre Sonys Intention. Klingt unwahrscheinlich und PowerVR hat auch das Zeug dazu einen großen Chip zu bauen, glaube kaum, dass sie Sony ein minidesign angedreht haben. Man würde wird mit den Mitteln die man damit zur Verfügung hätte, klar darauf abziehlen einen beeindruckenden Chip ab zu liefern der NV und AMD in nichts nachsteht.

Ich sagte von Anfang an dass ich es nicht ernst nehme weil ich weiss dass auf IMG's roadmap KEIN high end Design liegt und das wohl auch nicht nur auf Serie6 begrenzt. IMG hat nie etwas aehnliches angeboten und es gab nie irgend eine Besprechung ausserhald dem Hydra chip.

Alles was Sony derzeit haben kann ist SGX535 (desktop) oder den 530 aus dem iphone und anderen geräten. daran lässt sich die 543 Charakteristik sicher abschätzen, ich bezweifle aber dass sie schon so weit sind, von Zufriedenheit mit PowerVR in hard- und software zu sprechen.

Sony Ericcson hat schon seit zwei OpenGL_ES Generation IMG IP in ihren smartphones und MIDs. Wie klingt Satio oder Vaio P als einfache Beispiele?

Auch die Planung einen 4-core SGX543 in die PSP2 zu bauen entspricht eher Sonys bisheriger klotzen statt kleckern Politik in bezug auf die hardware. Für den ultramobilen bereich wird die PSP2 vollkommen überdimensionierte Leistungsdaten haben, da würde manches Netbook von träumen.

Das Handheld kommt erstens nicht morgen und zweitens muss es auch 4-5 Jaehrchen aushalten koennen.

Nintendo hat die Kreativen Köpfe und ein gutes Management um sich auf mittelmäßiger Hardware auszuruhen, Sony hat sowas noch nie probiert.

Da Du nicht die blasseste Ahnung hast wie die gesamte Geschichte mit Nintendo's naechster Generation handheld vorlief, wuerde ich mich an Deiner Stelle erstmal von solchen Schlussfolgerungen zurueckhalten. Und nein ohne etliche Zankereien ging es nicht vor und NV sollte froh sein dass sie womoeglich Nintendo immer noch am Ball haben.

Eine leistungsmäßig schwache Sonykonsole mit bisheriger wenig innovativer Software wäre eine Katastrophe für die Marke!

Das beschreibt aber erstmal nicht Dreamcast. Wenn IMG wieder so ein Projekt aufnehmen wuerden, wuerden sie es auch demensprechend Ernst nehmen.

Ganz nebenbei wurde der Eurogamer Artikel mit etwas "Hilfe" generiert. Die Ansaetze an die Treiber kamen mit Absicht bis einige die Entscheidungen treffen endlich etwas aufwachen. So lange Vertraege im eingebetteten/ low end Markt nur mit 3dfart 05 & 06 scores als Kriterium abgeschlossen werden aendert sich an solchem Zeug nichts. Und nein ein miesser D3D Treiber von Intel zeigt in diesem Fall nicht sein uebles Gesicht weil die Applikationen einfach zu shader limitiert sind.

davidzo
2009-11-20, 11:58:29
Falls der MIPS wirklich alle Basisoperationen der Linearen Algebra abdeckt, dann wird er in vielen Teilen einer Engine jeden gleichgetakteten ARM vernichten.


Mips ist nicht umsonst die von SGI präferierte Architektur gewesen und von ihnen entsprechend weiterentwickelt worden. Der Itaniumhype hat das ganze kaputt gemacht, weil SGI dann ihr eigenes prozessorhaus vernachlässigt hat. Zeitgleich mit dem Umstieg von Rasterizing auf Raytracing bot SGI dank iherer Cray technologien zwar immernoch die performantesten Systeme im grafischen bereich, verschwand aber zusammen mit den anderen Firmen, deren einzigstes Pferd im Stall nunmehr der Itanium war, langsam in der Versenkung.
Nichtsdestotrotz ist die MIPS Architektur jedenfalls eine der am besten grafisch nutzbaren die man zur Auswahl hat. Glaube kaum, dass ein Cortexprozessor, der mehr auf general processing und multitasking ausgelegt ist ihm da paroli bieten kann, trotz OOO.

robbi ich meinte keinesfalls eine Firmen-vereinigung falls es als solches klang.

genau, derzeit geht es nämlich eher auf konfrontationskurs, dabei ist der arm cortexA9MP die traum netbook CPU und der SGX545 wäre dann die richtige Grafiklösung.

Es handelt sich natuerlich nur um Humbug. Ich hab gerade die Antwort bekommen.

Von wem, IMG? Hieß es "No Comment" oder "bullshit"?



ich weiss dass auf IMG's roadmap KEIN high end Design liegt


Da gab es seiten IMGs aber andere Aussagen. gestern stand sogar bei Wikipedia "Series 6 will be very high end performance." - heute steht da außerdem das gerücht über die Sony PS4 von zachary Morris drin, wer war das nu wieder? :nono:


Sony Ericcson hat schon seit zwei OpenGL_ES Generation IMG IP in ihren smartphones und MIDs. Wie klingt Satio oder Vaio P als einfache Beispiele?

Habe ich was anderes gesagt? Genau das meinte ich, dass sie SGX535 vorliegen haben und darauf wohl kaum aussagen zu einem extrem highend series6 treffen können.


Das Handheld kommt erstens nicht morgen und zweitens muss es auch 4-5 Jaehrchen aushalten koennen.

Widersprechen wir uns? Ich komme doch zum selben Schluss, dass ich SGX543MP4 in der PSPs2 für realistisch in Sonys bisheriger produktpolitik halte.
Auch die Planung einen 4-core SGX543 in die PSP2 zu bauen entspricht eher Sonys bisheriger klotzen statt kleckern Politik in bezug auf die hardware.


Da Du nicht die blasseste Ahnung hast wie die gesamte Geschichte mit Nintendo's naechster Generation handheld vorlief, wuerde ich mich an Deiner Stelle erstmal von solchen Schlussfolgerungen zurueckhalten.

Hab ich was über Nintendo und Nvidia gesagt? - Nein.



Das beschreibt aber erstmal nicht Dreamcast. Wenn IMG wieder so ein Projekt aufnehmen wuerden, wuerden sie es auch demensprechend Ernst nehmen.

Ich weiß nicht wie du mir gleichzeitig wiedersprechen und dann nahezu dasselbe schreiben kannst :confused:
Man würde wird mit den Mitteln die man damit zur Verfügung hätte, klar darauf abziehlen einen beeindruckenden Chip ab zu liefern der NV und AMD in nichts nachsteht.<-- ergo Ernst nehmen.

Ailuros
2009-11-20, 12:19:14
genau, derzeit geht es nämlich eher auf konfrontationskurs, dabei ist der arm cortexA9MP die traum netbook CPU und der SGX545 wäre dann die richtige Grafiklösung.

Mir waere ein netbook mit einem 4 MP SGX543 eigentlich lieber aber das ist eine andere Geschichte.

Von wem, IMG? Hieß es "No Comment" oder "bullshit"?

Das zweite aber in einem hoeflichen Ton und Ausdruck.

Da gab es seiten IMGs aber andere Aussagen. gestern stand bei Wikipedia "Series 6 will be very high end performance." - heute steht da außerdem das gerücht von zachary Morris drin, wer war das? :nono:

Nachdem man mit der Serie5 GPU (PMX590) auf die Nase fiel, moebelte man den Design um und es entstand die heutige SGX/Serie5 SoC IP Linie. Ich hab zich Male nachgefragt und die Antwort war stets dass Serie6 kein high end Design sein wird und dass es noch etliche Jahre dauern wird bis sie mal wieder an so etwas denken wuerden.

Wieso eigentlich auch? Sie haben ueber in dutzenden SoCs ihr IP drin und machen heutzutage sogar Gewinn, anstatt wie in der Vergangenheit an einer Konsole (Dreamcast) oder mal an einer gelegentlichen GPU (KYRO) herumzumoebeln und nur Schulden abschreiben.

TEXAN auf B3D der wirklich allen mit seinem Mist dort nervte wurde herausgeschmissen und er hat wohl etwas mit der Seite zu tun.

Habe ich was anderes gesagt? Genau das meinte ich, dass sie SGX535 vorliegen haben und darauf wohl kaum aussagen zu series6 treffen können.

Serie6 wurde wie schon von Loewe bei mehr als nur einem Parnter intern vorgestellt.

Widersprechen wir uns? Ich komme doch zum selben Schluss, dass ich SGX543MP4 für realistisch in Sonys produktpolitik halte.

Nein wir widersprechen uns nicht in dem Bereich. Die angenehme Ueberraschung fuer SONY ist aber dass sie mit einem SoC von der bisherigen Unzahl an etlichen diversen chips erstmal geloest haben.

Hab ich was über Nintendo und Nvidia gesagt? - Nein.

Nintendo hat die Kreativen Köpfe und ein gutes Management um sich auf mittelmäßiger Hardware auszuruhen, Sony hat sowas noch nie probiert.

Lange Geschicht kurz: Nintendo wollte afaik zuerst nur IP lizenzieren genau aus dem gleichem Grund wieso Konsolen Hersteller schon seit Jahren nur IP lizenzieren um volle Kontrolle ueber die Herstellungskosten zu haben. Irgendwo muss es zwischen Nintendo und NVIDIA und noch einer Firma gedonnert haben und obwohl Nintendo wo anders einkaufen wollte schaetze ich dass einfach von NVIDIA einen fertigen SoC eingekauft haben.

Wie man sich jetzt auf jeglicher HW "ausruhen" kann wenn die Gefahr besteht dass NVIDIA ueber die Jahre fuer die SoC verlangen kann was ihnen gerade schmeckt ist mir fremd.

Ergo Du hast womoeglich was ganz anderes gemeint, ich hab aber so viel mehr im Hinterkopf was die ganze Geschichte betrifft dass ich alles andere sehe als dass Nintendo mit dem Deal ausgesorgt haben kann.

Ich weiß nicht wie du mir gleichzeitig wiedersprechen und dann nahezu dasselbe schreiben kannst :confused:
<-- ergo Ernst nehmen.

Hier handelt es sich um ein Missverstaendnis und ich muss mich entschuldigen.

Eine leistungsmäßig schwache Sonykonsole mit bisheriger wenig innovativer Software wäre eine Katastrophe für die Marke!

Ich dachte dass das fettgedruckte auf SGX bezogen ist. Intel's GMA500 hat zwar beschissene Treiber, aber das eine hat nichts mit dem anderen zu tun und es ist nicht nur IMG's eigene Verantwortung sondern auch Intel's.

davidzo
2009-11-20, 15:50:16
Ergo Du hast womoeglich was ganz anderes gemeint, ich hab aber so viel mehr im Hinterkopf was die ganze Geschichte betrifft dass ich alles andere sehe als dass Nintendo mit dem Deal ausgesorgt haben kann.
Habe eher die Wii gemeint. Sony hätte von einer solchen plattform nicht solange zehren können.

Ich dachte dass das fettgedruckte auf SGX bezogen ist. Intel's GMA500 hat zwar beschissene Treiber, aber das eine hat nichts mit dem anderen zu tun und es ist nicht nur IMG's eigene Verantwortung sondern auch Intel's.
ne, war auf die behauptung gemünzt, sony würde für die pese4 kein highend bauen und daher einen series 6 bestellen der eher dem mobilen bereich zuzuordnen ist und damit nicht das was man bei GPUs klassisch als highend versteht. sony baut keine sparsamen designs! Falls Sony einen Series 6 lizensiert, dann einen richtig fetten! Da ein highendchip aber seitens pwerVR verneint wurde, bestätigt das, dass die Meldung über den deal falsch war.

Ailuros
2009-11-21, 07:00:41
ne, war auf die behauptung gemünzt, sony würde für die pese4 kein highend bauen und daher einen series 6 bestellen der eher dem mobilen bereich zuzuordnen ist und damit nicht das was man bei GPUs klassisch als highend versteht.

sony baut keine sparsamen designs! Falls Sony einen Series 6 lizensiert, dann einen richtig fetten! Da ein highendchip aber seitens pwerVR verneint wurde, bestätigt das, dass die Meldung über den deal falsch war.

Selbst wenn SONY einen waschreinen Konsolen-Design fuer PS4 von IMG beantragen wuerde, waere es heutzutage viel zu spaet. Grosse IHVs wie ATI/NVIDIA brauchen eine geraume Zeit Konsolen-GPU IP zu entwickeln und dabei ist es egal ob das Resultat nur ein einfach erscheinender Ableger einer PC-GPU ist.

Wenn sich IMG in der wenig vorhersehbaren Zukunft zu einer weit groesseren Firma entwickeln sollte was heissen wuerde dass sie sich weitherhin so aufbauen wie in den letzten paar Jahren und ihre generelle Resourcen um zich Male wachsen dann koennen sie mal wieder an einen high end Design denken.

Das letzte Mal als sie es versuchten war es ein komplettes Fiasko. Sie hatten eine PC GPU IP entwickelt die NV35 als Ziel hatte und hatten natuerlich auch mit Microsoft fuer Xbox360 verhandelt. Wenn Dir das Management selber sagt wir haben Moneten fuer lediglich einen tape out die restlichen bugs werden mit der Hand ausgegraben na dann guten Appetit. Man legte das ganze auf Eis entwickelte es weiter fuer SGX und stornierte die SEGA arcade Lizenz die es fuer den IP damals gab.

Sega hat danach GF6x00 in die Maschinen eingebaut und der chip mit dem Codenamen PMX590 ging in die Geschichte von vaporware.

davidzo
2009-11-22, 14:21:30
Naja, die PesE soll ja auch noch eine Zeit halten, daher wäre der beginn der chipentwicklung für den nachfolger jetzt nicht zu spät, zumal series6 ja angeblich schon entworfen ist. - nur anscheinend gibts eben kein highend, dass ist es was es unwahrscheinlich macht.

SEGA hat auch nicht annähernd die kapazitäten um den chip zu bezahlen und nicht den Bedarf dmait es sich für IMG gelohnt hätte. Wie schnell IMG wieder auf die beine gekommen ist sieht man ja. Sony hätte da die mittel mit IMG ein Highenddesign zu machen, ganz anders als SEGA...

Ailuros
2009-11-22, 15:47:20
Naja, die PesE soll ja auch noch eine Zeit halten, daher wäre der beginn der chipentwicklung für den nachfolger jetzt nicht zu spät, zumal series6 ja angeblich schon entworfen ist. - nur anscheinend gibts eben kein highend, dass ist es was es unwahrscheinlich macht.

Ich erwarte ebenso wie bei Serie5 dass auch Serie6 in der weniger vorhersehbaren Zukunft auf multi-core setzt. Man sieht aber auch vom SGX Design dass die maximale Latenz des Designs bei 16 cores aufhoert (was bei einer theoretischen Realisierung welche ich natuerlich nicht als wahrscheinlich halte einen sehr guten PC SoC geben wuerde mit 64 (Vec5) ALUs, aber bis zu einem high end Design ist der Weg noch verdammt lang.

Ich persoenlich bleibe dabei dass wenn man von ganz klein auf entwickelt (smartphone SoC) und dann nach oben skaliert und auch anders rum (von high end nach unten) man irgendwo in der Mitte stecken bleibt.

SEGA hat auch nicht annähernd die kapazitäten um den chip zu bezahlen und nicht den Bedarf dmait es sich für IMG gelohnt hätte. Wie schnell IMG wieder auf die beine gekommen ist sieht man ja. Sony hätte da die mittel mit IMG ein Highenddesign zu machen, ganz anders als SEGA...

IMG wollte sich keineswegs auf SEGA verlassen um den chip produktionsreif zu bekommen. Der chip war fuer PC/Konsole und Arcade gemeint. Da man fuer die ersten zwei nichts auf die Beine stellen konnte, reisst es den kleinsten Markt was Volumen betrifft am Ende eben mit.

IMG hat mit dem high end Design wertvolle Erfahrungen gemacht und die Effizienz beim SGX wurde dadurch um einiges gesteigert. Eigentlich haette SGX ja Serie6 heissen sollen, aber es wurde wieder Serie5 aus marketing Gruenden.

SONY hat zwar mehr Resourcen, aber ein Hersteller lizenziert schon seit Jahren kein IP mehr wenn es nicht einen bestimmten Grad erreicht hat. Papierfranzen lizenziert keiner mehr, und obwohl PMX590 als fruehzeitige hw zwar praesentabel war gibt es auch wiederrum einen Grund dass Microsoft Xenos lizenzierte.

Ailuros
2009-11-24, 11:43:50
Es ist nichts Neues dass IMG ihre META cores aktiver vermarkten will:

http://www.imgtec.com/News/Release/index.asp?NewsID=498

The META Connected Processor™ family will combine Imagination’s innovative META multithreaded processor and ENSIGMA multi-standard programmable communications technologies, fully optimised for low power and high performance under all operating conditions. As a result of this development, these technologies, which are already successful in consumer broadcast markets, will now be able to be used in new lower end markets such as digital photo-frames, media streamers/players, printers, toys and connected cameras.http://www.imgtec.com/News/Release/index.asp?NewsID=496

For too long chip designers have stuck to traditional concepts of CPU-based SoC design, which is increasingly not appropriate for the levels of system integration we’re now seeing in SoCs. Embedded processors – whether running applications under Linux or highly optimised DSP algorithms - now need to be much more effective in ensuring every clock cycle counts to minimise power and maximise performance, Based on our years of experience of embedding META processors in many of our SoC IP cores and customer SoC designs, as well as our work with many of the world’s most advanced SoC vendors integrating our high performance multimedia and communications engines with every major CPU architecture, we’ve built on the core strengths of our unique META processor architecture to meet the needs of SoCs far better than traditional CPUs for today’s low power, high performance connected multimedia age.META cores are capable of up to 1GHz operation on a 40G process, for a synthesised core. All the META cores are fully synthesisable using readily available standard libraries. Imagination is offering all members of the META Series2 family of SoC processors for licensing now.

Was sich in dieser Generation geaendert haben kann sagt der PR blurb leider nicht. Die Frequenz-Toleranz bis zu 1GHz ist aber verdammt beindruckend.

Hmmm moment....

META HTP has optional double precision IEEE 754-2008 compliant floating point and 64-bit internal buses, loading a 64-bit word in a single cycle.

Ok na dann wird es wohl nicht schwer sein mit dem hier gleich auf die Serie6 Moeglichkeit zu deuten.

Und noch etwas zu SGX543 MP:

http://www.imgtec.com/News/Release/index.asp?NewsID=497

Imagination reports that three of its partners now have licences for SGX MP technology, which continues to extend Imagination’s leadership of the embedded graphics acceleration market with multi-processor, shader-based solutions which address the rapidly growing demands for high performance graphics in a wide range of consumer electronics segments.

Schon drei Lizenzen. Nicht schlecht. Zwei kann ich mir vorstellen, die dritte aber nicht.

davidzo
2009-11-24, 16:05:50
Schon drei Lizenzen. Nicht schlecht. Zwei kann ich mir vorstellen, die dritte aber nicht.

Sony, Apple und vielleicht TI oder dürfen wir noch Hoffnung in Intel haben?

Ailuros
2009-11-25, 07:12:12
Sony, Apple und vielleicht TI oder dürfen wir noch Hoffnung in Intel haben?

Sony und womoeglich Mediatek http://www.imgtec.com/News/Release/index.asp?NewsID=469

TI duerfte der dritte Kandidat sein. Wenn Intel lizenziert dann wohl erst wieder Serie6.

Ailuros
2010-01-08, 10:10:29
SGX545/D3D10.1/OGL3.2/OpenCL1.0 endlich angekuendigt:

http://www.imgtec.com/News/Release/index.asp?NewsID=516

The IP is already proven in silicon in a test chip from Imagination and licensed by a lead partner.

This makes POWERVR SGX545 a compelling solution for application processor SoC designers targeting the next generation of netbook and MID mobile products demanding exceptional graphics capabilities.

Intel?

POWERVR SGX545 delivers real-world performance of 40 million polygons/sec and 1 Gpixels/sec fillrate at 200MHz,* and is capable of driving HD screens with ultra smooth high frame rate 3D graphics content.

SGX535@45nm laeuft afaik auf 400MHz, ergo sind die 200MHz verdammt langweilig als =/<45nm Frequenz.

* DirectX10.1 API support
* Enhanced support for DirectX10 Geometry Shaders
* DirectX10 Data assembler support (Vertex, primitive and instance ID generation)
* Render target resource array support
* Full arbitrary non power of two texture support
* Full filtering support for F16 texture types
* Support for all DirectX10 mandated texture formats
* Sampling from unresolved MSAA surfaces
* Support for Gamma on output pixels
* Order dependent coverage based AA (anti-aliased lines)
* Enhanced line rasterisation

* Support of round-to-nearest for floating-point math
* Full 32-bit integer support (includes add, multiply and divide)
* 64-bit integer emulation
* 3D texture support
* Support for the maximum 2D and 3D image sizes specified in the full profile.

Ailuros
2010-01-11, 08:02:27
Uebrigens ist die NV Aktie trotz unendlichem Bumsfallera in den Medien fuer Tegra2 gerade um 0.22% gestiegen waerend IMG's Aktie mit nur einer bescheidenen Vorstellung eines Samsung SoCs bei CES und ein paar eigenen PR Ankuendigungen um fast 10% zulegte (welches natuerlich sich wieder normalisieren wird denn bei fast 2.8 Pfund werden auch einige verkaufen...).

Zugegeben schlechter Vergleich (ueberhaupt wenn es zu Aktien kommt und einem Giganten wie NV der sich hauptsaechlich auf high end GPUs konzentriert), aber es gibt trotz allem einen Unterschied was den eingebetteten Markt betrifft und die jeweiligen Potentiale ;)

robbitop
2010-01-11, 09:29:19
Hat Tegra2 eigentlich auch eine neue GPU oder hat verfügt es hauptsächlich nur über den mächtigen Cortex A9 DualCore?

Ailuros
2010-01-11, 14:31:22
Hat Tegra2 eigentlich auch eine neue GPU oder hat verfügt es hauptsächlich nur über den mächtigen Cortex A9 DualCore?

Tegra1 = OGL_ES2.0, 2 (FP24) PS ALUs, 2 VS ALUs, 2 TMUs, 120MHz@65LP

Tegra2 = OGL_ES2.0, 4 (FP24) PS ALUs, 2 VS ALUs, 4 TMUs, 240MHz@40LP

Zum Thema:

http://ces.cnet.com/8301-31045_1-10430096-269.html?tag=mncol;txt

Ailuros
2010-01-14, 10:21:00
http://www.brightsideofnews.com/news/2010/1/13/pioneer-takes-to-the-road.aspx

Ailuros
2010-02-02, 07:47:07
Sony: Emergence of Apple iPad Will Help Sales of PlayStation Portable.

Sony Computer Entertainment believes that the arrival of Apple iPad will inspire further interest in mobile video gaming platforms, which will eventually boost sales of Sony’s PlayStation Portable game console and its successors. The company believes that its PSP provides better gaming experience, hence, the iPad is not a threat for the PlayStation Portable.

“Apple's entrance into the portable gaming space has been a net positive for Sony. When people want a deeper, richer console, they start playing on a PSP,” said John Koller, director of hardware marketing at Sony Computer Entertainment America, reports Dow Jones Newswires.

According to Sony, sales of PlayStation Portable increased by times since the launch of Apple iPhone, which is an indicator that the end-users need to have a compelling example of high-quality mobile gaming to become interested in playing on the go. The question is whether universal gadget with large screen (iPad) will draw attention to PlayStation Portable that has much smaller screen and lacks a lot of functionality the iPad has.

It is noteworthy that while high-end smartphones have been gaining multimedia and gaming functionality in the recent years, portable video game consoles have been gaining multimedia capabilities as well. It remains to be seen whether the platforms will converge eventually and from that perspective devices like Apple iPhone, Nokia N-series or other are indeed a threat to Sony PSP.

Market research firm IDC believes that Apple will sell four million of iPad tablets this year. The platform is projected to become popular among casual gamers and multimedia users.

http://www.xbitlabs.com/news/multimedia/display/20100201155249_Sony_Emergence_of_Apple_iPad_Will_Help_Sales_of_PlayStation_Porta ble.html

Sony Believes PSP Provides Better Gaming Experience than iPad

:wink:

Ailuros
2010-02-10, 07:56:14
http://www.semiaccurate.com/2010/02/08/intel-and-nokia-make-chip/

Ailuros
2010-02-13, 09:18:37
http://www.imgtec.com/News/Release/index.asp?NewsID=518

http://www.marketwatch.com/story/nec-electronics-introduces-emma-mobiletm-ev-socs-for-full-hd-portable-audio-visual-devices-2010-02-09?reflink=MW_news_stmp

http://www.cisionwire.com/teleca/teleca-and-imagination-technologies-bring-adobe-flash-platform-to-life

http://www.semiaccurate.com/2010/02/12/armathon-mwc-next-week/

Ailuros
2010-02-16, 12:03:44
SGX540 in OMAP4 bei MWC (Barcelona) vorgestellt:

http://www.imgtec.com/News/Release/index.asp?NewsID=522

IMG hat einen SoC von SAMSUNG schon auf der CES vorgestellt mit einem SGX540 und einen A8@1.1GHz. In der Zukunft setzt SAMSUNG aber auf ARM Mali GPU IP (und wehe wer sich dabei boeses denkt bei der Apple/Samsung/ARM Masche der letzten Jahre...): http://eetimes.eu/uk/222900321

Adobe Flash 10.1 bei MWC vorgestellt:

http://www.imgtec.com/News/Release/index.asp?NewsID=519

IMG SGX schon in ueber 100 OEM Produkten:

http://www.imgtec.com/News/Release/index.asp?NewsID=521

Says Dr. Jon Peddie, president, Jon Peddie Research: "Simply put: Imagination's POWERVR is the standard for mobile 3D graphics. The company has built an enviable lead, but more than that it has created an opportunity for both its customers, and the wider developer ecosystem to build a market that for applications alone will be worth more than $5 billion dollars in 2010. However it's their overall capabilities in all aspects of multimedia that impresses."

Ailuros
2010-02-19, 11:59:23
http://www.pcmag.com/article2/0,2817,2359913,00.asp

Wave basiert auf dem S5PC110 SoC von Samsung der bei CES von IMG vorgezeigt wurde. Momentan im Samsung GT-i9000, Samsung S8500 Wave, Meizu M9 erhaeltlich und der SoC hat einen ARM Cortex A8 (bis zu 1.2GHz moeglich) und einen PowerVR SGX540 integriert.

Gast
2010-02-26, 12:16:32
Gibt es schon was konkretes über die Grafik von Moorestown zu berichten?
Es sind schon 2 Handys (LG GW990 & Aava ?) zu sehen, aber von Moorestown sind keine Daten zu finden?

Ailuros
2010-02-27, 07:38:23
Gibt es schon was konkretes über die Grafik von Moorestown zu berichten?
Es sind schon 2 Handys (LG GW990 & Aava ?) zu sehen, aber von Moorestown sind keine Daten zu finden?

Wird wohl ein hoeher getakteter SGX535 sein als bei der 65nm GMA500 Generation.

Gast
2010-02-27, 07:56:32
GMA500 wird noch in 130nm gefertigt: http://ark.intel.com/Product.aspx?id=35444

loewe
2010-02-27, 08:09:28
GMA500 wird noch in 130nm gefertigt: http://ark.intel.com/Product.aspx?id=35444
Das ist der GMA500 oder auch SCH US15W, sprich die GPU des Poulsbo, hat mit Moorestown "nichts" zu tun.

Ailuros
2010-02-27, 16:41:34
Das ist der GMA500 oder auch SCH US15W, sprich die GPU des Poulsbo, hat mit Moorestown "nichts" zu tun.

Ich hab mich zugegeben nie ausfuehrlich mit Intel's Namengebung in letzter Zeit beschaeftigt aber ich dachte sie haben zumindest GMA500 ueber mehr als eine Prozess-technologie behalten.

http://www.intel.com/pressroom/archive/releases/2009/20090924comp_b.htm

Auf jeden Fall das Ding (was wohl nichts mit notebooks zu tun hat) hat einen SGX535@400MHz afaik.

loewe
2010-03-07, 18:54:23
SEGA 2012 mit neuer Konsole???

http://seganewswire.webs.com/apps/blog/


We were also the first to break the news that the new board shall have a console counterpart that shall see a consumer release in 2012 aproximately one year after the debut of it's arcade cousin, designed to compete with the next generation of XBox and PlayStation.


Today we can exclusively reveal that SEGA has signed with Imagination Technologies of the United Kingdom to provide, to quote our source "a very high end next generation graphics chipset" for exclusive arcade and console use.
If we were to take an educated guess we would have to say that this emplies the in development PowerVR Series 6, the successor to the PowerVR SGX5XX Series.

Zwar alles nur Gerüchte, aber ...! :)

Ailuros
2010-03-08, 05:47:16
Zach Norris? LOL :D

Wenn man das schon liest:

In an earlier article we stated that Sony had chosen PowerVR for next generation, however, according to our source Sony decided against the design in favor of a cheaper solution from AMD or nVidia.

Weiss man dass es totaler Bullshit ist. Wenn ich mich nicht irre handelt es sich um den gleichen errrr Herr der in der Vergangenheit ueber den angeblichen Ps4 Vertrag berichtete. Series6 ist kein high end Design und selbst wenn es so etwas geben wuerde waere das Resultat auf keinen Fall teurer als ein Gegenvorschlag von AMD/NV, eher das Gegenteil. Er versucht lediglich seinen eigenen Dreck zuzukehren.

Hier ein wirklich interessanter Link:

http://www.xbitlabs.com/news/multimedia/display/20100304162939_Sony_to_Enable_PlayStation_Portable_Games_on_Other_Devices_Report .html

merfu
2010-03-11, 22:56:30
Ich weiß zwar nicht ob es genau hier rein passt aber ich versuche es mal :D .
Laut dem unten verlinkten Bericht prognostiziert Imagination Technologies das ihre Grafikchips für Mobile Geräte in 3 Jahren Grafik (in vermutliche niedrigeren Auflösungen passend zu Smartphones) auf PS3 bzw. XBox 360 Niveau produzieren könnten.

Bei der entsprechend kleineren Auflösung braucht man natürlich auch weniger Rechenleistung, weniger TMUs sowie weniger Speicher (da bin ich mir nicht so sicher, das wird denke ich zum großteil auf die Texturen ankommen).

Was meint ihr. Ist das realistisch vor allem was die Auflösung sowie den Verbrauch angeht?

http://hartware.net/news_48711.html

mfg
merfu

Gast
2010-03-12, 00:35:08
Geringere Auflösung bedeutet eben nicht gleiches Niveau.

Gast
2010-03-12, 07:15:42
in dem Artikel steht aber nichts von geringerer Auflösung drin, ganz im Gegenteil:


Imagination Technologies entwickelt bereits Grafikprozessoren für kommende Smartphone-Generationen und kündigt an diese werden problemlos hochwertige 3D-Grafik mit einer Auflösung von 1280 x 720 Pixeln darstellen können.

Ailuros
2010-03-12, 08:02:23
Ich weiß zwar nicht ob es genau hier rein passt aber ich versuche es mal :D .
Laut dem unten verlinkten Bericht prognostiziert Imagination Technologies das ihre Grafikchips für Mobile Geräte in 3 Jahren Grafik (in vermutliche niedrigeren Auflösungen passend zu Smartphones) auf PS3 bzw. XBox 360 Niveau produzieren könnten.

Bei der entsprechend kleineren Auflösung braucht man natürlich auch weniger Rechenleistung, weniger TMUs sowie weniger Speicher (da bin ich mir nicht so sicher, das wird denke ich zum großteil auf die Texturen ankommen).

Was meint ihr. Ist das realistisch vor allem was die Auflösung sowie den Verbrauch angeht?

http://hartware.net/news_48711.html

mfg
merfu

3 Jahre ist eine verdammt lange Zeit in der Grafik-Welt und zu dem Zeitpunkt werden XBox360/PS3 ziemlich alter Kaese sein fuer Konsolen.

PSP2 die hoechstwahrscheinlich heute erhaetliche Grafik IP haben wird, duerfte irgendwo zwischen XBox und XBox360 Leistung liegen und das mit 1/4 der theoretischen maximalen Design-Latenz eines SGX MP.

Wenn mit ~2013 ca. XBox360 Leistung aus einem einzigen IP core gemeint ist, dann hab ich es etwas schwer es zu glauben momentan; bei einer multi-core Konstellation von der naechsten Generation ist es dann ein brutales Understatement ;)

Geringere Auflösung bedeutet eben nicht gleiches Niveau.

IMG spricht offensichtlich von der naechsten Generation und nicht der heute erhaeltlichen IP.

Wenn jemand heute einen 16MP SGX543 lizenzieren wuerde, waeren es mit dem ueblichen Marketingfurz anderer IHVs 320SPs, 32 TMUs und 256 z-check/stencil Einheiten. Mit einem Overdraw von 2.5x und 400MHz Frequenz sind es dann schon 32 GTexels/s. Welche Aufloesung kannst Du mit dem Zeug theoretisch genau anziehlen?

Gast
2010-03-12, 08:28:04
Wenn jemand heute einen 16MP SGX543 lizenzieren wuerde, waeren es mit dem ueblichen Marketingfurz anderer IHVs 320SPs, 32 TMUs und 256 z-check/stencil Einheiten. Mit einem Overdraw von 2.5x und 400MHz Frequenz sind es dann schon 32 GTexels/s.
Sehe ich das richtig das wir da schon so auf dem Niveau einer Radeon HD5750 (mal von DX11 abgesehen) wären? Interessant wäre dann was mehr Strom frisst 16MP SGX543 oder Juniper.

Ailuros
2010-03-12, 08:50:47
Sehe ich das richtig das wir da schon so auf dem Niveau einer Radeon HD5750 (mal von DX11 abgesehen) wären? Interessant wäre dann was mehr Strom frisst 16MP SGX543 oder Juniper.

SGX543 nimmt nach IMG 8mm2@65LP/200MHz pro chip ein. Wie dem auch sei ist das Ding aber auf SM3.0+ begrenzt, waehrend der SGX545/D3D10.1/OGL3.2 IP core auf 12.5mm2@65LP/200MHz steigt.

Man sollte auch nicht vergessen dass SoCs den Nachteil von UMA haben, welches heisst dass die CPU und GPU konstant um die gleiche Bandbreite kaempfen. Wo immer die Bandbreite nicht begrenzt waere ein 16MP@400MHz durchaus (+/-) Vergleichsmaterial mit einer 4830 als Beispiel.

Bei 400MHz und unter 45/40LP waere so ein config schaetzungsweise auf <100mm2 Nivaeu. Das bewegt sich natuerlich auch alles im rein theoretischen Bereich denn ich kann mir nicht vorstellen dass irgend ein Lizenznehmer ausserhalb von Intel auf 8 oder sogar 16MP steigen wuerde. Intel hat ihr eigenes GenX Zeug, ergo bleibt wohl IMG IP ausschliesslich auf netbook Nivaeu fuer sie.

Vergleichsmaterial auf theoretischem Nivaeu werden wir wohl ab 2011 mit den Fusion SoCs haben. Und da wohl AMD auf 28LP gehen wird muss man dann auf dem Nivaeu vergleichen, aber es bleibt der Haken dass ARM CPU IP eben noch nicht fuer notebook/PC geeignet ist; ergo jegliche Vergleiche koennten an manchen Stellen hapern.

Gast
2010-03-12, 09:38:14
Wenn jemand heute einen 16MP SGX543 lizenzieren wuerde, waeren es mit dem ueblichen Marketingfurz anderer IHVs 320SPs, 32 TMUs und 256 z-check/stencil Einheiten. Mit einem Overdraw von 2.5x und 400MHz Frequenz sind es dann schon 32 GTexels/s. Welche Aufloesung kannst Du mit dem Zeug theoretisch genau anziehlen?


320SPs? Ich dachte immer die SGX haben Vec4 Einheiten und keine Vec5 Einheiten?

Ailuros
2010-03-12, 14:21:06
320SPs? Ich dachte immer die SGX haben Vec4 Einheiten und keine Vec5 Einheiten?

Vec4+1; aber nur 543. Alle anderen sind Vec2; unter Bedingungen sind die letzteren aber nicht nur ueber 1*FP32 faehig.

merfu
2010-03-12, 20:34:44
Mmh, das mit der Auflösung hab ich doch echt mal überlesen. Ich sollte aufhören in der Nacht wenn ich schlafen sollte zu lesen :freak:

Aber sehe ich das Richtig das der IMG SGX543 durchaus konkurenzfähig zum unteren Mainstream (4830 bzw. 5670) wäre? Dann ist die Frage würde durch den Fokus auf SoC der Zutritt zu dem PC Desktop Segment verweigert?

Oder werden wir IMG in mittlerer Zukunft wieder im PC Segment sehen?


Vergleichsmaterial auf theoretischem Nivaeu werden wir wohl ab 2011 mit den Fusion SoCs haben. Und da wohl AMD auf 28LP gehen wird muss man dann auf dem Nivaeu vergleichen, aber es bleibt der Haken dass ARM CPU IP eben noch nicht fuer notebook/PC geeignet ist; ergo jegliche Vergleiche koennten an manchen Stellen hapern.

Ok habs mir grad selbst beantwortet. Erst lesen und dann fragen :biggrin:

mfg merfu

loewe
2010-03-13, 19:52:47
Aber sehe ich das Richtig das der IMG SGX543 durchaus konkurenzfähig zum unteren Mainstream (4830 bzw. 5670) wäre? Dann ist die Frage würde durch den Fokus auf SoC der Zutritt zu dem PC Desktop Segment verweigert?
Nun ja, ein einzelner SGX543 eher nicht, aber ein MP Core könnte da schon was tun. Aber es ist immer zu bedenken, der SGX543 ist ein DX9 Core, in dem Segment wohl eher nicht mehr zeitgemäß.

Mit dem SGX535 im Poulsbo haben wir ja einen PowerVR Core im "PC Segment". Seine Video Fähigkeiten sind ja auch ganz ordentlich, aber bzgl. 3D ist er nun einmal massiv behindert. Letzteres haben sowohl Intel, als auch ImgTec zu verantworten.
Bzgl. Intel ist diese Aussage wohl recht treffend:

Reminder: the US15W was not meant to be used in netbooks but rather in MIDs or other embedded devices where the end-user is not supposed to upgrade the driver himself.

However, Intel provides regular updates to the US15W driver, that is IEGD (10.3.1). If you need another driver (e.g. PSB), you have to contact your OS or HW vendor, those are supposed to provide you with the drivers, should they care...

http://www.phoronix.com/forums/showthread.php?p=116470#post116470

Auf der anderen Seite haben wir ImgTec, sie reden gern über die Anstrengungen, die sie unternehmen um Intel zu helfen, aber Intel will diese Treiber nicht, selbst dann wenn sie (ImgTec) einen hätten und ImgTec ist nicht bereit dort zu investieren und einen eigenen ordentlichen Treiber zu liefern.
Oder werden wir IMG in mittlerer Zukunft wieder im PC Segment sehen?

Ich denke NEIN.

Ailuros
2010-03-14, 10:31:32
http://www.xbitlabs.com/news/mobile/display/20100310235603_Imagination_Technologies_You_Will_Have_the_Power_of_PlayStation_3 _in_Your_Pocket_in_Three_Years.html

Nichts Neues nur klingt es tatsaechlich nach einer IMG Aussage.

Ailuros
2010-03-19, 07:39:13
http://www.xbitlabs.com/news/multimedia/display/20100317083738_250_Million_of_PowerVR_Graphics_Cores_Shipped_Imagination_Technol ogies.html

Imagination Technologies, a leading designer of multimedia processing cores, said recently that its PowerVR graphics acceleration technology has an installed base of over 250 million devices across the mobile phone, media player and embedded markets. Theoretically, this makes PowerVR the most popular graphics accelerating core in the consumer electronics segment.

There are over 25 000 games running on PowerVR platforms and, as an opportunity, the market size is now significantly larger than the current generation handheld console market, the company stated. PowerVR Insider, the ecosystem for developers of PowerVR enabled hardware and software products, now has over 16 000 members and a thriving online community.

merfu
2010-03-20, 03:49:50
http://www.xbitlabs.com/news/multimedia/display/20100317083738_250_Million_of_PowerVR_Graphics_Cores_Shipped_Imagination_Technol ogies.html

Selbstbeweihräucherung finde ich toll.
Aber mal Karotten zu den fischen. Im mobilen Segment dürften sie wirklich die führenden sein. Seit einiger Zeit hat man immer mal wieder was gehört das auch andere was haben wollen. Aber ehrlich gesagt habe ich mich seit den Bitboys und ihrer Ankündigung vor etlichen Jahren mit den mobilen Bereich nicht mehr wirklich tiefgründig auseinander gesetzt.

Wer spielt den aktuell noch mit?

mfg

Ailuros
2010-03-20, 06:51:29
Selbstbeweihräucherung finde ich toll.
Aber mal Karotten zu den fischen. Im mobilen Segment dürften sie wirklich die führenden sein. Seit einiger Zeit hat man immer mal wieder was gehört das auch andere was haben wollen. Aber ehrlich gesagt habe ich mich seit den Bitboys und ihrer Ankündigung vor etlichen Jahren mit den mobilen Bereich nicht mehr wirklich tiefgründig auseinander gesetzt.

Wer spielt den aktuell noch mit?

mfg

NVIDIA mit Tegra
ARM mit Mali
Qualcolmm mit Imageon
Vivante

und vielleicht steigt AMD mit Fusion/Ontario ab 2011 nochmal in den Markt ein. Bitboys gingen zu ATI, dann wurde ATI von AMD aufgekauft und dann spaeter wurde die Sparte an Qualcolmm verkauft. Ich kann mir vorstellen dass sie es in Finnland langsam satt haben Firmentabellen zu aendern ;)

merfu
2010-03-20, 12:59:53
Danke Ail.

mfg

Ailuros
2010-03-22, 09:41:58
Uebrigens da nicht jeder Bock hat sich bei IMG zu registrieren, hier ein paar SGX relevante Optimierungen (die auch mehr oder weniger einen Einblick geben wie das Ding operiert) aus newsletters 12/13/14:

When you compare mobile platforms to PC or console platforms, you quickly realise that developing for mobile is a lot less forgiving. Optimization is the key. In this and the next couple of newsletters we will go through the POWERVR SGX architecture and provide an in-depth optimization guide for visually rich
applications, such as games. Modern 3D graphics cores are a very complex system consisting of many sub-blocks with very specific and complex performance characteristics. This section will provide a basic overview of the POWERVR SGX structure.

At the same time we are listing all potential bottlenecks together with methods to detect them and possible solutions. When it comes to finding bottlenecks and optimizing performance, the most important rule is: benchmark it! Every scene is different and stresses different parts of the hardware. Our PVRTune utility is an important tool to help you find bottlenecks and discover where there is headroom for additional scene complexity. This utility is only available under NDA.

SGX Hardware: How Does It Work?

The POWERVR SGX architecture incorporates many sophisticated features. Here is a briefoverview of how it all works.

1. When tracking a single triangle through the SGX pipeline, it starts by being passed by the host CPU via the driver to the Vertex Data Master via the System Memory Bus.

2. The geometry data is submitted by the scheduler into the Universal Scalable Shader Engine (USSE) with a vertex shader program to generate its output.

3. The output is passed onto the Tiling Coprocessor, which is responsible for clipping (when one or more clipping-planes are enabled), culling (backface, off screen and small polygons), and tiling (determining which tiles and macro tiles contain the triangles processed).

4. The Tiling Coprocessor writes its compressed data stream into memory. The Image Synthesis Processor (ISP) then fetches all the relevant triangles per tile. After a set up operation, this triangle data is processed to do the actual depth/stencil testing.

5. A Visibility Tag List is then, per tile, passed onto the scheduler to perform the fragment shader operations by the USSE. Results of the USSE are processed by the Pixel Coprocessor and written to the on-chip tile buffer.

SGX hardware is designed to be very efficient; always keeping the processing units busy. Instructions requiring data are parked in a thread list until the data is ready for processing. While these threads are waiting other operations are performed. Still each block shown in the overview can become a bottleneck by stalling units in front of it and starving units behind it.

During the rendering of complex frames, it is important to appreciate there can be combinations of different bottlenecks during the rendering of a single frame. It is also important to note that the front-end and back-end (ISP and everything following it) of the chip are effectively decoupled by a parameter buffer. They have little impact on each other since the buffering will absorb the respective stalls.

CPU

As the CPU handles many operations by the application, API runtime and OS, it is a very common bottleneck. In games a large part of the CPU time is spent on computing physics, AI, sound and other things.

The best way to detect whether the CPU is a bottleneck is by profiling where the application time is spent. If very little time is spent in the graphics driver, then it is very likely that the CPU is reducing performance. Another option is to check how the application scales with a different CPU, or a different CPU clock. This is also useful to rule out other limitations such as system bandwidth, file access and memory paging.

Memory Bus

Heavy memory copies in your application can cause bottlenecks. If your application uses a lot of dynamic vertex data while vertex throughput is still quite low, then you need to solve this problem. Try limiting the amount of dynamic data streamed to the graphics core, to check if this really is the bottleneck. Possible solutions are to reduce the vertex size, or to split off dynamic and non-dynamic vertex elements. Also avoid constant uploading of large textures or reading back data from the graphic core since both can stall the hardware and flood the memory bus.

Vertex Shader

The USSE (see Issue 12) will rarely be a bottleneck considering POWERVR SGX’s excellent vertex processing capabilities. It is more likely that the vertex throughput is limited by memory throughput. You can detect this by simplifying the vertex shader programs, e.g., reducing the number of lights and so on. Remember to do vertex shader throughput testing using a low render resolution to avoid the impact of other bottlenecks (e.g. fillrate) on your testing. Vertex texturing can also impact performance.

Vertex Processing Cache

POWERVR SGX has a cache for processed vertices. This cache will hold a few previously transformed vertices so keeping them together will increase the Vertex Shader throughput. The smaller the transformed vertex format, the more effective the VP cache will be, so reduce the amount of data passed from vertex shader to fragment shader.

Image Synthesis Processor (ISP)

Setup

The ISP will do the depth sorting and stencil tests and will submit the pixels to be processed by the USSE unit. This is rarely a bottleneck due to the reduction in polygon count obtained by culling (back face, off-screen and small polygon culling), the lack of accesses to the external depth buffer and high parallelism (several pixels processed at the same time). The fragment shader should, on most occasions, be complex enough to absorb this bottleneck. If you think this might be your bottleneck avoid polygons that are very large and use just a very simple fragment shader (or have colour writes disabled), e.g., very large stencil volumes since they will have a high ISP setup load.

Z-Load/Store

Due to POWERVR SGX’s tile-based deferred rendering a Z buffer is not usually required to be stored in external memory. Whenever possible, try to avoid retaining the same Z buffer contents across different renders (e.g., not clearing a depth renderbuffer), as it might require the hardware to store the Z buffer. This will typically result in a loss of performance and an increase in bandwidth requirements. Rendering depth textures for shadow mapping and similar algorithms is an exception where storing the Z buffer is obviously desired.

Fragment Shader (USSE)

Texture Fetches

SGX has a ‘latency optimal’ architecture where instructions waiting for a texture sampler will be parked until the data is ready, giving preference to other instructions. This effectively reduces the performance penalty usual in systems where the pipeline has to wait for texture data to be ready. To reduce the chance of being texture limited, use texture compression whenever possible and always use mipmapping to make a more effective use of texture caching and to reduce the possibility of memory page-breaks.

Shader Instructions

Fragment shaders with a large number of instructions applied to a large number of pixels can be expected to be a bottleneck. SGX can perform a certain number of internal instructions (which might comprise several floating point operations) in a single cycle. The actual performance is linked to render-target resolution and clock speed. A bottleneck in fragment processing can be verified by reducing the number of arithmetic instructions used in the fragment shader, or by reducing the rendering resolution. To rectify this you might need to simplify the shader effects to improve performance. The larger the area that is covered by a fragment shader the more critical any instruction optimization.

Parameter Buffer
To optimize parameter buffer usage, reduce the vertex format if possible, check that the vertex indexing is effective (i.e., aim to have good vertex sharing), sort the triangle list when creating models, and try to reduce the amount of varyings passed from the vertex shader to the fragment shader.

Texture Cache

Bottlenecks here can be identified by reducing the texture size, reducing the number of textures, changing the texture format (float to integer or compressed), and/or reducing the texture filter settings. In general avoid performing very random texture accesses; these are especially expensive when doing dependent per-pixel perturbed texture reads. Highly random accesses will thrash the texture cache. Use mipmapped textures whenever possible. Also use compressed textures for a better fit in cache memory.

http://www.imgtec.com/images/blockdiagrams/powervr/large/POWERVR_SGXSeries5_lrg.gif

Gast
2010-03-26, 11:58:21
Samsung Galaxy S: Dreimal so schnelle Grafik wie iPhone 3GS
http://www.areamobile.de/news/14700-samsung-galaxy-s-dreimal-so-schnelle-grafik-wie-iphone-3gs

Wage ich zu bezweifeln...

iPhone 3GS = SGX535

Ailuros
2010-03-26, 12:24:17
Samsung Galaxy S: Dreimal so schnelle Grafik wie iPhone 3GS
http://www.areamobile.de/news/14700-samsung-galaxy-s-dreimal-so-schnelle-grafik-wie-iphone-3gs

Wage ich zu bezweifeln...

iPhone 3GS = SGX535

3x Mal wohl nicht aber um einiges schneller schon.

SGX535@3GS bei 150MHz, 2 ALUs, 2 TMUs
SGX540@Wave bei 200MHz, 4 ALUs, 2 TMUs

IMG selber gibt fuer SGX54x 40MTris bei 200MHz an und mit <50% shader load. Der Peak Dreieckswert von Samsung muss nicht unbedingt eine Luege sein, aber wenn man so umgeht wie Samsung mit theoretischen Dreieckswerten ist auch der eigentliche Dreieckswert einer 535 im iPhone3GS hoeher als normalerweise angegeben.

Gast
2010-03-26, 13:49:28
Ich habe das alte samsung galaxy, es ist "sehr bescheiden". viele 3D anwendungen sehen komplett kaputt aus, das liegt wohl daran dass es trotz 3d chips nur in software rendert und deswegen 3d vollkommen unbrauchbar ist. (man kann ja per opengl die vendor strings abfragen um das rauszufinden).

vor kurzem ist erst ein update auf android 1.6 rausgekommen und davor war nur 1.5 vorhanden.

Das war also mein letztes samsung handy, egal wie toll sie theoretisch sind, praktisch ist nur das OLED gut, den rest kann man wenig gebrauchen, besonders weil der akku max 2 Tage (bei nicht gebrauch des handys) lebt.

Bei apple kann man wohl leider auch keine shader laufen lassen um das volle potential zu nutzen.

ich denke Nexus one ist zZ die beste wahl wenn man gute mobile 3d leistung will.

Ailuros
2010-03-26, 14:18:43
Ich habe das alte samsung galaxy, es ist "sehr bescheiden". viele 3D anwendungen sehen komplett kaputt aus, das liegt wohl daran dass es trotz 3d chips nur in software rendert und deswegen 3d vollkommen unbrauchbar ist. (man kann ja per opengl die vendor strings abfragen um das rauszufinden).

vor kurzem ist erst ein update auf android 1.6 rausgekommen und davor war nur 1.5 vorhanden.

Das war also mein letztes samsung handy, egal wie toll sie theoretisch sind, praktisch ist nur das OLED gut, den rest kann man wenig gebrauchen, besonders weil der akku max 2 Tage (bei nicht gebrauch des handys) lebt.

Irrelevant zum Thema.

Bei apple kann man wohl leider auch keine shader laufen lassen um das volle potential zu nutzen.

OGL_ES2.0 steht wohl nur zur Dekoration da.

ich denke Nexus one ist zZ die beste wahl wenn man gute mobile 3d leistung will.

Von einem Entwickler: http://distinctivegame.wordpress.com/2010/02/09/dd-tech-talk-1-nexus-versus-iphone-3gs/

Gast
2010-03-26, 15:47:23
Samsung's S5PC110 processor contains an ARM Cortex-A8 (codename of Hummingbird) and a PowerVR SGX540 GPU—which has only been seen in the Wave previously.

AndroidAndMe has compared the GPU to other available smartphones:

* Motorola Droid: TI OMAP3430 with PowerVR SGX530 = 7 million(?) triangles/sec
* Nexus One: Qualcomm QSD8×50 with Adreno 200 = 22 million triangles/sec
* iPhone 3G S: 600 MHz Cortex-A8 with PowerVR SGX535 = 28 million triangles/sec
* Samsung Galaxy S: S5PC110 with PowerVR SGX540 = 90 million triangles/sec




http://gizmodo.com/5502737/android-phone-samsung-galaxy-s-has-3x-faster-gpu-than-snapdragon?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+gizmodo%2Ffull+%28Gizmodo%29

Ailuros
2010-04-03, 09:09:59
Hab ich leider jetzt erst gesehen; da sieht man ja mal wieder schoen wie nutzlos angegebene Dreiecksraten sind:

* Motorola Droid: TI OMAP3430 with PowerVR SGX530 = 7 million(?) triangles/sec
* Nexus One: Qualcomm QSD8×50 with Adreno 200 = 22 million triangles/sec
* iPhone 3G S: 600 MHz Cortex-A8 with PowerVR SGX535 = 28 million triangles/sec
* Samsung Galaxy S: S5PC110 with PowerVR SGX540 = 90 million triangles/sec

Ich weiss zwar nicht wie der 530 im OMAP3430 genau taktet aber 7M Tris im Vergleich zu den angeblichen 28M Tris SGX535/iPhone3GS sind laecherlich.

Der einzige Unterschied afaik zwischen 535 und 530 ist dass er erste 2 TMUs hat und der zweite nur eine was aber mit Dreiecksraten nichts zu tun hat. Die GPU im 3GS ist afaik auf 150MHz getaktet ergo muesste die GPU im OMAP3430 auf =/>38MHz getaktet sein.

Nochmal IMG gibt selber fuer den SGX540 40MTris an bei 200MHz@65LP und mit <50% shader load. Die Dreiecksraten werden von IMG stets so angelegt dass sich auch in Echzeit erreicht werden koennen und es heisst auch dass der 535 im iPhone3GS mit seinen angeblichen 28MTris auch uebertrieben ist.

Ailuros
2010-04-07, 10:18:26
Zwar nicht direkt relevant zum Thema aber die Vereinigung von NEC und Renesas (Hitachi + Mitsubishi) hat endlich stattgefunden.

http://www.xbitlabs.com/news/other/display/20100401230320_Renesas_Electronics_Absorbs_NEC_Electronics_Renesas_Tech_Commence s_Operations.html

Mit NEC duerfte Renesas momentan der drittgroesste Semikonduktor Hersteller weltweit sein wenn ich mich nicht irre, direkt nach SAMSUNG.

Renesas lizenziert schon seit MBX konstant IMG's IP hauptsaechlich fuer SoCs fuer die Automobil Industrie. NEC hatte MBX fuer ihre SoCs nicht direkt lizenziert sondern von anderen Herstellern, wobei sie aber fuer SGX dann schon eine Lizenz geholt haben.

Wenn sich die gute Beziehung zwischen IMG und Renesas weiterhin halten sollte, dann hat IMG einen sehr starken japanischen Partner unterm Aermel.

***edit: eine kurze Praesentation von demos auf Geraeten mit IMG IP von Kristof Beets:

http://www.youtube.com/watch?v=BCqeu2kam8A&sns=em

Nakai
2010-04-07, 16:02:02
Renesas bietet keinen Microprozessor an, welcher an die Leistung eines A8 oder A9 hinkommt. Die SH-Serie mag zwar wirklich sehr weit verbreitet sein, aber für Mobilephones oder andere Highend-Produke sollte man eher auf ARM zählen.


mfg

Ailuros
2010-04-08, 07:40:57
Renesas bietet keinen Microprozessor an, welcher an die Leistung eines A8 oder A9 hinkommt. Die SH-Serie mag zwar wirklich sehr weit verbreitet sein, aber für Mobilephones oder andere Highend-Produke sollte man eher auf ARM zählen.


mfg

Stimmt schon, nur ist die Integrierung von Renesas SoCs fuer Handys und Co. ziemlich aktiv: http://en.wikipedia.org/wiki/PowerVR

Wie dem auch sei generell bei jeglichem SoC sollte man im Hinterkopf behalten dass so ein Ding nicht nur aus einem oder zwei Prozessoren besteht (CPU + GPU) als Beispiel sondern um einiges mehr. Hier spielt eine gewaltige Rolle wie jeglicher SoC insgesamt ausgelegt wird in hw und sogar um einiges mehr die sw Platform und wie das Ganze interkommuniziert wird.

Kritik gegen Apple's Produkte als Gegenbeispiel (und auch deren Marketing/PR) ist zwar durchaus gerechtfertigt, aber es bleibt auch dabei dass Apple trotz allem die ganz Software Affaere ziemlich gut versteht (obwohl es auch hier natuerlich Stellen zum meckern gibt).

Nach dem gewaltigen pre-release ramtamtam fuer das iPad und jetzt wo Verbraucher endlich das Ding in ihrer Hand halten konnten ist es weniger wichtig geworden was fuer hw in dem Ding steckt sondern wie sich das Ding insgesamt fuer seine Faehigkeiten verhaelt.

IMG's IP Entwicklung besteht in seiner Mehrzahl mehr aus sw als aus hw und nein es ist nicht irgend ein bloeder Spruch der ploetzlich von NV adoptiert wurde. Ueber 70% von IMG's R&D Resourcen gehen eher in sw Richtung.

Von dem Punkt ab haengt es vom SoC Hersteller ab was er genau benutzen will und nicht und wie das Ganze auf hw und sw Niveau umgesetzt wird. Texas Instruments benutzt auch z.B. ihre eigenen decoder bzw. DSP hw welches aber nicht unbedingt heisst dass deren Zeug besser ist als IMG's eigenes relevantes IP. Sie brauchen eben nur Grafik IP und sie begrenzen sich auch darauf bei IMG Lizenzen.

Ein weiteres Gegenbeispiel: Nexus One (mit Qualcolmm Snapdragon ie ex-Imageon GPU) hat auch eine besonders starke CPU und ueberhaupt mit seiner Frequenz und den fuer die GPU angegebenen rohen Daten sollte es ueber das iPhone 3GS nur so drueberwaltzen. Entspricht aber nicht der Realitaet; das "warum" liegt eben genau in der insgesamten Implementierung.

Das soll jetzt nichts fuer Renesas SoCs heissen; ich hab bis jetzt noch kein smartphone mit ihren SoCs ausprobiert. Lediglich dass hw Papier-franzen mir weniger sagen als alles andere. Es gibt smartphones von SAMSUNG selber die den gleichen SoC haben wie iPhone3G. Das zweite ist aber nach wie vor rundum stets eine faehigere Loesung.

Nakai
2010-04-08, 14:27:10
Stimmt schon, nur ist die Integrierung von Renesas SoCs fuer Handys und Co. ziemlich aktiv:

Vor allem im asiatischen Raum. Aber man sollte auch sagen, dass sehr viele der dort angegebenen SOCs schon ziemlich alt sind. Fast alle Handys die einen MBX-Chip hatten, hatten auch einen Renesas SoC integriert. Seit dem SGX wird wieder vermehrt ARM verwendet.
A8 und A9 war ein beachtlicher Schritt, das muss man sagen.

Renesas ist aber vor allem sehr gut im unteren Segment aufgestellt.

Das soll jetzt nichts fuer Renesas SoCs heissen; ich hab bis jetzt noch kein smartphone mit ihren SoCs ausprobiert. Lediglich dass hw Papier-franzen mir weniger sagen als alles andere. Es gibt smartphones von SAMSUNG selber die den gleichen SoC haben wie iPhone3G. Das zweite ist aber nach wie vor rundum stets eine faehigere Loesung.

Ja das muss man Apple lassen, obwohl ich wirklich kein Applefan bin.


mfg

Ailuros
2010-04-08, 14:55:42
Vor allem im asiatischen Raum. Aber man sollte auch sagen, dass sehr viele der dort angegebenen SOCs schon ziemlich alt sind. Fast alle Handys die einen MBX-Chip hatten, hatten auch einen Renesas SoC integriert.

Dann hast Du den wiki Link vielleicht zu schnell ueberflogen. Die Anzahl an OMAP2 TI smartphones war um einiges groesser.

Seit dem SGX wird wieder vermehrt ARM verwendet.
A8 und A9 war ein beachtlicher Schritt, das muss man sagen.

Du haettest auch etwas mehr nach unten scrollen sollen so wie es aussieht. Weiter unten liegen dann die SGX basierenden Varianten wo Renesas natuerlich weiterhin auf ihren SH setzt, waehrend NEC ARM CPU IP benutzt.

Renesas ist aber vor allem sehr gut im unteren Segment aufgestellt.

Hauptsaechlich Docomo/Japan smartphones. Die Mehrzahl der MBX Lite smartphones waren high end fuer ihre Zeit, ebenso wie die neuen SGX Renesas Varianten die gerade am ausrollen sind. Ein Vergleich ist nicht moeglich da selten bis nie diese smartphones hier in Europa erscheinen.

Ja das muss man Apple lassen, obwohl ich wirklich kein Applefan bin.


mfg

Man muss kein X-fan sein um etwas einzusehen.

Ailuros
2010-04-15, 07:52:02
http://www.teleca.com/Home/news_room/newsletters/April-2010/Imagination.aspx

http://www.cinemo.com/Press_Release_Cinemo_Imagination_Tech_April_2010.html

Ich hoere von Cinemo zum ersten Mal; deutsche startup Firma fuer embedded multimedia und streaming.

Ailuros
2010-04-16, 09:54:56
Erste iPad GLbenchmark Resultate:


iPad:

http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro11&D=Apple iPad&testgroup=lowlevel


iPhone3GS:

http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro11&D=Apple iPhone 3G S&testgroup=lowlevel

Beachtet bitte die Aufloesung jedes Geraets wenn es zu Fuellraten kommt.

iPad GL environment:

http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro11&D=Apple iPad&testgroup=gl

GL_VENDOR Imagination Technologies

GL_VERSION OpenGL ES-CM 1.1 IMGSGX535-38.10
OpenGL ES 2.0 IMGSGX535-38.10

GL_RENDERER PowerVR SGX 535

Gast
2010-04-18, 11:29:53
Füllrate hat ja gut zugelegt.

loewe
2010-04-18, 20:15:59
Füllrate hat ja gut zugelegt.

Nein!


Beachtet bitte die Aufloesung jedes Geraets wenn es zu Fuellraten kommt.

Ailuros
2010-04-19, 07:01:19
Nein!

Wieso nicht?

Afaik

SGX535@iPhone3GS = 150MHz
SGX535@iPad = 250MHz

Sonst koennte man die Fuellraten-Unterschiede auch nicht erklaeren da jedes Geraet in seiner nativen Aufloesung gemessen wird und ergo im Fall von iPad 1024*768. Was verpass ich gerade?

Gast
2010-04-19, 11:12:57
Was verpass ich gerade?
Das frage ich mich auch.
Allgemein wäre es nett, wenn ihr etwas weiter ausholen könntet, so dass jemand fachfremdes auch mitkommt bzw. klarer wird was gemeint ist.

Ailuros
2010-04-21, 09:10:33
Das frage ich mich auch.
Allgemein wäre es nett, wenn ihr etwas weiter ausholen könntet, so dass jemand fachfremdes auch mitkommt bzw. klarer wird was gemeint ist.

Was ist hier so schwer zu verstehen?

iPad (SGX535@250MHz) = 1024*768
Fill-rate multi-textured = 236559 kTexels/s
Fill-rate single-textured = 173644 kTexels/s

iPhone3GS (SGX535@150MHz) = 480*320
Fill-rate multi-textured = 105185 kTexels/s
Fill-rate single-textured = 88474 kTexels/s

GL benchmark ist vsynced. Etwas mehr von Xmas zu dem benchmark und den beiden Geraeten:

http://forum.beyond3d.com/showpost.php?p=1421403&postcount=452

Vsync is always enabled on iPad/iPhone. Even though the devices are not reaching 60 fps (which would be equal to 9.81 Mtri/s) at which point the tests would be entirely vsync limited, vsync already has an effect at lower framerates. Many of the geometry tests are running at either 30 fps (4.9 Mtri/s) or 40 fps (6.54 Mtri/s) on iPad/iPhone.

Larger textures for a higher resolution generally do not make things worse as mipmapping should select the right level of detail for 1:1 pixel to texel mapping.

Don't forget the cycles spent in filling the screen on unified shader GPUs. The triangle tests are drawing 163456 triangles per frame (and even less vertices), 1024x768 is 786432 pixels per frame. Fragment processing actually has a significant impact in these tests.

The "texturing tests" you mention aren't actually texturing tests. They measure geometry throughput with texturing enabled.

Ailuros
2010-04-29, 10:39:28
NOKIA ladet nach mit N8 fuer smartphones; OGL_ES2.0 GPU und 12MP cam. Unter normalen Umstaenden benutzt TI ihre eigenen video decoder aber das N8 featureset riecht verdaechtig nach VXD39x: http://www.brightsideofnews.com/news/2010/4/27/nokia-announces-n8-smartphone.aspx

http://europe.nokia.com/find-products/devices/nokia-n8/specifications

Mal sehen wie der Stromverbrauch auf dem Ding aussehen wird.

YfOrU
2010-04-29, 13:19:38
Hinter den Spezifikationen steht für mich immer noch ein Fragezeichen. Könnte aber gut sein das Nokia etwas Omap DM5xx ähnliches zusammen mit einem etwas angestaubten SoC oder mit einer neuen LowCost Variante verbaut hat. Geeignete (mobile) Chips für den HDMI Port wären bei TI auch im Angebot.

Ob das aber in der Praxis wirklich so eine gute Kombination ist - bringt natürlich viele Features auf die Checkliste aber die reine Applikationsperformance dürfte damit kaum überragend sein.

Ailuros
2010-04-30, 08:51:45
Irgend ein OMAP3 wird es schon sein. Mich interessiert persoenlich hauptsaechlich die 12MP Cam. Fuer schnelle Knipser mit der Carl Zeiss Linse ist das Ding mehr als man eigentlich brauchen wuerde. Die Frage ist wie es mit video recording genau aussieht. Von dem was ich bisher von NOKIA sehen konnte sind es stets die gleichen unterdurchschnittlichen Implementierungen mit unendlichen dropped frames bei der Aufnahme.

YfOrU
2010-04-30, 09:45:23
Der SoC hat wohl nur einen ARM 11 Kern mit 680Mhz. Damit fällt der Omap3 flach. Deshalb meine Vermutung mit einem separaten Coprozessor, also Richtung Omap DM5xx Serie.

Wobei dann noch die Frage im Raum steht was als OpenGL ES 2.0 fähige GPU in den SoC eingeflossen ist.

//Edit:
scheint das hier zu sein: Broadcom BCM2727 Mobile Multimedia Processor
http://www.curiouscat.org/Steve/Media/2727-PB01-R.pdf

Passt von den Spezifikationen auf jeden Fall. Dazu dann noch irgend ein billiger Baseband + ARM11 SoC als Host Processor.

Etwas anderes kann es eigentlich kaum sein denn abseits vom Tegra 600 gibt es sonst keine mir bekannte ARM11 + OpenGL ES 2.0 Kombination die so exakt dazu passen würde.

Gast
2010-04-30, 10:39:25
ARM 11 für das N8 ist bestätigt (http://www.forum.nokia.com/devices/N8/)...
Wirklich enttäuschend...

Gast
2010-04-30, 10:57:43
ARM 11 für das N8 ist bestätigt (http://www.forum.nokia.com/devices/N8/)...
Wirklich enttäuschend...
Ui... ich sage zwar immer, dass es bei der Art von Gerät auf das Endergebnis ankommt - also die Software ein gehörige Portion mitredet - aber ein ARM 11 ist nun wirklich nicht gerade der Knaller für ein Device, das in der 2. Jahreshälfte 2010 erscheint.

Ailuros
2010-04-30, 11:11:16
Der SoC hat wohl nur einen ARM 11 Kern mit 680Mhz. Damit fällt der Omap3 flach. Deshalb meine Vermutung mit einem separaten Coprozessor, also Richtung Omap DM5xx Serie.

Wobei dann noch die Frage im Raum steht was als OpenGL ES 2.0 fähige GPU in den SoC eingeflossen ist.

//Edit:
scheint das hier zu sein: Broadcom BCM2727 Mobile Multimedia Processor
http://www.curiouscat.org/Steve/Media/2727-PB01-R.pdf

Passt von den Spezifikationen auf jeden Fall. Dazu dann noch irgend ein billiger Baseband + ARM11 SoC als Host Processor.

Etwas anderes kann es eigentlich kaum sein denn abseits vom Tegra 600 gibt es sonst keine mir bekannte ARM11 + OpenGL ES 2.0 Kombination die so exakt dazu passen würde.

Mist Du hast Recht. Ich haette bei dem Strassenpreis gleich an eine billigere Loesung denken sollen.

YfOrU
2010-04-30, 11:29:09
Mist Du hast Recht. Ich haette bei dem Strassenpreis gleich an eine billigere Loesung denken sollen.

Ist zwar OT, es liegt weniger am Straßenpreis sondern daran das es ein typisches Nokia Consumer Gerät ist. Der Einführungspreis wird irgendwo bei 450€ (mit Steuern etc.) liegen und das hört sich eigentlich auch ganz fair an (bezogen auf die Ausstattungsliste).

Allerdings ist praktisch nichts in dem Gerät verbaut (abgesehen vom etwas hochwertigeren Kameramodul) das wirklich neu oder vergleichsweise teuer ist. Selbst das Display gehört zu den günstigeren. Damit gibt es wie immer eine richtig ordentliche Gewinnspannen und lange Spielraum für Preisanpassungen nach unten. Die Zeiten in denen das bei Nokia echte highend Geräte waren sind leider vorbei.
Multimedia Fans werden trotzdem sicher ihren Spaß damit haben, als ernsthaftes Smartphone ist es aber eher weniger geeignet. Gerade im Web/VPN kostet ein ARM11 bei komplexeren Seiten richtig Nerven.

Um noch zurück zum Thema zu kommen, es findet sich abgesehen von ein paar ganz ansehnlichen Youtube Videos nichts aussagekräftiges zu Broadcoms VideoCore III (GPU, 3D Part). Rein vom Featureset sieht das ja immerhin recht ordentlich aus...Mali oder was eigenes ? Wenn es ein Mali ist dann müsste es der 400 MP sein - was schon recht gut wäre.

Gast
2010-05-02, 17:58:54
Wer Highend-HW von Nokia haben will, soll halt zum OMAP3-basierten N900 greifen. Dass N8 ist doch nur ein komischer Lückenfüller für den Massenmarkt.

Ailuros
2010-05-03, 07:26:45
Wer Highend-HW von Nokia haben will, soll halt zum OMAP3-basierten N900 greifen. Dass N8 ist doch nur ein komischer Lückenfüller für den Massenmarkt.

Nur ist eben leider N900 auch nicht gerade das was die Specliste genau verspricht, da es eher auf einem "Experiment-OS" basiert als alles andere. Ausserdem interessiert mich u.a. auch die Cam; im Vergleich zu vorigen NOKIA high end smartphones nicht wirklich eine Aufruestung.

Gast
2010-05-04, 00:13:02
Ja, die Kamera ist beim N900 wirklich nichts herausragendes, aber trotzdem noch überdurchschnittlich. Beim "Experiment-OS", wie du es bezeichnest, gibt es in der Tat noch einige Baustellen. Gerade was reine Telefonie-Funktionalität betrifft, sind viele von den Symbian-Modellen gewohnte Dinge nicht bzw. erst seit kurzem durch Updates oder das Software-Repository verfügbar. Das verwundert aber auch kaum, sieht man sich die Abstammung des N900 an, dessen Vorgänger (N770, N800, N810) als reine Internet-Tablets ohne Phone-Funktionen verkauft wurden.

Ansonsten bietet das N900 bzw. das OS dem Anwender Möglichkeiten, die er auf keinem anderen Smartphone-OS bekommen kann. Es ist einfach verdammt vielseitig. Dazu wird es vom MeeGo-Projekt auch in Zukunft Firmware-Images des Betriebssystem-Nachfolgers für das N900 geben.

In Sachen Websurfen finde ich aber auch heute kein Gerät, das dem N900 das Wasser reichen kann. Du etwa?

Ailuros
2010-05-04, 07:34:04
Browsing auf einem smartphone ist fuer mich persoenlich immer noch nicht praktisch genug (und wird es vielleicht auch nie sein) eben weil mir die Bildflaeche zu klein ist.

Nokia setzt mit MeeGo zweifellos einige Fundamente fuer Innovation, aber es wird auch seine Zeit brauchen bis es ausgereift ist.

------------------------------------------------------------------------------------------------------------------------------

http://www.apple.com/pr/library/2010/05/03ipad.html

“One million iPads in 28 days—that’s less than half of the 74 days it took to achieve this milestone with iPhone,” said Steve Jobs, Apple’s CEO. “Demand continues to exceed supply and we’re working hard to get this magical product into the hands of even more customers.”

Zwar Marketing-Geblubber, aber IMG kann sich weiterhin die Haende reiben mit den royalties die sie von dem Ding kassieren werden.

Gast
2010-05-04, 09:48:10
Nokia setzt mit MeeGo zweifellos einige Fundamente fuer Innovation, aber es wird auch seine Zeit brauchen bis es ausgereift ist.Schon richtig. Dazu stellt man sich dort auch regelmäßig mal selbst ein Bein und verschreckt potenzielle Entwickler und auch manche User. Aktuell sieht man das ganz gut an dem von der Community sehnlichst erwartetem Update für Fremante (Maemo 5) auf Version 1.2, dessen Veröffentlichung immer noch auf sich warten lässt. Wäs ja eigentlich gar nicht so schlimm wäre - hätte man nicht die Build-Umgebung zusammen mit der Veröffentlichung des SDKs auf v1.2 umgestellt, was dazu führt, dass neu erstellte Softwarepakete unter Umständen von anderen Paketen (z.B. Qt 4.6) abhängig sind, die sich aber nur in der unveröffentlichten Firmware-Version finden. So lassen sich viele Pakete aus dem Maemo-Entwicklerrepository bisher nicht auf echten Geräten installieren. Dieser Zustand hält jetzt schon mehr als 3 Wochen an. Klar, es handelt sich bei den "broken" Apps lediglich um das unstable Repo, das Endnutzer sowieso nicht nutzen sollen, aber dennoch verdammt nervig.

Bei MeeGo will man das ja alles besser machen. Die Entwicklung soll offen stattfinden anstatt wie bisher hinter verschlossenen Türen. Mit Intel und weiteren im Boot und unter dem Dach der Linux Foundation wird das denke ich auch funktionieren. Dann wird's auch endlich (;)) ein state-of-the-art DRM-System geben. Das Fehlen davon sorgt ja zur Zeit noch dafür, dass die Auswahl an iFurz-"Apps" und ähnlichem im OVI Store recht überschaubar ist. Dem Maemo-Repository tut das aber keinen Abbruch. ;)

Ailuros
2010-05-04, 12:38:06
Renesas lizenziert SGX543 MP fuer multi-use: http://www.imgtec.com/corporate/newsdetail.asp?NewsID=546

Bleibt die Frage ob Renesas zu den 3 Lizenznehmern fuer Series5XT gehoert die in der Vergangenheit erwaehnt wurden, oder ob es schon die vierte Lizenz dafuer ist.

Ailuros
2010-05-05, 14:53:33
http://www.anandtech.com/show/3696/intel-unveils-moorestown-and-the-atom-z600-series-the-fastest-smartphone-processor/1

http://www.youtube.com/watch?v=UzWGQaPEF9Y&feature=player_embedded

Gast
2010-05-05, 16:14:47
Auf jeden Fall das Ding (...) hat einen SGX535@400MHz afaik.
Da hattest Du ja tatsächlich auf die richtigen Werte für Moorestown getipt...

Ailuros
2010-05-06, 06:52:23
Da hattest Du ja tatsächlich auf die richtigen Werte für Moorestown getipt...

Moorestown kann in tablets/netbooks zwar schon mit hohen Frequenzen einen Unterschied machen, aber der groessere Knall kommt mit der naechsten Generation ;)

robbitop
2010-05-06, 07:54:10
Moorestown kann in tablets/netbooks zwar schon mit hohen Frequenzen einen Unterschied machen, aber der groessere Knall kommt mit der naechsten Generation ;)
Serie 6? ;)
Nach dem was Intel mittels Treiber und Ausbaustufe (bisher nur 535 obwohl es auch 543MP gibt!) anstellt, wird es unabhängig von der Güte der GPU zu keinem "Knall" kommen.

Im Handy/Smartphone Bereich steht Intel vor einem Problem. Sämtliche Apps und OS sind auf ARM ausgelegt. Der Atom ist zwar schneller, ist aber nicht so integriert wie ARM SoCs (Atom hat auch mit Moorestown nicht alles auf einem Chip) und die Leistungsaufnahme kommt mit Sicherheit nicht an aktuelle ARM SoCs heran.

Bleibt nur noch der Nettop/Netbookmarkt. Ob der aber so gesund für den Laptop/Desktopmarkt mit den hohen Margen ist, würde mich mal interessieren. Ich vermute, dass man sich tw. damit in's eigene Bein schießen könnte.

Ailuros
2010-05-06, 09:09:43
Serie 6? ;)

IMO Series5 XT

Nach dem was Intel mittels Treiber und Ausbaustufe (bisher nur 535 obwohl es auch 543MP gibt!) anstellt, wird es unabhängig von der Güte der GPU zu keinem "Knall" kommen.

Im schlimmsten Fall bleiben die Treiber genauso beschissen. Angenommen die naechste Generation (Ankuendigung irgendwo innerhalb 2011) enthaelt tatsaechlich einen 2MP:

SGX535=
2 Vec2 ALUs
2 TMUs
8 z/stencil

SGX543 2MP=
8 Vec4+1 ALUs
4 TMUs
32 z/stencil

IMHO ist die Verantwortung fuer die fehlenden bzw. schlechten GMA500 Treiber geteilt zwischen IMG und Intel. So wie es aussieht liefert stellenweise ein GMA500 mit dem halbgahren OGL Treiber Leistung die ein gutes Stueck unter KYRO1 liegt. Unter normalen Umstaenden sollte ein SGX535 problemlos auf KYRO2 Niveau liegen. Es ist eben leider so dass lediglich Werner und Carsten ein bisschen etwas zu GMA500 geschrieben haben. Zu wenig Aufsehen generiert auch zu wenig Druck.



Im Handy/Smartphone Bereich steht Intel vor einem Problem. Sämtliche Apps und OS sind auf ARM ausgelegt. Der Atom ist zwar schneller, ist aber nicht so integriert wie ARM SoCs (Atom hat auch mit Moorestown nicht alles auf einem Chip) und die Leistungsaufnahme kommt mit Sicherheit nicht an aktuelle ARM SoCs heran.

LG's Moorestown basierendes smartphone wurde storniert. Intel's eigentliche Ziel sollte sein sich weiterhin im tablet/netbook Markt aufbauen zu koennen und fuer den smartphone Bereich einfach zu zeigen dass man sie ernst nehmen sollte. Fuer smartphones erwarte ich nichts besonderes. Aber irgend etwas sagt mir dass zumindest NOKIA keinen Bock hat OMAP4 in netbooks zu integrieren.

Ich weiss zwar nicht fuer wieviel Intel genau Moorestown fuer tablets/netbooks verkaufen wird, aber Tegra2 kostet afaik ca. $35 und OMAP4 geht bis zu $15 runter bei sehr hohen Volumen. Wie viele OMAPs hast Du z.B. in netbooks sehen koennen, wie viele Tegra1 und wie viele ATOM Z bis jetzt von vorigen Generationen?

http://en.wikipedia.org/wiki/PowerVR
http://en.wikipedia.org/wiki/Tegra

Nebenbei kann man leicht behaupten dass Intel's Prozess Technologie einige Meilen Abstand hat von Texas Instruments.

Uebrigens ist Apple sowieso kein direkter Konkurrent zu niemand wenn man es im strengen Sinn sieht, denn ihre SoCs sind ja auch nur fuer ihre eigenen Geraete gemeint. Natuerlich wird Moorestown Integration ihre Zeit brauchen und bis dahin hat Apple wohl in der Zukunft wieder aufgeruestet, aber auf tablet Niveau ist Moorestown dem A4 schon ein gutes Stueck voraus.

Bleibt nur noch der Nettop/Netbookmarkt. Ob der aber so gesund für den Laptop/Desktopmarkt mit den hohen Margen ist, würde mich mal interessieren. Ich vermute, dass man sich tw. damit in's eigene Bein schießen könnte.

Was heisst genau "nur noch"? Welcher andere grosse Semiconductor Hersteller hat bis jetzt vergleichbare Integrierungs-raten im netbook Markt? Mit notebook/desktop hat der netbook Markt eigentlich nichts gemeinsam und auch hier braucht man sich fuer Intel keine besondere Sorgen machen. Mir haengt zwar persoenlich GenX zum Hals raus als Beispiel aber das hat leider nichts mit dem jeweiligen Verkaufsvolumen von Intel fuer notebooks/desktops zu tun.

Ailuros
2010-05-18, 14:45:59
Nach Renesas auch Texas Instruments mit SGX543 MP: http://www.imgtec.com/News/Release/index.asp?NewsID=547

mocad_tom
2010-05-20, 13:41:45
Ist zwar OT, es liegt weniger am Straßenpreis sondern daran das es ein typisches Nokia Consumer Gerät ist. Der Einführungspreis wird irgendwo bei 450€ (mit Steuern etc.) liegen und das hört sich eigentlich auch ganz fair an (bezogen auf die Ausstattungsliste).

Allerdings ist praktisch nichts in dem Gerät verbaut (abgesehen vom etwas hochwertigeren Kameramodul) das wirklich neu oder vergleichsweise teuer ist. Selbst das Display gehört zu den günstigeren. Damit gibt es wie immer eine richtig ordentliche Gewinnspannen und lange Spielraum für Preisanpassungen nach unten. Die Zeiten in denen das bei Nokia echte highend Geräte waren sind leider vorbei.
Multimedia Fans werden trotzdem sicher ihren Spaß damit haben, als ernsthaftes Smartphone ist es aber eher weniger geeignet. Gerade im Web/VPN kostet ein ARM11 bei komplexeren Seiten richtig Nerven.

Um noch zurück zum Thema zu kommen, es findet sich abgesehen von ein paar ganz ansehnlichen Youtube Videos nichts aussagekräftiges zu Broadcoms VideoCore III (GPU, 3D Part). Rein vom Featureset sieht das ja immerhin recht ordentlich aus...Mali oder was eigenes ? Wenn es ein Mali ist dann müsste es der 400 MP sein - was schon recht gut wäre.

Zunächst mal danke, dass ihr das so schön zusammentragt - echt gut der thread. Dann noch zur GPU im Broadcom/Nokia N8 - ich glaube nicht, dass es ein Mali-Kern ist. Broadcom hat vor zwei Jahren die Imageon-Sparte von AMD/ATI übernommen, die GPU könnte also ein Imageon sein.

Aber nicht zu verwechseln mit der GPU, die in den Windows Phone 7 Geräten steckt, die ist eher verwandt mit dem GPU-Kern aus der XBox360.

Grüße,
Tom

Edit sagt:
Imageon wurde zu Qualcomm verkauft,
Xilleon wurde zu Broadcom verkauft - der Xilleon wird wenig in 3d reissen - jedenfalls habe ich bisher nichts davon gehört - vergesst es wird wohl doch ein Mali drinstecken.

Ailuros
2010-06-03, 23:11:06
Extreme Ball demo

http://www.imgtec.com/demo_room/viewdemo.asp?DemoID=58&DemoTech=POWERVR%20Graphics&DemoDev=Imagination%20Technologies&#ViewPort

ExtremeBall is a joint project between Digital Legends Entertainment and Imagination Technologies. The demo aims to push current generation hardware to new limits and show features hitherto only seen on high-end games consoles or desktop PCs. The focus is on showing how advanced OpenGL ES 2.0 shaders can dramatically increase the visual quality of mobile graphics.

Among the advanced effects demonstrated here are water shaders complete with refraction and radiosity, multiple levels of detail for each shader, as well as motion captured animation with mesh deformation skinning to support it. The polygon throughput is in excess of 1 million triangles per second.

Ailuros
2010-06-10, 14:58:04
http://www.imgtec.com/News/Release/index.asp?NewsID=557

Was 544 jetzt neues auf den Tisch legen soll weiss wohl nur IMG denn ich kann aus der Ankuendigung nichts besonderes herauslesen.

YfOrU
2010-06-11, 00:48:24
Für mich sieht das aus als wäre das Produkt in die Richtung Atom SoC @ TSMC gedacht inkl. besserer Unterstützung von Aero etc. Ein anderer Grund fällt mir für die besser Dx9 Unterstützung nicht ein.


Imageon wurde zu Qualcomm verkauft,
Xilleon wurde zu Broadcom verkauft - der Xilleon wird wenig in 3d reissen - jedenfalls habe ich bisher nichts davon gehört - vergesst es wird wohl doch ein Mali drinstecken.

Nochmal ein wenig OT:
http://en.wikipedia.org/wiki/Xilleon

Das Blockschaltbild passt praktisch 1 zu 1 auf den Broadcom Mobile Multimedia Processor. Wenn man bedenkt was zu diesem Zeitpunkt bei ATI/AMD an IP verfügbar war wird der 2D/3D Part wohl auch auf der Imageon/Adreno Reihe basieren. Dementsprechend liest sich auch die inzwischen recht unvollständige AMD Seite.

So betrachtet war der Umfang der DTV Sparte sowie deren Verkauf an Broadcom um einiges größer als es damals den Anschein erweckt hat. Rückwirkend betrachtet ist da doch recht viel vom Tafelsilber verscherbelt worden. Gerade wenn man sich vor Augen hält das in diesem Bereich wesentlich mehr Wachstum vorhanden ist als ursprünglich prognostiziert wurde.

Ailuros
2010-06-13, 08:36:49
Wie ich auf B3D schon sagte, ich hab mal nach "DX9 Level 3" gesucht. Etwas direktes zu der Beschreibung konnte ich nicht finden, koennte aber sein dass es sich um folgendes handelt?

Direct3D 11 runtime introduces Direct3D 9, 10, and 10.1 "feature levels", compatibility modes which only allow the use of hardware features defined in the specified version of Direct3D. For Direct3D 9 hardware, there are three different feature levels, grouped by common capabilities of "low", "med" and "high-end" video cards; the runtime directly uses Direct3D 9 DDI provided in all WDDM drivers.

http://en.wikipedia.org/wiki/DirectX

Wenn ja kann mich jemand aufklaeren was genau fuer jegliches "level" entspricht?

Für mich sieht das aus als wäre das Produkt in die Richtung Atom SoC @ TSMC gedacht inkl. besserer Unterstützung von Aero etc. Ein anderer Grund fällt mir für die besser Dx9 Unterstützung nicht ein.

Klingt nach einem "bingo" deinerseits ;)

Demirug
2010-06-13, 09:58:01
Wenn ja kann mich jemand aufklaeren was genau fuer jegliches "level" entspricht?

http://msdn.microsoft.com/en-us/library/ff476876(v=VS.85).aspx

Coda
2010-06-13, 14:44:51
Ich dachte Level 3 wäre SM 3.0? Haben sie das geändert?

Demirug
2010-06-13, 14:52:16
Ich dachte Level 3 wäre SM 3.0? Haben sie das geändert?

Nein, Level 3 war schon immer 2.B. Es war mal ein Level 4 für SM3 in Diskussion.

Coda
2010-06-13, 15:15:17
Und wieso wurde das fallen gelassen? Vor allem SM2_b für Level 3 find ich schon ganz schön schwach.

Gast
2010-06-13, 15:40:28
Ich denke, weil ATI vor dem R600 keinen SM3-fähigen Chip hatte, die R5xx können im Grunde ja keinen VS3.0, weil die Fähigkeit des VS zur Texturfilterung fehlt.

Coda
2010-06-13, 15:52:28
Das ergibt keinen Sinn. SM3 ist auch ohne diesen einen unwichtigen Punkt ein riesiger Schritt von SM2_b entfernt.

Übrigens kann R5xx spezifikationsgetreu und vollständig SM3 - man kann nur keine Texturen an VS-Sampler binden.

Gast
2010-06-14, 13:06:44
Der Grund ist dass in der Praxis SM3 niemanden interesiert. Es gibt kein Spiel, dass SM3 braucht. Entweder sie laufen auf DX9 und dann auf SM2 oder auf DX10. Das liegt nicht an der technologie an sich, sondern daran, dass man je nach feature quasi "Lauffähig nur auf ATI" oder -"NVidia" draufgeschrieben hätte.

Und um deiner kommenden Frage vorzubeugen: Ja, es gibt Spiele die auf vs_2_a/ps_2_b setzen.

Ailuros
2010-06-14, 13:33:54
Alle SGX cores duerften schon SM3.0+ sein; wenn ich mir die Tabelle ansehe geht es bei Level 3 hauptsaechlich um die Faehigkeiten der texturing hw.

Nach Intel's whitepapers ist SGX535 bis zu 2048*2048 (tex max size) als Beispiel. Level 3 schreibt 4096*4096 vor.

Coda
2010-06-14, 14:09:06
Es gibt kein Spiel, dass SM3 braucht.
So ein Blödsinn. GTA IV mal als prominentes Beispiel, aber auch andere neuere Spiele brauchen SM3.

Noch dazu ist Level 3 ps2_b, d.h. es gibt nichtmal statisches Branching.

Ailuros
2010-06-14, 14:15:17
So ein Blödsinn. GTA IV mal als prominentes Beispiel, aber auch andere neuere Spiele brauchen SM3.

Noch dazu ist Level 3 ps2_b, d.h. es gibt nichtmal statisches Branching.

Falls er sich hauptsaechlich auf mobile Spiele fuer den embedded Markt bezogen hat, koennte er durchaus recht haben.

Coda
2010-06-14, 14:23:30
Weil auf mobilen Geräten ja auch so viel Direct3D 11 verwendet wird :rolleyes:

Ailuros
2010-06-15, 08:59:48
Weil auf mobilen Geräten ja auch so viel Direct3D 11 verwendet wird :rolleyes:

Was hat jetzt DX11 mit SGX544 oder jeglichem erhaeltlichem SGX genau zu tun?
Das DX9 L3 Zeug fuer 544 ist hoechstwahrscheinlich fuer Aero gedacht als alles andere. So wie es aussieht sind so oder so alle SGX cores ueber dynamisches branching faehig; von da ab aber bis zum Punkt was wirklich auf solchen Geraeten als Spiele-inhalt erscheint gibt es schon einen gewaltigen Abstand.

Hier ein paar Gamedev demos: http://www.imgtec.com/demo_room/viewdemo.asp?DemoID=17&DemoTech=Developer%20Gaming&DemoDev=Firemint

Coda
2010-06-15, 12:11:19
Was hat jetzt DX11 mit SGX544 oder jeglichem erhaeltlichem SGX genau zu tun?
Wenn du die Diskussion verfolgt hättest, wäre dir aufgefallen dass es um DX11 9 Level 3 ging.

Ailuros
2010-06-17, 15:17:08
Wenn du die Diskussion verfolgt hättest, wäre dir aufgefallen dass es um DX11 9 Level 3 ging.

Ich hab die Diskussion verfolgt und es steht auch in der 544MP Ankuendigung DX9 Level 3 drin. Fuer was es hauptsaechlich integriert wurde hat YfOrU einige Posts weiter oben den Nagel auf den Kopf getroffen und ich sage auch nichts anderes. Bisher wurden offiziell fuer Series5 XT als Lizenznehmer Renesas und TI angekuendigt und es sind noch weitere 3 die noch nicht erwaehnt wurden. Mit allerhoechster Wahrscheinlichkeit sind die 3 noch nicht erwaehnten Sony (noch zu frueh die Katze aus dem Sack zu lassen), Apple (fuer die wird sowieso nie etwas offiziell angekuendigt) und Intel (wenn sie schon von "3 lead partners" blubbern). Im letzten Fall koennte Intel tatsaechlich den L3 Schnickschnack gebrauchen fuer zukuenftige win7 basierende netbooks, was aber gleich gar nichts direkt mit Spielen fuer den embedded Markt zu tun hat ausser Intel treibt ISVs diesbezueglich an und mir ist nichts davon bewusst.

Bis jetzt ist 3D fuer Intel fuer diesen Markt einfach scheissegal sonst haetten sie auch fuer anstaendige Treiber gesorgt.

loewe
2010-06-17, 21:00:37
Bis jetzt ist 3D fuer Intel fuer diesen Markt einfach scheissegal sonst haetten sie auch fuer anstaendige Treiber gesorgt.

AFAIK arbeitet Intel für diesen Markt an einem OpenGL 2.0 Treiber, leider machen sie ihn aber wieder selbst, wobei ImgTec sicher etwas geholfen haben wird. (Hoffentlich mehr als bei den DX Treibern für Poulsbo, da ist ja gerade ImgTecs Beitrag auch nicht so doll)

Ailuros
2010-07-19, 12:59:39
http://androidandme.com/2010/07/news/galaxy-s-lineup-leads-the-pack-in-android-gpu-benchmarks/

Samsung's Galaxy (SGX540) sieht wirklich vielversprechend aus was 3D Leistung betrifft. Hat jemand eine Ahnung wie viel AA samples GLBenchmark fuer die "FSAA" Faelle einlegt?

YfOrU
2010-07-19, 17:59:12
Es könnte sein das die Leistung ohne FSAA noch etwas höher ist denn mehr als 56 FPS scheinen durch V-Sync nicht drinn zu sein. (Limit ist bei Neocore und GLBenchmark HD 1.1 zu sehen)

Zur Vervollständigung: Die Antwort auf die Frage bei B3D war 4 Samples.
http://74.200.65.90/showthread.php?p=1453051

Ailuros
2010-07-21, 08:53:59
Es könnte sein das die Leistung ohne FSAA noch etwas höher ist denn mehr als 56 FPS scheinen durch V-Sync nicht drinn zu sein. (Limit ist bei Neocore und GLBenchmark HD 1.1 zu sehen)

Zur Vervollständigung: Die Antwort auf die Frage bei B3D war 4 Samples.
http://74.200.65.90/showthread.php?p=1453051

Der Leistungsverlust fuer 4xMSAA sieht auf allen Geraeten relativ klein aus. Ausser natuerlich Nexus One z.B. ist auf irgendetwas wie 30Hz vsynced.

Gast
2010-08-16, 11:13:07
Was ist hiervon zu halten?

For example, let’s take a look at the iPhone 3GS. It’s commonly rumored to contain a PowerVR SGX 535, which is capable of processing 28 million triangles per second (Mt/s). There’s a driver file on the phone that contains “SGX535” in the filename, but that shouldn’t be taken as proof as to what it actually contains. In fact, GLBenchmark.com shows the iPhone 3GS putting out approximately 7 Mt/s in its graphics benchmarks. This initially led me to believe that the iPhone 3GS actually contained a PowerVR SGX 520 @ 200 MHz (which incidentally can output 7 Mt/s) or alternatively a PowerVR SGX 530 @ 100 MHz because the SGX 530 has 2 rendering pipelines instead of the 1 in the SGX 520, and tends to perform about twice as well. Now, interestingly enough, Samsung S5PC100 documentation shows the 3D engine as being able to put out 10 Mt/s, which seemed to support my theory that the device does not contain an SGX 535.
http://sean-the-electrofreak.blogspot.com/2010/03/hummingbird-vs-snapdragon-1ghz.html

Gast
2010-08-16, 13:31:04
Was ist hiervon zu halten?

http://sean-the-electrofreak.blogspot.com/2010/03/hummingbird-vs-snapdragon-1ghz.html

IMHO;

nicht so viel. Nahezu alle Smartphones haben zu wenig Bandbreite (nur 32bit LDDR1/2) um der eingebauten GPU, egal ob IMR oder TBDR ein "freies Atmen" zu ermöglichen. Das iPad (und IMHO wahrscheinlich auch das iPhone4) zB. erreicht eine um einiges höhere Leistung, weil es eine 64bit Speicheranbindung hat und damit auch wesentlich mehr Bandbreite hat. Dadurch steht dann auch der GPU genügend Bandbreite zur Verfügung um halbwegs richtig arbeiten zu können.

Ailuros
2010-08-16, 15:12:02
Was ist hiervon zu halten?


http://sean-the-electrofreak.blogspot.com/2010/03/hummingbird-vs-snapdragon-1ghz.html

Der Author wurde fuer den eher albernen Artikel ziemlich niedergemetzelt als er darueber einen Thread bei B3D oeffnete. Wen man so bloed ist und den Unterschied zwischen peak Geometrie Rate nicht verstehen kann und auch noch dazu nicht den Anstand hat nachzuforschen was GLBenchmark genau anrichtet (halloechen es kommt auch texturing in die Geometrie Tests afaik), dann blamiert man sich halt.

Anders wo sind in GL Benchmark die versprochenen 23M Tris eines Z430 im Snapdragon oder die angeblichen ueber 90M Tris im Tegra2?

Schnellstes momentan Tegra2 Geraet bei knapp 9.7M Tris bei 800*480:

http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro11&D=Compal%20NAZ-10&testgroup=lowlevel

Schnellstes momentan Z430 Geraet bei knapp 3.6M Tris bei 320*240:

http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro11&D=SonyEricsson%20M1i%20Aspen&testgroup=lowlevel

Hier das offizielle iPhone3GS (SGX535) Resultat:

http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro11&D=Apple%20iPhone%203G%20S&testgroup=lowlevel

Uebrigens gibt IMG nirgends genau Dreiecksdaten fuer SGX535 an und mir ist auch ziemlich wurscht was in wikipedia jedermann eintraegt. Im gegebenen Fall gibt IMG in ihren eigenen whitepapers zwischen 7M Tris (SGX520/1 ALU) und 40M Tris (SGX545/4 ALUs) bei 200MHz und <50% shader load an.

Da SGX520 ein ziemlich reduzierter core fuer low end Handys ist, duerfte nach der obrigen Logik die theoretische Dreiecksrate fuer 2 ALUs@200MHz bei 20M Tris liegen. Das weitere Problem ist dann zu beweisen dass der SGX535 auf 200MHz getaktet ist was er aber IMO mit Sicherheit NICHT ist. Eher bei 150+MHz.

Gast
2010-08-16, 15:38:53
Der Author wurde fuer den eher albernen Artikel ziemlich niedergemetzelt als er darueber einen Thread bei B3D oeffnete.
Na zum Glück.
Der Autor hat sein Zeug auch auf anderen Plattformen verbreitet. Unter irgendeinem Artikel hat er den Kram in den Kommentaren drunter gesetzt, worauf sogar der Artikel dann angepasst wurde :ugly:

Gast
2010-08-16, 16:53:41
@Ail
Wenn ich mir die geringe Datenlage und die teilweise großen Unterschiede (bei gleicher Hardware) beim GL Benchmark anschaue, da schwindet bei mir echt das Vertrauen in die Ergebnisse...
Viele Bechmarks vom Compal NAZ-10 wurden von nur einer Person eingestellt...:whistle:

Ailuros
2010-08-17, 08:47:44
@Ail
Wenn ich mir die geringe Datenlage und die teilweise großen Unterschiede (bei gleicher Hardware) beim GL Benchmark anschaue, da schwindet bei mir echt das Vertrauen in die Ergebnisse...
Viele Bechmarks vom Compal NAZ-10 wurden von nur einer Person eingestellt...:whistle:

Keine Ahnung wie die Resultate eingereicht werden. Wie dem auch sei, die Resultate scheinen sich mit den MSI Harmony Resultaten zu decken. In absehbarer Zeit wird sich schon einiges aendern was die anderen Geraete betrifft.

Ailuros
2010-08-24, 10:11:29
http://www.anandtech.com/show/3864/mobile-3d-virtual-worlds-intel-nokia-and-university-of-oulu

MeeGo wird wiederholt in Intel Dokumenten fuer GMA600 und Nachfolger erwaehnt.

Before we can really get excited about virtual worlds, Nokia and Intel both will need to deliver compelling reasons for consumers to consider MeeGo over a host of serious competitors all developing their own touch-centric mobile platforms.

Zustimm.

Ailuros
2010-09-02, 08:13:53
Project Sword:

http://forum.beyond3d.com/showthread.php?t=58502

http://www.31012.com/images/games/10/IMG_0267.jpg

Gast
2010-09-02, 11:58:01
Zu dem Spiel gibt es bereits eine Demo-Version + Video:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8244659#post8244659

--
Apple A4: Ist bekannt, was für ein VXD da genau verbaut ist?
-> Frage ist wegen AppleTV interessant...

Gast
2010-09-02, 12:06:43
VXD370?
PowerVR VXD 330 is a standard definition multi-standard decode core. It supports H.264, VC-1(WMV 9), DivX, MPEG-4, H.263, MPEG-2, MPEG-1, JPEG at resolutions including standard definition PAL and NTSC (720x576@25fps and 720x480@30fps).

Continues King-Smith: "PowerVR VXD 330 provides a complete elementary stream decode solution with minimal overhead on the host CPU " indeed a reduction of up to 99% of host CPU workload is achieved when compared with a software-only solution."

PowerVR VXD 370 (previously known as "MSVDX") is a high definition, multi-standard video decode core. PowerVR VXD 370 is capable of decoding H.264, VC-1(WMV 9), DivX, MPEG-4, H.263, MPEG-2, MPEG-1, JPEG at resolutions including 720p, 1080i and 1080p. This multiple decoder support has been implemented in an extremely power efficient architecture. As an example, in a 90nm 133MHz implementation power consumption for the core is in the range of 30mW to <50mW for decoding high definition MPEG-2 main profile and high definition H.264 high profile.
http://forum.beyond3d.com/showthread.php?p=928085

Ailuros
2010-09-02, 12:31:56
Zu dem Spiel gibt es bereits eine Demo-Version + Video:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8244659#post8244659

--
Apple A4: Ist bekannt, was für ein VXD da genau verbaut ist?
-> Frage ist wegen AppleTV interessant...

VXD375; es duerfte irgend einen kleinen Unterschied zum oben erwaehnten VXD370 geben. Apple hat hoechstwahrscheinlich aus Kosten Gruenden AppleTV nur auf 720p begrenzt.

370: http://www.imgtec.com/news/Release/index.asp?NewsID=7

Fuer H.264 HP @ L3 720*480@30fps duerfte das Ding 50MHz brauchen; fuer H.264 HP @ L4.1 1920*1080@30fps um die 100MHz.

Gast
2010-09-02, 13:00:02
Apple hat hoechstwahrscheinlich aus Kosten Gruenden AppleTV nur auf 720p begrenzt.
Hmmm - dann wohl eher indirekt, falls der 375 beschnitten ist.
A4 ist für iPhone/iPod Touch. Extra für das AppleTV will man wohl kaum einen neuen SoC bauen. Da will man dann von Skaleneffekten - sprich der Masse an A4 Chips - profitieren.
Aber wirklich schade, wenn dem so ist.
Besteht aber die Hoffnung, dass evtl. doch mehr geht.
Auf einem iPhone 3GS ging ja AFAIK auch mehr, als von Apple angegeben, wenn man Videos an iTunes vorbei auf das Gerät bringt.

Ailuros
2010-09-02, 13:15:12
Hmmm - dann wohl eher indirekt, falls der 375 beschnitten ist.
A4 ist für iPhone/iPod Touch. Extra für das AppleTV will man wohl kaum einen neuen SoC bauen. Da will man dann von Skaleneffekten - sprich der Masse an A4 Chips - profitieren.
Aber wirklich schade, wenn dem so ist.
Besteht aber die Hoffnung, dass evtl. doch mehr geht.
Auf einem iPhone 3GS ging ja AFAIK auch mehr, als von Apple angegeben, wenn man Videos an iTunes vorbei auf das Gerät bringt.

Einen neuen SoC werden sie wohl tatsaechlich nicht fuer AppleTV gebaut haben; wie dem auch sei Frequenz ist stets indirekt mit Stromverbrauch und noch weiter mit Kosten verbunden. Je anspruchsvoller das video Format bzw. Aufloesung, desto hoeher die Frequenz. Wenn man auf einem VXD dual streaming 1080p haben will geht die Frequenz nach IMG's eigenen whitepapers auf 266MHz.

http://www.engadget.com/2010/09/01/apple-announcing-new-apple-tv/

Gast
2010-09-02, 23:08:36
As you might have guessed, this little hack is not at all without it’s flaws. I tried my crazy 15MBps 1080p rip of The Dark Knight, and it played for about 7 minutes before crashing Safari. I imagine this is largely a result of the 512MB of RAM in the iPad but it could also be related to the incredible strain on the A4 processor pulling in all that data over WiFi and pushing it to the screen. On more than one occasion I tapped the screen to adjust volume or with the intent to scrub a little, and Safari immediately crashed. This demonstrates that the A4 chip can’t handle a stream that large and handle a quick overlay fade in of controls at the same time. This gives a sense of just how much strain this puts on the device.

http://blog.niamu.com/1080p-video-on-the-ipad-sort-of/

Ailuros
2010-09-03, 12:29:05
http://www.reghardware.com/2010/09/02/samsung_galaxy_tab_vodafone/

SAMSUNG GALAXY tab

Gast
2010-09-07, 09:21:51
Samsung Orion:

Samsung Electronics is going to bring mo' power to the mobile crowd with its newest silicon creation, the Orion 45nm processor packing two 1GHz ARM Cortex-A9 cores, 1MB of L2 cache, and a new graphics core that offers 5 times the 3D performance of previous Samsung-made chips.

http://www.tcmagazine.com/tcm/news/hardware/30221/samsung-taking-tegra-2-orion-dual-core-1ghz-cortex-a9-chip?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+tcmagazine+%28Techconnect+Magazine%29

Ausgehend vom SGX 540 im Galaxy Tab SoC muss da wohl mindestens ein 2-Core 54x mit entprechend hohem Takt verbaut sein.

Ailuros
2010-09-07, 10:49:34
Samsung Orion:

Samsung Electronics is going to bring mo' power to the mobile crowd with its newest silicon creation, the Orion 45nm processor packing two 1GHz ARM Cortex-A9 cores, 1MB of L2 cache, and a new graphics core that offers 5 times the 3D performance of previous Samsung-made chips.

http://www.tcmagazine.com/tcm/news/hardware/30221/samsung-taking-tegra-2-orion-dual-core-1ghz-cortex-a9-chip?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+tcmagazine+%28Techconnect+Magazine%29

Ausgehend vom SGX 540 im Galaxy Tab SoC muss da wohl mindestens ein 2-Core 54x mit entprechend hohem Takt verbaut sein.

LOL bis zu 5x Mal vom insgesamten SoC mit der dual-core CPU mitberechnet ja? Marketing-firlefanz IMHO. Bei theoretischer gleicher Frequenz wie beim 540 ist ein 2MP echte 2x Mal schneller.

Genauso wie Samsung selber fuer Wave 96Mio Tris angaben ja? In ihrem eigenen NDAed Mist steht aber nur 20Mio Polys drin ;)

Ailuros
2010-09-10, 14:21:17
Zwar eigentlich sinnlos aber ich poste es trotzdem mal rein:

In addition, we have clear indications from several partners that our next generation graphics technology, POWERVR Series6, will maintain our technological edge over our competition. This latest generation will take advantage of our ecosystem which is the largest and fastest growing in the embedded and mobile graphics space. We already have multiple lead partners, who have selected this next generation technology and are working closely with us.

http://www.imgtec.com/corporate/newsdetail.asp?NewsID=576

Ailuros
2010-09-15, 15:34:59
http://www.anandtech.com/show/3929/intel-announces-tunnel-creek-atom-e600-system-on-chip

Tunnel creek E600.

Ailuros
2010-09-18, 10:27:00
Es geht so langsam los:

http://www.xbitlabs.com/news/multimedia/display/20100917121928_Sony_Starts_to_Supply_PSP2_to_Game_Developers.html

An executive from the Netherrealm Studios, a game development company, said that Sony Computer Entertainment had already started to supply samples of its PlayStation Portable 2 platform to game developers. Apparently, PSP2 is "pretty powerful", but no other details were released.

“We have a PSP2 in the house and we are looking at the engine, like what can it support. Always a big thing for us is the performance. We are running at 60 fps, what can we do and do we have to build all the art assets over. We are definitely looking at them. PSP2 looks like it’s a pretty powerful machine. We do not have a 3DS system in house yet, but we are looking to get one, and we will certainly look at what its power is," said Shaun Himmerick, and executive producer at Netherrealm Studios, in an interview with Industry Gamers web-site.

At present nothing concrete is known about Sony PSP2. The PlayStation Portable 2 – or whatever its actual name is – will be based on the Cell processors with four synergistic processing elements (SPEs), according to a report earlier this year. Back in late 2008 rumours transpired that Sony had licensed PowerVR graphics processor technologies for the next-gen PSP2. Considering that feature-set of Imagination Technologies’ is akin to desktop-class graphics processors, the PSP2 may be more capable in terms of graphics than the PS3 itself.

Quite interestingly, but the PSP2 may also be very smartphone like. According to other market rumours, PSP2 has two cameras, one forward and one backward facing, in addition, it has a touch-screen in addition to physical PlayStation buttons. Finally, according to the unofficial information, the device sports both 3G/3.5G and Wi-Fi connectivity.

Netherrealm Studios is developing a new version of Mortal Kombat game for portable devices.

Sony did not comment on the news-story.

Meine bisherige Schaetzung fuer PSP2 seitens Grafik war ein 4MP um mich so konservativ wie moeglich zu halten. Kann aber durchaus sein dass SONY doch auf einen 8MP gesetzt hat, bin mir aber noch nicht sicher.

Gast
2010-09-18, 10:37:15
6MP wäre wohl nicht möglich?

Ailuros
2010-09-18, 10:49:22
6MP wäre wohl nicht möglich?

Jegliche gerade oder ungerade Anzahl zwischen 2 und 16 ist theoretisch moeglich; ergo sogar 3, 5, 7 etc.

Ailuros
2010-10-05, 14:33:45
Das Pandaboard:

http://www.semiaccurate.com/2010/10/04/after-beagleboard-comes-pandaboard/

http://omappedia.org/wiki/PandaBoard

Interestingly, the first lot of PandaBoards will be given away - some in an early adopter's program to which projects can be submitted on the official website, and then some via a request program, also available on the official website. That sounds like a pretty sweet deal for developers, although there’s no word as to what the pricing of the PandaBoard will be once it becomes available for purchase. However, considering that the BeagleBoard is retailing for $149, we’d expect the PandaBoard to be a fair bit more expensive considering the faster hardware and extra features.

Ein bisschen Multi-threading META / USSE -SGX Magie:

http://chipdesignmag.com/display.php?articleId=4447

...und NetLogic lizenziert PowerVR display IP: http://www.design-reuse.com/news/24557/netlogic-imagination-visual-ip-deal.html

Ailuros
2010-10-06, 14:12:31
http://www.fudzilla.com/mobiles/item/20399-samsung-ships-5-million-galaxy-s-smartphones

3.5 Monate = 5Mio smart-phones. Wirklich nicht schlecht. Mal sehen was sie mit dem Galaxy S tab anstellen koennen.

Gast
2010-10-06, 19:23:30
ich denke mal da kann man noch mal gut die hälfte waves dazu rechnen. die haben den gleich soc.

Ailuros
2010-10-07, 10:28:46
ich denke mal da kann man noch mal gut die hälfte waves dazu rechnen. die haben den gleich soc.

Im Angesicht dass andere Hersteller wie z.B. LG von solchen Verkaufszahlen (per benutzter Platform) nur traeumen koennen, ist es eine durchaus gute Zahl. Die Frage ist eher ob die positive Kurve fuer SAMSUNG langfristig weiterhin um gleiche Prozente steigen kann.

YfOrU
2010-10-08, 12:16:06
Der Vollständigkeit halber:

Qualcomm Snapdragon MSM7230 (45nm, 800Mhz Core, Adreno 205)

http://www.anandtech.com/show/3967/the-tmobile-g2-preview/4

Auflösung: 800 x 480 (Moto Droid 1+2+X: 854 x 480)
http://images.anandtech.com/graphs/tmobileg2_100610192355/25002.png

Hinzuzufügen ist noch das die Hummingbird Geräte (SGX540) einen V-Sync von 56Hz haben - also wohl bereits limitiert werden (T-Mobile G2: 60Hz)

Omap3630/3620: SGX 530 200Mhz 45nm
Omap3430: SGX 530 110MHz 65nm

Alles in allem ein recht ordentliches Ergebnis im Vergleich zum Adreno 200 (QSD8250 65nm). Trotzdem ist etwas mehr als SGX 530 Leistung eigentlich immer noch recht mager wenn man bedenkt wie lange dieser bereits am Markt verfügbar ist. Abwarten ob 2011 mit Adreno 220 der Abstand etwas reduziert werden kann.

Von Adreno 200 auf 205 ist Faktor 4 und Adreno 220 soll um um ein vielfaches performanter (Spielekonsolenniveau) sein - sagt Qualcomm ;)

Übrigens, Adreno 200 wird so schnell nicht verschwinden sondern landet in den billigeren Chips wie MSM7227. Im Gegensatz dazu bekommt der Refresh des originalen Snapdragon (1.3GHz QSD sowie die Dualcore Varianten) ebenfalls den Adreno 205. Wer also bei LG oder HTC um/unter 400€ einkauft kann sich somit recht sicher sein was er bekommt...
Gerade für die Verbreitung und Entwicklung von 3D Spielen unter Android ist das natürlich alles andere als optimal.

Ailuros
2010-10-08, 16:04:55
Adreno 205 duerfte mehr oder weniger auf Tegra2/SGX535 Nivaeu liegen. Qualcolmm's SoCs werden zwar ziemlich gut verkauft aber ich hab irgendwie das Gefuehl dass sie vielleicht zur Abwechslung etwas "higher end" haben moechten.

Uebrigens sind synthetische benchmarks zwar nicht besonders aussagekraeftig aber das Hardkernel ODROID-S (Hummingbird/SGX540@200MHz, 480*320) erreicht in GLBenchmark 1.1 satte 2497 Punkte wobei das iPhone 3GS (SGX535@150MHz, 320*480) auf 1077 Punkten liegt. Ein Steigerungs-faktor von 2.3x.

Uebrigens Spekulationen sprechen von einem OMAP4 im Blackberry Playbook: http://forum.beyond3d.com/showpost.php?p=1479496&postcount=23

Bis jetzt hab ich noch nichts zuverlaessiges darueber gehoert.

Ailuros
2010-10-14, 23:18:42
http://glbenchmark.com/result.jsp?orderby=dvsg_best&brand=all&benchmark=glpro11&version=all&submi=OK

Galaxy S Tab scores stehen jetzt zur Verfuegung. 1769 Punkte bei 1024*600.

Das Samsung Captivate erreicht jetzt 2187 Punkte bei 800*480.

Ich wuerde liebend gerne wissen warum Kishonti noch nichts mit GLBenchmark2.0 angestellt hat :rolleyes:

Uebrigens auf IMG's Seite im demo room auch Kwaak3: http://www.imgtec.com/demo_room/viewdemo.asp?DemoID=63&DemoTech=POWERVR%20Graphics&DemoDev=Imagination&#ViewPort

Duerfte Moorestown sein; ~60fps@1080p.

Gaestle
2010-10-17, 19:21:23
Ist bekannt, welchen SGX-Variante das Nokia K8 im verwendeten Broadcom Videocore III verbaut hat? Frühere Quellen sprechen vom SGX530, aber das scheint nicht zu stimmen.

Nakai
2010-10-17, 19:44:14
Du meinst das N8 oder? Also dadrin is wohl eine Mali-Grafikeinheit verbaut.
Ist wohl Mali-200.


mfg

Gast
2010-10-17, 20:35:41
Du meinst das N8 oder? Also dadrin is wohl eine Mali-Grafikeinheit verbaut.
Ist wohl Mali-200.


mfg

Mali wäre für Nokia zu teuer... Wurde hier schon besprochen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8000898#post8000898

Gaestle
2010-10-18, 18:19:26
Ähem, ja, ich meinte das N8. Tippfehler, sorry.

Und danke für den Link.

Falls es interessiert:
Ergebnisse GLBenchmark 1.1.6 Nokia N8 (640x360)

GLBenchmark Pro 1.1 Result Details

3D Rendering Quality: Trilinear Filter : 97% (Success)
Triangles: Flat Shaded + Color 1.1 : 4980 kTriangles/s (30.5 Fps)
Lights: Parallel x 2 1.1 : 3571 kTriangles/s (21.8 Fps)
Lights: Parallel x 1 1.1 : 4070 kTriangles/s (24.9 Fps)
GLBenchmark HD ES 1.1 CPU Skinning : 3835 Frames (127.8 Fps)
Fill Rate: Single-textured 1.1 : 61324 kTexels/s (8.3 Fps)
Texture Filter: NEAREST 1.1 : 4672 kTriangles/s (28.6 Fps)
Triangles: Textured 1.1 : 4670 kTriangles/s (28.6 Fps)
Lights: Parallel x 8 1.1 : 2008 kTriangles/s (12.3 Fps)
Lights: Ambient x 1 1.1 : 4069 kTriangles/s (24.9 Fps)
Texture Filter: LINEAR_MIPMAP_NEAREST 1.1 : 4708 kTriangles/s (28.8 Fps)
CPU Performance: Float : 2816
Texture Size: 1024x1024 1.1 : 4535 kTriangles/s (27.7 Fps)
GLBenchmark Pro ES 1.1 CPU Skinning : 897 Frames (17.9 Fps)
Lights: Omni x 1 1.1 : 3943 kTriangles/s (24.1 Fps)
Texture Size: 512x512 1.1 : 4577 kTriangles/s (28.0 Fps)
Triangles: Smooth Shaded + Color 1.1 : 4991 kTriangles/s (30.5 Fps)
Triangles: Textured + Color 1.1 : 4549 kTriangles/s (27.8 Fps)
Swapbuffer speed : 1524 (152.4 Fps)
Texture Filter: LINEAR_MIPMAP_LINEAR 1.1 : 4640 kTriangles/s (28.4 Fps)
CPU Performance: Integer : 12531
3D Rendering Quality: Bilinear Filter : 100% (Success)
Lights: Parallel x 4 1.1 : 2829 kTriangles/s (17.3 Fps)
Texture Size: 64x64 1.1 : 4750 kTriangles/s (29.1 Fps)
GLBenchmark HD ES 1.1 GPU Skinning : 3829 Frames (127.6 Fps)
Texture Filter: NEAREST_MIPMAP_NEAREST 1.1 : 4718 kTriangles/s (28.9 Fps)
GLBenchmark Pro ES 1.1 GPU Skinning : 895 Frames (17.9 Fps)
Texture Size: 256x256 1.1 : 4670 kTriangles/s (28.6 Fps)
3D Rendering Quality: Sub Pixel Precision : 100% (Success)
3D Rendering Quality: Perspective Correction : 99% (Success)
3D Rendering Quality: Z-buffer Precision : 99.9% (Success)
Texture Filter: LINEAR 1.1 : 4652 kTriangles/s (28.5 Fps)
Fill Rate: Multi-Textured 1.1 : 103606 kTexels/s (7.0 Fps)
Texture Size: 128x128 1.1 : 4719 kTriangles/s (28.9 Fps)
Lights: Spot x 1 1.1 : 3666 kTriangles/s (22.4 Fps)
Texture Filter: NEAREST_MIPMAP_LINEAR 1.1 : 4666 kTriangles/s (28.5 Fps)


OpenGL ES Environment Variables
GL_VENDOR Broadcom
GL_VERSION OpenGL ES-CM 1.1
GL_RENDERER VideoCore III HW
GL_EXTENSIONS GL_OES_compressed_ETC1_RGB8_texture GL_OES_compressed_paletted_texture GL_OES_EGL_image
GL_RED_BITS 8
GL_GREEN_BITS 8
GL_BLUE_BITS 8
GL_ALPHA_BITS 8
GL_DEPTH_BITS 24
GL_STENCIL_BITS 8
GL_SUBPIXEL_BITS 4
GL_MAX_LIGHTS 8
GL_IMPLEMENTATION_COLOR_READ_FORMAT_OES 6408
GL_IMPLEMENTATION_COLOR_READ_TYPE_OES 5121
GL_MAX_CLIP_PLANES 1
GL_MAX_MODELVIEW_STACK_DEPTH 16
GL_MAX_TEXTURE_STACK_DEPTH 16
GL_MAX_PROJECTION_STACK_DEPTH 16
GL_MAX_TEXTURE_SIZE 2048
GL_MAX_TEXTURE_UNITS 4
GL_MAX_VIEWPORT_WIDTH 2048
GL_MAX_VIEWPORT_HEIGHT 2048
GL_NUM_COMPRESSED_TEXTURE_FORMATS 11
GL_ALIASED_LINE_WIDTH_MIN 0
GL_ALIASED_LINE_WIDTH_MAX 16
GL_ALIASED_POINT_SIZE_MIN 1
GL_ALIASED_POINT_SIZE_MAX 256
GL_SMOOTH_LINE_WIDTH_MIN 0
GL_SMOOTH_LINE_WIDTH_MAX 16
GL_SMOOTH_POINT_SIZE_MIN 1
GL_SMOOTH_POINT_SIZE_MAX 256

EGL Native Platform Graphics Interface
EGL Vendor Broadcom
EGL Version 1.4
EGL Extensions EGL_KHR_image EGL_KHR_vg_parent_image EGL_KHR_gl_texture_2D_image EGL_KHR_gl_texture_cubemap_image EGL_KHR_lock_surface EGL_NOK_resource_profiling EGL_KHR_image_base EGL_KHR_reusable_sync EGL_NOK_resource_profiling2 EGL_SYMBIAN_COMPOSITION
EGL Selected Configuration
EGL_CONFIG_ID: 1
EGL_BUFFER_SIZE: 32
EGL_ALPHA_SIZE: 8
EGL_BLUE_SIZE: 8
EGL_GREEN_SIZE: 8
EGL_RED_SIZE: 8
EGL_DEPTH_SIZE: 24
EGL_STENCIL_SIZE: 8
EGL_CONFIG_CAVEAT: 12344
EGL_LEVEL: 0
EGL_MAX_PBUFFER_HEIGHT: 2048
EGL_MAX_PBUFFER_PIXELS: 4194304
EGL_MAX_PBUFFER_WIDTH: 2048
EGL_NATIVE_RENDERABLE: 1
EGL_NATIVE_VISUAL_ID: 0
EGL_NATIVE_VISUAL_TYPE: 0
EGL_SAMPLES: 0
EGL_SAMPLE_BUFFERS: 0
EGL_SURFACE_TYPE: 1639
EGL_TRANSPARENT_TYPE: 12344
EGL_TRANSPARENT_BLUE_VALUE: 0
EGL_TRANSPARENT_GREEN_VALUE: 0
EGL_TRANSPARENT_RED_VALUE: 0

Device Information
Device ID (Nummer gelöscht)
Device Model ID (Nummer gelöscht)
Device Vendor ID 2
OS Symbian 9.x S60
OS Build 256
OS Version Major 256
CPU Instruction Set ID 1
CPU Type 0
Reported CPU Architecture 1024
Total Memory 256966656
Memory Page Size 4096
Screen size 360 x 640
System Color Bits 256
System Colors 16777216

Ailuros
2010-10-22, 20:25:46
Fuer was der riesige quote? Das N8 Dingsda leistet einen Schnitt unter SGX530 was fuer eine Broadcom GPU unerwartet gut ist. Wieso jetzt NOKIA selber konstant meckert dass ihr N8 unfaire reviews erhalten hat wissen sie wohl nur selber. Es ist auch keine Zufall dass sie bei NOKIA in letzter Zeit einiges im obrigen Management geaendert hat. Smart-phone Verkaufszahlen sind alles andere als im Aufschwung, und dabei ist es teilweise sogar wurscht welcher SoC genau drinsteckt. NOKIA muss endlich den Pfaden finden was sie falsch und andere wie z.B. Apple richtig machen und dieses abseits vom marketing.

Gaestle
2010-10-25, 14:03:16
der quote hatte das ziel, mehr informationen zu liefern, aus denen andere herauslesen können, was genau im broadcom videocore III steckt. ich habe dazu nix gefunden, aber es interessiert mich.

Xmas
2010-10-25, 15:44:58
der quote hatte das ziel, mehr informationen zu liefern, aus denen andere herauslesen können, was genau im broadcom videocore III steckt. ich habe dazu nix gefunden, aber es interessiert mich.
VideoCore ist eine Broadcom-Eigenentwicklung (bzw. ursprünglich von Alphamosaic aufgekauft).

Ailuros
2010-10-25, 18:20:18
der quote hatte das ziel, mehr informationen zu liefern, aus denen andere herauslesen können, was genau im broadcom videocore III steckt. ich habe dazu nix gefunden, aber es interessiert mich.

Steht doch in Deinem eigenen quote drin.

OpenGL ES Environment Variables
GL_VENDOR Broadcom
GL_VERSION OpenGL ES-CM 1.1
GL_RENDERER VideoCore III HW

Unter "GL Environment" steht meistens drin wer der Hersteller ist und welche GPU Variante drinsteckt.

Beim Galaxy S als Gegenbeispiel sieht man folgendes:

GL_VENDOR Imagination Technologies
GL_VERSION OpenGL ES-CM 1.1 OpenGL ES 2.0
GL_RENDERER PowerVR SGX 540

VideoCore ist eine Broadcom-Eigenentwicklung (bzw. ursprünglich von Alphamosaic aufgekauft).

OT aber was genau macht Ihr Kerle mit den 540-ern? Jedesmal wenn ich die GL Benchmark Datenbank besuche ist der score jeweils um einiges hoeher. Das i9000 Galaxy S liegt jetzt sogar bei 2230 Punkten und es waren wie viel am Anfang irgendwo ueber 1000? :eek:

Label
2010-10-25, 18:42:59
Jedesmal wenn ich die GL Benchmark Datenbank besuche ist der score jeweils um einiges hoeher. Das i9000 Galaxy S liegt jetzt sogar bei 2230 Punkten und es waren wie viel am Anfang irgendwo ueber 1000? :eek:

Ich habe nicht so drauf geachtet: aber gab es die Unterscheidung in "Team Tested" und "Community Uploads" schon immer??

Ailuros
2010-10-25, 18:44:19
Ich habe nicht so drauf geachtet: aber gab es die Unterscheidung in "Team Tested" und "Community Uploads" schon immer??

Die Unterscheidung ist relativ neu.

Label
2010-10-25, 18:50:31
Die Unterscheidung ist relativ neu.

Jetzt trau ich den aufgeführten Ergebnissen etwas mehr...
Von der Überlegenheit des Tegra 2 ist auch keine Spur mehr zu sehen;D

Ailuros
2010-10-25, 19:11:40
Jetzt trau ich den aufgeführten Ergebnissen etwas mehr...
Von der Überlegenheit des Tegra 2 ist auch keine Spur mehr zu sehen;D

Wenn Du unter community uploads auf die neueste 1.1.6 Version klickst verschwinden auch die handvoll Resultate fuer Compal NAZ-10 und MSI Harmony. Unter 1.1.6 gibt es von Tegra2 nur noch Resultate fuer's Toshiba Dynabook und das Pegatron Betelgeuse. T2's Leistung ist alles andere als schlecht, aber eben nichts besonderes. Der eigentliche Vorteil von Tegra2 ist dass es vorzeitig genug einen dual Cortex A9 hat. Hier will ich sogar bezweifeln dass GL Benchmark 1.1 diesen in irgend einer Art wiederspiegelt.

Ich frage mich in der Zwischenzeit immer noch wieso Kishonti noch keine GL Benchmark 2.0 Datenbank eroeffnet hat. OGL_ES2.0 GPUs gibt es in Geraeten heutzutage reichhaltig.

***edit: ich Depp haette als IMG's Aktie noch unter 20 pennies kostete etwas in sie investieren sollen. Heute seh ich gerade 4.35 Pfund...Grund genug gegen die Wand zu rennen *seufz*

Label
2010-10-25, 19:38:29
Ich frage mich in der Zwischenzeit immer noch wieso Kishonti noch keine GL Benchmark 2.0 Datenbank eroeffnet hat. OGL_ES2.0 GPUs gibt es in Geraeten heutzutage reichhaltig.

GLBenchmark 2.0 demonstrated first at Mobile World Congress 2008
http://www.glbenchmark.com/tools.jsp?benchmark=glb2

OK, ist jetzt auch schon eine Weile her... Vielleicht sucht er ja auch nach einer Möglichkeit, mit dem Benchmark etwas zu verdienen?
Wann ist denn Tegra 2 nun breit verfügbar? Für ein halbwegs zukunftsfähiges Tablet bleibt doch eigentlich nur der oder Samsungs Hummingbird...

Ailuros
2010-10-25, 20:35:56
http://www.glbenchmark.com/tools.jsp?benchmark=glb2

OK, ist jetzt auch schon eine Weile her... Vielleicht sucht er ja auch nach einer Möglichkeit, mit dem Benchmark etwas zu verdienen?

Es gibt aber keine 2.0 Datenbank mit Resultaten.

Wann ist denn Tegra 2 nun breit verfügbar? Für ein halbwegs zukunftsfähiges Tablet bleibt doch eigentlich nur der oder Samsungs Hummingbird...

Ein paar T2 Geraete werden noch im naechsten Jahr erscheinen. Aber bis dann hat wohl selbst Apple mit einer neuen smart-phone und tablet Generation nachgeladen.

Gaestle
2010-10-30, 18:47:09
VideoCore ist eine Broadcom-Eigenentwicklung (bzw. ursprünglich von Alphamosaic aufgekauft).


vielen dank xmas.

@ailuros
ich wusste nicht, dass der videocore immer so genannt wird, auch wenn z.b. nur it gekauft wurde und unter dem eigenen namen verkauft (z.b. intel) wird.

Ailuros
2010-11-08, 08:44:05
Infinity Blade fuer's iPhone (Epic):

http://www.youtube.com/watch?v=JDvPIhCd8N4

http://www.imgtec.com/News/Release/index.asp?NewsID=585

Announcing today that its partners have now shipped over 400m devices cumulatively incorporating its multimedia SoC (System on Chip) IP cores, Imagination Technologies, a leading multimedia and communications technologies company, says that it foresees the total addressable market (TAM) for SoCs incorporating mobile and embedded graphics and video acceleration engines will exceed 3 billion units per annum within five years.

Over 70 SoCs incorporating POWERVR SGX graphics are in design or production today; and more than 10 SoCs utilizing multi-processor POWERVR SGX MP cores are currently in design or in silicon. Chips based on Imagination’s POWERVR Series5XT MP (multi-processor) graphics cores will be demonstrated in December 2010 at an Imagination event in Japan, delivering unprecedented levels of mobile graphics performance for use in next generation devices.

In the tradition of earlier POWERVR families the next generation POWERVR Series6 graphics architecture, code named ‘Rogue’, will continue to drive the market by delivering the best industry metrics in performance per mm2 and performance per mW. This technology has already been selected by multiple tier one partners, with more engagements in the pipeline. Details of next generation POWERVR Series6 technology will be announced in due course.

Screemer
2010-11-08, 11:14:32
hummingbird-nachfolger mit dualcore arm und neuer multi-sgx-gpu. ich dachte schon das galaxy s und das wave krachen, wenn es um leistung geht, aber das wäre der hammer.

loewe
2010-11-08, 19:52:21
Jede Leistung hat ihre Zeit.

Heute mag ein SGX540 hier und da für Begeisterung sorgen, nächstes Jahr wird das nicht mehr genügen!
Mit dem vor zwei Jahren angekündigten SGX54xMP wird die Messlatte nächstes Jahr ein gutes Stück angehoben, aber einen wirklichen Sprung sehen wir erst wieder mit Serie 6.
Gut, dass sie anfangen drüber zu reden, so können wir dann 2013/2014 erste SOCs erwarten.

@AiL
Nette Idee mit RGX, hoffentlich hören sie auf Dich! :-)

Ailuros
2010-11-17, 19:32:26
http://www.stockopedia.co.uk/content/imagination-technologies-targets-hellosoft-in-move-to-bolster-technology-base-50542/

Under the terms of the purchase, Imagination will pay approximately $20.2m in cash upfront and up to $26.9m over three years depending on performance – of which $9.5m will be in new shares and up to $17.4m in cash. The cash element is being funded through a placing of up to 12,208,950 new shares, or 5% of Imagination’s share capital. Surplus cash from the fundraising has been earmarked for additional potential acquisitions. Shares in Imagination fell by 3% to 325p today, compounding a substantial fall from 411p since last week.

Ailuros
2010-12-05, 17:11:45
http://www.xbitlabs.com/news/mobile/display/20101203153436_Samsung_Becomes_No_1_Supplier_of_Google_Android_Phones_in_U_S.htm l

Gartner reported Samsung as the top Android smartphone provider in terms of sell through to end users in the United States for the third quarter of 2010. According to Gartner, Samsung captured 32.1% of the U.S. Android smartphone market in Q3 2010 based on retail sales, an increase from 9.2% of the Android smartphone market in Q4 2009.

Das tolle ist dass einige Herren in der Vergangenheit behaupteten dass alle GalaxyS Handys auf dem gleichen SoC basieren. Stimmt natuerlich so lange man es auch richtig interpretiert....

... und ein bisschen John Carmack:

http://arstechnica.com/gaming/news/2010/11/post-8.ars

Yes. The HD version of Rage is 1.4GB installed, and all the world geometry is using 2-bit PowerVR texture compression. If we went to one of the other platforms that's not PowerVR-based, we'd be stuck with a 4-bit texture compression format, and that pushes the size over 2GB. And the Android Marketplace doesn't even let you download more than 20 or 30MB, and you have to end up setting up your own server and doing your own transfer for all of that. Dealing with the user interface of managing space... there's a lot of things that happen automagically for us on iOS that we'll have to deal with particularly on the Android space. And that's not a lot of work that's going to be huge heaps of fun to do. It's going to be dreary, tedious work that I would certainly push on somebody else personally, but I'm not sure that even as a company it's something that we want to be involved in.

Nakai
2010-12-05, 19:16:07
Das tolle ist dass einige Herren in der Vergangenheit behaupteten dass alle GalaxyS Handys auf dem gleichen SoC basieren. Stimmt natuerlich so lange man es auch richtig interpretiert....

Ist da nicht überall der S5PC110 aka Hummingbird eingebaut?
Oder meinst du noch den S5PV210?


mfg

Xmas
2010-12-05, 19:34:16
Hummingbird ist nur der Name des von Intrinsity optimierten Cortex-A8.

Ailuros
2010-12-05, 21:08:16
Ist da nicht überall der S5PC110 aka Hummingbird eingebaut?
Oder meinst du noch den S5PV210?


mfg

Xmas hat Dir schon geantwortet. Es ging mir eher um eine Debatte um die Resultate hier: http://www.glbenchmark.com/result.jsp?benchmark=glpro11&certified_only=1

8 von den Top10 Geraeten sind Galaxy S Geraete.

Ailuros
2010-12-06, 20:11:06
SGX554:

http://www.imgtec.com/News/Release/index.asp?NewsID=601

POWERVR SGX554 can be implemented as a high-performance 8-pipe single core, or in multiprocessor (MP) configurations of between 2 and 16 cores (16 to 128 pipes).

8 ALUs/core? :eek:

--------------------------------------------------------------

Renesas and Imagination show POWERVR SGX MP enabled SoC:

http://www.imgtec.com/News/Release/index.asp?NewsID=598

More than 10 SoCs utilizing multi-processor POWERVR SGX MP cores are currently in design or in silicon.

-------------------------------------------
Imagination’s POWERVR VXD392 and VXE382 deliver H.264 MVC decode and encode functions

http://www.imgtec.com/News/Release/index.asp?NewsID=597

POWERVR VXD392 is a low power, high performance, multi-standard and multi-stream ultra high definition hardware video decoder IP core that enables the widest supported standards of any video IP core, and now includes support for WebM (VP8) as well as key new technologies including Stereo 3D and H.264 MVC. VXD392 also enables up to 4k x 4k resolutions for UltraHD and full resolution top and bottom or side by side display configurations for stereoscopic applications.

davidzo
2010-12-06, 21:22:10
webM, UltraHD... die sind mal wieder voll auf dem richtigen Stand, das sind genau die Schlüsseltechnologien des nächsten Jahrzehnts!
Da will ich mal was von AMD zu hören, die werdens sicher auch rechtzeitig schaffen, aber wohl mal wieder nur mit wesentlich mehr Aufwand (Power+Silizium).

Ailuros
2010-12-07, 16:47:17
http://www.xbitlabs.com/news/mobile/display/20101206211708_Sales_of_Samsung_Galaxy_Tab_Slate_Reach_Million_of_Units.html

Even though sales of Galaxy Tab cannot be compared to sales of Apple iPad, which was sold in 7.5 million quantity, it should be noted that the device is somewhat experimental. The tablet from Samsung uses Google Android 2.2 that was not designed for slates and user experience may not be excellent. Besides, availability of tablet software for Android 2.2 is not wide. In fact, even Samsung itself expected to sell one million of slates this year. The number will likely be exceeded significantly.

YfOrU
2010-12-08, 16:52:20
Omap4440 Specs und Omap4430 Blockdiagramm: (SGX540 - Dual A9)

http://www.anandtech.com/show/4053/ti-reveals-omap4440-specs-dual-15ghz-cortex-a9-25-faster-gpu-hdmi-14-3d-1080p60

Und wie erwartet: deutlich gestiegene Speicherbandbreite (2*32Bit / 400Mhz LPDDR2) auch wenn ich befürchte das der zweite Kanal selten genutzt werden wird (POD DRAM, zweiter Kanal ist vermutlich extern).

Interessant dazu: http://www.hotchips.org/archives/hc21/2_mon/HC21.24.400.ClientProcessors-Epub/HC21.24.421.Witt-OMAP4430.pdf

-> Geräte mit Omap4430 sollten unter Last mindestens ähnlich lange Laufzeiten haben wie die älteren mit 3430 (u.a. Motorola Droid/Milestone). Standby / typische Auslastung eher besser.

Ailuros
2010-12-08, 17:58:34
Anand spekuliert dass der SGX540 im OMAP4430 bis zu 400MHz getaktet sein koennte. Ich bezweifle dass TI dank Stromverbrauch so hoch geht, aber fuer 4440 mit eingeschaetzten 25% hoeherer Grafikleistung wuerde ich dann schon eine ziemlich hohe Frequenz vermuten.

Wie dem auch sei TI sollte IMHO zusehen wie sie ihre roadmap auf Trab bekommen. Ein bisschen spaet dran sind sie generell schon.

YfOrU
2010-12-08, 22:20:39
Ja, recht spät sind sie wirklich (im Vergleich zu Nvidia - Qualcomm wird für A9 noch länger brauchen). Dafür wird die Omap4 Reihe was Energieeffizienz angeht ein Sahnestück (unter der Voraussetzung das es dieses mal nicht wieder bei der Softwareimplementierung hakt).

Bei der 4440 Variante dürfte der hohe Takt hinkommen, den sehe ich auch eher mit beiden Speicherkanälen in Tabletts/Netbooks. Der 4430 dagegen ist von der Ausrichtung dieses mal deutlich darunter angesiedelt (im Gegensatz zu 3430/3440) und für Smartphones bestimmt.

Wobei ich den SoC eigentlich nicht dringend im Smartphone bräuchte - im Fernseher, das wäre es. Netview mit brauchbaren OS und ausreichend Performance (sowie vernünftigen USB Support). Ist mir sowieso unverständlich warum in Fernsehern über 1000€ immer noch Krüppel (Media) SoCs verbaut werden. Kabellose Tastatur mit Touchpad dazu und fertig ist die integrierte Mediastation mit Internet.

Ailuros
2010-12-14, 21:42:33
...und da wir lediglich ein Quartal davon entfernt sind, wird es so langsam Zeit die Spekulation aufzurufen dass Apple mit iPhone5 bzw. iPad2 hw-maessig ziemlich ueberraschen wird. Erster Schritt sich zukuenftigen handhelds zu naehern und beim schweiten Schlag koennte es ziemlich gefaehrlich werden.

Xmas
2010-12-14, 22:36:31
Und wie erwartet: deutlich gestiegene Speicherbandbreite (2*32Bit / 400Mhz LPDDR2) auch wenn ich befürchte das der zweite Kanal selten genutzt werden wird (POD DRAM, zweiter Kanal ist vermutlich extern).
Könntest du das genauer ausführen? Pandaboard (http://www.pandaboard.org/) kommt z.B. mit 1 GiB POP LPDDR2, und das mit 64-bit-Interface, sofern man der Elpida-Kennung trauen kann.

Captain Future
2010-12-14, 22:51:42
...und da wir lediglich ein Quartal davon entfernt sind, wird es so langsam Zeit die Spekulation aufzurufen dass Apple mit iPhone5 bzw. iPad2 hw-maessig ziemlich ueberraschen wird. Erster Schritt sich zukuenftigen handhelds zu naehern und beim schweiten Schlag koennte es ziemlich gefaehrlich werden.

Ist Rahja's Team schon soweit?

Nakai
2010-12-14, 23:04:14
...und da wir lediglich ein Quartal davon entfernt sind, wird es so langsam Zeit die Spekulation aufzurufen dass Apple mit iPhone5 bzw. iPad2 hw-maessig ziemlich ueberraschen wird. Erster Schritt sich zukuenftigen handhelds zu naehern und beim schweiten Schlag koennte es ziemlich gefaehrlich werden.

Mhh, ich könnte mich jetzt bei den Daten täuschen, aber ein SGX543MP2 würde schon reichen um eine SGX535 bei weitem zu schlagen.

Ein SGX543 hat ja 4 Pipelines also 4 USSE2-Einheiten, welche laut IMG schön über 40% schneller sind.
SGX535 hat nur 2 TMUs und 2 USSE1-Einheiten.

SGX543MP2 hätte 4 TMUs und 8 USSE2-Einheiten. Ergo 5 bis 6fache Shaderperformance und etwa doppelte Füllrate.

Iphone6 könnte dann mit einem RGX oder SGX543MP4 oder so kommen.;)

Gmax
2010-12-15, 12:24:24
Imagination kauft Caustic Graphics

Imagination Technologies wird Caustic Graphics übernehmen. Imagination will die Echtzeit-Raytracing-Software für seine PowerVR-Grafikprozessoren nutzen

http://www.golem.de/1012/80135.html

YfOrU
2010-12-15, 14:41:52
Könntest du das genauer ausführen? Pandaboard (http://www.pandaboard.org/) kommt z.B. mit 1 GiB POP LPDDR2, und das mit 64-bit-Interface, sofern man der Elpida-Kennung trauen kann.

Der hier verbaute SoC hat nur POP DRAM. In Smartphones ist es fast immer eine Kombination aus DRAM + Flash. In den meisten Fällen kommt das dann (TI) als MCP + POP von Micron.

Mit Blick auf die (flexible) Auslegung über 2*32 bit Kanäle führt das dann eigentlich zwangsläufig zu dieser Schlussfolgerung.

Bei voller Belegung (2*32 + 1*16 Nand) kommt man für das POP theoretisch auf ein Minimum von rund 240 Balls. Die TI Omap POP+MCP Module hatten bisher aber immer mehr als die nur nach JEDEC spezifizierten. Wenn sich daran nichts geändert hat eher um die 280.

Ich geh zwar davon aus das es möglich ist, es wird den meisten Herstellern aber vorerst zu teuer sein denn der Aufpreis von 32bit LPDDR2 + Nand auf 64bit ist sicher nicht ohne. Am Schluss zählt halt dann doch wieder jeder Cent.

btw. Der Elpida DRAM Stack hat 216 Balls, POP und ist damit eindeutig über 64bit angebunden.
http://omapworld.com/4430_8Gb__DDR_PoP_111_1003122.pdf

Ailuros
2010-12-15, 18:11:43
Imagination kauft Caustic Graphics



http://www.golem.de/1012/80135.html

Warum wohl....warum wohl *gruebel gruebel* :biggrin:

http://www.imgtec.com/corporate/newsdetail.asp?NewsID=602

Strategic rationale

1. Imagination gains access to unique and patented technology which enables real-time ray traced and cinema quality 3D graphics to be implemented in a novel and highly cost-effective manner
1. This capability can be efficiently added to the Group’s highly successful POWERVR Graphics Processing Units (GPUs)
2. Caustic technology operates fully in conjunction with and complements Imagination’s existing graphics processing IP
1. Helps ensure Imagination stays at technological forefront, driving major innovations in the growing 3D graphics market
3. Acquisition enables Imagination to bring further disruptive technologies, as part of its roadmap, to its mainstream graphics markets across mobile, embedded, console and computing segments
4. Acquisition provides access to professional and specialised markets that take advantage of Caustic’s much more efficient photo-realistic and cinema quality graphics solution
1. The combined technologies from Imagination and Caustic will dramatically change the price-performance point of these solutions and enable real-time operation
5. Acquisition will enable Imagination to extend its ecosystem to include very advanced graphics content and tool developers, and ultimately bring such content and tools to mainstream markets

Hossein Yassaie, Chief Executive Officer, Imagination said:

“The most exciting consumer technologies have always started in the professional industry until someone finds the right way to cost engineer and optimise power consumption of those technologies.

“We have a proven track record of disrupting markets by bringing new and high-end technologies to consumer and embedded products, such as our POWERVR graphics IP cores.

“Ray tracing is a key additional technology that traditionally has been regarded as the exclusive domain of specialised markets and non real-time applications. We intend to change that.

“We are therefore delighted to have reached agreement to acquire Caustic with its outstanding engineering team. The acquisition will enable us to accelerate our plans to be the leading supplier of all forms of graphics technologies in all markets and to continue our mission of delivering the most advanced graphics technologies to mainstream markets.”

Mhh, ich könnte mich jetzt bei den Daten täuschen, aber ein SGX543MP2 würde schon reichen um eine SGX535 bei weitem zu schlagen.

Ein SGX543 hat ja 4 Pipelines also 4 USSE2-Einheiten, welche laut IMG schön über 40% schneller sind.
SGX535 hat nur 2 TMUs und 2 USSE1-Einheiten.

SGX543MP2 hätte 4 TMUs und 8 USSE2-Einheiten. Ergo 5 bis 6fache Shaderperformance und etwa doppelte Füllrate.

Iphone6 könnte dann mit einem RGX oder SGX543MP4 oder so kommen.;)

SGX535:

2 Vec2 ALUs
2 TMUs
8 z/stencil

SGX543 2MP:

2* 4 Vec4+1 ALUs
2* 2 TMUs
2* 16 z/stencil

Es gibt ja nicht nur Texel-fuellraten oder? Bei gleicher Frequenz hat ein 2MP die 4-fache z/stencil Fuellrate eines 535.

Nakai
2010-12-15, 20:06:55
Warum wohl....warum wohl *gruebel gruebel* :biggrin:

http://www.imgtec.com/corporate/newsdetail.asp?NewsID=602







SGX535:

2 Vec2 ALUs
2 TMUs
8 z/stencil

SGX543 2MP:

2* 4 Vec4+1 ALUs
2* 2 TMUs
2* 16 z/stencil

Es gibt ja nicht nur Texel-fuellraten oder? Bei gleicher Frequenz hat ein 2MP die 4-fache z/stencil Fuellrate eines 535.

Naja ist die Stencil-Füllrate wirklich so ausschlaggebend? Vor allem für so einen Grafikkern?

Naja ich geh davon aus, dass wir wieder ein SGX-Kern im Iphone5 sehen werden. Apple hat schon immer auf PowerVR-Kerne gesetzt.


mfg

Ailuros
2010-12-15, 20:22:51
Naja ist die Stencil-Füllrate wirklich so ausschlaggebend? Vor allem für so einen Grafikkern?

http://www.imgtec.com/News/Release/index.asp?NewsID=428

2x hidden surface removal performance

improved multi-sampling anti-aliasing performance

Wenn Du MSAA Leistung vergessen willst gerne; aber 2x Mal so hohe HSR Leistung "fuer so einen Grafikkern" ist schon ein wichtiger Unterschied. Je mehr Z-Einheiten auf einem TBDR desto besser, deshalb haben diese auch traditionell stets ein relativ hohe Mengen davon. SGX520-540 haben alle 8 z/stencil was fuer diese Kerne dann auch natuerlich ausreicht. SGX543-554 haben dann 16 z/stencil Einheiten (genauso viel wie die ehemalige KYRO2).

Am nutzvollsten fuer die heutigen Verhaeltnisse sind so viele z Einheiten bei z first pass Applikation und/oder deferred shading. Wenn Carmack Lust auf einen Dumm3 port fuer i-Quark haette rate Mal warum die Mehrzahl der anderen GPUs ziemlich bloed dastehen wuerden.

loewe
2010-12-15, 23:16:27
Wenn Du MSAA Leistung vergessen willst gerne; aber 2x Mal so hohe HSR Leistung "fuer so einen Grafikkern" ist schon ein wichtiger Unterschied. Je mehr Z-Einheiten auf einem TBDR desto besser, deshalb haben diese auch traditionell stets ein relativ hohe Mengen davon. SGX520-540 haben alle 8 z/stencil was fuer diese Kerne dann auch natuerlich ausreicht. SGX543-554 haben dann 16 z/stencil Einheiten (genauso viel wie die ehemalige KYRO2).

KYRO hatte 32 z/stencil Einheiten.
Es ist aber völlig richtig, mit der enormen Leistungssteigerung von USSE1 auf USSE2 ist die Verdopplung der Anzahl der z/stencil Einheiten nur logisch.

YfOrU
2010-12-17, 09:19:42
GLBenchmark 2.0 Released - Modern SoCs Benchmarked:

http://www.anandtech.com/show/4064/glbenchmark-20-released-modern-socs-benchmarked

btw, kleiner Fehler: Nokia N8 ist natürlich N900 ;) aber schön zu sehen das Anandtech ihn adaptiert, viele neutrale Tests gibt es nun mal nicht.

Jetzt wäre noch das Galaxy Tab, Tegra 2 Tab von Viewsonic und ein 1Ghz Omap 3 im Vergleich dazu perfekt...

Gaestle
2010-12-17, 13:15:03
Ich denke, sie haben wirklich das N900 gebencht, zumindest wenn man die Auflösung und die Specs ansschaut.

Das N8 hat einen ARM 11 (kein OMAP) mit 680 MHz (nicht 600) mit Videocore III (kein SGX) und 640 x 360 (nicht 800x480)

Ailuros
2010-12-17, 13:50:02
Ich denke, sie haben wirklich das N900 gebencht, zumindest wenn man die Auflösung und die Specs ansschaut.

Das N8 hat einen ARM 11 (kein OMAP) mit 680 MHz (nicht 600) mit Videocore III (kein SGX) und 640 x 360 (nicht 800x480)

Ich sehe nur N900 im anand Artikel und in den graphs.

GLBenchmark 2.0 Released - Modern SoCs Benchmarked:

http://www.anandtech.com/show/4064/glbenchmark-20-released-modern-socs-benchmarked

btw, kleiner Fehler: Nokia N8 ist natürlich N900 ;) aber schön zu sehen das Anandtech ihn adaptiert, viele neutrale Tests gibt es nun mal nicht.

Jetzt wäre noch das Galaxy Tab, Tegra 2 Tab von Viewsonic und ein 1Ghz Omap 3 im Vergleich dazu perfekt...


Man muss sich aber ziemlich Muehe geben um die Resultate richtig zu entziffern bei so vielen unterschiedlichen Aufloesungen. Der Author haette die Geraete je nach Aufloesung in Gruppen auffuehren sollen.

Wie dem auch sei Adreno 205 zeigt sich ausgezeichnet im Egypt Test. iPhone4/iPad haben zwar die hoechsten Aufloesungen und es erklaert teilweise ihre schlechte Leistung, aber im PRO Test darf es nicht sein dass ein 3GS schneller ist als ein iPhone4.

***edit: es gibt uebrigens schon eine GL Benchmark2.0 Datenbank bei gl benchmark; Galaxy tab und Tegra2 Resultate gibt es dort schon, nur aber leider laeuft das Acer Picasso auf 1280*800 und ergo nicht sehr gut vergleichbar. Trotzdem scheint Tegra2 ausgezeichnet in 2.0 zu leisten.

Gaestle
2010-12-17, 14:23:20
Auf meinem N8 stürzt der GLBench 2.0 ab. Nach dem Schriftzug "Loading..." springt das Gerät zurück ins Programmmenü.


@ Ail
Ich bezog mich auf YfOrUs Posting. Möglicherweise haben Du und ich eine korrigierte Version der Seite gesehen, während YfOrU eine ältere Version mit dem Fehler gesehen hat.

Ailuros
2010-12-17, 14:46:51
Auf meinem N8 stürzt der GLBench 2.0 ab. Nach dem Schriftzug "Loading..." springt das Gerät zurück ins Programmmenü.


@ Ail
Ich bezog mich auf YfOrUs Posting. Möglicherweise haben Du und ich eine korrigierte Version der Seite gesehen, während YfOrU eine ältere Version mit dem Fehler gesehen hat.

Generell ist Version 2.0 noch sehr jung. Es wird etwas dauern bis sich Resultate stabilisieren, denn bis jetzt gibt es auf der Datenbank unter community uploads hauptsaechlich Resultate von einem oder zwei Users.

Die GPU im N8 ist afaik OGL_ES2.0 kompliant. Kann sein dass es ein firmware upgrade braucht falls es ein solches geben wird?

Gaestle
2010-12-17, 14:57:23
Für Januar / Februar ist ein Upgrade angekündigt. Es wäre das erste FW-Update seit Auslieferung des N8. Das N8 gibt es ja auch noch nicht so lange. Mal sehen, was das Update bringt.

Die Benchmarkversion, die für das N8 angeboten wird ist eigentlich für Symbian S60 5th, das ist die letzte Variante, die vor Symbian^3 rauskam. Auf dem N8 läuft Symbian^3. Normalerweise sind S60 5th Anwendungen mit Symbian^3 kompatibel (weil S^3 allgemein recht gut zu S60 5th abwärtskompatibel ist), vielleicht aber dieses mal nicht. Vielleicht muss der Bench doch noch auf Symbian^3 portiert werden.

Gaestle
2010-12-20, 14:34:17
Andere konnten den GLBench 2.0 wohl auf dem N8 ausführen und möglicherweise ist die GPU stärker als gedacht, oder interpretiere ich die Ergebnisse falsch? Wenn ja, wäre eine Aufklärung gern gesehen ...

Während im GLBench 1.1 noch in etwa Gleichstand mit dem Droid X zu verzeichnen ist (Droid X hat aber eine höhere Auflösung), wird das Droid X bei GPU-Tests im GLBench 2.0 doch deutlich geschlagen.

GLBench 2.0
http://www.glbenchmark.com/compare.jsp?benchmark=glpro20&showhide=true&certified_only=1&D1=Nokia%20N8&D2=Apple%20iPhone%203G%20S&D3=Motorola%20Droid%20X&D4=Samsung%20i9000%20Galaxy%20S

GLBench 1.1
http://www.glbenchmark.com/compare.jsp?benchmark=glpro11&showhide=true&certified_only=1&D1=Nokia%20N8&D2=Apple%20iPhone%203G%20S&D3=Motorola%20Droid%20X&D4=Samsung%20i9000%20Galaxy%20S


@Moderation:
Sorry für OT, aber ich habe das Gefühl, dass ich der Einzige hier im Forum bin, der sich für das N8 interessiert. Deswegen fühle ich mich genötigt dort zu posten, wo die Leute mit Plan sind, um Antworten zu erhalten... Ganz schön viel "Gefühl" in einem Satz, aber es steht ja auch das "Fest der Liebe" vor der Tür...

YfOrU
2010-12-20, 15:24:04
Der BCM2727 profitiert halt auch ungemein von seinem 32MB DRAM - Stack. Der wird zwar (da extern über 16bit möglich) wohl "nur" über 16bit angebunden sein, ist aber unabhängig vom Speicher (und dessen Anbindung) des separaten App Prozessors.

In der Praxis müsste damit der Mediaprozessor für sich mindestens die halbe Bandbreite eines kompletten Omap3 haben. Da die Bandbreite vom 34x0 (550Mhz/600Mhz, 110Mhz SGX530) zum 36x0 (800Mhz/1Ghz, 200Mhz SGX 530) kaum zugenommen hat ist der sowieso etwas limitiert (166Mhz -> 200Mhz LPDDR). Ähnliches gilt aber für praktisch alle Cortex A8 SoCs. Auch ein wichtiger Grund warum alle auf A9 warten.

Die PowerVR SGX skalieren im ES 2.0 Benchmark durch die Bank noch nicht so wie sie eigentlich sollten und wie es von anderen Benchmarks zu erwarten ist. Insgesamt scheint die Einordnung des BCM2727 Richtung SGX530 (200Mhz) wohl ganz in Ordnung zu sein.

Ganz schwierig ist es dann mit dem SGX540 denn alle Samsung Geräte haben einen V-Sync von ~55.6 und das macht Vergleiche nicht gerade einfacher.

btw. wird interessant ob Nokia auf dieser Basis einen Nachfolger produziert. Also Cortex A8 App und BCM2763. Der könnte wenn denn 2011 auch wirklich verfügbar mit 128MB LPDDR2 Stack recht weit vorne mitspielen. Allerdings müsste man bei Nokia dann auch mal ein Gerät zeitnah auf den Markt bringen...

Ailuros
2010-12-20, 17:49:38
Andere konnten den GLBench 2.0 wohl auf dem N8 ausführen und möglicherweise ist die GPU stärker als gedacht, oder interpretiere ich die Ergebnisse falsch? Wenn ja, wäre eine Aufklärung gern gesehen ...

Während im GLBench 1.1 noch in etwa Gleichstand mit dem Droid X zu verzeichnen ist (Droid X hat aber eine höhere Auflösung), wird das Droid X bei GPU-Tests im GLBench 2.0 doch deutlich geschlagen.

GLBench 2.0
http://www.glbenchmark.com/compare.jsp?benchmark=glpro20&showhide=true&certified_only=1&D1=Nokia%20N8&D2=Apple%20iPhone%203G%20S&D3=Motorola%20Droid%20X&D4=Samsung%20i9000%20Galaxy%20S

GLBench 1.1
http://www.glbenchmark.com/compare.jsp?benchmark=glpro11&showhide=true&certified_only=1&D1=Nokia%20N8&D2=Apple%20iPhone%203G%20S&D3=Motorola%20Droid%20X&D4=Samsung%20i9000%20Galaxy%20S


@Moderation:
Sorry für OT, aber ich habe das Gefühl, dass ich der Einzige hier im Forum bin, der sich für das N8 interessiert. Deswegen fühle ich mich genötigt dort zu posten, wo die Leute mit Plan sind, um Antworten zu erhalten... Ganz schön viel "Gefühl" in einem Satz, aber es steht ja auch das "Fest der Liebe" vor der Tür...

1. Moderation hin und her es ist mein Thread und ergo hab ich nichts dagegen *grins*

2. Ich bin eigentlich froh dass Du ein N8 hast weil ich jemand habe den ich darueber jederzeit fragen kann.

3. YfOrU hat Recht; SGX Geraete werden irgendwann einen heftigen Aufschwung sehen im 2.0 benchmark.

Gaestle
2010-12-20, 22:31:49
Der BCM2727 profitiert halt auch ungemein von seinem 32MB DRAM - Stack. Der wird zwar (da extern über 16bit möglich) wohl "nur" über 16bit angebunden sein, ist aber unabhängig vom Speicher (und dessen Anbindung) des separaten App Prozessors.


16bit? Das klingt für mich super wenig. Wie hoch ist der DRAM denn getaktet?

Generell finde ich nicht so viele technische Infos, außer der pressemitteilung und dem "Was-kann-die-GPU-alles-tolles"-Marketing-pdf zum Broadcom. Also eigentlich finde ich gar keine technischen Infos außer 144Megapixel und 32Mio Polys/s aus der Pressemitteilung zum VideoCore III.

Google bringt mir einige Ergebnisse von Privatpersonen und Nokia-biased Webseiten, die den BCM2727 on par mit SGX 540 sehen, das waren aber soweit ich sehen kann alles Meldungen von Mai/Juni, wo also die N8-Werbekampagne auf vollen Touren lief. Sogar engadget hatte eine entsprechende Meldung (obwohl die technisch glaube ich nicht so versiert sind).

Wo kann man mehr über den BCM2727 erfahren, z.B. wie viele ROPs, ALUs/Organisation der ALUs oder die Anzahl der z-Tests pro Takt? Ist das Ding ein "klassischer" IMR? Oder wenigstens wie schnell das Ding taktet...

Und wo gibt es ähnliche Infos zum "Gesamtensemble" N8?

@Ail
Ich beantworte gerne Deine Fragen ...

YfOrU
2010-12-21, 10:23:51
Die POP Module in dieser Chipgeneration (65nm) arbeiten fast immer maximal mit 166Mhz. Sollten es doch 32bit sein könnte es auch noch etwas weniger sein.

Gibt auch (720p) Mediaprozessoren bei denen der Speicher nur mit um die 100Mhz betrieben wird. Man versucht hier natürlich möglichst am untersten Minimum des nötigen zu bleiben, alles andere macht sich beim Energiebedarf unschön bemerkbar.

Und ja, zu den Broadcom Chips gibt es noch weniger Material als bei Qualcomm. Liegt aber einfach auch daran das es praktisch keine (offenen) Linux Implementierungen gibt.