Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel bald mit Grafikkarten?
boxleitnerb
2006-05-10, 22:02:10
Es kommt zwar vom Inquirer und man weiß auch nicht genau, wie genau Intels Pläne aussehen, aber interessant ist es dennoch.
Zumindest das Geld, die Prozesstechnik, die Fabriken und ein bisschen Erfahrung durch die in Mainboards integrierten Chips hätten sie.
http://www.theinquirer.net/?article=31618
Gummikuh
2006-05-10, 22:10:33
Es gab doch schon längst Grafikkarten von Intel.Die Onboard-Chips sind ein Resultat davon.
boxleitnerb
2006-05-10, 22:13:21
Das schon, aber nix Spieletaugliches. Unter "gaming graphics" versteh ich mehr als einen Chip der nur SM3 auf dem Papier kann - mit 0,5fps.
Gummikuh
2006-05-10, 22:21:17
Nun ja...schau mal was die Hersteller auf manche FX5200 oder X1300 Packung drucken.
Kann mir nur vorstellen, dass Intel ev. im unteren Preissegment versucht mitzumischen.
Wie ein Angriff auf den High End Markt enden kann war gut bei XGI zu sehen...
Wäre für Intel ebenfalls ein schwerer Brocken.Ev. hat ja Intel zu S3 bzw. Matrox geschielt und daher die Idee.
Die gelbe Eule
2006-05-10, 22:27:44
Wäre zu begrüßen. Und leisten können sie sich jedes Segment allemal.
Gummikuh
2006-05-10, 22:31:24
Das untere Preissegment wird oft unterschätzt...siehe FX5200...
Ailuros
2006-05-10, 22:32:51
Hmmmmm :|
Bokill
2006-05-10, 22:38:12
Die gelbe Eule[/POST]']Wäre zu begrüßen. Und leisten können sie sich jedes Segment allemal. Ich glaube kaum, dass Intel es sich leisten kann ... seit wann ist Intel eine Firma, die freiwillig Verluste machen will?
Sie hatten einstmals zu Zeiten der 3DFX VoodooI und NVIDIA Riva 128 mal einen netten Versuch gestartet ... aber das mörderische Entwicklertempo konnten sie nicht mithalten. Ich glaube kaum, dass sich am Tempo der GPU Entwicklung sich was geändert hat.
Was sich aber geändert hat ist das gigantische IP-Füllhorn der GPU Giganten ATI und NVIDIA, und beide Firman haben im Laufe der Geschichte noch so manche Grafikchipschmiede geschluckt (ATI jüngstens Bitboys Oy).
Allenfalls für Mainboards und Handychips wird Intel seine Kräfte dort stärker walten lassen wollen (meiner Meinung nach).
MFG Bobo(2006)
Dürfte dann hoffentlich die SGX-Lizenz sein. Das wäre echt der Hammer :)
Die gelbe Eule
2006-05-10, 22:47:59
Wenn man onboard Chips entwickeln kann, dann sollte eine richtiger Chip auch kein Thema sein. Unüberlegt wird man nicht irgendwas starten, wahrscheinlich läuft schon seit Monaten hinter veschlossenen Türen etwas ab.
Die gelbe Eule[/POST]']Wenn man onboard Chips entwickeln kann, dann sollte eine richtiger Chip auch kein Thema sein.
Wenn du mit "richtigem Chip" auch "gute Performance" meinst: Blödsinn.
Fatality
2006-05-10, 23:04:25
vorisicht, intel könnte mit einem haps zumindest ati kaufen..
StefanV
2006-05-10, 23:07:50
Bokill[/POST]']Ich glaube kaum, dass Intel es sich leisten kann ... seit wann ist Intel eine Firma, die freiwillig Verluste machen will?
Wieso?
Gibt doch noch eine britische Firma, mit der man mit äußerst geringem Risiko was brauchbares basteln kann, man muss es sich nur vorstellen, diese Technologie ;)
StefanV
2006-05-10, 23:08:16
Fatality[/POST]']vorisicht, intel könnte mit einem haps zumindest ati kaufen..
Und die FTC könnte mit einem Klaps Intel zerschlagen :rolleyes:
Fatality[/POST]']vorisicht, intel könnte mit einem haps zumindest ati kaufen..
Könnten sie nicht. Zumindest nicht als feindliche Übernahme.
reunion
2006-05-10, 23:19:25
Gummikuh[/POST]']Wie ein Angriff auf den High End Markt enden kann war gut bei XGI zu sehen...
Wäre für Intel ebenfalls ein schwerer Brocken.Ev. hat ja Intel zu S3 bzw. Matrox geschielt und daher die Idee.
Du kannst Intel nicht mit XGI vergleichen. Intel hat enorme finanzielle Mittel zur Verfügung, von denen selbst ATi oder nV nur träumen können. Zudem hat man wohl die besten Fertigungshallen der Welt. Klar fehlt das "know-how", um einen brauchbaren High-End-Grafikchip zu entwickeln, allerdings kann man sich das ja notfalls auch anderweitig besorgen. Hätte mich doch gewundert, wenn man die SGX-Lizenz nur für die onboard-Chips verschwendet hätte.
Thowe
2006-05-10, 23:29:15
Intel hat nebenbei ein paar Fabs die wohl bald nicht mehr viel zu tun haben. ;)
Also zutrauen würde ich ihnen das schon und nebenbei wildert ja auch ATI und NVIDIA im Intel-Lager rum. Gegen erstere hat INTEL ja nichts, gibt ja sogar ein INTEL Mainboard mit ATI Xpress 200 Chipsatz. Gegen NV, ich weiß nicht, irgendwie scheint INTEL auf NVIDIA nicht soooo gut zu sprechen zu sein. Zumindestens was man hintenherum so hört.
Aber das wäre was, ein INTEL bestücktes Mainboard, mit INTEL CPU und INTEL Grafikkarte - Erstaunliches Ende für einen AMD-Bevorzuger wie mich. :D
Quasar
2006-05-10, 23:35:19
Na hoffentlich bekam da nicht jemand die Ankündigung für die super-duper integrierte Grafik der nächsten Generation in den falschen Hals. Gibt wohl immerhin 4.0-Shader; und wenn das auf der Packung steht, ist "Extreme HD-Gaming" nicht weit entfernt.
Die gelbe Eule
2006-05-10, 23:36:32
Wir brauchen eine dritte Kraft, damit sich die Preise stabilisieren und der Kampf um die Krone für den Endkunden von Vorteil sein wird.
LOCHFRASS
2006-05-10, 23:38:39
Naja, wenigstens haben die Intel-Chips Open-Source-Treiber...
Ailuros
2006-05-10, 23:40:19
Erstens ist ein INQ newsblurb, was heissen kann dass etwas entweder falsch interpretiert wurde oder dass es absoluter Quark mal wieder ist.
Zweitens kann ich mir zwar gut vorstellen dass Intel aus der Eurasia Lizenz etwas mehr rausholt als sich viele bisher vorgestellt haben, aber nichts dass mit high end Leistung oder Konkurrenz zu tun haben koennte.
***edit:
http://www.macworld.com/news/2006/05/09/callofduty/index.php
*floet*
Ailuros
2006-05-10, 23:41:49
LOCHFRASS[/POST]']Naja, wenigstens haben die Intel-Chips Open-Source-Treiber...
Aber nur weil keiner so bloed waere irgend etwas aus diesen auch ernsthaft zu benutzen :P
stickedy
2006-05-11, 00:48:08
Intel war ja schon mal kurz in dem Markt (i740) - und soo schlecht war der Chips damals ja nun wirklich nicht - und ein Comeback kann man wohl nicht wirklich ausschließen. Aber ob das nun PowerVR-Technik ist?
Mal angenommen, man (Intel) entwickelt eine hochflexible Architektur, die ja auch SM 4.0 beherrscht (siehe die Ankündigung / Gerüchte für die neuen IGPs), dann wäre es doch durchaus denkbar, dass man diese Architektur so flexibel entwickelt hat, dass man damit auch einen leistungsfähigen Grafikchip bauen kann.
TheGoD
2006-05-11, 01:29:41
Mal ne Frage, warum entwickelt Intel eigentlich SM3 und SM4 Chips? Profitiert die Vista Oberfläche dem höheren Featureset oder könnte dies zumindest für nachfolgende Windowsversionen zutreffen?
Auch wenn im OEM-Bereich Features mehr zählen als Performance verstehe ich den Sinn eines D3D10 Chips auf dem nur CS1.6 läuft nicht so wirklich? :|
WitchBladePL
2006-05-11, 01:45:10
Der chip ist ja auch als komplettlösung für Großabnehmer gedacht und damit sie eben den Schriftzug Vista ready drauf papen können brauchen sie eben so etwas.
Weil zeig mir mal nen Großraum Büro wo der Chef Rechner einsetzt die mit ner 300-400€ highend Graka befeuert werden, wobei dort nur Textverarbeitung und Kalkulationen am laufen sind.
Für was entscheidet er sich für das Intel Board mit chip, zahlt aber 10€ mehr oder ohne und zahlt 30€ mehr für ne Lowend Graka, nur weil da CS1.6 drauf läuft, was eh kein Arbeiter auf den Rechner haun darf.
Und große Firmen sind da sehr einfach gestrickt, die gucken auf die Kosten und das sie möglichst alles aus einer Hand bekommen. "Ganz wichtig: So etwas muss ne weile halten, meist 3-4 Jahre." Und genau so schauen die Firmen die solche Rechner bauen.
Schon hatse den Markt der solche Chiplösungen braucht und extra NV oder ATI mit so etwas beauftragen kostet eben auch ne stange Geld, lieber entwickeln sie es selber udn haben auch die Rechte daran.
Fast vergessen, warum SM3/SM4, ganz einfach weil
1. MS das in der API vorschreibt, sprich sie erfüllen einfach die Spec von D3D9 und D3D10
2. hört sich immer gut an wenn man das ünterstützt, was der Markt an technik im moment verlangt bzw was technisch möglich, aber streng laut specification.
Gruß WBPL
Ailuros
2006-05-11, 06:19:50
stickedy[/POST]']Intel war ja schon mal kurz in dem Markt (i740) - und soo schlecht war der Chips damals ja nun wirklich nicht - und ein Comeback kann man wohl nicht wirklich ausschließen. Aber ob das nun PowerVR-Technik ist?
Mal angenommen, man (Intel) entwickelt eine hochflexible Architektur, die ja auch SM 4.0 beherrscht (siehe die Ankündigung / Gerüchte für die neuen IGPs), dann wäre es doch durchaus denkbar, dass man diese Architektur so flexibel entwickelt hat, dass man damit auch einen leistungsfähigen Grafikchip bauen kann.
Dann haetten sie sich die Eurasia/SGX Lizenz aber auch gleich sparen koennen und ihren eigenen Design fuer den PDA/mobilen Markt einsetzen koennen. Siehe Link oben und da es sich um einen Port von Call of Duty2 handelt, wird das Ding wohl mit hoechster Wahrscheinlichkeit auf etwas praesentiert dass einen 2900G-aehnlichen Codenamen haben koennte.
Schau Dir mal das Video hier an:
http://pandora.luxus.fi/e3blog/e3_06/video/ca8f384610fe4875b70266c2120b9e49.swf.aspx
So wie es aussieht N93= OMAP2420 (MBX+VGP).
Sunrise
2006-05-11, 06:53:10
Thowe[/POST]']Intel hat nebenbei ein paar Fabs die wohl bald nicht mehr viel zu tun haben. ;)
Und warum haben sie bald "nicht mehr viel zu tun" ? ;)
StefanV
2006-05-11, 11:02:40
Sunrise[/POST]']Und warum haben sie bald "nicht mehr viel zu tun" ? ;)
Hm, man baut weniger Chipsätze und nimmt ein paar mehr von ATi? :uponder:
stickedy
2006-05-11, 14:29:23
Ich würd mal eher sagen mit dem Shrink auf 65 nm für die komplette Produktpalette hat man jetzt ein paar Kapazitäten gewonnen.
Also, um es mal auszusprechen: Ihr hofft, Intel käme mit einer PVR Series wasweisich im Bereich High End auf den Markt?
Mann, wäre das cool :rolleyes:
Gummikuh
2006-05-12, 02:50:59
Hmmm...ich glaube nicht das Intel unbedingt geil auf den High End Markt ist.
Armaq
2006-05-12, 08:36:17
Ich halte das für eine realistische Annahme. Es wäre ein Markt auf den Intel expandieren könnte, ohne sich mit "gleich" Großen wie Samsung anzulegen. Auf dem Speichermarkt ist nichts zu holen.
Egal was einige nun von Intel halten oder nicht, insgesamt haben sie auch KnowHow-technisch einen guten Ruf. Wie schon angesprochen haben sie Fabriken von denen träumen Ati und NV.
Auch die Margen sind nicht zu ignorieren. Was allerdings ein wirklich krasser Coup wäre;
Intel verkündet die Zusammenarbeit mit ATI auf dem Grafikkartenmarkt. Intel stellt die Fertigungstechnologien und ATI das Wissen. Das wäre ein wenig pervers für NV.
Man sollte auch mal bedenken dass die Prozesse die Intel bisher verwendet vor allem für Prozessoren mit hohen Frequenzen ausgelegt sind. Es ist nicht so dass man damit eine GPU auf den Wafer ätzt und man Wunderdinge erwarten kann ohne Änderungen.
Gmax[/POST]']Also, um es mal auszusprechen: Ihr hofft, Intel käme mit einer PVR Series wasweisich im Bereich High End auf den Markt?
Mann, wäre das cool :rolleyes:
Was wär ein Traum :) Wie Weihnachten.
stickedy
2006-05-12, 11:12:18
Intel fertigt doch jeden Mist, von Chipsätze über LAN & WLAN-Chips und StrongARM-CPUs bis hin zu Flash-Speicher. Also ich denke mal, die sollten das know-how dafür haben...
Ailuros
2006-05-12, 21:27:36
Coda[/POST]']Man sollte auch mal bedenken dass die Prozesse die Intel bisher verwendet vor allem für Prozessoren mit hohen Frequenzen ausgelegt sind. Es ist nicht so dass man damit eine GPU auf den Wafer ätzt und man Wunderdinge erwarten kann ohne Änderungen.
Bei einer Eigenentwicklung von Intel wuerden mir zuerst und vor allem deren Treiber sorgen machen.
haifisch1896
2006-05-12, 22:05:05
Dafür würden die dann auch ein Team mit Know-How kaufen.
Sonyfreak
2006-05-12, 23:40:20
Ich glaube, dass Intel weder das Know-How noch die geeigneten Leute für einen High-End Grafikchip hat. Wenn überhaupt könnte Intel erstmal versuchen im Low-End Bereich Fuß zu fassen und sich langsam nach oben zu arbeiten. Ein Dritter Großer am Grafikkartenmarkt würde der Branche und vor allem den Kunden sehr gut tun.
mfg.
Sonyfreak
Ailuros
2006-05-13, 06:05:01
hendrikhey[/POST]']Dafür würden die dann auch ein Team mit Know-How kaufen.
Wie viele sind ueberhaupt noch uebrig geblieben die wahre Erfahrung in diesem Feld haben?
Ailuros
2006-05-13, 06:10:18
Sonyfreak[/POST]']Ich glaube, dass Intel weder das Know-How noch die geeigneten Leute für einen High-End Grafikchip hat. Wenn überhaupt könnte Intel erstmal versuchen im Low-End Bereich Fuß zu fassen und sich langsam nach oben zu arbeiten. Ein Dritter Großer am Grafikkartenmarkt würde der Branche und vor allem den Kunden sehr gut tun.
mfg.
Sonyfreak
Nur eine solche Strategie wuerde IMHO momentan auch Sinn machen, aber selbst wenn bezweifle ich dass Intel vorhat mit ATI/NVIDIA auf allen Fronten in der Zukunft zu konkurrieren.
Der high end GPU Markt ist verdammt kompliziert und anspruchsvoll und ich kann schwer glauben dass Intel plant so viel Resourcen in einen Markt zu werfen der schon von ATI/NVIDIA ausgeschoepft ist (beide suchen ja nach alternativen Maerkten damit sie auch weiterhin wachsen koennen), ueberhaupt wenn ihr Hauptgeschaeft auf CPUs konzentriert ist.
protom
2006-05-13, 06:23:17
Sonyfreak[/POST]']Ich glaube, dass Intel weder das Know-How noch die geeigneten Leute für einen High-End Grafikchip hat. Wenn überhaupt könnte Intel erstmal versuchen im Low-End Bereich Fuß zu fassen und sich langsam nach oben zu arbeiten. Ein Dritter Großer am Grafikkartenmarkt würde der Branche und vor allem den Kunden sehr gut tun.
mfg.
Sonyfreak
Konkurrenz belebt das Geschäft. Aber eher kauft der Große den kleinen auf, so ist es heutzutage üblich. Bei CPU's sollte es neben Intel und AMD auch IBM im Endkundenmarkt geben.
Armaq
2006-05-13, 08:49:45
Intel hat aber unendlich mehr Mittel zur Verfügung als Nv/Ati. 90 Millionen Gewinn in einem Rekordquartal von NV ist doch geradezu lachhaft gegen Intel.
Wobei ich natürlich all unseren "Experten" zustimme, dass es grundlegende Unterschiede gibt.
Nur sehe ich als Laie vor allem die enormen Kapazitäten und die fortschrittliche Fertigung.
Thowe
2006-05-13, 09:49:06
Armaq[/POST]']Intel hat aber unendlich mehr Mittel zur Verfügung als Nv/Ati. 90 Millionen Gewinn in einem Rekordquartal von NV ist doch geradezu lachhaft gegen Intel.
Wobei ich natürlich all unseren "Experten" zustimme, dass es grundlegende Unterschiede gibt.
Nur sehe ich als Laie vor allem die enormen Kapazitäten und die fortschrittliche Fertigung.
Bei ihrer letzten Grafikkarten Aktion hat Intel ja die Boardhersteller förmlich gezwungen Grafikkarten zu verkaufen (man munkelte, das wer nicht mitmacht, seltsamerweise keine Bridge-Bausteine für seine Boards bekam, zumindestens viel später als die anderen).
Würde der Treibersupport nicht über PowerVR laufen, wenn Intel ein PowerVR Design verbaut?
Thowe
2006-05-13, 11:14:30
HOT[/POST]']Würde der Treibersupport nicht über PowerVR laufen, wenn Intel ein PowerVR Design verbaut?
Würde mal darauf tippen, das sie etwas in die Richtung aushandeln würden. INTEL hat zwar eine Menge Mitarbeiter, aber unwahrscheinlich das sie ausserhalb der Fertigung noch etwas machen würden.
Ailuros[/POST]']Wie viele sind ueberhaupt noch uebrig geblieben die wahre Erfahrung in diesem Feld haben?
Hmm...
Also von ATI, nvidia oder XGI bräuchten die keine Ingenieure abwerben. die sind selber schlecht genug (na gut, ich kann´s noch weniger, aber egal).
Matrox hatte immer einigermaßen gute Treiber am Start.
Genauso die Jungs von 3DLabs. Zu wem gehören die gleich nochmal? Ich habs zwar vergessen, meine aber mich erinnern zu können, dass die übernommen wurden.
Die Treiber von PowerVR waren nie besonders hervorragend, aber schlecht waren sie keinesfalls.
Und ich denke, bei Abwerbungsversuchen würden auch einige überlaufen. Zumal die sich mit der Materie dann ja auskennen sollten.
Gast[/POST]']Also von ATI, nvidia oder XGI bräuchten die keine Ingenieure abwerben. die sind selber schlecht genug (na gut, ich kann´s noch weniger, aber egal).
Die nVIDIA und ATI Leute sind "selber schlecht genug"? War das wirklich so gemeint? :|
haifisch1896
2006-05-13, 22:03:37
Der Gast war ich. Schlecht, wenn Cookies automatisch gelöscht werden (zumal ich das nicht gemacht habe).
Ich denke im Übrigen nicht, dass Intel in den Grafikkartensektor einsteigen würde.
Wozu auch? Dort gewinnt man ein gutes Image nur mit absoluter High-End-Hardware. Und damit lässt sich bei den Entwicklungskosten kein müder Euro machen. Da muss es dann schon die Quantität bei den Mainstream- und LowEnd-Modellen bringen.
Nur mal Hand aufs Herz: Verlangt der Markt nach Grafikkarten von Intel?
@Coda
Ja, war es. Ich hatte schon Karten von den verschiedensten Herstellern (SiS, XGI, Ati, jetzt nV, PowerVR, Matrox, 3DLabs), und ich muss sagen, mit den Treibern von nV, ATI und SiS bin ich absolut unzufrieden.
ATI: Catalyst AI ist zu viel als nur eine Möglichkeit, die "Bildoptimierungen" an- bzw. auszustellen, extrem lange Ladezeit des CP, ebenso ein hoher Speicherverbrauch des CP
XGI: einfach nur verbuggt
nV: zu umständlich, nicht unbedingt selbsterklärend, Möglichkeit der Lüfterregelung geht nicht (ob er immer an sein soll oder nicht), bei mir kann ich auch bei jedem Windows-Start die Taktfrequenz neu einstellen, obwohl es gespeichert werden sollte. Wieso läuft meine Karte (3. Austauschkarte wg. Temperatursensor) immer nur auf 47°C, egal ob ich spiele oder in Windows bin?
SKYNET
2006-05-13, 22:19:12
Ailuros[/POST]']Wie viele sind ueberhaupt noch uebrig geblieben die wahre Erfahrung in diesem Feld haben?
nicht viele, und die meisten davon sitzen bei NV! =)
haifisch1896
2006-05-13, 22:39:28
Geschmackssache.
Mir drängt sich aber eine andere Frage auf:
Würden die User von Intels Konkurrenzfirmen benachteiligt, allein durch die Tatsache, dass man einen A64 oder einen nV-Chipsatz nutzt? Dadurch könnten ja rein theoretisch die Leistungswerte so verändert werden, dass die volle Leistung nur in Verbindung mit einem Core-Prozessor oder einem Intel-Chipsatz zu holen ist.
Redet ihr jetzt eigentlich von Software- oder Hardware-Entwicklern? :|
Die Hardware-Devs bei ATi und nVIDIA sind mit Sicherheit mit die allerbesten der Branche (ich sage mit, weil PowerVR sicher auch sehr fähige Leute hat).
Ach so, Ail meinte wirklich Software. Seit wann spricht man da von Ingineuren?
Ailuros
2006-05-13, 23:34:20
Gast[/POST]']Hmm...
Also von ATI, nvidia oder XGI bräuchten die keine Ingenieure abwerben. die sind selber schlecht genug (na gut, ich kann´s noch weniger, aber egal).
XGi wurde von ATI aufgekauft.
Matrox hatte immer einigermaßen gute Treiber am Start.
Wobei sie den Gaming-Markt kompett aufgegeben haben.
Genauso die Jungs von 3DLabs. Zu wem gehören die gleich nochmal?
Creative aber sie haben den GPU Markt aufgegeben. Die wertvollsten engineers hocken seit neuestem bei NVIDIA.
ATI: Catalyst AI ist zu viel als nur eine Möglichkeit, die "Bildoptimierungen" an- bzw. auszustellen, extrem lange Ladezeit des CP, ebenso ein hoher Speicherverbrauch des CP
nV: zu umständlich, nicht unbedingt selbsterklärend, Möglichkeit der Lüfterregelung geht nicht (ob er immer an sein soll oder nicht), bei mir kann ich auch bei jedem Windows-Start die Taktfrequenz neu einstellen, obwohl es gespeichert werden sollte. Wieso läuft meine Karte (3. Austauschkarte wg. Temperatursensor) immer nur auf 47°C, egal ob ich spiele oder in Windows bin?
Also wie sich manche hier über die Windows-Treiber von ATI und Nvidia streiten ist echt lachhaft. Schlechte Treiber sehen anders aus.
Man muss sich nur mal die Liste der behobenen Bugs in den ATI-Linuxtreibern ansehen, da bleibt einem schon der Atem weg, dass Treiber mit solchen Bugs überhaupt jemals releast worden sind. Zum Beispiel:
"Fixed in 3.14.6 release:
The System no longer fails to respond when moving the mouse around on the screen"
Dagegen sind die jetzigen Windows-Treiber ein echtes Paradies.
Ailuros
2006-05-13, 23:43:58
Coda[/POST]']Redet ihr jetzt eigentlich von Software- oder Hardware-Entwicklern? :|
Die Hardware-Devs bei ATi und nVIDIA sind mit Sicherheit mit die allerbesten der Branche (ich sage mit, weil PowerVR sicher auch sehr fähige Leute hat).
Einige haben sogar eine gute Erfahrung was CPU Entwicklung betrifft. Schon gelesen?
http://www.audiodesignline.com/showArticle.jhtml?articleID=183701195
Ach so, Ail meinte wirklich Software. Seit wann spricht man da von Ingineuren?
Ja ich erwaehnte Treiber aber nicht im Zusammenhang mit Inginieuren. Theoretisch koennte Intel viel anstellen, wenn man so viel Resourcen hat ist es kein Problem; der Haken ist dass das Risiko zu gross ist und fuer sehr aggressive Schachzuege und Intel es auch nicht wirklich noetig hat.
Von dem was ich so hoere hinter den Kulissen liefert uebrigens Intel die beste Unterstuetzung ueberhaupt fuer den 2700G. Der Laecherlichkeit zuliebe gibt es aus solchen Schwachsinn:
http://www.pocketnow.com/index.php?a=portal_detail&t=news&id=3626
haifisch1896
2006-05-14, 00:08:37
Da habe ich mit den Ingenieuren ja was verbrochen. Meinte eigentlich die Entwickler.
Das Matrox den Gaming-Markt aufgegeben hat, weiß ich. Es ging doch nur um die Frage, wer denn noch fähige Progger hat.
Stimmt, 3DLabs kam zu Creative. Wobei ich schade finde, dass nach der Wildcat nichts mehr kam. Aber so ist das GPU-Geschäft. Hart, unbarmherzig, teuer, und für manch einen unrentabel.
Ailuros
2006-05-14, 07:06:50
hendrikhey[/POST]']
Das Matrox den Gaming-Markt aufgegeben hat, weiß ich. Es ging doch nur um die Frage, wer denn noch fähige Progger hat.
Parhelia lag ueber 4 Jahre unter Entwicklung weil eben nur eine handvoll von engineers bei Matrox uebrig geblieben sind.
robbitop
2006-05-14, 08:45:19
Ailuros[/POST]']Parhelia lag ueber 4 Jahre unter Entwicklung weil eben nur eine handvoll von engineers bei Matrox uebrig geblieben sind.
Ja und das merkte man, als sie rauskam.
Warum hat man nach dem gescheiterten G800 Projekt, ohne genug Ingenieure, überhaupt das Parhelia Projekt angefangen? Wäre es nicht besser, mit so wenig manpower, externe IP zu kaufen (siehe PVR ...hat man zum M3D schonmal gemacht).
Tigerchen
2006-05-14, 08:46:44
stickedy[/POST]']Intel war ja schon mal kurz in dem Markt (i740) - und soo schlecht war der Chips damals ja nun wirklich nicht - und ein Comeback kann man wohl nicht wirklich ausschließen. Aber ob das nun PowerVR-Technik ist?
Mal angenommen, man (Intel) entwickelt eine hochflexible Architektur, die ja auch SM 4.0 beherrscht (siehe die Ankündigung / Gerüchte für die neuen IGPs), dann wäre es doch durchaus denkbar, dass man diese Architektur so flexibel entwickelt hat, dass man damit auch einen leistungsfähigen Grafikchip bauen kann.
Der i740 war schlecht und konnte nur in Benches wie Final Reality punkten. Ansonsten wurde er schon von einer Riva128 abgehängt. Versprochen wurden im Vorfeld allerdings wahre Performancewunder. So wie es heute für die Conroe-CPU getan wird.
Den Nachfolger i742 wollte dann folglich keiner mehr haben. Warum also sollte Intel sich heute nochmal ins Haifischbecken wagen?
Weil seither etwas Zeit vergangen ist :crazy:
StefanV
2006-05-14, 10:40:43
Tigerchen[/POST]']
Der i740 war schlecht und konnte nur in Benches wie Final Reality punkten. Ansonsten wurde er schon von einer Riva128 abgehängt. Versprochen wurden im Vorfeld allerdings wahre Performancewunder. So wie es heute für die Conroe-CPU getan wird.
Wenn mich nicht alles täuscht, dann hatte der i740 nur ein 64bit Speicherinterface, konnte dafür aber doch recht gut mithalten...
robbitop
2006-05-14, 11:09:26
Damals war die Bandbreite noch nicht so das Thema. Der RagePRO hatte auch nur ein 64 Bit Interface (IIRC hatte die V1 auch nicht mehr), war trotzdem ähnlich schnell. Kein Wunder bei nur einer bi TMU.
robbitop
2006-05-14, 11:35:27
Coda[/POST]']Voodoo hatte 2x64bit.
Einmal FB und einmal Texturspeicher IIRC, oder?
KraetziChriZ
2006-05-14, 11:36:36
Also ich sehe das ganze Positiv.
Vielleicht bekommt Nvidia und ATI mal ordentliche konkurrenz. Und die Hoffnung, das die Preise mal stark sinken würden, wäre natürlich auch mal was :D
gruß
chris
Tigerchen
2006-05-14, 11:55:26
Coda[/POST]']Weil seither etwas Zeit vergangen ist :crazy:
Weil der Vorsprung der Platzhirsche seit damals expotential angewachsen ist?:crazy:
reunion
2006-05-14, 12:22:03
Gast[/POST]']
Genauso die Jungs von 3DLabs. Zu wem gehören die gleich nochmal?
Ailuros[/POST]']Creative aber sie haben den GPU Markt aufgegeben. Die wertvollsten engineers hocken seit neuestem bei NVIDIA.
Welche Ingenieure sind denn seit neuestem zu nV gewandert?
Rockhu
2006-05-14, 12:35:15
3dlabs hat sioch aus dem Desktopsegemnt zurückgezogen und will jetzt nur noch Chips für den Mobile Sektor entwickeln.
Bei XGI is es genauso.
Die Ingenieure von 3dlabs sind zu nv gegangen, die von XGI zu ATI.
mfG
reunion
2006-05-14, 12:41:57
Die Ingenieure von 3DLabs sind AFAIK zu Creative gegangen, und das schreibt AiL auch. Deshalb meine Frage.
stickedy
2006-05-14, 13:05:48
Rockhu[/POST]']die von XGI zu ATI.
afaik ist nur das ehemalige Trident-Team bei ATI gelandet. Die ehemaligen SiS-Mitarbeiter sollten noch bei XGI werkeln...
Rockhu
2006-05-14, 13:21:58
reunion[/POST]']Die Ingenieure von 3DLabs sind AFAIK zu Creative gegangen, und das schreibt AiL auch. Deshalb meine Frage.
Ne, 3dlabs war ein Tochterunternehmen von Creative bzw. ist es immernoch ...
Wurde vor knapp 4 Jahren übernommen???
Waren also schon immer bei Creative und wieso sollten die die Leute brauchen?
Naja, hatte zumidnest gedacht die wären zu NV gegangen, find dazu aber jetzt auch nix mehr.
Vielelicht bezieht sich das Kommentar von Ailuros ja auch darauf, das NV noch die 3dfx leute hat und der Rest halt ... hm ... nicht? :D
mfG
robbitop[/POST]']Einmal FB und einmal Texturspeicher IIRC, oder?
Ja. Einmal für den Rasterizer und einmal für die TMU.
reunion[/POST]']Die Ingenieure von 3DLabs sind AFAIK zu Creative gegangen, und das schreibt AiL auch. Deshalb meine Frage.
Teilweise auch zu nVIDIA.
Tigerchen[/POST]']Weil der Vorsprung der Platzhirsche seit damals expotential angewachsen ist?
Du kannst ganz bestimmt nicht von i740 auf irgendwelche heutigen Verhältnisse schließen, soweit wirst du doch wohl noch denken können, oder?
Juice
2006-05-14, 13:28:57
Intel wird kaum in nächster Zeit in diesen Markt einsteigen, weil er einfach schon zu hart umkämpft ist, als dass man hier schnell Fuß fassen könnte, zudem wirft er für Intels Maßstäbe viel zu wenig Gewinne ab, als dass sich der Einstieg lohnen würde, das Einzige was für Intel interessant ist, ist der OEM Bereich, für Vista braucht man nunmal einen D3D10 Chip.
Coda[/POST]']Ach so, Ail meinte wirklich Software. Seit wann spricht man da von Ingineuren?
Im englischsprachigen Raum schon immer.
Juice[/POST]']für Vista braucht man nunmal einen D3D10 Chip.
Nö. DX9 SM2 reicht für den Desktop (GMA900 erfüllt das schon).
Fruli-Tier
2006-05-14, 15:56:11
Eine Denkbare Idee wäre doch ein sparsamer, und gleichzeitig - mit Grenzen natürlich - fürs Zocken geeigneter Mobil Chip.
Tigerchen
2006-05-14, 19:51:25
Coda[/POST]']
Du kannst ganz bestimmt nicht von i740 auf irgendwelche heutigen Verhältnisse schließen, soweit wirst du doch wohl noch denken können, oder?
Wenn du meinst..... :|
robbitop[/POST]']Damals war die Bandbreite noch nicht so das Thema. Der RagePRO hatte auch nur ein 64 Bit Interface (IIRC hatte die V1 auch nicht mehr), war trotzdem ähnlich schnell. Kein Wunder bei nur einer bi TMU.Die Voodoo Graphics hatte zwei 64-Bit-Interfaces. Eins zum Pixel FX und einen zum Texel FX. Voodoo 2 hatte demnach 192 Bit, Voodoo 2 SLI von 384 Bit SDR :) mit "6x Splittung".
tokugawa
2006-05-14, 22:23:35
Xmas[/POST]']Im englischsprachigen Raum schon immer.
Auch im deutschsprachigen Raum. Informatik (und damit alle Softwarebasierten Disziplinen innerhalb der Informatik) ist eine Ingenieurswissenschaft.
Ailuros
2006-05-14, 23:34:27
robbitop[/POST]']Ja und das merkte man, als sie rauskam.
Warum hat man nach dem gescheiterten G800 Projekt, ohne genug Ingenieure, überhaupt das Parhelia Projekt angefangen? Wäre es nicht besser, mit so wenig manpower, externe IP zu kaufen (siehe PVR ...hat man zum M3D schonmal gemacht).
Allein das Treiber-team von PowerVR ist um ca. 8x mal groesser als die Anzahl der engineers die damals an Parhelia arbeiteten.
Ailuros
2006-05-14, 23:36:04
reunion[/POST]']Die Ingenieure von 3DLabs sind AFAIK zu Creative gegangen, und das schreibt AiL auch. Deshalb meine Frage.
Nach dem Ausstieg aus dem Grafikmarkt wanderten seit neuestem die besten Talente zu NVIDIA aus.
Controller Khan
2006-05-14, 23:39:20
aths[/POST]']Die Voodoo Graphics hatte zwei 64-Bit-Interfaces. Eins zum Pixel FX und einen zum Texel FX. Voodoo 2 hatte demnach 192 Bit, Voodoo 2 SLI von 384 Bit SDR :) mit "6x Splittung".
Die Voodoo2 benutzte doch noch EDO RAM ?
Ailuros
2006-05-14, 23:53:22
Alte Praesentation aus ~Mitte 2004:
http://users.otenet.gr/~ailuros/JPR.ppt
(falls es eine neue Version von Powerpoint nicht lesen kann, Microsoft's Powerpoint Viewer hilft)
Vorsichtig durchlesen, denn man kann leicht auf den falschen Pfad kommen; die Wege der GPU und CPU IHVs werden sich mehr und mehr in der Zukunft kreuzen, aber nicht zum Grad wie sich manche vorstellen koennten. Wenn IHVs wie NVIDIA in den Render-Farm Markt eindringen wollen, macht es auch Sinn dass Intel darauf auf die eine oder andere Art nicht reagiert und in Feldern in den sie bis jetzt nicht taetig waren ploetzlich eingreifen.
Wie was und genau liegt noch in den Sternen.
StefanV
2006-05-14, 23:54:27
Controller Khan[/POST]']Die Voodoo2 benutzte doch noch EDO RAM ?
Jep, 25ns...
Deswegen waren die auch so gewaltig und vollgepackt...
Die gabs nämlich nur als 512k Steinchen, SDRAM gabs damals schon, auch 8ns, auch als 2MB Chips.
Controller Khan[/POST]']Die Voodoo2 benutzte doch noch EDO RAM ?
Ja, mit Single Data Rate.
SDRAM steh für Synchronous DRAM, nicht Single Data Rate ;)
Es heißt ja auch DDR-DRAM und nicht DDRRAM.
DDR-SDRAM. :D
Double Data Rate Synchronous Dynamic Random Access Memory. :ugly:
MfG,
Raff
turboschlumpf
2006-05-15, 02:36:59
Ich persönlich würde mir auf jeden Fall einen dritten großen und in allen Bereichen konkurrenzfähigen Grafikchip-Hersteller auf dem Markt wünschen.
Allerdings habe ich die Befürchtung, dass für einen weiteren Hersteller jetzt die allerletzte Möglichkeit ist, in den Markt einzusteigen. Zum einen aufgrund der immer höher werdenden Technologieschwelle und zum anderen aufgrund des Intellectual Property. Zudem sind nach den Akquisitionen seitens ATi und nVidia inzwischen praktisch alle fähigen Entwickler bei eben diesen beiden Herstellern beschäftigt.
Intel ist einer der wenigen, wenn nicht gar der einzige Hersteller, dem ich den Sprung in den Grafikchip-Markt noch zutrauen würde. Wobei die wirkllich einzige Einstiegschance PowerVR zu sein scheint.
Coda[/POST]']SDRAM steh für Synchronous DRAM, nicht Single Data Rate ;)
Es heißt ja auch DDR-DRAM und nicht DDRRAM.
Hast du auch gelesen, worauf ich antwortete? Vermutlich nicht, sonst hättest du deinen Kommentar sicherlich in einen anderen Zusammenhang gepackt, da dir dann ja auch die Zusammenhänge klar gewesen wären.
In dem Kontext wäre SDR als Synch. Dynamic RAM ziemlich blödsinnig - was in erster Linie auch die Frage aufwarf...
stickedy
2006-05-15, 09:44:29
Da ich mich grad mal wieder mit etwas Geschichte befasst habe: Intel hat dank Real 3D und den in Folge abgesclossen Cross-Lizenz-Abkommen Zugang zur Grafikpatenten von eben Real 3D, 3dfx und ATI. Zusätzlich kommt dazu noch ein Cross-Lizenz-Abkommen mit S3 Inc. Das ist ne ganze Menge Grafiktechnologie auf die Intel da Zugriff hat...
Tigerchen
2006-05-15, 13:13:18
stickedy[/POST]']Da ich mich grad mal wieder mit etwas Geschichte befasst habe: Intel hat dank Real 3D und den in Folge abgesclossen Cross-Lizenz-Abkommen Zugang zur Grafikpatenten von eben Real 3D, 3dfx und ATI. Zusätzlich kommt dazu noch ein Cross-Lizenz-Abkommen mit S3 Inc. Das ist ne ganze Menge Grafiktechnologie auf die Intel da Zugriff hat...
Aber auch viel alter Kram dabei meinste nicht auch?
stickedy
2006-05-15, 13:31:35
Klar, aber eben auch die Basics wie z.B. sämtliche Filter- und FSAA-Techniken. Jedenfalls hat Intel Zugriff auf alle wichtigen Patente was 3D-Grafik anbelangt. Und da läßt sich ne Menge draus machen sofern denn wollte.
Thowe
2006-05-15, 13:43:49
Ailuros[/POST]']...
Vorsichtig durchlesen, denn man kann leicht auf den falschen Pfad kommen; die Wege der GPU und CPU IHVs werden sich mehr und mehr in der Zukunft kreuzen, aber nicht zum Grad wie sich manche vorstellen koennten. ...
Betrachtet man einfach mal die Komplexität einer heutigen Grafikkarte und eines Prozessors, dann wird langsam klar, dass Prozessoren in der Zukunft immer weniger eine Rolle spielen werden, einfach weil die Anforderungen steigen, wird es immer mehr spezielle Prozessoren geben müssen.
Der CELL geht ja quasi schon fast in diese Richtung, der "eigentliche Prozessor" läuft nur so nebenbei und bedient die SPUs, die dafür gedacht sind die anliegende Arbeit zu vollrichten.
Geht man davon aus, das PCs immer mehr in die Wohnzimmer kommen, Visualisierung bedeutender wird und das Grundtempo der CPUs ausreicht, dann wird es vermutlich in absehbarer Zeit eine Verlagerung auf dem Markt geben, die CPU Hersteller denen der GPU Hersteller mehr und mehr unterordnet.
Da INTEL sicherlich ein umfassendes Portfolio behalten will, werden sie sich aus meiner Sicht zumindestens langfristig überlegen müssen, welchen Marktbereich bei den GPUs sie bedienen wollen. Der Low- und Leastcost mag zwar ausreichen (sprich enbedded in der Bridge), ob er aber ausreicht für die Idee des Wohnzimmer-PCs, die INTEL nun scheinbar strickt verfolgt, ist eine andere Frage.
del_4901
2006-05-15, 20:36:54
Jenau Towe!
Ich denke auch das Intel versucht den Ati/NV-Berg von unten her versucht "auszuhöhlen". Denn nur die Spitze abgraben bringt den Berg noch lange nicht zum Einsturz.
Wenn dann einmal das komplette Fundament wech ist, hat man die Qual der Wahl, welchen der beiden man jetzt eigendlich kauft ^^ :)
Controller Khan
2006-05-15, 22:07:09
Gast[/POST]']Ja, mit Single Data Rate.
Danke, eine Unklarheit weniger.
haifisch1896
2006-05-15, 22:07:48
stickedy[/POST]']Klar, aber eben auch die Basics wie z.B. sämtliche Filter- und FSAA-Techniken. Jedenfalls hat Intel Zugriff auf alle wichtigen Patente was 3D-Grafik anbelangt. Und da läßt sich ne Menge draus machen sofern denn wollte.
Die einem bei entsprechend wenig Rohpower aber auch nichts bringen würden.
Was willst Du mit superkorrektem AF oder SSAA, wenn Du damit nur bei 10 fps spielen kannst? Dazu bräuchten die eine echt leistungsfähige Hardware.
Die MBX-Technologie ist zwar leistungsstark (soweit ich weiß), bringt aber auch eigene Technologien bez. Filtern etc. mit.
Juice
2006-05-15, 22:47:26
Nunja, wenn man sich mal anschaut wer die meisten Grafikchips verkauft, sieht man, dass Intel bereits die Spitzenposition hält, also bleibt da eigentlich nicht viel zu holen, wenn Intel in den Highendbereich einsteigen würde...
Ohne IGPs verkauft Intel gar keine Grafikchips, das würde ich also eher dem Chipsatzmarkt zurechnen.
Ailuros
2006-05-16, 05:57:28
hendrikhey[/POST]']Die einem bei entsprechend wenig Rohpower aber auch nichts bringen würden.
Was willst Du mit superkorrektem AF oder SSAA, wenn Du damit nur bei 10 fps spielen kannst? Dazu bräuchten die eine echt leistungsfähige Hardware.
Die MBX-Technologie ist zwar leistungsstark (soweit ich weiß), bringt aber auch eigene Technologien bez. Filtern etc. mit.
Na frag lieber mal wie Intel's Filterungs-Algorithmen bis jetzt aussahen, denn das was ich bis jetzt sehen konnte ist nicht allzu weit entfernt von dem was SiS bzw. XGi zu bieten hatte. Von "superkorrektem AF" wuerde ich auf den bisherigen Intel IGPs gar nicht reden.
MBX ist erstmal nur fuer den PDA/mobile Markt ausgelegt und man ist afaik besser aufgehoben mit dem Ding wenn man bilinear benutzt. Man braucht hier genauso wie auf der seligen KYRO zwei Takte fuer trilinear und von 2xAF sollte man genauso hier die Finger weglassen.
Der Intel 2700G mit dem MBX Ding ist vergleichsmaessig eine ziemlich schwache Loesung im Vergleich zu Texas Instruments OMAP2. Erstens hat Intel's SoC keine FPU auf der CPU (dafuer aber eine hohe Taktrate) und zweitens hat der 2700 auch keinen VGP der auf den meisten anderen SoCs mit MBX vorhanden ist.
SGX ist wohl dann ein anderes Kapitel; wenn IMG schon offiziell angibt dass bei gleicher Frequenz die trilineare Fuellrate doppelt so hoch ist wie auf MBX, dann hoert sich das eher nach tri-TMUs an und erlaubt natuerlich auch brauchbares AF selbst auf einem winzigem chip.
Ailuros
2006-05-16, 06:02:48
Thowe[/POST]']Betrachtet man einfach mal die Komplexität einer heutigen Grafikkarte und eines Prozessors, dann wird langsam klar, dass Prozessoren in der Zukunft immer weniger eine Rolle spielen werden, einfach weil die Anforderungen steigen, wird es immer mehr spezielle Prozessoren geben müssen.
Der CELL geht ja quasi schon fast in diese Richtung, der "eigentliche Prozessor" läuft nur so nebenbei und bedient die SPUs, die dafür gedacht sind die anliegende Arbeit zu vollrichten.
Geht man davon aus, das PCs immer mehr in die Wohnzimmer kommen, Visualisierung bedeutender wird und das Grundtempo der CPUs ausreicht, dann wird es vermutlich in absehbarer Zeit eine Verlagerung auf dem Markt geben, die CPU Hersteller denen der GPU Hersteller mehr und mehr unterordnet.
Da INTEL sicherlich ein umfassendes Portfolio behalten will, werden sie sich aus meiner Sicht zumindestens langfristig überlegen müssen, welchen Marktbereich bei den GPUs sie bedienen wollen. Der Low- und Leastcost mag zwar ausreichen (sprich enbedded in der Bridge), ob er aber ausreicht für die Idee des Wohnzimmer-PCs, die INTEL nun scheinbar strickt verfolgt, ist eine andere Frage.
Nicht nur anscheinend; so wie es Peddie praesentiert sieht es danach aus als ob Intel (langfristig) auch am low-end Profi-Markt interessiert ist. 3DLabs ist weg vom Fenster und fuer Matrox sieht die Zukunft auch nicht besonders vielversprechend aus.
Ailuros
2006-05-16, 06:13:04
Coda[/POST]']Ohne IGPs verkauft Intel gar keine Grafikchips, das würde ich also eher dem Chipsatzmarkt zurechnen.
Jein. Er meinte wohl eher dass Intel IGPs generell in der Mehrzahl der PCs/notebooks insgesamt vorhanden sind. Sprich ein verdammt hohes Verkaufsvolumen und natuerlich auch Gewinn.
Theoretisch wenn es um high end GPUs ginge heisst das dann ein um hunderte Male kleineres Verkaufsvolumen, um zich Male hoehere R&D Unkosten, um zich Male hoeheres Risiko und natuerlich einen vergleichsmaessig mickrigen Gewinn von diesem Segment. Mainstream/high end GPUs wuerden rein hypothetisch Intel nur helfen in andere Maerkte einzudringen die sie bis jetzt nie beruehrt haben; das heisst aber nicht unbedingt dass das Ganze das Verkaufsvolumen ihrer IGPs erhoehen wuerde (und es ist wohl wurscht in diesem Fall ob man sie als Grafik-Loesungen oder chipsets berechnet). So gesehen hat er schon recht.
haifisch1896
2006-05-18, 19:35:06
Ailuros[/POST]']Na frag lieber mal wie Intel's Filterungs-Algorithmen bis jetzt aussahen, denn das was ich bis jetzt sehen konnte ist nicht allzu weit entfernt von dem was SiS bzw. XGi zu bieten hatte. Von "superkorrektem AF" wuerde ich auf den bisherigen Intel IGPs gar nicht reden.
Ging mir nur ums Prinzip. Nicht darum, wie korrekt die Algorithmen sind.
Denn was bringen Dir zig Patente ohne Power sie zu nutzen?
Oder besser:
Was bringen links und rechts tausend Volt, wenn die Lampe in der Mitte nicht angeht.
Ailuros[/POST]']Na frag lieber mal wie Intel's Filterungs-Algorithmen bis jetzt aussahen, denn das was ich bis jetzt sehen konnte ist nicht allzu weit entfernt von dem was SiS bzw. XGi zu bieten hatte. Von "superkorrektem AF" wuerde ich auf den bisherigen Intel IGPs gar nicht reden.Im Deutschen bildet man den Genitiv ohne Apostroph. Es heißt also "Intels Filter-Algorithmus".
Ailuros[/POST]']SGX ist wohl dann ein anderes Kapitel; wenn IMG schon offiziell angibt dass bei gleicher Frequenz die trilineare Fuellrate doppelt so hoch ist wie auf MBX, dann hoert sich das eher nach tri-TMUs an und erlaubt natuerlich auch brauchbares AF selbst auf einem winzigem chip.Da es den SGX in mindestens drei Ausführungen (auf dem Papier) gibt, wäre ich mit solchen generalisierten Aussagen vorsichtig.
Ailuros
2006-05-20, 00:58:31
aths[/POST]']
Da es den SGX in mindestens drei Ausführungen (auf dem Papier) gibt, wäre ich mit solchen generalisierten Aussagen vorsichtig.
Wieviel Sinn genau wuerde es machen die TMUs von der Serie3 nochmal (eben wie im MBX) zu benutzen?
Oder sind Dir vielleicht genau die Unterschiede zwischen MBX Lite und MBX bekannt?
Ailuros
2006-05-20, 01:09:37
hendrikhey[/POST]']Ging mir nur ums Prinzip. Nicht darum, wie korrekt die Algorithmen sind.
Denn was bringen Dir zig Patente ohne Power sie zu nutzen?
Oder besser:
Was bringen links und rechts tausend Volt, wenn die Lampe in der Mitte nicht angeht.
Und da liegst Du prinzipiell falsch; ein Algorithmus ist zum Teil auch Hardware. Das eine ist nicht unabhaengig vom anderen.
Bis zur 8xx Serie sah mir das Resultat eher nach point sampling TMUs aus, wobei man wahrscheinlich irgend eine verkokste Art von dual-bilinearer Approximation benutzte. Und das meinte ich auch. Wenn ich Zweifel habe dass bei Intel's aelteren IGPs nichtmal korrektes bilinear moeglich war, sollte von AF schon gar nicht die Rede sein. Noch mehr von einer korrekten AF-Implementierung.
Ailuros[/POST]']Bis zur 8xx Serie sah mir das Resultat eher nach point sampling TMUs aus, wobei man wahrscheinlich irgend eine verkokste Art von dual-bilinearer Approximation benutzte. Und das meinte ich auch. Wenn ich Zweifel habe dass bei Intel's aelteren IGPs nichtmal korrektes bilinear moeglich war, sollte von AF schon gar nicht die Rede sein. Noch mehr von einer korrekten AF-Implementierung.Was ist "dual-bilinear" bei dir?
Ailuros[/POST]']Wieviel Sinn genau wuerde es machen die TMUs von der Serie3 nochmal (eben wie im MBX) zu benutzen?
Oder sind Dir vielleicht genau die Unterschiede zwischen MBX Lite und MBX bekannt?Die Unterschiede sind mir nicht bekannt. SGX wird eh neue TMUs haben. Trotzdem ist die finale Texel-Power erheblich von der SGX-Konfiguration abhängig. Afaik gibt es SGX auch als Version, die pro Pixel zwei Takte braucht, also 0,5 Pixel pro Takt fertigstellt.
Ailuros
2006-05-21, 04:10:09
aths[/POST]']Was ist "dual-bilinear" bei dir?
Z.B. point sampling ("only") TMUs, wobei wenn man zwei davon kombiniert etwas bekommt dass verdammt nahe an bilinear erinnert, aber zum verzweifeln verschmiert ist.
Die Unterschiede sind mir nicht bekannt. SGX wird eh neue TMUs haben. Trotzdem ist die finale Texel-Power erheblich von der SGX-Konfiguration abhängig. Afaik gibt es SGX auch als Version, die pro Pixel zwei Takte braucht, also 0,5 Pixel pro Takt fertigstellt.
Wenn Dir die Unterschiede in MBX nicht bekannt sind, dann sehe ich nicht ein wieso sie gerade die TMUs kastrieren wuerden beim SGX. High end Modelle koennten mehr TMUs und mehr ALUs haben. Die-Groesse liegt zwischen 2 und 8mm^2, effektiven Fuellraten von 200 bis 1200MPixels/s und geometry-throughput von 2 bis zu 13.2MTris/s.
Woher kommt jetzt der halbe Pixel pro Takt? SGX510 soll nach IMG's PR Geblubber eine effektive Fuellrate von 200MPixels/s bei 200MHz haben. Eine "halbe" TMU oder was?
AFAIK ist sowohl MBX Lite als auch MBX ein 1*1 config. Dabei ist MBX Lite nur ueber Supersampling faehig und MBX ueber 2xOGMS horizontal + 2xOGSS vertikal (wenn ich mich nicht irre). Vielleicht hilft diese Kleinigkeit auf den richtigen Pfad zu kommen.
Is there any significant advancement in the texture filtering department of PowerVR SGX compared to PowerVR MBX? Although the latter supports anisotropic filtering, considering the limited die space I don't expect much in the way of performance from it; was the integration of a fast adaptive anisotropic filtering possible with this new architecture?
Indeed - off the top of my head I know that trilinear performance in PowerVR SGX is up to 2x MBX... Certainly the performance level makes the feature practical to use - otherwise we'd save the silicon area entirely and just leave it out!
http://www.pvrgenerations.co.uk/cgi-bin/viewarticle.cgi?page=/articles/2005/pvrsgx/pvrsgx&printer=0&pagenum=2
robbitop
2006-05-21, 10:45:47
Ailuros[/POST]']effektiven Fuellraten von 200 bis 1200MPixels/s und geometry-throughput von 2 bis zu 13.2MTris/s.
Woher kommt jetzt der halbe Pixel pro Takt? SGX510 soll nach IMG's PR Geblubber eine effektive Fuellrate von 200MPixels/s bei 200MHz haben. Eine "halbe" TMU oder was?
Und wo kommen den die 1200MPix her? 200MHz bei 6 TMUs? Wer weiß, was PVR mit ihren effektiven Füllraten da rumrechnet.
robbitop[/POST]']Und wo kommen den die 1200MPix her? 200MHz bei 6 TMUs? Wer weiß, was PVR mit ihren effektiven Füllraten da rumrechnet.
TMUs haben mit Pixelfüllraten i.d.R. nicht viel zu tun.
Bokill
2006-05-21, 11:39:00
Ailuros[/POST]']Nicht nur anscheinend; so wie es Peddie praesentiert sieht es danach aus als ob Intel (langfristig) auch am low-end Profi-Markt interessiert ist. 3DLabs ist weg vom Fenster und fuer Matrox sieht die Zukunft auch nicht besonders vielversprechend aus. Low-End Profimarkt?
Intel so etwas wie ein neues Matrox?
Ja das klingt sinnig, für den Bereich hätte Intel genügend Manpower und muss dennoch nicht jeden hastigen 3D-Trend mitmachen, oder gar in Vorhand gehen.
Der Vorteil dabei ist, dass Intel nach wie vor einen guten starken Stand im institutionellen Markt hat. Und ergänzt zudem aufs beste die "Centrino" und neue Businessplattform von Intel.
loewe
2006-05-21, 11:53:05
robbitop[/POST]']Und wo kommen den die 1200MPix her? 200MHz bei 6 TMUs? Wer weiß, was PVR mit ihren effektiven Füllraten da rumrechnet.
Die Untergrenze wird schon stimmen, tut sie bei MBX auch und hat sie auch bei KYRO usw. immer getan.
Der Axim X50v hat einen MBX Lite mit 50MHz. Dieser braucht zwei Takte für einen Pixel respektive Texel, sollte also etwa 25 MPixel schaffen. Ich komme hier auf 23,2 MPixel/sec , also sehr nahe an die Werte.
Das war bei KYRO auch immer so und wird bei PowerVR auch so bleiben, solange nicht andere Faktoren eine Rolle spielen.
Die oberen Werte können durchaus wieder mit irgendwelchen "effektiven Füllraten" zu tun haben, da gebe ich Dir Recht. :)
robbitop
2006-05-21, 13:38:26
Gast[/POST]']TMUs haben mit Pixelfüllraten i.d.R. nicht viel zu tun.
Doch natürlich haben sie das. Ohne TMU's gibt's keine Füllrate. Dass die ROP's hier limitieren können, wenn sie weniger Color pro Takt in den FB schreiben können, als TMUs da sind, ist ja allgemein bekannt, aber hier nicht relevant.
TMUs = Texelfüllrate
ROPs = Pixelfüllrate
So einfach ist das.
robbitop
2006-05-21, 13:57:28
Dennoch sind TMUs nicht unerheblich für die Pixelfüllrate. Bestes Bsp RV530. Der kann theoretisch 8 Farbwerte pro Takt in den Framebuffer schreiben, die TMUs schaffen bestenfalls 4. Die Pixelfüllrate bleibt also bei 4 Pixeln pro Takt. Klar ohne Informationen können Pixel ja schlecht "gefüllt" werden. ;)
Die ROPs limitieren die Pixelfüllrate, die Texelfüllrate nicht.
http://www.beyond3d.com/misc/chipcomp/?view=chipdetails&id=104&orderby=release_date&order=Order&cname=
Da würde ich rauslesen, dass das Ding 4 ROPs hat.
robbitop
2006-05-21, 14:17:55
Das kann sein. Waren es bei ATI nicht seit langem 2x ROPs pro Pipeline (allerdings sorgten die nur für kein Einbrechen bei 2xAA, ohne AA konnten die auch nicht mehr Farbwerte/Z schreiben)? Warum hat man in den R580 eigentlich nicht diese "Doppel-ROPs" eingesetzt? Ohne AA wären dann doch 32xZ/Stencil pro Takt drin.
Das ändert an meiner aber Kernaussage nichts. ;)
Neomi
2006-05-21, 14:20:20
robbitop[/POST]']Dennoch sind TMUs nicht unerheblich für die Pixelfüllrate. Bestes Bsp RV530. Der kann theoretisch 8 Farbwerte pro Takt in den Framebuffer schreiben, die TMUs schaffen bestenfalls 4. Die Pixelfüllrate bleibt also bei 4 Pixeln pro Takt.
Abgesehen von den nur 4 ROPs haben die TMUs tatsächlich gar nichts mit der Pixelfüllrate am Hut. Natürlich kann die theoretische Pixelfüllrate nicht praktisch erreicht werden, solange die TMUs limitieren, aber das hängt stark von der Art des Renderings ab.
Bei einem Z-Pass z.B. werden keine Texturen gesampelt, bis auf wenige Ausnahmen (Alphatest, Z-Wert aus Textur) natürlich. Aber auch ansonsten kann man für bestimmte Sachen völlig ohne Textursampling auskommen. Rein arithmetisch ermittelte Farbwerte gibt es ja auch noch.
Insgesamt gesehen hat die Pixelfüllrate mit der Texelfüllrate genauso viel zu tun wie mit dem Vertexdurchsatz. ;)
robbitop
2006-05-21, 14:36:51
Wenn man Texturen rendert schon. Ansonsten hast du natürlich recht. (ich errinnere gern an die Pixelfüllratentests in entsprechenden Synthies)
Wie auch immer, es ging hier anscheinend nur um Spitzfindigkeiten und wir sind ins OT geraten.
Demirug
2006-05-21, 15:10:01
Neomi[/POST]']Abgesehen von den nur 4 ROPs haben die TMUs tatsächlich gar nichts mit der Pixelfüllrate am Hut.
Aber nur solange man keine von den "neue" Load/Store TMUs hat. Wobei man diese Einheiten dann wohl nicht mehr als TMUs bezeichnen sollte.
robbitop[/POST]'] Spitzwindigkeiten
Spitzfindigkeiten. *SCNR*
Q
Ailuros[/POST]']Z.B. point sampling ("only") TMUs, wobei wenn man zwei davon kombiniert etwas bekommt dass verdammt nahe an bilinear erinnert, aber zum verzweifeln verschmiert ist.Wenn du zwei Pointsamples nimmst, hättest du lineare Filterung. "Dual-Bilinar" wäre vom Wort her eher schon trilineare Filterung.
Ailuros[/POST]']Wenn Dir die Unterschiede in MBX nicht bekannt sind, dann sehe ich nicht ein wieso sie gerade die TMUs kastrieren wuerden beim SGX. High end Modelle koennten mehr TMUs und mehr ALUs haben. Die-Groesse liegt zwischen 2 und 8mm^2, effektiven Fuellraten von 200 bis 1200MPixels/s und geometry-throughput von 2 bis zu 13.2MTris/s.
Woher kommt jetzt der halbe Pixel pro Takt? SGX510 soll nach IMG's PR Geblubber eine effektive Fuellrate von 200MPixels/s bei 200MHz haben. Eine "halbe" TMU oder was?Eine TMU, die für ein Sample zwei Takte braucht?
Ailuros[/POST]']AFAIK ist sowohl MBX Lite als auch MBX ein 1*1 config. Dabei ist MBX Lite nur ueber Supersampling faehig und MBX ueber 2xOGMS horizontal + 2xOGSS vertikal (wenn ich mich nicht irre). Vielleicht hilft diese Kleinigkeit auf den richtigen Pfad zu kommen.Nee, das hilft mir jetzt nicht weiter.
Ailuros[/POST]']http://www.pvrgenerations.co.uk/cgi-bin/viewarticle.cgi?page=/articles/2005/pvrsgx/pvrsgx&printer=0&pagenum=2Bei Texturkomprimierung konnte auch Kyro schon trilinear so schnell wie bilinear filtern.
haifisch1896
2006-05-21, 21:33:31
OT
Rein von der Effizienz her war der Kyro sowieso einer der besten Chips, die es je gab.
TBDR sei Dank.
Wollte ich nur mal gesagt haben.
/OT
Ailuros
2006-05-23, 06:47:36
robbitop[/POST]']Und wo kommen den die 1200MPix her? 200MHz bei 6 TMUs? Wer weiß, was PVR mit ihren effektiven Füllraten da rumrechnet.
IMG's Partner waren und sind erstaunt dass man ihre angegebenen Leistungs-raten auch wirklich in Echtzeit erreichen kann; sowohl die effektiven Fuellraten als auch den Geometrie-throughput.
6 TMUs werden es wohl nicht sein, aber zwischen SGX510 und 530 sind es 2mm^2 und 8mm^2 die-Flaeche, ergo der letztere ist 4x mal so gross. Die Antwort ist dann wohl eher 2 TMUs, wobei der chip intern auch vier mal so viele Pixel pro Takt bearbeiten kann bei maximalem Overdraw.
2TMUs * 200MHz = 400MPixels/s * 3 layers Overdraw = 1.2 GPixels/sec
Wobei leider IHVs immer noch MegaPixel anstatt MegaTexel oefters rechnen, was auch bei NV immer noch der Fall ist.
Was jetzt die 3 layer Overdraw betrifft, besonders viel ist das ja auch nicht fuer heutige Verhaeltnisse.
***edit:
und da theoretische maximale Zahlen verstaendlicherweise stets zu Missverstaendnissen fuehren, ich sag es mal so nimm ein fuellraten-limitiertes Timedemo von Quake3A und lass es einmal auf GoForce5500 bei 200MHz und einmal auf MBX bei 85MHz laufen in 1024*768 (so wurde der GoForce ja vorgestellt) und dann koennen wir ja leicht ausrechnen was "effektive" Fuellraten in Echtzeit heissen und was nicht.
Durchschnittlich 9 fps fuer den 5500 mit bis zu 22 und minimalen 3-4 fps falls es hilft. Und das natuerlich bei bruellenden ~300mW fuer den chip alleine ohne den Speicher :|
Ailuros
2006-05-23, 06:52:23
aths[/POST]']
Bei Texturkomprimierung konnte auch Kyro schon trilinear so schnell wie bilinear filtern.
Ja aber nur in einem einzigen Fall und nicht mit allen Textur-formaten.
Ailuros[/POST]']aber zwischen SGX510 und 530 sind es 2mm^2 und 8mm^2 die-Flaeche, ergo der letztere ist 4x mal so gross.
16x so groß.
Edit: Ach so, ich dachte zuerst du meinst 2x2mm und 8x8mm... Dann natürlich doch nur 4x so groß.
robbitop
2006-05-23, 10:14:26
@AiL
danke für die Erläuterung :)
loewe
2006-05-24, 17:26:40
Wie auch immer, die hier genannten Desktop Kerne werden AiL zu Ehren Muse und Athena genannt! ;D ;D ;D
http://www.imgtec.com/Investors/Presentations/Prelim06/index.asp?Slide=24
Eine zeitliche Einordnung fällt schwer, aber ich denke mal so etwa in einme Jahr sollten wir darüber mehr wissen! :)
Thowe
2006-05-24, 22:06:49
loewe[/POST]']Wie auch immer, die hier genannten Desktop Kerne werden AiL zu Ehren Muse und Athena genannt! ;D ;D ;D
http://www.imgtec.com/Investors/Presentations/Prelim06/index.asp?Slide=24
Eine zeitliche Einordnung fällt schwer, aber ich denke mal so etwa in einme Jahr sollten wir darüber mehr wissen! :)
Ach, was ist schon 1 Jahr, wieviele warten wir schon? ;(
Naja, hoffe meine 7900GT hält solange.
Ailuros
2006-05-25, 00:14:54
loewe[/POST]']Wie auch immer, die hier genannten Desktop Kerne werden AiL zu Ehren Muse und Athena genannt! ;D ;D ;D
http://www.imgtec.com/Investors/Presentations/Prelim06/index.asp?Slide=24
Eine zeitliche Einordnung fällt schwer, aber ich denke mal so etwa in einme Jahr sollten wir darüber mehr wissen! :)
Much to my a-muse-ment :biggrin:
AnarchX
2006-08-16, 20:25:22
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&trurl=http%3a%2f%2fwww.pcpop.com%2fdoc%2f0%2f150%2f150690.shtml
(Babelfish-Übersetzung)
Ein Lebenszeichen?
Anarchy-HWLUXX
2006-08-17, 12:35:50
Beim Inq. gibbet auch nen beitrag zu dem Thema ...
http://uk.theinquirer.net/?article=33720
Sie hatten recht beim AMD-ATi merger, wieso nicht auch hierbei ...
loewe
2006-08-17, 14:23:44
Beim Inq. gibbet auch nen beitrag zu dem Thema ...
http://uk.theinquirer.net/?article=33720
Sie hatten recht beim AMD-ATi merger, wieso nicht auch hierbei ...
"Wo viel Rauch ist, da ist auch Feuer!"
Die Richtung wird schon stimmen in die hier spekuliert wird. :)
Thowe
2006-08-17, 14:28:31
"Wo viel Rauch ist, da ist auch Feuer!"
Die Richtung wird schon stimmen in die hier spekuliert wird. :)
Eben, erklärt auch endlich diese unsäglichen white papers.
AnarchX
2006-08-17, 15:00:13
Intel strebt nach High-Performance Grafik
Der Prozessorexperte Intel scheint in Zukunft sein Engagement im Grafikbereich verstärken zu wollen. So hat er in seinen Jobangeboten Stellen für Software- und Hardware-Ingenieure ausgeschrieben, die sich mit Grafikdesigns bestens auskennen. So zählt das Unternehmen zu den Anforderungen sowohl sichere Kenntnisse in 2D, 3D, OpenGL und MPEG-Standards als auch Erfahrungen mit Treiberprogrammierung für Windows und Linux. Weiterhin gibt das Unternehmen an, dass man eine weitere Entwicklungsgruppe für High-Performance-Graphics auf die Beine stellen wolle, für die die genannten Bewerber gesucht werden. Erste Spekulationen rechnen nun offenbar damit, dass Intel vorhat, sich im Highend-Grafikkarten-Markt zu positionieren, nachdem Konkurrent AMD sich erfolgreich die kanadische Grafikschmiede ATI einverleibt hat.
The Larrabee Development Group (LDG) has the mission to establish the future of computing for high throughput workloads. Our initial products are focused on high performance graphics and visual computing. LDG offers a start-up environment with a passionate, experienced team of professionals possessing a clear vision and broad corporate support. [...]
http://www.hardtecs4u.com/?id=1155813693,74334,ht4u.php
malle
2006-08-17, 19:44:41
http://www.hardtecs4u.com/?id=1155813693,74334,ht4u.php
Das ist doch schonmal ein Fingerzeig. AMD investiert knapp 5 Mrd US Dollar dafür und bekommt ein fertiges Grafikunternehmen, Intel muss dafür ordentlich powerden... mal sehen was NV jetzt macht.
Sich mit VIA kurz schließen und CPUs powern?
Ailuros
2006-08-17, 20:54:09
Das ist doch schonmal ein Fingerzeig. AMD investiert knapp 5 Mrd US Dollar dafür und bekommt ein fertiges Grafikunternehmen, Intel muss dafür ordentlich powerden... mal sehen was NV jetzt macht.
Sich mit VIA kurz schließen und CPUs powern?
Intel muss voruebergehend gar nichts. Sie verkaufen immer noch die meisten IGPs insgesamt (egal wie mies diese von Zeit zu Zeit sind) und AMD brauchte unbedingt einen Fuss im chipset Markt um mit Intel besser konkurrieren zu koennen.
Im gegebenen Fall ist es AMD die momentan aufholen und nicht andersrum. Ob Intel wirklich ein Interesse fuer standalone GPUs zeigen wird oder nicht ist ein anderes Kapitel und steht fuer mich immer noch in den Sternen und erst recht was high end graphics betrifft. Auf jeden Fall wenn es so weit kommt hat es ueberhaupt nichts mit AMDs Entscheidung ATI aufzukaufen zu tun.
Wenn was dahinter steckt dann macht es Intel erstmal nicht zu 100% alleine; dann wird wohl eher IMG IP eingesetzt und derartige Verhandlungen haben auch nicht gestern begonnen oder im letzten Jahr angefangen. Es gibt hier kein Henne/Ei Dilemma weder von Intel's noch von AMD's Perskeptive. Oder anders AMD haette ATI auch gekauft wenn Intel Grafik total aufgegeben haette und falls Intel tatsaechlich mit GPUs ankommt dann auf keinen Fall weil AMD ploetzlich ATI gekauft hat.
malle
2006-08-17, 22:03:33
Intel muss voruebergehend gar nichts. Sie verkaufen immer noch die meisten IGPs insgesamt (egal wie mies diese von Zeit zu Zeit sind) und AMD brauchte unbedingt einen Fuss im chipset Markt um mit Intel besser konkurrieren zu koennen.
Im gegebenen Fall ist es AMD die momentan aufholen und nicht andersrum. Ob Intel wirklich ein Interesse fuer standalone GPUs zeigen wird oder nicht ist ein anderes Kapitel und steht fuer mich immer noch in den Sternen und erst recht was high end graphics betrifft. Auf jeden Fall wenn es so weit kommt hat es ueberhaupt nichts mit AMDs Entscheidung ATI aufzukaufen zu tun.
Wenn was dahinter steckt dann macht es Intel erstmal nicht zu 100% alleine; dann wird wohl eher IMG IP eingesetzt und derartige Verhandlungen haben auch nicht gestern begonnen oder im letzten Jahr angefangen. Es gibt hier kein Henne/Ei Dilemma weder von Intel's noch von AMD's Perskeptive. Oder anders AMD haette ATI auch gekauft wenn Intel Grafik total aufgegeben haette und falls Intel tatsaechlich mit GPUs ankommt dann auf keinen Fall weil AMD ploetzlich ATI gekauft hat.
Warum sollte Intel sonst High End machen...?
Wo muss den AMD Aufholen...?
Sie haben doch jetzt alles. Sie müssen es jetzt nur richtig einbauen. Aufholen müssen Sie nichts. Ich rede nicht von Absatzzahlen sondern vom Wissen und dem erfolgreichen Forschen und Entwickeln von HighEnd Grafik.
Intel reagiert auf AMD, dass kann wohl kaum geleugnet werden.
Ailuros
2006-08-18, 06:22:18
Warum sollte Intel sonst High End machen...?
Ich glaube erst dass Intel wahre high end GPUs herstellt wenn ich sie sehe.
Wo muss den AMD Aufholen...?
Wieviele (eigen entwickelte) chipsets bzw. IGPs hatt den AMD bisher verkauft?
Sie haben doch jetzt alles. Sie müssen es jetzt nur richtig einbauen. Aufholen müssen Sie nichts.
Netter Widerspruch in den letzten zwei Saetzen.
Ich rede nicht von Absatzzahlen sondern vom Wissen und dem erfolgreichen Forschen und Entwickeln von HighEnd Grafik.
Womit sich aber Intel IMHO nicht beschaeftigen wird. Wenn sie ueberhaupt je GPUs vorstellen werden, wette ich eher auf budget/mainstream Zeug.
Intel reagiert auf AMD, dass kann wohl kaum geleugnet werden.
Eben nicht. Die Besprechungen intern bei Intel sind aelter als Du Dir vorstellen kannst.
haifisch1896
2006-08-18, 20:32:45
Eben nicht. Die Besprechungen intern bei Intel sind aelter als Du Dir vorstellen kannst.
Ich wette, die Pläne für diese Generation der IGP waren schon in Arbeit, bevor die letzte Generation überhaupt in den Handel kam.
Zum Thema IMG Tec. IP in Chipsätze:
Ich denke, die werden den MBX für so kleine Sachen wie nen Taschencomputer á la Palm brauchen und den SGX (verbessert mich, wenn ich den Namen durcheinander bringe) für so Zeugs wie Ultra-Low-Notebooks. Mir fällt der Name davon gerade nicht ein.
Tigerchen
2006-08-19, 14:55:52
Intel strebt nach High-Performance Grafik
Der Prozessorexperte Intel scheint in Zukunft sein Engagement im Grafikbereich verstärken zu wollen. So hat er in seinen Jobangeboten Stellen für Software- und Hardware-Ingenieure ausgeschrieben, die sich mit Grafikdesigns bestens auskennen. So zählt das Unternehmen zu den Anforderungen sowohl sichere Kenntnisse in 2D, 3D, OpenGL und MPEG-Standards als auch Erfahrungen mit Treiberprogrammierung für Windows und Linux. Weiterhin gibt das Unternehmen an, dass man eine weitere Entwicklungsgruppe für High-Performance-Graphics auf die Beine stellen wolle, für die die genannten Bewerber gesucht werden. Erste Spekulationen rechnen nun offenbar damit, dass Intel vorhat, sich im Highend-Grafikkarten-Markt zu positionieren, nachdem Konkurrent AMD sich erfolgreich die kanadische Grafikschmiede ATI einverleibt hat.
The Larrabee Development Group (LDG) has the mission to establish the future of computing for high throughput workloads. Our initial products are focused on high performance graphics and visual computing. LDG offers a start-up environment with a passionate, experienced team of professionals possessing a clear vision and broad corporate support. [...]
Könnte es nicht sein daß sie erstmal Leute brauchen um die neue, verbugte IGP des 965-Chipset in einen brauchbaren Zustand zu versetzen?
AnarchX
2006-08-19, 15:01:06
Könnte es nicht sein daß sie erstmal Leute brauchen um die neue, verbugte IGP des 965-Chipset in einen brauchbaren Zustand zu versetzen?
Inweiweit kannst du beurteilen, dass er verbugt ist?
Wenn du dich auf diese Vorabbenchmarks beziehst, dann solltest du mittlerweile doch mitbekommen haben, dass diese mit Treibern gemacht wurden die noch weit vom Auslieferungsstand entfernt sind und elementare Funktionen noch nicht aktiv waren.
Thowe
2006-08-19, 15:47:28
Könnte es nicht sein daß sie erstmal Leute brauchen um die neue, verbugte IGP des 965-Chipset in einen brauchbaren Zustand zu versetzen?
Intel nimmt Bugs sehr genau und dokumentiert alles, erstaunlich nur, das diesmal in den passenden Papers gar nichts auftaucht.
Tigerchen
2006-08-19, 17:44:51
Inweiweit kannst du beurteilen, dass er verbugt ist?
Wenn du dich auf diese Vorabbenchmarks beziehst, dann solltest du mittlerweile doch mitbekommen haben, dass diese mit Treibern gemacht wurden die noch weit vom Auslieferungsstand entfernt sind und elementare Funktionen noch nicht aktiv waren.
Auf den zum Erscheinen des Core-2-Duo-Prozessors angekündigten G965-Chipsatz jedenfalls muss man immer noch warten - man hört von Problemen mit dem Grafik-Kern GMA X3000.
http://www.heise.de/ct/06/18/038/
Da steht was vom Grafikkern. Treiber? Wirklich?
AnarchX
2006-08-19, 19:03:29
Auf den zum Erscheinen des Core-2-Duo-Prozessors angekündigten G965-Chipsatz jedenfalls muss man immer noch warten - man hört von Problemen mit dem Grafik-Kern GMA X3000.
http://www.heise.de/ct/06/18/038/
Da steht was vom Grafikkern. Treiber? Wirklich?
http://www.computerbase.de/news/hardware/chipsaetze/intel/2006/august/erste_g965-benchmarks_haken/
;)
robbitop
2006-08-20, 00:44:57
http://www.computerbase.de/news/hardware/chipsaetze/intel/2006/august/erste_g965-benchmarks_haken/
;)
LOL CB behauptet, dass es auf dem SGX basiert. Das ist doch noch gar nicht klar und vieles spricht bisher dagegen. Schön, wenn man Gerüchte als Wahrheit verkaufen kann..
Naja das kann man sehr einfach feststellen, einfach ein Overdraw Programm laufen lassen und den Back-to-Front Mode mit dem Front-to-Back Mode vergleichen und schon wird glasklar, ob das ein PVR Design ist oder nicht.
Tigerchen
2006-08-20, 09:01:14
http://www.computerbase.de/news/hardware/chipsaetze/intel/2006/august/erste_g965-benchmarks_haken/
;)
Das ist auch nur eine Behauptung die er eigentlich nicht belegen kann. Vielleicht hat Heise da den besseren Riecher?
Überhaupt scheint der ganze Chipsatz völlig verbugt zu sein. BIOS'e die nicht starten, Startknöpfe die nicht zur Kenntnis genommen werden und Markenspeicher der nicht funktioniert. Schöne heile Conroewelt?
loewe
2006-08-20, 18:26:36
LOL CB behauptet, dass es auf dem SGX basiert. Das ist doch noch gar nicht klar und vieles spricht bisher dagegen. Schön, wenn man Gerüchte als Wahrheit verkaufen kann..
Ich verstehe diese Behauptung nicht, 965G basiert definitiv nicht auf PowerVR Technologie sondern ist eine Eigenentwicklung von intel.
Im not able to confirm where they [Intel] are using it, which is perhaps why these rumours have started. I can, however, certainly say that the upcoming Intel integrated parts aren't PowerVR based.
Aus: http://www.pcpro.co.uk/news/91691/powervr-returns-to-the-pc.html
David Harold sagt das nicht einfach so, wenn er selbst die Anwesenheit von PowerVR in 965G verneint, dann ist das so. :)
Naja das kann man sehr einfach feststellen, einfach ein Overdraw Programm laufen lassen und den Back-to-Front Mode mit dem Front-to-Back Mode vergleichen und schon wird glasklar, ob das ein PVR Design ist oder nicht.
Das wäre sicher eine einfache Lösung! :)
Mit der anderen Aussage hat CB aber Recht, erst der Treiber 14.25 wird in Hardware alles unterstützen, jeder Test vorher sollte mit viel Vorsicht behandelt werden. Es ist durchaus möglich, dass diese intel Grafik gar nicht so schlecht ist, wie sie gegenwärtig dargestellt wird.
robbitop
2006-08-20, 19:39:10
Ich verstehe diese Behauptung nicht, 965G basiert definitiv nicht auf PowerVR Technologie sondern ist eine Eigenentwicklung von intel.
Das denke ich nämlich auch. Die müßten viel zu viel Lizenzgebühren an IMG zahlen bei den Absätzen, die sie an IGPs machen (wo die Leistung eh nur sekundär ist). Bei den MUSE Dingern nutzen sie dann wohl eher PVR IP.
Es ist durchaus möglich, dass diese intel Grafik gar nicht so schlecht ist, wie sie gegenwärtig dargestellt wird.
Sie wird zuersteinmal kompatibler, was ja die große Archillisferse der vorherigen intel IGPs war. Vieleicht kommt ja auch noch ein deutliches Speedup hinzu. Aber es ist eben nur eine IGP und "Wunder" könnte dort IMO nur ein TBDR vollbringen. *gg*
loewe
2006-08-20, 19:56:53
Das denke ich nämlich auch. Die müßten viel zu viel Lizenzgebühren an IMG zahlen bei den Absätzen, die sie an IGPs machen (wo die Leistung eh nur sekundär ist). Bei den MUSE Dingern nutzen sie dann wohl eher PVR IP.
Ich halte eine Verwendung von PowerVR Technologie in intel IGPs nicht für unmöglich, bei etwa 50 Cent je Chip wäre es sicher auch bezahlbar wenn das Ergebnis entsprechend wäre.
Aber es ist nicht 965G!
Ich hatte mal vor einiger Zeit die Frage nach PowerVR in intel IGPs gestellt, die Antwort hieß zuerst "welcher Chipsatz" und dann nach meiner Vermutung 965G war die Antwort "zu früh". Das deutet doch darauf hin, dass hier noch nicht alle Messen gesungen sind.
MUSE ist aber etwas ganz anderes. :)
Sie wird zuersteinmal kompatibler, was ja die große Archillisferse der vorherigen intel IGPs war. Vieleicht kommt ja auch noch ein deutliches Speedup hinzu. Aber es ist eben nur eine IGP und "Wunder" könnte dort IMO nur ein TBDR vollbringen. *gg*
Wunder können TBDRs auch nicht vollbringen und ich würde es auch nicht allgemein an TBDR festmachen, es geht schon sehr speziell um PowerVR. Auch wenn wir nicht wirklich einen anderen TBDR kennen. *g*
Thowe
2006-08-20, 20:05:14
...
Wunder können TBDRs auch nicht vollbringen und ich würde es auch nicht allgemein an TBDR festmachen, es geht schon sehr speziell um PowerVR. Auch wenn wir nicht wirklich einen anderen TBDR kennen. *g*
Darauf würde ich nicht wetten wollen, ich glaube in diesem Fall durchaus an machbare Wunder, womit es wiederum gar keine wären.
robbitop
2006-08-20, 20:27:02
Ich halte eine Verwendung von PowerVR Technologie in intel IGPs nicht für unmöglich, bei etwa 50 Cent je Chip wäre es sicher auch bezahlbar wenn das Ergebnis entsprechend wäre.
Tja das summiert sich bei Millionen von verkauften Einheiten. Da müsste man schauen, wie teuer das eigene F&E ggü dem Fremd F&E wäre bei so vielen Einheiten.. Die Performance ist in dem Markt auch nicht ausschlaggebend, sonst wäre sicher NV oder ATI im IGP Bereich Marktführer und nicht Intel.
Das deutet doch darauf hin, dass hier noch nicht alle Messen gesungen sind.
Das wäre ja toll!! Aber Serie6 wäre das dann sicher nichtmehr, da im Nachfolger-intel-chipset schlichtweg veraltet (Intel bringt ja ca im 2 Jahrestakt eine IGP)
MUSE ist aber etwas ganz anderes. :)
MUSE soll in Grafikkarten verbaut werden. Davon setzt man natürlich weniger ab.
Wunder können TBDRs auch nicht vollbringen
Gerade du müßtest noch viel besser wissen als ich, dass bei extrem begrenztem Transistorbudget und extrem begrenzter Bandbreite ein TBDR immer am besten funktioniert. Siehe PDAs und Konsolen. Und bei gleichem Transistorbudget die Konkurenz um den Faktor 2x wegzuhauen, was eine vergleichbare PVR IGP sicher könnte, ist in diesem Markt schon (fast) ein Wunder. X-D
turboschlumpf
2006-08-20, 21:09:00
Sollen in den G- und Q-Chipsäten nicht komplett verschiedene IGPs verbaut sein?
Ailuros
2006-08-21, 07:06:10
LOL CB behauptet, dass es auf dem SGX basiert. Das ist doch noch gar nicht klar und vieles spricht bisher dagegen. Schön, wenn man Gerüchte als Wahrheit verkaufen kann..
Naja das kann man sehr einfach feststellen, einfach ein Overdraw Programm laufen lassen und den Back-to-Front Mode mit dem Front-to-Back Mode vergleichen und schon wird glasklar, ob das ein PVR Design ist oder nicht.
David Harold (PR Manager von IMG) hat dieses offiziell verneint.
Ailuros
2006-08-21, 07:28:47
Das wäre ja toll!! Aber Serie6 wäre das dann sicher nichtmehr, da im Nachfolger-intel-chipset schlichtweg veraltet (Intel bringt ja ca im 2 Jahrestakt eine IGP)
Eurasia sollte eigentlich (IMO) Serie6 heissen. Die originale Serie5 (PC/Arcade/Console) war nach meinem Verstaendnis weder ein USC noch wurde so viel multi-/superthreading benutzt. Auf Anhieb moegen die Unterschiede manchen als "klein" klingen, aber wenn man bedenkt wie gut die Effizienz bei einem gut ausgedachtem USC steigern kann, ist der Unterschied nicht so klein am Ende und wuerde IMO voll eine neue Generation verdienen.
Was heisst denn ueberhaupt veraltet? Steht in 2007 oder sogar 2008 eine fundamentale API-Aenderung vor der Tuer die ich verpasst habe? Was den Geometrie-Schnickschnack betrifft duerfte sogar D3D10+2 ueberdeckt sein; und bevor es jemand sagt ich kann mir schwer vorstellen dass die Mehrzahl der benoetigten Aenderungen fuer zumindest +1 nicht schon drinstecken, ueberhaupt da manche Faelle problematisch fuer einen TBDR sein koennten.
Von state changes und/oder buffering in >D3D10 wurde ja schon oefters geplaudert. Dabei war in der Vergangenheit die Aenderung des Blockdiagrams von SGX kein Zufall, da man eben den staerkeren Zusatz von Metagence IP betonen wollte, selbst indirekt.
IMG hat nicht vor ihren Vorteil im PDA/mobile Markt so schnell herzugeben. Bis zu einem gewissen Grad wird man wohl die Basis-Architektur von Eurasia nach oben skalieren koennen. Je mehr die Zeit vergeht, heisst dass dann eben kleinere Herstellungsprozesse, mehr Einheiten, hoehere Taktraten, aber nicht unbedingt Aenderungen was die Architektur betrifft.
Thowe
2006-08-21, 07:44:09
David Harold (PR Manager von IMG) hat dieses offiziell verneint.
Ich glaube der Baron hats schon passend getroffen. Im gewissen Sinne hat David gar nichts verneint, was die Frage aufwirft, wie genau drückt sich der Mann ansonnsten aus.
3dlabs Entwickler gehen zu Intel: >klick< (http://theinquirer.net/default.aspx?article=33812)
loewe
2006-08-21, 19:52:24
Ich glaube der Baron hats schon passend getroffen. Im gewissen Sinne hat David gar nichts verneint, was die Frage aufwirft, wie genau drückt sich der Mann ansonnsten aus.
David ist sehr genau mit dem was er sagt, ich rede mit ihm schon seit vielen Jahren und er drückt sich immer sehr exakt aus.
Ich habe ihn heute nachmittag noch einmal um eine Bestätigung bzgl. 965G gebeten und er hat eindeutig bestätigt das intels 965G keine PowerVR Technologie enthält.
Thowe
2006-08-21, 19:57:47
...
eindeutig bestätigt das intels 965G keine PowerVR Technologie enthält.
In dem Fall bleibt nur über, das INTEL Patente von PowerVR verletzt oder auf die ein oder andere Art Rechte an diesen besitzt.
Demirug
2006-08-21, 21:14:56
In dem Fall bleibt nur über, das INTEL Patente von PowerVR verletzt oder auf die ein oder andere Art Rechte an diesen besitzt.
Wenn überhaupt ist die Shadereinheit von einem P10/P20 übernommen. Wahrscheinlicher ist allerdings das es ein Derivat einer SSE Einheit ist.
stav0815
2006-08-21, 22:26:49
Wahrscheinlicher ist allerdings das es ein Derivat einer SSE Einheit ist.
Das riecht für mich nach Murks².
Ailuros
2006-08-22, 06:41:51
In dem Fall bleibt nur über, das INTEL Patente von PowerVR verletzt oder auf die ein oder andere Art Rechte an diesen besitzt.
Wieso?
Ich glaube der Baron hats schon passend getroffen. Im gewissen Sinne hat David gar nichts verneint, was die Frage aufwirft, wie genau drückt sich der Mann ansonnsten aus.
Fuer mich war die Aussage ziemlich eindeutig. Wenn jemand sagt dass G965 kein PVR IP enthaelt, sehe ich nicht ein wo da noch Platzt bleibt fuer andere Interpretationen.
Thowe
2006-08-22, 07:38:48
Aus was schließt du das?
Das war viel zu spitz formuliert, letztendlich könnte das eh erst ein Gericht feststellen. Aber zumindestens von der Marketingabteilung von imgtec haben sie fleissig abgeschrieben, hätten sie es nicht, würde wohl auch weniger Leute davon ausgehen das es stimmen könnte.
Wenn überhaupt ist die Shadereinheit von einem P10/P20 übernommen. Wahrscheinlicher ist allerdings das es ein Derivat einer SSE Einheit ist.
Ich, für mich, bezweifel das selbst INTEL dann so mutig wäre, den Chip: "This enhanced graphics core provides performance on par with mainstream graphics card solutions that would typically cost significantly more" in ihren Product-Brief zu schrieben.
Das würde bedeuten, das INTEL Ingenieure plötzlich echte Grafikhardware hinbekommen oder aber, das die in Februar übernommenen 3DLabs Leute auch Hardware mitgebracht haben, die sie schon ein paar Tage später in Chips giessen konnten.
Sicherlich, man könnte auch eine GeForce 6200 als Mainstream beziffern und anführen, das diese im Gegensatz zu einem vielleicht 5 Dollar teueren Chip natürlich deutlich mehr kostet. Aber in ihrer Flash-Animation zielten sie auch deutlich auf den Gamer-Markt ab und das wäre, aus meiner Sicht, sehr mutig, wenn man von konstanten Entwicklung am Markt ausgeht an benötigter Mehrperformance und nicht vergisst wie lange der G965 am Markt leben wird.
Gibt logischerweise auch noch Möglichkeiten wie die, das INTEL von 3DLABS schon im Vorfeld Rechte o. Ä. gekauft hat. Wer weiß das schon.
... Fuer mich war die Aussage ziemlich eindeutig. Wenn jemand sagt dass G965 kein PVR IP enthaelt, sehe ich nicht ein wo da noch Platzt bleibt fuer andere Interpretationen.
Für mich bedingt auch, aber noch sind wir hier im Spekulationsforum ;)
Wenn wir jetzt feststellen, das da nichts von imgtec drin ist (nicht mal die kleinste Idee), dann können wir aufhören zu spekulieren. Wobei ich glaube, das ich die Aussage schon richtig verstanden habe.
loewe
2006-08-22, 09:20:57
Für mich bedingt auch, aber noch sind wir hier im Spekulationsforum ;)
Wenn wir jetzt feststellen, das da nichts von imgtec drin ist (nicht mal die kleinste Idee), dann können wir aufhören zu spekulieren. Wobei ich glaube, das ich die Aussage schon richtig verstanden habe.
Warum sollten wir hier aufhören? ;)
Eigentlich ging es hier doch viel mehr um das was was wir im Moment unter MUSE laufen lassen.
Ich denke persönlich schon, dass wir im nächsten Jahr wieder PC Grafik auf Basis von PowerVR IP sehen werden.
Thowe
2006-08-22, 10:00:01
Warum sollten wir hier aufhören? ;)
Eigentlich ging es hier doch viel mehr um das was was wir im Moment unter MUSE laufen lassen.
Ich denke persönlich schon, dass wir im nächsten Jahr wieder PC Grafik auf Basis von PowerVR IP sehen werden.
Wenn meine Vermutung richtig ist, die ich hier gar nicht zum besten geben will, dann würde ich meinee NVIDIA-Aktien verkaufen, sofern ich denn welche hätte. :D
Was weiss man denn über Muse bzw. was wird darunter vermutet?
stav0815
2006-08-22, 12:10:32
Wenn meine Vermutung richtig ist, die ich hier gar nicht zum besten geben will, dann würde ich meinee NVIDIA-Aktien verkaufen, sofern ich denn welche hätte. :D
Was weiss man denn über Muse bzw. was wird darunter vermutet?
Demnach ist MUSE ein PC Desktop Chipsatz mit D3D10 Fähigkeiten (da erst im nächsten Jahr erscheinend...) mit IMG Technologie von Intel für... ja... hm... Mid-Range? High-End? Ich tippe mal schnellstens auf Mid-Range.
Demnach ist MUSE ein PC Desktop Chipsatz mit D3D10 Fähigkeiten (da erst im nächsten Jahr erscheinend...) mit IMG Technologie von Intel für... ja... hm... Mid-Range? High-End? Ich tippe mal schnellstens auf Mid-Range.
Sozusagen als Überbrückung bis man sowas selber kann (siehe diese 3DLabs-Ingeneure-Geschichte...). Das würde durchaus Sinn machen.
Thowe
2006-08-22, 13:54:39
Demnach ist MUSE ein PC Desktop Chipsatz mit D3D10 Fähigkeiten (da erst im nächsten Jahr erscheinend...) mit IMG Technologie von Intel für... ja... hm... Mid-Range? High-End? Ich tippe mal schnellstens auf Mid-Range.
Ich tippe mal auf schneller als Mid-Range, ausgehend davon, das weder der Core2 noch die Grafik viel Speicherbandbreite benötigt, imgtec mit absoluter Sicherheit alleine auf Grund der PDA/Handy Geschichten noch mehr hier optimiert hat, im Vergleich zur Kyro und ein TBR gerade mit steigenden Details seine Vorteile gegen einen IMR erzielt.
Sozusagen als Überbrückung bis man sowas selber kann (siehe diese 3DLabs-Ingeneure-Geschichte...). Das würde durchaus Sinn machen.
Ich weiß nicht so recht was ich von der Geschichte halten soll, außer, das INTEL in den WS-Grafik-Bereich Fuß fassen will (wäre nicht das erste mal). Ich glaube hier nicht unbedingt an eine Entwicklung die auf IGPs hindeutet.
stav0815
2006-08-22, 17:25:48
Ich tippe mal auf schneller als Mid-Range, ausgehend davon, das weder der Core2 noch die Grafik viel Speicherbandbreite benötigt, imgtec mit absoluter Sicherheit alleine auf Grund der PDA/Handy Geschichten noch mehr hier optimiert hat, im Vergleich zur Kyro und ein TBR gerade mit steigenden Details seine Vorteile gegen einen IMR erzielt.
Nein, das glaube ich nicht. Immerhin stecken nVidia undATi Milliarden in F&E und das seit Jahren, da kommt nichtmal kurz Intel mit nem Design und stellt sich ins High-End Segment.
XGI und S3 haben/hatten mehr Erfahrung damit und sind (zumindest was XGI betrifft) auf die Schnauze gefallen.
The_Invisible
2006-08-22, 17:55:54
Nein, das glaube ich nicht. Immerhin stecken nVidia undATi Milliarden in F&E und das seit Jahren, da kommt nichtmal kurz Intel mit nem Design und stellt sich ins High-End Segment.
XGI und S3 haben/hatten mehr Erfahrung damit und sind (zumindest was XGI betrifft) auf die Schnauze gefallen.
möglich ist zwar alles, aber ich glaubs auch nicht das intel auf einmal dahergelaufen kommt und oben mitmischen kann. da müssten sie sie ja was equalantes zu SLI/CF haben
mfg
loewe
2006-08-22, 18:07:32
Nein, das glaube ich nicht. Immerhin stecken nVidia undATi Milliarden in F&E und das seit Jahren, da kommt nichtmal kurz Intel mit nem Design und stellt sich ins High-End Segment.
XGI und S3 haben/hatten mehr Erfahrung damit und sind (zumindest was XGI betrifft) auf die Schnauze gefallen.
Es wäre zwar schon intel, die da mit neuer PC Grafik kommen, aber der Kern wäre dann PowerVR Serie 5 und PowerVR ist durchaus in der Lage "mal eben" ein Mid-Range Design zu bringen.
Was wissen wir über Muse?
Es gibt da diese Aussage:
"Some very good demo's yesterday including the 8 pipe series 5 PC card which was there to demonstrate series 5 technology. Kristof claimed this tech was 50% faster than anything the competition as currently capable of...."
stammt aus einem Investoren Forum und ist bei B3D zu finden: http://www.beyond3d.com/forum/showthread.php?t=32275.
Wenn wir das jetzt mal so hinnehmen wie es dort steht, also ohne weitere Interpretationen bzgl. der 8 pipes, dann behauptet Kristof (Beets) das diese PC Karte 50% schneller ist als alles was ATI und NV gegenwärtig haben.
Ich denke schon das das für Mid-Range auch 2007 reichen wird. Das wir es mit D3D10 kompatibler Grafik zu tun haben, brauchen wir nicht weiter zu diskutieren.
BTW, ich vertraue Kristof auf jeden Fall genauso wie David was ihre Aussagen anbelangt, wenn er es denn so gesagt hat.
Intel würde damit in die Lage versetzt natürlich wie auch AMD/ATI 3in1 Angebote zu bringen und gerade wenn ich an Viiv denke wären sicher Grafikkarten mit kleiner Verlustleistung und somit wenig Abwärme aus eigener Produktion auch erstrebenswert.
stickedy
2006-08-22, 18:34:32
möglich ist zwar alles, aber ich glaubs auch nicht das intel auf einmal dahergelaufen kommt und oben mitmischen kann. da müssten sie sie ja was equalantes zu SLI/CF haben
Du meinst vermutlich "äquivalent". Nun ja, das ist nun wirklich keine Kunst, AFR und SFR sind im Prinzip zwei sehr simple Techniken. Dahinter steckt zwar ein etwas größerer Aufwand bei der Treiber-Programmierung, da man das im Prinzip für jede Anwendung individuell aktivieren/deaktivieren muss, aber das ist jetzt nicht wirklich das Problem imho - zumindest nicht, wenn man fähige Treiber-Entwickler. Und die hat PowerVR ja zweifelslos...
malle
2006-08-22, 19:36:38
Alleine der Gedanke für Dell und Co. alles aus einer Hand anzubieten und das auch für versierte Heimanwender macht das ganze doch sehr real.
Intel CPU, Intel Chipsatz und Intel Graka Dx10 sind sicher für viele Dell Kunden Attraktiv.
AnarchX
2006-08-22, 19:38:28
Alleine der Gedanke für Dell und Co. alles aus einer Hand anzubieten und das auch für versierte Heimanwender macht das ganze doch sehr real.
Intel CPU, Intel Chipsatz und Intel Graka Dx10 sind sicher für viele Dell Kunden Attraktiv.
Wobei das AMD(ATi) auch in der näheren Zukunft bieten wird, deshalb gerät Intel nun wohl etwas in Zugzwang.
malle
2006-08-22, 19:51:24
Wobei das AMD(ATi) auch in der näheren Zukunft bieten wird, deshalb gerät Intel nun wohl etwas in Zugzwang.
Ja, das hatte ich ja weiter oben schon Ausgeführt. Da kamen dann aber Leute daher und meinen, dass AMD eher auf Intel reagiert... ;) ;D
Daher frage ich mich die ganze Zeit, was NV jetzt machen wird.
Dennen bleibt ja nur drei Möglichkeiten.
1- so wie jetzt solo bleiben und sich auf GPUs konzentrieren
2- sich Intel anbiedern und mit dennen zusammen gehen
3- sich mit S3/VIA zusammen tun und CPUs,Chipsatz und GPUs zu machen
zu 1:
Sollte NV das machen und Intel wie angenommen nun auch im oberen GPU einsteigen, wird NV bald das Geld ausgehen, denn der OEM Markt wird dann ab 2009/2010 für sie zu sein und der retailmarkt wird nicht Ausreichen.
zu 2:
Intel hat schon gute Lizensen und kann diese auch weiter Asubauen. Dazu kann Intel jederzeit den Lizensgeber jetzt günstig übernehmen oder "Eingliedern". Hier wird NV kaum zum Zug kommen.
zu 3:
Das wäre wohl, für mich auch am liebsten, die beste Variante.
Sie hätten dann ein drittes System geschaffen neben den Intel und AMD Plattformen. Bei Chipsätzen und GPUs sicher Top und dazu mit guten Verträgen im OEM und Retail Markt. Diese könnten dann durch die dritte neue Plattform auch gehalten werden oder gar Ausgebaut werden. Was fehlt, wäre die gute CPU. diese wäre aber mit VIA/S2(Cyric) und NV im bereich des möglichen.
stickedy
2006-08-22, 19:59:54
Daher frage ich mich die ganze Zeit, was NV jetzt machen wird.
Ein Problem haben. Ich denk mal, nVidia wird irgendwann zu nem Nischenhersteller, der sich auf GPUs konzentriert. Die Frage ist nur, ob das zum Überleben reicht.
3- sich mit S3/VIA zusammen tun und CPUs,Chipsatz und GPUs zu machen
zu 3:
Das wäre wohl, für mich auch am liebsten, die beste Variante.
Sie hätten dann ein drittes System geschaffen neben den Intel und AMD Plattformen. Bei Chipsätzen und GPUs sicher Top und dazu mit guten Verträgen im OEM und Retail Markt. Diese könnten dann durch die dritte neue Plattform auch gehalten werden oder gar Ausgebaut werden. Was fehlt, wäre die gute CPU. diese wäre aber mit VIA/S2(Cyric) und NV im bereich des möglichen.
Na wohl kaum. Bevor nVidia VIA kauft, wird eher das umgekehrte passieren :)
loewe
2006-08-22, 20:02:07
Wobei das AMD(ATi) auch in der näheren Zukunft bieten wird, deshalb gerät Intel nun wohl etwas in Zugzwang.
Wenn dem alles so sein sollte, dann demke ich eher das AMD und ATI hier auf intel reagiert haben.
Intel hat PowerVRs Eurasia im Frühjahr 2005 lizensiert und es war von vornherein klar, dass es ihnen nicht um mobile Grafik ging. Ich denke es war schon um den Jahreswechsel 2004/05 klar, intel will auf jeden Fall ein 3in1 System und hat sich dann mangels eigener Fähigkeiten eben Serie 5 von PowerVR gekauft.
Wie groß der eigene Einfluß von intel auf das endgültige Design von MEDUSA ist wissen wir nicht, aber ein wenig werden sie sicher auch eingebracht haben. Nun wo das Projekt langsam heiß wird, brauchen sie natürlich noch ein paar mehr Leute, das merkt man ja auch.
Könnt ihr euch noch an diesen Artikel erinnern: http://www.jonpeddie.com/Back_Pages/2006/06-19-06_smoke.shtml
"Will Intel enter the GPU market?
Will Intel enter the GPU market? In a sense they are already in it with their powerful integrated graphics processors (IGPs). Intel has built GPUs in the past (e.g., i740) and they have been -disasters.
The rumor mill is feeding this one too. “Several very high-ranking graphics players confirmed that Intel plans to get back into the discrete graphic business,” said the ever reliable Inquirer.
There could be some wood behind this one, however. The problem has been with Intel’s business model. However, Intel doesn’t like the shift in the PC semiconductor budget by the OEMs, which has moved money to the GPU at the expense of the CPU. And Intel is concerned with the uses of GP-GPU. So, for all those reasons Intel is, as it does regularly, looking at the GPU market to see if there is an entry point that makes sense for them."
StefanV
2006-08-22, 20:06:41
@Malle
Die letzte Möglichkeit wird wohl kaum möglich sein, da VIA etwas größer ist, als die meisten von uns denken.
Zumindest steckt da ein äußerst großer Zulieferer hinter (Formosa Plastics).
Ergo:
Für nV schauts momentan ziemlich doof aus, da sie außer dem PC Markt kein anderes Standbein haben...
Wenn nVidia derart zwischen die Fronten gerät, dann bleibt meines Erachtens doch nur ein möglicher Partner über: IBM
malle
2006-08-22, 20:10:07
Ich möchte mal Anmeken, dass auch ein freundlicher zusammenschluß von NV und Via/S3 mir im Kopp herumschwebte. Ich habe nicht daran gedacht, dass NV Via/S3 ect. übernimmt. ;)
malle
2006-08-22, 20:11:03
Wenn nVidia derart zwischen die Fronten gerät, dann bleibt meines Erachtens doch nur ein möglicher Partner über: IBM
und wer macht dann die CPU? ;)
stickedy
2006-08-22, 20:13:45
Ich möchte mal Anmeken, dass auch ein freundlicher zusammenschluß von NV und Via/S3 mir im Kopp herumschwebte. Ich habe nicht daran gedacht, dass NV Via/S3 ect. übernimmt. ;)
Warum sollte VIA mit nVidia zusammengehen wollen? VIA hat bereits seit längerem alles, was AMD sich grad beschafft hat und was Intel anstrebt. Gut, an der GPU-Front schauts momentan noch etwas mau aus, aber das wird schon, da bin ich mir sicher. Die Jungs bei S3 Graphics sind fähig. Und Cenatur wird mit der nächsten CPU-Generation wohl auch ne Schippe drauflegen (erstmals out-of-order usw).
=Floi=
2006-08-22, 20:58:31
http://www.computerbase.de/news/wirtschaft/unternehmen/intel/2006/august/intel_grossteil_3dlabs-teams/
na hoffentlich gibt es ne richtig gute INTEL graka die ne richtige opgengl sau ist ;)
kann mir mal einer sagen welche meilenstiene ;) 3d labs so gesetzt hat?
die sind mir völlig unbekannt aber wenn sie im profi bereich tätig waren und grakas mit 640mb vram anbieten dürften sie schon mit NV im opengl bereich gleichziehen
ein revival von opengl wäre wünschenswert
erinnert mich an GLIDE
Thowe
2006-08-22, 21:24:15
Wenn nVidia derart zwischen die Fronten gerät, dann bleibt meines Erachtens doch nur ein möglicher Partner über: IBM
Wenn ATI mit AMD eben größer als NVIDIA ist, was vielleicht sogar Absicht ist. INTEL keinerlei Intresse an NVIDIA hat, NVIDIA nun so gar nichts mehr übernehmen kann und vermutlich weder INTEL noch AMD irgendein Intresse daran haben einen weiteren X86-Hersteller am Markt zu haben ... Wird NV wohl kaum die nötigen Patente bekommen um etwas basteln zu können.
PS: IBM ist eher uninteressant für beide, es sei denn, nv bietet Karten für die PP Rechner von IBM an.
Thowe
2006-08-22, 21:35:44
http://www.computerbase.de/news/wirtschaft/unternehmen/intel/2006/august/intel_grossteil_3dlabs-teams/
na hoffentlich gibt es ne richtig gute INTEL graka die ne richtige opgengl sau ist ;)
kann mir mal einer sagen welche meilenstiene ;) 3d labs so gesetzt hat?
die sind mir völlig unbekannt aber wenn sie im profi bereich tätig waren und grakas mit 640mb vram anbieten dürften sie schon mit NV im opengl bereich gleichziehen
ein revival von opengl wäre wünschenswert
erinnert mich an GLIDE
3DLabs konnte selbt mit alter Hardware sich gut am Markt behaupten, die Treiber waren dafür, gerade im Profi-Segment, wirklich exzellent. Nebenbei haben sie auch schon einiges sehr intressantes geschaffen, wie den P10 halt, aber das war 2002 und seit dem hat sich da wirklich nichts getan.
Nebenbei hat INTEL jetzt zwar einen Teil der Mannschaft, aber Creative wird vermutlich den "interessanteren" haben, sprich, die Hardware-Entwickler. Die Software-Entwickler gerade für OpenGL dürften nun auch uninteressant fürs die Handy-Sparte geworden sein.
Die Patente hält vermutlich auch Creative weiterhin, so das aus meiner Sicht nur die Vermutung überbleibt, das INTEL wieder/vermehrt ins Profi-Segment der Workstation-Karten will. Sie hatten sich ja vor einigen Jahren mit knapp 9% bei Evans & Sutherland eingekauft nur um zu sichern, das deren Karten auch brav für Xeon-Systeme vermarktet werden.
Was wissen wir über Muse?
Nur dies (http://www.imgtec.com/Investors/Presentations/AGM06/16.jpg).
Für nV schauts momentan ziemlich doof aus, da sie außer dem PC Markt kein anderes Standbein haben...
Sony? Auch sieht das PC-Standbein ganz gesund aus...
Leonidas
2006-08-23, 08:53:39
Wenn nVidia derart zwischen die Fronten gerät, dann bleibt meines Erachtens doch nur ein möglicher Partner über: IBM
Jau, auch ich hatte bei meinen News eher an IBM gedacht als an VIA. VIA passt nicht, da:
1. Eigene Chipsätze = unvereinbare Konkurrenz.
2. Zu schlechte CPUs.
3. Wird zu teuer, da VIA nicht eigenständig ist, sondern herausgekauft werden müsste.
nVidia wird eher nach was suchen in dieser Richtung hin:
1. HighClass und HighPerformance, aber eben ausbaufähig.
2. Darf nicht zu groß sein, da es sonst zu teuer wird.
D.h. es wird entweder eine von den Server-CPU-Klitschen oder eben die CPU-Sparte bei IBM als Joint Venture oder ähnlichem. FALLS nVidia diesen Weg gehen will.
loewe
2006-08-23, 14:22:15
Nur dies (http://www.imgtec.com/Investors/Presentations/AGM06/16.jpg).
Da hast Du vollkommen recht! :) Wissen ist sicher nicht der richtige Ausdruck für das Spekulationsforum, aber wir haben uns schon verstanden.
BTW, da Du Dich ja hier einmischt und somit zu den "wir" dazu gehören willst, dann stimmt Deine Aussage aber so nicht mehr. :D
Und es bleibt natürlich alles Spekulation.
stav0815
2006-08-23, 14:51:30
D.h. es wird entweder eine von den Server-CPU-Klitschen oder eben die CPU-Sparte bei IBM als Joint Venture oder ähnlichem. FALLS nVidia diesen Weg gehen will.
An welche denkst du da? Vielleicht würde nVidia nicht VIA herauskaufen sondern sagen wir einen Teil, z.B. die Centaur/IDT Mannschaft.
=Floi=
2006-08-23, 15:15:21
ergibt doch keinen sinn
nv hat bisher gezeigt dass sie immer nur in lukrative wachstumsmärkte einsteigen
da tippe ich eher auf ein angagement im soundkarten bereich
aber jetzt sind wir ja total OT
bei intel ist die sache eben ein bischen anders da sie selbst schon grafikkarten entwickeln und auch mehr geld in der kasse haben
mit viel werbung könnte man so ein neues produkt auf den markt drücken
Tigerchen
2006-08-23, 16:06:24
An welche denkst du da? Vielleicht würde nVidia nicht VIA herauskaufen sondern sagen wir einen Teil, z.B. die Centaur/IDT Mannschaft.
Fast richtig. nV arbeitet seit geraumer Zeit an einer x86 CPU. Top secret.
Das ist auch konsequent. Alles aus einer Hand ist die Zukunft. Hatte ich schon vor einiger Zeit erwähnt.
und wer soll die bauen?
tsmc ^^
und wer soll die bauen?
tsmc ^^
Warum nicht? Wenn sie sich die passenden Ingeneure zugelegt haben und was eigenes entwickeln? NV würde ich sowas durchaus zutrauen ;)
Wie gut das Ganze dann wird, da lassen wir uns mal überraschen :D
Das Gerücht ist schon steinalt, würde aber durchaus zur Situation und zu NVs entspannten Auftreten passen.
stav0815
2006-08-23, 19:14:36
Fast richtig. nV arbeitet seit geraumer Zeit an einer x86 CPU. Top secret.
Das ist auch konsequent. Alles aus einer Hand ist die Zukunft. Hatte ich schon vor einiger Zeit erwähnt.
I hate Sarkasm.
StefanV
2006-08-23, 21:13:20
Warum nicht?
Weil die Fertigung, mit AMD und Intel verglichen, zu schlecht ist...
Ein R600 Refresh in 65nm SOI oder gar 45nm SOI wäre äußerst böse, für nV...
Intel könnt was ähnlcih 'gewaltiges' backen...
Thowe
2006-08-23, 21:39:09
Weil die Fertigung, mit AMD und Intel verglichen, zu schlecht ist...
Ein R600 Refresh in 65nm SOI oder gar 45nm SOI wäre äußerst böse, für nV...
Intel könnt was ähnlcih 'gewaltiges' backen...
Das INTEL was gebacken bekommt würde ich mittlerweile als sehr wahrscheinlich betiteln wollen. Das AMD nun aber den R600 in SOI fertigt halte ich für unwahrscheinlich, einfach weil die derzeitigen eigenen Kapazitäten das nicht hergeben und auch noch lange nicht hergeben werden.
NV wird noch Chancen haben, genügend, aber der Markt wird deutlich interessanter werden und wenn INTEL wirklich PVR am Board hat und NV tatsächlich weiterhin auf Brute-Force bauen, dann wird der Bereich der belieferbaren Märkte kleiner und der Gewinn für NV immer mehr versiegen.
Ich glaube sogar fest daran, das NV mit dem G80 etwas eher bescheidenes abliefern wird, im Vergleich zur Konkurrenz. Aber das wird sich erst noch beweisen müssen.
StefanV
2006-08-23, 23:12:34
Den R600 sowieso nicht, dafür ists zu spät, den Refresh könnt man aber ev. selbst produzieren, in einer 'Special Edition'.
Das man nicht soo viele High End Chips braucht, dürfte auch AMD wissen, die paar tausend Teile stören nicht weiter ;)
'Kleinkram' wird AMD (momentan) sowieso nicht fertigen, da man nur Fertigungsanlagen für SOI Prozesse hat, das würd z.B. Chipsätze einfach zu teuer machen, in der Fertigung...
Sinn macht eine eigene Fertigung nur beim absoluten High End und auch nur da...
Da da die Stückzahlen nicht soo hoch sind, dürfte das durchaus im Rahmen des möglichen liegen..
Ailuros
2006-08-24, 00:00:33
NV wird noch Chancen haben, genügend, aber der Markt wird deutlich interessanter werden und wenn INTEL wirklich PVR am Board hat und NV tatsächlich weiterhin auf Brute-Force bauen, dann wird der Bereich der belieferbaren Märkte kleiner und der Gewinn für NV immer mehr versiegen.
In wievielen genau Maerkten wird Intel IMG IP einsetzen? Ohne eine klare Antwort zu dieser Frage, macht das obrige keinen besonderen Sinn. NVIDIA wird auch weiterhin neue Maerkte finden koennen und dazu genauso erfolgreich wie bisher.
Intel ist zwar ein Gigant, aber ich bezweifle dass sie so doof sind ein besonders grosses Risiko einzugehen. Intel plant unter anderem in den low-end Profi-Markt einzudringen, aber auch hier sollte man low-end oder mainstream betonen.
NV plant im Gegensatz in den render farm Markt einzudringen, aber weder dieses noch das obrige setzt Intel und NVIDIA als direkte Konkurrenten gegenueber.
Intel's Hauptgeschaeft wird der CPU Markt bleiben, genauso wie fuer NVIDIA der GPU Markt. Heutzutage dringt man schwer in den Consolen Markt ein, wenn man nicht high end GPUs verkauft. Weder der ATI/XBox360 noch der NV/PS3 sind reine Zufaelle. Noch dazu ist der Vertrag zwischen NV und SONY nicht nur fuer die PS3.
Dass Intel sich momentan ein paar engineers beschafft fuer Grafik sagt mir zwar etwas, aber ich kann mir schwer vorstellen dass eine handvoll Inginieure Wunder wirken werden.
Ich glaube sogar fest daran, das NV mit dem G80 etwas eher bescheidenes abliefern wird, im Vergleich zur Konkurrenz. Aber das wird sich erst noch beweisen müssen.
Tja eine Wette wuerde ich an Deiner Stelle momentan nicht eingehen. Ich will bezweifeln dass es irgendwelche nennenswerte Leistungsunterschiede geben wird; momentan funkeln beide daran rum den um einiges hoeheren Stromverbrauch so stark wie moeglich zu minimalisieren. Im Labor haut das Ding locker ueber die 700MHz was aber gar nichts heisst, was die finale Taktrate betrifft. Bei der Komplexitaet hoert sich das sowieso als uebertrieben an.
NV hat mit G71 bewiesen dass sie eine (IMO) rundum bessere GPU mit einem sehr konkurrenzfaehigen Preis-/Leistungs-/Stromverbrauch Verhaelnis schlagen koennen.
Ein USC klingt zwar technologisch gesehen interessanter und "schicker" aber da man durch ausgetueftelte Strategie und Marketing vieles erreichen kann, kommt es eher auf das insgesamte Bild an dass dem Kaeufer geboten wird. Natuerlich darf G80 insgesamt nicht langsamer sein u.a.; die bisherigen Papierfranzen zeigen nichtsdergleichen an.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.