Archiv verlassen und diese Seite im Standarddesign anzeigen : Verschwörungstheorie - Gedrosselt von den Geheimdiensten?
Geldmann3
2013-11-17, 03:19:40
Es geht erstmal in erster Linie um CPUs.
Ich verstehe nicht, warum es passieren konnte, dass die Jagd nach mehr Takt so plötzlich aufgehört hat. So als wäre da etwas faul. Ja, uns ist zwar allen bekannt, dass höhere Taktraten viel höhere Temperaturen erzeugen würden, das ist Physik. Doch bis vor 7 Jahren hat man es ja dennoch immer geschafft CPUs schneller zu machen. Und dann war plötzlich Schluss. Logisch nachgedacht, sind die Strukturen nun einfach so klein, dass Leckströme, die bei höheren Temperaturen auftreten nicht mehr verziehen werden.
Doch dagegen spricht, dass Intel vor 10 Jahren noch 10Ghz CPUs am Horizont gezeichnet hat. Und dann war vom einen auf den anderen Tag ruhe im Karton. Wussten sie damals etwa überhaupt nicht was sie tun? Diese Stagnation hätte man doch vorhersehen müssen. Klar, man ist aufgrund der Problematik damals schon mit Servern auf mehrere CPU Kerne umgestiegen, aber damit gerechnet, dass es wirklich schon bei 3-5Ghz endet haben sie scheinbar nicht. Oder haben wir es vielleicht sogar mit einem geheimen Zusammenschluss zu tun, welcher die Singlethread-Computerleistung für Privatleute heimlich limitiert, damit diese keine Chance mehr gegen die Geheimdienste haben.
Es gab ja auch mal einen geheimen Zusammenschluss von Glühbirnen Herstellern (de.wikipedia.org/wiki/Phoebuskartell), der deren Lebensspanne auf 1000 Stunden limitierte. Gegen so manches was die NSA heute abzieht, ist das gar nichts.
Wer weiß, vielleicht haben die schon 10/20/30Ghz CPUs irgendwo rumstehen.
Wenn man in letzter Zeit so die anderen Sachen mit der NSA hört, dann ist einfach alles möglich. Es müssen nicht zwingend Geheimdienste sein, die schnelle Leistungssteigerung in der IT ist mit das mächtigste, was die Menschheit je hervorgebracht hat. Angenommen einige Unternehmen wären im geheimen die einzigen, die über eine viel weiter entwickelte Technik verfügen als der Rest der Welt. Das könnte man sich zum Vorteil machen. Solch ein Zusammenschluss, der bewirken kann, dass die größten CPU/GPU Produzenten die ganze Welt drosseln und nur dieser geheimen Minderheit, die unvorstellbaren Fortschritte zur Verfügung stellen, der wäre dem Rest der Welt sehr schnell weit überlegen.
Keine Verschlüsselung könnte dem vielleicht standhalten, man hätte alle Informationen der gesamten Kommunikation, abgesehen von den Hintertüren, mit denen man die Consumer-Hardware versieht. Stellt euch ein CPU-Cluster aus zehntausenden von CPUs vor, welche mit 3 Terahertz takten.
Habt ihr dazu eine Meinung? Klar die These ist weit hergeholt und es gibt kaum Anhaltspunkte, doch es ist gerade 3:16 in der Nacht, in solch geistiger Umnachtung öffnet sich die Tür der Wahrheit vor mir. Nur mal angenommen es wäre so. Gibt es eigentlich physikalische Gesetze, die Terahertz CPUs ausschließen? Vielleicht würden die ja auch mit Licht, anstatt mit elektrischer Spannung (www.faz.net/aktuell/wissen/physik-chemie/optik-ein-transistor-fuer-licht-1840844.html) rechnen.
gnahr
2013-11-17, 08:47:41
die these ist absurd oder haben die amerikanischen airlines auch die autobauer gezwungen nur noch 1-8zylinder-motoren in serie zu bauen? vor 100jahren waren auch 20 und 30zylinder-schlutten im nennenswerten anteil vertretten, aber heute nicht mehr...
zu mal die geheimdienste dank cluster-lösungen sicher nicht in der rechenzeit limitiert sind. von versuchsanlagen mit quantenlösungen mal ganz abgesehen besteht auch genug speicher um beliebige datenströme zu speichern. das einzige was sie nicht können: die latenz beim abgreifen verstecken. aber durch die vielen ein- und auspackvorgänge (auch mehrfach geschachtelt) und wandlung in den netzen fallen niemandem zusätzliche 25-50ms auf. wenn man dann noch isps wie die telekom hat, die das peering als unnormal ansehen und die kommunikation ausbremsen bei heimanschlüßen...
das ende des ghz-rennens ist in sich schlüßig. wer damit zwingend geldmanns problem hat, ist wahrscheinlich nicht lebensfähig, weil er überall intrigen widmet. kennedy wurde ja auch nicht erschoßen und wir sind im raumfahrprogramm bemannt unwesentlich über den mond rausgekommen, weil wir (bzw. die regierungen) dann bereits kontakt mit den grünen männchen hatten.
Also das würde ich jetzt nicht unter Verschwörungstheorie fallen lassen. Bei CPUs geht man einfach den wirtschaftlicheren Weg. Und eine CPU mit zwei Kernen ist nun mal wirtschaftlicher in der Leistungsaufnahme, der Abwärme und der Lebenserwartung, als eine CPU mit doppelt so hohem Arbeitstakt. Hinzu kommt, dass lange Zeit Flaschenhälse im PC bestanden haben, die eine höhere CPU-Leistung überflüssig machten. Zuerst war es die stark limitierende Bandbreite des Arbeitsspeichers, die über die Northbridge des Mainboards sich praktisch immer halbierte. Und später störte dann auch noch die ewig langsame Festplatte, die sich in den letzten Jahrzehnten nicht so gut weiterentwickelt hat, wie der Rest des PCs. Erst als die Northbridge in die CPU gewandert ist und die SSDs auf den Markt kamen, wurden diese Flaschenhälse geschlossen, so dass man sich gegenwärtig wieder über schnellere CPUs freuen darf. Tatsächlich musste man ja auch der Software-Industrie (im speziellen auch der Spiele-Industrie) Zeit geben, um die vielen Prozessorkerne nutzbar zu machen. Ich sehe da eine ganz normale Entwicklung. Kein Grund für Verschwörungs-Theorien.
Auch "scheinbare Verschwörungen" wie mit der Glühbirnen-Geschichte, treten immer wieder in verschiedenen Bereichen des Marktes auf. Der Grund dafür ist viel mehr, dass die Hersteller ihre Produkte billiger fertigen wollen. Am Material sparen und dadurch die Lebenserwartung sich künstlich einschränkt. So macht es für die Hersteller durchaus Sinn, wenn sie an einem solchen Massenprodukt 0,1 Cent sparen können, da es sich in der Masse rechnet. Und dem Kunden fällt es kaum auf, dass die Glühbirne dann deutlich weniger hält. Sowas sehen wir doch tag-täglich. Produkte aus dem Supermarkt, deren Produkt-Verpackungen zur Hälfte mit Luft gefüllt sind. Nahrungsmittel, die mit abgelaufenen Produkten, Sägespänen oder mit Wasser versetzt sind, um die Masse und damit den Gewinn zu steigern. Legebatterien, die so eng gebaut sind, dass sie gerade noch die gesetzliche Norm erfüllen. Und, und, und... das ist keine globale Verschwörung einer Schattenregierung, dass ist nur die schnöde Profitgier des Einzelnen, die sich in der Summe so hoch aufbäumt, dass man glauben könnte, eine riesige unbekannte Kraft könne dahinter stecken.
Dieser Gedankengang ist übrigens nicht neu. Solche Beobachtungen machten auch Menschen schon vor tausenden von Jahren. Und um sich das Ganze zu erklären, wurden Teufel, Dämonen und böse Geister beschuldigt. Weil man sich damals einfach solch eine Gruppendynamik nicht erklären konnte. Oder es nicht für möglich hielt, dass so viele Menschen einfach von sich aus, so kollektiv-eigennützig handeln. Aber so ist nun mal der Mensch. In erster Linie auf seinen eigenen Vorteil bedacht, was sich dann in der Summe als große böse Verschwörung manifestiert.
xxMuahdibxx
2013-11-17, 11:39:22
Logisch nachgedacht, sind die Strukturen nun einfach so klein, dass Leckströme, die bei höheren Temperaturen auftreten nicht mehr verziehen werden.
Doch dagegen spricht, dass Intel vor 10 Jahren noch 10Ghz CPUs am Horizont gezeichnet hat. Und dann war vom einen auf den anderen Tag ruhe im Karton.
Ich sehe es eher so das sie damals nicht bedenken konnten wie das mit den Leckströmen so ist und was für Materialien wir heute kennen .
Weiterhin ist nicht bekannt gewesen wie klein die Rechenteile werden .
Wenn man überlegt das die Chipdichte wie damals wäre würden wir wohl auch die 10 GHZ Marke brechen aber hätten halt nur 10 % der möglichen Transistoren auf dem Chip .
5 oder 10 GHZ sind auf einer logarithmischen Skala fast das gleiche.
maximum
2013-11-17, 12:06:48
Die CPUs werden doch trotzdem bei gleichbleibendem Takt schneller. Fakt ist eben auch, dass man als normaler Nutzer nicht mehr so oft gewungen ist aufzurüsten. Mein i5-750 Lynnfield von 2009 reicht mir auch heute noch und ich wüsste nicht warum ich aufrüsten sollte aus Leistungssicht. (ich spiele aber auch am PC nicht).
Geldmann3
2013-11-17, 13:01:47
Intel-Erfindung bringt Prozessortakt auf über 10 GHz (2002) (http://www.tomshardware.de/intel-erfindung-bringt-prozessortakt-auf-ueber-10-ghz,news-4502.html)
Kommerzielle Herstellungsverfahren für Chips über 10 GHz Arbeitstakt sehen die Experten aber erst in spätestens fünf Jahren.
Mich wundert es, das ist doch erst 11 Jahre her. Und die Experten konnten nicht vorhersehen, dass es in Kürze nicht mehr sinnvoll ist noch höher zu takten. Immerhin war schon kurze Zeit darauf Schluss mit der Jagd nach mehr takt.
Ich könnte durchaus schnellere und günstigere Prozessorleistung gebrauchen. Gäbe es eine AMD FX CPU mit 16 Kernen für 300€ würde ich zuschlagen. Denn damit könnte ich endlich mal schnell meine Videos transkodieren. Ganz abgesehen von dem Nutzen für Normalos, hört es sich einfach gut an. Ich bin mir sicher, für 300€ würden sich viele einen 16 Kerner @300Watt TDP holen, auch wenn es meist nichts bringt und diese im singlethreading sogar etwas langsamer ist. Nur um die 16 Kerne im Taskmanager zu haben.
Vielleicht habe ich diesen Thread eröffnet, weil ich mich von Intel fast schon beleidigt fühle, dass sie auf der Stelle stehen. Die letzten Consumer CPU Generationen haben nur noch wenige % Leistungssteigerung gebracht. Ich bin mir in einem sicher! Sobald jemand aus der Ecke kommt etwas besseres als Intel bietet, wird auch Intel plötzlich wieder in der Lage sein, mehr Leistung zu bieten. Das ist künstliche Zurückhaltung.
Weyoun
2013-11-17, 14:53:48
Ich denke wie die meisten Poster hier auch, dass es eher aus wirtschaftlichen und physikalischen Gründen keine signifikante Ghz Erhöhung mehr gibt. Der Threadposter scheint unterbewusst von der Annahme auszugehen, dass mehr Ghz = mehr Rechenleistung gilt. Die Erhöhung der Taktfrequenz mag zwar stagnieren, aber die Anzahl der Transistoren pro Chip steigt weiterhin exponentiel.
Moores Law ist in den meisten Fällen immer noch gültig und die Anzahl der Transistoren ist zZt der bessere Indikator für das Ansteigen der Rechenleistung geworden. Ich vermute stark, beim Chipdesign stößt man bezüglich der Taktfrequenz an die physikalische Grenze der Ausbreitungsgeschwindigkeit des Lichts: Wenn man sich mal das hier anschaut:
http://www.heise.de/glossar/entry/Taktzyklus-396759.html
sollte man erkennen, dass ab 10 Ghz innerhalb eines Taktes nichtmal das Licht es mehr schafft, von einer Ecke des Dies zum anderen zu gelangen. Wenn man annimmt, dass während eines Taktes eine Reihe von Transistoren auf dem Die sequenziel geschaltet werden müssen (Transistor 1 -> Transistor 2 -> ... -> Transistor n) dann sinkt die 10 Ghz Grenze alleine bedingt durch die Transistorschaltdauer ab. Und das ist vermutlich auch einer der physikalischen Gründe warum wir noch immer bei unter 5Ghz rumkrebsen. Es wird einfach wirtschaftlich (d.h. entwicklungstechnisch) zu aufwändig die Taktfrequenz noch höher zu schrauben. Einfach mehr Transistoren auf den Die zu bringen, d.h. die Strukturbreite zu verkleinern scheint wirtschaftlich billiger zu sein.
Und ich glaube die Entwicklungsgeschwindigkeit hängt mehr mit der Konkurrenz Intel vs. AMD zusammen. Intel wird nur soweit entwickeln um einen entscheidenden Tick besser zu sein als das derzeitig beste AMD Produkt. Und nicht weiter. Das gesparte Geld für Research und Development wird als Gewinn verbucht oder dazu genutzt die Profitspanne weiter zu erhöhen (d.h. die Prozessoren billiger in der Herstellung bei gleichem Verkaufspreis zu machen, Werbung, Marktanteile durch Ausbau der Vertriebsstruktur) aber nicht um die Technologie weiter voranzutreiben - man ist ja schon der beste und man muss ja nicht die eigenen Produkte in Konkurrenz zueinander stellen.
Monger
2013-11-17, 15:30:14
Dass Intel in Wahrheit technologisch der Konkurrenz weit voraus ist, und nur aus wirtschaftlichen Gründen Entdeckungen zurückhält, ist als Gerücht jetzt schon seit Jahrzehnten im Umlauf. Angeblich hält Intel die Konkurrenz bewusst am Leben, weil sie sonst erst recht Kartellprobleme bekommen würden.
Aber mal von der Gerüchteküche abgesehen: andere Hersteller berichten regelmäßig über ähnliche Probleme. Leckströme in einem realen DIE zu reduzieren ist eine enorm komplexe Aufgabe. Selbst wenn man einzelne Schaltkreise höher getaktet kriegt, gilt das noch lange nicht für den gesamten Chip.
Sowieso: CPUs arbeiten ja schon lange nicht mehr nach einem einzelnen Takt. Intern sind bestimmte Komponenten mitunter weit höher getaktet. Die Taktrate sagt ja heute allenfalls nur grob etwas darüber aus wieviel Rechenoperationen tatsächlich ablaufen. Durchaus möglich, dass heutige Prozessoren quasi punktuell schon weit jenseits von 6 Ghz laufen.
Jedesmal wenn die Strukturgrößen verkleinert werden, hört man von zunehmenden Problemen. Ich kann mich noch so düster an den Umstieg bei TSMC von 0.13 auf 0.11 erinnern, wo sie erstmal einige Jahre damit gekämpft haben den in den Griff zu kriegen.
Performancegewinne sind heute im wesentlichen durch bessere CPU Architekturen und durch Parallelisierung zu erreichen. Ich sehe keinen Grund das anzuzweifeln. Niemand - auch Intel nicht - würde freiwillig so auf Multicores setzen wenn es nicht wirklich notwendig wäre. Mehrere Kerne bedeuten in aller Regel größere DIE Fläche, und damit mehr Ausschuss in der Produktion.
Matrix316
2013-11-17, 16:29:24
Die CPUs werden doch trotzdem bei gleichbleibendem Takt schneller. Fakt ist eben auch, dass man als normaler Nutzer nicht mehr so oft gewungen ist aufzurüsten. Mein i5-750 Lynnfield von 2009 reicht mir auch heute noch und ich wüsste nicht warum ich aufrüsten sollte aus Leistungssicht. (ich spiele aber auch am PC nicht).
Videoschnitt, Bildbearbeitung... da kann eine CPU nicht schnell genug sein.
Außerdem, bei Games haben wir GTA, Crysis und Gran Turismo - aber wieso haben wir nicht GTA mit den Grafikdetails und Dichte von Crysis und den Fahrzeugmodellen wie bei Gran Turismo wo jedes Haus bewohnt und begehbar ist, wo man alles zerstören kann, wo die Vegetation nicht nur aus Texturen besteht etc. pp?
Um sowas zu simulieren, braucht man IMO schon deutlich mehr CPU Power als man heute hat.
Tesseract
2013-11-17, 16:35:22
Es gab ja auch mal einen geheimen Zusammenschluss von Glühbirnen Herstellern (de.wikipedia.org/wiki/Phoebuskartell), der deren Lebensspanne auf 1000 Stunden limitierte. Gegen so manches was die NSA heute abzieht, ist das gar nichts.
Wer weiß, vielleicht haben die schon 10/20/30Ghz CPUs irgendwo rumstehen.
und wo ist der sinn? das glühbirnenkartell gab es weil eine kurzlebige glühbirne öfter ersetzt werden muss und die hersteller deswegen mehr verdienen konnten. was hätte aber die NSA oder sonstwer für einen vorteil von irgendeiner ominösen "30GHz-CPU" in kleinserie die wahrscheinlich teurer wäre als einfach zehn 3GHz-CPUs von der stange im rechenzentrum aufzustellen?
abgesehen davon ist intel nicht der einzige halbleiterhersteller. daneben gibt es z.B. noch TSMC in taiwan oder samsung in südkorea. gäbe es eine möglichkeit aus der fertigung deutlich mehr raus zu holen wären andere damit schon am markt und intel hätte große wettbewerbsprobleme.
interessant ist diese überlegung höchstens in richtung quantencomputing aber ein quantencomputer hat mit der aktuellen fertigung klassicher schaltkreise sowieso nix zu tun.
lumines
2013-11-17, 16:35:25
Um sowas zu simulieren, braucht man IMO schon deutlich mehr CPU Power als man heute hat.
Das Problem dabei dürfte eher sein, dass solche Inhalte kombiniert zu teuer sind. Nicht, dass die CPU dafür zu langsam wäre. Schau dir einmal an, wie viele Leute für Rockstar arbeiten und da das Spiel designen. Die müssen auch irgendwie bezahlt werden.
Gouvernator
2013-11-17, 16:36:25
Gedrosselt wird man wohl eher von eigener Dummheit und weniger Ressourcen. Das kann man eigentlich überall beobachten: schlechte Filme, schlechte Serien, schlechte Musik, schlechte Erfindungen, schlechte Investitionen... Alles in allem ist der Westen im Niedergang sowohl geistlich wie auch technisch. Man muss eigentlich froh sein das was noch gefertigt wird halbwegs zuverlässig funktioniert.
Rooter
2013-11-18, 16:58:36
Ich sehe es eher so das sie damals nicht bedenken konnten wie das mit den Leckströmen so ist und was für Materialien wir heute kennenGlaube ich auch. Ich erinnere mich, als vor etwa 20 Jahren die DEC Alpha Prozessoren auf den Markt kamen, an einen Artikel im 64er Magazin in dem Stand, dass man die Taktrate wohl nicht wird über 400MHz erhöhen können... :ulol:
Dass Intel in Wahrheit technologisch der Konkurrenz weit voraus ist, und nur aus wirtschaftlichen Gründen Entdeckungen zurückhält, ist als Gerücht jetzt schon seit Jahrzehnten im Umlauf. Angeblich hält Intel die Konkurrenz bewusst am Leben, weil sie sonst erst recht Kartellprobleme bekommen würden.An dieses Gerücht glaube ich allerdings. Wäre AMD aktuell bei x86 eine größere Konkurrenz wären CPUs sicher schon ein Stückchen schneller als sie es heute sind.
Und natürlich darf Intel die Konkurrenz nicht überrollen (wobei ich nicht denke, dass die das heute schaffen würden wo AMD mit im Boot ist) weil sie ohne Konkurrent vom Kartellamt zerschlagen werden.
MfG
Rooter
Surrogat
2013-11-18, 18:17:31
@Topic: also wenn es irgendjemandem darum ginge die CPU-Leistung künstlich zu begrenzen dann wohl eher aus Gründen des Wettbewerbsvorteils, was in diesem konkreten Fall nichts anderes bedeutet als einen technologischen Vorprung des eigenen Geheimdienstes gegen andere
Genau das geschah ja dann auch mit dem Exportverbot der Playstation 2, ältere Semester mögen sich erinnern
http://www.heise.de/newsticker/meldung/Playstation-2-Vorerst-nur-fuer-Japaner-20328.html
Man hatte seinerzeit die Befürchtung das Cluster des PS2 Chips eine so hohe Rechenpower ermöglichen könnten, das feindlich gesinnte Länder damit rüstungs- oder geheimdienstrelevante Vorteile erlangen könnten. Heutzutage wo China und wahrscheinlich sogar NK und Iran sicherlich Hochleistungscluster im Betrieb haben, wirkt das ganze natürlich bischen lächerlich.
Was aber den eigentlichen Grund der nie ausgelebten Takterhöhung bis an die Grenzen angeht, so wurde das ja schon mehrfach hier gesagt. Es ist ganz schlicht und einfach die unerbittliche Diktatur des Kapitalismus, eben mit den geringsten Mitteln den höchsten Nutzen zu erwirtschaften und den bekommt man durch Parallelisierung nunmal einfacher hin als durch Singlecore-Taktraten jenseits von gut und böse. So einfach ist das.
Ansonsten hätte man ja auch beim guten alten ISA-Bussystem bleiben können und dieses immer höher takten, statt mal irgendwann EISA, AGP, PCI, PCI-E etc.pp einzuführen
PS: was das Phoebuskartell angeht, so hat dieses doch mittlerweile sein Ziel erreicht, dank EU!
Billige Glühbirnen sind verbannt, s.g. Energiesparlampen sind giftig und halten nicht das was sie versprechen, weder in Qualität noch in Haltbarkeit und Halogenlampen als Ersatz der Glühbirnen halten maximal 1.500 Stunden.
Everything went better than expected mag man da denken.... :rolleyes:
Kladderadatsch
2013-11-18, 19:12:07
@Topic: also wenn es irgendjemandem darum ginge die CPU-Leistung künstlich zu begrenzen dann wohl eher aus Gründen des Wettbewerbsvorteils, was in diesem konkreten Fall nichts anderes bedeutet als einen technologischen Vorprung des eigenen Geheimdienstes gegen andere
http://www.heise.de/newsticker/meldung/Top500-der-Supercomputer-Schweizer-Supercomputer-als-Europas-Spitzenreiter-unter-den-Top10-2048325.html
http://www.heise.de/newsticker/meldung/Top500-der-Supercomputer-Schweizer-Supercomputer-als-Europas-Spitzenreiter-unter-den-Top10-2048325.html
Mit so was sollte GTA dann endlich ruckelfrei laufen...
Intel-Erfindung bringt Prozessortakt auf über 10 GHz (2002) (http://www.tomshardware.de/intel-erfindung-bringt-prozessortakt-auf-ueber-10-ghz,news-4502.html)
Mich wundert es, das ist doch erst 11 Jahre her. Und die Experten konnten nicht vorhersehen, dass es in Kürze nicht mehr sinnvoll ist noch höher zu takten. Immerhin war schon kurze Zeit darauf Schluss mit der Jagd nach mehr takt.
Man darf auch nicht vergessen, daß hier immer mit kleinen Einheiten experimentiert hatte, und man hat die Umsetzung auf komplexere und größere Einheiten einfach überschätzt (siehe die angesprochenen Leckströme). Die Medien bekommen Wind von diesen Experimenten, und schon wird die Sache schnell aufgebauscht. Und wer spricht von 10 GHz, 100 GHz und mehr sind doch schon im Gespräch:
IBM fertigt 100 GHz-Transistor
(http://www.pcgameshardware.de/Neue-Technologien-Thema-71240/News/IBM-fertigt-100-GHz-Transistor-704478/)
Aber ein Transistor ist noch lange kein komplexer IC. Da sind noch viele viele Schritte notwendig, um ein Ergebnis von einer trivialen Komponente wie ein Transistor auf eine CPU übertragen zu können.
Zudem darf man ja auch nicht vergessen, es gibt ja nicht nur Intel als Prozessorhersteller und Produzent, es viele andere, zwar nicht mehr so viele, aber dennoch genug, um Konkurrenz zu machen. Man kann viele Verschwörungstheorien glauben, aber eins muß man immer bedenken, die Gier, und die schlägt alles. Sprich, wenn ein Hersteller eine Möglichkeit sieht, ein Produkt heraus zu bringen, was alle meilenweit schlagen würde, wurde es jemand tun. Die Asiaten bzw. heute die Chinesen sind doch nicht dumm, und wenn sie einen Weg sehen würden, die Taktraten zu erhöhen, sie würden es doch tun. Gerade Firmen wie TSMC, AMD Globalfoundries, ARM, TI usw. würden doch sofort zuschlagen.
Player18
2013-11-19, 00:22:02
also wenn man ein Ivy i7 und die CPU nackt macht kriegt man den auch auf 7GHZ OC aber ich bin mir sicher du hast damit um die Hälfte wenn nich noch mehr die Lebenszeit der CPU reduziert. und du brauchst verdammt guten kühler, Man müsste das Teil mit nem Kompressor kühlen das er nicht hinten das Mainboard durchbrennt und wenn da scheisse machst kannste die ganze Kiste in Müll werfen. 2. wirst du um die 80DB um dein Rechner haben. Wer will das schon ? 3. Nutzen dir 7GHZ beim Zocken kaum davor limitiert die GPU.
Türlich wird Intel Studien haben wie Auto hersteller. NV wird auch studien haben. Ich bin mir sicher das den G-Sync nicht erst letztes jahr eingefallen is.
Wenn wir ein neue CPU mit Luftkühler unter vollast ( Haswell I7 4 GHZ) auf 25C° halten können dann kann sich Intel auch sich Gedanken machen ob sie nicht der CPU 2 GHZ mehr geben. Das ist das selbe mit Wasserstoff,Energie,Autos. Wenn wir irgendwann günstig Energie herstellen können dann sinken auch die Produktionskosten für den Wasserstoff und dann kann sich der Auto-hersteller überlegen mehr Motoren mit Wasserstoff anzubieten aber bis dahin vergeht noch eine Menge Zeit!
Marscel
2013-11-19, 00:44:15
Wenn Quantenrechner-Forscher außerhalb der USA plötzlich verschwinden würden, dann sollte man sich langsam Sorgen machen. Aber sonst...
Selbst Privatpersonen können sich zu Zeiten von AWS mal eben massig CPU-Power leihen. Außer für Experiment habe ich das bisher aber nicht. Sogar meinen i7 seh ich hin und wieder als total überdimensioniert.
Kladderadatsch
2013-11-19, 06:53:44
Mit so was sollte GTA dann endlich ruckelfrei laufen...
eigentlich wollte ich damit ja nur sagen, dass die gequotete aussage nicht so viel sinn ergibt, wenn china mit hardware von intel den schnellsten rechner baut..
PCGuru
2013-11-19, 08:04:41
mh da hat er wohl recht :)
Weyoun
2013-11-22, 11:56:25
Zudem darf man ja auch nicht vergessen, es gibt ja nicht nur Intel als Prozessorhersteller und Produzent, es viele andere, zwar nicht mehr so viele, aber dennoch genug, um Konkurrenz zu machen. Man kann viele Verschwörungstheorien glauben, aber eins muß man immer bedenken, die Gier, und die schlägt alles. Sprich, wenn ein Hersteller eine Möglichkeit sieht, ein Produkt heraus zu bringen, was alle meilenweit schlagen würde, wurde es jemand tun. Die Asiaten bzw. heute die Chinesen sind doch nicht dumm, und wenn sie einen Weg sehen würden, die Taktraten zu erhöhen, sie würden es doch tun. Gerade Firmen wie TSMC, AMD Globalfoundries, ARM, TI usw. würden doch sofort zuschlagen.
Wenn man von der Annahme ausgeht, dass Intel bzgl. Prozessoren auf dem technologisch höchsten Stand sind heißt das in dieser Annahme auch, dass alle anderen noch aufschließen müssen. Dies ist allerdings mit Entwicklungsarbeit welche Zeit und vor allem Geld (Entwicklungskosten) verbunden. ARM z. B. ist ein guter Anwärter für die Konkurrenz mit Intel und AMD. Allerdings müssen ARM und AMD zur Technologie von Intel aufschließen. Dies dauert ein Stück. Und in der Zeit schläft Intel auch nicht.
Wenn irgend ein Unternehmen bessere oder gleichwertige Prozessoren als Intel herstellen will brauchen sie mindestens n+1 Angestellte die in der Forschung und Entwicklung (R&D) tätig sind, mit n = Anzahl der Angestellten in Intels R&D Abteilung. Was dann aber auch heißt, dass diese Firma eine größere R&D Abteilung für Prozessoren haben muss als Intel selbst.
Natürlich vorausgesetzt, dass alle Angestellten Intelligenztechnisch gleich helle Leuchten sind und Entwicklung ausschließlich Entwicklungsarbeit bedeuted sowie keiner technologische Quantensprünge hinlegt wie z. B. bei der Erfindung eines Quantencomputers und sie dann ausschließlich für seine Firma patentiert.
Da hat man nicht einmal in Betracht gezogen, dass Intel eine hervorragende Vertriebsstruktur besitzt um neue Prozessoren schnell, in großer Zahl und weltweit fast gleichzeitig abzusetzen und der draus resultierende Cashflow direkt wieder im Bedarfsfall in die R&D Abteilung gepumpt werden kann. Bevor der Markt mit neuen, besseren Prozessoren einer kleinen Firma voll gesättigt werden kann hat Intel womöglich in der Zeit schon durch forcierte Entwicklung aufgeschlossen, die Chips produziert und sie weltweit bis zur Marktsättigung abgesetzt.
Lokadamus
2013-11-24, 18:59:26
Es geht erstmal in erster Linie um CPUs.
Ich verstehe nicht, warum es passieren konnte, dass die Jagd nach mehr Takt so plötzlich aufgehört hat. So als wäre da etwas faul. Ja, uns ist zwar allen bekannt, dass höhere Taktraten viel höhere Temperaturen erzeugen würden, das ist Physik. Doch bis vor 7 Jahren hat man es ja dennoch immer geschafft CPUs schneller zu machen. Und dann war plötzlich Schluss.Ich denke, das war damals so nicht direkt absehbar bzw. man dachte, man würde es durch ein einfaches Kühlungsverfahren in den Griff bekommen. Dies ist nicht passiert und der Stromverbrauch dürfte auch ein Grund sein, warum man nicht bei 5 oder mehr GHz angelangt ist.
Die CPUs werden doch weiterhin immer schneller.
Intel entwickelt in diesem Sinne sehr schnell.
http://en.wikipedia.org/wiki/Intel_Tick-Tock
Sie könnten ohne Probleme die Entwicklung verlangsamen und den Markt für die nächsten 5 Jahren mit Haswell versorgen. Stattdessen will man in 5 Jahren bei 7nm angekommen sein. Momentan werden die CPUs in 22nm Größe hergestellt.
gnahr
2013-11-24, 21:57:45
nah, intel kannst in der rechnung nicht so einfach einspannen. sie sind zwar marktführer und ne echte institution, aber im kapitalismus strebt ja immer alles nach wachstum und ausdehnung und auch für intel gibt es noch genug märkte in denen sie nicht dominieren. zum beispiel gegen arm im ultra-tiny und mobil-markt für kleingeräte müssen sie echt den finger ziehen um boden gut zu machen. sprich intels anstrengungen laufen jetzt nicht auf den 12körner mit 7ghz default im jahr 2015, sondern dann für mobile anwendungen arm zurück ins meer gedränkt zu haben und dort der übliche ausstatter zu sein.
Radeonator
2013-11-25, 12:03:50
Ich denke es ist derzeit einfach der Multicore Strategie zum Opfer gefallen. Es werden eher schnellere Strukturen erarbeitet, den alte STrukturen schneller laufen zu lassen. Das ist eigentlich ein guter Weg und an eine Verschwörung glaube ich hier absolut nicht.
Hayab
2013-11-26, 01:34:52
Am erfolgreichsten haben doch die Softwareschmieden ala MS die CPU Entwicklung gebremst. Was war das fuer ein Theater mit x86_64 (amd64) Technologie, als MS kein 64 Bit OS herausbringen wollte.
Als der Core Duo auf dem Markt kam, waere es sicher moeglich fuer intel CPUs mit 8 und mehr cores auf dem Markt zu werfen. Leider hat damals selbst mit passenden OS kaum ein Programm die verfuegbaren 4 bzw. 2 Kerne optimal genutzt. Selbst heute gibt es Spiele die nur auf 1 core laufen.
Neue CPU Architekur kann man schnell Zusammenschustern, bei Software ist es anders. Da jede Software praktisch immer ein Update auf dem Vorgaenger ist, so muss man in der Hardware bestimmte Ausfuehrungeinheiten beibehalten.
Wenn man von der Annahme ausgeht, dass Intel bzgl. Prozessoren auf dem technologisch höchsten Stand sind heißt das in dieser Annahme auch, dass alle anderen noch aufschließen müssen.
Bitte, es gibt doch nicht nur Intel. :rolleyes: Daran merkt man, daß Du noch recht jung bist. ;) In den 80er bis Anfang 90ern war Motorola ein größerer Hersteller der 68k-Serie als Intel, da hat Intel noch davon geträumt, ein ganz großer zu sein. Das führte im Konsortium Apple, IBM und Motorola zum PowerPC-Prozessor, den heute IBM noch alleine erfolgreich nutzt. Sun hat seine Sparc-Serie, HP hatte HP-Risc. Das Projekt Itanium vom HP und Intel geht langsam unter, NEC ist auch noch aktiv, und hatte jahrelang bei den Supercomputer eine einsame Spitzenposition inne. Deren SX-Prozessoren sind im Vektorbereich nach wie vor einer der schnellsten.
Gerade für den Homecomputerbereich war die 68k und ist die PowerPC-Architektur doch den Intel weit überlegen. Die kannten bereits 32-Bit-Adressierung, da hing Intel damals noch im 8-Bit-Bereich rum. Jeder, der von programmieren Ahnung hat, wird Dir bestätigen, daß die Intel-Prozessoren eigentlich in vielen Bereichen, gelinde gesagt, nicht dolle sind. Das geht in der Adressierung des Speichers los, bis hin der Aufbau der Befehle und der Verarbeitung. Von dem beknackten Little-Endian, was nur Intel hat, mal ganz zu schweigen, oder dem leidigen A20-Gate, was als Krücke bis heute in den Intelprozessoren existiert (nur in den Xeons flog es bei Nehalem raus).
Dann gibt es noch so viele Firmen, die Custom- und Spezialchips, Nachrichtenchips usw. herstellen, davon viele in Asien. Wie gesagt, wenn eine davon eine Chance hätte, bahnbrechende CPU-Architekturen auf den Markt zu bringen, würden sie es ohne weiteres tun.
Die Welt spricht nicht nur Intel. Allein durch diese Vielfalt ist die These mit der Drosselung durch die Geheimdienste einfach nur Quatsch. Intel hat nur deshalb gewonnen, weil sie so findig waren, in der Industrie und Wirtschaft Fuß zu fassen. Und da ist ein wichtiges Kriterium Investitionsschutz und Beständigkeit, gerade mit Software. Deshalb, und nur deshalb konnte sich Intel durchsetzen, und ist im Serverbereich stark geworden, weil Intel-Prozessoren durch die Masse einfach billiger waren. Wie ungenügend die Intel-Architektur ist, merkt man ja im Mobile-Bereich, wo Intel bisher wenig zu melden hat, da führt eindeutig ARM und Qualcomm.
Matrix316
2013-12-09, 12:34:13
Intel hat halt auch gewonnen, wegen der Abwärtskompatibilität. Nicht beim Sockel ;), sondern wegen der Software. Beim Amiga z.B. liefen dann plötzlich einige Programme auf dem 68040 nicht mehr, die auf dem 68000er noch liefen und der PowerPC war dann garnicht mehr direkt kompatibel zum 68000er. (siehe Mac) Beim PC läuft im Prinzip auf dem neuesten Core i7 immer noch das gleiche wie auf 8086ern, jedenfalls mit dem gleichen OS. ;) Behaupte ich jetzt mal so ganz frech. :)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.