Archiv verlassen und diese Seite im Standarddesign anzeigen : Ist der A64 wegen fehlenden 64bit Programmen ein Reinfall?
klumy
2005-08-13, 13:09:40
Irgendwie komme ich mir im Stich gelassen vor. 64BIt Programme dürften wohl erst in den nächsten 2 Jahren en masse erhältlich sein. Bis dahin muss ich noch mit 32Bit rumdümpeln. Zu kaufen gibt es die 64BIt VErsion von WinXP auch nirgendwo, ausser als OEM Version.
Die nicht aktivierbare Mehrleistung von 64Bit verpufft somit :(
Ausser C&Q bietet der A64 keinen Mehrwert. Da hätte es auch ein schneller Sempron getan
StefanV
2005-08-13, 13:14:55
Öhm, MMX, SSE?!
Das XP64 so lang auf sich warten ließ, kannst Intel verdanken.
BlackBirdSR
2005-08-13, 13:27:45
Irgendwie komme ich mir im Stich gelassen vor. 64BIt Programme dürften wohl erst in den nächsten 2 Jahren en masse erhältlich sein. Bis dahin muss ich noch mit 32Bit rumdümpeln. Zu kaufen gibt es die 64BIt VErsion von WinXP auch nirgendwo, ausser als OEM Version.
Die nicht aktivierbare Mehrleistung von 64Bit verpufft somit :(
Ausser C&Q bietet der A64 keinen Mehrwert. Da hätte es auch ein schneller Sempron getan
Ich glaube, das musst du unbedingt neu formulieren.
Ist 64Bit eine Einttäuschung oder sowas.
Aber der Athlon64 oder K8? Dagegen würde ich mich schwer wehren.
SKYNET
2005-08-13, 13:28:44
Irgendwie komme ich mir im Stich gelassen vor. 64BIt Programme dürften wohl erst in den nächsten 2 Jahren en masse erhältlich sein. Bis dahin muss ich noch mit 32Bit rumdümpeln. Zu kaufen gibt es die 64BIt VErsion von WinXP auch nirgendwo, ausser als OEM Version.
Die nicht aktivierbare Mehrleistung von 64Bit verpufft somit :(
Ausser C&Q bietet der A64 keinen Mehrwert. Da hätte es auch ein schneller Sempron getan
dir ist schon bewusst das die pro-taktleistung eines A64 deutlich höher ist als die von sonem mülligem sempron b.z.w. A-XB/Barton? :|
Matrix316
2005-08-13, 13:41:05
Irgendwie komme ich mir im Stich gelassen vor. 64BIt Programme dürften wohl erst in den nächsten 2 Jahren en masse erhältlich sein. Bis dahin muss ich noch mit 32Bit rumdümpeln. Zu kaufen gibt es die 64BIt VErsion von WinXP auch nirgendwo, ausser als OEM Version.
Die nicht aktivierbare Mehrleistung von 64Bit verpufft somit :(
Ausser C&Q bietet der A64 keinen Mehrwert. Da hätte es auch ein schneller Sempron getan
Nur ist ein Sempron langsamer als ein A64, genauso wie ein XP auch langsamer ist, ein P4 ist auch langsamer. Also was willste mehr? ;)
Rhönpaulus
2005-08-13, 13:42:44
"64bit programme" werden auch in zwei jahren nicht in massen erhältlich sein.
da es auch performancenachteile gegenüber 32bit-code gibt und sich 64bit-code deshalb nur für bestimmte arten von routinen eignet wird er bestimmt nur gezielt in teilbereichen der programme eingesetzt werden.
der größte vorteil ist der erheblich größere physikalische speicheraddressraum der 64bit-cpus welcher erst die verarbeitung von vielen großen programmen unter einem multitasking-os möglich macht.
das bringt erhebliche vorteile beim mappen des virtuellen adressraumes mit sich.
das zumindest die amd-exemplare der 64-bit-cpus kein reinfall sind sieht man schon an den marktpreisen welche amd verlangen kann um seine cpus abzusetzen.
aus dem schatten des alternativer billigherstellers gegenüber dem ehemaligen marktdominator intel ist amd nun herausgetreten und fischt im wesendlich lukrativeren highendbereich mit wärend der lowcostbereich nicht mehr das alleinige standbein neben der flashspeicherproduktion ist.
patrese993
2005-08-13, 13:43:49
der A64 (San Diego) ist imo momentan state of the art bei Single Cores, aber müllig würde ich deswegen einen A-XP nicht bezeichnen.
mike49
2005-08-13, 13:49:51
der A64 (San Diego) ist imo momentan state of the art bei Single Cores, (..)
Wenn man nur 64Bit CPU's berücksichtigt, dann ja.
Aber da kommt dann halt wieder das Problem, das 64Bit z.Zt. noch nicht viel bringt...
Der K8 Prozessor ist imo ein Meilenstein in der CPU-Geschichte. Tolle Performance, äusserst stabil und dazu noch verhältnismässig genügsam in Bezug auf den Stromverbrauch.
Ronny145
2005-08-13, 13:55:53
Wenn man nur 64Bit CPU's berücksichtigt, dann ja.
Aber da kommt dann halt wieder das Problem, das 64Bit z.Zt. noch nicht viel bringt...
Was fehlt dann noch? Du meinst die mobile CPU P-M?
Juerg
2005-08-13, 13:59:44
Wenn man nur 64Bit CPU's berücksichtigt, dann ja.
Aber da kommt dann halt wieder das Problem, das 64Bit z.Zt. noch nicht viel bringt......und nur x86 CPUs berücksichtigt ;)
thiron
2005-08-13, 14:01:30
Das wichtige ist das die Technologie erhaeltlich ist. Denn ohne eine grosse Bandbreite an genutzen 64bit Prozessoren werden die Softwaere Hersteller auch keine Anstrengungen machen in diese Richtung.
Mit Windows Vista wird sich da einiges Aendern. 64bit fuer das Volk. ;)
grandmasterw
2005-08-13, 14:05:31
1) Es gibt auch andere Betriebssysteme als Windows.
2) Einer muss mal anfangen mit 64 Bit. Bis man wirklich die Vorteile auskosten kann, hat man zwar schon die nächste CPU, aber zum entwickeln braucht man ja auch welche.
3) Auch mit 32 Bit ist der A64 nicht übel.
4) sind AMD CPUs mangels vernünftiger Chipsätze sowieso immer ein Reinfall *flame*.
drdope
2005-08-13, 14:09:25
Irgendwie komme ich mir im Stich gelassen vor. 64BIt Programme dürften wohl erst in den nächsten 2 Jahren en masse erhältlich sein. Bis dahin muss ich noch mit 32Bit rumdümpeln. Zu kaufen gibt es die 64BIt VErsion von WinXP auch nirgendwo, ausser als OEM Version.
Die nicht aktivierbare Mehrleistung von 64Bit verpufft somit :(
Ausser C&Q bietet der A64 keinen Mehrwert. Da hätte es auch ein schneller Sempron getan
Wer zwingt dich den bitte Windows einzusetzen, ich hab hier ein "reinrassiges" (böses Wort) 64Bit Gentoo Linux laufen. Alles selbst kompiliert und zu 100% an meine Hardwareumgbung und Anforderungen angepaßt.
Nicht, das die 64Bit jetzt nen großen Performanceunterschied machen würden. Es geht - wie in den vorherigen Postings schon beschrieben - primär um den größeren Adressraum.
Vielleicht solltest du einfach mal deine Scheuklappen abnehmen und realisieren, das es für viele Leute mehr gibt als Windows und Spiele.
Was kann die bitteschön die CPU dafür, wenn du deine Auswahl künstlich beschränkst?
mike49
2005-08-13, 14:19:30
Was fehlt dann noch? Du meinst die mobile CPU P-M?
Genau den habe ich gemeint. Sehr effizientes Design bei niedrigem Stromverbrauch -> optimal für heutige 32-bit Win-Systeme.
Der A64 ist jedoch bestimmt kein Reinfall, schließlich ist er auch die deutlich bessere 32-bit CPU als sein Vorgänger. Und daß der Umstieg 32-bit -> 64-bit nunmal dauert ist bestimmt nicht AMD anzulasten! Ganz im Gegenteil: Ohne den A64 wären wir in Sachen 64-bit frühestens in 1-2 Jahren dort, wo wir jetzt schon sind.
dargo
2005-08-13, 14:36:14
Der K8 Prozessor ist imo ein Meilenstein in der CPU-Geschichte. Tolle Performance, äusserst stabil und dazu noch verhältnismässig genügsam in Bezug auf den Stromverbrauch.
Das sehe ich auch so. Die Mhz Leistung ist deutlich gestiegen gegenüber dem Athlon XP. Da juckt es mich nicht so besonders, daß es so mau bei 64Bit Programmen aussieht.
Was ich viel wichtiger finde ist - der deutlich gesunkene Stromverbrauch der A64 90nm CPUs. Denn für mich gibts nur zwei wichtige Punkte :
1. Gute Performance (egal ob 32 oder 64Bit)
2. Geringer Stromverbauch, weil sich so ein nahezu unhörbares System günstig realisieren lässt.
LOCHFRASS
2005-08-13, 14:56:57
Irgendwie komme ich mir im Stich gelassen vor. 64BIt Programme dürften wohl erst in den nächsten 2 Jahren en masse erhältlich sein. Bis dahin muss ich noch mit 32Bit rumdümpeln. Zu kaufen gibt es die 64BIt VErsion von WinXP auch nirgendwo, ausser als OEM Version.
Die nicht aktivierbare Mehrleistung von 64Bit verpufft somit :(
Ausser C&Q bietet der A64 keinen Mehrwert. Da hätte es auch ein schneller Sempron getan
In der Zeit, die man auf Win64-Software wartet, schafft man es auch locker auf Linux (oder FreeBSD, Solaris, was-weiss-ich, ...) umzusteigen.
Das XP64 so lang auf sich warten ließ, kannst Intel verdanken.
Was soll Intel denn mit M$ zu tun haben?
der A64 (San Diego) ist imo momentan state of the art bei Single Cores, aber müllig würde ich deswegen einen A-XP nicht bezeichnen.
Der Barton ist ein uebler Heizer, erst recht uebertaktet, da gibts selbst mit nem Prescott mehr Leistung pro Watt.
4) sind AMD CPUs mangels vernünftiger Chipsätze sowieso immer ein Reinfall *flame*.
SiS 756... ;)
2. Geringer Stromverbauch, weil sich so ein nahezu unhörbares System günstig realisieren lässt.
"nahezu unhoerbar" setzt ne passiv gekuehlte CPU fast schon automatisch voraus, das kann man mit nem A64 leider vergessen, sofern man ein wenig mehr Leistung haben will. Die Dual-Cores verbraten uebrigens auch ziemlich viel, ich warte da eher auf 65nm-CPUs aka Yonah... ;)
Ronny145
2005-08-13, 15:00:06
"nahezu unhoerbar" setzt ne passiv gekuehlte CPU fast schon automatisch voraus, das kann man mit nem A64 leider vergessen, sofern man ein wenig mehr Leistung haben will. Die Dual-Cores verbraten uebrigens auch ziemlich viel, ich warte da eher auf 65nm-CPUs aka Yonah... ;)
Das geht schon. Ein Lüfter mit unter 1000U/min in einem guten Gehäuse ist für mich nahezu unhörbar. Aber das empfindet sicher jeder anders.
Spasstiger
2005-08-13, 15:10:16
Der Threadstarter ist wohl ein klassisches Marketingopfer.
spinoza
2005-08-13, 15:20:06
Der Threadstarter ist wohl ein klassisches Marketingopfer.
genau, office und surfen geht nun mal nicht schneller, die graka löppt auch nicht schneller, ebenso der brenner oder mp3 oder tv. :rolleyes:
Dalai-lamer
2005-08-13, 15:25:47
Ja und das gibt es leider zu oft.
Viele kaufen sich einen Athlon XP weil sie sich sagen das sie keine 64 bit brauchen. Das ist krass oder ?
hab selbst einen Kumpel, der dachte das der einzige Vorteil von einem A64 die nciht nutzbaren 64 Bit sind.
Hätte man die CPU Athlon Extreme Gaming genannt, würde der weggehen wie Butter. Ich kann mir soagr vorstellen das die 64 Bit Technik aus diesem grund genauso viele leute verscheucht wie sie lockt...
naja sollen sie sich nen XP oder Prescott holen ;), dann ist mehr für mich da
hihi
stav0815
2005-08-13, 15:45:48
"nahezu unhoerbar" setzt ne passiv gekuehlte CPU fast schon automatisch voraus, das kann man mit nem A64 leider vergessen, sofern man ein wenig mehr Leistung haben will. Die Dual-Cores verbraten uebrigens auch ziemlich viel, ich warte da eher auf 65nm-CPUs aka Yonah... ;)
das is ja wohl ein Witz.
ich hab einen Duron 1800 und betreibe ein System bei dem die Drehung der Festplatte lauter ist als alles andere und es läuft.
ich stell mir das mit nem A64 noch besser vor dank C&Q
das is ja wohl ein Witz.
ich hab einen Duron 1800 und betreibe ein System bei dem die Drehung der Festplatte lauter ist als alles andere und es läuft.
ich stell mir das mit nem A64 noch besser vor dank C&Q
Das ist kein Witz, sondern richtig.
C&Q bringt herzlich wenig, wenn die volle CPU-Power genutzt werden soll, denn dann ist C&Q nicht mehr aktiv und die Kühlung muss besser sein, als im idle und C&Q-Mode.
Wer kauft seinen Prozessor, um ihn die ganze Zeit herum-idlen-zu lassen:confused:
Ronny145
2005-08-13, 16:04:57
Das ist kein Witz, sondern richtig.
C&Q bringt herzlich wenig, wenn die volle CPU-Power genutzt werden soll, denn dann ist C&Q nicht mehr aktiv und die Kühlung muss besser sein, als im idle und C&Q-Mode.
Wer kauft seinen Prozessor, um ihn die ganze Zeit herum-idlen-zu lassen:confused:
Doch das ist möglich. Mein Lüfter dreht mit 1000U im idle sowie unter Last. Ich habe keine Temperaturprobleme mit einem einfachen Silentboost K8.
Man kann dank C&Q die Taktfrequenz und Spannung des Prozessors während dem Betrieb anpassen - kann also immer wählen zwischen ganz viel Leistung und lauter Kühlung, viel Leistung und leiser Kühlung, und etwas weniger Leistung bei unhörbarer Kühlung - was will man mehr?
Das ist kein Witz, sondern richtig.
C&Q bringt herzlich wenig, wenn die volle CPU-Power genutzt werden soll, denn dann ist C&Q nicht mehr aktiv und die Kühlung muss besser sein, als im idle und C&Q-Mode.
Wer kauft seinen Prozessor, um ihn die ganze Zeit herum-idlen-zu lassen:confused:Es gibt auch noch was zwischen Idle und voller CPU-Power. C&Q schaltet sich nicht von selbst ab, sondern ist immer aktiv. Je nach Last wird die entsprechende Stufe gewählt. Es gibt Aufgaben da reicht sogar die unterste Stufe. Dann wird auch nicht hochgeschaltet. Aber selbst wenn die Anforderungen steigen, wird nicht dauerhaft die höchste Stufe verwendet.
dargo
2005-08-13, 16:37:17
"nahezu unhoerbar" setzt ne passiv gekuehlte CPU fast schon automatisch voraus, das kann man mit nem A64 leider vergessen, sofern man ein wenig mehr Leistung haben will. Die Dual-Cores verbraten uebrigens auch ziemlich viel, ich warte da eher auf 65nm-CPUs aka Yonah... ;)
1. Habe ich hier eher eine Singlecore CPU @Venice 3000+ gemeint. ;)
Die dann mit 1,2-1,3Vcore passiv zu kühlen ist keine Kunst. Da ich aber von passiv nicht viel halte meine ich mit nahezu unhörbar einen 80-92mm Lüfter @1000U/min. Damit eine CPU mit ca. 20-25W (bei 1,2-1,3V) Verlustleistung zu kühlen ist überhaupt kein Problem.
2. Der 65nm Fertigungsprozess bringt dir kaum eine CPU mit deutlich weniger Verlustleistung da AMD dann die Taktfrequenzen dementsprechend wieder erhöht. Dazu müsste AMD die Vcore schon um einiges wieder senken. Ich kann mir aber kaum vorstellen, daß noch Singelcore CPUs im 65nm Fertigungsprozess kommen werden, oder etwa doch ?
Wenn nicht, hat sich der Vergleich zwischen dem jetzigen Winchester/Venice Core und später einem Dualcore @65nm eh erledigt was den Stromverbrauch angeht. Ich kann mir kaum vorstellen, daß AMD demnächst eine Dualcore CPU mit <35W Verlustleistung herausbringt.
Tigerchen
2005-08-13, 16:37:49
Irgendwie komme ich mir im Stich gelassen vor. 64BIt Programme dürften wohl erst in den nächsten 2 Jahren en masse erhältlich sein. Bis dahin muss ich noch mit 32Bit rumdümpeln. Zu kaufen gibt es die 64BIt VErsion von WinXP auch nirgendwo, ausser als OEM Version.
Die nicht aktivierbare Mehrleistung von 64Bit verpufft somit :(
Ausser C&Q bietet der A64 keinen Mehrwert. Da hätte es auch ein schneller Sempron getan
Gabs denn sofort ein Betriebssystem und Programme welche die neuen Möglichkeiten des Intel i386 nutzten? Oder kam das alles erst Jahre später?
Du hast beim A64 eine tolle 32 Bit Leistung und die Entwickler wissen wie die Zukunft aussieht. Das ist das Wichtigste. Der Zukünftige Standard ist klar definiert und das Schönste daran ist daß er voll kompatibel zu deinen Softwareschätzen ist. Stell dir vor das Ganze wäre gelaufen wie bei den DVD-Formaten. Was wäre das für ein Chaos geworden!
Wenn dir ein Sempron reicht warum hast du dir keinen geholt? :confused:
StefanV
2005-08-13, 17:15:10
Gabs denn sofort ein Betriebssystem und Programme welche die neuen Möglichkeiten des Intel i386 nutzten? Oder kam das alles erst Jahre später?
Jahrzehnte triffts schon fast besser ;)
Eines wurde immer noch nicht deutlich genug unterstrichen: der A64 ist einfach deutlich schneller als ein AXP, und ich spreche nicht von 64bit-Anwendungen.
Das Fazit des 3DCenter-eigenen "AXP vs. A64"-Artikels (http://www.3dcenter.org/artikel/2005/04-10_a.php) kommt zu dem Schluss, dass ein AXP etwa 25% weniger Leistung bei selbem Takt gegenüber einem AX64 bietet, und das logischerweise bei "gewöhnlichen" 32bit-Spielen.
Das muss man dem A64 neben anderen Vorteilen wie C'n'Q, der geringeren Abwärme, dem NX-Bit und der 64bit-Unterstützung zugestehen.
Matrix316
2005-08-13, 18:55:36
Wenn der A64 ein Reinfall sein soll, was ist dann der P4 Prescott? :rolleyes: Bis Intel eine ebenbürtige Spieler CPU bieten kann, dürfte es auch noch ein paar Monate vergehen...(den PM mal außen vor gelassen, weil der ja unverhältnismäßig teurer ist)
Ich meine, wo gibts denn sonst eine CPU für 100 € die eine einem A643000+ ebenbürtige Leistung bringen kann?
Oblivion
2005-08-13, 23:01:19
Irgendwie komme ich mir im Stich gelassen vor. 64BIt Programme dürften wohl erst in den nächsten 2 Jahren en masse erhältlich sein. Bis dahin muss ich noch mit 32Bit rumdümpeln. Zu kaufen gibt es die 64BIt VErsion von WinXP auch nirgendwo, ausser als OEM Version.
Die nicht aktivierbare Mehrleistung von 64Bit verpufft somit :(
Ausser C&Q bietet der A64 keinen Mehrwert. Da hätte es auch ein schneller Sempron getan
Ob sich jetzt der Browser um 1 sek schneller öffnet oder nicht is ja wohl wurscht (falls er das überhaupt tut) - 64 bit bringt vorallem wegen dem physikalischem Speicheradressraum etwas ... und wie Matrix316 vollkommen richtig sagte, wenn dir der A64 nicht gefällt nimm dir halt nen P4 mit EM64T - bin gespannt wann du dann den nächsten Thread aufmachst wo du dich dann übern P4 aufregst ;D
Irgendwie komme ich mir im Stich gelassen vor. 64BIt Programme dürften wohl erst in den nächsten 2 Jahren en masse erhältlich sein. Bis dahin muss ich noch mit 32Bit rumdümpeln. Zu kaufen gibt es die 64BIt VErsion von WinXP auch nirgendwo, ausser als OEM Version.
bevor Du hier rummeckerst, informier Dich mal wie lange der 32bit 80386 auf dem Markt war bis das so einigermaßen 32bit Windows 95 endlich kam... ;)
Rainer
Avalox
2005-08-15, 13:54:08
Ob zu Lebzeiten der jetzigen DualCore CPUs noch mit einem Nutzen bei üblichen Anwendungen zu rechnen ist?
:redface:
Hamster
2005-08-15, 14:13:07
Ob zu Lebzeiten der jetzigen DualCore CPUs noch mit einem Nutzen bei üblichen Anwendungen zu rechnen ist?
:redface:
jop.
Avalox
2005-08-15, 14:28:27
Gabe Newell hat doch so einiges Interessantes zu SMP Lösungsansätze in Unterhaltungssoftware gesagt.
Wie lange ist denn die Lebenszeit der Xbox360? Drei Jahre? Vier Jahre? Wie lange die Lebenszeit einer PC CPU? Deutlich kürzer. Zwei Jahre?
Na jedenfalls, hat er ordentliche SMP Ansätze in der Software (http://www.golem.de/0507/39480.html) für die XBox360 in derer Lebenzeit angezweifelt.
Gewisse Parallelen kann man schon ziehen.
DrumDub
2005-08-15, 15:07:52
hab den threadtitel mal angepasst...
ich bin jedenfalls sehr zufreiden mit meinem a64. :)
und 64bit linux und anwendungen gibts ja auch noch, wenn man echte 64bit power nutzen will. ;)
Hamster
2005-08-15, 15:18:33
die rede war von üblichen anwendungen.
und da ziehen heute schon mehrere einen nutzen draus. von der besseren ansprechbarkeit des systems ganz zu schweigen. und vergiss nicht, daß die lebensdauer der pcs (die leistung, nicht die lebhensdauer der komponenten ;)) immer länger reicht. man also mit einem heute gekauften dualcore noch wunderbar in 5 jahren arbeiten können wird. womöglich auch weit darüber hinaus, wenn man mal ein blick auf die heute noch eingesetzten dual p3s (plural, nicht p3-s ;)) schaut.
das die programmierung in spielen schwieriger ist, ist klar. es erwartet auch niemand, dass die programmierer jeden prozess versuchen zu parallelisieren. das ist zu teuer und zu zeitaufwändig. es würde schon genügen, wenn man gewisse prozesse in threads auslagert (zb ki, sound etc) und man so zumindest ein bischen ein geschwindigkeitsschub hat.
Avalox
2005-08-15, 15:34:58
vergiss nicht, daß die lebensdauer der pcs (die leistung, nicht die lebhensdauer der komponenten ;)) immer länger reicht. man also mit einem heute gekauften dualcore noch wunderbar in 5 jahren arbeiten können wird. womöglich auch weit darüber hinaus, wenn man mal ein blick auf die heute noch eingesetzten dual p3s (plural, nicht p3-s ;)) schaut.
Wir haben in den letzten Jahren ein anormales Verhalten. Alle CPU Hersteller sind in die Takt/Miniaturisierungsfalle gelaufen. Fortschritte minimal.
Der Multicore ist die Antwort auf dieses Dilemma. Mit dem Kniff SMP@Home steht einen neuen Wettlauf auf hohen Niveau nichts mehr im Wege.
Allein die Softwareentwicklung muss sich anpassen.
Sobald sich eine Multicore CPU Zuhause in eine tatsächlich nutzbare Rechenleistung niederschlägt und sich deshalb auch ordentlich verkaufen, werden auch Anwendungen wieder kommen welche diese Rechenleistung benötigen und die Aufrüstungsspirale wieder sehr viel schneller drehen lassen.
Alle alten Hardware Limitierungen sind konzeptionell durchbrochen. Wir dümpeln nicht mehr mit einer 32Bit Adressierung und die Rechenleistung skaliert dank Multicore auch wieder ordentlich. Allein die Anwendungen fehlen.
Aber diese werden kommen und der Ansturm auf die jährlichen Aldi PCs wieder zulegen.
HellHorse
2005-08-15, 16:02:59
da es auch performancenachteile gegenüber 32bit-code gibt und sich 64bit-code deshalb nur für bestimmte arten von routinen eignet wird
Dann erzähl mal.
der größte vorteil ist der erheblich größere physikalische speicheraddressraum der 64bit-cpus welcher erst die verarbeitung von vielen großen programmen unter einem multitasking-os möglich macht.
Mit virtuellem Addressraum ist irgendwo zwischen 1.5 bis 2 GB Schluss und der Vorteil von 64bit ist der grössere physikalische Addressraum. Was habe ich da verpasst?
Ansonsten:
.NET, Java
Tigerchen
2005-08-15, 16:04:43
Wir haben in den letzten Jahren ein anormales Verhalten. Alle CPU Hersteller sind in die Takt/Miniaturisierungsfalle gelaufen. Fortschritte minimal.
Der Multicore ist die Antwort auf dieses Dilemma. Mit dem Kniff SMP@Home steht einen neuen Wettlauf auf hohen Niveau nichts mehr im Wege.
Allein die Softwareentwicklung muss sich anpassen.
Sobald sich eine Multicore CPU Zuhause in eine tatsächlich nutzbare Rechenleistung niederschlägt und sich deshalb auch ordentlich verkaufen, werden auch Anwendungen wieder kommen welche diese Rechenleistung benötigen und die Aufrüstungsspirale wieder sehr viel schneller drehen lassen.
Alle alten Hardware Limitierungen sind konzeptionell durchbrochen. Wir dümpeln nicht mehr mit einer 32Bit Adressierung und die Rechenleistung skaliert dank Multicore auch wieder ordentlich. Allein die Anwendungen fehlen.
Aber diese werden kommen und der Ansturm auf die jährlichen Aldi PCs wieder zulegen.
Ich denke nicht daß die Aufrüstungsspirale sich in Zukunft wieder schneller drehen wird. Die Zeiten sind vorbei.
Zudem ist Windows Vista doch defaultmässig 64Bit ;)
Gandharva
2005-08-15, 16:21:48
Ich denke nicht daß die Aufrüstungsspirale sich in Zukunft wieder schneller drehen wird. Die Zeiten sind vorbei.
ok, der gigahertz wahn ist erstmal vorbei. das generelle tempo wird imo trotzdem beibehalten werden. es geht nun eben mehr in die breite (multicore). in der jetzt beginnenden umstellungsphase wird es evtl. nicht so schnell voran gehen, weil erstmal die optimierte software noch fehlt. über kurz oder lang wird diese aber auf multicore/64bit optimiert sein und ob nun 2, 4 oder gar 8 cores werkeln wird den entwicklern wenig probleme bereiten wenn die anwendungen erstmal multicore optimiert sind.
ShadowXX
2005-08-15, 16:34:59
Zudem ist Windows Vista doch defaultmässig 64Bit ;)
Es gibt Vista als 32 und 64Bit Version.
Und so wie ich MS kenne, wird man auch beide Versionen getrennt kaufen müssen.
Avalox
2005-08-15, 16:47:54
Striper da hast du absolut Recht.
@Tigerchen
Wenn du sagst, dass die Aufrüstungspirale sich nicht so schnell weiter dreht.
Dann sagst du damit auch, dass heutige Anwendungen eigentlich alle Bedüfniss erfüllen.
Ich denke, wir sind heute zwar schon ein Stückchen weiter als 1976, aber eben nicht viel.
Der grösste Vorteil vor damals ist dabei vielleicht die Vernetzung im Internet.
Aber die Schnittstelle zum Menschen ist doch nach wie vor nur erbärmlich.
Ein Computer muss sprechen können, zuhören, verstehen und die Gestik des Users verstehen können. Daraus muss der PC auf das zukünftige Verhalten des Users schliessen können. Der PC muss also irgendwann vor dem Benutzer wissen, wass er eigentlich will.
Der Computer muss auch das Vertrauen des Benutzers haben. Sein persönlicher Agent muss im Namen des Benutzers Entscheidungen treffen.
Erst dann kann der Computer dem Menschen diese lästigen Routinearbeiten abnehmen.
+Ist die Kreditkarten Rechnung nun begründet, oder nicht. Steuererklärung ausfüllen. Lebenmittel bestellen. Filme für den Abend bestellen, von dehnen der Benutzer nie was gehört hat, aber trotzdem seinem Geschmack entsprechen. Beim Briefe schreiben Inspirieren. Gespräche sinnvoll simultan übersetzen. Geld verwalten, Geld anlegen. Etc, etc, etc.
Wir sind heute erst bei der 1 auf der nach oben offenen Skala.
Und solange solch einfachsten Ansätze nicht vorhanden sind, wir sitzen schließlich heute immer noch vor der Glotze und drücken Knöppe wie 1975 vor dem ersten Homecomputer, solange werden wir auch Geld für neue Hardware und Software ausgeben, welche das Leben ein wenig einfacher macht und neue Möglichkeiten eröffnet.
Nur konnten wir es in den letzten paar Jahren kaum, weil es einfach kaum was neues gab. Keine Chance zum Geld ausgeben.
Aber diese Chancen werden jetzt wieder kommen.
Es gibt keine 32Bit Speichergrenze und keine SingleCore/Takt Limitierung mehr. Der Zug nimmt wieder fahrt auf.
DR.DEATH
2005-08-15, 16:59:46
Striper da hast du absolut Recht.
...
Ein Computer muss sprechen können, zuhören, verstehen und die Gestik des Users verstehen können. Daraus muss der PC auf das zukünftige Verhalten des Users schliessen können. Der PC muss also irgendwann vor dem Benutzer wissen, wass er eigentlich will.
Der Computer muss auch das Vertrauen des Benutzers haben. Sein persönlicher Agent muss im Namen des Benutzers Entscheidungen treffen.
Erst dann kann der Computer dem Menschen diese lästigen Routinearbeiten abnehmen.
+Ist die Kreditkarten Rechnung nun begründet, oder nicht. Steuererklärung ausfüllen. Lebenmittel bestellen. Filme für den Abend bestellen, von dehnen der Benutzer nie was gehört hat, aber trotzdem seinem Geschmack entsprechen. Beim Briefe schreiben Inspirieren. Gespräche sinnvoll simultan übersetzen. Geld verwalten, Geld anlegen. Etc, etc, etc.
...
Sorry Avalox aber wenn ein Computer das koennen sollte muss er noch viel schneller werden und falls er dies alles kann, habe ich zu 100% KEIN Vertrauen in die Maschine! So einer Maschine wuerde ich nichtmal eine Rechenaufgabe anvertrauen.
Avalox
2005-08-15, 17:16:41
Sorry Avalox aber wenn ein Computer das koennen sollte muss er noch viel schneller werden
genau
und falls er dies alles kann, habe ich zu 100% KEIN Vertrauen in die Maschine! So einer Maschine wuerde ich nichtmal eine Rechenaufgabe anvertrauen.
Auch richtig. Weil du von heutiger Soft- und Hardware ausgehst und damit die heutigen Erfahrungen auf zukünftigen Computersystme projizierst.
Heutige Software sind aber vor allen Systeme, welche eine Mangel verwalten müssen.
Einen Mangel an Speicher und einen Mangel an Rechenleistung.
Hast du "mehr" Speicher und "mehr" Rechenleistung, dann kann man es sich leisten redundante und verschiedene Softwarelösungen an ein und dem selben Problem parallel werkeln zu lassen.
Zeigt eines dieser parallelen System einen Fehler oder stürzt gar ab, dann wird dieses erkannt und abgefangen. Zukünftige Systeme stürzen nicht mehr ab.
Natürlich ist auch die Programmierung dieser Systeme eine ganz andere als heute. Kein Mensch der Welt kann ein komplexes System von heute in Maschinencode programmieren. Längst programmiert sich die Maschine selbst. Das ist heute noch sehr einfach. Aber die Werkzeuge werden besser. Die Abstraktionsebenen immer zahlreicher.
Die Frage ist aktuell ob selbst C++ den Multicore Trend der nächsten Jahre überhaupt überleben wird.
Die Chancen stehen nicht besonders gut.
Es gibt keine 32Bit Speichergrenze und keine SingleCore/Takt Limitierung mehr. Der Zug nimmt wieder fahrt auf.
Die 32Bit Grenze hat Menschen vom Kaufen abgehalten? glaube ich kaum - denn wer hat schon 4GB RAM und wurde vom Aufrüsten auf noch mehr abgehalten?
Und keine Singlecore/Taktlimitierung mehr... Dual/Multicores sind groß/teuer, zudem lassen sich nicht alle Probleme einfach parallelisieren bzw. sinkt die Effizienz bei steigender Anzahl an Cores afaik...
Auch bei Grafikkarten wurde fast immer ein Teil der Mehrleistung durch höheren Energieverbrauch erkauft - damit ist nun (hoffentlich) auch Schluss...
nächstes Beispiel Festplatten...
Mitte 2001: 40GB/Platter
Ende 2002: 80GB/Platter
Ende 2004: "nur" 133GB/Platter
(Ankündigunsdaten entsprechender Seagate Platten)
Die Spirale wird sich weiterdrehen, ja, aber ob so schnell wie zu P3/P4 "Glanzzeiten"? glaube irgendwie nicht recht dran.
Gandharva
2005-08-15, 17:27:29
Die Spirale wird sich weiterdrehen, ja, aber ob so schnell wie zu P3/P4 "Glanzzeiten"? glaube irgendwie nicht recht dran.
weil du "die spirale" nur auf den gigahertz wahn projezierst. es geht weiter und zwar genauso schnell. nur eben anders. dein bsp. mit den plattern hinkt imo auch. man findet eben einfach möglichkeiten mehr davon paralell zu verbaun und schon steigt die gesamtkapazität trotzdem. is ne reine kostenfrage. und dual-cores sind noch teuer, aber sicher nicht mehr lange!
Avalox
2005-08-15, 17:27:51
Die 32Bit Grenze hat Menschen vom Kaufen abgehalten? glaube ich kaum - denn wer hat schon 4GB RAM und wurde vom Aufrüsten auf noch mehr abgehalten?
Man kauft keinen Speicher aus Selbstzweck.
Die 4GB Grenze hat die Softwareentwicklung abgehalten, Anwendungen zu entwickeln, welche mehr als 4 GB brauchen.
Der Mensch wurde abgehalten 4GB in den Rechner zu stecken, weil es die Software, welche davon profitiert nicht gab.
glaube irgendwie nicht recht dran.
Das wird sich zeigen. Nur die Software entscheidet letztendlich.
DR.DEATH
2005-08-15, 17:34:01
genau
Auch richtig. Weil du von heutiger Soft- und Hardware ausgehst und damit die heutigen Erfahrungen auf zukünftigen Computersystme projizierst.
Heutige Software sind aber vor allen Systeme, welche eine Mangel verwalten müssen.
Einen Mangel an Speicher und einen Mangel an Rechenleistung.
Hast du "mehr" Speicher und "mehr" Rechenleistung, dann kann man es sich leisten redundante und verschiedene Softwarelösungen an ein und dem selben Problem parallel werkeln zu lassen.
Zeigt eines dieser parallelen System einen Fehler oder stürzt gar ab, dann wird dieses erkannt und abgefangen. Zukünftige Systeme stürzen nicht mehr ab.
Natürlich ist auch die Programmierung dieser Systeme eine ganz andere als heute. Kein Mensch der Welt kann ein komplexes System von heute in Maschinencode programmieren. Längst programmiert sich die Maschine selbst. Das ist heute noch sehr einfach. Aber die Werkzeuge werden besser. Die Abstraktionsebenen immer zahlreicher.
Die Frage ist aktuell ob selbst C++ den Multicore Trend der nächsten Jahre überhaupt überleben wird.
Die Chancen stehen nicht besonders gut.
Tut mir leid aber das Ganze sieht mir schon verdammt nach kuenstlicher Intelligenz aus. Einer Maschine, die dies alles kann und dazu noch selbststaendig, vertraue ich nunmal nicht. Ich vertraue auch keinem Menschen 100%ig, der dies alles fuer mich macht.
Wuerde nur noch fehlen, dass dieser Computer fuer mich arbeiten geht und mit meinem Partner sexuell interagieren koennte und ich wuerde nichtmehr gebraucht werden :).
Avalox
2005-08-15, 17:42:34
Wuerde nur noch fehlen, dass dieser Computer fuer mich arbeiten geht
Na, dass würde ja kein Unternehmer machen. Dieser würde den Computer selbst kaufen und die Leute auf die Strasse setzten.
Moment. Nennt sich Rationalisierung und gibt es schon.
Je leistungsfähiger Computer werden umso mehr werden diese auch in Aufgaben der Entscheidungsfindung und Kreativität eingesetzt werden.
Damit werden Arbeitsplätze wegfallen, dass ist richtig.
Aber wer geht schon freiwillig arbeiten?
und mit meinem Partner sexuell interagieren koennte und ich wuerde nichtmehr gebraucht werden :).
Sehe dir doch mal Menschen an, welche sich Bedienstete für alle möglichen Aufgaben leisten können. Denkst du solch ein Mensch sieht sich noch selbst die Telefonrechnung an, oder macht sich Gedanken was es Abends zum Essen gibt?
Es liegt in der Natur des Menschen sich nicht mit langweiligen und lästigen Dingen zu beschäftigen.
DR.DEATH
2005-08-15, 18:02:27
snip
weiter oben:
Der Computer muss auch das Vertrauen des Benutzers haben. Sein persönlicher Agent muss im Namen des Benutzers Entscheidungen treffen.
Ich glaube kaum, dass eine Person, die es sich leisten kann fuer alles Bedienstete zu haben, alles im Namen von sich selbst Entscheiden zu lassen.
jetzt auf den vorherigen Post:
Ist soweit ja alles richtig aber es laesst sich eben nicht auf die komplette Menschheit projezieren. Wenn niemand mehr arbeiten geht, wer soll dann bitte die Computer etc. warten oder etwas neues erfinden? Jetzt kommst du sicher damit, dass die Computer sich selbst verwalten. Wenn es aber soweit kommt, sind wir nur noch Sklaven und wir haben rein garnichts zu bestimmen, ausser zu konsumieren, was uns von Computern vorgesetzt wird.
Die 4GB Grenze hat die Softwareentwicklung abgehalten, Anwendungen zu entwickeln, welche mehr als 4 GB brauchen.
Gegenthese: Die Tatsache, dass mehr als 1GB Speicher zur Zeit kaum einer hat, viele noch immer weniger haben, hat die Softwareindustrie davon abgehalten, Anwendungen zu entwickeln, welche (wesentlich) mehr als 1GB brauchen.
Noch kommt man idR. mit 1GB Speicher gut aus - und wenn 2+GB Speicher Standard sind, sollte auch ein 64Bit System Standard sein...
Das wird sich zeigen. Nur die Software entscheidet letztendlich.
Denke ich nicht. Natürlich, Rechenleistung kann man immer verwenden, da stimme ich dir zu. Aber deswegen entscheiden IMO Hardware und die Probleme/Lösungen, die wir haben, diese zu verbessern. Und die Software wird sich daran orientieren. (Wer kauft schon Software, die auf seiner/zur Zeit aktueller Hardware nicht läuft?)
Gandharva
2005-08-15, 18:22:09
(Wer kauft schon Software, die auf seiner/zur Zeit aktueller Hardware nicht läuft?)
z.b. leute mit einer 6800gt/x800pro oder größer die das spiel in vollen details geniessen wollen. sehr viele davon haben auf 2gb ram aufgerüstet.
z.b. leute mit einer 6800gt/x800pro oder größer die das spiel in vollen details geniessen wollen. sehr viele davon haben auf 2gb ram aufgerüstet.
Falsch gequotet?
Auch solche Leute kaufen sich bestimmt kein imaginäres Spiel, was sie erst in 5 oder 10 Jahren spielen können, da es erst mit der dann verfügbaren Hardware läuft... ;)
Gandharva
2005-08-15, 18:36:07
hier gings um die hardwarespirale. also nichtig gequotet. es gibt leute die sich software kaufen die auf ihrem jetzigen system nicht läuft und die wird es immer geben.
ob 64bit jetzt wirklich schon gebraucht wird sei einmal dahingestellt. schlecht oder gar negativ ist die umstellung sicher nicht. was multicore cpus/gpus etc... angeht sehe ich da mittelfristig bis langfristig gar keine andere möglichkeit.
Tigerchen
2005-08-15, 19:43:31
Striper da hast du absolut Recht.
@Tigerchen
Wenn du sagst, dass die Aufrüstungspirale sich nicht so schnell weiter dreht.
Dann sagst du damit auch, dass heutige Anwendungen eigentlich alle Bedüfniss erfüllen.
Ich denke, wir sind heute zwar schon ein Stückchen weiter als 1976, aber eben nicht viel.
Der grösste Vorteil vor damals ist dabei vielleicht die Vernetzung im Internet.
Aber die Schnittstelle zum Menschen ist doch nach wie vor nur erbärmlich.
Ein Computer muss sprechen können, zuhören, verstehen und die Gestik des Users verstehen können. Daraus muss der PC auf das zukünftige Verhalten des Users schliessen können. Der PC muss also irgendwann vor dem Benutzer wissen, wass er eigentlich will.
Der Computer muss auch das Vertrauen des Benutzers haben. Sein persönlicher Agent muss im Namen des Benutzers Entscheidungen treffen.
Erst dann kann der Computer dem Menschen diese lästigen Routinearbeiten abnehmen.
+Ist die Kreditkarten Rechnung nun begründet, oder nicht. Steuererklärung ausfüllen. Lebenmittel bestellen. Filme für den Abend bestellen, von dehnen der Benutzer nie was gehört hat, aber trotzdem seinem Geschmack entsprechen. Beim Briefe schreiben Inspirieren. Gespräche sinnvoll simultan übersetzen. Geld verwalten, Geld anlegen. Etc, etc, etc.
Wir sind heute erst bei der 1 auf der nach oben offenen Skala.
Und solange solch einfachsten Ansätze nicht vorhanden sind, wir sitzen schließlich heute immer noch vor der Glotze und drücken Knöppe wie 1975 vor dem ersten Homecomputer, solange werden wir auch Geld für neue Hardware und Software ausgeben, welche das Leben ein wenig einfacher macht und neue Möglichkeiten eröffnet.
Nur konnten wir es in den letzten paar Jahren kaum, weil es einfach kaum was neues gab. Keine Chance zum Geld ausgeben.
Aber diese Chancen werden jetzt wieder kommen.
Es gibt keine 32Bit Speichergrenze und keine SingleCore/Takt Limitierung mehr. Der Zug nimmt wieder fahrt auf.
Ich halte den Weg zur eierlegenden Wollmilchsau den du da beschreibst weder für realistisch noch für wünschenswert oder gar bezahlbar.
Realistisch gesehen schreien eigentlich nur Spiele nach immer mehr Leistung und auch diese schrauben ihre Ansprüche längst nicht mehr so stark in die Höhe wie noch vor ein paar Jahren. Ist ja auch logisch. Je komplizierter und realistischer die Spielewelten werden um so größer die Gefahr daß die Programmierer sich in ihrem Codedickicht verlaufen und nie fertig werden. Daher werden Spiele in Zukunft immer weniger schnell an Komplexität gewinnen. Und folglich wird die benötigte Prozessorpower auch nicht mehr so schnell wachsen.
Die von dir geforderten Fähigkeiten die so ein Computer bringen soll sind dann noch mal um ein Vielfaches komplexer. Wer soll das leisten und wer kann das bezahlen? :confused:
Tigerchen
2005-08-15, 19:48:41
genau
Auch richtig. Weil du von heutiger Soft- und Hardware ausgehst und damit die heutigen Erfahrungen auf zukünftigen Computersystme projizierst.
Heutige Software sind aber vor allen Systeme, welche eine Mangel verwalten müssen.
Einen Mangel an Speicher und einen Mangel an Rechenleistung.
Hast du "mehr" Speicher und "mehr" Rechenleistung, dann kann man es sich leisten redundante und verschiedene Softwarelösungen an ein und dem selben Problem parallel werkeln zu lassen.
Zeigt eines dieser parallelen System einen Fehler oder stürzt gar ab, dann wird dieses erkannt und abgefangen. Zukünftige Systeme stürzen nicht mehr ab.
Natürlich ist auch die Programmierung dieser Systeme eine ganz andere als heute. Kein Mensch der Welt kann ein komplexes System von heute in Maschinencode programmieren. Längst programmiert sich die Maschine selbst. Das ist heute noch sehr einfach. Aber die Werkzeuge werden besser. Die Abstraktionsebenen immer zahlreicher.
Die Frage ist aktuell ob selbst C++ den Multicore Trend der nächsten Jahre überhaupt überleben wird.
Die Chancen stehen nicht besonders gut.
Letztlich ist alles von Menschen gemacht. Schon mal die Errataliste von AMD und INTEL gesehen? Und das ist nur die unterste Ebene und die ist noch nicht mal fehlerfrei. Mit jeder Softwareebene die du mehr einziehst,und das willst du ja, potenzieren sich die Fehler und am Ende hast du eine Maschine die genau so fehlerträchtig ist wie der Mensch selber.
Solange es unter anderem noch Einsteigersysteme mit dem normalen Semprom (32bit) für < 200 € gibt, werden die Aldi Rechner auch nicht viel reissen.
64bit bringen im Moment nur den Programmieren von Datenbanken etwas. Natürlich gibt es schon einige wenige Programme, die von 64bit profitieren aber Spieler gehen leer aus und solche Witzaktionen wie von FarCry helfen dem Image auch nicht so wirklich.
Auch wenn man nun mehr als 4GB ansprechen kann, Boards die mehr als die 4 unterstützen gibt es für Normalanwender nicht, dazu sind solche Boards schlicht zu teuer, vom notwendingen teureren Speicher ganz abgesehen. Photoshopbenutzer würden es mit Sicherheit lieben aber solange es kaum Anwendungen gibt, díe von mehr als 1GB wirklich profitieren, wird sich in dem Bereich wenig tun.
grandmasterw
2005-08-15, 20:01:53
Hat nicht Morrowind ne interne Speicherverwaltung, da ansonsten die Adressen im Speicher so fragmentieren würden, dass sich keine großen Blöcke mehr finden lassen würden? Da würds schon was bringen. Man muss die 4 GB ja nicht bis zum letzten auskosten.
Die meisten Leute wollen halt einfach nur nen Internetrechner. Wenn die Set-Top-Boxen gut wären, und HDTV hier schon Standard wäre, würden die wohl auch sowas nutzen, dem ist aber nicht so -> billigen Rechner kaufen.
Avalox
2005-08-15, 20:14:09
mal um ein Vielfaches komplexer. Wer soll das leisten und wer kann das bezahlen? :confused:
In 30 Jahren, werde ich meinen Assistenten die Order geben, diesen Thread zu suchen und dir den Inhalt noch mal zu rezitieren.
Mein Assistent wird dann mit deinem Assistenten aushandeln, wie man dir diese Nachricht am schonendsten vorträgt. Vielleicht wird eine Musik unterlegt, welche dir gefällt
Ähm, oder so ähnlich. Oder auch ganz anders.
Dunkeltier
2005-08-15, 20:35:22
In 30 Jahren, werde ich meinen Assistenten die Order geben, diesen Thread zu suchen und dir den Inhalt noch mal zu rezitieren.
Mein Assistent wird dann mit deinem Assistenten aushandeln, wie man dir diese Nachricht am schonendsten vorträgt. Vielleicht wird eine Musik unterlegt, welche dir gefällt
Ähm, oder so ähnlich. Oder auch ganz anders.
In dreißig Jahren wird sich an dieses Versprechen kaum noch einer erinnern können, außerdem bin ich dann schon ein alter Mann. :(
Tigerchen
2005-08-15, 21:01:20
In 30 Jahren, werde ich meinen Assistenten die Order geben, diesen Thread zu suchen und dir den Inhalt noch mal zu rezitieren.
Mein Assistent wird dann mit deinem Assistenten aushandeln, wie man dir diese Nachricht am schonendsten vorträgt. Vielleicht wird eine Musik unterlegt, welche dir gefällt
Ähm, oder so ähnlich. Oder auch ganz anders.
Du meine Güte. Bleib doch mal auf dem Teppich. Wir reden hier über überschaubare Zeitbereiche. In 30 Jahren kannst du dir den Thread wahrscheinlich über ein clevereres Google wieder zu Gemüte führen. Vielleicht sogar in natürlicher Sprache. Aber das wars denn auch schon. Gerade die KI hat doch in den letzten 30 Jahren schwer auf sich warten lassen obwohl es schon in der Computersteinzeit vollmundige Ankündigungen gab.
Avalox
2005-08-15, 22:32:28
Ich wollte zum Ausdruck bringen, dass wir meiner Meinung nach noch einen weiten Weg vor uns haben.
Wir kratzen doch grade erst an der obersten Schicht dessen was möglich scheint.
Ich denke auch dass Anwendungen der schwachen KI schon alltäglich sind und in Zukunft noch weit stärker unser Tagesgeschäft Unterstützen werden.
Anwendungen der starken KI liegen sicherlich noch in weiterer ferne.
Ob ich es so toll fände würde eine Maschine "Cogito ergo sum" formulieren, weiss ich nicht.
Allerdings fände ich einen Agenten, welcher selbstständig ebay durchsuchen würde schon interessant. Der nächste Schritt, dass solch ein Agent selbstständig Ankäufe tätigt ist dabei nur ein kleiner Schritt. Solche Ansätze der Schwachen KI werden Einzug halten.
Dabei fällt mir ein. Ist nicht in der aktuellen c't ein Buch beschrieben, welche zeigt, dass man sehr elegant und schnell Neuronale Netze auf einer GPU laufen lassen kann?
Ich denke, dass "zu komplex", "werden wir nie brauchen", "was soll man damit" etc. nicht passen.
HellHorse
2005-08-15, 22:43:56
Die Frage ist aktuell ob selbst C++ den Multicore Trend der nächsten Jahre überhaupt überleben wird.
Die Chancen stehen nicht besonders gut.
Ach wo, Unkraut vergeht nicht. ;) Nee, jetzt mal ernstaft, wieso sollten Mulitcores C++ verdrängen? Bloss kein C++ kein synchronized keyword kennt? Hast du ungefähr eine Vorstellung wie viele COBOL Anwendungen es noch gibt und wie wichtig die sind?
Wenn C++ innerhalb von 10 Jahren Signifikant MA wegen Mulitcores verlieren sollte, dann müsste heute etwas ausgereiftes existieren, dass Software einfach so ohne Probleme parallelisiert? Siehst du so was irgendwo? E? Es gibt Sprachen die C++ sehr ähnlich sind, einem das Speichermanagement abnehmen und vor BufferOverflows (50% aller Sichterheitslücken) schützen. Sieht deswegen irgendjemand C++ vom Untergang bedroht?
C++ wird sicher weiter MA an Sprachen velieren, an die es in der Vergangenheit MA verloren hat, aber bedroht ist des deswegen noch lange nicht.
Falls es dir nicht aufgefallen ist, wirklich viel hat sich in Sachen Programmiersprachen in den letzten 30 Jahren nicht getan.
http://developers.slashdot.org/article.pl?sid=05/07/11/1134203&tid=156&tid=8
Sag mir doch bitte mal ein Game, welches nicht mit C/C++ programmiert ist. Wenn wir uns die Entwicklungszyklen anschauen, wird sich in 5 Jahren daran nix ändern, und dass in 5 Jahren die Welt eine andere ist, wage ich zu bezweifeln. Schon haben wir 10 Jahre, in denen sich nix getan hat. Die Leute, die heute C++ programmieren, wird es dann immer noch geben, und die werden 10 Jahre mehr Erfahrung mit C++ haben. Wieso sollten die umsteigen?
Und zum Rest:
Schau dir einfach an, was sich in den letzten 30 Jahren Sachen Software getan hat. Warum sollte sich in den nächsten 30 Jahren mehr tun, jetzt wo überall an der Forschung gespart wird? Weil irgend ein Marketinheini es gerne so hätte? Wurde nicht für Windows 95 angekündigt es liesse sich per Sprache steuern? Oder war es Windows 98? Siehtst du in Windows Vista irgend etwas davon?
Auch wenn man nun mehr als 4GB ansprechen kann, Boards die mehr als die 4 unterstützen gibt es für Normalanwender nicht, dazu sind solche Boards schlicht zu teuer, vom notwendingen teureren Speicher ganz abgesehen.
Wie oft soll man es denn noch wiederholen. Das Problem liegt nicht bei 4 GB physikalischem Addressraum.
Oozaru
2005-08-16, 02:14:46
Die Frage ist aktuell ob selbst C++ den Multicore Trend der nächsten Jahre überhaupt überleben wird.
Die Chancen stehen nicht besonders gut.Kann dem auch nicht zustimmen. Das letzte mal, als ich multithreaded programmiert habe, nutzte ich dafür Fortran (noch älter als C/C++). Dazu verwendete ich lediglich die Bibliotheken von MPI (Message Passing Interface) und band sie in den Quellcode mit ein.
Parallelisieren mußte ich das ganze Programm natürlich selbst. Glaube auch kaum, daß es binnen des nächsten Jahrzehnts eine neue Sprache gibt, die selbstständig die Programme an Dual-/Multicore anpasst. Viel eher denke ich, daß sich die Compiler weiterentwickeln werden. Es wird normal in C++ programmiert und der Compiler optimiert anschließend automatisch für den parallelen Einsatz. Aber auch dafür müßten die nötigen Compiler erstmal entwickelt und verbessert werden.
Ansonsten siehe HellHorse.
Gegenthese: Die Tatsache, dass mehr als 1GB Speicher zur Zeit kaum einer hat, viele noch immer weniger haben, hat die Softwareindustrie davon abgehalten, Anwendungen zu entwickeln, welche (wesentlich) mehr als 1GB brauchen.
Noch kommt man idR. mit 1GB Speicher gut aus - und wenn 2+GB Speicher Standard sind, sollte auch ein 64Bit System Standard sein...
Denke ich nicht. Natürlich, Rechenleistung kann man immer verwenden, da stimme ich dir zu. Aber deswegen entscheiden IMO Hardware und die Probleme/Lösungen, die wir haben, diese zu verbessern. Und die Software wird sich daran orientieren. (Wer kauft schon Software, die auf seiner/zur Zeit aktueller Hardware nicht läuft?)
Sorry, aber das ist Quatsch. Es geht so weiter, wie es immer lief: Es kommt neue Software - die braucht mehr Speicher - es kommt neuer Speicher - dieser ermöglicht neue Software. Das Henne-Ei Prinzip eben. Das Ende des 32Bit Zeitalters hat angefangen, wir stehen am Beginn des 64Bit Zeitalters. Windows Vista wird vornehmlich als 64Bit Version an den Mann gehen, alle bis dahin vertriebenen OEM Rechner sind sowieso 64Bit fähig, wenn Vista kommt. Es wird nur, wenn überhaupt, höchstens eine 32Bit-(Fallback-)Version geben, damit man Vista auch auf älteren Rechnern installieren kann.
Solange es unter anderem noch Einsteigersysteme mit dem normalen Semprom (32bit) für < 200 € gibt, werden die Aldi Rechner auch nicht viel reissen.
64bit bringen im Moment nur den Programmieren von Datenbanken etwas. Natürlich gibt es schon einige wenige Programme, die von 64bit profitieren aber Spieler gehen leer aus und solche Witzaktionen wie von FarCry helfen dem Image auch nicht so wirklich.
Auch wenn man nun mehr als 4GB ansprechen kann, Boards die mehr als die 4 unterstützen gibt es für Normalanwender nicht, dazu sind solche Boards schlicht zu teuer, vom notwendingen teureren Speicher ganz abgesehen. Photoshopbenutzer würden es mit Sicherheit lieben aber solange es kaum Anwendungen gibt, díe von mehr als 1GB wirklich profitieren, wird sich in dem Bereich wenig tun.
Noch mehr Quatsch. Viele derzeitigen Boards unterstützen sehr wohl über 4GB RAM (mein AV8 z.b. auch), das ist eine Sache des BIOS und wird bei gegebener Zeit überhaupt kein Problem darstellen. Die derzeit verfügbaren Memory Controller haben ebenfalls kein Problem damit 4GB Module zu betreiben. Das wird wohl eher mehr als weniger und vor allem gibt es das schon, obwohl es seltenst benötigt wird. Es liegt lediglich an den Herstellungskosten von DRAM Chips und an den vorhandenen Technologien.
Wir haben es doch schon öfter besprochen, nicht die physikalische RAM-Grösse zwingt Programmierer Kompromisse einzugehen, sondern vielmehr die maximale Programmgrösse von 2GB und die sinkende Leistungsfähigkeit beim Umgehen dieser Grenze. Sogar Hardwarehersteller wie ATI und NV sehen schon eine Sackgasse für die Nutzung von 512MB GrafikRAM. Eigentlich sind wohl maximal 256MB bei einem 32Bit System machbar, 512MB läuft nur dank eines Tricks noch (wenn ich Demi richtig verstanden hab :D).
Es ist klar, dass der gestern entwickelte 08/15 Shooter jetzt als Spielereferenz herangezogen wird und gesagt wird "mehr als 1GB brauch kein Mensch", aber das ist schlicht und ergreifend nicht die Wahrheit. Jedes MMORPG profitiert von 2GB RAM, ob das jetzt EQ, EQ2, DAoC oder WoW ist, und dieser Markt ist derzeit der am schnellsten wachsende Spielemarkt. Nach deiner Argumentation müsste die PC Entwicklung schon mit der Einführung des P2 stagnieren müssen, denn schon da konnte der normale Office Anwender nichts mehr mit der Mehrleistung anfangen, die heutige Rechner bieten. Aber Video/Audio Bearbeitung, Spiele, Entwicklung - all diese Themenbereiche sind nunmal technologiefördernd und werden die Entwicklung von Soft- und Hardware weiter vorantreiben. Es geht eben so weiter wie immer. Microsoft wird ab Longhorn 64Bitter fördern, x64 legt nur den Grundstein.
MuLuNGuS
2005-08-16, 09:03:10
Sag mir doch bitte mal ein Game, welches nicht mit C/C++ programmiert ist.
die zeiten in denen alle games nur noch in c++ programmiert werden sind vorbei.
c++ ist 'ne geile sache, aber nicht mehr der heilige gral aus dem alle trinken wollen.
ach ja, du willst ja noch ein game genannt bekommen welches nicht in C/C++ geschrieben worden ist:
-ArenaWars
Avalox
2005-08-16, 09:06:38
Viel eher denke ich, daß sich die Compiler weiterentwickeln werden. Es wird normal in C++ programmiert und der Compiler optimiert anschließend automatisch für den parallelen Einsatz. Aber auch dafür müßten die nötigen Compiler erstmal entwickelt und verbessert werden.
Na ja. Auch C++ entwickelt sich weiter. Besser es sollte sich bis 2009 weiter entwickelt haben. Vielleicht wird es ja auch wass, wenn sich Bjarne Stroustrup mal kräftig den Kopf stösst und dadurch seine komischen Ideen vergisst.
C++ hat viele Vorteile, so viele, dass der geneigte Programmierer in der Vergangenheit dazu gegriffen hat, auch wenn es nicht den elegansten Lösungsansatz bot. Auf Multicore Systemen ist es aber demassen unelegant, dass sich doch einige Möglichkeiten für Alternativen eröffnen.
Ob Evulotion oder Revolution.
Die Einführung von massiven SMP Systemen Zuhause steht der grösste Umbruch bevor, seit es Microcomputer gibt.
Und es gibt wohl interessante Ansätze, schon heute.
Wir haben es doch schon öfter besprochen, nicht die physikalische RAM-Grösse zwingt Programmierer Kompromisse einzugehen, sondern vielmehr die maximale Programmgrösse von 2GB und die sinkende Leistungsfähigkeit beim Umgehen dieser Grenze.
Das ist der springende Punkt.
Die 2GB-Grenze von Windows war und ist eine größere Bremse als die 4GB-Grenze der 32bit-Adressierung für die Anwendungsentwicklung.
HellHorse
2005-08-16, 11:01:38
die zeiten in denen alle games nur noch in c++ programmiert werden sind vorbei.
Was? Wo? Ich seh da nix. Schau dir mal Demis Kommentare an.
ach ja, du willst ja noch ein game genannt bekommen welches nicht in C/C++ geschrieben worden ist:
-ArenaWars
Scheisse ein Game. Da gibt es ja mehr Games, die auf Linux laufen. ;D
Mir ist schon klar, dass es Games gibt, die nicht mit C/C++ programmiert sind, genauso wie es Autos gibt, die nicht 4 Räder haben. Dass ändert aber nix daran, dass der Marktanteil von C/C++ Games grösser als jener von Windows ist und das für die nächsten 5 Jahre so bleiben wird. Ganz einfach weil Games eine Entwicklungszeit von mehreren Jahren haben.
Und es gibt wohl interessante Ansätze, schon heute.
Dann erzählt mal. Und komme bitte nicht mit OpenMP.
Die Einführung von massiven SMP Systemen Zuhause steht der grösste Umbruch bevor, seit es Microcomputer gibt.
Scheisse, da bekomme ich ja richtig Angst. Seit Jahrzehnten werden extrem grosse und teuere Systeme für Mehrprozessor Plattformen entwickelt. Trotzdem gbit es noch nichts, dass Software automatisch für meherere Kerne parallelisiert (nein, OpenMP lasse ich nicht gelten). Warum? Weil es auf dem Desktop keine SMP Systeme gibt. Ja nee, is klar.
ShadowXX
2005-08-16, 11:09:25
Sorry, aber das ist Quatsch. Es geht so weiter, wie es immer lief: Es kommt neue Software - die braucht mehr Speicher - es kommt neuer Speicher - dieser ermöglicht neue Software. Das Henne-Ei Prinzip eben. Das Ende des 32Bit Zeitalters hat angefangen, wir stehen am Beginn des 64Bit Zeitalters. Windows Vista wird vornehmlich als 64Bit Version an den Mann gehen, alle bis dahin vertriebenen OEM Rechner sind sowieso 64Bit fähig, wenn Vista kommt. Es wird nur, wenn überhaupt, höchstens eine 32Bit-(Fallback-)Version geben, damit man Vista auch auf älteren Rechnern installieren kann.
Das ist Nonsense...es gibt 2 Vista-Versionen.
Eine 32Bit-Version und eine 64Bit-Version...und die werden beiden völlig gleichberechtigt nebeneinanderlaufen.
Nix Fallback, nix vielleicht!
Und man wird auch beide Versionen IMO einzeln Kaufen müssen.
Momentan ist jede Vista-Version ca. 2GB groß (installiert etwas über 3GB) und werden einzeln von MS im MSDN für Devs zum Download "angeboten".
Es gab auch schon ein Interview mit einem von MS, der ebenfalls sagte, das es 2 Versionen geben wird und diese beiden gleichberechtigt sind.
Sooooo viele Leute haben nun auch noch nicht einen 64Bit Prozessor......
ShadowXX
2005-08-16, 11:12:48
Es liegt lediglich an den Herstellungskosten von DRAM Chips und an den vorhandenen Technologien.
Wir haben es doch schon öfter besprochen, nicht die physikalische RAM-Grösse zwingt Programmierer Kompromisse einzugehen, sondern vielmehr die maximale Programmgrösse von 2GB und die sinkende Leistungsfähigkeit beim Umgehen dieser Grenze. Sogar Hardwarehersteller wie ATI und NV sehen schon eine Sackgasse für die Nutzung von 512MB GrafikRAM. Eigentlich sind wohl maximal 256MB bei einem 32Bit System machbar, 512MB läuft nur dank eines Tricks noch (wenn ich Demi richtig verstanden hab :D).
Das mit den 256/512MB bei den Grakas liegt nur daran, das der Platz zum "Einblenden" in den I/O-Breich, der von Windows reserviert wird, langsam knapp wird.....
Wobei du insofern recht hast, das das natürlich auch mit der 4GB-Grenze zusammenhängt.
Avalox
2005-08-16, 11:30:34
Dann erzählt mal. Und komme bitte nicht mit OpenMP.
Eben. Man muss sich doch nur mal da umsehen, wo Parallelisierung schon lange gang und gebe ist.
Dort gibt es sehr interessante Ansätze. z.B. Parallaxis Konzept
Das wichtigste Kriterium dürfe doch die Skalierbarkeit der Software über weitere Parallelitätsgrade sein. Denn diese werden zwangsläufig kommen.
Egal ob als CMP, SMP, SMT und/oder
Wie möchtest du solche System effektiv programmieren? So wie immer?
Das ist Nonsense...es gibt 2 Vista-Versionen.
Eine 32Bit-Version und eine 64Bit-Version...und die werden beiden völlig gleichberechtigt nebeneinanderlaufen.
Nix Fallback, nix vielleicht!
Und man wird auch beide Versionen IMO einzeln Kaufen müssen.
Momentan ist jede Vista-Version ca. 2GB groß (installiert etwas über 3GB) und werden einzeln von MS im MSDN für Devs zum Download "angeboten".
Es gab auch schon ein Interview mit einem von MS, der ebenfalls sagte, das es 2 Versionen geben wird und diese beiden gleichberechtigt sind.
Sooooo viele Leute haben nun auch noch nicht einen 64Bit Prozessor......
Dagegen sage ich ja nix ;)
Dennoch hat man mit der 64Bit Version mehr Vorteile ggü. der 32Bit Version. Ich könnte mir keinen Grund vorstellen, warum OEMs bei gleichem Preis eine 32Bit Version auf einem OEM Rechner anbieten sollen, der 64Bit beherrscht. Ausserdem kennen wir die Finale Produktpolitik von MS bis zum Release noch nicht. Das werden wir wohl erst dann sehen.
Wer heute noch 16Bit Code betreibt (was wohl mit beiden Vista Versionen schwierig werden dürfte, auf der 64Bit Version gar unmöglich), wird sowieso nicht umsteigen.
ShadowXX
2005-08-16, 14:28:42
Dagegen sage ich ja nix ;)
Dennoch hat man mit der 64Bit Version mehr Vorteile ggü. der 32Bit Version. Ich könnte mir keinen Grund vorstellen, warum OEMs bei gleichem Preis eine 32Bit Version auf einem OEM Rechner anbieten sollen, der 64Bit beherrscht. Ausserdem kennen wir die Finale Produktpolitik von MS bis zum Release noch nicht. Das werden wir wohl erst dann sehen.
Wer heute noch 16Bit Code betreibt (was wohl mit beiden Vista Versionen schwierig werden dürfte, auf der 64Bit Version gar unmöglich), wird sowieso nicht umsteigen.
Klar...bei Neurechnern wird eher (bzw. extrem wahrscheinlich) immer die 64Bit-Version dabeisein.
Aber trotzdem werden beim Start von Vista wohl immer noch 70-80% aller Rechner 32-Bit CPUs haben.
(Du musst an die gesammelten Firmenrechner denken...die Unternehmen haben oftmals keine Lust wegen eines OS neue Rechner zu kaufen, speziell wenn "gerade" (damit ist bis zu vor 1-2 Jahren gemeint) erst welche angeschafft wurden.)
Ich bin sehr gespannt, ob wirklich alle SW-Firmen immer parallel 32 und 64Bit-Versionen Ihrer Programme anbieten werden....
HellHorse
2005-08-16, 15:33:05
Eben. Man muss sich doch nur mal da umsehen, wo Parallelisierung schon lange gang und gebe ist.
Genau, und hat man dort irgendwelche Silberkuglen?
Dort gibt es sehr interessante Ansätze. z.B. Parallaxis Konzept
Das ist alles? Ohne Schiess? Das soll innerhab der nächsten fünf Jahren schaffen, was es in den letzten 16 Jahren nicht geschafft hat, nämlich C++ erstetzen, weil es einfach und problemlos Software auf eine beliebige Anzahl Kerne parallelisiert. Willst du mich eigentlich verarschen?
Das wichtigste Kriterium dürfe doch die Skalierbarkeit der Software über weitere Parallelitätsgrade sein.
Geanau, Sachen wie Aufwand, und allgemeine Probleme (deadlocks, races, ...) kann man getrost vernachlässigen. Denn wenn man sich die durschnittliche Desktopapplikation anschaut erkennt man ganz klar die Parallelisierung auf eine bleibige Anzahl Kerne als das wichtigste und drängendste Problem.
Denn diese werden zwangsläufig kommen.
Egal ob als CMP, SMP, SMT und/oder
Warum? Weil es irgendwie praktisch wäre? Es wäre auch irgendwie praktisch wenn es für Presitenz eine einfache allgemeine Lösung gäbe, die alle Probleme beseitigt. Siehst du so was irgendwo? Weisst du wie viel Resourcen da rein fliessen?
Wie möchtest du solche System effektiv programmieren? So wie immer?
Ich warte auf bessere Vorschläge. E und mehrere VATs?
Avalox
2005-08-16, 18:24:39
Geanau, Sachen wie Aufwand, und allgemeine Probleme (deadlocks, races, ...) kann man getrost vernachlässigen. Denn wenn man sich die durschnittliche Desktopapplikation anschaut erkennt man ganz klar die Parallelisierung auf eine bleibige Anzahl Kerne als das wichtigste und drängendste Problem.
Du wirst mit dem Kopf schütteln, aber ich halte es tatsächlich für eines der dringensten Probleme.
Du magst ja die Beseitigung von Crashcodes und unzureichenden Entwicklungssystemen für wichtiger erachten.
Aber letztendlich liegt in der Parallelisierung die Fortsetzung des Moorschen-Gesetzes.
Warum eigentlich 5 Jahre? In fünf(vier) Jahren sollte spätestens C++ renoviert sein. Was sicherlich deinen Gefallen finden wird. Was wird wohl auf der Agenda von C++1x stehen?
Alles mal nur Theorie aber ich würde gerne mal wissen wie das aussieht:
Ich weiss, dass 64bit nix mit der 4GB Grenze aktueller Chipsätze bzw BIOSse zu tun hat, aber macht bei einem größeren virtuellen Addressraum nicht auch automatisch mehr physikalischer Speicher mehr Sinn als bei 32bit Systemen?
Ich frage deshalb, weil bis auf relativ wenige Spiele (EQ, EQ2, DAoC, WoW) soweit alle eigentlich mit max. 1GB ziemlich gut auskommen bzw mehr nicht wirklich richtig ausnutzen können.
Wenn ich nun theoretisch größere Programme nutzen kann aber ein im Verhältnis zu 32bit kleineren physikalischen Speicher besitze, wird dann nicht automatisch mehr auf die Platte ausgelagert und so das gesamte System nicht eher langsamer?
Nicht hauen, aber das ist eine Überlegung von mir und ich bin Laie was 64bit etc angeht.
Klar...bei Neurechnern wird eher (bzw. extrem wahrscheinlich) immer die 64Bit-Version dabeisein.
Aber trotzdem werden beim Start von Vista wohl immer noch 70-80% aller Rechner 32-Bit CPUs haben.
(Du musst an die gesammelten Firmenrechner denken...die Unternehmen haben oftmals keine Lust wegen eines OS neue Rechner zu kaufen, speziell wenn "gerade" (damit ist bis zu vor 1-2 Jahren gemeint) erst welche angeschafft wurden.)
Ich bin sehr gespannt, ob wirklich alle SW-Firmen immer parallel 32 und 64Bit-Versionen Ihrer Programme anbieten werden....
Dieser Kundenkreis scheidet eh direkt aus, da diese sowieso ihr OS nicht updaten werden. Wozu auch?
Der Punkt ist, dass es bei Programmen für Vista doch egal ist ob sie für 32 oder 64Bit kompiliert wurden. Die meisten werden sicherlich noch 32Bit sein, aber bei denen es auf Leistung wirklich ankommt, die werden auch oder exklusiv 64Bit sein (es gibt sogar heute schon 64Bit Versionen).
Bei Spielen ist es doch einfach wie immer: 64Bit Unterstützung ist denkbar einfach, genau wie heute viele Spiele zusätzlich SSE unterstützen können. Sicherlich wird es kaum Software geben, die auf 32Bit Umgebungen nicht läuft, die Frage ist hier nur, wie gut ;)
Alles mal nur Theorie aber ich würde gerne mal wissen wie das aussieht:
Ich weiss, dass 64bit nix mit der 4GB Grenze aktueller Chipsätze bzw BIOSse zu tun hat, aber macht bei einem größeren virtuellen Addressraum nicht auch automatisch mehr physikalischer Speicher mehr Sinn als bei 32bit Systemen?
Ich frage deshalb, weil bis auf relativ wenige Spiele (EQ, EQ2, DAoC, WoW) soweit alle eigentlich mit max. 1GB ziemlich gut auskommen bzw mehr nicht wirklich richtig ausnutzen können.
Wenn ich nun theoretisch größere Programme nutzen kann aber ein im Verhältnis zu 32bit kleineren physikalischen Speicher besitze, wird dann nicht automatisch mehr auf die Platte ausgelagert und so das gesamte System nicht eher langsamer?
Nicht hauen, aber das ist eine Überlegung von mir und ich bin Laie was 64bit etc angeht.
Na ja, EQ2 kommt bei vernünftiger Grafikqualität mit 1GB RAM definitv nicht mehr aus, das wird dann stündlich ne Ruckelorgie ;). Mit 2GB kannste das Spiel hingegen tagelang laufen lassen ohne Probs.
Ausserdem: warum sollte 64Bit Code viel grösser sein, als 32Bit Code? Es ändert sich doch kaum was. Die Daten bleiben doch die selben (Texturen, Geometrie, Sound usw.). Nur die Adressräume werden besser ausgenutzt, mehr Effekt hat das doch erstmal garnicht. Um mit 32Bit Prozessoren kompatibel zu bleiben, darf man eben nur eine gewisse Menge an Daten verwenden innerhalb des Programms oder man muss anfangen zu tricksen - das wird sich aber aber kaum ein Hersteller in Zukunft leisten können und es kostet Leistung. Mehr Details benötigen in Zukunft mehr Adressraum und damit natürlich zwangsweise mehr RAM, da kommt auch kein Spielehersteller drumherum. Ohne 64Bit gibts auch nicht mehr Details.
ShadowXX
2005-08-17, 10:11:07
Dieser Kundenkreis scheidet eh direkt aus, da diese sowieso ihr OS nicht updaten werden. Wozu auch?
Der Punkt ist, dass es bei Programmen für Vista doch egal ist ob sie für 32 oder 64Bit kompiliert wurden. Die meisten werden sicherlich noch 32Bit sein, aber bei denen es auf Leistung wirklich ankommt, die werden auch oder exklusiv 64Bit sein (es gibt sogar heute schon 64Bit Versionen).
Bei Spielen ist es doch einfach wie immer: 64Bit Unterstützung ist denkbar einfach, genau wie heute viele Spiele zusätzlich SSE unterstützen können. Sicherlich wird es kaum Software geben, die auf 32Bit Umgebungen nicht läuft, die Frage ist hier nur, wie gut ;)
Du siehst das IMHO zu optimistisch in bezug auf 64Bit.
Wenn es Vista nur als 64Bit-Version (+ abwärtskompatibilität für 32Bit) geben würde, würde ich dir zustimmen....
Da es aber definitiv eine reinrassige 32-Bit Version geben wird, werden viele Programme (speziell Games und Wald-und-Wiesen-Apps) IMHO weiterhin nur als 32Bit Version erscheinen.
Es wird zu großen teilen einfach nur 64Bit Binaries geben, wo einfach nochmal der Code durch den 64Bit-Compiler gejagt wurde, ohne großartie Optimierung (höchstens die, die der Compiler anbietet).
Nur diese "lieblosen" 64Bit-Versionen werden keine oder nur minimalste vorteile gegenüber den 32Bit-Versionen bieten...alleine deshalb, weil die 64Bit-Complier momentan noch nicht soooooo pralle sind.
Und du musst daran denken, das die SW-Firmen auch an die Denken müssen, die kein 64Bit-OS haben....auch an die will SW verkauft werden.
Alleine deshalb rechne ich nicht vor 2008, eher 2009 mit wirklich auf 64Bit optimierten Games/Apps.
Auch glaube ich, das du die "Aufrüstwilligkeit" auf Vista derer, die momentan eine 32Bit-CPU haben, unterschätzt.....man muß das OS ja nicht unbedingt kaufen, wenn du verstehst was ich meine.....
(Als kleiner Tipp...ich schätze das es mehr illegale laufende XPs gibt als legale.)
ShadowXX
2005-08-17, 10:43:45
Alles mal nur Theorie aber ich würde gerne mal wissen wie das aussieht:
Ich weiss, dass 64bit nix mit der 4GB Grenze aktueller Chipsätze bzw BIOSse zu tun hat, aber macht bei einem größeren virtuellen Addressraum nicht auch automatisch mehr physikalischer Speicher mehr Sinn als bei 32bit Systemen?
Die "Bit-Anzahl" hat durchaus was mit der 4GB-Grenze zu tun.
Dieses ist dort, weil wir momentan unter normalen umständen 32Bit-Adressleitungen haben (eigentlich sinds 36 seit Pentium1 (oder II), aber die weitern 4 Bit sind für spezielle Adressierungsarten gedacht, die man mit den normalen Windowsversionen nicht ansprechen kann und das ganze funktioniert dann auch mehr wie EMS)....und 32Bit Adressleitung bedeuten numal das die Grenze 4GB sind.
Bei 64Bit Adressleitung hätten wir irgendwas im Terrabyte bereich, wobei der A64 AFAIR "nur" 40Bit Adressleitung hat. Wobei der virtuelle Adressraum aber mehr als die 40Bit beträgt.
Ich frage deshalb, weil bis auf relativ wenige Spiele (EQ, EQ2, DAoC, WoW) soweit alle eigentlich mit max. 1GB ziemlich gut auskommen bzw mehr nicht wirklich richtig ausnutzen können.
Weil Sie darauf optimiert sind mit 512MiB-1GiB zurechtzukommen....
Du siehst das IMHO zu optimistisch in bezug auf 64Bit.
Wenn es Vista nur als 64Bit-Version (+ abwärtskompatibilität für 32Bit) geben würde, würde ich dir zustimmen....
Da es aber definitiv eine reinrassige 32-Bit Version geben wird, werden viele Programme (speziell Games und Wald-und-Wiesen-Apps) IMHO weiterhin nur als 32Bit Version erscheinen.
Es wird zu großen teilen einfach nur 64Bit Binaries geben, wo einfach nochmal der Code durch den 64Bit-Compiler gejagt wurde, ohne großartie Optimierung (höchstens die, die der Compiler anbietet).
Nur diese "lieblosen" 64Bit-Versionen werden keine oder nur minimalste vorteile gegenüber den 32Bit-Versionen bieten...alleine deshalb, weil die 64Bit-Complier momentan noch nicht soooooo pralle sind.
Und du musst daran denken, das die SW-Firmen auch an die Denken müssen, die kein 64Bit-OS haben....auch an die will SW verkauft werden.
Alleine deshalb rechne ich nicht vor 2008, eher 2009 mit wirklich auf 64Bit optimierten Games/Apps.
Auch glaube ich, das du die "Aufrüstwilligkeit" auf Vista derer, die momentan eine 32Bit-CPU haben, unterschätzt.....man muß das OS ja nicht unbedingt kaufen, wenn du verstehst was ich meine.....
(Als kleiner Tipp...ich schätze das es mehr illegale laufende XPs gibt als legale.)
Das widerspricht meinem Posting ja nicht. Man sollte nur eine Ergänzung beachten: Der Adressraum. Dieser ist das einzige, was die Entwickler dazu bewegen wird, 64Bit zu nutzen. Heute noch nicht, später dann immer mehr. 32Bit hat auch sehr lange gedauert, allerdings hat auch Microsoft sehr lange gebraucht um ein 32Bit fähiges OS bereitzustellen (Win95). Als es dann aber draussen war, ging es unter Win95 sogar recht schnell, hat nur 1-2 Jahre gedauert, bis 32Bit Programme verbreitet waren. Da kann man parallelen ziehen, denn auch bei den heutigen 64Bit Prozessoren hat es ein gutes Stück Zeit gebraucht, bis diese ein passendes OS bekommen (immerhin 3 fast Jahre, x64 ist quasi nur eine Testversion zum rumspielen). Wenn Vista aber erstmal draussen ist, wird es sich Retrail voraussichtlich sowieso relativ schlecht verkaufen - es gibt für 32Bit Systeme ja auch keine Notwendigkeit zum Umsteigen und zu kaufen wird es beim erscheinen von Vista sicherlich keine 32Bit CPUs mehr geben. Celerons und Semprons sind ja jetzt schon 64Bit fähig. Vielleicht spielt der Pemtium M dann noch eine gewisse Innovationsbremse, aber ich denke, dass es Intel bis dahin schafft, auch dem eine EM64T Unterstützung einzubauen. Verbreiten kann sich 64Bit nur über OEMs, das wird 1-2 Jahre wiedermal dauern, aber dann wird sich 32bit nicht mehr lohnen. Bis dahin wird auch der Adressraum hinreichend knapp und Speicher dementsprechend mehr (2GB Standard so wir heute 1Gb Standard ist).
HellHorse
2005-08-17, 12:09:44
Du wirst mit dem Kopf schütteln, aber ich halte es tatsächlich für eines der dringensten Probleme.
Das ist noch untertrieben, ich stell mir gerade die Antwort auf folgende Frage vor:
`Du Chef, ich kann unsere Desktopapplikation (die wie alle Desktopapplikationen mehr als `schnell genug' läuft, Software die das nicht tut (Video, ...) ist schon längst parallelisiert) auf Highend Rechnern schneller machen, der User wird davon nichts bemerken ausser einem längeren Balken. Das wird dich ein paar zehntausend Euro kosten, zur mehr, kompizierterem und komplexerem Code führen und ein paar zustätzliche hässliche Bugs einführen. Soll ich es machen?'
Avalox
2005-08-17, 12:54:06
Die Frage ist auch nicht korrekt.
Denn der Chef wird das Gespräch beginnen und dieses nicht mit einer Frage.
Ein guter Teil des Wirtschaftswachstums der letzten Jahrzehnte beruhte auf ein einfaches Konzept.
Meine EDV ist leistungsfähiger als deine EDV. Getrieben von Moorschen Gesetz.
Das fängt in der Forschung an. Geht über grosse betriebswirtschaftliche Verfahren und findet sich selbst Zuhause in der Spielekonsole wieder.
Der der den Schlüssel hat dieses Potential zu nutzen, der bestimmt wie es weiter geht.
HellHorse
2005-08-17, 13:38:32
Denn der Chef wird das Gespräch beginnen und dieses nicht mit einer Frage.
Bezweifle ich, aber dann sagt der Chef halt vorher einen Satz. Die Antwort und Aussage bleibt die gleiche.
Ein guter Teil des Wirtschaftswachstums der letzten Jahrzehnte beruhte auf ein einfaches Konzept.
Meine EDV ist leistungsfähiger als deine EDV. Getrieben von Moorschen Gesetz.
Bloss ist es halt eben bullshit, dass wenn eine Applikation schneller als `schnell genug' läuft, dadurch irgend etwas gewonnen wird. Das sieht man ja ganz einfach mit dem Aufkommen von `langsamen', `ineffizienten' Programmiersprachen. Hätte deine Behauptung irgendeine Gültigkeit müssten wir auf immer schnellere, low-level Programmiersprachen umseiten. Das Gegenteil ist der Fall.
Um eine einfache Informatikerweisheit zu zitieren:
Auf Speed zu optimieren so lange man keine Speedproblem hat, ist so ziemlich das Dümmste was man überhaupt machen kann.
Dadruch dass die Hardware immer leistungsfähiger wird, hat man immer seltener ein Speedproblem, muss also immer seltener optimieren.
So ziemlich alles andere ist wichtiger:
Interface, Usability, Bugs, Features, Tests, Dokumentation, Codequalität, Preis (!!!) ...
Avalox
2005-08-17, 15:16:29
. Hätte deine Behauptung irgendeine Gültigkeit müssten wir auf immer schnellere, low-level Programmiersprachen umseiten. Das Gegenteil ist der Fall.
Nein, es ist genau ein Beleg für das wass ich gesagt habe.
Der Luxus höhere Programmiersprachen nutzen zu können, kommt ja daher, dass die EDV immer leistungsfähiger geworden ist.
Auch die Möglichkeit schnell mit einer höheren Programmiersprache(oder überhaupt keiner Sprache mehr) Anwendungen zu erstellen ist durchaus ein Wettbewerbsvorteil.
Um eine einfache Informatikerweisheit zu zitieren:
Auf Speed zu optimieren so lange man keine Speedproblem hat, ist so ziemlich das Dümmste was man überhaupt machen kann.
Siehst du und ich habe mal gelernt, dass es immer "dumm" ist bei einen Geschwindigkeitsproblem den Code zu optimieren, wenn man einfach eine neue Hardware kaufen kann, welche das Problem beseitigt.
Dadruch dass die Hardware immer leistungsfähiger wird, hat man immer seltener ein Speedproblem, muss also immer seltener optimieren.
So ziemlich alles andere ist wichtiger:
Interface, Usability, Bugs, Features, Tests, Dokumentation, Codequalität, Preis (!!!) ...
Aber, alle deine letzten hängen von der Systemperformance ab.
Ein schnelles System erlaubt effektive Interfaces, dein Vorschlag nur ein effizienteres Interface.
Auch Features hängen von der Systemperformance ab.
Selbst Bugs, Dokumentation, Codequalität und auch der Preis lassen sich auf die Systemperformance beziehen.
So erlauben schnellere Systeme eben die Benutzung von Hochsprachen, von Tools zur Codegenerierung, von Case Tools und automatischer Dokumentation, natürlich wird dadurch auch die Codequalität zunehmen, da keine Kompromisse mehr eingegangen werden müssen. Ist die Entwicklung einfacher, so wird auch der Preis geringer. Alles dieses hängt von der Systemperformance ab.
Der Preis für den Code ist seit den ersten Grossrechnern immer tiefer gefallen und das wird er immer weiter tun.
Ein Karosserieschlosser hätte 1950 gefragt nach einen idealen Werkzeug bestimmt gesagt, ein Hammer, dieses mit Gummipolster damit die Hand nicht weh tut. Vielleicht noch ein Schutz um sich nicht auf die Finger zu hauen. Auf einen Roboter wäre er bestimmt aber nicht gekommen.
HellHorse
2005-08-18, 11:06:11
Nein, es ist genau ein Beleg für das wass ich gesagt habe.
Der Luxus höhere Programmiersprachen nutzen zu können, kommt ja daher, dass die EDV immer leistungsfähiger geworden ist.
Also erstens ist das kein Luxus, sondern Notwendigkeit. Zweitens kommt das wenn schon davon, dass die Hardware immer leistungsfähiger wird und nicht die EDV. Drittens werden Hochsprachen mit der Zeit eigentlich auch immer schneller (Compilieroptimierungen, ...).
Auch die Möglichkeit schnell mit einer höheren Programmiersprache(oder überhaupt keiner Sprache mehr) Anwendungen zu erstellen ist durchaus ein Wettbewerbsvorteil.
Genau, und so ein Programm ist dann halt eben langsamer und frisst mehr Speicher.
Aber, alle deine letzten hängen von der Systemperformance ab.
Ein schnelles System erlaubt effektive Interfaces, dein Vorschlag nur ein effizienteres Interface.
Auch Features hängen von der Systemperformance ab.
Selbst Bugs, Dokumentation, Codequalität und auch der Preis lassen sich auf die Systemperformance beziehen.
So erlauben schnellere Systeme eben die Benutzung von Hochsprachen, von Tools zur Codegenerierung, von Case Tools und automatischer Dokumentation, natürlich wird dadurch auch die Codequalität zunehmen, da keine Kompromisse mehr eingegangen werden müssen. Ist die Entwicklung einfacher, so wird auch der Preis geringer. Alles dieses hängt von der Systemperformance ab.
Nein. Wovon du hier redest, ist das Entwicklungssystem, nicht das Zielsystem. Ich kann doch nicht plötzlich schneller compilieren, bloss weil sich der Kunde eine neue Maschine gekauft hat.
Siehst du und ich habe mal gelernt, dass es immer "dumm" ist bei einen Geschwindigkeitsproblem den Code zu optimieren, wenn man einfach eine neue Hardware kaufen kann, welche das Problem beseitigt.
Wenn du die Kunden davon überzeugen kannst, schön. Der springende Punkt ist aber: auf dem Desktop hat man kein Speedproblem. Es ist also dumm irgendwas in dieser Richtung zu optimieren wenn man viel sinnvolleres machen kann (= alles andere).
Beispiel:
Apple verkauft seit Jahren SMP Systeme. Siehtst du deswegen auf Macs irgendwelche Desktopapplikationen (Mail, Browser, Office, ...) die daraus Nutzen ziehen (abgesehen von den üblichen Verdächtigen wie Video, PS, ... , die komischerwiese oft in C/C++ geschrieben sind, was sie deiner Meinung nach nicht sein dürften)? Nein! Warum nicht? Weil sie auch so schnell genug laufen.
Avalox
2005-08-18, 12:16:06
Nein. Wovon du hier redest, ist das Entwicklungssystem, nicht das Zielsystem. Ich kann doch nicht plötzlich schneller compilieren, bloss weil sich der Kunde eine neue Maschine gekauft hat.
Das Programm muss letztendlich aber auf der Maschine des Kunden laufen.
Der Codegerüst eines Case -Tools ist alles andere als optimal, das fertige Programm läuft langsamer, dafür hast du eine gute Dokumentation gleich dabei.
Die Zielplattform ist also durchaus betroffen von den Methodiken der Entwicklung
Wenn du die Kunden davon überzeugen kannst, schön. Der springende Punkt ist aber: auf dem Desktop hat man kein Speedproblem. Es ist also dumm irgendwas in dieser Richtung zu optimieren ...
Das liegt doch aber daran, dass die Bedienungskonzepte der Rechenleistung angepasst wurde nicht umgekehrt.
Natürlich lässt es sich mit heutigen Programmen auf heutigen Rechnern arbeiten, denn dafür wurden diese ja geschrieben.
Als nächstes kommen z.B: die Vollindizierung des PCs, aber auch z.B. 3D Desktops.
Denkst du es wird bei den 3D Desktops bleiben? Natürlich wollen die Benutzer die selben Vorteile auch in der Anwendung haben. Es werden 3D GUIs der Anwendungen folgen.
Was danach kommt? Spracherkennung? Sprachsynthese? Erkennung der Gestik?
Oder einfach nur sichere Systeme?
Was es auch immer es ist, es wird viel Rechenleistung fordern.
HellHorse
2005-08-18, 13:10:40
Das Programm muss letztendlich aber auf der Maschine des Kunden laufen.
Genau, aber alles was du aufgelistet hast, bezog sich auf das Entwicklungssytem.
Das liegt doch aber daran, dass die Bedienungskonzepte der Rechenleistung angepasst wurde nicht umgekehrt.
Die Bedienkonzepte haben damit recht wenig bis gar nix zu tun.
Als nächstes kommen z.B: die Vollindizierung des PCs,
Gibt es eigentlich schon. Zudem sehe ich nicht, warum ich deswegen meine Desktopapplikation multithreaded machen müsste.
aber auch z.B. 3D Desktops.
Ja und? Warum muss ich deswegen meine Desktopapplikation multithreaded machen? Ich render den Scheiss ja genausowenig wie bei einer 2D Applikation.
Denkst du es wird bei den 3D Desktops bleiben? Natürlich wollen die Benutzer die selben Vorteile auch in der Anwendung haben. Es werden 3D GUIs der Anwendungen folgen.
Ja und? Warum muss ich deswegen meine Desktopapplikation multithreaded machen? Ich render den Scheiss ja genausowenig wie bei einer 2D Applikation.
Spracherkennung?
Gibt es das nicht schon seit Win98? -> ins OS integriert, OS kummert sich darum was auch sinnvoll ist.
Sprachsynthese?
Siehe oben.
Erkennung der Gestik?
Siehe oben.
Oder einfach nur sichere Systeme?
Array-range-check kostet etwa 2% performance und killt 50% aller Sicherheitslücken. Sag mir doch mal, wie du das multithreaded machen willst?
GloomY
2005-08-18, 16:16:41
Wie oft soll man es denn noch wiederholen. Das Problem liegt nicht bei 4 GB physikalischem Addressraum.Manche werden's nie kapieren... ;(
Im Übrigen liegt ein Unterschied vor zwischen dem Umstieg von 16 auf 32 Bit und dem Umstieg von 32 auf 64 Bit.
Auf Grund des segmentierten Adressraums war es mit 16 Bit möglich mehr als 2^16 Bytes zu adressieren. Damit war die Notwendigkeit für 32 Bit erstmal nicht gegeben, weil es eben mittels Segmentierung und 16 Bit Adressierung möglich war (wenn auch umständlich) mehr als 2^16 Byte zu adressieren.
Heutzutage haben wir aber einen durchgängigen flachen 32 Bit Adressraum, der zu klein wird. Gleichzeitig wollen wir nicht zurück in die Steinzeit und uns wieder mit Segmentierung rumschlagen sondern diese schöne Eigenschaft weiterverwenden.
Daraus ergibt sich eben eine wesentlich stärkere Notwendigkeit für 64 Bit als es damals für 32 Bit der Fall war.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.