Archiv verlassen und diese Seite im Standarddesign anzeigen : Streamen der Grafikausgabe von 3d Spiele ber das Netzwerk und Anzeige auf Thinclients
Kann man ein Spiel wie z.B. Unreal Tournament 3 auf einem Server starten und alle Berechnungen inkl. der 3d Grafik von der Hardware und 3d Grafikkarte des Servers
durchführen lassen und dann das Resultat als Datenstrom unter Verwendung von Datenkompression an einen dummen ThinClient schicken, der sich normalerweise gerademal für die Anzeige von 2d Grafik eignet?
Geht das?
Welche Lösungen existieren schon heute?
Und falls nicht, wäre das in Zukunft möglich?
Was müßte sich bei Unix/Linux Betriebsystemen und insbesondere dem X-Window Protokoll ändern, damit das funktioniert?
Von Windows spreche ich erst gar nicht, da das mit lauter Thinclients eine teure Lösung wäre, wenn man auf jedem Thinclient Windows installieren müßte.
StefanV
2007-11-11, 03:15:08
Nein, das geht nicht, da die benötigte Bandbreite für die Ausgabe etwas zu hoch sind...
Wobei mit 'nem Virtual Desk könnte es gehen, aber wohl eher nicht, vorallendingen düfrt auch die Eingabelatenz recht spürbar sein.
Noch etwas:
Mein Traum wäre es nämlich, das komplette Haus mit dummen Thin Clients zu versehen an denen dann die 3d Spiele gezockt werden, während im Keller der eigentliche Superrechner steht und die eigentlichen Berechnungen der 3d Spiele durchführt.
Die ThinClients sollten hier dann nur noch die Ausgabe des 2d Datenstroms auf dem Bildschirm des ThinClients übernehmen.
Das gleiche gilt für die Soundsausgabe und Eingabe über Maus, Joystick, Tastatur etc..
Der große Vorteil wäre dabei, daß man nur noch den Superrechner regelmäßig aufrüsten müßte, während man die ThinClients für eine halbe Ewigkeit weiternutzen könnte.
Außerdem bleibt dann auch die Geräuschkulisse und Abwärme der CPU oder Grafikkarte dann im Keller und nicht im Zimmer in dem eigentlich gespielt wird.
Nein, das geht nicht, da die benötigte Bandbreite für die Ausgabe etwas zu hoch sind...
Wobei mit 'nem Virtual Desk könnte es gehen, aber wohl eher nicht, vorallendingen düfrt auch die Eingabelatenz recht spürbar sein.
Nehmen wir mal an, daß im Netzwerk 10 GBit/s Netzwerke verlegt sind, die dürften sowieso bald auch für den Durchschnittsbenutzer zu haben sein.
Dann nehmen wir noch an, daß die Maximale Auflösung der von HDTV 1080p entspricht, also 1920*1020 Bildpunkte bei 32 Bit Farbtiefe. Eine künstliche Limitierung der Bilder/s wie beim TV sollte es dabei nicht geben.
Das wäre dann bei 60 fps eine Datenmenge von:
1920*1020*4*60= 448,24 MB/s ohne Kompression
Dazu kommen dann vielleicht noch max. 100 MB/s für den 5.1 Surround in 96 KHz Qualität.
Mit einem 10 GB/s Netzwerk kann man ca. 1192 MB/s übertragen.
D.h. technisch gesehen würde das bei einem lokalen 10 GB/s Netzwerk selbst ohne Kompression locker reichen.
Und mit Kompression, die natürlich in Echtzeit encodiert und decodiert werden müßte, z.b. mit H.264 würde man noch viel mehr Bandbreite sparen, so daß man auf mehrere Thinclients ein Spiel spielen könnte, sofern der Serverrechner das mitmacht und dessen Grafikkarte für multiple Clients bzw. Spiele die die Grafikkarte gleichzeitig nutzen ausgelegt wäre.
Undertaker
2007-11-11, 10:09:40
ne echtzeitkompression von 1920x1200 zu divx o.ä. sollte eine aktuelle cpu mit weniger als einem core schaffen, die dekomression benötigt noch weniger leistung (gibt ja recht effiziente codecs)
müsstest dir nur halt ein programm schreiben, das genau das kann, glaube nicht das es soetwas bereits gibt... technisch auf jeden fall kein problem, an sich brauchst du ja nur eine art fraps mit kompression und streaming-funktionalität
deine andere idee, nämlich auf einem pc mehrere bildausgaben gleichzeitig rendern zu lassen dürfte bereits erheblich größere probleme machen...
Neo4096
2007-11-11, 10:14:05
http://www.streammygame.com/smg/index.php
ne echtzeitkompression von 1920x1200 zu divx o.ä. sollte eine aktuelle cpu mit weniger als einem core schaffen, die dekomression benötigt noch weniger leistung (gibt ja recht effiziente codecs)
müsstest dir nur halt ein programm schreiben, das genau das kann, glaube nicht das es soetwas bereits gibt... technisch auf jeden fall kein problem, an sich brauchst du ja nur eine art fraps mit kompression und streaming-funktionalität
deine andere idee, nämlich auf einem pc mehrere bildausgaben gleichzeitig rendern zu lassen dürfte bereits erheblich größere probleme machen...
hier im forum wird jahrelang gegen das schlechte und flimmernde af von nvidia gewettert und jetzt denkt ihr ernsthaft daran das mit divx verlustbehaftet zu komprimieren?? seit ihr :eek:?
Undertaker
2007-11-11, 10:27:52
divx mit hohen bitraten macht doch ein brauchbares bild bei recht wenig cpu leistung? was das mit af zu tun hat weiß ich auch nicht...
divx mit hohen bitraten macht doch ein brauchbares bild bei recht wenig cpu leistung? was das mit af zu tun hat weiß ich auch nicht...
brauchbare bildqulität? ihr verwendet 16fach af und 4x4SS und schreibt wie toll doch die texturen sind und wie scharf um es dann mit divx(btw. schnell ja aber xwid ist ihmo besser) wieder zu "matsch" zu verarbeiten?
(aber immerhin die ganzen bildqulitätsverbesserer kann man ja dann weglassen wie viel performance man da gewinnt:rolleyes:)
da wäre besser schon lagarith,HuffYUV,corepgn geeignet die aber nie in echtzeit auf heutigen syteme laufen zumindest nicht in in fullhd
Undertaker
2007-11-11, 10:43:02
echtzeit auf einem thinclient ist aber das ziel das erreicht werden soll :rolleyes: und das möglichst auch ohne teures 10gbit lan...
edit: mal ein beispiel
http://rapidshare.com/files/68920226/1.wmv.html
960x600, wmv9, 10mbit - das ist gestochen scharf... bei 1920x1200 wären das entsprechend 40mbit, sollte bzgl kompression auf 2 cores in echtzeit machbar sein, zum abspielen reicht sogar guter sc
PatkIllA
2007-11-11, 11:33:31
960x600, wmv9, 10mbit - das ist gestochen scharf... bei 1920x1200 wären das entsprechend 40mbit, sollte bzgl kompression auf 2 cores in echtzeit machbar sein, zum abspielen reicht sogar guter sc
Das benötigt zum Dekodieren aber schon eine brauchbare CPU oder Spezialhardware. Komprimieren kriegst du in Echtzeit mit keiner aktuellen CPU hin. Das ist ein Fall von Studiohardware.
Und da sind dann auch nur 24fps, was zuwenig ist. Dazu noch das Lag von der Komprimierung und Dekomprimierung.
@Topic.
Du kannst dir ja optische DVI/HDMI Verbindungen durch das Haus legen. USB läßt sich mit Spezialhardware auch entsprechend verlängern. Da brauchst du dann nichtmal einen ThinClient, sondern nur einen Bildschirm
Dazu dann noch eine Videomatrix zum Umschalten.
Die Erstinsallation ist aber wohl noch teurer als eine Handvoll aktueller Rechner.
Undertaker
2007-11-11, 12:31:01
Das benötigt zum Dekodieren aber schon eine brauchbare CPU oder Spezialhardware. Komprimieren kriegst du in Echtzeit mit keiner aktuellen CPU hin. Das ist ein Fall von Studiohardware.
Und da sind dann auch nur 24fps, was zuwenig ist. Dazu noch das Lag von der Komprimierung und Dekomprimierung.
das vid erzeugt bei mir 10% cpu-last :confused: komprimieren hat etwa 6-8s gebraucht, ergo problemlos in echtzeit machbar... evntl verwechselst du das hier mit der weiterentwicklung vc1? die ist dann wirklich schon deutlich anspruchsvoller...
konstante 25fps sollten zum zocken schon halbwegs ausreichen, 30fps wäre auch nicht viel langsamer - wie das mit dem lag ausschaut weiß ich allerdings nicht...
Spasstiger
2007-11-11, 12:45:01
Für den Zweck des Komprimierens und Streamens könnte man einen zweiten PC mit HDMI-Capture-Karte verwenden.
Man müsste vielleicht auch ein für den Zweck angepasstes Netzwerk-Protokoll einsetzen, die Verzögerungszeiten sollten ja so gering wie möglich sein. Paketverluste können dann auch nicht mehr ausgeglichen werden.
echtzeit auf einem thinclient ist aber das ziel das erreicht werden soll :rolleyes: und das möglichst auch ohne teures 10gbit lan...
edit: mal ein beispiel
http://rapidshare.com/files/68920226/1.wmv.html
960x600, wmv9, 10mbit - das ist gestochen scharf... bei 1920x1200 wären das entsprechend 40mbit, sollte bzgl kompression auf 2 cores in echtzeit machbar sein, zum abspielen reicht sogar guter sc
hast du dir das video mal genau angeschaut? das ist matsch (überspitzt gesagt) ... und das mit 10 mbit? hab zwar mit wma schon länger nichts mehr encoded nur xvid und x264 aber so schlecht war der wma9ec doch nicht
aber 40meter(braucht man hald repeater aber es geht einwandfrei) sind auch mit einem normalen monitorkabel kein problem... usb lässt sich auch verlängern naja sound wird schwieriger müsste man hald mit spdif was basteln
Nyrad
2007-11-11, 15:10:39
Funktionierts nicht so ähnlich schon bei der PS3 -> PSP Verbindung von Lair ?
Remote Play
A pleasant surprise emerged a few days after Lair's launch: it is the first PlayStation 3 title on disk to be fully playable via the Remote Play function. If the PS3 console is in Remote Play mode and connected to the internet, the game may be accessed anywhere there is a wireless internet connection on a PlayStation Portable console.[4] The PS3 does the processing, and the PSP displays the game. Initially the game was unplayable, as motion sensor controls are not accessible on the PSP, and in addition, the PSP also lacks L2 and R2 buttons and a right analog stick, which are necessary to pass certain levels, but with recent firmware updates the dragon may be controlled with the analog nub, and with the ability to assign buttons on the PSP to act as L2 and R2 buttons, the game is now playable anywhere there is a wireless internet connection.
Mstrmnd
2007-11-11, 15:19:00
1920x1080 in 32 Bit? :|
Erstens sind es nur 24 Bit und zweitens ist die Auflösung bei einem Thin Client normalerweise niedriger. Wie schon angemerkt wurde wäre das bei einem 10 GBit Ethernet von der Übertragungsgeschwindigkeit kein Problem. Allerdings wäre das Protokoll unter Umständen nicht dazu in der Lage. Da gibt es aber in zwischen eine Lösung von Thomson.
Ich halte die Lösung allerdings für unbrauchbar teuer und aufwändig. Es ist SEHR viel billiger normale Spielerechner zu verwenden, als sich einen Superrechner im Keller zu basteln. Angesichts der anfallenden Kosten erscheint die Befürchtung zusätzlicher Kosten wegen Windows völlig lächerlich.
Ringwald
2007-11-11, 15:21:40
Das funzt auch ganz gut mit PS3 -> PSP, schon jemand streammygame getestet?
Damit soll das auch gehen.
1920x1080 in 32 Bit? :|
Erstens sind es nur 24 Bit und zweitens ist die Auflösung bei einem Thin Client normalerweise niedriger. Wie schon angemerkt wurde wäre das bei einem 10 GBit Ethernet von der Übertragungsgeschwindigkeit kein Problem. Allerdings wäre das Protokoll unter Umständen nicht dazu in der Lage. Da gibt es aber in zwischen eine Lösung von Thomson.
Ich halte die Lösung allerdings für unbrauchbar teuer und aufwändig. Es ist SEHR viel billiger normale Spielerechner zu verwenden, als sich einen Superrechner im Keller zu basteln. Angesichts der anfallenden Kosten erscheint die Befürchtung zusätzlicher Kosten wegen Windows völlig lächerlich.
vom protokoll ist das ja auch kein problem... muss man nur udp verwenden das ist verbindungslos so sollten auch paketverluste kein problem sein...ein bisschen qos damit die tastatur und mauseingaben bevorzugtwerden und es sollte kein problem sein... trotzem ist die latenz wohl nicht so ohne wahrscheinlich schon im merkbaren bereich würds auf größer 100ms schätzen
Undertaker
2007-11-11, 16:30:37
hast du dir das video mal genau angeschaut? das ist matsch (überspitzt gesagt) ... und das mit 10 mbit? hab zwar mit wma schon länger nichts mehr encoded nur xvid und x264 aber so schlecht war der wma9ec doch nicht
du hast es auf vollbild gestreckt, richtig? :rolleyes: lass es auf 100% und schau dir z.b. mal den tacho an - wo ist da auch nur die geringste unschärfe? das das bild etwas verwaschen wirkt ist schon ingame durch das hdr so
ne nix gestreckt... schau dir das gras an und die bäume... das ist matsch
Das benötigt zum Dekodieren aber schon eine brauchbare CPU oder Spezialhardware.
Jede Grafikkarte bietet inzwischen integrierte Hardware Decoder für H243 an und auch im Embedded Bereich gibt es schon entsprechende Grafikchips.
Und kann der Thin Client natürlioch schon haben, nur eine aufwendige CPU oder 3d Grafikchip braucht er immer noch nicht, denn ein reiner 2d Chip mit Decoderfunktion genügt.
Komprimieren kriegst du in Echtzeit mit keiner aktuellen CPU hin. Das ist ein Fall von Studiohardware.
Deswegen gibt man dem Server entsprechend einen Encoderchip der das in Echtzeit kann.
Probleme gibt's eigentlich eher an der Infrastruktur um mehrere Spiele auf einem einzigen Server zu starten und zu berechnen und dann die Ausgabe mit Spezialencoderchips zu encoden und dann zu streamen.
Dazu braucht es IMO insbesondere auch eine 3d API z.b. OpenGL die das kann.
Also das verteilen von 3d Rendercontexten auf einer einzigen Grafikkarte.
Und letztere sollte natürlich so schnell sein, daß sie problemlos mindestens 3-4 Spiele vom Kaliber Crysis in HD Auflösung @ 60 fps berechnen und streamen kann. In 3-4 Jahren halte ich das für machbar.
Ein 10 GB/s Netzwerk ist kein Problem, selbst heute ist schon 1 GB/s Standard und in 3 Jahren gibt's dann überall 10 GB/s Netze günstig zu haben.
D
Du kannst dir ja optische DVI/HDMI Verbindungen durch das Haus legen. USB läßt sich mit Spezialhardware auch entsprechend verlängern. Da brauchst du dann nichtmal einen ThinClient, sondern nur einen Bildschirm
Dazu dann noch eine Videomatrix zum Umschalten.
Die Erstinsallation ist aber wohl noch teurer als eine Handvoll aktueller Rechner.
DVI Kabel bringen nichts, da so eine typische Grafikkarte nur 2 DVI Anschlüsse hat, d.h. du kannst maximal 2 Clients anschließen.
Sofern heutige Grafikkarten überhaupt mit den verschiedenen Rendercontexten umgehen können.
1920x1080 in 32 Bit? :|
Erstens sind es nur 24 Bit
Ok, stimmt natürlich.
und zweitens ist die Auflösung bei einem Thin Client normalerweise niedriger.
Das ist Quark mit Soße.
Nichts spricht dagegen Thin Clients mit hoher Auflösung zu bauen.
Ich halte die Lösung allerdings für unbrauchbar teuer und aufwändig. Es ist SEHR viel billiger normale Spielerechner zu verwenden, als sich einen Superrechner im Keller zu basteln. Angesichts der anfallenden Kosten erscheint die Befürchtung zusätzlicher Kosten wegen Windows völlig lächerlich.
4 aktuelle High End Rechner kosten 5000-8000 €.
Nach 3 Jahren ist die gleiche Summe noch einmal fällig.
Eine Server zu Thin Client Lösung ist nur in der ersten Anschaffung teuer, spätestens dann, wenn du deine 4 Standalone Rechner aufrüsten müßtest, bist du mit dem Server billiger dran.
Und das beste von allem ist, daß bei einem Server die Leistung besser genutzt werden kann.
Wenn du z.b. auf deinen 4 Standalone Rechner momentan nur auf 2 Rechnern spielst und auf den anderen nur surfst, dann kannst du für die 2 Spielerechner die Leistung der 2 anderen Rechner nicht nutzen.
Du Verschwendest also Leistung und damit dreht sich auch die Hardwarespirale für den Aufrüstzwang wieder schneller.
Bei einem Server kannst du die maximale Leistung für die beiden 2 Spiele Clients nutzen, während zur gleichen Zeit die 2 anderen Clients nur ein bischen Leistung für den Browser benötigen.
Wenn im ersten Jahr dein Server für 4 Spiele Clients und aktuellen Games ausreicht, dann genügt er in 3 Jahren vielleicht noch für 3 Spiele Clients bei bis dahin dann AKTUELLEN Games.
D.h. man spart nicht nur beim Aufrüsten weil man nur einen Server aufrüsten muß, sondern man spart auch noch dadurch, daß man den Server nicht so oft aufrüsten muß.
. trotzem ist die latenz wohl nicht so ohne wahrscheinlich schon im merkbaren bereich würds auf größer 100ms schätzen
Das sind in einem lokalen Netzwerk im Haus Entfernungen von gerademal unter 50 m, da fällt also kaum Latenz wegen der Entfernung an.
Ein 10 GB/s Netzwerk ist kein Problem, selbst heute ist schon 1 GB/s Standard und in 3 Jahren gibt's dann überall 10 GB/s Netze günstig zu haben.
dem muss ich wiedersprechen die 10gb technik wie wir sie heute haben ist mit der heißen nadel gestrickt ... die ist in 3 jahren noch nicht günstig, eher haben wir ein neues system am ehesten mit glasfaser/plasikfaser
Das sind in einem lokalen Netzwerk im Haus Entfernungen von gerademal unter 50 m, da fällt also kaum Latenz wegen der Entfernung an.
du musst nicht nur die übertragung sondern auch die zeit berechnen die für die übertragung benötigt wird sonder auch die zeit die benötigt wird um die daten für den versand aufzubereiten und sie dann wieder zu dekodieren
dem muss ich wiedersprechen die 10gb technik wie wir sie heute haben ist mit der heißen nadel gestrickt ... die ist in 3 jahren noch nicht günstig, eher haben wir ein neues system am ehesten mit glasfaser/plasikfaser
Glaube ich nicht.
Schon im Jahr 2000 hieß es, daß man für ein 1 GB/s Netzwerk Glasfaser bräuchte und mit Kupferkabel nicht mehr als 100 MBit/s möglich wäre und heute sieht das schon wieder ganz anders aus.
du musst nicht nur die übertragung sondern auch die zeit berechnen die für die übertragung benötigt wird sonder auch die zeit die benötigt wird um die daten für den versand aufzubereiten und sie dann wieder zu dekodieren
Ok, aber was fällt denn da an?
Hinter dem Framebuffer sitzt direkt der Encoderchip.
Die Netzwerksoftware greift den Stream vom Encoderchip ab und schickt ihn ohne großes rumgerechne an den Thinclient.
Und der schiebt den Stream dann gleich in den Decoder, welcher das zum Framebuffer der 2d Karte schickt und die schiebt das Bild in den Bildschirm.
Das halte ich in weniger als 100 ms machbar.
Ok, aber was fällt denn da an?
Hinter dem Framebuffer sitzt direkt der Encoderchip.
Die Netzwerksoftware greift den Stream vom Encoderchip ab und schickt ihn ohne großes rumgerechne an den Thinclient.
Und der schiebt den Stream dann gleich in den Decoder, welcher das zum Framebuffer der 2d Karte schickt und die schiebt das Bild in den Bildschirm.
Das halte ich in weniger als 100 ms machbar.
Die CPU wurschtelt hier übrigens nur zwischen dem Abgreifen vom Encoderchip und dem Decoderchip dazwischen, sonst hast du in der ganzen Linie eine durchgehende Datenbahn ohne Bremsklötze.
Spasstiger
2007-11-11, 18:04:36
Generell halte ich das Thema ja für sehr interessant. Wenn ich die Zeit, Muse und das Geld hätte, würde ich vielleicht sogar mal eine Hardwarelösung auf FPGA-Basis realisieren. Wäre mal eine Möglichkeit, mein an der Uni erlangtes Wissen in die Praxis umzusetzen.
PatkIllA
2007-11-11, 18:32:43
Ok, aber was fällt denn da an?
Hinter dem Framebuffer sitzt direkt der Encoderchip.
Die Netzwerksoftware greift den Stream vom Encoderchip ab und schickt ihn ohne großes rumgerechne an den Thinclient.
Und der schiebt den Stream dann gleich in den Decoder, welcher das zum Framebuffer der 2d Karte schickt und die schiebt das Bild in den Bildschirm.
Das halte ich in weniger als 100 ms machbar.
100ms ist aber schon ne Menge hier werden schon 16ms von Overdrive TFTs als unbenutzbar angesehen :)
DVI Kabel bringen nichts, da so eine typische Grafikkarte nur 2 DVI Anschlüsse hat, d.h. du kannst maximal 2 Clients anschließen.
Sofern heutige Grafikkarten überhaupt mit den verschiedenen Rendercontexten umgehen können.
HighEnd Grafikkarten haben aber auch nicht die Leistung, um mehr als zwei aktuelle Spiele zu berechnen.
HighEnd Grafikkarten haben aber auch nicht die Leistung, um mehr als zwei aktuelle Spiele zu berechnen.
Richtig, deswegen braucht man für Server Speziallösungen.
Z.B. Steckkarten mit 4-8 GPUs.
Auch möchte ich mal hier darauf hinweisen, daß es hier nicht darum geht die Server & Thin Client Lösung mit Standard Desktop Rechnern aufzubauen.
Wir reden hier schon von richtigen Serverlösungen die auf verteiltes Spielen ausgelegt sind!
Gut, bei den Thin Clients könnte man natürlich auch einen normalen PC anschließen, aber auch hier sollte es richtige Thin Clients im Server Paket geben.
Undertaker
2007-11-11, 18:49:48
Richtig, deswegen braucht man für Server Speziallösungen.
Z.B. Steckkarten mit 4-8 GPUs.
sowas gibts afaik nicht, zumindest nicht mit treibern für normale games
100ms ist aber schon ne Menge hier werden schon 16ms von Overdrive TFTs als unbenutzbar angesehen :)
Von wo sollen die die vielen ms Verbrauch bei der Streamlösung eigentlich her kommen?
Wenn ich hier im lokalen Netz einen Rechner anpinge, dann erhalte ich eine Antwortzeit von < 0 ms.
PatkIllA
2007-11-11, 18:50:39
Richtig, deswegen braucht man für Server Speziallösungen.Gibt es die überhaupt?
In Sachen Spieleleistung ist man ja auch mit sackteuren Spezialkarten auch nicht weiter als mit Consumerhardware.
sowas gibts afaik nicht, zumindest nicht mit treibern für normale games
Es geht hier auch um eine völlig neue Form von Hardwareplattform.
Gut, bestehende Chips wie GPUs und x86 CPUs kann und wird man natürlich aus Kostengründen verwenden, aber für die Serverlösung kann man problemlos sein eigenes Ding zusammenbauen.
Übrigens haben die Geforce Quadros 4 GPUs.
Und von Quantum gab es auch Rechner mit 64 Voodoo VSA-100 GPUs.
PatkIllA
2007-11-11, 18:53:58
Von wo sollen die die vielen ms Verbrauch bei der Streamlösung eigentlich her kommen?
Wenn ich hier im lokalen Netz einen Rechner anpinge, dann erhalte ich eine Antwortzeit von < 0 ms.Das ganze Encode beinhaltet normalerweise noch Puffer zur effizienten Codierung.
Bei Fussball WM konnte man das ganz krass merken. Die mit analog TV haben 4-5 Sekunden (nicht ms) eher gejubelt.
HDMI sieht schon extra Kommunikation unter den Geräten vor, um Asynchronitäten zwischen Ton und Bild durch die Videoelektronik zu kompensieren und das Postprocessing ist weit weniger aufwändig als eine komplette Kodierung und anschließende Dekodierung.
Gibt es die überhaupt?
In Sachen Spieleleistung ist man ja auch mit sackteuren Spezialkarten auch nicht weiter als mit Consumerhardware.
Wenn man die 4 GPUs auf eine einzige Karte baut, dann spart man schonmal deutlich mehr Geld, als wenn man 4 GPUs auf ihre eigene Karte baut und diese dann in 4 PCI Express x16 Slots steckt.
Eine Karte für viele GPUs ist, sofern die Massenproduktion nicht zu einem Problem wird, günstiger.
Z.B. kann man hier effizientere Lösungen für die Stromversorgung finden, man braucht nicht für jede GPU eine vollständig eigene Stromversorgung.
Man spart also Geld.
Auch könnte ich mir vorstellen, daß man gemeinsamme Speicherbände benutzt.
Sagen wir mal 4 GB.
Das ganze Encode beinhaltet normalerweise noch Puffer zur effizienten Codierung.
Bei Fussball WM konnte man das ganz krass merken. Die mit analog TV haben 4-5 Sekunden (nicht ms) eher gejubelt.
HDMI sieht schon extra Kommunikation unter den Geräten vor, um Asynchronitäten zwischen Ton und Bild durch die Videoelektronik zu kompensieren und das Postprocessing ist weit weniger aufwändig als eine komplette Kodierung und anschließende Dekodierung.
Ihr meint also, daß es mit Kompression nicht möglich ist?
In diesem Fall müßte man dann auf die Kompression verzichten, aber dann braucht man auch schon 10 GB/s Netzwerke, aber die lohnen sich dann auch nicht wirklich, wenn dann nur 2 Leute gleichzeitig zocken können.
Besser währen also 100 GB/s Netzwerke mit Glasfaser.
PatkIllA
2007-11-11, 18:57:19
Das wird durch den eingeschränkten Einsatz aber schlicht nicht zur Massenhardware und damit auch pro Rechenleistung deutlich teurer.
Den Euro für die Stromversorgung kann man da verschmerzen.
Aktuelle HighEnd Consumerkarten sind schon am Maximum dessen, was man halbwegs verträglichen Aufwand herstellen kann.
Gleichzeitige Speichernutzung bringt Synchronisierungsprobleme und schränkt die Bandbreite ein.
Spasstiger
2007-11-11, 18:59:59
Das ganze Encode beinhaltet normalerweise noch Puffer zur effizienten Codierung.
Das ist kein Puffer im eigentlichen Sinn, die digitalen Datenframes werden vor der Einfügen eines Overheads zwecks Fehlerkorrektur noch durch einen Scrambler und einen Interleaver gejagt. Denn die Fehlerkorrektur, zumindest die gebräuchliche nach Reed-Solomon, arbeitet viel effizienter, wenn die Nullen und Einsen gleichmäßig verteilt sind. Außerdem erreicht man durch den Interleaver, dass Burstfehler bei der Übertragung über mehrere nicht aufeinanderfolgende Datenframes verteilt werden, so dass auch Burstfehler korrigiert werden können bzw. soweit minimiert werden, dass man als Betrachter nichts davon mitbekommt.
Diese Techniken ermöglichen eigentlich überhaupt erst weitgehend störungsfreies digitales Fernsehen.
PatkIllA
2007-11-11, 19:04:24
Wobei die Nullen und Einsen auch so schon gut verteilt sein sollten, sonst wäre nämlich ineffizient kodiert worden.
Da werden sicher einige mathematische Tricks angewendet. Bei DigitalTV werden ja meistens auch noch mehrere Sender auf eine Frequenz gepackt und die Datenrate darauf verteilt.
Einige Sachen könnte man sich in einem vergleichsweise störungsfreien Netzwerk ja auch sparen.
Spasstiger
2007-11-11, 19:12:03
Wobei die Nullen und Einsen auch so schon gut verteilt sein sollten, sonst wäre nämlich ineffizient kodiert worden.
Da werden sicher einige mathematische Tricks angewendet.
Voodoo-Zauber steckt da nicht dahinter. Die mathematischen Tricks liegen halt in der Fehlerkorrektur und in der Modulation/Demodulation (Optimalfilter, etc.). Ist jetzt aber nix, was ein Student nicht verstehen könnte. ;)
Bei DigitalTV werden ja meistens auch noch mehrere Sender auf eine Frequenz gepackt und die Datenrate darauf verteilt.
Das ist die Regel. Beim digitalen Kabelfernsehen beispielsweise steht für die Daten in der Regel eine Nettodatenrate von rund 38 MBit/s pro Kanal (8 MHz Bandbreite => 8 Mio. Symbole pro Sekunde, 64-QAM => 6 Bit pro Symbol, square-root-raised-cosine-Träger => roll-off-Faktor > 0) zur Verfügung.
Diese wird dann auf mehrere Programme aufgeteilt, welche normalerweise zur selben Sendergruppe gehören. Der Overhead von den MPEG-Transport-Streams ist in diesen 38 MBit/s aber immer noch enthalten. Trotzdem reicht die Bandbreite für rund 8 Programme in mittlerer Qualität aus.
Glaube ich nicht.
http://www.heise.de/netze/artikel/96475
4 aktuelle High End Rechner kosten 5000-8000 €.
Nach 3 Jahren ist die gleiche Summe noch einmal fällig.
Eine Server zu Thin Client Lösung ist nur in der ersten Anschaffung teuer, spätestens dann, wenn du deine 4 Standalone Rechner aufrüsten müßtest, bist du mit dem Server billiger dran.
Warum? Den Server musst du genauso aufrüsten, wenn er dieselbe Last bewältigen soll. Und High-End-Ware ist überproportional teurer.
Und das beste von allem ist, daß bei einem Server die Leistung besser genutzt werden kann.
Wenn du z.b. auf deinen 4 Standalone Rechner momentan nur auf 2 Rechnern spielst und auf den anderen nur surfst, dann kannst du für die 2 Spielerechner die Leistung der 2 anderen Rechner nicht nutzen.
Du Verschwendest also Leistung und damit dreht sich auch die Hardwarespirale für den Aufrüstzwang wieder schneller.
Das stimmt zwar, aber was wenn du mal wieder mit 4 Spielern spielen willst?
Übrigens haben die Geforce Quadros 4 GPUs.
Keine einzige Quadro-Karte hat 4 GPUs. Die QuadroPlex-Modelle mit 4 GPUs sind keine Einzelkartenlösung.
Es wäre natürlich tatsächlich insgesamt effizienter, ausschließlich die Grafik- und Soundausgabe für jeden Spieler separat zu berechnen, und auch dafür müssen die Ressourcen nur einmal im Speicher liegen. Jedoch muss man auch die Speicherbandbreite entsprechend erhöhen, und dies bedeutet schnell mehr Speicherchips.
Es gibt relativ günstige Repeater für DVI oder HDMI welche genau dafür gedacht sind das Videosignal lokal zu übertragen. Da sehe ich wie Andere hier keinen Sinn darin dies über LAN zu tun.
Spasstiger
2007-11-11, 20:03:40
Auch wenn die Vorteile einer solchen Client-Server-Lösung nicht gerade im Finanziellen oder im Hardwareaufwand liegen, so ist sie doch viel eleganter in der Wohnung unterzubringen. Auf dem Schreibtisch ist neben dem Bildschirm nur noch noch ein Buch-großer Thin-Client, zu dem ein Netzwerkkabel und ein Stromkabel führt. Die Eingabegeräte sind idealerweise als Funkversion ausgeführt, deren Empfänger irgendwo im Thin-Client integriert ist.
In der Küche könnte man einen Touchscreen-Client integrieren, um Filme/TV zu streamen oder um Rezepte aus dem Netz abzurufen (Displayfolie nicht vergessen ;)).
Und im Wohnzimmer steht ganz unscheinbar ein Thin-Client im Fernsehschrank, über den dennoch die neusten Spielkracher auf dem 52"-LCD gezockt werden können.
PatkIllA
2007-11-11, 20:05:53
Auch wenn die Vorteile einer solchen Client-Server-Lösung nicht gerade im Finanziellen oder im Hardwareaufwand liegen, so ist sie doch viel eleganter in der Wohnung unterzubringen. Auf dem Schreibtisch ist neben dem Bildschirm nur noch noch ein Buch-großer Thin-Client, zu dem ein Netzwerkkabel und ein Stromkabel führt. Die Eingabegeräte sind idealerweise als Funkversion ausgeführt, deren Empfänger irgendwo im Thin-Client integriert ist.
In der Küche könnte man einen Touchscreen-Client integrieren, um Filme/TV zu streamen oder um Rezepte aus dem Netz abzurufen (Displayfolie nicht vergessen ;)).
Und im Wohnzimmer steht ganz unscheinbar ein Thin-Client im Fernsehschrank, über den dennoch die neusten Spielkracher auf dem 52"-LCD gezockt werden können.
Das geht aber billiger, dauerhafter und problemloser mit der DVI/USB Lösung.
Das geht aber billiger, dauerhafter und problemloser mit der DVI/USB Lösung.
Viel zu viel Kabelaufwand.
Mit einem entsprechenden 10 GBit/s Ethernetkabel brauchst du nur ein einziges Kabel das alle Dienste von der Ein- bis zur Ausgabe übernimmt.
Wer will schon Zig USB und DVI Leitungen durchs Haus legen?
Spasstiger
2007-11-11, 20:13:22
Das geht aber billiger, dauerhafter und problemloser mit der DVI/USB Lösung.
Du musst dann halt für jeden Client auch einen extra Server vorsehen (=> wenig flexibel und wenig effizient). Bei der anderen Lösung würde man evtl. mit zwei Rechnern auskommen, einer fürs Rechnen und Rendern, der andere fürs capturen, komprimieren und streamen (und für die Benutzerverwaltung).
Man müsste halt evtl. den 3D-Zugriff dahingehend einschränken, dass nur einer gleichzeitig die 3D-Fähigkeiten beanspruchen kann.
Warum? Den Server musst du genauso aufrüsten, wenn er dieselbe Last bewältigen soll. Und High-End-Ware ist überproportional teurer.
Dennoch kann man das immer noch Billiger machen als 4 komplett neue PCs.
Bedenke, wenn die Nachfrage nach solchen Serverlösungen vorhanden ist, dann wird auch deren Hardware günstiger und irgendwann ist auch das Massenware.
Man stelle sich mal vor, Apple würde auf so eine Idee kommen und an den normalen Desktop Lösungen gar nicht mehr weiterarbeiten.
Dann gäbe es von Apple nur noch Server zu Thin Client lösungen und ich würde dann sogar von Windows/PC zu Apple umsteigen.
So eine Server to Thin Client Lösung hauptsächlich für den multimedialen Heimbedarf wäre auf jedenfall seiner Zeit vorraus.
Es gibt noch viel zu viele Menschen die noch in den alten Spuren denken.
O Ton: "Ein High Rechner -> Ein Spiel."
PatkIllA
2007-11-11, 20:16:42
Viel zu viel Kabelaufwand.
Mit einem entsprechenden 10 GBit/s Ethernetkabel brauchst du nur ein einziges Kabel das alle Dienste von der Ein- bis zur Ausgabe übernimmt.
Wer will schon Zig USB und DVI Leitungen durchs Haus legen?
Du hast doch auch zig Ethernetkabel liegen und da wird auch nicht das dünnste Patchkabel langen.
Sind dann halt zwei parallele Kabel. Kaum ein Unterschied, wenn man die auf einmal verlegt.
Du musst dann halt für jeden Client auch einen extra Server vorsehen. Bei der anderen Lösung würde man evtl. mit zwei Rechnern auskommen, einer fürs Rechnen und Rendern, der andere fürs capturen, komprimieren und streamen (und für die Benutzerverwaltung).
Man müsste halt evtl. den 3D-Zugriff dahingehend einschränken, dass nur einer gleichzeitig die 3D-Fähigkeiten beanspruchen kann.Um bezahlbar zu bleiben bleibt pro Zocker nur ein Rechner über. Dann noch einige kleine für nur surfen und eine HDMI Matrix und alles geht. Zumal dann aus sicht des Spiels auch noch absolute Standardhardware hat.
Zumindest für Office und Surfen gibt es auch noch bezahlbare Lösungen, um mit einem Rechner mehrere Anwender zu bedienen.
PatkIllA
2007-11-11, 20:19:59
Dennoch kann man das immer noch Billiger machen als 4 komplett neue PCs.
Für 4 fache Grafikleistung musst du auch ohne Spezialhardware einen deutlich höheren Preis als Faktor 4 ansetzen. Da kann man evtl auch noch eine CPU, Mobo und RAM mit drin sein.
Bedenke, wenn die Nachfrage nach solchen Serverlösungen vorhanden ist, dann wird auch deren Hardware günstiger und irgendwann ist auch das Massenware.ich sehe da schlicht keinen Massenmarkt.
Spasstiger
2007-11-11, 20:24:24
Um bezahlbar zu bleiben bleibt pro Zocker nur ein Rechner über. Dann noch einige kleine für nur surfen und eine HDMI Matrix und alles geht. Zumal dann aus sicht des Spiels auch noch absolute Standardhardware hat.
Zumindest für Office und Surfen gibt es auch noch bezahlbare Lösungen, um mit einem Rechner mehrere Anwender zu bedienen.
Es ist natürlich die einfachste und realistischste Lösung. Aber nicht die eleganteste und effizienteste.
So ein grundsätzlicher Durchbruch im Hard- und Softwarebereich für Remote-Multimedia-Anwendungen im Heimnetz wäre imo sehr wünschenswert. Wer sagt denn z.B., dass eine Grafikkarte nicht auch für 2 Zocker gleichzeitig reicht? Und die künftigen 8-Kern-CPUs werden sich beim Surfen ziemlich langweilen, da könnte doch noch locker jemand parallel spielen. Festplattenzugriffe werden durch mehrere SSDs beschleunigt.
Den Energiebedarf könnte man so gegenüber einer Multi-Rechner-Lösung beträchtlich senken. Und das System ist erweiterbar ohne dass zusätzliche Server angeschafft werden müssen.
Und wenns mal Gigabit-Internet für Home-User gibt, könnte man vielleicht sogar von der Arbeit aus auf seinem Rechner daheim zocken. ;)
Man darf bei solchen Geschichten nicht immer nur an heutige Hardware und Übertragungsgeschwindigkeiten denken.
Stellt euch mal Grafikkarten mit Glasfaseranschluss vor für die Übertragung der redundanzbereinigten Bilddaten ins Netzwerk. Vielleicht noch garniert mit einem eigenen Protokoll, das besser für den Zweck geeignet ist als TCP/IP. Und konfigurierbar für mehrere Framebuffer unterschiedlicher Größe/Auflösung.
AnarchX
2007-11-11, 20:28:15
Oder eben Gaming-on-Demand inkl. der benötigten Rechenleistung. ;)
Wer will schon Zig USB und DVI Leitungen durchs Haus legen?
Statt einem Kabel sind es zwei. So ein großer Unterschied ist das nun nicht.
Du musst dann halt für jeden Client auch einen extra Server vorsehen (=> wenig flexibel und wenig effizient).
Warum?
Dennoch kann man das immer noch Billiger machen als 4 komplett neue PCs.
Das glaube ich nicht. Außerdem müssen die PCs ja nicht komplett neu sein.
Spasstiger
2007-11-11, 20:32:55
Warum?
Wie willst du das denn mit einem Rechner lösen?
Wenn ich zwei Mäuse anschließe, kann ich damit auch nur eine Session, einen Mauszeiger und ein Spiel steuern.
PatkIllA
2007-11-11, 20:35:11
Wer sagt denn z.B., dass eine Grafikkarte nicht auch für 2 Zocker gleichzeitig reicht?
Bei geringeren Ansprüchen ginge das heute schon, aber da kann man sich auch billig einen kompletten Rechner in den Schrank stellen, der auch kaum teurer als ein Thin Client ist.
Seit Einführung der 3D-Grafikkarten sind die permanent zu langsam für aktuelle Games. Und die Spiele machen massivst Kompromisse, um es überhaupt spielbar zu halten.
Die Rechenleistung kann sich vertausend oder gar um den Faktor Millionen steigen und trotzdem wird man das ausnutzen können.
Vom Fotorealismus sind wir noch weit weg und sichtbare Verbesserungen verlangen überproportional viel Zusatzleistung.
AnarchX
2007-11-11, 20:45:46
Das tolle an einem Super-GPU-Cluster, welcher einer dieser zukünftigen Gaming-on-Demand-Anbieter bei sich stehen hat, wäre doch auch dass man die GPUs+Co. besser ausnutzen könnte, durch eben verschiedene Qualitäts-Zugänge mit unterschiedlichen Anforderungen bzw. während es bei einem User zu einer CPU-Limitierung kommt, rechnet die GPU eben für einen anderen User verstärkt, der gerade grafiklimitiert ist ;)
Ich würde solche Angebote definitiv begrüßen, wenn es entsprechende I-Net-Anbindungen gibt, da es eine deutlich effektivere Resourcen-Nutzung wäre.
Wie oft läuft den das High-End-Gaming-System bei einem User im Idle oder ist gar ausgeschalten?
Spasstiger
2007-11-11, 20:57:14
Ich hatte hier im Forum auch mal die Idee eines Gaming on demand, was bei zukünftigen Bandbreiten möglich sein könnte.
Man stellt sich daheim z.B. nur einen Thin-Client hin und kann dennoch alle Games bei superber Grafikqualität spielen. Abgerechnet wird z.B. nach verwendeter Rechenleistung oder als Flatrate mit wählbarem Leistungsprofil (z.B. 1680x1050 mit 4xAA und 16:1 AF bei min. 30 fps in Spiel X wird garantiert).
Die Spiele müssen dann auch nicht mehr zum Vollpreis gekauft werden, je nach Nutzungsprofil gibt es dann unterschiedliche Abrechnungsarten (z.B. Spiel unbegrenzt spielen = Vollpreis, 10 Stunden spielen = 5€/10€ je nach Spiel). Der Anbieter des Dienstes muss dann natürlich noch entsprechende Lizenzbedingungen mit dem Spielepublisher aushandeln.
Wenn ich z.B. später mal als Ingenieur voll im Beruf stehe, werde ich wohl nicht mehr so viel Zeit und Geduld haben, mich daheim mit Installationsroutinen und Performanceoptimierungen rumzuschlagen und ich werde wohl auch nicht mehr so informiert sein, welche Hardware wofür am Besten geeignet ist. Ich will dann evtl. einfach nur mal eine Stunde abspannen und was Zocken. Ich will auch gar nicht lange in irgendwelchen Shops nach Hardware suchen und drei Tage auf die Lieferung neuer Spiele warten, welche eh kaum genutzt werden. Und dafür gibts dann zwei Möglichkeiten: Eine Spielekonsole mit Onlinedownload von Games (PS4?!) oder eben meine Idee eines PC-Gaming on demand.
AnarchX
2007-11-11, 21:12:27
In gewissem Maße könnte ich mir auch vorstellen, dass Sony, M$ und Nintendo daran interessiert wären.
Games-on-Demand bieten ja alle schon in gewisser Form für ihre Konsolen an.
Der nächste Schritt wäre hier auch wohl ein Thin-Client, wodurch man diesen auf der einen Seite deutlich günstiger anbieten könnte(wenn man dann die Rechenleistung auch on-Demand abrechnet) und eben auch wohl die Subventionen geringer werden, da ja z.B. so mancher nur relativ anspruchslose Sport-Spiele auf seiner Konsole zockt.
Wobei sich die Frage stellt, wie gut sich Rasterizer für Super-Cluster parallelisieren lassen, im Endeffekt wäre wohl hier Raytracing eine bessere Lösung oder?
edit:
Und dafür gibts dann zwei Möglichkeiten: Eine Spielekonsole mit Onlinedownload von Games (PS4?!) oder eben meine Idee eines PC-Gaming on demand.
Der Client muss ja nicht unbedingt ein PC sein (siehe meine Ausführung oben). ;)
Wenn ich z.B. später mal als Ingenieur voll im Beruf stehe, werde ich wohl nicht mehr so viel Zeit und Geduld haben, mich daheim mit Installationsroutinen und Performanceoptimierungen rumzuschlagen und ich werde wohl auch nicht mehr so informiert sein, welche Hardware wofür am Besten geeignet ist. Ich will dann evtl. einfach nur mal eine Stunde abspannen und was Zocken. Ich will auch gar nicht lange in irgendwelchen Shops nach Hardware suchen und drei Tage auf die Lieferung neuer Spiele warten, welche eh kaum genutzt werden.
ack.
Nachdem Computer-Gaming zu einer Beschäftigung wird die große Teile der Gesellschaft warnimmt und in Zukunft es immer mehr werden, wäre so eine Komfort-Steigerung definitiv sinnvoll und im Endeffekt wäre es ja auch eine bessere Resourcennutzung und die werden ja bekanntlich auch knapp.
Wie willst du das denn mit einem Rechner lösen?
Wenn ich zwei Mäuse anschließe, kann ich damit auch nur eine Session, einen Mauszeiger und ein Spiel steuern.
Ich kann dir nicht ganz folgen. PatkIllA stellte USB/DVI der LAN-Lösung gegenüber, der einzige Unterschied wäre die Übertragungsart. Und auch bei letzterer Variante müsstest du dieses Problem erst einmal lösen.
Wobei AFAIK DirectInput zwischen mehreren Mäusen unterscheiden kann.
Die Rechenleistung kann sich vertausend oder gar um den Faktor Millionen steigen und trotzdem wird man das ausnutzen können.
Vom Fotorealismus sind wir noch weit weg und sichtbare Verbesserungen verlangen überproportional viel Zusatzleistung.
Nicht ganz.
Die Erstellung von 3d Modellen wird so langsam zu teuer, d.h. irgendwann kommt der Punkt bei dem sich das ausreizen der Hardware nicht mehr rechnet, da man dazu viel zu viele Grafiker bräuchte die aufwendige 3d Modelle über Monate erstellen
und das rechnet sich einfach nicht mehr, wenn die Einnahmen für den Verkauf der Spiele nur unwesentlich steigen.
In Hardware für Haus LANs gibts das schon, glaube von Belkin oder so. Sind einfach 2 Adapter die zwischen Graka und Monitor installiert werden und dann per Netzwerkkabel mit einander verbunden werden müssen.
Weiß aber nicht mehr ob das eine reine Elektrische Verbindung ist oder ob ein Switch dazwischen sein darf.
Das tolle an einem Super-GPU-Cluster, welcher einer dieser zukünftigen Gaming-on-Demand-Anbieter bei sich stehen hat, wäre doch auch dass man die GPUs+Co. besser ausnutzen könnte, durch eben verschiedene Qualitäts-Zugänge mit unterschiedlichen Anforderungen bzw. während es bei einem User zu einer CPU-Limitierung kommt, rechnet die GPU eben für einen anderen User verstärkt, der gerade grafiklimitiert ist ;)
Ich würde solche Angebote definitiv begrüßen, wenn es entsprechende I-Net-Anbindungen gibt, da es eine deutlich effektivere Resourcen-Nutzung wäre.
Wie oft läuft den das High-End-Gaming-System bei einem User im Idle oder ist gar ausgeschalten?
Also von Gaming on Demand Lösung halte ich nichts.
Ich habe nämlich keine Lust für 1 h spielen 10 € zu zahlen und das wird man, denn der Anbieter muß die Trafficgebühren, die Stromkosten und das regelmäßige Aufrüsten der Hardware finanzieren, im Endeffekt ist also ein eigener PC günstiger
oder die Spieleentwicklung verläuft für diese on Demand Plattformen langsamer, damit der Anbieter die Kosten niedrig halten kann.
warum nicht thinclients mit starken grafikkarten? ich sehe jetzt eher diesen bereich als problem an, rechenleistung und speicherbedarf lässt sich ohne probleme auslagern, 2 quadcore cpus von amd und dementsprechend 4 speicherkanäle reichen doch locker aus um auch 4 spieler zu bedienen.
Spasstiger
2007-11-11, 22:35:04
Ich habe nämlich keine Lust für 1 h spielen 10 € zu zahlen und das wird man, denn der Anbieter muß die Trafficgebühren, die Stromkosten und das regelmäßige Aufrüsten der Hardware finanzieren, im Endeffekt ist also ein eigener PC günstiger
oder die Spieleentwicklung verläuft für diese on Demand Plattformen langsamer, damit der Anbieter die Kosten niedrig halten kann.
Das on-demand-Zeug soll ja für allem für Wenig-Zocker interessant sein. Wenn man in der Woche z.B. nur 7 Stunden spielt, also rund 1 Stunde am Tag, weil Beruf und Familie einem nicht mehr Zeit lassen, dann könnte ein Rechner von bis zu 24 Leuten am Tag genutzt werden. Rechnet man etwas realistischer, sind es immer noch 5-10 Leute am Tag, denen man einen PC mit Spielen quasi vermieten könnte. Dadurch ergibt sich ein klarer Kostenvorteil gegenüber 1 Rechner pro Person wie es bei der Privatanschaffung der Fall wäre.
Mal angenommen, das on demand Zeug kostet mit allem drum und dran bei guter Grafikqualität 2€ pro Stunde. Dann wären das bei einer Nutzung von 365 Stunden im Jahr Kosten von 730€. Für das Geld könnte man natürlich auch einen Privatrechner aktuell halten, aber man hätte immer noch mehr Aufwand für Anschaffung, Installation, Optimierung, etc.
Die Spiele müssen dann auch nicht mehr zum Vollpreis gekauft werden, je nach Nutzungsprofil gibt es dann unterschiedliche Abrechnungsarten (z.B. Spiel unbegrenzt spielen = Vollpreis, 10 Stunden spielen = 5€/10€ je nach Spiel).
Das kann nicht funktionieren, denn Hardware Resourcen sind nicht unendlich.
Es wird also auf eine Zeitbasierte Nutzungsgebühr hinauslaufen und darauf habe ich keinen Bock, denn irgendwann ist der Punkt erreicht, wo ein eigener Rechner immer günstiger ist.
Spasstiger
2007-11-11, 22:44:03
Das kann nicht funktionieren, denn Hardware Resourcen sind nicht unendlich.
Es wird also auf eine Zeitbasierte Nutzungsgebühr hinauslaufen und darauf habe ich keinen Bock, denn irgendwann ist der Punkt erreicht, wo ein eigener Rechner immer günstiger ist.
Wie gesagt, das ist für berufstätige Wenig-Spieler und nicht für Studenten oder Hartz-IV-Empfänger. ;)
Mit Vollpreis und unendlich spielen hab ich mich übrigens nur auf den Preis für die Spiele bezogen. Die Nutzung der Hardwareresourcen wird extra abgerechnet.
Eine Flatrate könnte für die Resourcennutzung dennoch möglich sein, z.B. für 100€ im Monat, Internet-Flatrates funkktionieren schließlich auch, obwohl die Resourcen nicht unbegrenzt sind.
warum nicht thinclients mit starken grafikkarten?
Was soll dadurch gewonnen werden?
Der eigentliche Vorteil von Thin Clients ist ja, daß man sie nicht aufrüsten muß, das sie leise sind, wenig Strom brauchen und wenig Abwärme produzieren.
Verlegst du die notwendige Hardwareleistung in den Thin Client, dann bringt die ganze Rechnung nichts.
Spasstiger
2007-11-11, 22:49:05
Optimalerweise ist so ein Thinclient nur ein Bildschirm mit ein paar Anschlüssen und integriertem Funkempfänger für die Eingabegeräte.
Kinman
2007-11-11, 23:55:54
Ich glaube das hier der Trend eher in Richtung Notebook geht, wenn man sich die Absatzzahlen ansieht. Weil meinen Thin-Client kann ich nicht in den Urlaub oder sonstwohin mitnehmen.
mfg Kinman
Ich glaube das hier der Trend eher in Richtung Notebook geht, wenn man sich die Absatzzahlen ansieht. Weil meinen Thin-Client kann ich nicht in den Urlaub oder sonstwohin mitnehmen.
mfg Kinman
Das ist nur vorübergehend, denn die, die bisher noch kein Notebook haben, kaufen sich jetzt natürlich eines, aber sobald sie eines haben, werden sie es > 10 Jahre lang nutzen, solange es halt läuft.
Ein normaler Desktop Rechner oder Thin Client ist nämlich trotzdem besser.
An einem Notebook kann man nämlich nicht vernünftig arbeiten.
Die Tastatur ist meist zu klein oder gedrängt, was die Arbeit müssig macht.
Und ne separate Tastatur ist auch keine Lösung, da man dann zu weit vom Display entfernt sitzt.
Das nächste Problem ist das Display selbst, es ist nie in optimaler ergonomischer Höhe, dadurch ermüdet man am Notebook viel schneller als an einem Dekstop Rechner mit richtigem Bildschirm, dessen Höhe Optimal ist.
Soviel zu diesen Punkten und beim Zocken liegen die Nachteile erst recht auf der Hand.
- Keine 5.1 Surround Boxen und wenn man die hat, dann hat das Notebook meist keine Anschlüsse.
- Kaum vorhandene Aufrüstmöglichkeit.
- keine richtig performante Hardware + Abwärmeproblem
- teuer
Daher, die Leute kaufen jetzt ein Notebook weil es eine Ergänzung zu den bestehenden Desktop Rechnern ist, aber sobald sie es haben ist der nächste Rechner, der aufgerüstet wird, wieder der Desktop Rechner, während man das Notebook so lange nutzt wie nur möglich.
Zumindest gilt das für Gamer oder Leute die an einem Computer ernsthaft arbeiten müssen und den ganzen Tag davor sitzen.
An einem Notebook kann man nämlich nicht vernünftig arbeiten.
Die Tastatur ist meist zu klein oder gedrängt, was die Arbeit müssig macht.
Und ne separate Tastatur ist auch keine Lösung, da man dann zu weit vom Display entfernt sitzt.
Soviel zu diesen Punkten und beim Zocken liegen die Nachteile erst recht auf der Hand.
- Keine 5.1 Surround Boxen und wenn man die hat, dann hat das Notebook meist keine Anschlüsse.
- Kaum vorhandene Aufrüstmöglichkeit.
- keine richtig performante Hardware + Abwärmeproblem
- teuer
also i hab rein am notebook meine 130 seiten diplomareit und das dazugehörige softwareprojekt erstellt.... also das ist alles kein problem auch wenn ich sagen muss, dass von der verbauten tastatur ankommt und die in meinem dell verwendete ist da ein traum
schnitstellenprobleme werden mit der dockingstation gelöst...
abwärme ist bei einem durchdachten konzept kein problem
dass man es nicht aufrüsten kann stimmt... aber jemand der sich ein notebook kauf nützt auch dir portabilität des geräts in irgendeiner weise und wenn es sich nur 10 meter von raum a in raum b bewegt und nimmt deshalb wissentlich die verminderte aufrüstbarkeit in kauf
Kinman
2007-11-12, 15:39:24
Das ist nur vorübergehend, denn die, die bisher noch kein Notebook haben, kaufen sich jetzt natürlich eines, aber sobald sie eines haben, werden sie es > 10 Jahre lang nutzen, solange es halt läuft.
Ein normaler Desktop Rechner oder Thin Client ist nämlich trotzdem besser.
a.
An einem Notebook kann man nämlich nicht vernünftig arbeiten.
Die Tastatur ist meist zu klein oder gedrängt, was die Arbeit müssig macht.
Und ne separate Tastatur ist auch keine Lösung, da man dann zu weit vom Display entfernt sitzt.
b.
Das nächste Problem ist das Display selbst, es ist nie in optimaler ergonomischer Höhe, dadurch ermüdet man am Notebook viel schneller als an einem Dekstop Rechner mit richtigem Bildschirm, dessen Höhe Optimal ist.
Soviel zu diesen Punkten und beim Zocken liegen die Nachteile erst recht auf der Hand.
c. - Keine 5.1 Surround Boxen und wenn man die hat, dann hat das Notebook meist keine Anschlüsse.
d. - Kaum vorhandene Aufrüstmöglichkeit.
e. - keine richtig performante Hardware + Abwärmeproblem
f. - teuer
Daher, die Leute kaufen jetzt ein Notebook weil es eine Ergänzung zu den bestehenden Desktop Rechnern ist, aber sobald sie es haben ist der nächste Rechner, der aufgerüstet wird, wieder der Desktop Rechner, während man das Notebook so lange nutzt wie nur möglich.
Zumindest gilt das für Gamer oder Leute die an einem Computer ernsthaft arbeiten müssen und den ganzen Tag davor sitzen.
a. Monitor + Maus Tastatur, wie beim Thin-Client auch sofern gewünscht
b. Ansichtssache. Soviel ich weiß (kann aber sein, dass es nicht stimmt, bitte um Feedback) ist es aber besser zu einem Bildschrim hinunterzusehen, da somit die Halswirbeln nicht so stark zusammengedrückt werden.
c. Wo ist der Unterschied zum Thinclient? Und Audiokarte mittels PCMCIA kein Problem
d. Stimmt
e. Finde ich nimmer so schlimm, wird auch immer besser
f. wird immer günstiger
mfg Kinman
also i hab rein am notebook meine 130 seiten diplomareit und das dazugehörige softwareprojekt erstellt.... also das ist alles kein problem auch wenn ich sagen muss, dass von der verbauten tastatur ankommt und die in meinem dell verwendete ist da ein traum
Ok, man kann sich natürlich auch quälen.
schnitstellenprobleme werden mit der dockingstation gelöst...
abwärme ist bei einem durchdachten konzept kein problem
Ah ja? Dann zeig mir mal ein Notebook mit einer Geforce 8800 GTX!
dass man es nicht aufrüsten kann stimmt... aber jemand der sich ein notebook kauf nützt auch dir portabilität des geräts in irgendeiner weise und wenn es sich nur 10 meter von raum a in raum b bewegt und nimmt deshalb wissentlich die verminderte aufrüstbarkeit in kauf
Wie schon gesagt, ein Notebook zum Herumtragen hat man als Zweitgerät.
Der Desktoprechner bleibt das Erstgerät und dessen Arbeitsplatz ändert sich auch nicht.
Warum solltest du auch aus deinem Privatbüroraum in das laute Wohnzimmer oder in die Küche wechseln, dafür gibt es keinen Grund.
b. Ansichtssache. Soviel ich weiß (kann aber sein, dass es nicht stimmt, bitte um Feedback) ist es aber besser zu einem Bildschrim hinunterzusehen, da somit die Halswirbeln nicht so stark zusammengedrückt werden.
Bei einem normalen Bildschirm schaut man auch nicht nach oben.
Bei einem normalen Bildschirm ist nämlich, wenn man in Ergonomie kompetent ist, die obere Kante des Bildschirms in Augenhöhe und damit schaut man immer leicht nach unten.
Aber so extrem wie beim Notebook bei dem man schon auf den Fußboden schauen muß, ist es unergonomisch und somit falsch. Es reicht lediglich für ne Notlösung weil es nicht anders machbar ist.
Ah ja? Dann zeig mir mal ein Notebook mit einer Geforce 8800 GTX!
auch das soll kommen... z.b. mit der asus xg station (ja ja ich weiß über die nachteile bescheid)
aber btw. dass großrechner anscheinend nicht das ware sind ahben auch firmen erkannt die sich in den letzten 10-15 jahren immer mehr weg von der mainframetechnik entiwckelt haben und einen jeden mitarbeiter seinen eigenen rechner zur verfügung gestellt haben
AnarchX
2007-11-13, 12:43:41
Ah ja? Dann zeig mir mal ein Notebook mit einer Geforce 8800 GTX!
512MB Nvidia® GeForce™ Go 8800M GTX [+$400 or $12/mo.]
Dual 512MB NVidia® GeForce™ Go 8800M GTX – SLI Enabled [+$1,000 or $30/mo.]
http://www.alienware.com/Configurator_Pages/area-51_m17x.aspx?syscode=PC-LT-AREA51M17x&SubCode=SKU-DEFAULT
:D
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.