Darkman.X
2008-12-21, 15:10:59
Hallo,
kennt ihr http://www.speedguide.net ? Ich nutzte den TCP/IP-Optimizer, welcher unter WinXP auch gut funktioniert. Man kann HIER (http://www.speedguide.net/analyzer.php) auch die verschiedenen Werte in der Windows-Config anschauen. Dort wird auch angezeigt, wie hoch der Datentransfer maximal sein kann, wenn der Server einen 200 oder 500er Ping hat.
Soweit ich verstanden habe (aus den ganzen Beschreibungen), hängt das ganze mit dem TCP-Window (RWIN) zusammen, dieses sagt aus, wann spätestens ein Antwort-Paket gesendet werden muss. Wenn der Server einen 200er Pings hat, kann nur 5x das TCP-Window komplett gefüllt werden und ein Ack-Paket gesendet werden, dann ist halt die Sekunde voll. Deshalb entspricht im Analyzer der Wert beim 200er Ping genau dem 5x Wert vom TCP-Window und beim 500er Ping der 2x Wert.
Soweit so gut. Jetzt kommt aber mein gedankliches Problem:
Die ganze Rechnung (z.B. beim 200er Ping) geht davon aus, dass das komplette TCP-Window innerhalb max. 1ms gefüllt ist, weil dann wird das Ack-Paket gesendet (100ms hin) und der Server sendet neue Daten (100ms zurück), und das ganze 5 mal. Aber 1ms für Datenversand kann doch nicht stimmen. Wenn z.B. RWIN auf 512000 Byte steht, und ich habe eine Ltg mit 1,5 MByte/sek, dann brauche ich zum Übertragen von 512 KByte (der komplette RWIN) doch schon 333ms. Dazu die 200ms Wartezeit für Ack und neue Pakete, dann sind wir schon bei 533ms. Also kann der RWIN nur max. 2x komplett gefüllt werden, und nicht 5x wie im Analyzer angezeigt.
Nun die Frage: Habe ich aus Unwissenheit einen großen Denkfehler, oder liegt der Fehler bei der Seite, die eigentlich recht kompetent wirkt ?
(ich hoffe, mein Text ist einigermaßen verständlich)
kennt ihr http://www.speedguide.net ? Ich nutzte den TCP/IP-Optimizer, welcher unter WinXP auch gut funktioniert. Man kann HIER (http://www.speedguide.net/analyzer.php) auch die verschiedenen Werte in der Windows-Config anschauen. Dort wird auch angezeigt, wie hoch der Datentransfer maximal sein kann, wenn der Server einen 200 oder 500er Ping hat.
Soweit ich verstanden habe (aus den ganzen Beschreibungen), hängt das ganze mit dem TCP-Window (RWIN) zusammen, dieses sagt aus, wann spätestens ein Antwort-Paket gesendet werden muss. Wenn der Server einen 200er Pings hat, kann nur 5x das TCP-Window komplett gefüllt werden und ein Ack-Paket gesendet werden, dann ist halt die Sekunde voll. Deshalb entspricht im Analyzer der Wert beim 200er Ping genau dem 5x Wert vom TCP-Window und beim 500er Ping der 2x Wert.
Soweit so gut. Jetzt kommt aber mein gedankliches Problem:
Die ganze Rechnung (z.B. beim 200er Ping) geht davon aus, dass das komplette TCP-Window innerhalb max. 1ms gefüllt ist, weil dann wird das Ack-Paket gesendet (100ms hin) und der Server sendet neue Daten (100ms zurück), und das ganze 5 mal. Aber 1ms für Datenversand kann doch nicht stimmen. Wenn z.B. RWIN auf 512000 Byte steht, und ich habe eine Ltg mit 1,5 MByte/sek, dann brauche ich zum Übertragen von 512 KByte (der komplette RWIN) doch schon 333ms. Dazu die 200ms Wartezeit für Ack und neue Pakete, dann sind wir schon bei 533ms. Also kann der RWIN nur max. 2x komplett gefüllt werden, und nicht 5x wie im Analyzer angezeigt.
Nun die Frage: Habe ich aus Unwissenheit einen großen Denkfehler, oder liegt der Fehler bei der Seite, die eigentlich recht kompetent wirkt ?
(ich hoffe, mein Text ist einigermaßen verständlich)