TCP/IP-Tuning

Tuning-Tipps nicht nur für Windows-PCs unter der Lupe

Praxis & Tipps | Praxis

Viele PCs nutzen die Kapazität ihrer DSL-Verbindung nicht aus. Mit Traffic Shapern oder den richtigen Änderungen in der Windows-Registry lassen sich Downloads beschleunigen, ohne dass die Qualität von VoIP- oder Streaming-Verbindungen leidet.

Aussetzer bei der VoIP-Telefonie oder stockende Übertragung und zu niedriger Durchsatz trotz sehr schnellem DSL-Anschluss sind Probleme, deren Ursachen Windows mit Bordmitteln nicht offenbart. Grundsätzlich kann man drei Fehlerquellen unterscheiden: Die Einstellungen für das TCP/IP-Protokoll des Rechners sind ungünstig, eines oder mehrere Elemente der Internet-Verbindung sind überlastet oder die Daten von mehreren gleichzeitig genutzten Internet-Anwendungen behindern sich mangels einer übergeordneten Verkehrsleitung gegenseitig.

Die TCP-Einstellungen, die die Geschwindigkeit beeinflussen, sind aber nicht über die Windows-Oberfläche zugänglich, sondern in der Registry verborgen. Deshalb läuft der PC bei den weitaus meisten Nutzern im Autopilot-Modus und Fehleinstellungen fallen nur dem Fachmann bei einer detaillierten Untersuchung auf. Die wichtigsten TCP/IP-Variablen, die man in der Registrierung verwaltet, sowie die empfehlenswerten Einstellungen haben wir unter Stellschrauben aufgeführt.

Ein Grund für zu langsame Downloads bei schnell angebundenen PCs liegt darin, dass die Internet-Endstellen zu kleine Datenmengen senden (Window Size, bei Unix-Systemen RWIN genannt). Das führt dazu, dass zum Beispiel ein Server bei einem Download häufiger auf Quittungen des Empfängers warten muss als technisch nötig, ein Teil der Leitungskapazität also ungenutzt bleibt.

Auf die Server-Einstellung hat man als Surfer keinen Einfluss. Aber der Administrator kann die niedrige Einstellung durchaus gewollt haben – um möglichst viele Teilnehmer gleichzeitig bedienen zu können oder um eine Server-Überlastung zu verhindern.

Der Server muss nämlich für jede einzelne TCP-Verbindung die festgelegte Window Size als Pufferspeicher bereitstellen. Bei stark frequentierten, aber mit Speicher mager ausgestatteten Servern limitiert man also die Window Size, damit der Server mit dem RAM auskommt. Der Internet-Service cdrom.com war eine Zeit lang auf 30 KByte pro TCP-Verbindung eingeschränkt und manche Betreiber von Spiele-Servern limitieren ihre Demo-Zugänge weiterhin auf diese Art.

Wenn der Durchsatz pro TCP-Verbindung mittels kleiner Window Size eingeschränkt ist, können Download-Manager helfen, indem sie mehrere Verbindungen gleichzeitig öffnen und eine Datei in mehreren Segmenten laden (Siehe dazu: Parallel-Turbo, Schnelles Laden von Dateien mit Download-Managern für Windows, c't 11/06, S. 106.)

Ist hingegen die Window Size des lokalen Rechners zu niedrig, kann man sie in der Registrierung höher stellen. Tuning-Utilities, von denen es zahlreiche gibt, erledigen solche Einstellungen automatisch, zum Beispiel der T-Online Speedmanager. Ein größeres Window kann jedoch die Latenz erhöhen, sodass mit dieser Einstellung überlegter Umgang angebracht ist. Eine Faustformel für optimale Download-Einstellungen finden Sie im unter Stellschrauben.

Weitaus häufiger kommt es vor, dass man als Surfer einen schnellen Server selbst ausbremst, und zwar, indem man parallel zum Download eine oder mehrere Internet-Anwendungen nutzt, die die Sendekapazität des DSL-Anschlusses beanspruchen – Sendedaten lokaler Anwendungen behindern nämlich den Versand von Quittungspaketen (ACK-Pakete, Acknowledge), und ohne fortschreitende Quittungen stockt der Download.

In der Tabelle Durchsatzbremsen lassen sich die dabei auftretenden Symptome beobachten: Ping-Zeiten variieren je nach Situation stark, und Uploads bremsen gleichzeitige Downloads aus.

Der Grund liegt darin, dass im Internet alle Pakete um die verfügbare Bandbreite unkoordiniert konkurrieren – wer zuerst kommt, mahlt zuerst. Auch gibt es anders als im Telefonnetz keine geschaltete Ende-zu-Ende-Verbindung, sondern die Pakete werden einfach von Hop zu Hop bis zum Ziel weitergereicht.

Wenn sie unterschiedliche Wege zum Ziel nehmen, reisen sie unterschiedlich schnell, und wenn zwischengeschaltete Router überlastet sind, können Pakete verloren gehen. Mit beiden Situation wird das TCP-Protokoll dank einer ausgeklügelten Flusskontrolle in der Regel fertig. Als Surfer bemerkt man von der teils komplexen Signalisierung, den Paketverlusten, Haltezeiten und Sendewiederholungen nichts, nur unterm Strich registriert man einen enttäuschenden Durchsatz.

Solche Reibungsverluste dürften noch zunehmen, weil Netzbetreiber ihre schnellen Anschlüsse für Triple-Play-Kombinationen anbieten – Internet, IPTV und VoIP-Telefonie nutzen dann zum Beispiel WG- oder Familienmitglieder parallel zum Mail-Versand und Online-Spielen. Dabei konkurrieren alle Anwendungen unkoordiniert um die Bandbreite eines Anschlusses und dann treten bei der VoIP-Telefonie zu hohe Verzögerungen und Aussetzer auf, Downloads laufen zäh und die Reaktionszeit bei Spielen nimmt überproportional zu.

An der Bandbreite der Internet-Backbones liegen solche Probleme nicht; die haben ausreichend Reserven. Ein Flaschenhals liegt zwischen dem Endkunden und dem Internet-Service-Provider, die "letzte Meile". Diese Teilnehmeranschlussleitung (TAL) zum Provider hat am wenigsten Bandbreite und deshalb stauen sich die Daten davor und dahinter.

Besonders deutlich fällt dieser Effekt bei extrem asymmetrischen Anschlüssen auf, zum Beispiel bei ADSL2+. Dabei liefert der Empfangskanal bis zu 16 MBit/s, während der Sendekanal maximal 1 MBit/s befördert. Geht auf so einem Anschluss ein Download mit maximaler Geschwindigkeit ein, ist der Senderkanal schon zu 50 Prozent allein mit ACK-Paketen gefüllt und sobald eine weitere Anwendung sendet, treten die üblichen Symptome auf.

Wenn man Tauschbörsenprogramme wie eMule gewähren lässt, verstopfen sie die Upload-Richtung und senken so die Download-Geschwindigkeit.

Es kann daher von Vorteil sein, die Upload-Geschwindigkeit für bestimmte Anwendungen zu begrenzen. Zum Beispiel bringen viele Tauschbörsen-Programme Funktionen für die Bandbreitenbegrenzung mit und wenn man mehrere solcher Programme gleichzeitig nutzt, etwa eMule und BitTorrent, muss man sogar jedem Programm einen festen Teil der Gesamtbandbreite zuordnen. Leider bieten viele andere Anwendungen, etwa FTP-Clients oder Mail-Programme, keine solche Option.

Beim Internet-Radio oder auch IPTV müssen die Daten mit einer konstanten Rate abgespielt werden. Die Pakete kommen jedoch nicht mit einer konstanten Datenrate beim Empfänger an, weil sie unterschiedliche Wege nehmen oder zwischengeschaltete Router vorübergehend ausgelastet sind.

Streaming- oder auch VoIP-Daten kommen nicht mit einer konstanten Geschwindigkeit an. Daher werden sie nach dem Empfang gepuffert und dann mit einer konstanten Rate abgespielt.

Daher puffern die Player die eingehenden Pakete und lesen sie mit einer konstanten Datenrate aus. Die Puffergröße wählt der Player so, dass er Übertragungsaussetzer von einigen Sekunden ausgleichen kann. Wird die Verzögerung zu lang, läuft der Puffer leer und die Musikwiedergabe setzt kurz aus beziehungsweise das Video ruckelt. Um solche Situationen zu vermeiden, würde man den Puffer instinktiv großzügig dimensionieren.

Streaming- oder auch VoIP-Daten kommen nicht mit einer konstanten Geschwindigkeit an. Daher werden sie nach dem Empfang gepuffert und dann mit einer konstanten Rate abgespielt. Das hat bei Streaming-Anwendungen lediglich einen kleinen Nachteil zur Folge: Die Latenz nimmt zu und die Wiedergabe eines Video-Clips setzt später ein als bei kleinem Puffer.

Bei Voice over IP toleriert man aber nur geringe Latenzen. Steigen sie über 200 ms, empfindet man sie als störend, weil unklar ist, wann der Gesprächspartner schweigt, sodass man ihm ungewollt ins Wort fällt.

Einerseits will man also möglichst große Puffer, um Aussetzer zu vermeiden, andererseits will man möglichst kleine Puffer, um kurze Antwortzeiten zu erreichen. Verschiedene Verfahren bieten einen Ausweg aus dieser Zwickmühle. Der eleganteste Ansatz besteht darin, die VoIP-Pakete höher zu priorisieren, damit sie andere Pakete möglichst wenig aufhalten.

Dafür müsste jedoch eine Verbindung Ende-zu-Ende mit definierter Bandbreite und Latenz ausgehandelt werden und alle Router einer Strecke müssten sich daran beteiligen (Quality of Service – QoS). Doch dafür ist nicht nur ein globales Prioritätsschema erforderlich, sondern die Router der Backbones müssten ziemlich viele Daten puffern und priorisieren – also deutlich mehr Speicherkapazität und Rechenleistung haben als heutige. Immerhin wendet aber der eine oder andere Carrier intern schon ein wenig QoS an und befördert etwa VoIP-Pakete bei hohem Andrang bevorzugt.

RWIN-Einfluss
Messergebnisse mit RAS an T-DSL 1024/128 mit Fastpath
RWIN (Byte) ein Download (KByte/s) Ping-Zeiten (ms) ein Upload (KByte/s) Ping-Zeiten (ms) je ein Down-/Upload (KByte/s) Ping-Zeiten (ms)
default 122,7 105 15,7 397 33,9 / 14,4 431
28.000 122,8 196 15,6 414 50,1 / 14,0 458
65.535 122,8 476 15,7 412 94,6 / 12,8 546
26.214 122,7 639 15,6 416 39,1 / 14,5 462
52.428 122,7 638 15,8 426 105,6 / 12,6 627
10.485 122,7 636 15,9 430 37,1 / 14,7 467
Bei gleichzeitigem Up- und Download wird die jeweilige Gegenrichtung für Quittungsmeldungen mitgenutzt, was auf Kosten der Nutzdatenrate geht. Ping-Zeiten sind in ms zum nächsten Knoten angegeben. Antwortpakete des Testservers treffen in 34 ms ein (Roundtrip Time).

Die Lösung auf Anwenderseite heißt Traffic Shaping. Traffic Shaper steuern den Netzwerkverkehr, um die Latenz zu kontrollieren. Dabei werden die Internet-Päckchen klassifiziert und je nach Priorität unterschiedlich schnell auf den Weg gegeben.

Der Traffic Shaper cFosSpeed priorisiert von Haus aus alle VoIP-Programme hoch und gewährleistet so eine bessere Sprachqualität.

Der einfachste Mechanismus ist die Priorisierung von ACK-Paketen. Damit lässt sich schon mal die Download-Geschwindigkeit erhöhen, weil die Quittungen ohne Verzug abgeschickt werden. Genau besehen ist das aber nur der Anfang – im Grunde sollten sämtliche von einem PC ausgehende Datenströme nach Wichtigkeit für den Anwender priorisiert werden.

Für diverse Betriebssysteme gibt es Traffic-Shaper-Programme, darunter FreeBSD, Mac OS X, Linux und Windows (cFos und cFosSpeed, NetLimiter). Bei FreeBSD und Mac OS X kann man das Freeware-Tool Throttled einsetzen, das die ohnehin schon in der Firewall vorhandenen Funktionen mit einem Frontend versieht. Linux hat einen Packet-Scheduler im Kernel, der mit dem Layer-7-Packet-Classifier zusammenarbeitet. Letzterer erkennt Pakete bestimmter Anwendungen am Inhalt und kann sie so priorisieren. Auch können viele Router zumindest ACK-Pakete beschleunigt weiterleiten. Einige, etwa Fritz!Box Fon, bevorzugen auch Voice-over-IP-Pakete beim Versand und High-End-Router priorisieren gar sämtlichen Internet-Verkehr, den sie zuordnen können.

Idealerweise sollte Traffic Shaping zentral, also im Router stattfinden. Der Traffic Shaper kann dann den Verkehr aller LAN-Teilnehmer zum Internet hin priorisieren. Dafür muss er möglichst alle Protokolle kennen – und das geht in der Praxis nicht immer. Zum Beispiel ist die Identifizierung von Paketen des VoIP-Dienstes Skype schwierig oder auch die verschlüsselte Kommunikation von BitTorrent. Sowohl der PC als auch der Router können die Pakete zwar analysieren, aber der PC ist im Vorteil, weil er die Datenströme ihm nicht bekannter Protokolle auch noch anhand der Programmnamen zuordnen kann.

Traffic Shaper haben eine ganze Reihe von Tricks auf Lager, um den Datenverkehr bei völlig unterschiedlichen Kommunikationsszenarien in Fluss zu halten. Einige arbeiten mit einem festen oder automatisch erzeugten Parametersatz, andere erlauben dem Anwender weitreichende Eingriffe. Wer will, kann dann einzelne Verbindungen nach IP-Adresse, Portnummer, Layer-7-Protokoll, Programmname und diversen anderen Kriterien manuell priorisieren.

Standardmäßig stellt zum Beispiel cFos unterschiedliche Prioritätsqueues zur Verfügung. Hochpriorisierte Daten gibt das Programm grundsätzlich bevorzugt auf den Weg. Die Queue-Kapazität ist auf drei Sekunden limitiert – wird sie größer, verwirft der Traffic Shaper Datenpäckchen, die die Queue verlängern würden – sonst zieht sich der Versand zu lange hin. Der TCP-Stack schließt daraus, dass die Strecke zurzeit ausgelastet ist, versucht es später wieder und sendet fortan mit weniger Bandbreite. In der Praxis laufen die hoch priorisierten Queues aber nie über. Niedrig priorisierten Daten gewährt cFos einen Mindestdurchsatz (25 Prozent der Sendekapazität), sodass langsame TCP-Verbindungen nicht verhungern.

Wie ein Traffic Shaper die TCP-Kommunikation optimieren kann, illustrieren Beispiele, bei denen über eine ADSL-Leitung zunächst unterschiedliche Download- und Upload-Szenarien mit und ohne Traffic Shaping laufen. Dabei beobachtet man, dass der Download-Durchsatz ohne Traffic Shaping trotz ausreichender Window Size deutlich unter der physikalischen Download-Rate liegt (2 MBit/s). In der Tabelle Durchsatzbremsen sind die Werte für einen Test-PC aufgeführt, der bei einem ungebremsten Download rund 230 kByte/s befördert, jedoch bei parallelem Upload nur noch rund 130 kByte/s erreicht – die Hälfte der Empfangsbandbreite liegt also brach.

Diese Situation entsteht, wenn zum Beispiel während des Downloads eine größere Mail verschickt wird. Dann wird der Sendepuffer über einen längeren Zeitraum kontinuierlich mit Daten gefüllt. Geht man von einem Anschluss aus, der maximal 128 kBit/s senden kann, dauert es rund zwei Sekunden, bis 32 kByte Daten verschickt sind. Wenn in dieser Situation ein ACK-Paket, das den Fortgang des Downloads aufrecht erhalten soll, ans Ende des Puffers geschrieben wird, dauert es eben zwei Sekunden, bis es überhaupt losgeschickt wird, und noch weitere Millisekunden, bis es angekommen ist.

Beim BitTorrent-Client Azureus lässt sich die maximale Upload-Geschwindigkeit gezielt für verschiedene Betriebsarten anpassen.

Ein deutlich besseres Ansprechverhalten erzielt man schon, wenn man den Tauschbörsen-Upload limitiert (etwa auf 75 Prozent der Sendekapazität). Dann ist der Sendepuffer so häufig leer, dass ACK-Pakete von Downloads, VoIP-Päckchen, Online-Spiel-Daten und anderem mehr ohne Verzögerung weitergeleitet werden.

Besser, weil umfassender, macht das ein Traffic Shaper, weil er alle wichtigen Pakete erkennt und sie im einfachsten Fall direkt an den Anfang des Sendepuffers schreibt, sodass sie alle anderen Daten überholen. Am besten sind mehrere Queues, die unterschiedliche Prioritäten haben – sie werden unterschiedlich schnell ausgelesen und die darin zwischengelagerten Daten gelangen je nach Lesepriorität unterschiedlich schnell auf den Weg.

Angewendet auf dem Anschluss einer Familie könnte ein Traffic Shaper also die Voice-over-IP-Daten am höchsten priorisieren, dann die Spiele-Pakete und den IPTV-Datenstrom weitergeben und schließlich Mails auf den Weg bringen. Die dann noch zur Verfügung stehende Bandbreite überlässt er Tauschbörsen-Programmen. Sie können aber vorübergehend sogar weiter gebremst werden, damit etwa Urlaubsfotos mit akzeptabler Geschwindigkeit verschickt werden. Letztlich sind die Priorisierungen aber persönliche Entscheidungen der Anwender. Spielernaturen dürften die Game-Pakete vermutlich höher priorisieren als den VoIP-Verkehr.

Bei vielen Providern lässt sich die Latenz der DSL-Leitung per FastPath-Option verkürzen. Von Haus aus arbeiten die DSL-Anschlüsse nämlich mit einer robusteren Kodier-Art (höheres Interleaving), die auf Kosten der Durchlaufzeit der Daten geht – und FastPath senkt die Durchlaufzeit. Manche Hardcore Gamer gehen so weit, einen DSL-Anschluss mit FastPath eigens für Spiele anzuschaffen.

Zu beachten ist aber, dass FastPath nur bei Leitungen mit guter Übertragungsqualität empfehlenwert ist. Hat man eine, die vielen Störungen ausgesetzt ist, sinkt zwar die Latenz, aber Paketverluste nehmen zu und das TCP/IP-Protokoll muss sich selbst um die Fehlerkorrektur kümmern. Bei TCP-Verbindungen schlagen dann die Mechanismen zur Sendewiederholung an. Dann sinkt zum Beispiel bei HTTP-Downloads der Durchsatz stark. Bei UDP-Verbindungen gibt es jedoch keine Fehlerkorrektur, sodass sich Paketverluste zum Beispiel bei VoIP-Anwendungen als Aussetzer bemerkbar machen.

Ein wenig bekanntes Feature von Windows XP ist das "Task Offloading", bei dem das Betriebssystem den Prozessor entlastet, indem es bestimmte Aufgaben an speziell dafür entwickelte Netzwerkkarten überträgt. Microsoft hat dafür die Berechnung der IP- beziehungsweise TCP-Checksumme, verschiedene Arbeitsschritte bei der IPSec-Verschlüsselung sowie die TCP-Paket-Segmentierung als "Task Offloading" spezifiziert.

Bei der Berechnung der IP- oder TCP-Checksummen muss der Prozessor sämtliche übertragenen Daten einmal "anfassen", was eine gewisse Belastung suggeriert. Bei der IPSec-Verschlüsselung kann die Netzwerkkarte die Berechnung von MD5- beziehungsweise SHA1-Hash-Werten sowie die Verschlüsselung mittels Triple-DES übernehmen. Beispielsweise tun das die 3Com-Karten 10/100 Secure NIC sowie 10/100 Secure Server NIC. Das entlastet den Prozessor spürbar, wenn er IPSec-Daten sehr schnell befördern muss, etwa im GBit-LAN.

Bei der TCP-Paket-Segmentation werden Pakete, die größer sind als die MTU, von der Netzwerkkarte selbstständig in kleinere TCP-Segmente unterteilt und einzeln gesendet (zum Beispiel KillerNic von Bigfoot Networks).

Einige Netzwerkkarten unterstützen einen Teil dieser Aufgaben, darunter sogar Onboard-Karten (zum Beispiel nForce4 Ultra). Manche Tuning-Tüftler werden daher wohl eine solche Anschaffung erwägen. Doch Task-Offloading ist nur dann "nice to have", wenn die CPU stark mit Netzwerk-Aktivitäten beschäftigt ist, etwa bei vielgenutzten Servern. Deshalb sind im Server-Bereich bei Sun oder auch IBM solche Karten häufiger vertreten.

Im Privat-Umfeld und in kleineren Büronetzwerken wirkt sich diese Funktion aber nicht auf die Übertragungsgeschwindigkeit aus. In Tests zeigte sich zum Beispiel, dass heutige Prozessoren bei aktuellen Sende-Bandbreiten die Checksummen nebenbei berechnen. Auch sollte man bedenken, dass viele LANs bereits mit Gigabit-Geschwindigkeit arbeiten, also rund 100 MByte/s anliefern, aber aktuelle Festplatten kaum über 70 MByte/s annehmen können. Der Flaschenhals ist bei modernen LANs also nicht die Netzwerkkarte, sondern das Speichermedium.

Durchsatzbremsen
Download Verbindungen Upload Verbindungen Download-Durchsatz (KByte/s) Upload-Durchsatz (KByte/s) Ping-Zeit (ms)
ohne Traffic Shaping
1 227,4 188
1 27,5 235
1 1 129,1 18,9 346
4 217,9 290
4 28,6 1060
4 4 153,9 18,9 544
mit Traffic Shaping
1 218,7 231
1 27,2 186
1 1 206,5 18,6 282
4 213,7 283
4 27,8 235
4 4 221,8 16,3 378
Je nach Zahl der Up- und Downloads kann der Durchsatz einer TCP-Verbindung erheblich einbrechen. Wie stark sich der Paketversand bei diesen ungünstigen Bedingungen verzögern kann, lässt sich an den verlängerten Ping-Zeiten ablesen. Wenn ein Traffic Shaper im Router oder im PC den Verkehr regelt (hier ein Beispiel mit cFos), nehmen die Ping-Zeiten wieder ab und der Durchsatz kommt dem theoretischen Maximum deutlich näher. Die ADSL-Leitung empfängt bis zu 2048 kBit/s (Downstream) und sendet bis zu 256 kBit/s (Upstream).

Es gibt einen ganzen Haufen von Parametern, die das Internet-Verhalten eines Windows-XP-Rechners beeinflussen. Windows bietet dafür jedoch kein grafisches User-Interface, sondern lediglich Einstellungen in der Registry. Eine vollständige Liste dieser Parameter hat Microsoft auf den Support-Seiten veröffentlicht. Die Dokumentation von Microsoft ist in diesem Punkt aber oft dünn, stellenweise auch irreführend, sodass wir die wichtigsten Parameter en détail erklären.

Fast alle sind im Bereich HKLM\­SYSTEM\­CurrentControlSet\­Services\­Tcpip\Parameters einsortiert. Die Parameter sind im DWORD-Format anzugeben und Änderungen werden erst nach einem Neustart aktiv. Wenn die hier genannten Schlüssel nicht existieren, verwendet Windows Standardwerte.

Der vielleicht wichtigste TCP-Parameter, die Window Size, ist für Breitbandanschlüsse meist zu niedrig. In der Registry ist der Schlüssel aber häufig gar nicht eingetragen und Windows verwendet stillschweigend zu niedrige Werte.

TcpWindowSize, im Unix-Bereich auch RWIN genannt, gibt an, wie viele Byte der Sender ohne Empfangsbestätigung schicken darf. Microsoft schreibt dazu, dass dieser Wert unter Windows XP per Faustformel eingestellt wird:

12 × (MTU des Adapters - 40)

Das genügt für Modem- und ISDN-Verbindungen, aber für DSL-Anschlüsse ist der Wert zu niedrig. In der Praxis scheint sich Microsoft nicht immer an die eigene Dokumentation zu halten. Beispielsweise fanden wir bei Stichproben DSL- und Kabelmodem-Treiber, deren Window-Size auf 65.535 Byte eingestellt war. Das irritiert Anwender, die noch nicht so weit mit der Materie befasst sind. Ob aber der eingestellte Wert für einen bestimmten Anschluss gut genug ist, lässt sich leicht mit dieser Formel prüfen:

Window Size = Downstream-Rate in Byte pro Sekunde/3

So sind schnelle Downloads bei Servern möglich, deren Antworten bis zu 333 ms zum Eintreffen brauchen (Roundtrip Time, lässt sich zum Beispiel mit Ping ermitteln). Sollte der Anschluss häufig durch Uploads ausgelastet sein, muss man noch höhere Werte einstellen, um die Empfangsbandbreite auszuschöpfen.

Für VoIP-Anwendungen sind deutlich geringere Werte sinnvoll:

Window Size = Downstream-Rate in Byte pro Sekunde/10

Das drückt natürlich die Download-Rate, sodass man diesen Wert in der Praxis nur ungern einstellen möchte, zumal für jede Änderung ein Windows-Neustart erforderlich ist. Daher greift man lieber zu einem Traffic Shaper, der die richtige Einstellung während des Betriebs automatisch vornimmt.

EnablePMTUDiscovery aktiviert beziehungsweise deaktiviert die Path MTU Discovery (Wert 1 respektive 0). Diesen Eintrag sollte man nicht ändern, also die Path MTU Discovery aktiviert lassen.

EnablePMTUBHDetect, Black Hole Detection, ist standardmäßig deaktiviert (Wert 0), weil sonst Verzögerungen entstehen können. Diese Funktion ist nur dann nützlich, wenn die Path MTU Discovery wegen eines Black Hole fehlschlägt.

Wenn ein Router bei der MTU-Analyse ein zu großes Paket wegen des Don't-Fragment-Bits nicht zerteilt, sondern verwirft, schickt er dem Sender eine Fehlermeldung, sodass Letzterer die MTU senken kann. Geht die Fehlermeldung verloren, scheitert dieser Mechanismus, und dann spricht man von einem Black Hole. EnablePMTUBHDetect kann mit solchen Situationen umgehen, senkt aber erfahrungsgemäß den Durchsatz.

DefaultTTL: Time To Live, gibt an, wie viele Router im Netz ein Datenpaket maximal bis zum Ziel weiterreichen dürfen (Hops). Wird die maximale Hop-Anzahl überschritten, müssen die Router das Paket verwerfen und den Sender benachrichtigen. Dieser Parameter hat entgegen anderslautender Meinungen keinerlei Einfluss auf die Übertragungsgeschwindigkeit – man bekommt allenfalls früher eine Nachricht, dass der Ziel-Server nicht erreicht wurde, schränkt aber die Wahrscheinlichkeit ein, dass ein entfernter Server erreicht wird, der eben jenseits der TTL liegt. Der Wert sollte nicht kleiner als 64 gesetzt werden, da sonst Gefahr besteht, dass die Pakete ihr Ziel nicht erreichen. Die Standardeinstellung ist 128.

SackOpts schaltet Selective Acknowledgments ein (SACKs). Der Empfänger kann damit einzelne Pakete quittieren, auch wenn er sie nicht in der Reihenfolge empfängt, in der sie der Sender geschickt hat. Diese Option ist standardmäßig aktiviert (1=SACK) und sollte es auch bleiben, da sie die Verzögerungen bei Paketverlust auf ein Minimum senkt, ohne nennenswert Bandbreite zu kosten.

Tcp1323Opts schaltet Window Scaling und Timestamps ein respektive aus. 0 deaktiviert Window Scaling und Timestamps, 1 schaltet nur Window Scaling ein, 2 schaltet nur Timestamps ein, 3 schaltet beides ein (Standard).

Timestamps ermöglichen es, den TCP Retransmission Timeout genauer zu berechnen und anhand dessen entscheidet der Sender, wann er im Fehlerfalle ein Datenpaket neu schickt. Das ist wichtig, wenn man eine sehr große TcpWindowSize benutzt.

MTU, Maximum Transmission Unit, maximale Größe eines IP-Pakets mitsamt IP-Header, TCP-Header und Nutzdaten. –1 ist die Voreinstellung und bedeutet, dass der Stack die maximale Paketgröße automatisch mittels Path MTU Discovery ermittelt.

Aus der MTU berechnet man den TCP-Parameter MSS (Maximum Segment Size, die maximale Menge an Nutzdaten pro Paket):

MSS = MTU - 20 Byte TCP-Header - 20 Byte IP-Header

Die MTU findet sich als einziger TCP-Parameter im Subkey Interfaces unter der GUID des Adapters. Ist kein MTU-Wert vorhanden, wird Path MTU Discovery verwendet, um den passenden Wert zu ermitteln. Falls also ein Wert eingetragen ist, empfiehlt es sich in der Regel, ihn zu löschen.

Die GUID des DFÜ-Adapters ist gut versteckt: es ist die letzte Zeile aus dem Eintrag unter HKLM\SYSTEM\CurrentControlSet\Services\Tcpip\Parameters\Adapters \NdisWanIp\IpConfig.

Anders als manche Surfer meinen, muss die Window Size nicht unbedingt ein ganzzahliges Vielfaches der MSS sein – das passt zwar theoretisch prima in das TCP-Schema, aber sobald ein Router auf dem Weg per Path MTU Detection eine kleinere MSS erzwingt, ist die Einstellung ohnehin Makulatur und daher in der Praxis nicht wichtig.

Ein TCP-Wert, an dem gerne gedreht wird, ist die MTU, die Maximum Transmission Unit. MTU gibt die maximale Größe eines Pakets an, das ein Netzwerk ohne Fragmentierung befördern kann. Dabei gibt es widerstreitende Interessen bezüglich der optimalen Größe.

Je größer die MTU, desto günstiger das Verhältnis von TCP/IP-Header zu Nutzdaten. Ein TCP/IP-Header besteht aus 40 Byte. Beim Schritt von einer kleinen MTU (zum Beispiel 576 Byte) zu einer großen MTU von 1500 Byte sinkt der Header-Anteil von 6,9 auf 2,7 Prozent.

Traffic Shaper wie NetLimiter begrenzen die Upload-Geschwindigkeit beliebiger Programme und erzwingen so eine kooperative Nutzung eines Internet-Anschlusses.

Es gilt aber auch: Je größer ein Paket, desto länger braucht es für die Übertragung. Wenn nun interaktive Anwendungen parallel mit einem Upload laufen, etwa eine ssh-Sitzung oder ein VoIP-Telefonat, kommt es vor, dass das ssh-Paket, das ein einziges Eingabezeichen befördert, hinter einem 1500 Byte großen Upload-Paket eingereiht wird. Das kleine Paket kann also erst danach verschickt werden. Bei einer Upstream-Geschwindigkeit von 192 kBit/s (24 kByte/s) dauert das immerhin 62 ms. Das kann bei interaktiven Anwendungen wie eben einer ssh-Sitzung oder beim Telefonieren schon störend sein. Ein kleineres Paket von 576 Byte macht den Weg hingegen schon nach 24 ms frei – der gemischte Verkehr läuft also flüssiger ab. Davon profitieren beispielsweise Online-Spiele.

Steigende Upstream-Bandbreiten mildern dieses Problem zunehmend. Schon MTUs über 1500 Byte sind untypisch und werden kaum zu realisieren sein, da die Ethernet-Leitungen, die viele Provider intern für die Weiterleitung einsetzen, maximal 1500 Byte pro Paket transportieren. Zudem dürfen PPPoE-Pakete nur maximal 1492 Byte groß sein, sodass ein DSL-Router 1500 Byte große Ethernet-Pakete seines LAN in zwei PPPoE-Pakete teilen müsste. Das würde den Durchsatz deutlich senken. Eines hätte die maximale Länge von 1492 Byte IP-Daten plus 8 Byte PPPoE-Header, das zweite jedoch nur die restlichen 8 Byte des Ethernet-Frames als Nutzdaten sowie 20 Byte IP-Header und 8 Byte PPPoE-Header.

Glücklicherweise kann der Sender die optimale MTU feststellen, wenn Path MTU Discovery eingeschaltet ist. Dann senkt er den Wert automatisch, denn TCP tut alles, um zu verhindern, dass Pakete fragmentiert werden. Es kostet Zeit und Speicher, fragmentierte Pakete am Ziel zusammenzusetzen. Auch sind größere Pakete bei Paketverlust kostspieliger – es dauert länger, bis der Fehler korrigiert ist und der Durchsatz sinkt stärker als bei kleinerer MTU.

Bei der Path MTU Discovery werden alle Pakete mit dem "Don't-Fragment-Bit" gekennzeichnet und zunächst mit der am gegebenen Adapter maximalen Größe versandt. Falls ein auf der Strecke befindlicher Router das Paket nicht ohne Fragmentierung weitergeben kann (was ihm das Don't-Fragment-Bit verwehrt), verwirft er das Paket und meldet dem Sender einen Fehler mitsamt seiner maximalen Paketgröße.

Der Sender passt dann die Paketgröße an und wiederholt den Versuch, bis er zum Ziel durchkommt. Weil sich die Route zwischen Sender und Empfänger ändern kann, wendet der Sender die Methode gelegentlich wieder an. Bei DSL mit PPPoE beträgt die MTU 1492 Byte, bei ISDN, DSL mit PPPoA oder Kabel in der Regel 1500 Byte.

Beim Aufbau einer TCP-Verbindung sendet jede Seite die von ihr maximal akzeptierte Maximum Segment Size. Dieser Wert ergibt sich aus der MTU – 40 Bytes für den TCP/IP-Header. Wenn eine Endstellen MSS = 1460 meldet, kann sie also Pakete bis zu 1500 Byte Größe nutzen (1460 + 40). Die MSS ist aber nur eine Obergrenze. Sollte Path MTU Discovery einen kleineren Wert ergeben, wird dieser benutzt.

Viele der hier vorgestellten Techniken sind auf Windows XP bezogen, etliche lassen sich auch unter anderen Betriebssystemen anwenden. Mit Vista, dessen TCP/IP-Stack Microsoft komplett überarbeitet hat, haben die Redmonder einiges verbessert: Für Änderungen bestimmter Parameter ist – anders als bei XP und Vorgängern – kein Neustart erforderlich.

Um etwa VoIP-Aussetzern beizukommen, kann man den RWIN-Wert manuell verkleinern, damit sich Daten möglichst wenig stauen. Dann muss man aber bei Windows XP bis zur nächsten RWIN-Änderung mit anschließendem Reboot in Kauf nehmen, dass der Download von weit entfernten Servern deutlich langsamer geht als möglich. Vista erlaubt es hingegen, den RWIN-Wert beispielsweise vor einem VoIP-Telefonat zu verkleinern und danach ohne Reboot heraufzusetzen. Außerdem bringt Vista eine "Automatic configuration of stack settings" mit, das die Window Size der Bandbreite anpasst.

Kommentare

Anzeige