2 Minuten Lesezeit (386 Worte)

SO_REUSEPORT und dessen Nutzen für Apache und andere Webserver

Der Linux-Kernel 3.9 bietet ein interessantes neues Feature, die Socket-Option SO_REUSEPORT. Damit ist es z. B. auf einem aktuellen SLES 12 SP1 System möglich, zwei Prozesse auf demselben Port zu betreiben.

Folgendes Beispiel mit netcat verdeutlicht das Verhalten:

# nc -4 -l 1234 &
[1] 2011
# nc -4 -l 1234 &
[2] 2012
# ss -lnpt | awk 'NR == 1 || /:1234/'
State      Recv-Q Send-Q        Local Address:Port          Peer Address:Port
LISTEN     0      1                         *:1234                     *:*      users:(("nc",2012,3))
LISTEN     0      1                         *:1234                     *:*      users:(("nc",2011,3)) 

Doch wozu soll das gut sein?

Wichtig ist zu wissen, dass der Kernel ein Connection Load-Balancing zwischen den einzelnen Sockets durchführt, die auf dem selben Port lauschen. Diese Sockets können von Prozessen oder Threads erstellt werden, die unter der gleichen effektiven UID laufen und explizit die Option SO_REUSEPORT setzen. In dem Beispiel würden die eingehenden Verbindungen dementsprechend auf die beiden nc-Prozesse verteilt werden.

Nutzbar ab Apache 2.4.17

Apache kann das neue Feature seit der Version 2.4.17 über die Direktive ListenCoresBucketsRatio nutzen bzw. der Listening-Socket des Hauptprozesses wird standardmäßig mit der Option SO_REUSEPORT erstellt. Falls das Akzeptieren neuer Verbindungen der Bottleneck ist und der Apache auf einem System mit vielen CPUs läuft, kann ListenCoresBucketsRatio die Skalierbarkeit verbessern. Für den sinnvollen Einsatz des Features sollten mindestens 16 CPUs zur Verfügung stehen.

Die Direktive gibt das Verhältnis zwischen CPUs und zu erstellenden Listening-Buckets an. Es müssen mindestens doppelt so viele CPUs im Vergleich zur angegebenen Ratio existieren. Somit ist es notwendig, ListenCoresBucketsRatio an die Hardware-Vorgaben des jeweiligen Systems anzupassen.

NGINX und Performance-Vorteile

Nicht nur Apache, sondern auch andere Webserver können das Kernel-Feature nutzen. Bei NGINX z. B. kann der listen-Direktive die Option reuseport mitgegeben werden, wodurch für jeden Worker-Prozess ein eigener Listening-Socket erstellt wird. In einer optimalen Umgebung kann unter Verwendung der Option die Anzahl der Requests, die verarbeitet werden können, verdreifacht werden.

Rolling Updates

Zu den möglichen Performance-Verbesserungen ermöglicht die neuen Socket-Option Rolling Updates (Updates ohne Downtime). 

Folgendes Szenario ist mit dem Apache denkbar. Dank der standardmäßig (falls möglich) gesetzten Option, kann ein zweiter Apache mit einer neueren Version aber gleicher Konfiguration auf dem selben Port gestartet werden. Dieser wird vom Kernel sofort in das Load-Balancing einbezogen. Treten keine Fehler auf, kann der alte Apache gestoppt werden und die neue Version wurde ohne Unterbrechung implementiert.

Quellen:

Senior Chief Consultant bei ORDIX

 

Kommentare 2

am Donnerstag, 01. September 2016 07:48

Nach welchem Verfahren läuft denn das Load-Balancing? Oder anders gefragt, ist es möglich, das Verfahren auch für Server zu verwenden, auf denen Anwendungen mit Sessions laufen (Stichwort: "Sticky Sessions")?

Nach welchem Verfahren läuft denn das Load-Balancing? Oder anders gefragt, ist es möglich, das Verfahren auch für Server zu verwenden, auf denen Anwendungen mit Sessions laufen (Stichwort: "Sticky Sessions")?
Marius Dorlöchter am Donnerstag, 01. September 2016 12:12

Wie oft in der IT ist die Antwort auch hier ein klares Jein. Der Kernel entscheidet nun nicht mehr nur anhand der Ziel-Adresse und des -Ports, sondern zusätzlich mit Hilfe der Quell-Adresse und des -Ports welche TCP-Verbindung zu welchem Prozess/Thread gehört. Neue TCP-Verbindungen werden unter den einzelnen Listening-Sockets verteilt (Load-Balancing). Der Kernel weiß demnach nichts von Sessions. Lauschen z. B. zwei Tomcats auf dem selben Port und sie tauschen die Session-Informationen nicht untereinander aus, wird das Konstrukt nicht funktionieren. Um bei dem Bild zu bleiben, man könnte aber einen oder mehrere Apaches als Reverse Proxy vor den Tomcats betreiben, der/die dann die Session-Informationen auswertet, Sticky-Sessions realisiert und von SO_REUSEPORT profitiert. Einen wirklichen Unterschied für die Performance macht SO_REUSEPORT jedoch nur, wenn man sehr viele Requests pro Sekunde zu bearbeiten hat.

Wie oft in der IT ist die Antwort auch hier ein klares Jein. Der Kernel entscheidet nun nicht mehr nur anhand der Ziel-Adresse und des -Ports, sondern zusätzlich mit Hilfe der Quell-Adresse und des -Ports welche TCP-Verbindung zu welchem Prozess/Thread gehört. Neue TCP-Verbindungen werden unter den einzelnen Listening-Sockets verteilt (Load-Balancing). Der Kernel weiß demnach nichts von Sessions. Lauschen z. B. zwei Tomcats auf dem selben Port und sie tauschen die Session-Informationen nicht untereinander aus, wird das Konstrukt nicht funktionieren. Um bei dem Bild zu bleiben, man könnte aber einen oder mehrere Apaches als Reverse Proxy vor den Tomcats betreiben, der/die dann die Session-Informationen auswertet, Sticky-Sessions realisiert und von SO_REUSEPORT profitiert. Einen wirklichen Unterschied für die Performance macht SO_REUSEPORT jedoch nur, wenn man sehr viele Requests pro Sekunde zu bearbeiten hat.
Donnerstag, 25. April 2024

Sicherheitscode (Captcha)

×
Informiert bleiben!

Bei Updates im Blog, informieren wir per E-Mail.

Weitere Artikel in der Kategorie