Servieren von Kolbenanwendungen mit uWSGI und Nginx unter CentOS 7

Einführung

In diesem Handbuch richten wir eine einfache Python-Anwendung mit dem Flask-Mikro-Framework unter CentOS 7 ein. Der Großteil dieses Artikels befasst sich mit der Einrichtung des uWSGI-Anwendungsservers zum Starten der Anwendung und von Nginx als Front-End-Reverse-Proxy.

Voraussetzungen

Bevor Sie mit diesem Handbuch beginnen, sollte auf Ihrem Server ein Benutzer ohne Rootberechtigung konfiguriert sein. Dieser Benutzer benötigt die Berechtigung "+ sudo +", um administrative Funktionen ausführen zu können. Informationen zum Einrichten finden Sie in unserer initial server setup guide.

Weitere Informationen zu uWSGI, unserem Anwendungsserver und der WSGI-Spezifikation finden Sie im verlinkten Abschnitt unter https://www.digitalocean.com/community/tutorials/how-to-set-up-uwsgi-and-nginx-to -serve-python-apps-on-ubuntu-14-04 # definitionen-und-konzepte [dieses handbuch]. Das Verständnis dieser Konzepte erleichtert das Befolgen dieser Anleitung.

Wenn Sie bereit sind fortzufahren, lesen Sie weiter.

Installieren Sie die Komponenten aus den CentOS- und EPEL-Repositorys

Unser erster Schritt wird sein, alle Teile, die wir brauchen, aus den Repositories zu installieren. Wir müssen das EPEL-Repository hinzufügen, das einige zusätzliche Pakete enthält, um einige der benötigten Komponenten zu installieren.

Sie können das EPEL-Repo aktivieren, indem Sie Folgendes eingeben:

sudo yum install epel-release

Sobald der Zugriff auf das EPEL-Repository auf unserem System konfiguriert ist, können wir mit der Installation der benötigten Pakete beginnen. Wir werden + pip +, den Python-Paketmanager, installieren, um unsere Python-Komponenten zu installieren und zu verwalten. Wir werden auch einen Compiler und die Python-Entwicklungsdateien bekommen, die zum Erstellen von uWSGI benötigt werden. Wir werden jetzt auch Nginx installieren.

Sie können alle diese Komponenten installieren, indem Sie Folgendes eingeben:

sudo yum install python-pip python-devel gcc nginx

Erstellen Sie eine virtuelle Python-Umgebung

Als Nächstes richten wir eine virtuelle Umgebung ein, um unsere Flask-Anwendung von den anderen Python-Dateien auf dem System zu isolieren.

Beginnen Sie mit der Installation des Pakets + virtualenv mit` + pip`:

sudo pip install virtualenv

Jetzt können wir ein übergeordnetes Verzeichnis für unser Flask-Projekt erstellen. Wechseln Sie in das Verzeichnis, nachdem Sie es erstellt haben:

mkdir ~/
cd ~/

Wir können eine virtuelle Umgebung zum Speichern der Python-Anforderungen unseres Flask-Projekts erstellen, indem Sie Folgendes eingeben:

virtualenv

Dies installiert eine lokale Kopie von Python und "+ pip " in ein Verzeichnis mit dem Namen "+" in Ihrem Projektverzeichnis.

Bevor wir Anwendungen in der virtuellen Umgebung installieren, müssen wir sie aktivieren. Sie können dies tun, indem Sie Folgendes eingeben:

source /bin/activate

Ihre Eingabeaufforderung ändert sich und zeigt an, dass Sie jetzt in der virtuellen Umgebung arbeiten. Es wird ungefähr so ​​aussehen: + () @: ~ / $ +.

Einrichten einer Kolbenanwendung

Jetzt, da Sie sich in Ihrer virtuellen Umgebung befinden, können wir Flask und uWSGI installieren und mit dem Entwerfen unserer Anwendung beginnen:

Installieren Sie Flask und uWSGI

Wir können die lokale Instanz von "+ pip +" verwenden, um Flask und uWSGI zu installieren. Geben Sie die folgenden Befehle ein, um diese beiden Komponenten abzurufen:

pip install uwsgi flask

Erstellen Sie eine Beispiel-App

Nachdem wir Flask zur Verfügung haben, können wir eine einfache Anwendung erstellen. Der Kolben ist ein Mikrorahmen. Es enthält nicht viele der Tools, die für umfassendere Frameworks geeignet sind, und ist hauptsächlich als Modul verfügbar, das Sie in Ihre Projekte importieren können, um Sie bei der Initialisierung einer Webanwendung zu unterstützen.

Auch wenn Ihre Anwendung komplexer sein mag, erstellen wir unsere Flask-App in einer einzigen Datei, die wir als "+ myproject.py +" bezeichnen:

nano ~//.py

In dieser Datei platzieren wir unseren Anwendungscode. Grundsätzlich müssen wir flask importieren und ein Flask-Objekt instanziieren. Hiermit können wir die Funktionen definieren, die ausgeführt werden sollen, wenn eine bestimmte Route angefordert wird. Wir rufen unsere Flask-Anwendung im Code "+ application +" auf, um die Beispiele zu replizieren, die Sie in der WSGI-Spezifikation finden:

from flask import Flask
application = Flask(__name__)

@application.route("/")
def hello():
   return "<h1 style='color:blue'>Hello There!</h1>"

if __name__ == "__main__":
   application.run(host='0.0.0.0')

Dies definiert im Wesentlichen, welcher Inhalt angezeigt wird, wenn auf die Stammdomäne zugegriffen wird. Speichern und schließen Sie die Datei, wenn Sie fertig sind.

Sie können Ihre Flask-App testen, indem Sie Folgendes eingeben:

python .py

Besuchen Sie den Domänennamen oder die IP-Adresse Ihres Servers, gefolgt von der in der Terminalausgabe angegebenen Portnummer (höchstwahrscheinlich "+: 5000 +") in Ihrem Webbrowser. Sie sollten so etwas sehen:

image: https: //assets.digitalocean.com/articles/nginx_uwsgi_wsgi_1404/test_app.png [Flask sample app]

Wenn Sie fertig sind, drücken Sie einige Male STRG-C im Terminalfenster, um den Flask-Entwicklungsserver zu stoppen.

Erstellen Sie den WSGI-Einstiegspunkt

Als Nächstes erstellen wir eine Datei, die als Einstiegspunkt für unsere Anwendung dient. Dies teilt unserem uWSGI-Server mit, wie er mit der Anwendung interagieren soll.

Wir werden die Datei + wsgi.py + aufrufen:

nano ~//wsgi.py

Die Datei ist unglaublich einfach. Wir können einfach die Flask-Instanz aus unserer Anwendung importieren und dann ausführen:

from  import application

if __name__ == "__main__":
   application.run()

Speichern und schließen Sie die Datei, wenn Sie fertig sind.

Konfigurieren Sie uWSGI

Unsere Bewerbung ist nun geschrieben und unser Einstiegspunkt festgelegt. Wir können jetzt zu uWSGI übergehen.

Testen von uWSGI-Serving

Als Erstes testen wir, ob uWSGI für unsere Anwendung geeignet ist.

Wir können dies tun, indem wir einfach den Namen unseres Einstiegspunkts übergeben. Wir geben auch den Socket an, damit er auf einer öffentlich zugänglichen Schnittstelle gestartet wird, und das Protokoll, damit HTTP anstelle des Binärprotokolls "+ uwsgi +" verwendet wird:

uwsgi --socket 0.0.0.0:8000 --protocol=http -w wsgi

Wenn Sie den Domänennamen oder die IP-Adresse Ihres Servers mit dem Anhängen von "+: 8000 +" in Ihrem Webbrowser aufrufen, sollte eine Seite angezeigt werden, die wie folgt aussieht:

image: https: //assets.digitalocean.com/articles/nginx_uwsgi_wsgi_1404/test_app.png [Flask sample app]

Wenn Sie die ordnungsgemäße Funktion bestätigt haben, drücken Sie STRG-C in Ihrem Terminalfenster.

Wir sind jetzt mit unserer virtuellen Umgebung fertig und können sie deaktivieren:

deactivate

Alle Vorgänge werden jetzt in der Python-Umgebung des Systems ausgeführt.

Erstellen einer uWSGI-Konfigurationsdatei

Wir haben getestet, dass uWSGI in der Lage ist, unsere Anwendung zu bedienen, aber wir möchten etwas Robusteres für die langfristige Nutzung. Wir können eine uWSGI-Konfigurationsdatei mit den gewünschten Optionen erstellen.

Fügen Sie das in unser Projektverzeichnis ein und nennen Sie es "+ myproject.ini +":

nano ~//.ini

Im Inneren beginnen wir mit dem Header "+ [uwsgi] ", damit uWSGI die Einstellungen anwenden kann. Wir geben das Modul an, indem wir auf unsere Datei ` wsgi.py +` verweisen, abzüglich der Erweiterung:

[uwsgi]
module = wsgi

Als Nächstes weisen wir uWSGI an, im Mastermodus zu starten und fünf Arbeitsprozesse zu erzeugen, um die tatsächlichen Anforderungen zu erfüllen:

[uwsgi]
module = wsgi

master = true
processes = 5

Beim Testen haben wir uWSGI auf einem Netzwerkport verfügbar gemacht. Wir werden jedoch Nginx verwenden, um die tatsächlichen Clientverbindungen zu verarbeiten, die dann Anforderungen an uWSGI weiterleiten. Da diese Komponenten auf demselben Computer ausgeführt werden, wird ein Unix-Socket bevorzugt, da er sicherer und schneller ist. Wir rufen den Socket "+ myproject.sock +" auf und platzieren ihn in diesem Verzeichnis.

Wir müssen auch die Berechtigungen für den Socket ändern. Wir geben der Nginx-Gruppe später den Besitz des uWSGI-Prozesses. Daher müssen wir sicherstellen, dass der Gruppeneigentümer des Sockets Informationen von ihm lesen und in ihn schreiben kann. Wir werden auch den Sockel bereinigen, wenn der Prozess anhält, indem wir die Option "Vakuum" hinzufügen:

[uwsgi]
module = wsgi

master = true
processes = 5

socket = .sock
chmod-socket = 660
vacuum = true

Das Letzte, was wir tun müssen, ist die Option + die-on-term + zu setzen. Dies ist erforderlich, da das Upstart-Init-System und uWSGI unterschiedliche Vorstellungen haben, was unterschiedliche Prozesssignale bedeuten sollen. Durch diese Einstellung werden die beiden Systemkomponenten ausgerichtet und das erwartete Verhalten implementiert:

[uwsgi]
module = wsgi

master = true
processes = 5

socket = .sock
chmod-socket = 660
vacuum = true

die-on-term = true

Möglicherweise haben Sie bemerkt, dass wir kein Protokoll wie in der Befehlszeile angegeben haben. Dies liegt daran, dass uWSGI standardmäßig das "+ uwsgi +" - Protokoll verwendet, ein schnelles Binärprotokoll, das für die Kommunikation mit anderen Servern entwickelt wurde. Nginx kann dieses Protokoll nativ sprechen, daher ist es besser, dies zu verwenden, als die Kommunikation über HTTP zu erzwingen.

Wenn Sie fertig sind, speichern und schließen Sie die Datei.

Erstellen Sie eine Systemd Unit-Datei

Das nächste Teil, um das wir uns kümmern müssen, ist die Systemd-Service-Unit-Datei. Durch das Erstellen einer Systemd-Unit-Datei kann das CentOS-Init-System uWSGI automatisch starten und unsere Flask-Anwendung bei jedem Start des Servers bedienen.

Erstellen Sie zunächst eine Unit-Datei mit der Endung "+ .services" im Verzeichnis "+ / etc / systemd / system":

sudo nano /etc/systemd/system/.service

Im Inneren beginnen wir mit dem Abschnitt "+ [Unit] +", in dem Metadaten und Abhängigkeiten angegeben werden. Wir werden hier eine Beschreibung unseres Dienstes einfügen und das init-System anweisen, dies erst zu starten, nachdem das Netzwerkziel erreicht wurde:

[Unit]
Description=uWSGI instance to serve
After=network.target

Als nächstes öffnen wir den Abschnitt "+ [Service] +". Wir geben den Benutzer und die Gruppe an, unter denen der Prozess ausgeführt werden soll. Wir geben unserem regulären Benutzerkonto den Besitz des Prozesses, da ihm alle relevanten Dateien gehören. Wir geben der Nginx-Benutzergruppe den Besitz, damit sie problemlos mit den uWSGI-Prozessen kommunizieren kann.

Anschließend ordnen wir das Arbeitsverzeichnis zu und setzen die Umgebungsvariable "+ PATH ", damit das Init-System weiß, wo sich die ausführbaren Dateien für den Prozess befinden (in unserer virtuellen Umgebung). Anschließend geben wir den Befehl zum Starten des Dienstes an. Systemd erfordert, dass wir den vollständigen Pfad zur ausführbaren uWSGI-Datei angeben, die in unserer virtuellen Umgebung installiert ist. Wir übergeben den Namen der von uns erstellten ` .ini +` Konfigurationsdatei in unserem Projektverzeichnis:

[Unit]
Description=uWSGI instance to serve
After=network.target

[Service]
User=
Group=nginx
WorkingDirectory=/home//
Environment="PATH=/home////bin"
ExecStart=/home////bin/uwsgi --ini .ini

Schließlich fügen wir einen Abschnitt "+ [Install] +" hinzu. Dies teilt Systemd mit, mit was dieser Dienst verknüpft werden soll, wenn er beim Booten gestartet werden kann. Wir möchten, dass dieser Dienst gestartet wird, wenn das reguläre Mehrbenutzersystem ausgeführt wird:

[Unit]
Description=uWSGI instance to serve
After=network.target

[Service]
User=
Group=nginx
WorkingDirectory=/home//
Environment="PATH=/home////bin"
ExecStart=/home////bin/uwsgi --ini .ini

[Install]
WantedBy=multi-user.target

Damit ist unsere Systemd-Servicedatei vollständig. Speichern und schließen Sie es jetzt.

Wir können jetzt den von uns erstellten uWSGI-Dienst starten und aktivieren, sodass er beim Booten startet:

sudo systemctl start
sudo systemctl enable

Konfigurieren von Nginx für Proxy-Anforderungen

Unser uWSGI-Anwendungsserver sollte nun betriebsbereit sein und auf Anforderungen in der Socket-Datei im Projektverzeichnis warten. Wir müssen Nginx so konfigurieren, dass Webanforderungen mit dem Protokoll "+ uwsgi +" an diesen Socket weitergeleitet werden.

Öffnen Sie zunächst die Standardkonfigurationsdatei von Nginx:

sudo nano /etc/nginx/nginx.conf

Öffnen Sie einen Serverblock direkt über dem anderen "+ server {} +" -Block, der sich bereits in der Datei befindet:

http {
   . . .

   include /etc/nginx/conf.d/*.conf;




   server {
       listen 80 default_server;

       . . .

Wir werden die gesamte Konfiguration für unsere Kolbenanwendung in diesen neuen Block einfügen. Zunächst legen wir fest, dass dieser Block den Standard-Port 80 überwacht und auf den Domain-Namen oder die IP-Adresse unseres Servers reagiert:

server {
   listen 80;
   server_name ;
}

Das einzige andere, was wir hinzufügen müssen, ist ein Standortblock, der zu jeder Anfrage passt. In diesem Block wird die Datei "+ uwsgi_params " eingefügt, die einige allgemeine uWSGI-Parameter angibt, die festgelegt werden müssen. Anschließend leiten wir die Anforderungen an den Socket weiter, den wir mit der Direktive " uwsgi_pass +" definiert haben:

server {
   listen 80;
   server_name ;

   location / {
       include uwsgi_params;
       uwsgi_pass unix:/home///.sock;
   }
}

Das ist eigentlich alles, was wir für unsere Anwendung benötigen. Speichern und schließen Sie die Datei, wenn Sie fertig sind.

Der Benutzer + nginx + muss Zugriff auf unser Anwendungsverzeichnis haben, um dort auf die Socket-Datei zugreifen zu können. Standardmäßig sperrt CentOS das Home-Verzeichnis jedes Benutzers sehr restriktiv, sodass wir den Benutzer "+ nginx +" zur Benutzergruppe hinzufügen, damit wir dann die Mindestberechtigungen eröffnen können, die zum Gewähren des Zugriffs erforderlich sind.

Sie können den Benutzer "+ nginx " mit dem folgenden Befehl zu Ihrer Benutzergruppe hinzufügen. Ersetzen Sie den `+` im Befehl durch Ihren eigenen Benutzernamen:

sudo usermod -a -G  nginx

Jetzt können wir unserer Benutzergruppe Ausführungsberechtigungen für unser Ausgangsverzeichnis erteilen. Auf diese Weise kann der Nginx-Prozess Inhalte in folgenden Bereichen eingeben und darauf zugreifen:

chmod 710 /home/

Mit den eingerichteten Berechtigungen können wir unsere Nginx-Konfigurationsdatei auf Syntaxfehler testen:

sudo nginx -t

Wenn dies ohne Angabe von Problemen zurückgegeben wird, können wir den Nginx-Prozess starten und aktivieren, sodass er automatisch beim Booten gestartet wird:

sudo systemctl start nginx
sudo systemctl enable nginx

Sie sollten nun in der Lage sein, den Domainnamen oder die IP-Adresse Ihres Servers in Ihrem Webbrowser aufzurufen und Ihre Anwendung anzuzeigen:

image: https: //assets.digitalocean.com/articles/nginx_uwsgi_wsgi_1404/test_app.png [Flask sample app]

Fazit

In diesem Handbuch haben wir eine einfache Flask-Anwendung in einer virtuellen Python-Umgebung erstellt. Wir erstellen einen WSGI-Einstiegspunkt, damit jeder WSGI-fähige Anwendungsserver mit ihm kommunizieren kann, und konfigurieren dann den uWSGI-Anwendungsserver so, dass er diese Funktion bereitstellt. Anschließend haben wir die Systemd-Service-Unit-Datei erstellt, um den Anwendungsserver beim Booten automatisch zu starten. Wir haben einen Nginx-Serverblock erstellt, der den Webclient-Datenverkehr an den Anwendungsserver weiterleitet und externe Anforderungen weiterleitet.

Flask ist ein sehr einfaches, aber äußerst flexibles Framework, mit dem Sie Ihre Anwendungen mit Funktionen versehen können, ohne die Struktur und das Design zu stark einzuschränken. Mit dem in diesem Handbuch beschriebenen allgemeinen Stapel können Sie die von Ihnen entworfenen Kolbenanwendungen bedienen.