nginx uwsgi websockets 502 Плохое соединение вверх по течению преждевременно закрытого соединения при чтении заголовка ответа от восходящего потока

Я уже несколько дней стучаю головой по этому вопросу и, наконец, достиг кирпичной стены.

Я пытаюсь запустить мой стек:

http://django-websocket-redis.readthedocs.org/en/latest/running.html#django-with-websockets-for-redis-behind-nginx-using-uwsgi

Я смотрел на некоторые другие статьи SO, подобные этой:

nginx - настройка uWSGI HTTP + websocket

У них, похоже, есть аналогичная проблема, с которой я сталкиваюсь, но решение не работает для меня.

В основном, я постоянно сталкиваюсь с экраном nginx 502 bad gateway, когда я пытаюсь запустить мои процессы uWSGI. У меня есть два отдельных процесса uwsgi, выполняемых в соответствии с инструкциями в документации.

Когда я запускаю экземпляр uwsgi websocket, я получаю следующее:

*** running gevent loop engine [addr:0x487690] ***
[2015-05-27 00:45:34,119 wsgi_server] DEBUG: Subscribed to channels: subscribe-broadcast, publish-broadcast

который говорит мне, что экземпляр uwsgi работает нормально. Затем я запускаю свой следующий uwsgi-процесс и журналы ошибок там...

Когда я перехожу к странице в браузере, страница с зависанием в течение нескольких секунд, прежде чем получить 502 Bad Gateway Screen.

Согласно журналам NGINX, NGINX говорит:

2015/05/26 22:46:08 [error] 18044#0: *3855 upstream prematurely closed connection while reading response header from upstream, client: 192.168.59.3, server: , request: "GET /chat/ HTTP/1.1", upstream: "uwsgi://unix:/opt/django/django.sock:", host: "192.168.59.103:32768"

Это единственный журнал ошибок, который я получаю при попытке доступа к странице в веб-браузере.

Любые идеи кто-нибудь???

Ниже приведены некоторые из моих конфигурационных файлов:


nginx.conf

user www-data;
worker_processes 4;
pid /run/nginx.pid;

events {
    worker_connections 768;
}

http {

    ##
    # Basic Settings
    ##

    sendfile on;
    tcp_nopush on;
    tcp_nodelay on;
    keepalive_timeout 65;
    types_hash_max_size 2048;
    # server_tokens off;

    # server_names_hash_bucket_size 64;
    # server_name_in_redirect off;

    include /etc/nginx/mime.types;
    default_type application/octet-stream;

    ##
    # SSL Settings
    ##

    ssl_protocols TLSv1 TLSv1.1 TLSv1.2; # Dropping SSLv3, ref: POODLE
    ssl_prefer_server_ciphers on;

    ##
    # Logging Settings
    ##

    access_log /var/log/nginx/access.log;
    error_log /var/log/nginx/error.log;

    ##
    # Gzip Settings
    ##

    gzip on;
    gzip_disable "msie6";

    # gzip_vary on;
    # gzip_proxied any;
    # gzip_comp_level 6;
    # gzip_buffers 16 8k;
    # gzip_http_version 1.1;
    # gzip_types text/plain text/css application/json application/javascript text/xml application/xml application/xml+rss text/javascript;

    ##
    # Virtual Host Configs
    ##

    include /etc/nginx/conf.d/*.conf;
    include /etc/nginx/sites-enabled/django.conf;
}

У меня есть следующий файл django.conf, который расширяет nginx.conf

upstream django {
    server unix:/opt/django/django.sock;
}

server {
    listen 80 default_server;
    charset utf-8;
    client_max_body_size 20M;
    sendfile on;
    keepalive_timeout 0;
    large_client_header_buffers 8 32k;

location /media  {
    alias /opt/django/app/media/media;  
}

location /static {
    alias /opt/django/app/static;
}

location / {
    include /opt/django/uwsgi_params; 
}

location /ws/ {
        proxy_http_version 1.1;
        proxy_set_header Upgrade $http_upgrade;
        proxy_set_header Connection "upgrade";
        proxy_pass http://unix:/opt/django/app.sock;
        proxy_buffers 8 32k;
        proxy_buffer_size 64k;
    }
}

И два файла, которые отвечают за мои процессы uwsgi, следующие:

runserver_uwsgi.ini:

[uwsgi]
ini = :runserver

[default]
userhome = /opt/django
chdir = %dapp/
master = true
module = chatserver.wsgi:application
no-orphans = true
threads = 1
env = DJANGO_SETTINGS_MODULE=myapp.settings
vacuum = true

[runserver]
ini = :default
socket = /opt/django/app.sock
module = wsgi_django
buffer-size = 32768
processes = 4
chmod-socket=666

и wsserver_uwsgi.ini

[uwsgi]
ini = :wsserver

[default]
userhome = /opt/django
chdir = %dapp/
master = true
module = chatserver.wsgi:application
no-orphans = true
threads = 1
env = DJANGO_SETTINGS_MODULE=chatserver.settings
vacuum = true

[wsserver]
ini = :default
http-socket = /opt/django/django.sock
module = wsgi_websocket
http-websockets = true
processes = 2
gevent = 1000
chmod-socket=666

Ответ 1

Я нашел проблему.

Мой сокет [runningerver] (app.sock) должен указываться под upstream django а мой [wsserver] сокет (django.sock) должен указываться в location/ws/ like so:

upstream django {
    server unix:/opt/django/app.sock;
}

server {
    listen 80 default_server;
    charset utf-8;
    client_max_body_size 20M;
    sendfile on;
    keepalive_timeout 0;
    large_client_header_buffers 8 32k;

location /media  {
    alias /opt/django/app/media/media;  
}

location /static {
    alias /opt/django/app/static;
}

location / {
    include /opt/django/uwsgi_params; 
}

location /ws/ {
        proxy_http_version 1.1;
        proxy_set_header Upgrade $http_upgrade;
        proxy_set_header Connection "upgrade";
        proxy_pass http://unix:/opt/django/django.sock;
        proxy_buffers 8 32k;
        proxy_buffer_size 64k;
    }
}

Ответ 2

У меня была та же проблема, но это была не моя конфигурация NGINX, это были мои процессы UWSGI, вызывающие ошибки тайм-аута, когда я отправлял JSON с клиентской стороны на сервер. У меня были процессы как 5, я изменил его на 1, и это решило проблему. Для моего приложения мне нужно было запустить только 1 процесс, поскольку AWS не нужно было перегружать несколькими процессами.

Вот рабочий INI файл конфигурации UWSGI, который решил проблему тайм-аута и, таким образом, проблему шлюза 502.

autoboot.ini

#!/bin/bash

[uwsgi]
socket          = /tmp/app.sock

master          = true

chmod-socket    = 660
module          = app.wsgi
chdir           = home/app

close-on-exec = true # Allow linux shell via uWSGI

processes = 1
threads = 2
vacuum = true

die-on-term = true

Здесь мой конфиг nginx тоже.

nginx.conf

# the upstream component nginx needs to connect to
upstream django {
    server unix:///app/tmp/app.sock; # for a file socket
    # server 127.0.0.1:6000; # for a web port socket (we'll use this first)
}

# configuration of the server
server {
    # the port your site will be served on
    listen      80;

    # the domain name it will serve for
    server_name XXX.XXX.XX.X #actual IP in here
    charset     utf-8;

    # max upload size
    client_max_body_size 75M;   # adjust to taste

    error_log /var/log/nginx/error.log;
    access_log /var/log/nginx/access.log;

    # Finally, send all non-media requests to the Django server.
    location / {
        uwsgi_pass  django;
        include     uwsgi_params;
    }

    location /static {
        autoindex on;
        alias app/static; # your Django project static files - amend as required
    }

    error_page 502 /502.html;
    location = /502.html {
        alias app/templates/502autoreload.html;
    }

    client_body_timeout 100s;
    uwsgi_read_timeout 500s;
    keepalive_timeout 300;
}

Ответ 3

У меня была похожая проблема, когда под нагрузкой я начинаю получать 502 обратно от uWSGI.

Короче говоря, убедитесь, что вы используете HTTP/1.1, используете --http11-socket и используете uWSGI=2.0.16 или новее.

http/1.1 делает постоянное соединение по умолчанию. Я обнаружил, что 502 происходит, когда очередь прослушивания растет и соединения начинают прерываться. Посмотрите на мою статью для всей истории

https://wontonst.blogspot.com/2019/06/squishing-performance-bug-in.html