Ubuntu - Nginx - чрезвычайно высокий IO пишет
У меня сервер Nginx с довольно большим трафиком, выделяющий статический контент для семейства веб-сайтов. Я не могу понять, почему записи на диск такие высокие.
Хост VMWare ESXi 6.0 (хранилище данных находится на четырех корпоративных SSD в RAID10), на котором установлена виртуальная машина Ubuntu 14.04.3 LTS с 4 ядрами и 16 ГБ ОЗУ. NGINX v 1.4.6
Экземпляр в настоящее время обрабатывает около 75000 подключений (я знаю, что в этом списке перечислены все подключения, не только подключенные, но подключения TIME_WAIT по-прежнему используют порт)
$ netstat -tn | wc -l
75237
Сбивает примерно 50 мб
$ sudo bmon
Interfaces x RX bps pps %x TX bps pps %
->lo x 4B 0 x 4B 0
eth0 x 1.60MiB 17.57K x 52.93MiB 13.57K
qdisc none (mq) x 0 0 x 54.64MiB 41.08K
class :1 (mq) x 0 0 x 21.49MiB 15.46K
class :2 (mq) x 0 0 x 11.65MiB 9.57K
class :3 (mq) x 0 0 x 11.62MiB 8.65K
class :4 (mq) x 0 0 x 9.88MiB 7.40K
И скорость записи через крышу!
$ sudo iostat
Linux 3.13.0-52-generic (hostname) 11/30/2015 _x86_64_ (4 CPU)
avg-cpu: %user %nice %system %iowait %steal %idle
2.13 0.00 4.80 62.99 0.00 30.08
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 93.21 696.88 34015.01 6759664 329942882
dm-0 105.09 696.56 34022.58 6756593 330016284
dm-1 0.02 0.09 0.00 896 0
$ sudo iotop -k -o
Total DISK READ : 71.03 K/s | Total DISK WRITE : 45959.36 K/s
Actual DISK READ: 71.03 K/s | Actual DISK WRITE: 33324.19 K/s
TID PRIO USER DISK READ DISK WRITE> SWAPIN IO COMMAND
1128 be/4 www-data 0.00 K/s 12134.03 K/s 0.00 % 78.36 % nginx: worker process
1119 be/4 www-data 0.00 K/s 8073.57 K/s 0.00 % 89.34 % nginx: worker process
1109 be/4 www-data 71.03 K/s 6065.04 K/s 0.00 % 26.60 % nginx: worker process
1110 be/4 www-data 0.00 K/s 4032.84 K/s 0.00 % 89.23 % nginx: worker process
1105 be/4 www-data 0.00 K/s 2024.31 K/s 0.00 % 0.00 % nginx: worker process
1113 be/4 www-data 0.00 K/s 2024.31 K/s 0.00 % 20.72 % nginx: worker process
1115 be/4 www-data 0.00 K/s 2024.31 K/s 0.00 % 0.00 % nginx: worker process
1120 be/4 www-data 0.00 K/s 2024.31 K/s 0.00 % 0.00 % nginx: worker process
1121 be/4 www-data 0.00 K/s 2024.31 K/s 0.00 % 61.78 % nginx: worker process
1114 be/4 www-data 0.00 K/s 2020.37 K/s 0.00 % 0.00 % nginx: worker process
1106 be/4 www-data 0.00 K/s 2016.42 K/s 0.00 % 48.97 % nginx: worker process
1122 be/4 www-data 0.00 K/s 1365.32 K/s 0.00 % 0.00 % nginx: worker process
184 be/3 root 0.00 K/s 126.27 K/s 0.00 % 90.53 % [jbd2/dm-0-8]
1127 be/4 www-data 0.00 K/s 3.95 K/s 0.00 % 0.00 % nginx: worker process
Это мой текущий конфиг Nginx, закомментированные строки - варианты, которые я пробовал.
user www-data;
worker_processes 32; # I know the recommended is 1 per core, but with this set to auto, images started breaking instead of just lagging (which my boss thought was preferable short-term)
#worker_processes auto;
worker_rlimit_nofile 100000;
pid /run/nginx.pid;
events {
worker_connections 4000;
multi_accept on;
use epoll;
# accept_mutex off;
}
http {
sendfile on;
tcp_nopush on;
tcp_nodelay on;
keepalive_timeout 15;
keepalive_requests 200;
reset_timedout_connection on;
types_hash_max_size 2048;
server_tokens off;
open_file_cache max=200000 inactive=20s;
open_file_cache_valid 30s;
open_file_cache_min_uses 2;
open_file_cache_errors on;
include /etc/nginx/mime.types;
default_type application/octet-stream;
index index.php index.htm index.html;
# client_body_buffer_size 10k;
# client_body_buffer_size 16K;
# client_body_buffer_size 128K;
client_body_buffer_size 1m;
client_header_buffer_size 1k;
# client_header_buffer_size 2k;
client_max_body_size 25m;
# large_client_header_buffers 2 1k;
large_client_header_buffers 4 8k;
client_body_timeout 15;
client_header_timeout 15;
send_timeout 2;
access_log off;
error_log /var/log/nginx/error.log crit;
gzip on;
gzip_disable "msie6";
gzip_proxied expired no-cache no-store private auth;
gzip_comp_level 2;
gzip_min_length 10240;
gzip_types text/plain text/css text/xml text/javascript application/json application/x-javascript application/xml application/xml+rss;
include /etc/nginx/conf.d/*.conf;
include /etc/nginx/sites-enabled/*;
}
Это изменения, которые я сделал в /etc/sysctl.conf
fs.file-max = 2097152
vm.swappiness = 10
vm.dirty_ratio = 60
vm.dirty_background_ratio = 2
net.ipv4.tcp_synack_retries = 2
net.ipv4.ip_local_port_range = 1024 65535
net.ipv4.tcp_rfc1337 = 1
net.ipv4.tcp_syncookies = 1
net.ipv4.tcp_fin_timeout = 15
net.ipv4.tcp_keepalive_time = 300
net.ipv4.tcp_keepalive_probes = 5
net.ipv4.tcp_keepalive_intvl = 15
net.core.rmem_default = 31457280
net.core.rmem_max = 33554432
net.core.wmem_default = 31457280
net.core.wmem_max = 33554432
#net.core.somaxconn = 4096
net.core.somaxconn = 65535
net.ipv4.tcp_max_syn_backlog = 65535
net.core.netdev_max_backlog = 65536
net.core.optmem_max = 25165824
net.ipv4.tcp_mem = 65536 131072 262144
net.ipv4.udp_mem = 65536 131072 262144
net.ipv4.tcp_rmem = 8192 87380 16777216
net.ipv4.udp_rmem_min = 16384
net.ipv4.tcp_max_tw_buckets = 1440000
net.ipv4.tcp_tw_recycle = 0
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_congestion_control = cubic
Я в недоумении из-за того, что вызывает высокую скорость записи. Я думал, что это из-за клиентских буферов, но ни одно из изменений не имело никакого значения. Я удостоверился, что все обновления были установлены и сделал перезагрузку на сервере, но НИЧЕГО не уменьшило скорость записи. Любая помощь будет оценена!
1 ответ
Один из блоков сервера отправлял хэшированные запросы в php-скрипт, который, в свою очередь, выводил файлы на основе хэша. Это звучит хорошо и замечательно, пока вы не углубитесь в документацию и не поймете, что nginx НЕ МОЖЕТ использовать повышение производительности sendfile при использовании сокетов unix. Сценарий php переключился с отправки файла на размещение заголовка X-Accel-Redirect для файла, и мои записи сократились практически до 0.
https://www.reddit.com/r/nginx/comments/3v17hq/cant_get_rid_of_high_io_writes_on_nginx_content/