<div dir="ltr"><div>"GET /files/images/1284_1284/58/b4/<wbr>58b455be4b559395714059e5.jpg" - по fastcgi запрос отправляете ?<br></div><br>(просто в моем представлении fastcgi это php, а тут похоже на статику)<br></div><div class="gmail_extra"><br><div class="gmail_quote">15 июня 2017 г., 19:21 пользователь Алексанр Платонов <span dir="ltr"><<a href="mailto:al.al.platonov@gmail.com" target="_blank">al.al.platonov@gmail.com</a>></span> написал:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div><div>Добрый день.<br><br></div>У меня есть ~30 хостов в 3-х 
разных ДЦ. Nginx принимает нагрузку и распределяет её по алгоритму WRR 
на php-fpm пулы, расположенные на этих же хостах.<br><br></div>Периодически, примерно 1/5000 (ошибка к общему кол-ву запросов)  на случайном хосте получает ошибку:<br>front14
 2017/06/15 15:37:40 [error] 13063#13063: *2446289 upstream timed out 
(110: Connection timed out) while connecting to upstream, client: 
217.69.135.0, server: site, request: "GET /files/images/1284_1284/58/b4/<wbr>58b455be4b559395714059e5.jpg HTTP/1.0", upstream: "fastcgi://<a href="http://217.69.137.52:8081" target="_blank">217.69.137.52:8081</a>"<wbr>, host: "site"<br><br></div>после получения ошибки nginx проксирует запрос на другой сервер и там все отрабатывает нормально.<br><br>front14 217.69.135.0 - - [15/Jun/2017:15:37:41 +0300] "GET /files/images/1284_1284/58/b4/<wbr>58b455be4b559395714059e5.jpg HTTP/1.0" 200 139517 "-" "okhttp/3.4.1" "-" request_time: 1.660 upstream_addr: <a href="http://217.69.137.52:8081" target="_blank">217.69.137.52:8081</a>, <a href="http://217.69.137.51:8081" target="_blank">217.69.137.51:8081</a> upstream_response_time: 0.677, 0.981 upstream_status: 504, 200 upstream_cache_status: - "tid:" 13063-1497530259.494-217.69.13<wbr>5.0-163-2446289<br><div><br></div><div>Меня
 волнует это так как увеличивается время ответа и всегда есть некий 
фоновый поток 504 ошибок. Подскажите, пожалуйста почему возникает 
таймаут и как его избежать?<br><br></div><div>Файл nginx-debug с одной проблемной сессией: <a href="https://uploadfiles.io/eokgp" target="_blank">https://uploadfiles.io/eokgp</a><br></div><div>Файл конфигурации nginx: <a href="https://ufile.io/w8x56" target="_blank">https://ufile.io/w8x56</a><br></div><div>Список upstream: <a href="https://ufile.io/3tt84" target="_blank">https://ufile.io/3tt84</a><br></div><div>Cписок параметров fastcgi: <a href="https://ufile.io/gdzaa" target="_blank">https://ufile.io/gdzaa</a><br></div><div>Sysctl: <a href="https://ufile.io/cdboz" target="_blank">https://ufile.io/cdboz</a><br></div><div><br></div><div>Снимал несколько раз tcpdump и наблюдал следующую картину:<br></div><div>1) хост с nginx послылает FIN на бэкенд сразу после своего же ACK бэкенду через 13ms, не пересылая данные вообще.<br></div><div>2) хост с nginx посылает RST  через 10 мкс после получения SYN, ACK от бэкенда и через ~ 780 мкс от своего SYN.<br><br></div><div>типовой ss -i<br>ESTAB      0      0          <a href="http://217.69.134.124:40538" target="_blank">217.69.134.124:40538</a>        217.69.137.52:tproxy  <br>     cubic wscale:7,7 rto:202 rtt:2.75/1.5 cwnd:10 bytes_acked:865 segs_out:3 segs_in:2 send 42.1Mbps rcv_space:14600<br></div><div><br></div><div>Не
 понятно почему при настройке nginx fastcgi_connect_timeout 300ms; в 
логе вижу upstream_response_time: 0.677 секунды. Есть этому объяснение?<br><br></div>Спасибо всем, <br clear="all">Александр</div>
<br>______________________________<wbr>_________________<br>
nginx-ru mailing list<br>
<a href="mailto:nginx-ru@nginx.org">nginx-ru@nginx.org</a><br>
<a href="http://mailman.nginx.org/mailman/listinfo/nginx-ru" rel="noreferrer" target="_blank">http://mailman.nginx.org/<wbr>mailman/listinfo/nginx-ru</a><br></blockquote></div><br></div>