Я тут призадумался, как mongoose сервер с 2500 потоками (thread pool) смог пройти тест с 10000 одновременных соединений в режиме keep-alive. И понял простую вещь.<div><br></div><div>Программа тестирования httpress открыла 10 тыс. соединений с сервером и прогнала через них 1 млн. запросов. При этом у всех серверов (кроме nxweb) при тестировании возникали ошибки: часть запросов подвисала, программа принудительно обрывала их по завершении основной фазы тестирования. Процент ошибок был невелик. В районе 8..9.5 тыс. ошибок из миллиона. Ошибочные запросы не учитывались при расчете результирующего RPS. Так как это возникало со всеми, я грешил на TCP-стек. Тем более, что и у nxweb тоже иногда ошибки проскакивали (пока я вчера не убрал mutex из accept-цикла).</div>
<div><br></div><div>А теперь меня осенило, и я добавил в httpress оценку реальной одновременности (real concurrency) - только что закоммитил. И вот что получается при тестировании 10 тыс. одновремнных keep-alive:</div><div>
<br></div><div>nxweb: real concurrecny = 10000 (через каждое соединение прошел хотя бы один успешный запрос)</div><div>g-wan: real concurrecny = 4-7 тыс. (т.е. часть соединений зависла сходу, и не использовалась в процессе теста)</div>
<div>mongoose: real concurrecny = ~1700 (ведь он при всем желании больше 2500 не может в моей конфигурации, а по факту и тех не задействует)</div><div>libevent: real concurrecny = 10000</div><div>microhttpd: real concurrecny = 800-1000</div>
<div>nginx: real concurrecny = 2-7 тыс.</div><div><br></div><div>Почему пишу об этом здесь, потому что не понимаю, почему у nginx не 10 000.</div><div><br></div><div>У меня в конфиге:</div><blockquote class="webkit-indent-blockquote" style="margin: 0 0 0 40px; border: none; padding: 0px;">
<div>worker_processes  4;</div><div><div>events {</div></div><div><div>    worker_connections  16384;</div></div><div><div>}</div></div></blockquote><div><br></div><div>Вроде бы должен он 10 тыс. соединений держать... Может, надо еще что-то подкрутить?</div>
<div><br></div>