<div>Просьба не ругать за криворукость :)</div><div><br></div><div>Придется начать из далека.</div><div>Картинки у нас хранятся в hbase (не очень много, пока всего чистыми данными 500 гигов). Извлекаются от туда руби с рельсами. Для ускорения процесса был настроен сквид. Который тупо кешировал все <a href="http://127.0.0.1:8000/show_pictures/......">http://127.0.0.1:8000/show_pictures/......</a>.. (он торчал на 8000 порту)</div>
<div>Потом появился локальный сквид на машинке которая раздает 90% траффика. Этот сквид имел парента - предыдущего сквида. Все было нормально.</div><div>Но тут у hetzner-а в DC10 наступил сбой во внутренней маршрутизации. Я с перепугу тот сервер перезагрузил (кто знал что не надо). Они потом мне прислали "ну типа незапланированный сбой поэтому предупредить не могли). В общем, когда все начало работать, то оказалось что картинки раздаются только с одного диска, и производительнось отдачи зависит тупо от одного диска. И пока не нарастится кеш в памяти то все страшно тормозит!</div>
<div><br></div><div>Срочно сквиды были переведены в режим sibling (с перепугу было настроено еще 3 дополнительных сервера под это), Но после этого оказалось что тк урлы которые к ним идут отличаются от <a href="http://127.0.0.1:8000/">http://127.0.0.1:8000/</a> , и, как следствие, нифига не закешированы. </div>
<div>Haproxy мгновенно спас ситуацию - он висит на <a href="http://127.0.0.1:8000">127.0.0.1:8000</a> и берет из сквидов именно то что нужно (сквиды переехали на исторический 3128 порт). </div><div><br></div><div>Собственно, все. Возможно сквиды умеют работать в режиме акселератора и не обращать внимания на название хоста, но я этого быстро не нашел, а нужно было спасать ситуацию.</div>
<div><br></div><div><div class="gmail_quote">2012/11/29 Maxim Dounin <span dir="ltr"><<a href="mailto:mdounin@mdounin.ru" target="_blank">mdounin@mdounin.ru</a>></span><br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hello!<br>
<br>
On Thu, Nov 29, 2012 at 06:10:00PM +0400, Nikolay Grebnev wrote:<br>
<br>
> Спасибо!!!<br>
<br>
Пожалуйста. В качестве ответной любезности - а расскажите pls,<br>
чего именно в вашем случае в nginx'е не хватает, что приходится за<br>
ним ставить haproxy?<br>
<div class="HOEnZb"><div class="h5"><br>
--<br>
Maxim Dounin<br>
<a href="http://nginx.com/support.html" target="_blank">http://nginx.com/support.html</a><br>
<br>
_______________________________________________<br>
nginx-ru mailing list<br>
<a href="mailto:nginx-ru@nginx.org">nginx-ru@nginx.org</a><br>
<a href="http://mailman.nginx.org/mailman/listinfo/nginx-ru" target="_blank">http://mailman.nginx.org/mailman/listinfo/nginx-ru</a></div></div></blockquote></div><br></div>