<div dir="ltr">Добрый день.<div><br></div><div>Размер кеша задается в настройках nginx и если в кеш будет добавлено что-то и кеш станет больше, то в течении нескольких секунд nginx удалит из кеша наиболее довно не использовавшиеся элементы, сомневаюсь, что у вас постоянно запрашиваются все 1млн страниц, возможно 10% наиболее популярных в кеше размеров 6гб достаточно, чтобы сохранить наиболее важные страницы. Возможно стоит пременит min_use чтобы страницы, рапрошенные однократно, в кеш не попадали и не вымывали из кеша что-то, более важное.</div><div class="gmail_extra"><br><div class="gmail_quote">31 июля 2015 г., 15:22 пользователь VovansystemS <span dir="ltr"><<a href="mailto:vovansystems@gmail.com" target="_blank">vovansystems@gmail.com</a>></span> написал:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Добрый день,<br>
<br>
есть старый, но довольно большой https legacy-сайт на php и у<br>
владельцев нет ресурсов его переделывать. сайт состоит из нескольких<br>
миллионов страниц в районе 60 кб каждая (14 кб после gzip на nginx).<br>
<br>
основной трафик на сайт - поисковый по низкочастотным запросам и если<br>
распарсить логи, получается что за сутки загружается порядка сотен<br>
тысяч уникальных страниц (как поисковыми роботами и пауками, так и<br>
клиентами) и редко какая страница загружается больше чем 2 раза за<br>
сутки.<br>
<br>
для обеспечения хотя бы минимальной отказоустойчивости, есть идея<br>
кешировать ответы backend'а, чтобы в случае его падения (задумчивости)<br>
была возможность отдать хоть что-то через fastcgi_cache_use_stale. но<br>
размер кеша всех целевых страниц сайта превысит все разумные пределы<br>
(60кб х 1 000 000 страниц ≈ 58 гб)<br>
<br>
каким образом можно "сжимать" кеш nginx, кроме доработки приложения,<br>
так, чтобы оно сразу отдавало сжатый ответ?<br>
<br>
( здесь я читал: <a href="http://forum.nginx.org/read.php?21,256725,256739#msg-256739" rel="noreferrer" target="_blank">http://forum.nginx.org/read.php?21,256725,256739#msg-256739</a> )<br>
<br>
как один из вариантов вижу использование какой-нибудь файловой<br>
системы, которая умеет сжимать файлы на лету, но тут много вопросов к<br>
скорости работы fuse (по крайней мере раньше она работала медленно,<br>
изменилась ли ситуация?)<br>
<br>
в принципе, cloudflare мог бы решить задачу, если купить бизнес план и<br>
закачать туда свои сертификаты, но интересно рассмотреть вариант с<br>
nginx, потому как у cloudflare есть ещё косяки с доступностью для<br>
некоторых клиентов и роботов.<br>
<br>
может быть у кого-либо есть похожий опыт?<br>
_______________________________________________<br>
nginx-ru mailing list<br>
<a href="mailto:nginx-ru@nginx.org" target="_blank">nginx-ru@nginx.org</a><br>
<a href="http://mailman.nginx.org/mailman/listinfo/nginx-ru" rel="noreferrer" target="_blank">http://mailman.nginx.org/mailman/listinfo/nginx-ru</a></blockquote></div><br><br clear="all"><div><br></div>-- <br><div>Kpoxa</div>
</div></div>