Comet

Alex Tutubalin lexa at lexa.ru
Mon Jun 11 09:38:22 MSD 2007


> Вероятно  nginx может слушать какой-то ещё хост/ip/порт и принимать на
> него  все  запросы,  которые  приходят от постящих в чат месаги, затем
> прокидывать их на бэкенд, который будет что-то отвечать. Но этот ответ
> бэкенда улетит в другой блок server{...}, в котором висит куча юзеров,
> "медленно  качающих"  не кончающуюся страничку. Т.е. приходит запрос к
> одному server{}, а отдаётся через другой.

Тут же основной вопрос - что делать со свежими юзерами. Просто буферизовать
последние N килобайт и отдавать подключенному это ? Мне кажется, что
"просто" не получится, а придется в поток вставлять какие-то метки
и уметь на стороне nginx на основании этих меток сформировать правильный
ответ.

Т.е. сама идея мультиплексора, от backend один поток, а к юзерам - много,
мне кажется неплохой, но что с ней делать в "общем виде" - не понимаю.

Алексей Тутубалин
mailto: lexa at lexa.ru
Web: http://www.lexa.ru/lexa 





More information about the nginx-ru mailing list