Re: Загрузка CPU "em0 taskq"
Кирилл
kirillrst at gmail.com
Fri Oct 23 12:25:41 MSD 2009
Да, прошу прощения, разумеется роутинг гораздо более простая задача.
2009/10/23 Igor Sysoev <is at rambler-co.ru>
> On Fri, Oct 23, 2009 at 11:00:55AM +0400, Кирилл wrote:
>
> > Честно говоря ожидал не меньше 100Kpps, задача несложная, посути роутинг,
> с
> > которым и дилинки с дохлыми процессорами справляются. Хотя могу
> > заблуждаться, ибо тонкостей реализации стека D-Link не знаю.
>
> Во-первых, это не роутинг, а обработка TCP/IP, задача гораздо более
> сложная, роутинга. Во-вторых, что показывает гипотетический top D-Link'а на
> 100Kpps ? Не удивлюсь, если 100% busy.
>
> > 2009/10/22 MZ <zuborg at advancedhosters.com>
> >
> > > Прошу прощения, но, собственно, чего Вы ещё ожидали от Celeron-а ?
> > > Материнка, я так понимаю, ему соответствует, а от неё тоже много чего
> > > зависит для сетевой производительности.
> > >
> > >
> > > Кирилл wrote:
> > >
> > >> Добрый день, коллеги. Буду благодарен, если кто подскажет что это за
> > >> процесс (*em0 taskq*) и почему так много поедает процессора. Ну не
> верю я
> > >> что хваленая реализация сетевого стека во FreeBSD так проседает при
> 100Мбит.
> > >> Машина: Celeron 2.8, 1Gb ОЗУ, 7.2-i386-20091008-RELENG_7_2. Выступает
> в
> > >> роле web-акселератора, и кроме nginx ничего не крутится.
> > >>
> > >> /etc/rc.d/ipfilter onestop - Ни малейших перемен.
> > >>
> > >> # top -SP
> > >> CPU: 13.5% user, 0.0% nice, 46.8% system, 6.4% interrupt, 33.3% idle
> > >> Mem: 205M Active, 266M Inact, 152M Wired, 1068K Cache, 111M Buf, 368M
> Free
> > >> Swap: 4096M Total, 56M Used, 4040M Free, 1% Inuse
> > >> PID USERNAME THR PRI NICE SIZE RES STATE TIME WCPU
> > >> COMMAND
> > >> 11 root 1 171 ki31 0K 8K RUN 476:04 30.76%
> idle:
> > >> cpu0
> > >> 22 root 1 -68 - 0K 8K - 204:36 *29.20%
> em0
> > >> taskq*
> > >> 34 root 1 -68 - 0K 8K WAIT 73:52 8.40%
> irq18:
> > >> em0 atapci1
> > >> 15763 www 1 96 0 203M 191M RUN 3:35 1.17%
> nginx
> > >> ...
> > >>
> > >> # vmstat 5
> > >> procs memory page disks faults
> > >> cpu
> > >> r b w avm fre flt re pi po fr sr ad4 ad6 in sy
> cs
> > >> us sy id
> > >> 1 0 0 718M 402M 478 3 0 1 541 985 0 0 5028 23780
> 29929
> > >> 15 44 41
> > >> 1 0 0 718M 402M 2 0 0 0 0 0 0 0 6143 14213
> 22360
> > >> 11 50 40
> > >>
> > >>
> > >> # netstat -dw1
> > >> input (Total) output
> > >> packets errs bytes packets errs bytes colls drops
> > >> 8448 0 4671078 9177 0 6720956 0 0
> > >> 25776 0 17436726 28118 0 17904026 0 0
> > >> 32230 0 26810636 32266 0 21383868 0 0
> > >> 23703 0 19727356 23627 0 13323592 0 0
> > >>
> > >> # netstat -Lan
> > >> Current listen queue sizes (qlen/incqlen/maxqlen)
> > >> Proto Listen Local Address tcp4 16/0/128 *.80
> > >> ...
> > >>
> > >> # sysctl kern.ipc.numopensockets
> > >> kern.ipc.numopensockets: 4984
> > >>
> > >> --
> > >> Спасибо. Кирилл.
> > >>
> > >>
> > >
> > >
> >
> >
> > --
> > kirillrst.com
>
> --
> Игорь Сысоев
> http://sysoev.ru
>
>
--
kirillrst.com
-------------- next part --------------
An HTML attachment was scrubbed...
URL: <http://nginx.org/pipermail/nginx-ru/attachments/20091023/31510e73/attachment.html>
More information about the nginx-ru
mailing list