Узкое место
Viatcheslav E. Kouznetsov
slava at auto.ru
Wed Aug 27 12:26:04 MSD 2008
man lsof
В сообщении от 27 августа 2008 11:57 Alexander Dolgarev написал(a):
> Да, похоже ухкое место - это винт.
>
> Вот нормальная работа:
> Linux 2.6.18.8-0.7-default (KM31216) 08/27/2008
>
> avg-cpu: %user %nice %system %iowait %steal %idle
> 6.28 0.02 2.33 1.10 0.00 90.27
>
> Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s
> avgrq-sz avgqu-sz await svctm %util
> sda 0.29 2.36 3.50 2.05 79.29 36.70 39.65 18.35
> 20.89 0.16 29.42 4.97 2.76
> sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
> 10.40 0.00 0.93 0.93 0.00
>
> avg-cpu: %user %nice %system %iowait %steal %idle
> 29.93 0.00 19.45 0.50 0.00 50.12
>
> Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s
> avgrq-sz avgqu-sz await svctm %util
> sda 0.00 0.00 0.50 0.00 3.98 0.00 1.99 0.00
> 8.00 0.01 24.00 24.00 1.19
> sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
> 0.00 0.00 0.00 0.00 0.00
>
> avg-cpu: %user %nice %system %iowait %steal %idle
> 30.67 0.00 19.45 0.00 0.00 49.88
>
> Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s
> avgrq-sz avgqu-sz await svctm %util
> sda 0.00 12.44 0.00 11.94 0.00 199.00 0.00 99.50
> 16.67 0.03 2.33 2.33 2.79
> sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
> 0.00 0.00 0.00 0.00 0.00
>
> avg-cpu: %user %nice %system %iowait %steal %idle
> 28.68 0.00 20.95 0.50 0.00 49.88
>
> Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s
> avgrq-sz avgqu-sz await svctm %util
> sda 0.00 0.00 2.00 0.00 16.00 0.00 8.00 0.00
> 8.00 0.01 4.00 5.00 1.00
> sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
> 0.00 0.00 0.00 0.00 0.00
>
> avg-cpu: %user %nice %system %iowait %steal %idle
> 29.43 0.00 20.45 0.25 0.00 49.88
>
> Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s
> avgrq-sz avgqu-sz await svctm %util
> sda 7.50 0.00 100.50 0.00 876.00 0.00 438.00 0.00
> 8.72 0.85 8.52 8.34 83.80
> sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
> 0.00 0.00 0.00 0.00 0.00
>
> avg-cpu: %user %nice %system %iowait %steal %idle
> 28.68 0.00 21.45 0.00 0.00 49.88
>
> Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s
> avgrq-sz avgqu-sz await svctm %util
> sda 0.00 3.50 0.00 10.00 0.00 112.00 0.00 56.00
> 11.20 0.05 5.20 2.80 2.80
> sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
> 0.00 0.00 0.00 0.00 0.00
>
>
> Вот ненормальная при включенном VBox:
> Linux 2.6.18.8-0.7-default (KM31216) 08/27/2008
>
> avg-cpu: %user %nice %system %iowait %steal %idle
> 6.28 0.02 2.33 1.10 0.00 90.27
>
> Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s
> avgrq-sz avgqu-sz await svctm %util
> sda 0.29 2.36 3.51 2.05 79.33 36.70 39.67 18.35
> 20.89 0.16 29.42 4.97 2.76
> sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
> 10.40 0.00 0.93 0.93 0.00
>
> avg-cpu: %user %nice %system %iowait %steal %idle
> 0.25 0.00 0.75 49.25 0.00 49.75
>
> Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s
> avgrq-sz avgqu-sz await svctm %util
> sda 0.00 15.00 120.50 4.00 964.00 156.00 482.00 78.00
> 9.00 2.07 16.66 8.05 100.20
> sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
> 0.00 0.00 0.00 0.00 0.00
>
> avg-cpu: %user %nice %system %iowait %steal %idle
> 0.25 0.00 0.25 49.38 0.00 50.12
>
> Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s
> avgrq-sz avgqu-sz await svctm %util
> sda 0.50 0.00 169.65 0.00 1365.17 0.00 682.59 0.00
> 8.05 1.32 7.84 5.85 99.30
> sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
> 0.00 0.00 0.00 0.00 0.00
>
> avg-cpu: %user %nice %system %iowait %steal %idle
> 0.00 0.00 0.50 49.75 0.00 49.75
>
> Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s
> avgrq-sz avgqu-sz await svctm %util
> sda 0.00 8.50 220.50 4.00 1768.00 104.00 884.00 52.00
> 8.34 1.11 4.94 4.43 99.40
> sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
> 0.00 0.00 0.00 0.00 0.00
>
> avg-cpu: %user %nice %system %iowait %steal %idle
> 0.50 0.00 0.75 48.88 0.00 49.88
>
> Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s
> avgrq-sz avgqu-sz await svctm %util
> sda 0.00 0.00 218.00 0.50 1752.00 4.00 876.00 2.00
> 8.04 1.05 4.81 4.55 99.40
> sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
> 0.00 0.00 0.00 0.00 0.00
>
> avg-cpu: %user %nice %system %iowait %steal %idle
> 0.25 0.00 0.00 49.62 0.00 50.13
>
> Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s
> avgrq-sz avgqu-sz await svctm %util
> sda 0.00 0.00 188.06 0.00 1504.48 0.00 752.24 0.00
> 8.00 1.32 7.03 5.15 96.92
> sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
> 0.00 0.00 0.00 0.00 0.00
>
>
> После того как перенесли образ винды на другой винт sdb особо не помогло:
> Linux 2.6.18.8-0.7-default (KM31216) 08/27/2008
>
> avg-cpu: %user %nice %system %iowait %steal %idle
> 6.28 0.02 2.33 1.11 0.00 90.26
>
> Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s
> avgrq-sz avgqu-sz await svctm %util
> sda 0.30 2.36 3.53 2.05 79.95 36.72 39.97 18.36
> 20.92 0.16 29.35 4.97 2.77
> sdb 0.00 0.27 0.00 0.00 0.02 0.82 0.01 0.41
> 287.36 0.00 307.72 3.27 0.00
>
> avg-cpu: %user %nice %system %iowait %steal %idle
> 0.25 0.75 49.63 49.38 0.00 0.00
>
> Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s
> avgrq-sz avgqu-sz await svctm %util
> sda 9.55 24.12 129.15 4.02 1101.51 229.15 550.75 114.57
> 9.99 1.28 9.55 7.52 100.10
> sdb 0.00 1.01 0.00 4.02 0.00 44.22 0.00 22.11
> 11.00 0.01 2.50 2.50 1.01
>
> avg-cpu: %user %nice %system %iowait %steal %idle
> 0.25 0.25 50.37 49.13 0.00 0.00
>
> Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s
> avgrq-sz avgqu-sz await svctm %util
> sda 9.41 0.00 216.83 0.00 1845.54 0.00 922.77 0.00
> 8.51 2.27 10.42 4.58 99.21
> sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
> 0.00 0.00 0.00 0.00 0.00
>
> avg-cpu: %user %nice %system %iowait %steal %idle
> 0.75 1.00 50.00 48.26 0.00 0.00
>
> Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s
> avgrq-sz avgqu-sz await svctm %util
> sda 8.50 9.50 206.50 0.50 1724.00 76.00 862.00 38.00
> 8.70 2.70 11.57 4.84 100.20
> sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
> 0.00 0.00 0.00 0.00 0.00
>
> avg-cpu: %user %nice %system %iowait %steal %idle
> 0.25 0.50 49.75 49.50 0.00 0.00
>
> Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s
> avgrq-sz avgqu-sz await svctm %util
> sda 12.44 3.48 181.59 5.47 1552.24 79.60 776.12 39.80
> 8.72 2.30 13.87 5.33 99.70
> sdb 0.00 1.49 0.00 4.48 0.00 51.74 0.00 25.87
> 11.56 0.01 1.33 1.33 0.60
>
> avg-cpu: %user %nice %system %iowait %steal %idle
> 0.50 0.75 49.63 49.13 0.00 0.00
>
> Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s
> avgrq-sz avgqu-sz await svctm %util
> sda 5.00 0.00 188.50 0.00 1548.00 0.00 774.00 0.00
> 8.21 2.14 11.45 5.32 100.20
> sdb 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
> 0.00 0.00 0.00 0.00 0.00
>
>
>
> Отсюда вопрос, что нужно VBox от винта, вообще как посмотреть, какой
> процесс открыл какие файлы (вообще все его открытые дескрипторы), чтобы эти
> файлы перенести на sdb.
>
>
> 2008/8/27 Vladimir Rusinov <vladimir at greenmice.info>
>
> > 2008/8/26 Alexander Dolgarev <a.dolgarev at gmail.com>
> >
> >> Есть вопрос по производительности.
> >> Стоял nginx-0.7.6, который проксировал запросы на бэкенды, находящиеся
> >> на других серверах (скорость между ними не очень), производительность
> >> устраивала. Потребовалось запустить на сервере прогу под винду, была
> >> поставлена виртуальная машина VirtualBox от Sun, на ней эта прога,
> >> которая лазит по интернет через маскарадинг (NAT) на этом хосте.
> >> Производительность сервера nginx резко упала, при этом памяти
> >> достаточно, процессор используется на полную всего один из двух, канал
> >> тоже свободен, замеряли скорость - почти не упала. Вопрос в том, где
> >> узкое место? Отключаем виртуальную машину - все опять в порядке. Чего не
> >> хватает nginx?
> >>
> >>
> >>
> >> Может проблема в интенсивном использвании жесткого диска, хотя такого не
> >> замечено (какие подскажите средства диагностики, какой процесс сколько
> >> совершает операций I/O),
> >
> > Возможно.
> > Если у вас linux, попробуйте iostat (находится в пакадже sysstat в
> > RedHat, в других - не уверен).
> >
> > Попробуйте увеличить размер буферов, чтобы nginx диск не дергал.
> >
> > --
> > Vladimir Rusinov
> > http://greenmice.info/
--
С уважением,
Вячеслав Кузнецов
ООО "АВТО.РУ"
тел. 8(499)730-8-730 (доб. 112)
More information about the nginx-ru
mailing list