每天一個 Linux 命令:iostat 命令

Linux 系統中的 iostat 是 I/O statistics(輸入 / 輸出統計)的縮寫,iostat 工具將對系統的磁盤操作活動進行監視。

它的特點是彙報磁盤活動統計情況,同時也會彙報出 CPU 使用情況。同 vmstat 一樣,iostat 也有一個弱點,就是它不能對某個進程進行深入分析,僅對系統的整體情況進行分析。

iostat 屬於 sysstat 軟件包。可以用 yum install sysstat 直接安裝。

1.命令格式:

iostat[參數][時間][次數]

2.命令功能:

通過 iostat 方便查看 CPU、網卡、tty 設備、磁盤、CD-ROM 等等設備的活動情況,負載信息。

3.命令參數

-C 顯示 CPU 使用情況

-d 顯示磁盤使用情況

-k 以 KB 爲單位顯示

-m 以 M 爲單位顯示

-N 顯示磁盤陣列 (LVM) 信息

-n 顯示 NFS 使用情況

-p[磁盤] 顯示磁盤和分區的情況

-t 顯示終端和 CPU 的信息

-x 顯示詳細信息

-V 顯示版本信息

4.使用實例:

實例 1:顯示所有設備負載情況

命令:

iostat

輸出:

[root@CT1186 ~]# iostat
Linux 2.6.18-128.el5 (CT1186)  2012 年 12 月 28 日

avg-cpu: %user  %nice %system %iowait %steal  %idle
      8.30  0.02  5.07  0.17  0.00  86.44

Device:      tps  Blk_read/s  Blk_wrtn/s  Blk_read  Blk_wrtn
sda       22.73    43.70    487.42 674035705 7517941952
sda1       0.00     0.00     0.00    2658    536
sda2       0.11     3.74     3.51  57721595  54202216
sda3       0.98     0.61    17.51  9454172 270023368
sda4       0.00     0.00     0.00     6     0
sda5       6.95     0.12    108.73  1924834 1677123536
sda6       2.20     0.18    31.22  2837260 481488056
sda7       12.48    39.04    326.45 602094508 5035104240

說明:

cpu 屬性值說明:

%user:CPU 處在用戶模式下的時間百分比。

%nice:CPU 處在帶 NICE 值的用戶模式下的時間百分比。

%system:CPU 處在系統模式下的時間百分比。

%iowait:CPU 等待輸入輸出完成時間的百分比。

%steal:管理程序維護另一個虛擬處理器時,虛擬 CPU 的無意識等待時間百分比。

%idle:CPU 空閒時間百分比。

備註:如果 %iowait 的值過高,表示硬盤存在 I/O 瓶頸,%idle 值高,表示 CPU 較空閒,如果 %idle 值高但系統響應慢時,有可能是 CPU 等待分配內存,此時應加大內存容量。%idle 值如果持續低於 10,那麼系統的 CPU 處理能力相對較低,表明系統中最需要解決的資源是 CPU。

disk 屬性值說明:

rrqm/s: 每秒進行 merge 的讀操作數目。即 rmerge/s

wrqm/s: 每秒進行 merge 的寫操作數目。即 wmerge/s

r/s: 每秒完成的讀 I/O 設備次數。即 rio/s

w/s: 每秒完成的寫 I/O 設備次數。即 wio/s

rsec/s: 每秒讀扇區數。即 rsect/s

wsec/s: 每秒寫扇區數。即 wsect/s

rkB/s: 每秒讀 K 字節數。是 rsect/s 的一半,因爲每扇區大小爲 512 字節。

wkB/s: 每秒寫 K 字節數。是 wsect/s 的一半。

avgrq-sz: 平均每次設備 I/O 操作的數據大小 (扇區)。

avgqu-sz: 平均 I/O 隊列長度。

await: 平均每次設備 I/O 操作的等待時間 (毫秒)。

svctm: 平均每次設備 I/O 操作的服務時間 (毫秒)。

%util: 一秒中有百分之多少的時間用於 I/O 操作,即被 io 消耗的 cpu 百分比

備註:如果 %util 接近 100%,說明產生的 I/O 請求太多,I/O 系統已經滿負荷,該磁盤可能存在瓶頸。如果 svctm 比較接近 await,說明 I/O 幾乎沒有等待時間;如果 await 遠大於 svctm,說明 I/O 隊列太長,io 響應太慢,則需要進行必要優化。如果 avgqu-sz 比較大,也表示有當量 io 在等待。

實例 2:定時顯示所有信息

命令:

iostat 2 3

輸出:

[root@CT1186 ~]# iostat 2 3
Linux 2.6.18-128.el5 (CT1186)  2012 年 12 月 28 日

avg-cpu: %user  %nice %system %iowait %steal  %idle
      8.30  0.02  5.07  0.17  0.00  86.44

Device:      tps  Blk_read/s  Blk_wrtn/s  Blk_read  Blk_wrtn
sda       22.73    43.70    487.42 674035705 7517947296
sda1       0.00     0.00     0.00    2658    536
sda2       0.11     3.74     3.51  57721595  54202216
sda3       0.98     0.61    17.51  9454172 270023608
sda4       0.00     0.00     0.00     6     0
sda5       6.95     0.12    108.73  1924834 1677125640
sda6       2.20     0.18    31.22  2837260 481488152
sda7       12.48    39.04    326.44 602094508 5035107144

avg-cpu: %user  %nice %system %iowait %steal  %idle
      8.88  0.00  7.94  0.19  0.00  83.00

Device:      tps  Blk_read/s  Blk_wrtn/s  Blk_read  Blk_wrtn
sda        6.00     0.00    124.00     0    248
sda1       0.00     0.00     0.00     0     0
sda2       0.00     0.00     0.00     0     0
sda3       0.00     0.00     0.00     0     0
sda4       0.00     0.00     0.00     0     0
sda5       0.00     0.00     0.00     0     0
sda6       0.00     0.00     0.00     0     0
sda7       6.00     0.00    124.00     0    248

avg-cpu: %user  %nice %system %iowait %steal  %idle
      9.12  0.00  7.81  0.00  0.00  83.07

Device:      tps  Blk_read/s  Blk_wrtn/s  Blk_read  Blk_wrtn
sda        4.00     0.00    84.00     0    168
sda1       0.00     0.00     0.00     0     0
sda2       0.00     0.00     0.00     0     0
sda3       0.00     0.00     0.00     0     0
sda4       0.00     0.00     0.00     0     0
sda5       0.00     0.00     0.00     0     0
sda6       4.00     0.00    84.00     0    168
sda7       0.00     0.00     0.00     0     0

說明:

每隔 2 秒刷新顯示,且顯示 3 次

實例 3:顯示指定磁盤信息

命令:

iostat -d sda1

輸出:

[root@CT1186 ~]# iostat -d sda1
Linux 2.6.18-128.el5 (CT1186)  2012 年 12 月 28 日

Device:      tps  Blk_read/s  Blk_wrtn/s  Blk_read  Blk_wrtn
sda1       0.00     0.00     0.00    2658    536

說明:

實例 4:顯示 tty 和 Cpu 信息

命令:

iostat -t

輸出:

[root@CT1186 ~]# iostat -t
Linux 2.6.18-128.el5 (CT1186)  2012 年 12 月 28 日

Time: 14 時 58 分 35 秒
avg-cpu: %user  %nice %system %iowait %steal  %idle
      8.30  0.02  5.07  0.17  0.00  86.44

Device:      tps  Blk_read/s  Blk_wrtn/s  Blk_read  Blk_wrtn
sda       22.73    43.70    487.41 674035705 7517957864
sda1       0.00     0.00     0.00    2658    536
sda2       0.11     3.74     3.51  57721595  54202216
sda3       0.98     0.61    17.51  9454172 270024344
sda4       0.00     0.00     0.00     6     0
sda5       6.95     0.12    108.73  1924834 1677128808
sda6       2.20     0.18    31.22  2837260 481488712
sda7       12.48    39.04    326.44 602094508 5035113248

說明:

實例 5:以 M 爲單位顯示所有信息

命令:

iostat -m

輸出:

[root@CT1186 ~]# iostat -m
Linux 2.6.18-128.el5 (CT1186)  2012 年 12 月 28 日

avg-cpu: %user  %nice %system %iowait %steal  %idle
      8.30  0.02  5.07  0.17  0.00  86.44

Device:      tps  MB_read/s  MB_wrtn/s  MB_read  MB_wrtn
sda       22.72     0.02     0.24   329119  3670881
sda1       0.00     0.00     0.00     1     0
sda2       0.11     0.00     0.00   28184   26465
sda3       0.98     0.00     0.01    4616   131848
sda4       0.00     0.00     0.00     0     0
sda5       6.95     0.00     0.05    939   818911
sda6       2.20     0.00     0.02    1385   235102
sda7       12.48     0.02     0.16   293991  2458553

說明:

實例 6:查看 TPS 和吞吐量信息

命令:

iostat -d -k 1 1

輸出:

[root@CT1186 ~]# iostat -d -k 1 1
Linux 2.6.18-128.el5 (CT1186)  2012 年 12 月 28 日

Device:      tps  kB_read/s  kB_wrtn/s  kB_read  kB_wrtn
sda       22.72    21.85    243.71 337017916 3758984340
sda1       0.00     0.00     0.00    1329    268
sda2       0.11     1.87     1.76  28860797  27101108
sda3       0.98     0.31     8.75  4727086 135012508
sda4       0.00     0.00     0.00     3     0
sda5       6.95     0.06    54.37   962481 838566148
sda6       2.20     0.09    15.61  1418630 240744712
sda7       12.48    19.52    163.22 301047254 2517559596

說明:

tps:該設備每秒的傳輸次數(Indicate the number of transfers per second that were issued to the device.)。“一次傳輸”意思是 “一次 I/O 請求”。多個邏輯請求可能會被合併爲“一次 I/O 請求”。“一次傳輸” 請求的大小是未知的。

kB_read/s:每秒從設備(drive expressed)讀取的數據量;

kB_wrtn/s:每秒向設備(drive expressed)寫入的數據量;

kB_read:讀取的總數據量;kB_wrtn:寫入的總數量數據量;

這些單位都爲 Kilobytes。

上面的例子中,我們可以看到磁盤 sda 以及它的各個分區的統計數據,當時統計的磁盤總 TPS 是 22.73,下面是各個分區的 TPS。(因爲是瞬間值,所以總 TPS 並不嚴格等於各個分區 TPS 的總和)

實例 7:查看設備使用率(%util)、響應時間(await)

命令:

iostat -d -x -k 1 1

輸出:

[root@CT1186 ~]# iostat -d -x -k 1 1
Linux 2.6.18-128.el5 (CT1186)  2012 年 12 月 28 日

Device:     rrqm/s  wrqm/s  r/s  w/s  rkB/s  wkB/s avgrq-sz avgqu-sz  await svctm %util
sda        0.44  38.59 0.40 22.32  21.85  243.71  23.37   0.04  1.78  4.20  9.54
sda1       0.00   0.00 0.00 0.00   0.00   0.00  18.90   0.00  8.26  6.46  0.00
sda2       0.36   0.43 0.11 0.01   1.87   1.76  63.57   0.01  63.75  1.94  0.02
sda3       0.00   1.24 0.04 0.95   0.31   8.75  18.42   0.04  39.77  8.73  0.86
sda4       0.00   0.00 0.00 0.00   0.00   0.00   2.00   0.00  19.67 19.67  0.00
sda5       0.00   6.65 0.00 6.94   0.06  54.37  15.67   0.26  36.81  4.48  3.11
sda6       0.00   1.71 0.01 2.19   0.09  15.61  14.29   0.03  12.40  5.84  1.28
sda7       0.08  28.56 0.25 12.24  19.52  163.22  29.28   0.27  21.46  5.00  6.25

說明:

rrqm/s:每秒進行 merge 的讀操作數目。即 delta(rmerge)/s

wrqm/s:每秒進行 merge 的寫操作數目。即 delta(wmerge)/s

r/s:每秒完成的讀 I/O 設備次數。即 delta(rio)/s

w/s:每秒完成的寫 I/O 設備次數。即 delta(wio)/s

rsec/s:每秒讀扇區數。即 delta(rsect)/s

wsec/s:每秒寫扇區數。即 delta(wsect)/s

rkB/s:每秒讀 K 字節數。是 rsect/s 的一半,因爲每扇區大小爲 512 字節。(需要計算)

wkB/s:每秒寫 K 字節數。是 wsect/s 的一半。(需要計算)

avgrq-sz:平均每次設備 I/O 操作的數據大小 (扇區).delta(rsect+wsect)/delta(rio+wio)

avgqu-sz:平均 I/O 隊列長度。即 delta(aveq)/s/1000 (因爲 aveq 的單位爲毫秒).

await:平均每次設備 I/O 操作的等待時間 (毫秒). 即 delta(ruse+wuse)/delta(rio+wio)

svctm:平均每次設備 I/O 操作的服務時間 (毫秒). 即 delta(use)/delta(rio+wio)

%util:一秒中有百分之多少的時間用於 I/O 操作,或者說一秒中有多少時間 I/O 隊列是非空的,即 delta(use)/s/1000 (因爲 use 的單位爲毫秒)

如果 %util 接近 100%,說明產生的 I/O 請求太多,I/O 系統已經滿負荷,該磁盤可能存在瓶頸。

idle 小於 70% IO 壓力就較大了,一般讀取速度有較多的 wait。

同時可以結合 vmstat 查看查看 b 參數(等待資源的進程數)和 wa 參數 (IO 等待所佔用的 CPU 時間的百分比,高過 30% 時 IO 壓力高)。

另外 await 的參數也要多和 svctm 來參考。差的過高就一定有 IO 的問題。

avgqu-sz 也是個做 IO 調優時需要注意的地方,這個就是直接每次操作的數據的大小,如果次數多,但數據拿的小的話,其實 IO 也會很小。如果數據拿的大,才 IO 的數據會高。也可以通過 avgqu-sz × (r/s or w/s) = rsec/s or wsec/s。也就是講,讀定速度是這個來決定的。

svctm 一般要小於 await (因爲同時等待的請求的等待時間被重複計算了),svctm 的大小一般和磁盤性能有關,CPU / 內存的負荷也會對其有影響,請求過多也會間接導致 svctm 的增加。await 的大小一般取決於服務時間 (svctm) 以及 I/O 隊列的長度和 I/O 請求的發出模式。如果 svctm 比較接近 await,說明 I/O 幾乎沒有等待時間;如果 await 遠大於 svctm,說明 I/O 隊列太長,應用得到的響應時間變慢,如果響應時間超過了用戶可以容許的範圍,這時可以考慮更換更快的磁盤,調整內核 elevator 算法,優化應用,或者升級 CPU。

隊列長度 (avgqu-sz) 也可作爲衡量系統 I/O 負荷的指標,但由於 avgqu-sz 是按照單位時間的平均值,所以不能反映瞬間的 I/O 洪水。

形象的比喻

實例 8:查看 cpu 狀態

命令:

 iostat -c 1 3

輸出:

[root@CT1186 ~]# iostat -c 1 3
Linux 2.6.18-128.el5 (CT1186)  2012 年 12 月 28 日

avg-cpu: %user  %nice %system %iowait %steal  %idle
      8.30  0.02  5.07  0.17  0.00  86.44

avg-cpu: %user  %nice %system %iowait %steal  %idle
      8.64  0.00  5.38  0.00  0.00  85.98

avg-cpu: %user  %nice %system %iowait %steal  %idle
      7.62  0.00  5.12  0.50  0.00  86.75

說明:

轉自:www.cnblogs.com/peida/archive/2012/12/28/2837345.html

****推薦關注「算法愛好者」,修煉編程內功

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/YQlQ3x1KOLLFc7NegWKlIw