练习 28:性能:获取性能情况,uptimefreetop

    这个练习很简单。首先,我们需要什么样的性能数据?

    • CPU 使用情况:
      • 它的负载如何?
      • 哪些进程正在使用它?
    • 内存使用情况:
      • 使用了多少内存?
      • 多少内存是空闲的?
      • 多少内存用于缓存?
      • 哪些进程消耗了它?
    • 磁盘使用情况:
      • 执行多少输入/输出操作?
      • 由哪个进程?
    • 网络使用情况:
      • 传输了多少数据?
      • 由哪个进程?
    • 进程情况:
      • 有多少进程?
      • 他们在做什么 工作,还是等待什么?
      • 如果在等待什么,它是什么呢?CPU,磁盘,网络?
    • uptime - 系统运行了多长时间。
    • free - 显示系统中可用和使用的内存量。
    • vmstat - 进程,内存,分页,块 IO,陷阱,磁盘和 cpu 活动的信息。
    • top - 实时显示 Linux 任务。

    我们来看看这个程序及其输出。

    uptime的输出:

    字段和描述:

    free的输出:

    1. user1@vm1:~$ free -mt
    2. # (1) (2) (3) (4) (5) (6)
    3. total used free shared buffers cached
    4. Mem: 496 267 229 0 27 196
    5. # (7) (8)
    6. -/+ buffers/cache: 43 453
    7. # 9
    8. Swap: 461 0 461
    9. # 10
    10. Total: 958 267 691

    vmstat输出:

    字段和描述:

    top的输出:

    1. # (1) (2) (3) (4)
    2. top - 03:22:44 up 4 days, 22:54, 1 user, load average: 0.00, 0.00, 0.00
    3. # (5) (6) (7) (8) (9)
    4. Tasks: 63 total, 1 running, 62 sleeping, 0 stopped, 0 zombie
    5. # (10) (11) (12) (13) (14) (15) (16) (17)
    6. Cpu(s): 0.0%us, 1.1%sy, 0.0%ni, 98.9%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
    7. # (18) (19) (20) (21)
    8. Mem: 508820k total, 273792k used, 235028k free, 27844k buffers
    9. # (22) (23) (24) (25)
    10. Swap: 473080k total, 0k used, 473080k free, 201252k cached
    11. #(26) (27) (28)(29) (30) (31) (32,33) (34)(35) (36) (37)
    12. PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
    13. 1 root 20 0 8356 804 676 S 0.0 0.2 0:05.99 init
    14. 2 root 20 0 0 0 0 S 0.0 0.0 0:00.00 kthreadd
    15. 3 root RT 0 0 0 0 S 0.0 0.0 0:00.00 migration/0
    16. 5 root RT 0 0 0 0 S 0.0 0.0 0:00.00 watchdog/0
    17. 6 root 20 0 0 0 0 S 0.0 0.0 0:03.25 events/0
    18. 7 root 20 0 0 0 0 S 0.0 0.0 0:00.00 cpuset
    19. <...>

    字段和输出:

    现在,你将学习如何使用系统性能工具。

    1. user1@vm1:~$ uptime
    2. 05:36:45 up 6 days, 1:08, 1 user, load average: 0.00, 0.00, 0.00
    3. user1@vm1:~$ free
    4. total used free shared buffers cached
    5. Mem: 508820 239992 268828 0 820 213720
    6. -/+ buffers/cache: 25452 483368
    7. Swap: 473080 0 473080
    8. user1@vm1:~$ vmstat
    9. procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu----
    10. r b swpd free buff cache si so bi bo in cs us sy id wa
    11. 0 0 0 268828 820 213720 0 0 21 10 14 11 0 0 100 0
    12. user1@vm1:~$ ( sleep 5 && dd if=/dev/urandom of=/dev/null bs=1M count=30 && sleep 5 && killall vmstat )& vmstat 1
    13. [1] 6078
    14. procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu----
    15. r b swpd free buff cache si so bi bo in cs us sy id wa
    16. 1 1 0 268556 828 213736 0 0 21 10 14 11 0 0 100 0
    17. 0 0 0 268556 828 213772 0 0 16 0 19 10 0 0 100 0
    18. 0 0 0 268556 828 213772 0 0 0 0 13 8 0 0 100 0
    19. 0 0 0 268556 828 213772 0 0 0 0 15 11 0 0 100 0
    20. 0 0 0 268556 828 213772 0 0 0 0 14 10 0 0 100 0
    21. 0 0 0 268556 828 213772 0 0 0 0 18 13 0 0 100 0
    22. 1 0 0 267316 836 213844 0 0 74 0 267 26 0 99 1 0
    23. 1 0 0 267316 836 213844 0 0 0 0 303 7 0 100 0 0
    24. 1 0 0 267316 836 213844 0 0 0 0 271 11 0 100 0 0
    25. 1 0 0 267316 836 213844 0 0 0 0 257 12 0 100 0 0
    26. 30+0 records in
    27. 30+0 records out
    28. 31457280 bytes (31 MB) copied, 4.95038 s, 6.4 MB/s
    29. 0 0 0 267928 860 213860 0 0 27 0 265 29 1 97 2 0
    30. 0 0 0 267936 860 213848 0 0 0 0 15 9 0 0 100 0
    31. 0 0 0 267936 860 213848 0 0 0 0 14 7 0 0 100 0
    32. 0 0 0 267936 860 213848 0 0 0 0 14 7 0 0 100 0
    33. 0 0 0 267936 860 213848 0 0 0 0 13 11 0 0 100 0
    34. Terminated
    35. user1@vm1:~$ uptime
    36. 05:22:15 up 6 days, 54 min, 1 user, load average: 0.07, 0.02, 0.00
    37. [1]+ Done ( sleep 5 && dd if=/dev/urandom of=/dev/null bs=1M count=30 && sleep 5 && killall vmstat )
    38. user1@vm1:~$ uptime
    39. 05:22:22 up 6 days, 54 min, 1 user, load average: 0.06, 0.02, 0.00
    40. user1@vm1:~$ ( sleep 5 && dd if=/dev/zero of=test.img bs=32 count=$((32*1024*200)) && sleep 5 && killall vmstat )& vmstat -nd 1 | egrep -v 'loop|sr0'
    41. [1] 6086
    42. disk- ------------reads------------ ------------writes----------- -----IO------
    43. total merged sectors ms total merged sectors ms cur sec
    44. sda 146985 2230744 21821320 105848 32190 1343154 10927338 1330144 0 105
    45. sda 146995 2230744 21821648 105848 32190 1343154 10927338 1330144 0 105
    46. sda 146995 2230744 21821648 105848 32190 1343154 10927338 1330144 0 105
    47. sda 146995 2230744 21821648 105848 32190 1343154 10927338 1330144 0 105
    48. sda 146995 2230744 21821648 105848 32190 1343154 10927338 1330144 0 105
    49. sda 146999 2230744 21821680 105856 32190 1343154 10927338 1330144 0 105
    50. sda 146999 2230744 21821680 105856 32190 1343154 10927338 1330144 0 105
    51. sda 147000 2230744 21821688 105856 32208 1344160 10935530 1330288 0 105
    52. sda 147000 2230744 21821688 105856 32274 1349214 10976490 1330748 0 105
    53. sda 147000 2230744 21821688 105856 32325 1353259 11009258 1331236 0 105
    54. sda 147000 2230744 21821688 105856 32450 1364657 11101442 1337176 0 105
    55. sda 147000 2230744 21821688 105856 32450 1364657 11101442 1337176 0 105
    56. sda 147001 2230744 21821696 105856 32471 1366301 11114762 1337348 0 105
    57. sda 147001 2230744 21821696 105856 32525 1370529 11149018 1337732 0 105
    58. sda 147001 2230744 21821696 105856 32573 1374577 11181786 1338064 0 105
    59. sda 147001 2230744 21821696 105856 32698 1386562 11278666 1346244 0 105
    60. 6553600+0 records in
    61. 6553600+0 records out
    62. 209715200 bytes (210 MB) copied, 11.7088 s, 17.9 MB/s
    63. sda 147001 2230744 21821696 105856 32698 1386562 11278666 1346244 0 105
    64. sda 147001 2230744 21821696 105856 32698 1386562 11278666 1346244 0 105
    65. sda 147001 2230744 21821696 105856 32698 1386562 11278666 1346244 0 105
    66. sda 147001 2230744 21821696 105856 32698 1386562 11278666 1346244 0 105
    67. sda 147001 2230744 21821696 105856 32762 1393910 11337962 1349192 0 105
    68. user1@vm1:~$ echo 3 | sudo tee /proc/sys/vm/drop_caches
    69. 3
    70. [1]+ Done ( sleep 5 && dd if=/dev/zero of=test.img bs=32 count=$((32*1024*200)) && sleep 5 && killall vmstat )
    71. user1@vm1:~$ free -mt ; find / >/dev/null 2>&1 ; free -mt
    72. total used free shared buffers cached
    73. Mem: 496 30 466 0 0 5
    74. -/+ buffers/cache: 24 472
    75. Swap: 461 0 461
    76. Total: 958 30 928
    77. total used free shared buffers cached
    78. Mem: 496 64 432 0 22 6
    79. -/+ buffers/cache: 35 461
    80. Swap: 461 0 461
    81. Total: 958 64 894
    82. user1@vm1:~$ echo 3 | sudo tee /proc/sys/vm/drop_caches
    83. 3
    84. user1@vm1:~$ cat test.img /dev/null ; free -mt
    85. total used free shared buffers cached
    86. Mem: 496 230 265 0 0 205
    87. -/+ buffers/cache: 24 471
    88. Swap: 461 0 461
    89. Total: 958 230 727
    90. user1@vm1:~$
    1. 打印当前的正常运行时间。
    2. 打印出可用内存信息。
    3. 这个很有趣,最好认为是一种实验。首先,我们在后台启动( sleep 5 && dd if=/dev/urandom of=/dev/null bs=1M count=30 && sleep 5 && killall vmstat )&,之后我们 以连续模式启动vmstat,所以它将打印出其信息直到中断。我们可以看到,在这个命令启动 5 秒钟后,CPU 负载显着增加了一段时间,然后减少,另外 5 秒钟后vmstat被杀死。
    4. 打印当前的正常运行时间。注意负载平均值的变化。
    5. 这是另一个实验,几乎和以前一样,但这次用磁盘写入。
    6. 删除所有缓存和缓冲区。
    7. 另一个实验。我们想看看读取系统中的所有文件和目录名称,会如何影响内存中的文件系统缓存,并且我们可以看到它被缓存在缓冲区中,这是有理论根据的。
    8. 再次删除所有缓存和缓冲区。
    9. 这次我们想看看,文件读取如何影响内存中的文件系统缓存。我们可以看到读取的文件被缓存在缓存部分,来增加后续访问的时间。
    • 为什么在我们的第一个实验中,不是user,而是system CPU 使用率上升到 100?
    • 启动top,并按下h。现在尝试按照 CPU,内存和 PID 对其输出进行排序。