在运维的坑里摸爬滚打好几年了,我还记得我刚开始的时候,我只会使用一些简单的命令,写脚本的时候,也是要多简单有多简单,所以有时候写出来的脚本又长又臭。

185837d08ddd503976.jpg

像一些高级点的命令,比如说 Xargs 命令、管道命令、自动应答命令等,如果当初我要是知道,那我也可能写出简洁高效的脚本。

不管出于任何原因,我都想对一些 Linux 使用的高级命令进行用法说明,利人利己,以后不记得的话,我也可以回头翻来看看。

一、实用的 xargs 命令

在平时的使用中,我认为 xargs 这个命令还是较为重要和方便的。我们可以通过使用这个命令,将命令输出的结果作为参数传递给另一个命令。

比如说我们想找出某个路径下以 .conf 结尾的文件,并将这些文件进行分类,那么普通的做法就是先将以 .conf 结尾的文件先找出来,然后输出到一个文件中,接着 cat 这个文件,并使用 file 文件分类命令去对输出的文件进行分类。

这个普通的方法还的确是略显麻烦,那么这个时候 xargs 命令就派上用场了。

例1:找出 / 目录下以 .conf 结尾的文件,并进行文件分类

命令:

find / -name *.conf -type f -print | xargs file

输出结果如下所示:

/usr/local/etc/goaccess.conf:                                                      ASCII text
/usr/local/pureftpd/etc/pure-ftpd.conf:                                            ASCII text
/usr/local/oldphp20170804001929/etc/pear.conf:                                     ASCII text, with very long lines
/usr/local/oldphp20170804001929/etc/php-fpm.conf:                                  ASCII text
/usr/local/mysql2mariadb20180305144410/bin/mysqlaccess.conf:                       ASCII text
/usr/local/cloudmonitor/wrapper/conf/wrapper.conf:                                 C source, ASCII text, with CRLF line terminators
/usr/local/cloudmonitor/wrapper/conf/demoapp.conf:                                 C source, ASCII text, with CRLF line terminators
/usr/local/share/gems/gems/redis-3.0.7/test/test.conf:                             ASCII text
/usr/local/share/gems/gems/rack-1.6.4/test/cgi/lighttpd.conf:                      ASCII text
/usr/local/share/gems/gems/ffi-1.9.18/lib/ffi/platform/i386-cygwin/types.conf:     ASCII text
/usr/local/share/gems/gems/ffi-1.9.18/lib/ffi/platform/sparc-solaris/types.conf:   ASCII text
/usr/local/share/gems/gems/ffi-1.9.18/lib/ffi/platform/x86_64-solaris/types.conf:  ASCII text
/usr/local/share/gems/gems/ffi-1.9.18/lib/ffi/platform/aarch64-linux/types.conf:   ASCII text
/usr/local/share/gems/gems/ffi-1.9.18/lib/ffi/platform/x86_64-cygwin/types.conf:   ASCII text

xargs 后面不仅仅可以加文件分类的命令,你还可以加其他的很多命令,比如说实在一点的tar命令,你可以使用find命令配合tar命令,将指定路径的特殊文件使用find命令找出来,然后配合tar命令将找出的文件直接打包,命令如下:

find / -name *.conf -type f -print | xargs tar cjf test.tar.gz

二、命令或脚本后台运行

有时候我们进行一些操作的时候,不希望我们的操作在终端会话断了之后就跟着断了,特别是一些数据库导入导出操作,如果涉及到大数据量的操作,我们不可能保证我们的网络在我们的操作期间不出问题,所以后台运行脚本或者命令对我们来说是一大保障。

比如说我们想把数据库的导出操作后台运行,并且将命令的操作输出记录到文件,那么我们可以这么做:

nohup mysqldump -uroot -pxxxxx —all-databases > ./alldatabases.sql &(xxxxx是密码)

当然如果你不想密码明文,你还可以这么做:

nohup mysqldump -uroot -pxxxxx —all-databases > ./alldatabases.sql (后面不加&符号)

执行了上述命令后,会提示叫你输入密码,输入密码后,该命令还在前台运行,但是我们的目的是后天运行该命令,这个时候你可以按下Ctrl+Z,然后在输入bg就可以达到第一个命令的效果,让该命令后台运行,同时也可以让密码隐蔽输入。

命令后台执行的结果会在命令执行的当前目录下留下一个nohup.out文件,查看这个文件就知道命令有没有执行报错等信息。

三、找出当前系统内存使用量较高的进程

在很多运维的时候,我们发现内存耗用较为严重,那么怎么样才能找出内存消耗的进程排序呢?

命令:

ps -aux | sort -rnk 4 | head -20

www      19649  0.2  6.3 524896 64308 ?        S    07:39   0:55 php-fpm: pool www
www      19643  0.2  6.2 523280 63040 ?        S    07:39   0:54 php-fpm: pool www
www      19658  0.2  6.1 525364 62364 ?        S    07:39   0:52 php-fpm: pool www
www      19667  0.2  6.0 524444 61128 ?        S    07:39   0:51 php-fpm: pool www

输出的第4列就是内存的耗用百分比。最后一列就是相对应的进程。

四、找出当前系统CPU使用量较高的进程

在很多运维的时候,我们发现CPU耗用较为严重,那么怎么样才能找出CPU消耗的进程排序呢?

命令:

ps -aux | sort -rnk 3 | head -20

输出的第3列为CPU的耗用百分比,最后一列就是对应的进程。

我想大家应该也发现了,sort 命令后的3、4其实就是代表着第3列进行排序、第4列进行排序。

五、同时查看多个日志或数据文件

在日常工作中,我们查看日志文件的方式可能是使用tail命令在一个个的终端查看日志文件,一个终端就看一个日志文件。包括我在内也是,但是有时候也会觉得这种方式略显麻烦,其实有个工具叫做multitail可以在同一个终端同时查看多个日志文件。

首先安装multitail:

wget ftp://ftp.is.co.za/mirror/ftp.rpmforge.net/redhat/el6/en/x86_64/dag/RPMS/multitail-5.2.9-1.el6.rf.x86_64.rpm

yum -y localinstall multitail-5.2.9-1.el6.rf.x86_64.rpm

multitail工具支持文本的高亮显示,内容过滤以及更多你可能需要的功能。

如下就来一个有用的例子:

此时我们既想查看secure的日志指定过滤关键字输出,又想查看实时的网络ping情况:

命令如下:

multitail -e "Accepted" /var/log/secure -l "ping baidu.com"

是不是很方便?如果平时我们想查看两个日志之间的关联性,可以观察日志输出是否有触发等。如果分开两个终端可能来回进行切换有点浪费时间,这个multitail工具查看未尝不是一个好方法。

六、持续ping并将结果记录到日志

很多时候,运维总会听到一个声音,是不是网络出什么问题了啊,导致业务出现怪异的症状,肯定是服务器网络出问题了。这个就是俗称的背锅,业务出了问题,第一时间相关人员找不到原因很多情况下就会把问题归结于服务器网络有问题。

这个时候你去ping几个包把结果丢出来,人家会反驳你,刚刚那段时间有问题而已,现在业务都恢复正常了,网络肯定正常啊,这个时候估计你要气死。

你要是再拿出zabbix等网络监控的数据,这个时候就不太妥当了,zabbix的采集数据间隔你不可能设置成1秒钟1次吧?小编就遇到过这样的问题,结果我通过以下的命令进行了ping监控采集。

然后再有人让我背锅的时候,我把出问题时间段的ping数据库截取出来,大家公开谈,结果那次被我叼杠回去了,以后他们都不敢轻易甩锅了,这个感觉好啊。

命令:
ping www.imydl.tech | awk '{ print $0" " strftime("%Y-%m-%d %H:%M:%S",systime()) } ' >> /tmp/jiguang.log &

输出的结果会记录到/tmp/jiguang.log 中,每秒钟新增一条ping记录,如下:

PING api.jpush.cn (113.31.136.60) 56(84) bytes of data.    2018-05-22 13:11:17
64 bytes from 113.31.136.60 (113.31.136.60): icmp_seq=1 ttl=53 time=3.31 ms    2018-05-22 13:11:17
64 bytes from 113.31.136.60 (113.31.136.60): icmp_seq=2 ttl=53 time=3.39 ms    2018-05-22 13:11:18
64 bytes from 113.31.136.60 (113.31.136.60): icmp_seq=3 ttl=53 time=3.34 ms    2018-05-22 13:11:19
64 bytes from 113.31.136.60 (113.31.136.60): icmp_seq=4 ttl=53 time=3.37 ms    2018-05-22 13:11:20
64 bytes from 113.31.136.60 (113.31.136.60): icmp_seq=5 ttl=53 time=3.28 ms    2018-05-22 13:11:21
    2018-05-22 13:11:21
--- api.jpush.cn ping statistics ---    2018-05-22 13:11:21
5 packets transmitted, 5 received, 0% packet loss, time 4005ms    2018-05-22 13:11:21
rtt min/avg/max/mdev = 3.288/3.344/3.397/0.053 ms    2018-05-22 13:11:21
PING 6ac092a1.imydl.tech.cname.yunduncdns.com (59.56.78.66) 56(84) bytes of data.    2018-05-22 13:13:30
64 bytes from 59.56.78.66 (59.56.78.66): icmp_seq=1 ttl=49 time=36.4 ms    2018-05-22 13:13:30
64 bytes from 59.56.78.66 (59.56.78.66): icmp_seq=2 ttl=49 time=36.7 ms    2018-05-22 13:13:31
64 bytes from 59.56.78.66 (59.56.78.66): icmp_seq=3 ttl=49 time=36.5 ms    2018-05-22 13:13:32
64 bytes from 59.56.78.66 (59.56.78.66): icmp_seq=4 ttl=49 time=36.7 ms    2018-05-22 13:13:33
64 bytes from 59.56.78.66 (59.56.78.66): icmp_seq=5 ttl=49 time=36.7 ms    2018-05-22 13:13:34
    2018-05-22 13:13:34
--- 6ac092a1.imydl.tech.cname.yunduncdns.com ping statistics ---    2018-05-22 13:13:34
5 packets transmitted, 5 received, 0% packet loss, time 4005ms    2018-05-22 13:13:34

七、查看tcp连接状态

指定查看80端口的tcp连接状态,有利于分析连接是否释放,或者攻击时进行状态分析。

命令: netstat -nat |awk '{print $6}'|sort|uniq -c|sort -rn

八、查找80端口请求数最高的前20个IP

有时候业务的请求量突然上去了,那么这个时候我们可以查看下请求来源IP情况,如果是集中在少数IP上的,那么可能是存在攻击行为,我们使用防火墙就可以进行封禁。命令如下:

netstat -anlp|grep 80|grep tcp|awk '{print $5}'|awk -F: '{print $1}'|sort|uniq -c|sort -nr|head -n20

九、ssh实现端口转发

可能很多的朋友都听说过ssh是linux下的远程登录安全协议,就是通俗的远程登录管理服务器。但是应该很少朋友会听说过ssh还可以做端口转发。其实ssh用来做端口转发的功能还是很强大的,下面就来做示范。

实例背景:我们公司是有堡垒机的,任何操作均需要在堡垒机上进行,有写开发人员需要访问ELasticSearch的head面板查看集群状态,但是我们并不想将ElasticSearch的9200端口映射出去,依然想通过堡垒机进行访问。所以才会将通往堡垒机(192.168.1.15)的请求转发到服务器ElasticSearch(192.168.1.19)的9200上。

例子:

将发往本机(192.168.1.15)的9200端口访问转发到192.168.1.19的9200端口

ssh -p 22 -C -f -N -g -L 9200:192.168.1.19:9200 [email protected]

记住:前提是先进行秘钥传输。

命令执行完后,访问192.168.1.15:9200端口则真实是访问192.168.1.19:9200端口。

终于校对完了,这种运维的技术文章真心好麻烦的,每个命令行都得实际的验证一下!特别是有正则表达式的地方几乎是错误百出,标点符号全角、半角,中英文混乱最明显了,累死了都!

最后修改:2018 年 05 月 22 日
如果觉得我的文章对你有用,请随意赞赏