1 Linux运维学习笔记 1.1 基本操作命令 |
1.1.1 权限管理 |
1.1.1.1 chmod |
1.1.1.2 chown |
1.1.1.3 setfacl |
1.1.1.4 chattr |
1.1.2 用户管理 |
1.1.2.1 useradd(添加用户) |
1.1.2.2 passwd(修改用户密码) |
1.1.2.3 userdel(删除用户角色) |
1.1.2.4 usermod(修改用户信息) |
1.1.2.5 groupadd(添加工作组) |
1.1.2.6 groupdel(删除工作组) |
1.1.3 文件管理 |
1.1.3.1 cat |
1.1.3.2 mv |
1.1.3.3 scp,rsync文件传输 |
1.1.3.3.1 scp |
1.1.3.4 rz |
1.1.3.5 awk |
1.1.3.5.1 案例 |
1.1.3.6 cp复制 |
1.1.3.7 more |
1.1.3.8 less |
1.1.3.9 mkdir |
1.1.3.10 diff |
1.1.3.11 head |
1.1.3.12 tail |
1.1.3.13 sed |
1.1.3.14 sort |
1.1.3.15 uniq (去重语句) |
1.1.3.16 grep |
1.1.3.16.1 grep(2) |
1.1.3.17 xargs |
1.1.3.18 tr |
1.1.3.19 cut |
1.1.3.20 od |
1.1.3.21 dos2unix |
1.1.3.22 cpio |
1.1.3.23 tee |
1.1.3.24 column |
1.1.3.25 swapon |
1.1.4 软件包管理 |
1.1.4.1 yarn |
1.1.4.2 zip |
1.1.5 备份策略 |
1.1.5.1 tar |
1.1.5.2 cp |
1.2 系统工作常用命令 |
1.2.1 ab(压力测试) |
1.2.1.1 ab常见问题 |
1.2.2 nohup |
1.2.2.1 bg fg |
1.2.3 crontab |
1.2.4 find |
1.2.4.1 find |
1.2.5 tcpdump |
1.2.6 ifconfig |
1.2.7 netstat(网络通信情况) |
1.2.8 ps (查看系统进程) |
1.2.9 top (系统运维状态) |
1.2.10 alias |
1.2.11 pidof |
1.2.12 kill与killall与pkill |
1.2.13 uptime(系统负载信息) |
1.2.14 free(系统内存情况) |
1.2.15 last(登陆日志) |
1.2.16 fdisk(磁盘分区) |
1.2.17 strace |
1.2.18 lsmod |
1.2.19 ssh |
1.2.19.1 sshpass |
1.2.20 ftp (sftp) |
1.2.21 du |
1.2.22 umask(文件权限) |
1.2.23 df (磁盘占用情况) |
1.2.24 curl |
1.2.25 date |
1.2.26 lsof |
1.2.27 chrony |
1.2.28 cpu运行状态 |
1.2.29 lshw |
1.2.30 vim |
1.2.31 lsb_release -a (系统版本信息) |
1.3 网络基础 |
1.3.1 ifconfig |
1.3.2 route |
1.3.3 nslookup |
1.3.4 ping网关 |
1.3.5 ISO/OSI七层模型 |
1.3.6 TCP/IP三次握手(四次挥手) |
1.3.6.1 三次握手 |
1.3.6.2 四次挥手 |
1.3.7 IP地址网段(可用IP地址)(广播地址) |
1.3.8 网络连接数 |
1.3.9 mtr |
1.3.10 ip |
1.4 系统管理类 |
1.4.1 进程与线程 |
1.4.1.1 pstree |
1.4.2 系统安全 |
1.4.2.1 记录一次远程挖矿病毒 |
1.4.2.2 漏洞修补 |
1.4.3 nfs远程挂载 |
1.4.3.1 nfs自动挂载 |
1.4.4 查询系统用户登录情况 |
1.4.5 权限优化 |
1.4.6 备份策略 |
1.4.7 Raid(磁盘阵列) |
1.4.8 资源查看(监控) |
1.4.8.1 dstat(网络监控) |
1.4.9 启动流程 |
1.4.10 系统优化 |
1.4.11 cpu |
1.5 Shell编程 |
1.5.1 数组类型 |
1.5.2 if 条件判断 |
1.5.3 for |
1.5.4 文本截取 |
1.5.5 随机字符串 |
1.5.6 网站检测 |
1.5.6.1 nmap |
1.5.7 Debug |
1.5.8 declare |
1.6 网络服务类 |
1.6.1 网关 |
1.6.2 SSH服务 |
1.6.3 DHCP + FTP |
1.6.4 DNS服务 |
1.6.4.1 智能DNS |
1.6.5 Apache配置 |
1.6.5.1 Apache 三种工作模式 |
1.6.6 Apache优化 |
1.6.6.1 CDN |
1.6.7 Nginx配置 |
1.6.7.1 nginx开启SSL证书 |
1.6.7.2 Session一致性解决方案 |
1.6.7.3 异步非阻塞方式 |
1.6.7.4 Nginx反向代理配置出现问题 |
1.6.7.5 nginx 负载均衡算法 |
1.6.7.6 nginx status |
1.6.8 Nginx优化 |
1.6.8.1 Nginx请求PHP(Tomcat)过程 |
1.6.8.2 gzip压缩 |
1.6.8.3 缓存优化 |
1.6.8.4 反向代理 |
1.6.9 http状态码 |
1.7 数据库管理类 |
1.7.1 集群部署(Amoeba) |
1.7.2 索引 |
1.7.3 误操作Drop语句如何解决? |
1.7.4 Redis(缓存数据库) |
1.7.4.1 Redis_ |
1.8 Good Luck |
1.9 Linux(实际工作可能常用命令) |
1.10 LeetCode(Bash) |
1.10.1 统计词频 |
1.10.2 有效电话号码 |
2 三剑客 |
2.1 正则表达式 |
2.1.1 扩展正则表达式 |
2.2 grep(...过滤) |
2.3 sed(...替换) |
2.3.1 sed删除,增加 |
2.3.2 sed 替换 |
2.4 awk(...取列统计) |
2.4.1 awk模式匹配 |
2.4.2 awk数组 |
Linux uniq 命令用于检查及删除文本文件中重复出现的行列,一般与 sort 命令结合使用。
uniq 可检查文本文件中重复出现的行列。
语法 uniq [-cdu][-f<栏位>][-s<字符位置>][-w<字符位置>][--help][--version][输入文件][输出文件] 参数:
不附加任何选项时匹配行将在首次出现处被合并。 长选项必须使用的参数对于短选项时也是必需使用的。
需要配合sort 进行去重使用
-c, --count //在每行前加上表示相应行目出现次数的前缀编号 -d, --repeated //只输出重复的行 -D, --all-repeated //只输出重复的行,不过有几行输出几行 -f, --skip-fields=N //-f 忽略的段数,-f 1 忽略第一段 -i, --ignore-case //不区分大小写 -s, --skip-chars=N //根-f有点像,不过-s是忽略,后面多少个字符 -s 5就忽略后面5个字符 -u, --unique //去除重复的后,全部显示出来,根mysql的distinct功能上有点像 -z, --zero-terminated end lines with 0 byte, not newline -w, --check-chars=N //对每行第N 个字符以后的内容不作对照 --help //显示此帮助信息并退出 --version //显示版本信息并退出 [输入文件] 指定已排序好的文本文件。如果不指定此项,则从标准读取数据; [输出文件] 指定输出的文件。如果不指定此选项,则将内容显示到标准输出设备(显示终端)。 实例 文件testfile中第 2、3、5、6、7、9行为相同的行,使用 uniq 命令删除重复的行,可使用以下命令:
uniq testfile testfile中的原有内容为:
$ cat testfile #原有内容 test 30 test 30 test 30 Hello 95 Hello 95 Hello 95 Hello 95 Linux 85 Linux 85 使用uniq 命令删除重复的行后,有如下输出结果:
$ uniq testfile #删除重复行后的内容 test 30 Hello 95 Linux 85 检查文件并删除文件中重复出现的行,并在行首显示该行重复出现的次数。使用如下命令:
uniq -c testfile 结果输出如下:
$ uniq -c testfile #删除重复行后的内容 3 test 30 #前面的数字的意义为该行共出现了3次 4 Hello 95 #前面的数字的意义为该行共出现了4次 2 Linux 85 #前面的数字的意义为该行共出现了2次 当重复的行并不相邻时,uniq 命令是不起作用的,即若文件内容为以下时,uniq 命令不起作用: $ cat testfile1 # 原有内容 test 30 Hello 95 Linux 85 test 30 Hello 95 Linux 85 test 30 Hello 95 Linux 85 这时我们就可以使用 sort:
一般先排序 然后在去重 $ sort testfile1 | uniq Hello 95 Linux 85 test 30 统计各行在文件中出现的次数:
$ sort testfile1 | uniq -c 3 Hello 95 3 Linux 85 3 test 30 在文件中找出重复的行:
$ sort testfile1 | uniq -d Hello 95 Linux 85 test 30
cat access.log | awk '{print $1}' | sort -rn | uniq -c | sort -k1 -rn | head -10 |