日期:2014-05-16  浏览次数:20750 次

linux 命令
这是一个linux常见命令的列表。那些有? 标记的条目,你可以直接拷贝到终端上而不需要任何修改,因此你最好开一个终端边读边剪切&拷贝。所有的命令已在Fedora和Ubuntu下做了测试

命令 描述
? apropos whatis 显示和word相关的命令。 参见线程安全
? man -t man | ps2pdf - > man.pdf 生成一个PDF格式的帮助文件
  which command 显示命令的完整路径名
  time command 计算命令运行的时间
? time cat 开始计时. Ctrl-d停止。参见sw
? nice info 运行一个低优先级 命令(这里是info)
? renice 19 -p $$ 使脚本运行于低优先级。用于非交互任 务。
目录操作
? cd - 回到前一目录
? cd 回到用户目录
  (cd dir && command) 进入目录 dir,执行命令command然后回到当前目录
? pushd . 将当前目录压入栈,以后你可以使用 popd回到此目录
文件搜索
? alias l='ls -l --color=auto' 单字符文件列表命令
? ls -lrt 按日期显示文件. 参见newest
? ls /usr/bin | pr -T9 -W$COLUMNS 在 当前终端宽度上打印9列输出
  find -name '*.[ch]' | xargs grep -E 'expr' 在当前目录及其子目录下所有.c和.h文件中寻找'expr'. 参见findrepo
  find -type f -print0 | xargs -r0 grep -F 'example' 在当前目录及其子目录中的常规文件中查找字符串'example'
  find -maxdepth 1 -type f | xargs grep -F 'example' 在当前目录下查找字符串'example'
  find -maxdepth 1 -type d | while read dir; do echo $dir; echo cmd2; done 对每一个找到的文件执行多个命令(使用while循环)
? find -type f ! -perm -444 寻找所有不可读 的文件(对网站有用)
? find -type d ! -perm -111 寻找不可访问的 目录(对网站有用)
? locate -r 'file[^/]*\.txt' 使用 locate 查找所有符合*file*.txt的文件
? look reference 在(有序)字典中快速查找
? grep --color reference /usr/share/dict/words 使字典中匹配的正则表达式高亮
归档 and compression
  gpg -c file 文件加密
  gpg file.gpg 文件解密
  tar -c dir/ | bzip2 > dir.tar.bz2 将 目录dir/压缩打包
  bzip2 -dc dir.tar.bz2 | tar -x 展开 压缩包 (对tar.gz文件使用gzip而不是bzip2)
  tar -c dir/ | gzip | gpg -c | ssh user@remote 'dd of=dir.tar.gz.gpg' 目录dir/压缩打包并放到远程机器上
  find dir/ -name '*.txt' | tar -c --files-from=- | bzip2 > dir_txt.tar.bz2 将目录dir/及其子目录下所有.txt文 件打包
  find dir/ -name '*.txt' | xargs cp -a --target-directory=dir_txt/ --parents 将目录dir/及其子目录下所有.txt按照目录结构拷 贝到dir_txt/
  ( tar -c /dir/to/copy ) | ( cd /where/to/ && tar -x -p ) 拷贝目录copy/到目录/where/to/并保持文件属性
  ( cd /dir/to/copy && tar -c . ) | ( cd /where/to/ && tar -x -p ) 拷贝目录copy/下的所有文件到目录 /where/to/并保持文件属性
  ( tar -c /dir/to/copy ) | ssh -C user@remote 'cd /where/to/ && tar -x -p' 拷贝目录copy/到远程目录 /where/to/并保持文件属性
  dd bs=1M if=/dev/sda | gzip | ssh user@remote 'dd of=sda.gz' 将整个硬盘备份到远程机器上
rsync (使用 --dry-run选项进行测试)
  rsync -P rsync://rsync.server.com/path/to/file file 只获取diffs.当下载有问题时可以作多次
  rsync --bwlimit=1000 fromfile tofile 有 速度限制的本地拷贝,对I/O有利
  rsync -az -e ssh --delete ~/public_html/ remote.com:'~/public_html' 镜像网站(使用压缩和加密)
  rsync -auz -e ssh remote:/dir/ . && rsync -auz -e ssh . remote:/dir/ 同步当前目录和远程目录
ssh (安全 Shell)
  ssh $USER@$HOST command 在$Host主机上 以$User用户运行命令(默认命令为Shell)
? ssh -f -Y $USER@$HOSTNAME xeyes 在 名为$HOSTNAME的主机上以$USER用户运行GUI命令
  scp -p -r $USER@$HOST: file dir/ 拷 贝到$HOST主机$USER'用户的目录下
  ssh -g -L 8080:localhost:80 root@$HOST 由 本地主机的8080端口转发到$HOST主机的80端口
  ssh -R 1434:imap:143 root@$HOST 由 主机的1434端口转发到imap的143端口
wget (多用途下载工具)
? (cd cmdline && wget -nd -pHEKk http://www.pixelbeat.org/cmdline.html) 在当前目录中下载指定网页及其相关的文件使其可完全浏 览
  wget -c http://www.example.com/large.file 继 续上次未完的下载
  wget -r -nd -np -l1 -A '*.jpg' http://www.example.com/ 批量下载文件到当前目录中
  wget ftp://remote/file[1-9].iso/ 下 载FTP站上的整个目录
? wget -q -O- http://www.pixelbeat.org/timeline.html | grep 'a href' | head 直接 处理输出
  echo 'wget url' | at 01:00 在下午一点钟 下载指定文件到当前目录
  wget --limit-rate=20k url 限制下载速度 (这里限制到20KB/s)
  wget -nv --spider --force-html -i bookmarks.html 检查文件中的链接是否存在
  wget --mirror http://www.example.com/ 更 新网站的本地拷贝(可以方便地用于cron)
网络(ifconfig, route, mii-tool, nslookup 命令皆已过时)
  ethtool eth0 显示网卡eth0的状态