加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 综合聚焦 > 服务器 > 安全 > 正文

bash – wget grep sed提取链接并将其保存到文件中

发布时间:2020-12-15 21:43:39 所属栏目:安全 来源:网络整理
导读:我需要从 http://en.wikipedia.org/wiki/Meme下载所有页面链接,并使用一个命令将它们保存到一个文件中. 第一次使用命令行,所以我不确定要使用的确切命令,标志等.我只知道要做什么,不得不四处寻找href意味着什么. wget http://en.wikipedia.org/wiki/Meme -O
我需要从 http://en.wikipedia.org/wiki/Meme下载所有页面链接,并使用一个命令将它们保存到一个文件中.

第一次使用命令行,所以我不确定要使用的确切命令,标志等.我只知道要做什么,不得不四处寻找href意味着什么.

wget http://en.wikipedia.org/wiki/Meme -O links.txt | grep 'href=".*"' | sed -e 's/^.*href=".*".*$/1/'

文件中链接的输出不需要采用任何特定格式.

解决方法

使用gnu grep:

grep -Po '(?<=href=")[^"]*' links.txt

或与wget

wget http://en.wikipedia.org/wiki/Meme -q -O - |grep -Po '(?<=href=")[^"]*'

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读