加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 综合聚焦 > 服务器 > 安全 > 正文

CURL版递归爬虫下载软件脚本

发布时间:2020-12-15 07:07:54 所属栏目:安全 来源:网络整理
导读:今天PHP站长网 52php.cn把收集自互联网的代码分享给大家,仅供参考。 #!/bin/env bashPATH=/bin:/sbin:/usr/bin:/usr/sbin:/usr/local/bin:/usr/local/sbinexport PATHclearUrl="http://mirrors.cnnic.cn/apache/"DownLis

以下代码由PHP站长网 52php.cn收集自互联网

现在PHP站长网小编把它分享给大家,仅供参考

#!/bin/env bash
PATH=/bin:/sbin:/usr/bin:/usr/sbin:/usr/local/bin:/usr/local/sbin
export PATH
clear
Url="http://mirrors.cnnic.cn/apache/"
DownListFile="/tmp/downlist.txt"
DownListTmpFile="/tmp/tmplist.txt"
DownFileType="zip$|gz$"
DownList=""
UrlBack="$Url"
[ ! -f $DownListFile ] && touch $DownListFile || echo > $DownListFile
[ ! -f $DownListTmpFile ] && touch $DownListTmpFile || echo > $DownListTmpFile
CURL_URLS(){
	Urls=`curl $UrlBack |awk -F "a href="" '{printf "%sn",$2}'|awk -F """ '{printf "%sn",$1}'|grep -vE "^$|^?|^http://"|^#`
}
URL_LIST(){
	CURL_URLS
	for i in $Urls ;do
		echo "$UrlBack$i" >> $DownListTmpFile
	done
}
RECURSIVE_SEARCH_URL(){
	UrlBackTmps=`cat $DownListTmpFile`
	[[ "$UrlBackTmps" == "" ]] && echo "no more page for search" && exit 1
	for j in $UrlBackTmps ;do
		if [[ "${j##*/}" != "" ]] ;then
			echo "$j" >> $DownListFile
		else
			UrlBack="$j"
			URL_LIST
		fi
		UrlTmps=`grep -vE "$j$" $DownListTmpFile`
		echo "$UrlTmps" > $DownListTmpFile
		RECURSIVE_SEARCH_URL
	done
}
DOWNLOAD_FILE(){
	DownList=`grep -E "$DownFileType" $DownListFile`
	for k in $DownList ;do
		FilePath=/tmp/${k#*//}
		[ ! -d `dirname $FilePath` ] && mkdir -p `dirname $FilePath`
		[ ! -f $FilePath ] && cd `dirname $FilePath` && curl -O $k
	done
}
URL_LIST $Urls
RECURSIVE_SEARCH_URL

以上内容由PHP站长网【52php.cn】收集整理供大家参考研究

如果以上内容对您有帮助,欢迎收藏、点赞、推荐、分享。

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读