分页: 1 / 1

如何获取网站上的链接URL

发表于 : 2010-09-14 12:47
nobodyhome
我想下载一个网站上的网页,使用wget -r会下载很多无用的网页下来。而我想下的那些网页(都是该网站的,没外链)地址中含随机数,使用循环去匹配的话工作量非常巨大(HTTP不支持通配符,DAMN),不知道要下到何年何月;所以我的想法是先获得这个网站上所有的链接地址,再筛选地址,然后下载。如何获取地址?

Re: 如何获取网站上的链接URL

发表于 : 2010-09-14 14:08
trigger
给个网页源码,作文本处理

Re: 如何获取网站上的链接URL

发表于 : 2010-09-14 14:11
delectate
分析源码,找href

Re: 如何获取网站上的链接URL

发表于 : 2010-09-14 14:30
eexpress
w3m -dump_source -no-cookie 这样。然后分析链接就是。

要直接爬网页,那用perl

Re: 如何获取网站上的链接URL

发表于 : 2010-09-14 18:54
nobodyhome
谢谢,成功了