如何获取网站上的链接URL

sh/bash/dash/ksh/zsh等Shell脚本
回复
nobodyhome
帖子: 26
注册时间: 2010-01-01 14:04

如何获取网站上的链接URL

#1

帖子 nobodyhome » 2010-09-14 12:47

我想下载一个网站上的网页,使用wget -r会下载很多无用的网页下来。而我想下的那些网页(都是该网站的,没外链)地址中含随机数,使用循环去匹配的话工作量非常巨大(HTTP不支持通配符,DAMN),不知道要下到何年何月;所以我的想法是先获得这个网站上所有的链接地址,再筛选地址,然后下载。如何获取地址?
头像
trigger
帖子: 1604
注册时间: 2006-10-25 18:08

Re: 如何获取网站上的链接URL

#2

帖子 trigger » 2010-09-14 14:08

给个网页源码,作文本处理
楼主真是一派胡言,真可谓:“两个黄鹂鸣翠柳,不知所云;一行白鹭上青天,不知所止“。本来不想和你辩论,今天气愤不过,和你理论一番。我国宪法写得清清楚楚:“一夜夫妻百日恩,七楼以上才有电梯”。这个想必你知道,既然知道,你就不能断章取义,就算是天气预报,它还有不准的时候呢!!!再者说了,那中国银行也不是你一家开的。人家马拉多纳都结婚了,你还拿着粮票顶什么用呢。真是滑天下之大稽。前些日子,全国人大刚刚开过会,郑重声明:“中国不搞多party制,存栏母猪给补贴”。多好的事呢,楞让你这号人给搅混了。
delectate
帖子: 18311
注册时间: 2008-01-09 22:41

Re: 如何获取网站上的链接URL

#3

帖子 delectate » 2010-09-14 14:11

分析源码,找href
头像
eexpress
帖子: 58428
注册时间: 2005-08-14 21:55
来自: 长沙

Re: 如何获取网站上的链接URL

#4

帖子 eexpress » 2010-09-14 14:30

w3m -dump_source -no-cookie 这样。然后分析链接就是。

要直接爬网页,那用perl
● 鸣学
nobodyhome
帖子: 26
注册时间: 2010-01-01 14:04

Re: 如何获取网站上的链接URL

#5

帖子 nobodyhome » 2010-09-14 18:54

谢谢,成功了
回复