WinHTTrack Website Copier可以抓取整个网站或者某个网页、某个论坛帖子以抓取论坛某个主题帖子为例:
2、工程名可以以帖子标题命名,最好用英文分类随意,保存路径建议非C盘
3、我们要丅载若干个帖子,所以操作选择下载个别文件web地址可以逐个输入,也可以用list列表列表以回车键分开,对于有规律的帖子可以在excel中拖動快速形成。
4、选项最大深度选择1,最大外部链接深度选择0这样我们只搜索当前帖子或页面所在的网址内容,不要外链到其他网站所以选择0.这两个选项很重要。
5、链接我选择了试图捕获所有的URLs保存所有指向非HTML文件的链接,例如外部的zip文件或图片文件首先保存HTML文件,取默认也行没看出多少区别。
6、构造取默认值即可
7、搜寻页面取默认值。
8、浏览器标致取默认值
9、确定后直接开始。
10、特别要注意的是新建一个工程要重新命名,否则会覆盖原来的地址!
Portable搜索深度设置为1的时候会搜索本站点的外链,这不是我想要的但是设置搜索深度为0的话,又会出现附件没有被下载的问题
缺点是同一个站点的文件不能共用,需要再次下载如果把列表放在一起下载,以前丅载的又会被覆盖而Offline Explorer Portable会更新以前下载的目录,它是以站点为单位进行下载的网站有更新直接刷新下就好了。
WinHTTrack Website Copier和Offline Explorer Portable都可以下载论坛的附件(包括zip和jpg等类型的图片附件)但是论坛的图片不一定能正确抓取,网页内嵌的图片可以正常抓取原因有待探索。
版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。