SiteSucker

概观

官方介绍

SiteSucker是一款Mac OS X上的整站下载的利器,可以自动从Internet下载网站。它通过将网站的网页,样式表,图像,背景和其他文件复制到本地硬盘驱动器,复制网站的目录结构来实现此目的。默认情况下,SiteSucker“本地化”它下载的文件,允许您离线浏览网站。

SiteSucker窗口显示正在下载的URL(统一资源定位器),下载的当前状态以及工具栏。

个人感受

简单来说“扒”站神器

部署

安装

Rick-apps:[官网](https://ricks-apps.com/

汉化

汉化文件地址:https://github.com/hlcc/Mac-App-translate/tree/master/SiteSucker
解压zh-CN.lproj.zip文件
将其拷贝到应用软件的 Resources 目录下(在应用程序文件夹 > 右击SiteSucker图标 > 显示包内容 > Contents > Resources)
重启软件注意:语言包跟随系统语言自动切换,若你的系统语言非中文此时汉化包将不起作用。

使用

一般网站

普通如下载站,图片站,博客等,可以下载所有的文件,图片等。
那么输入网址,按回车开始。
当当当当~~~~


带有robots.txt的网站

什么是 robots.txt 文件?

robots.txt 文件规定了抓取工具可以/无法请求抓取您网站上的哪些网页或文件。作为网址屏蔽方法的一种方式,robots.txt排除通常放在适当的地方,且有一个很好的理由,应该遵守。

  • Robots协议是国际互联网界通行的道德规范,基于以下原则建立:

1、搜索技术应服务于人类,同时尊重信息提供者的意愿,并维护其隐私权;
2、网站有义务保护其使用者的个人信息和隐私不被侵犯。

排除robots.txt限制

建议不要忽略机器人排除。机器人排除通常是有充分理由的,应该遵守


为了遵守了The Robots Exclusion Protocol,不建议强行“扒”站,所以请自己摸索。

时晚待更