SiteSucker
概观
官方介绍
SiteSucker是一款Mac OS X上的整站下载的利器,可以自动从Internet下载网站。它通过将网站的网页,样式表,图像,背景和其他文件复制到本地硬盘驱动器,复制网站的目录结构来实现此目的。默认情况下,SiteSucker“本地化”它下载的文件,允许您离线浏览网站。
SiteSucker窗口显示正在下载的URL(统一资源定位器),下载的当前状态以及工具栏。
个人感受
简单来说“扒”站神器
部署
安装
Rick-apps:[官网](https://ricks-apps.com/)
汉化
汉化文件地址:https://github.com/hlcc/Mac-App-translate/tree/master/SiteSucker
解压zh-CN.lproj.zip文件
将其拷贝到应用软件的 Resources 目录下(在应用程序文件夹 > 右击SiteSucker图标 > 显示包内容 > Contents > Resources)
重启软件注意:语言包跟随系统语言自动切换,若你的系统语言非中文此时汉化包将不起作用。
使用
一般网站
普通如下载站,图片站,博客等,可以下载所有的文件,图片等。
那么输入网址,按回车开始。
当当当当~~~~
带有robots.txt的网站
什么是 robots.txt 文件?
robots.txt
文件规定了抓取工具可以/无法请求抓取您网站上的哪些网页或文件。作为网址屏蔽方法的一种方式,robots.txt
排除通常放在适当的地方,且有一个很好的理由,应该遵守。
- Robots协议是国际互联网界通行的道德规范,基于以下原则建立:
1、搜索技术应服务于人类,同时尊重信息提供者的意愿,并维护其隐私权;
2、网站有义务保护其使用者的个人信息和隐私不被侵犯。
排除robots.txt限制
建议不要忽略机器人排除。机器人排除通常是有充分理由的,应该遵守
为了遵守了
The Robots Exclusion Protocol
,不建议强行“扒”站,所以请自己摸索。 时晚待更
版权属于:Sukeycz
转载时须注明出处及本声明
马了,回头试试(虽然买不起Mac)话说有Linux版的吗? ::twemoji:tilted::
马住,先拿贵站试试(
我的站点光荣出现(雾 ::twemoji:tilted::