软件介绍
利用爬虫原理获取漫画的章节信息,再通过章节链接下载漫画图片,本软件是利用 XPath 表达式进行信息定位,了解 XPath 表达式的可以很容易上手,不了解的也不用担心,可以借助目录大多浏览的辅助功能获取 XPath 路径(软件内自带优化功能,能方便过滤无用的部分,但无可借助浏览器需要大家百度学习)。软件可以收录常用的网站,即或能通过 XPath 测试后,可将网站收录,收录后该网站的所有漫画均可通过简单操作就能下载!
软件下载完图片还可以转存为压缩包或 ePub 电子书,还可以制作无图的在线 ePub 电子书(不需要下载即可制作,只需要解析章节中的图片即可,生成的电子书体积也很小。需要注意的是,需要阅读设备有联网功能,无 WIFI 的环境还会花流量)!目前较正规的漫画网站基本都采用了 HTML 加密功能,很难用爬虫下载到图片,还好有一些不怎么正经的网站未加密(大家都懂的),大家也不要去尝试那些较出名的大漫画网站了!
软件特色
-
通过定义 XPath 路径获取漫画,可将网站定义好规则后收录,方便下载更多的漫画
-
借助浏览器的辅助功能获取 XPath 路径,并通过软件优化得到需要的 XPath 表达式
-
下载的漫画可以生成压缩包、ePub 电子书格式
-
可以制作无图片的在线 ePub 电子书,体积小(一般不超过 2MB)
-
自带若干个收录网站,无需定义规则直接下载
使用说明
1、自行定义规则下载
-
先在浏览器搜索漫画的目录页,再将其链接复制;
-
到软件中创建任务,粘贴入链接;
-
借助浏览器获取 XPath 路径(方法可百度,下方图组为操作步骤);
-
粘贴 XPath 路径并优化,主要需要定义目录页的”章节名称“、”章节链接“以及章节页的”图片链接“3种表达式,若要收录网站,建议再定义漫画名;
-
测试成功后(能在漫画图片分析列表中正确预览到漫画内容)创建任务;
-
最后就是任务下载。
2、从收录网站中下载漫画
-
打开“收录网站管理器”
-
在列表中选收录网站,用右键菜单“打开网站首页”
-
软件会借助浏览器打开该网站
-
寻找想要下载漫画的目录页
-
将目录页链接复制到“创建任务”中的相应处
-
按旁边的【查询】可套用规则
-
测试、筛选章节后可创建任务
隐藏内容需要回复可以看见
楼主辛苦了,谢谢楼主,楼主好人一生平安!
卧槽!无奈本人没文化,一句卧槽行天下!
楼主辛苦了,谢谢楼主,楼主好人一生平安!