如何一次性保存一大串网址里的图片?
如题,现在有一个漫画,每话一个网页。但搜了个底朝天居然没找到一个一次性保存下来的办法,甚至连批量保存网页然后再去挑图片都做不到。 用漫画控下载,不少网站有资源 路过 接贴 求下动漫种子站 爬虫?门槛 3h python基础 RyanLR 发表于 2023-8-20 00:24
爬虫?门槛 3h python基础
我只需要有个程序帮我重复几百次浏览器保存网页的动作即可。
虽然现在我意识到我找这个程序的时间,已经超过我手动保存需要的时间了。 油猴有不少脚本,浏览器插件也有类似的。
具体哪个网站 caucpp 发表于 2023-8-20 01:27
油猴有不少脚本,浏览器插件也有类似的。
具体哪个网站
主要是我已经有了一个网址列表。
但居然没找到一个喂一个网址列表就能批量抓取图片的程序。。
感觉这个需求不可能没有啊。 cameraman 发表于 2023-8-19 23:50
路过 接贴 求下动漫种子站
动漫花园 https://share.dmhy.org/
爱恋BT https://www.kisssub.org/ (国内好几个站和动漫花园同步的,动漫花园挂了那就一起挂)
https://nyaa.si/ 这个懂得都懂 lh4357 发表于 2023-8-20 01:44
主要是我已经有了一个网址列表。
但居然没找到一个喂一个网址列表就能批量抓取图片的程序。。
突然想起来汉化组甚至抓人写JS脚本抓图[狂笑] 本帖最后由 lh4357 于 2023-8-20 02:07 编辑
yuri_2234 发表于 2023-8-20 01:50
突然想起来汉化组甚至抓人写JS脚本抓图
只能说,简直荒唐。。
或者要是有办法搞出下载aaa.bbb.ccc/(1-x)/*.jpg这种批量下载程序也行。
1-x指多少话。
*.jpg指下载这个路径里所有jpg文件,但不知道具体有多少个。 本帖最后由 raiya 于 2023-8-20 08:38 编辑
迅雷。新建任务,里面有自己设定通配符,批量下载。
火车采集器,自己写个规则,很简单, 答案被 #12 说了 他没做防爬虫那就curl或者wget。。。 lh4357 发表于 2023-8-20 01:44
主要是我已经有了一个网址列表。
但居然没找到一个喂一个网址列表就能批量抓取图片的程序。。
我之前用的迅雷。。。 油猴有插件,直接把图片地址批量导出丢到下载器里就行 imageassistant图片助手试试?
Edge和Firefox都有这个插件,批量页面图片下载很方便。 感觉有这时间都自己存完了ctrl+p pdf 1. idm的嗅探功能,嗅探完挑选下载图片,不过挺慢,因为需要分析网页所有东西
2. 搜下批量保存网页图片地址或下载,有人做了网页版小工具
我是用obsidian的图库相册插件,配合批量找到的网址,制作COSER在线相册,这样可以实时在线渲染[偷笑][偷笑]
还有个小技巧,很多网站图片网址是排好序的,比如第一张********djdnjd1.jpg,里面的1就是序号,知道漫画或相册有多少张,把地址放Excel里拉下来,就能得到所有网址
如果图片是网站上传图床再渲染的,这个方法就不行了,因为图片网址就是随机的了 CHROME我用的
圖片助手(ImageAssistant) 批量圖片下載器 自己写个脚本?[偷笑] 发2个网站出来分析一下就知道了 写个python[偷笑] lh4357 发表于 2023-8-20 01:44
主要是我已经有了一个网址列表。
但居然没找到一个喂一个网址列表就能批量抓取图片的程序。。
同求:有没有抓网页txt的程序? tankren 发表于 2023-8-21 13:18
写个python
有没有教程? 这玩意试过没,感觉还行
不如更进一步 直接上手tachiyomi 强大的eagle图片管理软件--->浏览器插件---->批量收藏。
30天免费可以随便用用。其实挺好用的200永久。 lh4357 发表于 2023-8-20 02:00
只能说,简直荒唐。。
或者要是有办法搞出下载aaa.bbb.ccc/(1-x)/*.jpg这种批量下载程序也行。
搜一下 NeoDownloader v4.1.0,可以下图片/音频/视频/压缩包/文档 5大类了,每类可选扩展名;
只找到安装版+注册机,没找到真的绿色版(手上有老版本绿色,已经下不到图片了);
似乎爬的层次是双方向?下载的比网页看到图片多得多;另外缩略图(需要鼠标才能放大到真实size)似乎没办法获取原图;
链接就不上了,bing一下就有很多;找到绿色版还请分享一下
雨季不再来 发表于 2023-8-21 13:31
同求:有没有抓网页txt的程序?
楼上,我的回复,有.txt选项
页:
[1]