lh4357 发表于 2023-8-19 23:41

如何一次性保存一大串网址里的图片?

如题,现在有一个漫画,每话一个网页。

但搜了个底朝天居然没找到一个一次性保存下来的办法,甚至连批量保存网页然后再去挑图片都做不到。

晓古城 发表于 2023-8-19 23:42

用漫画控下载,不少网站有资源

cameraman 发表于 2023-8-19 23:50

路过 接贴 求下动漫种子站

RyanLR 发表于 2023-8-20 00:24

爬虫?门槛 3h python基础

lh4357 发表于 2023-8-20 00:37

RyanLR 发表于 2023-8-20 00:24
爬虫?门槛 3h python基础

我只需要有个程序帮我重复几百次浏览器保存网页的动作即可。

虽然现在我意识到我找这个程序的时间,已经超过我手动保存需要的时间了。

caucpp 发表于 2023-8-20 01:27

油猴有不少脚本,浏览器插件也有类似的。
具体哪个网站

lh4357 发表于 2023-8-20 01:44

caucpp 发表于 2023-8-20 01:27
油猴有不少脚本,浏览器插件也有类似的。
具体哪个网站

主要是我已经有了一个网址列表。

但居然没找到一个喂一个网址列表就能批量抓取图片的程序。。

感觉这个需求不可能没有啊。

yuri_2234 发表于 2023-8-20 01:46

cameraman 发表于 2023-8-19 23:50
路过 接贴 求下动漫种子站

动漫花园 https://share.dmhy.org/
爱恋BT https://www.kisssub.org/ (国内好几个站和动漫花园同步的,动漫花园挂了那就一起挂)
https://nyaa.si/ 这个懂得都懂

yuri_2234 发表于 2023-8-20 01:50

lh4357 发表于 2023-8-20 01:44
主要是我已经有了一个网址列表。

但居然没找到一个喂一个网址列表就能批量抓取图片的程序。。


突然想起来汉化组甚至抓人写JS脚本抓图[狂笑]

lh4357 发表于 2023-8-20 02:00

本帖最后由 lh4357 于 2023-8-20 02:07 编辑

yuri_2234 发表于 2023-8-20 01:50
突然想起来汉化组甚至抓人写JS脚本抓图

只能说,简直荒唐。。

或者要是有办法搞出下载aaa.bbb.ccc/(1-x)/*.jpg这种批量下载程序也行。

1-x指多少话。
*.jpg指下载这个路径里所有jpg文件,但不知道具体有多少个。

raiya 发表于 2023-8-20 02:47

本帖最后由 raiya 于 2023-8-20 08:38 编辑

迅雷。新建任务,里面有自己设定通配符,批量下载。

taiconcn 发表于 2023-8-20 03:09

火车采集器,自己写个规则,很简单,

厌夜 发表于 2023-8-20 03:41

答案被 #12 说了

Xp47 发表于 2023-8-20 06:13

他没做防爬虫那就curl或者wget。。。

zhao1999250 发表于 2023-8-20 07:42

lh4357 发表于 2023-8-20 01:44
主要是我已经有了一个网址列表。

但居然没找到一个喂一个网址列表就能批量抓取图片的程序。。


我之前用的迅雷。。。

天使再臨 发表于 2023-8-20 09:41

油猴有插件,直接把图片地址批量导出丢到下载器里就行

flshlion 发表于 2023-8-20 10:43

imageassistant图片助手试试?

Edge和Firefox都有这个插件,批量页面图片下载很方便。

Telabesha 发表于 2023-8-20 10:57

感觉有这时间都自己存完了ctrl+p pdf

山不是水 发表于 2023-8-20 13:59

1. idm的嗅探功能,嗅探完挑选下载图片,不过挺慢,因为需要分析网页所有东西

2. 搜下批量保存网页图片地址或下载,有人做了网页版小工具

我是用obsidian的图库相册插件,配合批量找到的网址,制作COSER在线相册,这样可以实时在线渲染[偷笑][偷笑]

还有个小技巧,很多网站图片网址是排好序的,比如第一张********djdnjd1.jpg,里面的1就是序号,知道漫画或相册有多少张,把地址放Excel里拉下来,就能得到所有网址
如果图片是网站上传图床再渲染的,这个方法就不行了,因为图片网址就是随机的了

JP_ToKyo 发表于 2023-8-20 14:01

CHROME我用的
圖片助手(ImageAssistant) 批量圖片下載器

nlnjnj 发表于 2023-8-20 16:28

自己写个脚本?[偷笑]

airbeta 发表于 2023-8-21 11:14

发2个网站出来分析一下就知道了

tankren 发表于 2023-8-21 13:18

写个python[偷笑]

雨季不再来 发表于 2023-8-21 13:31

lh4357 发表于 2023-8-20 01:44
主要是我已经有了一个网址列表。

但居然没找到一个喂一个网址列表就能批量抓取图片的程序。。


同求:有没有抓网页txt的程序?

雨季不再来 发表于 2023-8-21 13:31

tankren 发表于 2023-8-21 13:18
写个python

有没有教程?

HAMSUNG 发表于 2023-8-21 14:05

这玩意试过没,感觉还行

死也要爱钱 发表于 2023-8-21 14:32

不如更进一步 直接上手tachiyomi

suicaoya123 发表于 2023-8-21 14:33

强大的eagle图片管理软件--->浏览器插件---->批量收藏。

30天免费可以随便用用。其实挺好用的200永久。

tide~ 发表于 2023-8-21 14:35

lh4357 发表于 2023-8-20 02:00
只能说,简直荒唐。。

或者要是有办法搞出下载aaa.bbb.ccc/(1-x)/*.jpg这种批量下载程序也行。


搜一下 NeoDownloader v4.1.0,可以下图片/音频/视频/压缩包/文档 5大类了,每类可选扩展名;
只找到安装版+注册机,没找到真的绿色版(手上有老版本绿色,已经下不到图片了);
似乎爬的层次是双方向?下载的比网页看到图片多得多;另外缩略图(需要鼠标才能放大到真实size)似乎没办法获取原图;

链接就不上了,bing一下就有很多;找到绿色版还请分享一下

tide~ 发表于 2023-8-21 14:37

雨季不再来 发表于 2023-8-21 13:31
同求:有没有抓网页txt的程序?

楼上,我的回复,有.txt选项
页: [1]
查看完整版本: 如何一次性保存一大串网址里的图片?