python爬取“堆糖网”小姐姐 图片

[复制链接]
作者: 沉默的砖 | 时间: 2021-2-23 09:46:09 | python图文教程|
0 44
发表于 2021-2-23 09:46:09| 显示全部楼层 |阅读模式

在堆糖网官网首页上搜索关键字:小姐姐

我们往下翻,发现它的图片内容是通过瀑布流来动态加载的。

静态网页中会有24张图片,查看源代码,也仅仅发现只有24张图片。

初步分析,其他图片应该是通过数据包的形式去动态请求的。

打开开发者工具,选择 Network->XHR

鼠标滚轮往下滑,捕获到一个数据包:

果不其然,它里面包含了我们需要的数据:

该数据包的请求地址,太长了:

我们仅仅需要的是图片,所以有很多参数我们不需要。

所以,我们删减去一部分,只剩下kw和start即可,kw是我们搜索的关键字,start是数据包中所包含数据的起始序号(它是24的倍数)

第一个数据包,是刚开始就加载的,它的start应该是0,第二个数据包的start是24,所以每个数据包包含了24张图片。

我们滑到最下方,点击第二页,再进行数据包的抓取: 可以看到,它的start是168

可想而知,不管页数怎么变化,我只要更改start参数的值,岂不是可以获取到该关键字(小姐姐)下搜索的全部图片。

那么,每一页究竟有多少个数据包,对应多少张图片呢?(如果我们有分页爬取的需求,就得知道这个)

很简单,回到第一页,再次打开开发者选项,鼠标滚轮滑到该页末尾,发现共获取到5个数据包: 我们大胆猜测一页共有6个数据包(其中一个是相当于静态加载的)。

那么一页就有6*24 共144张图片。

再看最后一个数据包的start ,它等于120

120+24 = 144 刚好印证了我们的猜想。


输入爬取几页,就爬取几页,按需爬取。

代码:

import os
import requests
import json
import jsonpath
from urllib.parse import quote
from urllib.request import urlretrieve

# 所请求的url :https://www.duitang.com/napi/blog/list/by_search/?kw=%E5%B0%8F%E5%A7%90%E5%A7%90&start=24
headers = {'User-Agent': 'Mozilla/5.0(WindowsNT6.1;rv:2.0.1)Gecko/20100101Firefox/4.0.1'}
keyword = '小姐姐' #可自行指定
kw = quote(keyword)
page_num = input('您一共要爬取几页图片?(每页144张图片):')
page_num = int(page_num)

def get_img_data(kw,start):
    savePath = './图片/{}/'.format(keyword)
    if not os.path.exists(savePath):
        os.mkdir(savePath)
    url = 'https://www.duitang.com/napi/blog/list/by_search/?kw={}&start={}'.format(kw,start)
    resp = requests.get(url,headers=headers)
    # 将json数据转化为字典格式
    data_dict = json.loads(resp.text)
    # 从字典中快速得到我们想要的信息($代表根结点下  ..代表任意层次)
    img_pathList = jsonpath.jsonpath(data_dict,'$..path')
    # 通过for循环进行下载
    num = start+1
    for path in img_pathList:
        # 有的图片的jpeg,有的图片是jpg
        img_type = os.path.splitext(path)[-1]#.jpeg   .jpg
        # 有的图片是gif,但是识别到的却是 gif_jpeg,这种图片下载下载就不是动图了,而是10kb左右的低品质图
        if(img_type.find('gif_jpeg')!=-1):
            # 经过细心观察,发现它貌似所有的gif图片的真实路径后面都是thumb.400_0.gif为结尾
            path = path.replace('gif_jpeg','thumb.400_0.gif')
            img_type = '.gif'
        try:
            saveLocation = f'{savePath}{keyword}{num}{img_type}'
            urlretrieve(path,saveLocation)
            print('{}{}{} 下载成功...'.format(keyword,num,img_type) )
            num+=1
        except Exception as e:
            print(e)

def page_download(pageNum):
    offset = 24 #一个数据包24张图片
    onePage = 144 #每页有6个数据包
    for i in range(0,onePage*page_num,offset):
        get_img_data(kw,i)

page_download(page_num)

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

!jz_fbzt! 快速回复 !jz_sctz! !jz_fhlb! 按钮
快速回复 返回列表 返回顶部