博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Python爬虫实战:批量下载网站图片
阅读量:2070 次
发布时间:2019-04-29

本文共 2507 字,大约阅读时间需要 8 分钟。

前言

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。

作者: GitPython

PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取


1.获取图片的url链接

首先,打开百度图片首页,注意下图url中的index

在这里插入图片描述
接着,把页面切换成传统翻页版(flip),因为这样有利于我们爬取图片!
在这里插入图片描述
对比了几个url发现,pn参数是请求到的数量。通过修改pn参数,观察返回的数据,发现每页最多只能是60个图片。

注:gsm参数是pn参数的16进制表达,去掉无妨

在这里插入图片描述
然后,右键检查网页源代码,直接(ctrl+F)搜索 objURL
在这里插入图片描述
这样,我们发现了需要图片的url了。

2.把图片链接保存到本地

现在,我们要做的就是将这些信息爬取出来。

注:网页中有objURL,hoverURL…但是我们用的是objURL,因为这个是原图

那么,如何获取objURL?用正则表达式!

那我们该如何用正则表达式实现呢?其实只需要一行代码…

results = re.findall('"objURL":"(.*?)",', html)

核心代码:

1.获取图片url代码:

# 获取图片url连接def get_parse_page(pn,name):    for i in range(int(pn)):        # 1.获取网页        print('正在获取第{}页'.format(i+1))        # 百度图片首页的url        # name是你要搜索的关键词        # pn是你想下载的页数        url = 'https://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word=%s&pn=%d' %(name,i*20)        headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.4843.400 QQBrowser/9.7.13021.400'} # 发送请求,获取相应 response = requests.get(url, headers=headers) html = response.content.decode() # print(html) # 2.正则表达式解析网页 # "objURL":"http://n.sinaimg.cn/sports/transform/20170406/dHEk-fycxmks5842687.jpg" results = re.findall('"objURL":"(.*?)",', html) # 返回一个列表 # 根据获取到的图片链接,把图片保存到本地 save_to_txt(results, name, i)

2.保存图片到本地代码:

# 保存图片到本地def save_to_txt(results, name, i):    j = 0    # 在当目录下创建文件夹    if not os.path.exists('./' + name):        os.makedirs('./' + name)    # 下载图片    for result in results:        print('正在保存第{}个'.format(j))        try:            pic = requests.get(result, timeout=10)            time.sleep(1)        except:            print('当前图片无法下载')            j += 1            continue        # 可忽略,这段代码有bug        # file_name = result.split('/')        # file_name = file_name[len(file_name) - 1]        # print(file_name)        #        # end = re.search('(.png|.jpg|.jpeg|.gif)$', file_name)        # if end == None:        #     file_name = file_name + '.jpg'        # 把图片保存到文件夹        file_full_name = './' + name + '/' + str(i) + '-' + str(j) + '.jpg'        with open(file_full_name, 'wb') as f:            f.write(pic.content)        j += 1

3.主函数代码:

# 主函数if __name__ == '__main__':    name = input('请输入你要下载的关键词:')    pn = input('你想下载前几页(1页有60张):')    get_parse_page(pn, name)

使用说明:

# 配置以下模块import requests import reimport osimport time# 1.运行 py源文件# 2.输入你想搜索的关键词,比如“柯基”、“泰迪”等# 3.输入你想下载的页数,比如5,那就是下载 5 x 60=300 张图片

转载地址:http://jgjmf.baihongyu.com/

你可能感兴趣的文章
Spring下载地址
查看>>
google app api相关(商用)
查看>>
linux放音乐cd
查看>>
GridView+存储过程实现'真分页'
查看>>
flask_migrate
查看>>
解决activemq多消费者并发处理
查看>>
UDP连接和TCP连接的异同
查看>>
hibernate 时间段查询
查看>>
java操作cookie 实现两周内自动登录
查看>>
Tomcat 7优化前及优化后的性能对比
查看>>
Java Guava中的函数式编程讲解
查看>>
Eclipse Memory Analyzer 使用技巧
查看>>
tomcat连接超时
查看>>
谈谈编程思想
查看>>
iOS MapKit导航及地理转码辅助类
查看>>
检测iOS的网络可用性并打开网络设置
查看>>
简单封装FMDB操作sqlite的模板
查看>>
iOS开发中Instruments的用法
查看>>
iOS常用宏定义
查看>>
什么是ActiveRecord
查看>>