30行Python代码从百度自动下载图片(附小白也能看懂的源码和exe程序)

只需要30行代码就可以从百度自动下载图片 大家好,我是黑羽,一个专门教小学生撸Python的编程老师(小学生都能学会的编程)

这里想问大家三个问题 : - 你还在为批量下载表情包发愁吗? - 你还在为找不到好看的图片素材在担忧吗? - 你还在为各种精美壁纸的挑选和下载找遍各大网站吗?

30行Python代码来帮你解决这个问题,现在你只要对代码进行复制、粘贴、运行三连就可以爬取你想要的图片。

如果不会python也没有问题,可以将python代码转成可以直接使用的应用程序,文末放上爬虫exe的获取方式

no bb show your code

import osimport requestsimport rekeyWord = '杨超越' # 设置爬取图片的主题number = 10 # 爬取图片数量if not os.path.exists(keyWord): os.makedirs(keyWord)url = r'http://image.baidu.com/search/flip?tn=baiduimage&ipn=r&ct=201326592&cl=2&lm=-1&st=-1&fm=result&fr=&sf=1&fmq' \ r'=1497491098685_R&pv=&ic=0&nc=1&z=&se=1&showtab=0&fb=0&width=&height=&face=0&istype=2&ie=utf-8&ctd' \ r'=1497491098685%5E00_1519X735&word=' + keyWordget = requests.get(url)pciture_url = re.findall(r'objURL':'(.*?)',', get.text)a = 1for i in pciture_url: p_type = i.split('.')[-1] a += 1 try: picture = requests.get(i, timeout=10) name = '%s/%s_%d.%s' % (keyWord, keyWord, a, p_type) with open(name, 'wb') as f: f.write(picture.content) print('第%d张图片正在下载' % a) except: print('第%d张图片下载失败!已跳过...' % a) if a >= number: break

代码逻辑主要是爬取百度图片网站的网页源码,然后从源码中提取每张图片的地址链接,使用循环保存每一张图片。

可以将这份代码直接拷贝到python编辑器里,只需要修改keyWord变量和num变量,设置成自己想爬取的图片主题和数量就可以运行下载了。爬取的结果如下图所示:

爬取代码高级版本

上面的代码只能爬取一页,因为他只对一个网址里的图片链接进行提取,如果想爬取大批量的图片,需要提取图片网站下一页的链接,这个核心代码如下,如果需要完整版代码可以后台回复【一行01】就可以获得所有代码

def get_url_one_page(url):    html = requests.get(url)    html.encoding = 'utf-8'    html = html.text    url_pic_this_page = re.findall(r''objURL':'(.*?)',', html)    url_next_page_prefix = re.findall(r'<a href='(.*?)' class='n'>下一页', html)    if len(url_next_page_prefix) != 0:        url_next_page = 'http://image.baidu.com' + url_next_page_prefix[0]    else:        print('已到达最后一页!')        url_next_page = None    return url_pic_this_page, url_next_page

不会代码也可以使用爬虫

之前的爬虫,很多读者说没有接触过python或者爬虫,想实现功能又看不懂代码。所以在这里已经将这个python代码转成可以直接使用的exe,如下图所示:

在爬取关键词里输入想要爬取的图片主题,然后输入爬取图片张数,最后选择图片保存的路径并点击开始爬取就只需要静静等待即可(网速够快的话,一般来说一秒下载一张图片)最后下载后的结果如下

(0)

相关推荐

  • 爬虫入门教程 —— 1

    爬虫入门教程 -1 很想做一些爬虫的基础性的教程,来与大家共同分享我的一些小经验, 我将以我认为的方式为大家讲解网络爬虫,如果你没有编程基础,对网络爬虫有兴趣,开始可能稍微有一些小难度,不过我希望能给 ...

  • 爬虫-使用Python3爬取360DOC文档

    xlixiaohui关注2018.04.04 11:50:30字数 922阅读 2,798个人博客:http://lixiaohui.livetags:Python3.爬虫.网页.requests.r ...

  • 第一个Python爬虫程序

    本节编写一个最简单的爬虫程序,作为学习Python爬虫前的开胃小菜. 下面使用Python内置的urllib库获取网页的html信息.注意,urllib库属于Python的标准库模块,无须单独安装,它 ...

  • Python爬虫日记一:爬取豆瓣电影中速度与激情8演员图片

    2017.04.27 16:34:04字数 915阅读 1,958 一.前言 这是我第一次写文章,作为一个非计算机,编程类专业的大二学生,我希望能够给像我这样的入门的朋友一些帮助,也同时激励自己努力写 ...

  • [Python从零到壹] 四.网络爬虫之入门基础及正则表达式抓取博客案例

    欢迎大家来到"Python从零到壹",在这里我将分享约200篇Python系列文章,带大家一起去学习和玩耍,看看Python这个有趣的世界.所有文章都将结合案例.代码和作者的经验讲 ...

  • 什么是爬虫?Python爬虫的工作流程是什么?

    爬虫一般指网络资源的抓取,通过编程语言撰写爬虫工具,抓取自己想要的数据以及内容.而在众多编程语言之中,Python有丰富的网络抓取模块,因此成为撰写爬虫的首选语言,并引起了学习热潮.那么你知道Pyth ...

  • 30行Python代码实现蚂蚁森林自动偷能量(附源码)

    虽然我支付宝加了好多好友,平时有很多能量可以偷,但由于太懒,至今一棵树都没种成,所以心心念念把偷能量这事自动化.之前通过用代码模拟手机点按的方式,实现了 朋友圈自动点赞,但当时蚂蚁森林的操作流程要比朋 ...

  • 女友半夜加班发自拍,IT男友用30行python代码发现惊天秘密

    点击上方"机器学习爱好者社区" 选择"星标"公众号,重磅干货,第一时间送达 这是一个悲伤的故事 昨天,我司的python开发小哥刚准备下班陪女友共进晚餐,满心期 ...

  • 百度指数不用爬,3行Python代码就能获取海量数据!

    大家好,我是早起. 曾经有读者问我,百度指数.微博指数等数据怎么爬. 其实有时换个思路会更快解决,比如不用爬的用取的.. 本期就给大家分享一个获取数据的方法,只需三行代码就能搞定. 「GoPUP」,大 ...

  • 曝肝三天,两千行Python代码,制作B站视频下载工具(附源码)

    文章目录 一.准备工作 二.预览 1.启动 2.解析 3.下载中 4.下载完成 5.结果 三.设计流程 1.bilibili_video_spider 2.视频json的查找 四.源代码 1.Bili ...

  • 什么,3行Python代码就能获取海量数据?

    Python爬虫与数据挖掘 1周前 以下文章来源于法纳斯特 ,作者小F 本文转载自公众号[法纳斯特],详情可以点击上方卡片,关注该公众号,获取更多好文推荐. 一谈起数据分析,首先想到的就是数据,没有数 ...

  • 6行python代码的爱心线

    前些日子在做绩效体系的时候,遇到了一件囧事,居然忘记怎样在Excel上拟合正态分布了,尽管在第二天重新拾起了Excel中那几个常见的函数和图像的做法,还是十分的惭愧.实际上,当时有效偏颇了,忽略了问题 ...

  • 10行Python代码的词云

    什么是词云呢? 词云又叫文字云,是对文本数据中出现频率较高的"关键词"在视觉上的突出呈现,形成关键词的渲染形成类似云一样的彩色图片,从而一眼就可以领略文本数据的主要表达意思. 现在 ...

  • 再见PDF提取收费!我用100行Python代码搞定!

    第471篇原创干货,第一时间送达 大家在日常的工作和学习过程中,都少不了与PDF文件打交道,很多的小伙伴都面临着将PDF文件中的文字.图片和表格数据提取出来的问题.能够对PDF文件中的文字.表格等数据 ...

  • 不到70行Python代码,轻松玩转RFM用户分析模型(附案例数据和代码)

    本文从RFM模型概念入手,结合实际案例,详解Python实现模型的每一步操作,并提供案例同款源数据,以供同学们知行合一. 注:想直接下载代码和数据的同学可以空降文末 看这篇文章前源数据长这样: 学完后 ...