学习了python的基础知识后,我们来写一个简单的爬虫案例,本案例用到了urllib和re库。
本案例的爬虫原理:
首先我们用urllib库来模拟浏览器访问网站的行为,由给定的网站链接(url)得到对应网页的源代码(html标签)。其中,源代码以字符串的形式返回。
然后我们用正则表达式re库在字符串(网页源代码)中匹配表示图片链接的小字符串,返回一个列表。最后循环列表,根据图片链接将图片保存到本地。
其中urllib库的使用在python2.x和python3.x中的差别很大,本案例以python3.x为例
直接上代码:
''' 第一个简单的爬虫程序,使用python3.x和urllib与re库'''import urllib.requestimport redef getHtmlCode(url): # 该方法传入url,返回url的html的源码 headers = { 'User-Agent': 'Mozilla/5.0 (linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Mobile Safari/537.36' } url1 = urllib.request.Request(url, headers=headers) # Request函数将url添加头部,模拟浏览器访问 page = urllib.request.urlopen(url1).read() # 将url页面的源代码保存成字符串 page = page.decode('UTF-8') # 字符串转码 return pagedef getImg(page): # 该方法传入html的源码,经过截取其中的img标签,将图片保存到本机 # findall(正则,代表页面源码的str)函数,在字符串中按照正则表达式截取其中的小字符串 # findall()返回一个列表,列表中的元素是一个个的元组,元组的第一个元素是图片的url,第二个元素是url的后缀名 # 列表形如:[('http://www.zhangzishi.cc/732x120.gif', 'gif'), ('http://ww2.sinaimg.cn/qomyo.jpg', 'jpg') imgList = re.findall(r'(http:[^/s]*?(jpg|png|gif))"',page) x = 0 for imgUrl in imgList: # 列表循环 PRint('正在下载:%s'%imgUrl[0]) # urlretrieve(url,local)方法根据图片的url将图片保存到本机 urllib.request.urlretrieve(imgUrl[0],'E:/pythonSpiderFile/img/%d.jpg'%x) x+=1if __name__ == '__main__': url = 'http://www.zhangzishi.cc/20151004mt.html' page = getHtmlCode(url) getImg(page)上述代码在找图片的url时,我们用的是re(正则表达式)。re用得好的话会有奇效,用的不好,效果极差。
既然我们得到了网页的源代码,我们何不根据标签的名称来得到其中的内容。
接下来要介绍的BeautifulSoupl库就能根据标签的名称来得到标签的内容。请参见本人博客:点我进入博客
新闻热点
疑难解答