首页 > 编程 > Python > 正文

Python实现爬取逐浪小说的方法

2019-11-25 17:13:35
字体:
来源:转载
供稿:网友

本文实例讲述了Python实现爬取逐浪小说的方法。分享给大家供大家参考。具体分析如下:

本人喜欢在网上看小说,一直使用的是小说下载阅读器,可以自动从网上下载想看的小说到本地,比较方便。最近在学习Python的爬虫,受此启发,突然就想到写一个爬取小说内容的脚本玩玩。于是,通过在逐浪上面分析源代码,找出结构特点之后,写了一个可以爬取逐浪上小说内容的脚本。

具体实现功能如下:输入小说目录页的url之后,脚本会自动分析目录页,提取小说的章节名和章节链接地址。然后再从章节链接地址逐个提取章节内容。现阶段只是将小说从第一章开始,每次提取一章内容,回车之后提取下一章内容。其他网站的结果可能有不同,需要做一定修改。在逐浪测试过正常。

现分享此代码,一是做个记录,方便自己以后回顾。二么也想抛砖引玉,希望各路大神不吝赐教。

#-*-coding:utf8-*-#!/usr/bin/python# Python:   2.7.8# Platform:  Windows# Program:   Get Novels From Internet# Author:   wucl# Description: Get Novels# Version:   1.0# History:   2015.5.27 完成目录和url提取#       2015.5.28 完成目录中正则提取第*章,提取出章节链接并下载。在逐浪测试下载无误。from bs4 import BeautifulSoupimport urllib2,redef get_menu(url):  """Get chapter name and its url"""  user_agent = "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:39.0) Gecko/20100101 Firefox/39.0"  headers = {'User-Agent':user_agent}  req = urllib2.Request(url,headers = headers)  page = urllib2.urlopen(req).read()  soup = BeautifulSoup(page)  novel = soup.find_all('title')[0].text.split('_')[0]  # 提取小说名  menu = []  all_text = soup.find_all('a',target="_blank")  # 提取记载有小说章节名和链接地址的模块  regex=re.compile(ur'/u7b2c.+/u7ae0')  # 中文正则匹配第..章,去除不必要的链接  for title in all_text:    if re.findall(regex,title.text):      name = title.text      x = [name,title['href']]      menu.append(x)      # 把记载有小说章节名和链接地址的列表插入列表中  return menu,noveldef get_chapter(name,url):  """Get every chapter in menu"""  html=urllib2.urlopen(url).read()  soup=BeautifulSoup(html)  content=soup.find_all('p') # 提取小说正文  return content[0].textif __name__=="__main__":  url=raw_input("""Input the main page's url of the novel in ZhuLang/n    Then Press Enter to Continue/n""")  if url:    menu,title=get_menu(url)    print title,str(len(menu))+'/n   Press Enter To Continue  /n'     # 输出获取到的小说名和章节数    for i in menu:      chapter=get_chapter(i[0],i[1])      raw_input()      print '/n'+i[0]+'/n'          print chapter      print '/n'

希望本文所述对大家的Python程序设计有所帮助。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表