重庆分公司,新征程启航

为企业提供网站建设、域名注册、服务器等服务

用Python如何爬取下载kindle网站电子书

这篇文章将为大家详细讲解有关用Python如何爬取下载kindle网站电子书,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。

成都创新互联2013年至今,先为云岩等服务建站,云岩等地企业,进行企业商务咨询服务。为云岩企业网站制作PC+手机+微官网三网同步一站式服务解决您的所有建站问题。

一个下载看kindle(kankindle.com)的所有电子书的python脚本,程序会自动下载首页部分13页的所有电子书,下载到ebook目录下,程序会检测是否下载过。

 用Python如何爬取下载kindle网站电子书

#!/usr/bin/env python
# coding=utf-8
from bs4 import BeautifulSoup
import urllib2
import socket
import re
import unicodedata
import os
from urwid.text_layout import trim_line
def download(url):
    print 'starting download %s' % url
    response=urllib2.urlopen(url,timeout=30)
    html_data=response.read()
    
    soup=BeautifulSoup(html_data)
    print 'start to analayse---------------'
    
    
    title_soup=soup.find_all(class_='yanshi_xiazai')
    name_soup = soup.find_all('h2')
    tag_a = title_soup[0].a.attrs['href']
    tag_name= title_soup[0].a.contents
    link_name = name_soup[0]
    link_name = str(link_name).replace("

","").replace("

","")     #print tag_name[0]     #print link_name               filename = link_name+".mobi"     filename = "ebook/"+filename     print 'filename is :%s' % filename          print "downloading with urllib2 %s" % tag_a     if os.path.exists(filename):         print 'already donwload ,ignore'     else:         try:             f = urllib2.urlopen(tag_a,timeout=60)             data = f.read()             #print 'the data is %s'% data             with open(filename, "wb") as code:                 code.write(data)         except Exception,e:             print e def get_all_link(url):     print 'Starting get all the list'     response=urllib2.urlopen(url,timeout=30)     html_data=response.read()     #print html_data          soup=BeautifulSoup(html_data)     link_soup = soup.find_all('a')     #print link_soup         for each_link in link_soup:         if re.search('view',str(each_link)):             #print each_link             print each_link             print each_link.attrs['href']             download(each_link.attrs['href']) if __name__ == '__main__':     for page in range(1,13):         url = "http://kankindle.com/simple/page/3"+str(page)         url = url.strip()         print url         get_all_link(url)

关于用Python如何爬取下载kindle网站电子书就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。


分享名称:用Python如何爬取下载kindle网站电子书
文章链接:http://cqcxhl.cn/article/jgsepj.html

其他资讯

在线咨询
服务热线
服务热线:028-86922220
TOP