重庆分公司,新征程启航
为企业提供网站建设、域名注册、服务器等服务
这篇文章主要介绍Python3中如何爬取百姓网列表并保存为json功能,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!
在鸡泽等地区,都构建了全面的区域性战略布局,加强发展的系统性、市场前瞻性、产品创新能力,以专注、极致的服务理念,为客户提供网站制作、做网站 网站设计制作按需搭建网站,公司网站建设,企业网站建设,成都品牌网站建设,网络营销推广,成都外贸网站制作,鸡泽网站建设费用合理。具体如下:
python3爬虫之爬取百姓网列表并保存为json文件。这几天一直在学习使用python3爬取数据,今天记录一下,代码很简单很容易上手。
首先需要安装python3。如果还没有安装,可参考本站python3安装与配置相关文章。
首先需要安装requests和lxml和json三个模块
需要手动创建d.json文件
代码
import requests from lxml import etree import json #构造头文件,模拟浏览器访问 url="http://xian.baixing.com/meirongfuwu/" headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36','referer':url} response=requests.get(url,headers=headers) body=response.text #获取网页内容 html=etree.HTML(body,etree.HTMLParser()) gethtml=html.xpath('//div[contains(@class,"media-body-title")]') # 存储为数组list jsondata = [] for item in gethtml: jsonone={} jsonone['title']=item.xpath('.//a[contains(@class,"ad-title")]/text()')[0] jsonone['url']=item.xpath('.//a[contains(@class,"ad-title")]/attribute::href')[0] jsonone['phone']=item.xpath('.//button[contains(@class,"contact-button")]/attribute::data-contact')[0] jsondata.append(jsonone) # 保存为json with open("./d.json",'w',encoding='utf-8') as json_file: json.dump(jsondata,json_file,ensure_ascii=False)
结果
以上是“Python3中如何爬取百姓网列表并保存为json功能”这篇文章的所有内容,感谢各位的阅读!希望分享的内容对大家有帮助,更多相关知识,欢迎关注创新互联行业资讯频道!