重庆分公司,新征程启航

为企业提供网站建设、域名注册、服务器等服务

selenium怎么解决python爬虫乱码问题-创新互联

这篇文章主要介绍了selenium怎么解决python爬虫乱码问题,具有一定借鉴价值,需要的朋友可以参考下。希望大家阅读完这篇文章后大有收获。下面让小编带着大家一起了解一下。

10年积累的网站设计、网站建设经验,可以快速应对客户对网站的新想法和需求。提供各种问题对应的解决方案。让选择我们的客户得到更好、更有力的网络服务。我虽然不认识你,你也不认识我。但先做网站后付款的网站建设流程,更有龙陵免费网站建设让你可以放心的选择与我们合作。

在用requests库对博客进行爬取时,发现乱码报错,如下图所示:

selenium怎么解决python爬虫乱码问题

网上查找了一些方法,以为是遇到了网站加密处理。后来发现 通过F12还 是能获取网页的元素,那么有什么办法能规避乱码问题呢?答案是:用selenium.

效果如下

selenium怎么解决python爬虫乱码问题

代码

# coding=utf-8
# @Auther : "鹏哥贼优秀"
# @Date : 2019/10/16
# @Software : PyCharm
 
from selenium import webdriver
 
url = 'https://blog.csdn.net/yuzipeng'
driver = webdriver.Chrome("F:\\Python成长之路\\chromedriver.exe")
driver.get(url)
urls = driver.find_elements_by_xpath('//div[@class="article-item-box csdn-tracking-statistics"]')
blogurl = ['https://blog.csdn.net/yuzipeng/article/details/' + url.get_attribute('data-articleid') for url in urls]
titles = driver.find_elements_by_xpath('//div[@class="article-item-box csdn-tracking-statistics"]/h5/a')
blogtitle = [title.text for title in titles]
myblog = {k:v for k,v in zip(blogtitle,blogurl)}
for k,v in myblog.items():
    print(k,v)
driver.close()

感谢你能够认真阅读完这篇文章,希望小编分享selenium怎么解决python爬虫乱码问题内容对大家有帮助,同时也希望大家多多支持创新互联网站建设公司,,关注创新互联行业资讯频道,遇到问题就找创新互联网站建设公司,,详细的解决方法等着你来学习!


新闻名称:selenium怎么解决python爬虫乱码问题-创新互联
URL地址:http://cqcxhl.cn/article/edcjc.html

其他资讯

在线咨询
服务热线
服务热线:028-86922220
TOP