重庆分公司,新征程启航

为企业提供网站建设、域名注册、服务器等服务

selenium怎么解决python爬虫乱码问题

这篇文章主要介绍了selenium怎么解决python爬虫乱码问题,具有一定借鉴价值,需要的朋友可以参考下。希望大家阅读完这篇文章后大有收获。下面让小编带着大家一起了解一下。

创新互联建站于2013年成立,先为奎屯等服务建站,奎屯等地企业,进行企业商务咨询服务。为奎屯企业网站制作PC+手机+微官网三网同步一站式服务解决您的所有建站问题。

在用requests库对博客进行爬取时,发现乱码报错,如下图所示:

selenium怎么解决python爬虫乱码问题 

网上查找了一些方法,以为是遇到了网站加密处理。后来发现 通过F12还 是能获取网页的元素,那么有什么办法能规避乱码问题呢?答案是:用selenium.

 

效果如下

selenium怎么解决python爬虫乱码问题 

代码

# coding=utf-8
# @Auther : "鹏哥贼优秀"
# @Date : 2019/10/16
# @Software : PyCharm
 
from selenium import webdriver
 
url = 'https://blog.csdn.net/yuzipeng'
driver = webdriver.Chrome("F:\\Python成长之路\\chromedriver.exe")
driver.get(url)
urls = driver.find_elements_by_xpath('//div[@class="article-item-box csdn-tracking-statistics"]')
blogurl = ['https://blog.csdn.net/yuzipeng/article/details/' + url.get_attribute('data-articleid') for url in urls]
titles = driver.find_elements_by_xpath('//div[@class="article-item-box csdn-tracking-statistics"]/h5/a')
blogtitle = [title.text for title in titles]
myblog = {k:v for k,v in zip(blogtitle,blogurl)}
for k,v in myblog.items():
    print(k,v)
driver.close()

感谢你能够认真阅读完这篇文章,希望小编分享selenium怎么解决python爬虫乱码问题内容对大家有帮助,同时也希望大家多多支持创新互联,关注创新互联行业资讯频道,遇到问题就找创新互联,详细的解决方法等着你来学习!


当前文章:selenium怎么解决python爬虫乱码问题
文章转载:http://cqcxhl.cn/article/jgjcpc.html

其他资讯

在线咨询
服务热线
服务热线:028-86922220
TOP