重庆分公司,新征程启航
为企业提供网站建设、域名注册、服务器等服务
这篇文章给大家介绍python爬虫的实践技巧有哪些呢,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。
成都创新互联公司主营招远网站建设的网络公司,主营网站建设方案,app软件定制开发,招远h5小程序开发搭建,招远网站营销推广欢迎招远等地区企业咨询数据的重要性
如今已然是大数据时代,数据正在驱动着业务开发,驱动着运营手段,有了数据的支撑可以对用户进行用户画像,个性化定制,数据可以指明方案设计和决策优化方向,所以互联网产品的开发都是离不开对数据的收集和分析,数据收集的一种是方式是通过上报API进行自身平台用户交互情况的捕获,还有一种手段是通过开发爬虫程序,爬取竞品平台的数据,后面就重点说下爬虫的应用场景和实践中会遇到的问题和反反爬虫的一些套路与技巧。
互联网平台,偏向销售公司,客户信息的爬取
客户信息的爬取可以释放销售人员寻找客户资源的时间,提高销售对市场开发的效率
爬取相关平台上的客户信息,上报到CRM管理系统,提供给销售人员进行开发
资讯爬取并应用到平台业务中
经常浏览资讯的时候会发现其实很多平台的热门资讯内容都很相似,尊重版权的平台,会标明来源出处
爬取资讯信息,应用到资讯业务中,可以减轻资讯内容编辑人员的压力,如果不需要创造自己的内容,也可全部托管给程序AI运营
竞品公司重要数据挖掘分析与应用
竞品平台重要业务数据,如:汽车X家的车型信息,X哪儿的酒店信息,返X网的商品信息,... ...
爬取竞品重要数据,对数据进行筛选和处理,然后投入业务中展示,增加这块业务数据量,减轻这块资源的运营编辑的压力
... ...
python开发爬虫(推荐)
入门也比较简单,代码短小精干,各种便于爬虫开发的模块和框架
其他语言
很多语言也都可以开发爬虫,但是均都不是很全面,根据实际技术栈和开发场景去使用,语言只是工具,思路才是通用的
做爬虫开发,需要对WEB这块有相对全面深入的理解,这样后面遇到反爬虫才能得心应手,见招拆招
了解HTML
会使用HTML标签构造页面,知道如何解析出DOM里标签,提取想要的数据内容
了解CSS
了解CSS,会解析出样式里的数据内容
了解JS
基本JS语法,能写能读懂,并了解JS库:Jquery,Vue 等,可以对使用开发者工具调试JS
了解JSON
了解JSON数据,会序列化和反序列化数据,通过解析JSON对象获取数据内容
了解HTTP/HTTPS
能够分析请求信息和响应信息,可以通过代码构造请求
会正则解析
通过正则匹配出符合规则的字符串,提取想要的数据内容
会数据库操作
通过数据库操作对爬取数据进行存储,如:MYSQL语法
会使用抓包工具
浏览器F12开发者调试工具(推荐:谷歌),Network(网络)栏目可以获取抓包信息
工具:Charles,Fiddler (可抓包HTTPS,抓包APP)
通过抓包工具可以过滤出数据接口或者地址,并且分析请求信息和响应信息,定位数据所在的字段或者HTML标签
会使用开发者工具
浏览器F12开启开发者工具
需要会使用开发者工具调试HTML,CSS,JS
会模拟请求
工具:Charles,Fiddler,Postman
通过模拟请求,分析出请求需要那些必要的信息,如:参数,COOKIE,请求头,懂得怎么模拟请求就知道编码的时候如何去构造
能定位数据
数据在API中:前端/原生APP请求数据API,API返回数据大部分是JSON格式,然后渲染展示
数据在HTML中:查看页面HTML源代码,如果源代码里有想要获取的数据,就说明在服务端已经绑定好数据在HTML里
数据在JS代码中:查看页面HTML源代码,如果获取数据不在HTML里,又没有请求数据API,可以看下数据是不是绑定到JS变量里
会部署
可以部署到Windows或者Linux服务器,使用工具进行爬虫进程监控,然后进行定时轮训爬取
反爬虫可以分为
服务端限制
和前端限制
服务端限制
:服务器端行请求限制,防止爬虫进行数据请求前端限制
:前端通过CSS和HTML标签进行干扰混淆关键数据,防止爬虫轻易获取数据
设置请求头(服务端限制
)
Referer
User-Agent
... ...
签名规则(服务端限制
)
如果是JS发起的请求,签名规则可以在JS函数中找到,然后再根据规则去构造签名
如果是APP发起的请求,可能是前端调用原生封装的方法,或者原生发起的,这个就比较无解,需要反编译APP包,也不一定能成功
延迟,或者随机延迟(服务端限制
)
如果请求被限制,建议可以试试请求延迟,具体延迟xxx毫秒/x秒,根据实际情况设定合适的时间
代理IP(服务端限制
)
如果延迟请求还是被限制,或者需要延迟很长时间才不会被限制,那就可以考虑使用代理IP,根据实际场景与限制的规律去运用,一般只要被限制的时候就切换请求的代理IP,这样就基本可以绕过限制
目前有很多收费的代理IP服务平台,有各种服务方式,具体可以搜索了解下,费用一般都在可以接受的范围
登录限制(服务端限制
)
请求带上登录用户的COOKIE信息
如果登录用户COOKIE信息会在固定周期内失效,那就要找到登录接口,模拟登录,存储COOKIE,然后再发起数据请求,COOKIE失效后重新这个步骤
验证码限制(服务端限制
)
简单验证码,对图片里的字母或者数字进行识别读取,使用识图的模块包可以实现
复杂验证码,无法通过识图识别,可以考虑使用第三方收费服务
CSS/HTML混淆干扰限制(前端限制
)
前端通过CSS或者HTML标签进行干扰混淆关键数据,破解需要抽样分析,找到规则,然后替换成正确的数据
1 . font-face,自定义字体干扰
如列子:汽车X家论帖子,猫X电影电影评分
Mercedes C+ 会员招募
破解思路:
找到ttf字体文件地址,然后下载下来,使用font解析模块包对ttf文件进行解析,可以解析出一个字体编码的集合,与dom里的文字编码进行映射,然后根据编码在ttf里的序号进行映射出中文
可以使用FontForge/FontCreator工具打开ttf文件进行分析
2 . 伪元素隐藏式
通过伪元素来显示重要数据内容
如例子:汽车X家
-
破解思路:
找到样式文件,然后根据HTML标签里class名称,匹配出CSS里对应class中content的内容进行替换
3 . backgroud-image
通过背景图片的position位置偏移量,显示数字/符号,如:价格,评分等
根据backgroud-postion值和图片数字进行映射
4 . html标签干扰
通过在重要数据的标签里加入一些有的没的隐藏内容的标签,干扰数据的获取
如例子:xxIP代理平台
2
202.1
.109. 237
7 .3
35: 80
破解思路:
过滤掉干扰混淆的HTML标签,或者只读取有效数据的HTML标签的内容
... ... (反爬虫脑洞有多大,反反爬虫拆招思路就有多淫荡)
防止投毒
有些平台发现爬虫后并不会进行限制封杀,而是给爬虫提供误导的数据,影响竞品公司进行错误的决策,这就是投毒
为了防止被投毒,需要对数据进行抽样校验
竞品数据的挖掘分析与应用对于业务增长有着举足轻重的作用,爬虫开发对于互联网产品公司的来说是个必不可少的技术
当前并没有一种可以完全避免爬虫的技术,所以添加反爬虫策略只是增加了一定的难度门槛,只要拆招技术够硬还是可以被突破翻越
反爬虫和反反爬虫是技术之间的较量,这场没有硝烟的战争永不停息。(程序员何必为难程序员)
font解析 C#和Python实现
C#
/// 需要引入PresentationCore.dll private void Test() { string path = @"F:\font.ttf"; //读取字体文件 PrivateFontCollection pfc = new PrivateFontCollection(); pfc.AddFontFile(path); //实例化字体 Font f = new Font(pfc.Families[0], 16); //设置字体 txt_mw.Font = f; //遍历输出 var families = Fonts.GetFontFamilies(path); foreach (System.Windows.Media.FontFamily family in families) { var typefaces = family.GetTypefaces(); foreach (Typeface typeface in typefaces) { GlyphTypeface glyph; typeface.TryGetGlyphTypeface(out glyph); IDictionarycharacterMap = glyph.CharacterToGlyphMap; var datas = characterMap.OrderBy(d => d.Value).ToList(); foreach (KeyValuePair kvp in datas) { var str = $"[{kvp.Value}][{kvp.Key}][{(char)kvp.Key}]\r\n"; txt_mw.AppendText(str); } } } }
python
# pip install TTFont from fontTools.ttLib import TTFont from fontTools.merge import * me = Merger() font = TTFont('./font.ttf') cmaps = font.getBestCmap() orders = font.getGlyphOrder() # font.saveXML('F:/1.xml') print cmaps print orders
关于python爬虫的实践技巧有哪些呢就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。
创新互联www.cdcxhl.cn,专业提供香港、美国云服务器,动态BGP最优骨干路由自动选择,持续稳定高效的网络助力业务部署。公司持有工信部办法的idc、isp许可证, 机房独有T级流量清洗系统配攻击溯源,准确进行流量调度,确保服务器高可用性。佳节活动现已开启,新人活动云服务器买多久送多久。