python爬虫】python爬虫具体要学哪些内容?

2020-08-28 09:37发布

5条回答
流流流年
2楼 · 2020-08-28 10:19

1. 学习Python基础知识并实现基本的爬虫过程

一般获取数据的过程都是按照 发送请求-获得页面反馈-解析并且存储数据 这三个流程来实现的。这个过程其实就是模拟了一个人工浏览网页的过程。

Python中爬虫相关的包很多:urllib、requests、bs4、scrapy、pyspider 等,我们可以按照requests 负责连接网站,返回网页,Xpath 用于解析网页,便于抽取数据。

2.了解非结构化数据的存储

爬虫抓取的数据结构复杂 传统的结构化数据库可能并不是特别适合我们使用。我们前期推荐使用MongoDB 就可以。

3. 掌握一些常用的反爬虫技巧

使用代理IP池、抓包、验证码的OCR处理等处理方式即可以解决大部分网站的反爬虫策略。

4.了解分布式存储

分布式这个东西,听起来很恐怖,但其实就是利用多线程的原理让多个爬虫同时工作,需要你掌握 Scrapy + MongoDB + Redis 这三种工具就可以了。

敦敦宁
3楼 · 2020-08-28 10:41

 学爬虫先学什么?有人说是编程,对也不对。对的是爬虫也是以一定的编程语言为基础的,对于连编程都不是很熟悉的纯小白来说,建议你去从编程学起。

不对,是因为对于已经有些编程基础的爬虫小白来说,学习到python爬虫的编程套路,你也不一定会真正了解爬虫,灵活运用。

事实上,我们并不缺少python爬虫的各类教程,在网络上搜索,文章、视频,比比皆是。什么“十分钟教会你用python爬取网页”,“**行代码就能让你学会爬虫”,“零基础爬虫速成指南”,还有scrapy框架的爬取策略,甚至根本不需要懂代码的爬虫工具等等。

各种爬虫实战的文章、案例、全程代码等等,也如漫天星斗,数不胜数,有的爬豆瓣、知乎、大众点评,有的爬淘宝、京东、58同城,有的爬微信、博客、论坛等等。。

在基础教材足够的条件下,貌似我们分分钟就可以学会爬虫,但是,事实如此吗?

(2)我曾经的学习困惑:会模仿但不会应用

编程最好的一个学习方式就是模仿。

我也曾经基于案例或实战去学习python爬虫,比如Urllib库、模拟浏览器、正则表达式、Beautiful Soup的用法等等。

但是,我学过n个案例之后还是很困惑,我学会了爬豆瓣,但我只能爬豆瓣,我学会了爬百度贴吧,也只会爬百度贴吧,我只能会一个案例就只会爬一个网站,世上网站千千万,换了一个陌生网站,我却不知道如何抓取信息。

我只会模仿别人的程序模式,却不会融会贯通。

我知道Urllib库是用来向网页发出请求,并实现解析,我知道增加headers以及一些代理来应对反爬机制,使用Beautiful Soup、Xpath以及正则表达式来在解析文本中搜索、抓取具体信息…..但我不知道,换了另一个网页,在茫茫的文本中,我所需要的信息(名称、标签)等等,如何定位到,如何去掉多余信息,精准抓取出来?

(3)我所理解的爬虫

事实上,我犯了一个错误,当我拥有了python这一爬虫工具后,我就自以为掌握了爬虫的钥匙,无坚不摧,所向披靡,但是我忽视了所针对的对象——网页是千变万化,多种多样的,掌握了一种方法,不一定能用在其他地方。只有掌握了对象的本质与共通点,你才能融会贯通。

有人把爬虫比喻成蜘蛛,我觉得这个比喻不甚恰当,因为蜘蛛的那个网结构很简单,一眼就能望穿。但是现实中的网,是很巨大的,是很多样化的,也是结构复杂的,相比较于爬虫工具,我们所面临的解析对象很复杂,这也使得我们的工具、方法不断在升级。

曾经有个综艺节目《奔跑吧,兄弟》,经常有的一个游戏环节就是在一座大厦里,有很多楼层、房间,在很多角落里藏着包含信息或物件的盒子,让游戏者去找。

我所理解的爬虫与此类似,一个网站就相当于一座大厦,有很多相同的楼层及房间,在每个楼层或房间都在同一位置隐藏着相关信息,如果单靠人力去找,也能找到,但是很累,很慢,也不能全部找到。

而爬虫就相当于我们手里有了一个机器人,它会代替我们去向这座大厦发送访问申请,会伪装自己来应对反爬虫机制,会将整个大厦的布局降维输出,形成平面图(文本),会根据平面图精准定位每个房间的某个标记为price的盒子,并将所有房间的所有盒子里的信息抓取到。

但是这个机器人并不是完全智能的,它需要我们设置一些命令,才能完成这个工作,就比如在精准定位上,它可能需要我们对整个大厦布局了然如胸的基础上,发出定位指令,才能完成。

(4)学爬虫之前不妨学一些简单的网页结构基础

学爬虫之前不妨学一些简单的网页结构基础知识,也就是认识一下网页的基本架构是什么,甚至还要自己去动手模仿着做一个简单的网站。

磨刀不误砍柴工。我在学习很多python爬虫案例之后,仍然很迷惘,但是当我开始学习了一些网页基本架构知识,动手做完一个简单静态网站之后,豁然开朗,面对千变万化的网页,我知道它的一些共通点,我知道如何在各种资料的帮助下对于任何一个陌生网站,都可以去获取我想要的信息。

一般来说,网站由导航栏、栏目、及正文内容组成,在每个部分中一些div元素、标题a元素、属性class、段落p等等组成,万变不离其宗。

就像前边这幅图,右边的代码就表示多个div结构性区域下,用不同class属性,并结合不同文字格式,把整个网页构建起来,当我们爬取信息时,就要找到它在什么div下的什么class以及什么块样式span下的某一块里。这样我们使用起来解析函数或者正则表达式,也应心得手。

这样也就可以——既见树木又见森林,树木是每一个网页的不同点,在python爬虫时,结合不同手段实现;森林则是所有网页的内在构造,即相通之处,面对成千上万个不同网站,我们也能找到爬取的关键所在


我是大脸猫
4楼 · 2020-08-28 10:55

现在之所以有这么多的小伙伴热衷于爬虫技术,无外乎是因为爬虫可以帮我们做很多事情,比如搜索引擎、采集数据、广告过滤等,以Python为例,Python爬虫可以用于数据分析,在数据抓取方面发挥巨大的作用。

  但是这并不意味着单纯掌握一门Python语言,就对爬虫技术触类旁通,要学习的知识和规范还有喜很多,包括但不仅限于HTML 知识、HTTP/HTTPS 协议的基本知识、正则表达式、数据库知识,常用抓包工具的使用、爬虫框架的使用等。而且涉及到大规模爬虫,还需要了解分布式的概念、消息队列、常用的数据结构和算法、缓存,甚至还包括机器学习的应用,大规模的系统背后都是靠很多技术来支撑的。

  零基础如何学爬虫技术?对于迷茫的初学者来说,爬虫技术起步学习阶段,最重要的就是明确学习路径,找准学习方法,唯有如此,在良好的学习习惯督促下,后期的系统学习才会事半功倍,游刃有余。

  用Python写爬虫,首先需要会Python,把基础语法搞懂,知道怎么使用函数、类和常用的数据结构如list、dict中的常用方法就算基本入门。作为入门爬虫来说,需要了解 HTTP协议的基本原理,虽然 HTTP 规范用一本书都写不完,但深入的内容可以放以后慢慢去看,理论与实践相结合后期学习才会越来越轻松。关于爬虫学习的具体步骤,我大概罗列了以下几大部分,大家可以参考:

  网络爬虫基础知识:

  爬虫的定义

  爬虫的作用

  Http协议

  基本抓包工具(Fiddler)使用

  Python模块实现爬虫:

  urllib3、requests、lxml、bs4 模块大体作用讲解

  使用requests模块 get 方式获取静态页面数据

  使用requests模块 post 方式获取静态页面数据

  使用requests模块获取 ajax 动态页面数据

  使用requests模块模拟登录网站

  使用Tesseract进行验证码识别

  Scrapy框架与Scrapy-Redis:

  Scrapy 爬虫框架大体说明

  Scrapy spider 类

  Scrapy item 及 pipeline

  Scrapy CrawlSpider 类

  通过Scrapy-Redis 实现分布式爬虫

  借助自动化测试工具和浏览器爬取数据:

  Selenium + PhantomJS 说明及简单实例

  Selenium + PhantomJS 实现网站登录

  Selenium + PhantomJS 实现动态页面数据爬取

  爬虫项目实战:

  分布式爬虫+ Elasticsearch 打造搜索引擎


appleshve
5楼 · 2020-08-28 11:11

要具备扎实的python语法基础,这是一切的根基

对前端知识有一定的了解,起码做到能看懂

如何获取目标数据:requests模块等

如何解析目标数据:正则,xpath,jsonpath等

如何做到做到反反爬:经验总结

如何大规模批量获取数据:scrapy框架

如果想入门学习的话,可以了解u就业的课程,欢迎加群https://jq.qq.com/?_wv=1027&k=abUuMTQm,和大家一起沟通交流,帮助解决学习疑难问题。

相关问题推荐

  • 回答 5

    现在是大数据人工智能时代,数据是核心资源。但大部分企业是没有数据的,或者数据很少。要得到数据,要么花钱购买,要么使用爬虫进行爬取。所以,爬虫是大数据和人工智能的基础。这是智联招聘网站爬虫岗位最新的招聘信息。可以看出工资水平还是相当高的。在掌...

  • 回答 2

    爬虫也是python一个很重要的一个应用方向,那么爬虫需要哪些知识呢?1 要具备扎实的python语法基础,这是一切的根基2 对前端知识有一定的了解,起码做到能看懂3 如何获取目标数据:requests模块等4 如何解析目标数据:正则,xpath,jsonpath等5 如何做到做到...

  • 回答 4

    爬虫是python的一个使用方向,包含网页数据爬取和手机app数据爬取。爬下来数据之后,还有数据存储和清洗等工作要做。爬虫程序代码编写完成,还需要进行部署、启动、暂停、维护等一系列工作。现在是大数据人工智能时代,大数据的主要来源之一就是爬虫。因此,...

  • 回答 3

    小伙伴们,大家好!这次来填坑了,关于前后端分离这个话题,我必须要交作业了,因为在私信里实在被问得太频繁了。前后端分离的开发模式,这两年确实被炒得如火如荼,导致这个话题也成了面试极其爱问的一个问题,尤其是换工作、跳槽,之前不管你是做后端,还是...

  • 回答 2

    转载请注明作者和出处:http://blog.csdn.net/c406495762Github代码获取:https://github.com/Jack-Cherish/python-spiderPython版本:Python3.x运行平台:WindowsIDE:Sublimetext3 更多教程,请查看:https://cuijiahua.com/blog/spider/ 一前言**强烈建议...

  • 回答 7

    代理ip网址http://www.goubanjia.com/http://www.ip181.com/https://www.kuaidaili.com/python 环境安装requests库安装bs4库proxies设置代理服务器地址proxies = {'http':  'http://61.155.164.110:3128'}http://www.goub......

  • 回答 2

    import  requestsimport  jsonfrom bs4 import BeautifulSoupfrom    urllib.request import urlretrieve#构造函数def sk():    #请求头    header={        'user-Agent':'Mozilla/5.0 (Windows NT 10.0; W...

  • 回答 3

    针对字符串中本身含有双引号,我们可以利用单引号进行字符串的定义来解决这个问题。使用单引号作为字符串的界限就不会引起识别异常问题,保证字符串的合理定义

  • 回答 2

    要用unicode编码来替换。

  • 回答 4
    已采纳

    百科中的定义,网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。这里面关键在于自动获取,相比手动通过浏览器获取信息,自动脚本执行的效率会大大提高,现代社...

  • 回答 2

    首先要认识爬虫请求模块requests,会对网页进行简单的分析。了解爬虫提取数据的xpath、re两个方法,有助于爬虫方面的提取。最后就是爬虫框架Scrapy,可以提高爬取速度,增加效率。

  • 回答 1

    python工程师是从事以Python编程语言为核心技术的工作,包含多中岗位多个工种(有WEB开发工程师、运维工程师、测试工程师、爬虫工程师、数据分析工程师、算法工程师等等);Python爬虫工程师是一个Python所有岗位中的一个工作方向,主要负责数据采集和基本筛...

  • 回答 1

    爬虫,顾名思义,就是爬取别人数据,是当前社会必不可少的一项技术

  • 回答 1

    三种方法可以获得免费股票数据1 用tushare库 http://tushare.org2 python量化平台提供 例如聚宽https://www.joinquant.com3 利用现成的交易软件 写一个获取数据 输出的指标

  • 回答 1

    举一些例子:知乎:爬取优质答案,为你筛选出各话题下最优质的内容。淘宝、京东:抓取商品、评论及销量数据,对各种商品及用户的消费场景进行分析。安居客、链家:抓取房产买卖及租售信息,分析房价变化趋势、做不同区域的房价分析。拉勾网、智联:爬取各类职...

  • 回答 1

    欢迎关注天善智能,我们是专注于商业智能BI,人工智能AI,大数据分析与挖掘领域的垂直社区,学习,问答、求职一站式搞定!对商业智能BI、大数据分析挖掘、机器学习,python,R等数据领域感兴趣的同学加微信:tstoutiao,邀请你进入数据爱好者交流群,数据爱好...

没有解决我的问题,去提问