python爬虫】Python爬虫有什么库

2020-06-04 12:11发布

2条回答
小猪仔
1楼 · 2020-06-04 14:44.采纳回答

请求库:

1. requests 这个库是爬虫最常用的一个库

2. Selenium Selenium 是一个自动化测试工具,利用它我们可以驱动浏览器执行特定的动作,如点击、下拉等操作 对于一些用JS做谊染的页面来说,这种抓取方式是非常有效的。

3.ChomeDrive 安装了这个库,才能驱动Chrome浏览器完成相应的操作

4.GeckoDriver 使用W3C WebDriver兼容客户端与基于Gecko的浏览器进行交互的代理。

5.PhantomJS PhantomJS 是一个无界面 、可脚本编程的 WebKit 浏览器引擎,它原生支持多种Web标准:Dom操作,css选择器,json,Canvas以及SVG。

6.aiohttp 之前接收requests库是一个阻塞式HTTP请求库,当我们发送一个请求后。程序会一直等待服务器响应,直到服务器响应后,程序才会最下一步处理。其实,这个过程比较耗时间。如果程序可以在等待的过程中做一些其他的事情,如进行请求的调度,响应的处理等,那么爬虫的效率就会比之前的那种方式有很大的提升。 而aiohttp就是这样一个提供异步web服务的库。使用说这个库用起来还是相当方便的。

解析库:

1.lxml lxml是python的一个解析库,这个库支持HTML和xml的解析,支持XPath的解析方式,而且效率也是非常高的,深受广大程序员的热爱

2.Beautiful Soup Beautiful Soup也是python里一个HTML或XMl的解析库,它可以很方便的懂网页中提取数据,拥有强大的API和多种解析方式。

3.pyquery 同样是一个强大的网页解析工具,它提供了和 jQuery 类似的语法来解析HTML 文梢,


数据库:

1.mysql 数据库

2.MongoDB Mo goDB 是由 ++语言编写的非关系型数据库, 是一个基于分布式文件存储的开源数据库系统内容存储形式类似 JSON 对象,它的字段值可以包含其他文档、数组及文档数组,非常灵活

3.Redis 是一个基于 存的高效的非关系型数据库,


存储库:

1.PyMySOL

2.PyMongo

3.redis-py

4.RedisDump


web库:

1.Flask 是一个轻量级的Web服务程序,它简单,易用,灵活

2.Tornado 是一个支持异步的Web框架,通过使用非阻塞I/O流,可以支持成千上万的开放式连接。


给你三个亿
2楼 · 2020-06-04 15:47


请求库:实现 HTTP 请求操作

  • urllib:一系列用于操作URL的功能。

  • requests:基于 urllib 编写的,阻塞式 HTTP 请求库,发出一个请求,一直等待服务器响应后,程序才能进行下一步处理。

  • selenium:自动化测试工具。一个调用浏览器的 driver,通过这个库你可以直接调用浏览器完成某些操作,比如输入验证码。

  • aiohttp:基于 asyncio 实现的 HTTP 框架。异步操作借助于 async/await 关键字,使用异步库进行数据抓取,可以大大提高效率。

解析库:从网页中提取信息

  • beautifulsoup:html 和 XML 的解析,从网页中提取信息,同时拥有强大的API和多样解析方式。

  • pyquery:jQuery 的 Python 实现,能够以 jQuery 的语法来操作解析 HTML 文档,易用性和解析速度都很好。

  • lxml:支持HTML和XML的解析,支持XPath解析方式,而且解析效率非常高。

  • tesserocr:一个 OCR 库,在遇到验证码(图形验证码为主)的时候,可直接用 OCR 进行识别。

存储库:Python 与数据库交互

  • pymysql:一个纯 Python 实现的 MySQL 客户端操作库。

  • pymongo:一个用于直接连接 mongodb 数据库进行查询操作的库。

  • redisdump:一个用于 redis 数据导入/导出的工具。基于 ruby 实现的,因此使用它,需要先安装 Ruby。

爬虫框架

  • Scrapy:很强大的爬虫框架,可以满足简单的页面爬取(比如可以明确获知url pattern的情况)。用这个框架可以轻松爬下来如亚马逊商品信息之类的数据。但是对于稍微复杂一点的页面,如 weibo 的页面信息,这个框架就满足不了需求了。

  • Crawley:高速爬取对应网站的内容,支持关系和非关系数据库,数据可以导出为 JSON、XML 等。

  • Portia:可视化爬取网页内容。

  • newspaper:提取新闻、文章以及内容分析。

  • python-goose:java 写的文章提取工具。

  • cola:一个分布式爬虫框架。项目整体设计有点糟,模块间耦合度较高。

Web 框架库

  • flask:轻量级的 web 服务程序,简单,易用,灵活,主要来做一些 API 服务。做代理时可能会用到。

  • django:一个 web 服务器框架,提供了一个完整的后台管理,引擎、接口等,使用它可做一个完整网站。


相关问题推荐

  • 回答 5

    现在是大数据人工智能时代,数据是核心资源。但大部分企业是没有数据的,或者数据很少。要得到数据,要么花钱购买,要么使用爬虫进行爬取。所以,爬虫是大数据和人工智能的基础。这是智联招聘网站爬虫岗位最新的招聘信息。可以看出工资水平还是相当高的。在掌...

  • 回答 2

    爬虫也是python一个很重要的一个应用方向,那么爬虫需要哪些知识呢?1 要具备扎实的python语法基础,这是一切的根基2 对前端知识有一定的了解,起码做到能看懂3 如何获取目标数据:requests模块等4 如何解析目标数据:正则,xpath,jsonpath等5 如何做到做到...

  • 回答 4

    爬虫是python的一个使用方向,包含网页数据爬取和手机app数据爬取。爬下来数据之后,还有数据存储和清洗等工作要做。爬虫程序代码编写完成,还需要进行部署、启动、暂停、维护等一系列工作。现在是大数据人工智能时代,大数据的主要来源之一就是爬虫。因此,...

  • 回答 3

    小伙伴们,大家好!这次来填坑了,关于前后端分离这个话题,我必须要交作业了,因为在私信里实在被问得太频繁了。前后端分离的开发模式,这两年确实被炒得如火如荼,导致这个话题也成了面试极其爱问的一个问题,尤其是换工作、跳槽,之前不管你是做后端,还是...

  • 回答 2

    转载请注明作者和出处:http://blog.csdn.net/c406495762Github代码获取:https://github.com/Jack-Cherish/python-spiderPython版本:Python3.x运行平台:WindowsIDE:Sublimetext3 更多教程,请查看:https://cuijiahua.com/blog/spider/ 一前言**强烈建议...

  • 回答 7

    代理ip网址http://www.goubanjia.com/http://www.ip181.com/https://www.kuaidaili.com/python 环境安装requests库安装bs4库proxies设置代理服务器地址proxies = {'http':  'http://61.155.164.110:3128'}http://www.goub......

  • 回答 2

    import  requestsimport  jsonfrom bs4 import BeautifulSoupfrom    urllib.request import urlretrieve#构造函数def sk():    #请求头    header={        'user-Agent':'Mozilla/5.0 (Windows NT 10.0; W...

  • 回答 3

    针对字符串中本身含有双引号,我们可以利用单引号进行字符串的定义来解决这个问题。使用单引号作为字符串的界限就不会引起识别异常问题,保证字符串的合理定义

  • 回答 2

    要用unicode编码来替换。

  • 回答 4
    已采纳

    百科中的定义,网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。这里面关键在于自动获取,相比手动通过浏览器获取信息,自动脚本执行的效率会大大提高,现代社...

  • 回答 2

    首先要认识爬虫请求模块requests,会对网页进行简单的分析。了解爬虫提取数据的xpath、re两个方法,有助于爬虫方面的提取。最后就是爬虫框架Scrapy,可以提高爬取速度,增加效率。

  • 回答 1

    python工程师是从事以Python编程语言为核心技术的工作,包含多中岗位多个工种(有WEB开发工程师、运维工程师、测试工程师、爬虫工程师、数据分析工程师、算法工程师等等);Python爬虫工程师是一个Python所有岗位中的一个工作方向,主要负责数据采集和基本筛...

  • 回答 1

    爬虫,顾名思义,就是爬取别人数据,是当前社会必不可少的一项技术

  • 回答 1

    三种方法可以获得免费股票数据1 用tushare库 http://tushare.org2 python量化平台提供 例如聚宽https://www.joinquant.com3 利用现成的交易软件 写一个获取数据 输出的指标

  • 回答 1

    举一些例子:知乎:爬取优质答案,为你筛选出各话题下最优质的内容。淘宝、京东:抓取商品、评论及销量数据,对各种商品及用户的消费场景进行分析。安居客、链家:抓取房产买卖及租售信息,分析房价变化趋势、做不同区域的房价分析。拉勾网、智联:爬取各类职...

  • 回答 1

    欢迎关注天善智能,我们是专注于商业智能BI,人工智能AI,大数据分析与挖掘领域的垂直社区,学习,问答、求职一站式搞定!对商业智能BI、大数据分析挖掘、机器学习,python,R等数据领域感兴趣的同学加微信:tstoutiao,邀请你进入数据爱好者交流群,数据爱好...

没有解决我的问题,去提问