2020-05-08 09:16发布
使用python开发爬虫程序,效率很高。
下载网络数据主要使用requests库;
解析数据有三种方式:
正则表达式
xpath
bs4
上述三种方式,解析速度主次递减
为了提高爬取效率,更一般的方式是使用scrapy框架,实现多任务同步爬取
注:答案一般在网上都能够找到。
对if__name__=='main'的理解陈述
2.python是如何进行内存管理的?
3.请写出一段Python代码实现删除一个list里面的重复元素
4.Python里面如何拷贝一个对象?(赋值,浅拷贝,深拷贝的区别)
5.介绍一下except的用法和作用?
6.Python中__new__与__init__方法的区别
7.常用的网络数据爬取方法
8.遇到过得反爬虫策略以及解决方法
9.urllib和urllib2的区别
10.设计一个基于session登录验证的爬虫方案
11.列举网络爬虫所用到的网络数据包,解析包
12.熟悉的爬虫框架
13.Python在服务器的部署流程,以及环境隔离
14.Django和Flask的相同点与不同点,如何进行选择?
15.写一个Python中的单例模式
16.Linux部署服务脚本命令(包括启动和停止的shell脚本)
17.你用过多线程和异步嘛?除此之外你还用过什么方法来提高爬虫效率?
18.POST与GET的区别
1)对if__name__=='main'的理解陈述
__name__是当前模块名,当模块被直接运行时模块名为__main__,也就是当前的模块,当模块被导入时,模块名就不是__main__,即代码将不会执行。
2)python是如何进行内存管理的?
a、对象的引用计数机制
python内部使用引用计数,来保持追踪内存中的对象,Python内部记录了对象有多少个引用,即引用计数,当对象被创建时就创建了一个引用计数,当对象不再需要时,这个对象的引用计数为0时,它被垃圾回收。
b、垃圾回收
1>当一个对象的引用计数归零时,它将被垃圾收集机制处理掉。
2>当两个对象a和b相互引用时,del语句可以减少a和b的引用计数,并销毁用于引用底层对象的名称。然而由于每个对象都包含一个对其他对象的应用,因此引用计数不会归零,对象也不会销毁。(从而导致内存泄露)。为解决这一问题,解释器会定期执行一个循环检测器,搜索不可访问对象的循环并删除它们。
c、内存池机制
Python提供了对内存的垃圾收集机制,但是它将不用的内存放到内存池而不是返回给操作系统。
1>Pymalloc机制。为了加速Python的执行效率,Python引入了一个内存池机制,用于管理对小块内存的申请和释放。
2>Python中所有小于256个字节的对象都使用pymalloc实现的分配器,而大的对象则使用系统的malloc。
3>对于Python对象,如整数,浮点数和List,都有其独立的私有内存池,对象间不共享他们的内存池。也就是说如果你分配又释放了大量的整数,用于缓存这些整数的内存就不能再分配给浮点数。
3)请写出一段Python代码实现删除一个list里面的重复元素
#1.使用set函数
list=[1,3,4,5,51,2,3]
set(list)
#2.使用字典函数,
>>>a=[1,2,4,2,4,5,6,5,7,8,9,0]
>>>b={}
>>>b=b.fromkeys(a)
>>>c=list(b.keys())
>>>c
4)Python里面如何拷贝一个对象?(赋值,浅拷贝,深拷贝的区别)
赋值(=),就是创建了对象的一个新的引用,修改其中任意一个变量都会影响到另一个。
浅拷贝:创建一个新的对象,但它包含的是对原始对象中包含项的引用(如果用引用的方式修改其中一个对象,另外一个也会修改改变){1,完全切片方法;2,工厂函数,如list();3,copy模块的copy()函数}
深拷贝:创建一个新的对象,并且递归的复制它所包含的对象(修改其中一个,另外一个不会改变){copy模块的deep.deepcopy()函数}
5)介绍一下except的用法和作用?
try…except…except…else…
执行try下的语句,如果引发异常,则执行过程会跳到except语句。对每个except分支顺序尝试执行,如果引发的异常与except中的异常组匹配,执行相应的语句。如果所有的except都不匹配,则异常会传递到下一个调用本代码的最高层try代码中。
try下的语句正常执行,则执行else块代码。如果发生异常,就不会执行如果存在finally语句,最后总是会执行。
6)Python中__new__与__init__方法的区别
__new__:它是创建对象时调用,会返回当前对象的一个实例,可以用__new__来实现单例
__init__:它是创建对象后调用,对当前对象的一些实例初始化,无返回值
7)常用的网络数据爬取方法
BeautifulSoup
Lxml
8)遇到过得反爬虫策略以及解决方法
1.通过headers反爬虫
2.基于用户行为的发爬虫:(同一IP短时间内访问的频率)
3.动态网页反爬虫(通过ajax请求数据,或者通过JavaScript生成)
4.对部分数据进行加密处理的(数据是乱码)
解决方法:
对于基本网页的抓取可以自定义headers,添加headers的数据
使用多个代理ip进行抓取或者设置抓取的频率降低一些,动态网页的可以使用selenium+phantomjs进行抓取
对部分数据进行加密的,可以使用selenium进行截图,使用python自带的pytesseract库进行识别,但是比较慢最直接的方法是找到加密的方法进行逆向推理。
9)urllib和urllib2的区别
urllib和urllib2都是接受URL请求的相关模块,但是urllib2可以接受一个Request类的实例来设置URL请求的headers,urllib仅可以接受URL。urllib不可以伪装你的User-Agent字符串。
urllib提供urlencode()方法用来GET查询字符串的产生,而urllib2没有。这是为何urllib常和urllib2一起使用的原因。
10)设计一个基于session登录验证的爬虫方案
11)列举网络爬虫所用到的网络数据包,解析包
网络数据包urllib、urllib2、requests
解析包re、xpath、beautifulsoup、lxml
12)熟悉的爬虫框架
Scrapy框架根据自己的实际情况回答
13)Python在服务器的部署流程,以及环境隔离
14)Django和Flask的相同点与不同点,如何进行选择?
15)写一个Python中的单例模式
classSingleton(object):
_instance=None
def__new__(cls,*args,**kw):
ifnotcls._instance:
cls._instance=super(Singleton,cls).__new__(cls,*args,**kw)
returncls._instance
classMyClass(Singleton):
a=1
one=MyClass()
two=MyClass()
id(one)=id(two)
>>>True
16)Linux部署服务脚本命令(包括启动和停止的shell脚本)
17)你用过多线程和异步嘛?除此之外你还用过什么方法来提高爬虫效率?
scrapy-redis分布式爬取
对于定向爬取可以用正则取代xpath
18)POST与GET的区别
GET数据传输安全性低,POST传输数据安全性高,因为参数不会被保存在浏览器历史或web服务器日志中;
在做数据查询时,建议用GET方式;而在做数据添加、修改或删除时,建议用POST方式;
GET在url中传递数据,数据信息放在请求头中;而POST请求信息放在请求体中进行传递数据;
GET传输数据的数据量较小,只能在请求头中发送数据,而POST传输数据信息比较大,一般不受限制;
在执行效率来说,GET比POST好
19)什么是lambda函数?它有什么好处?
lambda表达式,通常是在需要一个函数,但是又不想费神去命名一个函数的场合下使用,也就是指匿名函数
lambda函数:首要用途是指点短小的回调函数
lambda[arguments]:expression
>>>a=lambdax,y:x+y
>>>a(3,11)
本文标题:Python爬虫工程师面试问题总结
本文地址:http://www.cppcns.com/jiaoben/python/223323.html
在python中列表(list)是使用最频繁的数据类型,在其他语言中通常叫做数组。列表由一系列按特定顺序排列的元素组成。你可以创建包含字母表中所有字母、数字0~9或所有家庭成员姓名的列表;也可以将任何东西加入列表中,其中的元素之间可以没有任何关系。...
简单来讲,爬虫就是一个探测机器,它的基本操作就是模拟人的行为去各个网站溜达,点点按钮,查查数据,或者把看到的信息背回来。就像一只虫子在一幢楼里不知疲倦地爬来爬去。...
因为Python可以做数据分析 数据挖掘,数据挖掘的话简单来说就是爬虫工程师
1)学习爬虫,可以私人订制一个搜索引擎,并且可以对搜索引擎的数据采集工作原理进行更深层次地理解。有的朋友希望能够深层次地了解搜索引擎的爬虫工作原理,或者希望自己能够开发出一款私人搜索引擎,那么此时,学习爬虫是非常有必要的。简单来说,我们学会了...
大部分数据都是可以爬的,不过有些网站对数据的加密做的非常好,在解析的过程中要消耗很长的时间。
抓取数据,进行统计和分析
在成都找网络爬虫工作也是可以的,自己可以先到招聘软件上看看当地招聘的需求量以及薪资待遇水平怎么样,要是能达到自己的预期效果可以在当地工作,要不可以到北上广深找工作,就业机会能更多些。...
两种方式,一种是MySQL自带的命令行窗口,一种是图形用户管理工具,前者类似于一个cmd窗口,日常管理维护数据库不是很方便,后者就是一个图形用户管理软件,种类繁多,使用起来也相对容易一些...
不可以所有编程最起码都得学函数,分支,循环之后才可以编写代码
一台主机 多台从机
一、分布式爬虫架构在了解分布式爬虫架构之前,首先回顾一下Scrapy的架构,如下图所示。Scrapy单机爬虫中有一个本地爬取队列Queue,这个队列是利用deque模块实现的。如果新的Request生成就会放到队列里面,随后Request被Scheduler调度。之后,Request交给Down...
代理ip网址http://www.goubanjia.com/http://www.ip181.com/https://www.kuaidaili.com/python 环境安装requests库安装bs4库proxies设置代理服务器地址proxies = {'http': 'http://61.155.164.110:3128'}http://www.goub......
import requestsimport jsonfrom bs4 import BeautifulSoupfrom urllib.request import urlretrieve#构造函数def sk(): #请求头 header={ 'user-Agent':'Mozilla/5.0 (Windows NT 10.0; W...
针对字符串中本身含有双引号,我们可以利用单引号进行字符串的定义来解决这个问题。使用单引号作为字符串的界限就不会引起识别异常问题,保证字符串的合理定义
要用unicode编码来替换。
最多设置5个标签!
使用python开发爬虫程序,效率很高。
下载网络数据主要使用requests库;
解析数据有三种方式:
正则表达式
xpath
bs4
上述三种方式,解析速度主次递减
为了提高爬取效率,更一般的方式是使用scrapy框架,实现多任务同步爬取
注:答案一般在网上都能够找到。
对if__name__=='main'的理解陈述
2.python是如何进行内存管理的?
3.请写出一段Python代码实现删除一个list里面的重复元素
4.Python里面如何拷贝一个对象?(赋值,浅拷贝,深拷贝的区别)
5.介绍一下except的用法和作用?
6.Python中__new__与__init__方法的区别
7.常用的网络数据爬取方法
8.遇到过得反爬虫策略以及解决方法
9.urllib和urllib2的区别
10.设计一个基于session登录验证的爬虫方案
11.列举网络爬虫所用到的网络数据包,解析包
12.熟悉的爬虫框架
13.Python在服务器的部署流程,以及环境隔离
14.Django和Flask的相同点与不同点,如何进行选择?
15.写一个Python中的单例模式
16.Linux部署服务脚本命令(包括启动和停止的shell脚本)
17.你用过多线程和异步嘛?除此之外你还用过什么方法来提高爬虫效率?
18.POST与GET的区别
1)对if__name__=='main'的理解陈述
__name__是当前模块名,当模块被直接运行时模块名为__main__,也就是当前的模块,当模块被导入时,模块名就不是__main__,即代码将不会执行。
2)python是如何进行内存管理的?
a、对象的引用计数机制
python内部使用引用计数,来保持追踪内存中的对象,Python内部记录了对象有多少个引用,即引用计数,当对象被创建时就创建了一个引用计数,当对象不再需要时,这个对象的引用计数为0时,它被垃圾回收。
b、垃圾回收
1>当一个对象的引用计数归零时,它将被垃圾收集机制处理掉。
2>当两个对象a和b相互引用时,del语句可以减少a和b的引用计数,并销毁用于引用底层对象的名称。然而由于每个对象都包含一个对其他对象的应用,因此引用计数不会归零,对象也不会销毁。(从而导致内存泄露)。为解决这一问题,解释器会定期执行一个循环检测器,搜索不可访问对象的循环并删除它们。
c、内存池机制
Python提供了对内存的垃圾收集机制,但是它将不用的内存放到内存池而不是返回给操作系统。
1>Pymalloc机制。为了加速Python的执行效率,Python引入了一个内存池机制,用于管理对小块内存的申请和释放。
2>Python中所有小于256个字节的对象都使用pymalloc实现的分配器,而大的对象则使用系统的malloc。
3>对于Python对象,如整数,浮点数和List,都有其独立的私有内存池,对象间不共享他们的内存池。也就是说如果你分配又释放了大量的整数,用于缓存这些整数的内存就不能再分配给浮点数。
3)请写出一段Python代码实现删除一个list里面的重复元素
#1.使用set函数
list=[1,3,4,5,51,2,3]
set(list)
#2.使用字典函数,
>>>a=[1,2,4,2,4,5,6,5,7,8,9,0]
>>>b={}
>>>b=b.fromkeys(a)
>>>c=list(b.keys())
>>>c
4)Python里面如何拷贝一个对象?(赋值,浅拷贝,深拷贝的区别)
赋值(=),就是创建了对象的一个新的引用,修改其中任意一个变量都会影响到另一个。
浅拷贝:创建一个新的对象,但它包含的是对原始对象中包含项的引用(如果用引用的方式修改其中一个对象,另外一个也会修改改变){1,完全切片方法;2,工厂函数,如list();3,copy模块的copy()函数}
深拷贝:创建一个新的对象,并且递归的复制它所包含的对象(修改其中一个,另外一个不会改变){copy模块的deep.deepcopy()函数}
5)介绍一下except的用法和作用?
try…except…except…else…
执行try下的语句,如果引发异常,则执行过程会跳到except语句。对每个except分支顺序尝试执行,如果引发的异常与except中的异常组匹配,执行相应的语句。如果所有的except都不匹配,则异常会传递到下一个调用本代码的最高层try代码中。
try下的语句正常执行,则执行else块代码。如果发生异常,就不会执行如果存在finally语句,最后总是会执行。
6)Python中__new__与__init__方法的区别
__new__:它是创建对象时调用,会返回当前对象的一个实例,可以用__new__来实现单例
__init__:它是创建对象后调用,对当前对象的一些实例初始化,无返回值
7)常用的网络数据爬取方法
正则表达式
BeautifulSoup
Lxml
8)遇到过得反爬虫策略以及解决方法
1.通过headers反爬虫
2.基于用户行为的发爬虫:(同一IP短时间内访问的频率)
3.动态网页反爬虫(通过ajax请求数据,或者通过JavaScript生成)
4.对部分数据进行加密处理的(数据是乱码)
解决方法:
对于基本网页的抓取可以自定义headers,添加headers的数据
使用多个代理ip进行抓取或者设置抓取的频率降低一些,动态网页的可以使用selenium+phantomjs进行抓取
对部分数据进行加密的,可以使用selenium进行截图,使用python自带的pytesseract库进行识别,但是比较慢最直接的方法是找到加密的方法进行逆向推理。
9)urllib和urllib2的区别
urllib和urllib2都是接受URL请求的相关模块,但是urllib2可以接受一个Request类的实例来设置URL请求的headers,urllib仅可以接受URL。urllib不可以伪装你的User-Agent字符串。
urllib提供urlencode()方法用来GET查询字符串的产生,而urllib2没有。这是为何urllib常和urllib2一起使用的原因。
10)设计一个基于session登录验证的爬虫方案
11)列举网络爬虫所用到的网络数据包,解析包
网络数据包urllib、urllib2、requests
解析包re、xpath、beautifulsoup、lxml
12)熟悉的爬虫框架
Scrapy框架根据自己的实际情况回答
13)Python在服务器的部署流程,以及环境隔离
14)Django和Flask的相同点与不同点,如何进行选择?
15)写一个Python中的单例模式
classSingleton(object):
_instance=None
def__new__(cls,*args,**kw):
ifnotcls._instance:
cls._instance=super(Singleton,cls).__new__(cls,*args,**kw)
returncls._instance
classMyClass(Singleton):
a=1
one=MyClass()
two=MyClass()
id(one)=id(two)
>>>True
16)Linux部署服务脚本命令(包括启动和停止的shell脚本)
17)你用过多线程和异步嘛?除此之外你还用过什么方法来提高爬虫效率?
scrapy-redis分布式爬取
对于定向爬取可以用正则取代xpath
18)POST与GET的区别
GET数据传输安全性低,POST传输数据安全性高,因为参数不会被保存在浏览器历史或web服务器日志中;
在做数据查询时,建议用GET方式;而在做数据添加、修改或删除时,建议用POST方式;
GET在url中传递数据,数据信息放在请求头中;而POST请求信息放在请求体中进行传递数据;
GET传输数据的数据量较小,只能在请求头中发送数据,而POST传输数据信息比较大,一般不受限制;
在执行效率来说,GET比POST好
19)什么是lambda函数?它有什么好处?
lambda表达式,通常是在需要一个函数,但是又不想费神去命名一个函数的场合下使用,也就是指匿名函数
lambda函数:首要用途是指点短小的回调函数
lambda[arguments]:expression
>>>a=lambdax,y:x+y
>>>a(3,11)
本文标题:Python爬虫工程师面试问题总结
本文地址:http://www.cppcns.com/jiaoben/python/223323.html
相关问题推荐
在python中列表(list)是使用最频繁的数据类型,在其他语言中通常叫做数组。列表由一系列按特定顺序排列的元素组成。你可以创建包含字母表中所有字母、数字0~9或所有家庭成员姓名的列表;也可以将任何东西加入列表中,其中的元素之间可以没有任何关系。...
简单来讲,爬虫就是一个探测机器,它的基本操作就是模拟人的行为去各个网站溜达,点点按钮,查查数据,或者把看到的信息背回来。就像一只虫子在一幢楼里不知疲倦地爬来爬去。...
因为Python可以做数据分析 数据挖掘,数据挖掘的话简单来说就是爬虫工程师
1)学习爬虫,可以私人订制一个搜索引擎,并且可以对搜索引擎的数据采集工作原理进行更深层次地理解。有的朋友希望能够深层次地了解搜索引擎的爬虫工作原理,或者希望自己能够开发出一款私人搜索引擎,那么此时,学习爬虫是非常有必要的。简单来说,我们学会了...
大部分数据都是可以爬的,不过有些网站对数据的加密做的非常好,在解析的过程中要消耗很长的时间。
抓取数据,进行统计和分析
在成都找网络爬虫工作也是可以的,自己可以先到招聘软件上看看当地招聘的需求量以及薪资待遇水平怎么样,要是能达到自己的预期效果可以在当地工作,要不可以到北上广深找工作,就业机会能更多些。...
两种方式,一种是MySQL自带的命令行窗口,一种是图形用户管理工具,前者类似于一个cmd窗口,日常管理维护数据库不是很方便,后者就是一个图形用户管理软件,种类繁多,使用起来也相对容易一些...
不可以所有编程最起码都得学函数,分支,循环之后才可以编写代码
一台主机 多台从机
一、分布式爬虫架构在了解分布式爬虫架构之前,首先回顾一下Scrapy的架构,如下图所示。Scrapy单机爬虫中有一个本地爬取队列Queue,这个队列是利用deque模块实现的。如果新的Request生成就会放到队列里面,随后Request被Scheduler调度。之后,Request交给Down...
代理ip网址http://www.goubanjia.com/http://www.ip181.com/https://www.kuaidaili.com/python 环境安装requests库安装bs4库proxies设置代理服务器地址proxies = {'http': 'http://61.155.164.110:3128'}http://www.goub......
import requestsimport jsonfrom bs4 import BeautifulSoupfrom urllib.request import urlretrieve#构造函数def sk(): #请求头 header={ 'user-Agent':'Mozilla/5.0 (Windows NT 10.0; W...
针对字符串中本身含有双引号,我们可以利用单引号进行字符串的定义来解决这个问题。使用单引号作为字符串的界限就不会引起识别异常问题,保证字符串的合理定义
要用unicode编码来替换。