网络爬虫都学什么?_第2页回答

2020-07-17 15:45发布

16条回答
风中浪子
2楼 · 2021-08-11 15:36

1、基础的前端网页知识,这个是学习网络爬虫的基础,我们爬取的大部分网络数据都是存储在网页中,如果连基本的网页都看不懂,就无从爬取数据,不要求你对网页知识多么的熟悉、精通,最起码的html,css,js要能看懂,如果这些还不会的话,建议花个两三天学习一下

2、要会抓包分析,使用开发者工具(按F12就行),有些网页数据是静态加载的,可以直接请求、解析页面,而有些页面数据是动态加载的,直接请求是获取不到的,这时就需要我们进行抓包分析,获取真实的数据文件,像json,xml等,然后才能解析,提取出我们需要的数据,如果还不熟悉开发者工具,建议学习一下

3、再着就是编程爬取网络数据了,这个根据自己需求选择一门编程语言就行,java,python等都可以,如何没有任何编程基础的话,建议选择python,好学易懂、语法简单,非常适合初学者,有许多现成的爬虫包可直接利用,像urllib,requests,bs4,lxml等,使用起来非常方便,后期熟悉后,你也可以使用scrapy爬虫框架,效率会更高

4、最后,就是存储爬取的数据了,数据量小的话,可以直接利用excel,csv等文件存储,要是数据量比较大的话,你还需要利用数据库进行存储,像mysql,mongodb等,有时间的话,建议可以学习一下

嘿呦嘿呦拔萝卜
3楼 · 2021-08-12 13:49

首先,自己初始做爬虫程序的时候,是用正则表达式匹配所要采集的信息内容,然后慢慢掌握Httpclient + Jsoup,这个方面你要多加了解,有专门的文档,所以,多加学习,多加运用!可使用爬虫工具:八爪鱼、神箭手云爬虫、狂人采集器等,用起来各有千秋。推荐使用操作简单、功能强大的八爪鱼采集器:行业内知名度很高的免费网页采集器,拥有超过六十万的国内外政府机构和知名企业用户

zgzbs
4楼 · 2021-08-12 14:11

简单来讲,爬虫就是一个探测机器,它的基本操作就是模拟人的行为去各个网站溜达,点点按钮,查查数据,或者把看到的信息背回来。就像一只虫子在一幢楼里不知疲倦地爬来爬去。

夏虫语冰
5楼 · 2021-08-13 15:22

计算机网络、编程基础、前端开发、后端开发、App 开发与逆向、网络安全、数据库、运维、机器学习、数据分析等各个方向的内容。

梵梵
6楼 · 2021-08-13 16:25

零基础想要入门Python爬虫,主要需要学习爬虫基础、HTTP和HTTPS、requests模块、cookie请求、数据提取方法值json等相关知识点。只有在打牢理论知识的基础上,理解爬虫原理,学会使用 Python进行网络请求,才能做到真正掌握爬取网页数据的方法。

你可以简单地想象:每个爬虫都是你的「分身」。就像孙悟空拔了一撮汗毛,吹出一堆猴子一样。

你每天使用的百度,其实就是利用了这种爬虫技术:每天放出无数爬虫到各个网站,把他们的信息抓回来,然后化好淡妆排着小队等你来检索。
抢票软件,就相当于撒出去无数个分身,每一个分身都帮助你不断刷新 12306 网站的火车余票。一旦发现有票,就马上拍下来,然后对你喊:土豪快来付款。
灰机带翅膀
8楼 · 2021-08-15 13:44

在爬⾍实现上,除了scrapy框架之外,python有许多与此相关的库可供使⽤。其中,在数据抓取⽅⾯包括: urllib(urllib3)、requests、mechanize、selenium、splinter;

其中,urllib(urllib3)、requests、mechanize⽤来获取URL对应的原始响应内容;⽽selenium、splinter通过加载浏览器驱动,获取浏览器渲染之后的响应内容,模拟程度更⾼。

考虑效率、当然能使⽤urllib(urllib3)、requests、mechanize等解决的尽量不⽤selenium、splinter,因为后者因需要加载浏览器⽽导致效率较低。

对于数据抓取,涉及的过程主要是模拟浏览器向服务器发送构造好的http请求,常⻅类型有:get/post。


爬虫技术之数据解析

在数据解析⽅⾯,相应的库包括:lxml、beautifulsoup4、re、pyquery。

对于数据解析,主要是从响应页面里提取所需的数据,常⽤⽅法有:xpath路径表达式、CSS选择器、正则表达式等。

其中,xpath路径表达式、CSS选择器主要⽤于提取结构化的数据。⽽正则表达式主要⽤于提取非结构化的数据。

其他技术:

image.png


帅帅马
9楼 · 2021-08-15 19:41

简单来讲,爬虫就是一个探测机器,它的基本操作就是模拟人的行为去各个网站溜达,点点按钮,查查数据,或者把看到的信息背回来。就像一只虫子在一幢楼里不知疲倦地爬来爬去。

相关问题推荐

  • 回答 3

    换行。比如,print hello\nworld效果就是helloworld\n就是一个换行符。\是转义的意思,'\n'是换行,'\t'是tab,'\\'是,\ 是在编写程序中句子太长百,人为换行后加上\但print出来是一整行。...

  • 回答 42

    十种常见排序算法一般分为以下几种:(1)非线性时间比较类排序:a. 交换类排序(快速排序、冒泡排序)b. 插入类排序(简单插入排序、希尔排序)c. 选择类排序(简单选择排序、堆排序)d. 归并排序(二路归并排序、多路归并排序)(2)线性时间非比较类排序:...

  • 回答 70
    已采纳

    前景很好,中国正在产业升级,工业机器人和人工智能方面都会是强烈的热点,而且正好是在3~5年以后的时间。难度,肯定高,要求你有创新的思维能力,高数中的微积分、数列等等必须得非常好,软件编程(基础的应用最广泛的语言:C/C++)必须得很好,微电子(数字电...

  • 回答 28

    迭代器与生成器的区别:(1)生成器:生成器本质上就是一个函数,它记住了上一次返回时在函数体中的位置。对生成器函数的第二次(或第n次)调用,跳转到函数上一次挂起的位置。而且记录了程序执行的上下文。生成器不仅记住了它的数据状态,生成器还记住了程序...

  • 回答 9

    python中title( )属于python中字符串函数,返回’标题化‘的字符串,就是单词的开头为大写,其余为小写

  • 回答 6

    第一种解释:代码中的cnt是count的简称,一种电脑计算机内部的数学函数的名字,在Excel办公软件中计算参数列表中的数字项的个数;在数据库( sq| server或者access )中可以用来统计符合条件的数据条数。函数COUNT在计数时,将把数值型的数字计算进去;但是...

  • 回答 1

    head是方法,所以需要取小括号,即dataset.head()显示的则是前5行。data[:, :-1]和data[:, -1]。另外,如果想通过位置取数据,请使用iloc,即dataset.iloc[:, :-1]和dataset.iloc[:, -1],前者表示的是取所有行,但不包括最后一列的数据,结果是个DataFrame。...

  • Python入门简单吗2021-09-23 13:21
    回答 45

    挺简单的,其实课程内容没有我们想象的那么难、像我之前同学,完全零基础,培训了半年,直接出来就工作了,人家还在北京大公司上班,一个月15k,实力老厉害了

  • 回答 4

    Python针对众多的类型,提供了众多的内建函数来处理(内建是相对于导入import来说的,后面学习到包package时,将会介绍),这些内建函数功用在于其往往可对多种类型对象进行类似的操作,即多种类型对象的共有的操作;如果某种操作只对特殊的某一类对象可行,Pyt...

  • 回答 8

     相当于 ... 这里不是注释

  • 回答 4

    还有FIXME

  • 回答 3

    python的两个库:xlrd和xlutils。 xlrd打开excel,但是打开的excel并不能直接写入数据,需要用xlutils主要是复制一份出来,实现后续的写入功能。

  • 回答 8

    单行注释:Python中的单行注释一般是以#开头的,#右边的文字都会被当做解释说明的内容,不会被当做执行的程序。为了保证代码的可读性,一般会在#后面加一两个空格然后在编写解释内容。示例:#  单行注释print(hello world)注释可以放在代码上面也可以放在代...

  • 回答 2

    主要是按行读取,然后就是写出判断逻辑来勘测行是否为注视行,空行,编码行其他的:import linecachefile=open('3_2.txt','r')linecount=len(file.readlines())linecache.getline('3_2.txt',linecount)这样做的过程中发现一个问题,...

  • 回答 4

    或许是里面有没被注释的代码

  • 回答 26

    自学的话要看个人情况,可以先在B站找一下视频看一下

没有解决我的问题,去提问