2021-01-05 10:53发布
import requestsimport jsonfrom bs4 import BeautifulSoupfrom urllib.request import urlretrieve#构造函数def sk(): #请求头 header={ 'user-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.89 Safari/537.36', 'cookie':'SINAGLOBAL=7539808571181.766.1594904938878; login_sid_t=d5cd1bd9f275813e62c15325ed13f107; cross_origin_proto=SSL; _s_tentry=www.google.com.hk; Apache=6567219473432.515.1594948744234; ULV=1594948744243:2:2:2:6567219473432.515.1594948744234:1594904938884; UOR=www.google.com.hk,www.weibo.com,www.google.com.hk; SUB=_2A25yFI6zDeRhGeBG4lAS-CvEzDWIHXVRY-d7rDV8PUNbmtANLWvCkW9NQfFYtiChpvR5j8HL-b3qtR4iP5VWlahr; SUBP=0033WrSXqPxfM725Ws9jqgMF55529P9D9WFgGcLsqLAolPfV0X13gOKE5JpX5KzhUgL.FoqR1Kz01h-RS0.2dJLoIc2LxKqL1hnL1K2LxKML1KBLBKyydCH8SFHFxFHWeFH8SE-4SFHW1s8E9CH8SFHF1FHW1sL0i--Ri-isiKL8i--NiKL2iKn7i--Xi-iFiK.ci--fi-2fi-z4i--fi-88iKn0; SUHB=079jhOx3o5wTZ7; ALF=1626485347; SSOLoginState=1594949347; wvr=6; WBStorage=42212210b087ca50|undefined; webim_unReadCount={"time":1594950237072,"dm_pub_total":0,"chat_group_client":0,"chat_group_notice":0,"allcountNum":0,"msgbox":0}' } #循环 for z in range(1,9):#页数 url ='https://photo.weibo.com/photos/get_all?uid=6179279336&album_id=4088933483139641&count=30&page='+str(z)+'&type=3&__rnd=1594950245139' s=requests.get(url,headers=header) t=s.json()['data']['photo_list'] for x in t: name =x['pic_name'] src='https://wx2.sinaimg.cn/mw690/'+name #不一样的名字 #下载函数 download(name,src,z)def download(name,src,z): try: path =r'G:/Desktop/blog/'#保存路径 urlretrieve(src,path+name) print('——————下载第'+str(z)+'页————————') except Exception as e: print('_______')if __name__ =='__main__': sk()
# -*- coding: utf-8 -*- import urllib.request import json import requests import os path = 'D:\\weibo' #id = '[url=tel:2093492691]2093492691[/url]'这里决定爬取人的ID id = '[url=tel:6049590367]6049590367[/url]' proxy_addr = "122.241.72.191:808" pic_num = 0 weibo_name = "programmer" def use_proxy(url, proxy_addr): req = urllib.request.Request(url) req.add_header("User-Agent", "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.221 Safari/537.36 SE 2.X MetaSr 1.0") proxy = urllib.request.ProxyHandler({'http': proxy_addr}) opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler) urllib.request.install_opener(opener) data = urllib.request.urlopen(req).read().decode('utf-8', 'ignore') return data def get_containerid(url): data = use_proxy(url, proxy_addr) content = json.loads(data).get('data') for data in content.get('tabsInfo').get('tabs'): if (data.get('tab_type') == 'weibo'): containerid = data.get('containerid') return containerid def get_userInfo(id): url = 'https://m.weibo.cn/api/container/getIndex?type=uid&value=' + id data = use_proxy(url, proxy_addr) content = json.loads(data).get('data') profile_image_url = content.get('userInfo').get('profile_image_url') description = content.get('userInfo').get('description') profile_url = content.get('userInfo').get('profile_url') verified = content.get('userInfo').get('verified') guanzhu = content.get('userInfo').get('follow_count') name = content.get('userInfo').get('screen_name') fensi = content.get('userInfo').get('followers_count') gender = content.get('userInfo').get('gender') urank = content.get('userInfo').get('urank') print("微博昵称:" + name + "\n" + "微博主页地址:" + profile_url + "\n" + "微博头像地址:" + profile_image_url + "\n" + "是否认证:" + str( verified) + "\n" + "微博说明:" + description + "\n" + "关注人数:" + str(guanzhu) + "\n" + "粉丝数:" + str( fensi) + "\n" + "性别:" + gender + "\n" + "微博等级:" + str(urank) + "\n") def get_weibo(id, file): global pic_num i = 1 while True: url = 'https://m.weibo.cn/api/container/getIndex?type=uid&value=' + id weibo_url = 'https://m.weibo.cn/api/container/getIndex?type=uid&value=' + id + '&containerid=' + get_containerid( url) + '&page=' + str(i) try: data = use_proxy(weibo_url, proxy_addr) content = json.loads(data).get('data') cards = content.get('cards') if (len(cards) > 0): for j in range(len(cards)): print("-----正在爬取第" + str(i) + "页,第" + str(j) + "条微博------") card_type = cards[j].get('card_type') if (card_type == 9): mblog = cards[j].get('mblog') attitudes_count = mblog.get('attitudes_count') comments_count = mblog.get('comments_count') created_at = mblog.get('created_at') reposts_count = mblog.get('reposts_count') scheme = cards[j].get('scheme') text = mblog.get('text') if mblog.get('pics') != None: # print(mblog.get('original_pic')) # print(mblog.get('pics')) pic_archive = mblog.get('pics') for _ in range(len(pic_archive)): pic_num += 1 print(pic_archive[_]['large']['url']) imgurl = pic_archive[_]['large']['url'] img = requests.get(imgurl) f = open(path + weibo_name + '\\' + str(pic_num) + str(imgurl[-4:]), 'ab') # 存储图片,多媒体文件需要参数b(二进制文件) f.write(img.content) # 多媒体存储content f.close() with open(file, 'a', encoding='utf-8') as fh: fh.write("----第" + str(i) + "页,第" + str(j) + "条微博----" + "\n") fh.write("微博地址:" + str(scheme) + "\n" + "发布时间:" + str( created_at) + "\n" + "微博内容:" + text + "\n" + "点赞数:" + str( attitudes_count) + "\n" + "评论数:" + str(comments_count) + "\n" + "转发数:" + str( reposts_count) + "\n") i += 1 else: break except Exception as e: print(e) pass if __name__ == "__main__": if os.path.isdir(path + weibo_name): pass else: os.mkdir(path + weibo_name) file = path + weibo_name + '\\' + weibo_name + ".txt" get_userInfo(id) get_weibo(id, file)
现在是大数据人工智能时代,数据是核心资源。但大部分企业是没有数据的,或者数据很少。要得到数据,要么花钱购买,要么使用爬虫进行爬取。所以,爬虫是大数据和人工智能的基础。这是智联招聘网站爬虫岗位最新的招聘信息。可以看出工资水平还是相当高的。在掌...
爬虫也是python一个很重要的一个应用方向,那么爬虫需要哪些知识呢?1 要具备扎实的python语法基础,这是一切的根基2 对前端知识有一定的了解,起码做到能看懂3 如何获取目标数据:requests模块等4 如何解析目标数据:正则,xpath,jsonpath等5 如何做到做到...
爬虫是python的一个使用方向,包含网页数据爬取和手机app数据爬取。爬下来数据之后,还有数据存储和清洗等工作要做。爬虫程序代码编写完成,还需要进行部署、启动、暂停、维护等一系列工作。现在是大数据人工智能时代,大数据的主要来源之一就是爬虫。因此,...
小伙伴们,大家好!这次来填坑了,关于前后端分离这个话题,我必须要交作业了,因为在私信里实在被问得太频繁了。前后端分离的开发模式,这两年确实被炒得如火如荼,导致这个话题也成了面试极其爱问的一个问题,尤其是换工作、跳槽,之前不管你是做后端,还是...
转载请注明作者和出处:http://blog.csdn.net/c406495762Github代码获取:https://github.com/Jack-Cherish/python-spiderPython版本:Python3.x运行平台:WindowsIDE:Sublimetext3 更多教程,请查看:https://cuijiahua.com/blog/spider/ 一前言**强烈建议...
代理ip网址http://www.goubanjia.com/http://www.ip181.com/https://www.kuaidaili.com/python 环境安装requests库安装bs4库proxies设置代理服务器地址proxies = {'http': 'http://61.155.164.110:3128'}http://www.goub......
针对字符串中本身含有双引号,我们可以利用单引号进行字符串的定义来解决这个问题。使用单引号作为字符串的界限就不会引起识别异常问题,保证字符串的合理定义
要用unicode编码来替换。
百科中的定义,网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。这里面关键在于自动获取,相比手动通过浏览器获取信息,自动脚本执行的效率会大大提高,现代社...
首先要认识爬虫请求模块requests,会对网页进行简单的分析。了解爬虫提取数据的xpath、re两个方法,有助于爬虫方面的提取。最后就是爬虫框架Scrapy,可以提高爬取速度,增加效率。
python工程师是从事以Python编程语言为核心技术的工作,包含多中岗位多个工种(有WEB开发工程师、运维工程师、测试工程师、爬虫工程师、数据分析工程师、算法工程师等等);Python爬虫工程师是一个Python所有岗位中的一个工作方向,主要负责数据采集和基本筛...
爬虫,顾名思义,就是爬取别人数据,是当前社会必不可少的一项技术
三种方法可以获得免费股票数据1 用tushare库 http://tushare.org2 python量化平台提供 例如聚宽https://www.joinquant.com3 利用现成的交易软件 写一个获取数据 输出的指标
举一些例子:知乎:爬取优质答案,为你筛选出各话题下最优质的内容。淘宝、京东:抓取商品、评论及销量数据,对各种商品及用户的消费场景进行分析。安居客、链家:抓取房产买卖及租售信息,分析房价变化趋势、做不同区域的房价分析。拉勾网、智联:爬取各类职...
欢迎关注天善智能,我们是专注于商业智能BI,人工智能AI,大数据分析与挖掘领域的垂直社区,学习,问答、求职一站式搞定!对商业智能BI、大数据分析挖掘、机器学习,python,R等数据领域感兴趣的同学加微信:tstoutiao,邀请你进入数据爱好者交流群,数据爱好...
最多设置5个标签!
import requestsimport jsonfrom bs4 import BeautifulSoupfrom urllib.request import urlretrieve#构造函数def sk(): #请求头 header={ 'user-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.89 Safari/537.36', 'cookie':'SINAGLOBAL=7539808571181.766.1594904938878; login_sid_t=d5cd1bd9f275813e62c15325ed13f107; cross_origin_proto=SSL; _s_tentry=www.google.com.hk; Apache=6567219473432.515.1594948744234; ULV=1594948744243:2:2:2:6567219473432.515.1594948744234:1594904938884; UOR=www.google.com.hk,www.weibo.com,www.google.com.hk; SUB=_2A25yFI6zDeRhGeBG4lAS-CvEzDWIHXVRY-d7rDV8PUNbmtANLWvCkW9NQfFYtiChpvR5j8HL-b3qtR4iP5VWlahr; SUBP=0033WrSXqPxfM725Ws9jqgMF55529P9D9WFgGcLsqLAolPfV0X13gOKE5JpX5KzhUgL.FoqR1Kz01h-RS0.2dJLoIc2LxKqL1hnL1K2LxKML1KBLBKyydCH8SFHFxFHWeFH8SE-4SFHW1s8E9CH8SFHF1FHW1sL0i--Ri-isiKL8i--NiKL2iKn7i--Xi-iFiK.ci--fi-2fi-z4i--fi-88iKn0; SUHB=079jhOx3o5wTZ7; ALF=1626485347; SSOLoginState=1594949347; wvr=6; WBStorage=42212210b087ca50|undefined; webim_unReadCount={"time":1594950237072,"dm_pub_total":0,"chat_group_client":0,"chat_group_notice":0,"allcountNum":0,"msgbox":0}' } #循环 for z in range(1,9):#页数 url ='https://photo.weibo.com/photos/get_all?uid=6179279336&album_id=4088933483139641&count=30&page='+str(z)+'&type=3&__rnd=1594950245139' s=requests.get(url,headers=header) t=s.json()['data']['photo_list'] for x in t: name =x['pic_name'] src='https://wx2.sinaimg.cn/mw690/'+name #不一样的名字 #下载函数 download(name,src,z)def download(name,src,z): try: path =r'G:/Desktop/blog/'#保存路径 urlretrieve(src,path+name) print('——————下载第'+str(z)+'页————————') except Exception as e: print('_______')if __name__ =='__main__': sk()
相关问题推荐
现在是大数据人工智能时代,数据是核心资源。但大部分企业是没有数据的,或者数据很少。要得到数据,要么花钱购买,要么使用爬虫进行爬取。所以,爬虫是大数据和人工智能的基础。这是智联招聘网站爬虫岗位最新的招聘信息。可以看出工资水平还是相当高的。在掌...
爬虫也是python一个很重要的一个应用方向,那么爬虫需要哪些知识呢?1 要具备扎实的python语法基础,这是一切的根基2 对前端知识有一定的了解,起码做到能看懂3 如何获取目标数据:requests模块等4 如何解析目标数据:正则,xpath,jsonpath等5 如何做到做到...
爬虫是python的一个使用方向,包含网页数据爬取和手机app数据爬取。爬下来数据之后,还有数据存储和清洗等工作要做。爬虫程序代码编写完成,还需要进行部署、启动、暂停、维护等一系列工作。现在是大数据人工智能时代,大数据的主要来源之一就是爬虫。因此,...
小伙伴们,大家好!这次来填坑了,关于前后端分离这个话题,我必须要交作业了,因为在私信里实在被问得太频繁了。前后端分离的开发模式,这两年确实被炒得如火如荼,导致这个话题也成了面试极其爱问的一个问题,尤其是换工作、跳槽,之前不管你是做后端,还是...
转载请注明作者和出处:http://blog.csdn.net/c406495762Github代码获取:https://github.com/Jack-Cherish/python-spiderPython版本:Python3.x运行平台:WindowsIDE:Sublimetext3 更多教程,请查看:https://cuijiahua.com/blog/spider/ 一前言**强烈建议...
代理ip网址http://www.goubanjia.com/http://www.ip181.com/https://www.kuaidaili.com/python 环境安装requests库安装bs4库proxies设置代理服务器地址proxies = {'http': 'http://61.155.164.110:3128'}http://www.goub......
针对字符串中本身含有双引号,我们可以利用单引号进行字符串的定义来解决这个问题。使用单引号作为字符串的界限就不会引起识别异常问题,保证字符串的合理定义
要用unicode编码来替换。
百科中的定义,网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。这里面关键在于自动获取,相比手动通过浏览器获取信息,自动脚本执行的效率会大大提高,现代社...
首先要认识爬虫请求模块requests,会对网页进行简单的分析。了解爬虫提取数据的xpath、re两个方法,有助于爬虫方面的提取。最后就是爬虫框架Scrapy,可以提高爬取速度,增加效率。
python工程师是从事以Python编程语言为核心技术的工作,包含多中岗位多个工种(有WEB开发工程师、运维工程师、测试工程师、爬虫工程师、数据分析工程师、算法工程师等等);Python爬虫工程师是一个Python所有岗位中的一个工作方向,主要负责数据采集和基本筛...
爬虫,顾名思义,就是爬取别人数据,是当前社会必不可少的一项技术
三种方法可以获得免费股票数据1 用tushare库 http://tushare.org2 python量化平台提供 例如聚宽https://www.joinquant.com3 利用现成的交易软件 写一个获取数据 输出的指标
举一些例子:知乎:爬取优质答案,为你筛选出各话题下最优质的内容。淘宝、京东:抓取商品、评论及销量数据,对各种商品及用户的消费场景进行分析。安居客、链家:抓取房产买卖及租售信息,分析房价变化趋势、做不同区域的房价分析。拉勾网、智联:爬取各类职...
欢迎关注天善智能,我们是专注于商业智能BI,人工智能AI,大数据分析与挖掘领域的垂直社区,学习,问答、求职一站式搞定!对商业智能BI、大数据分析挖掘、机器学习,python,R等数据领域感兴趣的同学加微信:tstoutiao,邀请你进入数据爱好者交流群,数据爱好...