python爬虫】如何用python实现爬取微博相册所有图片

2021-01-05 10:53发布

2条回答
小鹿姐姐
2楼 · 2021-01-06 09:12

import  requestsimport  jsonfrom bs4 import BeautifulSoupfrom    urllib.request import urlretrieve#构造函数def sk():    #请求头    header={        'user-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.89 Safari/537.36',        'cookie':'SINAGLOBAL=7539808571181.766.1594904938878; login_sid_t=d5cd1bd9f275813e62c15325ed13f107; cross_origin_proto=SSL; _s_tentry=www.google.com.hk; Apache=6567219473432.515.1594948744234; ULV=1594948744243:2:2:2:6567219473432.515.1594948744234:1594904938884; UOR=www.google.com.hk,www.weibo.com,www.google.com.hk; SUB=_2A25yFI6zDeRhGeBG4lAS-CvEzDWIHXVRY-d7rDV8PUNbmtANLWvCkW9NQfFYtiChpvR5j8HL-b3qtR4iP5VWlahr; SUBP=0033WrSXqPxfM725Ws9jqgMF55529P9D9WFgGcLsqLAolPfV0X13gOKE5JpX5KzhUgL.FoqR1Kz01h-RS0.2dJLoIc2LxKqL1hnL1K2LxKML1KBLBKyydCH8SFHFxFHWeFH8SE-4SFHW1s8E9CH8SFHF1FHW1sL0i--Ri-isiKL8i--NiKL2iKn7i--Xi-iFiK.ci--fi-2fi-z4i--fi-88iKn0; SUHB=079jhOx3o5wTZ7; ALF=1626485347; SSOLoginState=1594949347; wvr=6; WBStorage=42212210b087ca50|undefined; webim_unReadCount={"time":1594950237072,"dm_pub_total":0,"chat_group_client":0,"chat_group_notice":0,"allcountNum":0,"msgbox":0}'    }    #循环    for z in range(1,9):#页数        url ='https://photo.weibo.com/photos/get_all?uid=6179279336&album_id=4088933483139641&count=30&page='+str(z)+'&type=3&__rnd=1594950245139'        s=requests.get(url,headers=header)        t=s.json()['data']['photo_list']        for x in t:            name =x['pic_name']            src='https://wx2.sinaimg.cn/mw690/'+name #不一样的名字            #下载函数            download(name,src,z)def download(name,src,z):    try:        path =r'G:/Desktop/blog/'#保存路径        urlretrieve(src,path+name)        print('——————下载第'+str(z)+'页————————')    except Exception as e:        print('_______')if __name__ =='__main__':    sk()

小叮当
3楼 · 2021-01-06 10:31
# -*- coding: utf-8 -*-
import urllib.request
import json
import requests
import os
 
path = 'D:\\weibo'
 
#id = '[url=tel:2093492691]2093492691[/url]'这里决定爬取人的ID
id = '[url=tel:6049590367]6049590367[/url]'
proxy_addr = "122.241.72.191:808"
pic_num = 0
weibo_name = "programmer"
 
 
def use_proxy(url, proxy_addr):
    req = urllib.request.Request(url)
    req.add_header("User-Agent",
                   "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.221 Safari/537.36 SE 2.X MetaSr 1.0")
    proxy = urllib.request.ProxyHandler({'http': proxy_addr})
    opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler)
    urllib.request.install_opener(opener)
    data = urllib.request.urlopen(req).read().decode('utf-8', 'ignore')
    return data
 
 
def get_containerid(url):
    data = use_proxy(url, proxy_addr)
    content = json.loads(data).get('data')
    for data in content.get('tabsInfo').get('tabs'):
        if (data.get('tab_type') == 'weibo'):
            containerid = data.get('containerid')
    return containerid
 
 
def get_userInfo(id):
    url = 'https://m.weibo.cn/api/container/getIndex?type=uid&value=' + id
    data = use_proxy(url, proxy_addr)
    content = json.loads(data).get('data')
    profile_image_url = content.get('userInfo').get('profile_image_url')
    description = content.get('userInfo').get('description')
    profile_url = content.get('userInfo').get('profile_url')
    verified = content.get('userInfo').get('verified')
    guanzhu = content.get('userInfo').get('follow_count')
    name = content.get('userInfo').get('screen_name')
    fensi = content.get('userInfo').get('followers_count')
    gender = content.get('userInfo').get('gender')
    urank = content.get('userInfo').get('urank')
    print("微博昵称:" + name + "\n" + "微博主页地址:" + profile_url + "\n" + "微博头像地址:" + profile_image_url + "\n" + "是否认证:" + str(
        verified) + "\n" + "微博说明:" + description + "\n" + "关注人数:" + str(guanzhu) + "\n" + "粉丝数:" + str(
        fensi) + "\n" + "性别:" + gender + "\n" + "微博等级:" + str(urank) + "\n")
 
 
def get_weibo(id, file):
    global pic_num
    i = 1
    while True:
        url = 'https://m.weibo.cn/api/container/getIndex?type=uid&value=' + id
        weibo_url = 'https://m.weibo.cn/api/container/getIndex?type=uid&value=' + id + '&containerid=' + get_containerid(
            url) + '&page=' + str(i)
        try:
            data = use_proxy(weibo_url, proxy_addr)
            content = json.loads(data).get('data')
            cards = content.get('cards')
            if (len(cards) > 0):
                for j in range(len(cards)):
                    print("-----正在爬取第" + str(i) + "页,第" + str(j) + "条微博------")
                    card_type = cards[j].get('card_type')
                    if (card_type == 9):
                        mblog = cards[j].get('mblog')
                        attitudes_count = mblog.get('attitudes_count')
                        comments_count = mblog.get('comments_count')
                        created_at = mblog.get('created_at')
                        reposts_count = mblog.get('reposts_count')
                        scheme = cards[j].get('scheme')
                        text = mblog.get('text')
                        if mblog.get('pics') != None:
                            # print(mblog.get('original_pic'))
                            # print(mblog.get('pics'))
                            pic_archive = mblog.get('pics')
                            for _ in range(len(pic_archive)):
                                pic_num += 1
                                print(pic_archive[_]['large']['url'])
                                imgurl = pic_archive[_]['large']['url']
                                img = requests.get(imgurl)
                                f = open(path + weibo_name + '\\' + str(pic_num) + str(imgurl[-4:]),
                                         'ab')  # 存储图片,多媒体文件需要参数b(二进制文件)
                                f.write(img.content)  # 多媒体存储content
                                f.close()
 
                        with open(file, 'a', encoding='utf-8') as fh:
                            fh.write("----第" + str(i) + "页,第" + str(j) + "条微博----" + "\n")
                            fh.write("微博地址:" + str(scheme) + "\n" + "发布时间:" + str(
                                created_at) + "\n" + "微博内容:" + text + "\n" + "点赞数:" + str(
                                attitudes_count) + "\n" + "评论数:" + str(comments_count) + "\n" + "转发数:" + str(
                                reposts_count) + "\n")
                i += 1
            else:
                break
        except Exception as e:
            print(e)
            pass
 
 
if __name__ == "__main__":
    if os.path.isdir(path + weibo_name):
        pass
    else:
        os.mkdir(path + weibo_name)
    file = path + weibo_name + '\\' + weibo_name + ".txt"
    get_userInfo(id)
    get_weibo(id, file)


相关问题推荐

  • 回答 5

    现在是大数据人工智能时代,数据是核心资源。但大部分企业是没有数据的,或者数据很少。要得到数据,要么花钱购买,要么使用爬虫进行爬取。所以,爬虫是大数据和人工智能的基础。这是智联招聘网站爬虫岗位最新的招聘信息。可以看出工资水平还是相当高的。在掌...

  • 回答 2

    爬虫也是python一个很重要的一个应用方向,那么爬虫需要哪些知识呢?1 要具备扎实的python语法基础,这是一切的根基2 对前端知识有一定的了解,起码做到能看懂3 如何获取目标数据:requests模块等4 如何解析目标数据:正则,xpath,jsonpath等5 如何做到做到...

  • 回答 4

    爬虫是python的一个使用方向,包含网页数据爬取和手机app数据爬取。爬下来数据之后,还有数据存储和清洗等工作要做。爬虫程序代码编写完成,还需要进行部署、启动、暂停、维护等一系列工作。现在是大数据人工智能时代,大数据的主要来源之一就是爬虫。因此,...

  • 回答 3

    小伙伴们,大家好!这次来填坑了,关于前后端分离这个话题,我必须要交作业了,因为在私信里实在被问得太频繁了。前后端分离的开发模式,这两年确实被炒得如火如荼,导致这个话题也成了面试极其爱问的一个问题,尤其是换工作、跳槽,之前不管你是做后端,还是...

  • 回答 2

    转载请注明作者和出处:http://blog.csdn.net/c406495762Github代码获取:https://github.com/Jack-Cherish/python-spiderPython版本:Python3.x运行平台:WindowsIDE:Sublimetext3 更多教程,请查看:https://cuijiahua.com/blog/spider/ 一前言**强烈建议...

  • 回答 7

    代理ip网址http://www.goubanjia.com/http://www.ip181.com/https://www.kuaidaili.com/python 环境安装requests库安装bs4库proxies设置代理服务器地址proxies = {'http':  'http://61.155.164.110:3128'}http://www.goub......

  • 回答 3

    针对字符串中本身含有双引号,我们可以利用单引号进行字符串的定义来解决这个问题。使用单引号作为字符串的界限就不会引起识别异常问题,保证字符串的合理定义

  • 回答 2

    要用unicode编码来替换。

  • 回答 4
    已采纳

    百科中的定义,网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。这里面关键在于自动获取,相比手动通过浏览器获取信息,自动脚本执行的效率会大大提高,现代社...

  • 回答 2

    首先要认识爬虫请求模块requests,会对网页进行简单的分析。了解爬虫提取数据的xpath、re两个方法,有助于爬虫方面的提取。最后就是爬虫框架Scrapy,可以提高爬取速度,增加效率。

  • 回答 1

    python工程师是从事以Python编程语言为核心技术的工作,包含多中岗位多个工种(有WEB开发工程师、运维工程师、测试工程师、爬虫工程师、数据分析工程师、算法工程师等等);Python爬虫工程师是一个Python所有岗位中的一个工作方向,主要负责数据采集和基本筛...

  • 回答 1

    爬虫,顾名思义,就是爬取别人数据,是当前社会必不可少的一项技术

  • 回答 1

    三种方法可以获得免费股票数据1 用tushare库 http://tushare.org2 python量化平台提供 例如聚宽https://www.joinquant.com3 利用现成的交易软件 写一个获取数据 输出的指标

  • 回答 1

    举一些例子:知乎:爬取优质答案,为你筛选出各话题下最优质的内容。淘宝、京东:抓取商品、评论及销量数据,对各种商品及用户的消费场景进行分析。安居客、链家:抓取房产买卖及租售信息,分析房价变化趋势、做不同区域的房价分析。拉勾网、智联:爬取各类职...

  • 回答 1

    欢迎关注天善智能,我们是专注于商业智能BI,人工智能AI,大数据分析与挖掘领域的垂直社区,学习,问答、求职一站式搞定!对商业智能BI、大数据分析挖掘、机器学习,python,R等数据领域感兴趣的同学加微信:tstoutiao,邀请你进入数据爱好者交流群,数据爱好...

没有解决我的问题,去提问