Python爬虫爬取B站小视频

pk哥我这次对 b 站下手了。我用 Python 对 b 站的小视频进行了爬取,因为是小视频,大小平均在 5 兆以内。上班排队时,没网络也能看小姐姐了,爽啊。文末给出了源码获取方式。

b 站小视频地址:

我爬取了每日的小视频排行榜,学会了每日的,爬取本周、本月的就非常简单了,改个标签就行,稍后详细分析会讲到。以下是爬取结果。

项目环境

语言:Python3
工具:Pycharm

程序结构

主要由 3 部分组成:

  • get_json():提取目标网页的 json 数据信息。
  • downloader():下载小视频并显示下载进度。
  • 主函数:循环下载视频直到下载完毕。

代码分析

打开网站往下滑动,视频是动态加载的,打开调试工具,向下滑动加载视频,查看 Headers 中 url ,url 中前面部分的链接是不变的,提取出来。(左右滑动查看全部代码)

观察下方参数的变化,发现只有 next_offset 这个字段在变,每次都比前一个多 10。

这就好办了,我们把参数部分单独拿出来,把可变的 next_offset 写成变量,返回目标网页的 json 数据。

接下来,我把小视频下载下来,为了美观,我做了个下载器,显示下载速度。效果如下。

此处有个地方需注意下,请求目标网页时必须带上此网页的 headers 信息,网站做了反爬操作,否则下载下来的视频是空的,部分代码如下。(ps:大家运行代码时把 headers 换成自己浏览器在本网页的 headers 即可)

主函数中为了提取更多视频,我们把 next_offset 这个变量做个循坏,然后从 json 数据中提取视频的标题和可下载的链接。观察下页面的 json 数据结构就可以轻松获取文章标题和下载链接数据。

为了防止有些视频没有提供下载链接的情况,我加了异常处理,细心的朋友应该发现了文章前面给的效果图只有84个视频,原因就在此。最后,为了防止 ip 被封,设置了随机等待时间。其实,总体下来,不到 5 分钟,100 个视频可以全部下载完毕。

今日排行榜的 100 个小视频搞定了,每周、每月的就简单了,get_json() 方法中参数 params 有个标签字段 tag,每日的是「今日热门」,每周的改成「每周热门」,每月的改成「每月热门」就搞定了。最后,祝大家国庆嗨到飞起!

源码可在我的公众号「Python知识圈」回复「b站」获取。

 

文章为pk哥原创,我在我的公众号: Python 知识圈 上会分享更多心得体会,你也可以关注。

***版权申明:本文为 Python知识圈 pyzhishiquan.com 原创,没有Python知识圈书面授权,请勿以任何形式转载,摘编,复制或镜像。***

为您推荐

发表评论

电子邮件地址不会被公开。