去年(手动滑稽)某日想爬取知乎特定话题下的全部回答数据,于是翻出以前写的知乎话题爬虫跑运行了下,没想到遇到一个一直没能解决的bug,貌似是抓包到的API返回的JSON数据格式有问题,于是遭遇爬知乎的滑铁卢。幸而想起有个叫“Zhihu-OAuth”的库,于是了解了下并上手一用,还蛮方便的,于是介绍给想爬取知乎数据的小伙伴们。

这是知乎用户“7sDream”开源的Python库,github地址

Zhihu-OAuth 文档

其中能爬取的数据非常全、非常丰富:用户动态、答案、文章、收藏夹、专栏、评论、首页信息流、知乎live、特定用户的信息、分享、问题、话题、私信会话和私信信息等等全部囊括在内

使用的方法也很简单,先是安装库,zhihu_oauth 支持 Python 2 和 Python 3:

pip install zhihu-oauth

接下来以爬取知乎特定话题下的全部回答为例,简单介绍下该库用法。以下为登录知乎,并保存token的代码。

其中账号和密码需要每个人自己输入。账号为邮箱或手机号(前缀"+86")

后续就可以直接加载token来登录知乎。本回爬取的知乎话题为“长大是什么感觉?”

链接为:https://www.zhihu.com/question/27987434

ID为:“27987434”。

具体代码如下,其中answers为生成器,需要用for循环来提取每个回答的数据,具体都能提取那些数据可以参见:Answer类的文档说明。包含了几乎所有可以提取的数据。

代码里注释掉了答主的诸多信息,因为发现提取时很容易被知乎反爬限制,而显示IP或账号异常,从而需要输入验证码。

最后保存数据用的是pandas库,全文代码也是在jupyter notebook里一步步运行的。此处因人而异,其他存储方式亦可。

本文简单介绍下Zhihu-OAuth库,因为上手还蛮简单的,很推荐想爬知乎数据而不得的小伙伴尝试下。后续看情况会更详细的讲下其他用法,看大家觉得需要吗?

作者:古柳_Deserts_X
链接:https://www.jianshu.com/p/d89d2ae8fe57
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

发表评论

邮箱地址不会被公开。 必填项已用*标注