标签归档:爬虫

python脚本,通过selenium自动发布facebook小组图文帖子

facebook提供API供开发者使用,目前版本可以用API在公共主页发布帖子,参考文档,api发布帖子比较简单,这里就不写了。以前也可以用api在小组发布帖子,但是考虑垃圾信息处理问题,官方已经禁止api这个功能了所有只能用其他方法发布帖子了,selenium 最早用于自动化测试,后面也可以用于爬虫,简单的理解就是自动帮你打开浏览器,输入密码,模拟人为操作等一系列动作。这时就可以用selenium 自动完成发布小组帖子了。

python脚本,telegram机器人Bot自动收集频道和群组信息,并实现机器人Bot搜索跳转功能

一,功能描述 功能1:自动收录群或者频道信息 TG自建Bot机器人,然后可以将机器人Bot 拉入群或频道,然后自动收集实时信息,生成信息链接,并和文本信息采集到数据库。 功能2:私聊搜索功能 私聊时,Bot通过用户输入的关键词,自动在数据库模糊搜索文本信息,并将缩略文本已超链接的方式反馈给用户 备注: 以下代码在TG api版本13.15下运行开发,默认安装的未20以上版本,可能需要自行更改相关参 [……]

继续阅读»»»

python爬虫之Scrapy框架,基本介绍使用以及用框架下载图片案例

一、Scrapy框架简介 Scrapy是:由Python语言开发的一个快速、高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据,只需要实现少量的代码,就能够快速的抓取。 Scrapy使用了Twisted异步网络框架来处理网络通信,可以加快我们的下载速度,不用自己去实现异步框架,并且包含了各种中间件接口,可以灵活地实现各种需求。 Scrapy可以应用在包括数据挖掘、信息处 [……]

继续阅读»»»

Python爬虫伪装,请求头User-Agent池,和代理IP池搭建使用

一、前言 在使用爬虫的时候,很多网站都有一定的反爬措施,甚至在爬取大量的数据或者频繁地访问该网站多次时还可能面临ip被禁,所以这个时候我们通常就可以找一些代理ip,和不用的浏览器来继续爬虫测试。下面就开始来简单地介绍一下User-Agent池和免费代理ip池。 二、User-Agent池 User-Agent 就是用户代理,又叫报头,是一串字符串,相当于浏览器的身份证号,我们在利用python发送 [……]

继续阅读»»»

python爬虫之多线程threading、多进程程multiprocessing、协程aiohttp 批量下载图片

一、单线程常规下载 常规单线程执行脚本爬取壁纸图片,只爬取一页的图片。 执行结果: 结果,第一页24张图片,就下载差不多8分钟,排除网络等因素,还没有手动下载快。 二、多线程下载 上面的有两个循环,第一个是页面的循环,一页一页的加载,每页在单独循坏单独下载图片。 所以有两个等待时间,第一个就是等待第一页下载完成,才会到第二页。第二个等待就是每页图片一张下载完才下载第二张。 综上,优化两点:第一点, [……]

继续阅读»»»

python爬虫练习selenium+BeautifulSoup库,爬取b站搜索内容并保存excel

一、简介 前面文章已经介绍了selenium库使用,及浏览器提取信息相关方法。参考:python爬虫之selenium库 现在目标要求,用爬虫通过浏览器,搜索关键词,将搜索到的视频信息存储在excel表中。 二、创建excel表格,以及chrome驱动 三、创建定义搜索函数 里面有button_next 为跳转下一页的功能,之所有不用By.CLASS_NAME定位。看html代码可知 class名 [……]

继续阅读»»»

python爬虫之selenium库,浏览器访问搜索页面并提取信息,及隐藏浏览器运行

一、 selenium简介 如果链接简单,爬虫可以通过链接用requests库提取页面信息,如爬取豆瓣top250影片信息,链接简单易懂。参考:爬取豆瓣top250影片信息 但如果遇到一些搜索之类的,基于js动态加载的网页,以上就不适合,如爬虫b站,搜索“爬虫”页面,第一页链接如下,第二页又是很长没规律的链接。很难用requests库提取页面。 针对以上情况,我们可以通过浏览器直接访问每个页面,然 [……]

继续阅读»»»

python爬虫练习,爬取豆瓣最受欢迎的250部电影,并保存至excel

简介 目标:使用 BeautifulSoup + Reuqests,爬取豆瓣上评分最高的250部电影,并保存到excel表格中。 requests库,参考文章:python爬虫之reuqests库BeautifulSoup库,参考文章:python爬虫之Beautiful Soup库 一、创建xls表格 需要用到xlwt库,没安装的话,安装即可 创建空表格 二、创建请求函数 这里创建douban_ [……]

继续阅读»»»

python爬虫之Beautiful Soup库,基本使用以及提取页面信息

一、Beautiful Soup简介 爬虫正则表达式参考:Python 爬虫正则表达式和re库 在爬虫过程中,可以利用正则表达式去提取信息,但是有些人觉得比较麻烦。因为花大量时间分析正则表达式。这时候可以用高效的网页解析库Beautiful Soup。 Beautiful Soup 是一个HTML/XML 的解析器,主要用于解析和提取 HTML/XML 数据。 Beautiful Soup支持Py [……]

继续阅读»»»

python爬虫之reuqests库,及基本使用

一、Requests简介 urllib库参考:Python 爬虫之urllib库 Requests是用python语言基于urllib编写的,该模块主要用来发 送 HTTP 请求,requests 模块比 urllib 模块更简洁,是学习 python 爬虫的较好的http请求模块。 不是 python 的内置库,如果没有安装,可以安装先。 二、各种请求方式 requests里提供个各种请求方式, [……]

继续阅读»»»