九歌人工智能诗歌写作网站,深圳新型材料网站建设,wordpress 图片分页,陕西省建设厅管理中心网站点击蓝色“不太灵光的程序员”关注我哟加个“星标”#xff0c;每天上午 09:30#xff0c;干货推送#xff01;文中使用的组件库仅限于Python语言#xff0c;由于最近收到一些同学的留言说#xff0c;按照网上的教程一步一步的学习#xff0c;却频繁的出现报错#xff0… 点击蓝色“不太灵光的程序员”关注我哟加个“星标”每天上午 09:30干货推送文中使用的组件库仅限于Python语言由于最近收到一些同学的留言说按照网上的教程一步一步的学习却频繁的出现报错很多情况是因为版本不一致的问题导致的我会在文中描述示例的库版本号新手同学还需多加留意。爬虫程序分析我们可以使用很多方式来完成一个爬虫程序的编写可以使用比较完善的爬虫框架(博主是并没有使用过这方面的框架只会些小打小闹的所以不过多描述)也可以使用request、aiohttp、BeautifulSoup库实现基础的爬虫功能我们后面的学习也是基于这几个库迭代完成的。Python主流的爬虫框架你以为Python爬虫框架只有Scrapy么Python中还有些主流的爬虫框架我们在此简答介绍下1.ScrapyScrapy是一个为了爬取网站数据提取结构性数据而编写的应用框架。可以应用在包括数据挖掘信息处理或存储历史数据等一系列的程序中。。用这个框架可以轻松爬下来如亚马逊商品信息之类的数据。项目地址https://scrapy.org/2.PySpiderpyspider 是一个用python实现的功能强大的网络爬虫系统能在浏览器界面上进行脚本的编写功能的调度和爬取结果的实时查看后端使用常用的数据库进行爬取结果的存储还能定时设置任务与任务优先级等。项目地址https://github.com/binux/pyspider3.CrawleyCrawley可以高速爬取对应网站的内容支持关系和非关系数据库数据可以导出为JSON、XML等。项目地址http://project.crawley-cloud.com/4.PortiaPortia是一个开源可视化爬虫工具可让您在不需要任何编程知识的情况下爬取网站简单地注释您感兴趣的页面Portia将创建一个蜘蛛来从类似的页面提取数据。项目地址https://github.com/scrapinghub/portia5.NewspaperNewspaper可以用来提取新闻、文章和内容分析。使用多线程支持10多种语言等。项目地址https://github.com/codelucas/newspaper6.Beautiful SoupBeautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.Beautiful Soup会帮你节省数小时甚至数天的工作时间。项目地址https://www.crummy.com/software/BeautifulSoup/bs4/doc/7.GrabGrab是一个用于构建Web看板的Python框架。借助Grab您可以构建各种复杂的网页抓取工具从简单的5行脚本到处理数百万个网页的复杂异步网站抓取工具。Grab提供一个API用于执行网络请求和处理接收到的内容例如与HTML文档的DOM树进行交互。项目地址http://docs.grablib.org/en/latest/#grab-spider-user-manual8.ColaCola是一个分布式的爬虫框架对于用户来说只需编写几个特定的函数而无需关注分布式运行的细节。任务会自动分配到多台机器上整个过程对用户是透明的。项目地址https://github.com/chineking/cola基于Cola实现的爬虫位于contrib/目录下。目前实现了四个爬虫wiki维基百科。weibo新浪微博爬虫。从初始用户出发然后是其关注和粉丝依次类推抓取指定个数的新浪微博用户的微博、个人信息、关注和粉丝。其中用户微博只获取了内容、赞的个数、转发和评论的个数等等而没有具体去获取此微博被转发和评论的内容。generic(unstable)通用爬虫只需配置而无需修改代码。目前Cola实现了一个抽取器(cola/core/extractor)能够从网页正文中自动抽取主要内容即去除类似边栏和底脚等内容。但是此抽取器目前准确度还不够效率也不够高所以需要谨慎使用。weibosearch(unstable)新浪微博搜索的爬虫。这个爬虫使用cola.core.opener.SpynnerOpener基于spynner实现了一个Opener能够执行JavaScript和Ajax代码。目前这个爬虫存在的问题是新浪微博可能会将其识别成机器人因此有可能会让输入验证码。到此想要学框架的同学可以准备关闭网页了。先了解下后面爬取需要的模块Requests 模块帮助文档https://requests.readthedocs.io/en/master/虽然Python的标准库中 urllib2 模块已经包含了平常我们使用的大多数功能但是它的 API 使用起来让人感觉不太好而 Requests 自称 “HTTP for Humans”说明使用更简洁方便。Requests 继承了urllib2的所有特性。Requests支持HTTP连接保持和连接池支持使用cookie保持会话支持文件上传支持自动确定响应内容的编码支持国际化的 URL 和 POST 数据自动编码。核心功能:Keep-Alive 连接池国际化域名和 URL带持久 Cookie 的会话浏览器式的 SSL 认证自动内容解码基本/摘要式的身份认证优雅的 key/value Cookie自动解压Unicode 响应体HTTP(S) 代理支持文件分块上传流下载连接超时分块请求支持 .netrcRequests 支持 Python 2.6—2.7以及3.3—3.7而且能在 PyPy 下完美运行。简单的页面获取我们来尝试获取BOSS的首页。# Python3.7# requests2.23.0import requestsdef run(): req requests.get(https://www.zhipin.com)if req.status_code 200:print(req.content.decode(utf-8))if __name__ __main__: run()BOSS首页获取到的部分信息aiohttp 模块aiohttp是一个为Python提供异步HTTP 客户端/服务端编程基于asyncio(Python用于支持异步编程的标准库)的异步库。由于是基于asyncio的所以支持 Python 3.5如果你使用的是Python 3.4, 请将await替换成yield from将async 替换成带有 corotine装饰器的def。帮助文档https://docs.aiohttp.org/en/stable/核心功能:同时支持客户端使用和服务端使用。同时支持服务端WebSockets组件和客户端WebSockets组件开箱即用。web服务器具有中间件信号组件和可插拔路由的功能。简单的页面获取我们还是来获取BOSS的首页。# Python3.7# aiohttp3.6.3import aiohttpasync def run():async with aiohttp.ClientSession() as session:async with session.get(https://www.zhipin.com) as resp:assert resp.status 200print(await resp.text())if __name__ __main__: asyncio.run(run())BOSS首页获取到的部分信息bs4模块Beautiful Soup 4.4.0 文档Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库。它能够通过你喜欢的转换器实现惯用的文档导航查找修改文档的方式。Beautiful Soup会帮你节省数小时甚至数天的工作时间。Beautiful Soup 4 支持 Python2.x 和Python3.xBeautiful Soup3 支持 Python2.xBeautiful Soup 4兼容Beautiful Soup3的功能帮助文档https://beautifulsoup.readthedocs.io/zh_CN/v4.4.0/简单的页面数据提取我们还是来提取BOSS的title。# Python3.7# requests2.23.0import requestsdef run(): req requests.get(https://www.zhipin.com)if req.status_code 200: content req.content.decode(utf-8) content bs(content, html.parser)print(content.find(title).text)if __name__ __main__: run()BOSS招聘信息爬取到此我们需要的基本工具就介绍完了点波关注后面会继续分享 如何将这些工具运用到实战中。end推荐阅读BOSS直聘招聘信息获取之网站分析BOSS直聘招聘信息获取之爬虫工具分析BOSS直聘招聘信息获取之爬虫程序分析如有收获点个在看诚挚感谢