随着W eb的发展,越来越多的数据可以通过表单提交来获取,这些表单提交所产生信息是由D eep W eb后台数据库动态产生的。在这种情况下,信息集成就更加需要W eb爬虫来自动获取这些页面以进一步地处理数据。为了帮助用户完成这样的任务,提...随着W eb的发展,越来越多的数据可以通过表单提交来获取,这些表单提交所产生信息是由D eep W eb后台数据库动态产生的。在这种情况下,信息集成就更加需要W eb爬虫来自动获取这些页面以进一步地处理数据。为了帮助用户完成这样的任务,提出一种用于搜集D eep W eb页面的爬虫的设计方法。此方法使用一个预定义的领域本体知识库来识别这些页面的内容,同时利用一些来自W eb站点的导航模式来识别自动填写表单时所需进行的路径导航。通过对来自不同领域的D eep W eb站点的大量实验,验证了此方法是非常有效的。展开更多
从"985工程"高校图书馆微信公众号推送文章及其相关数据出发,采用基于Python语言的爬虫程序获取36所高校推文数据作为样本数据,使用Tableau绘制有关图表,并结合微信传播指数(WeChat Communication Index,WCI),分析"985工...从"985工程"高校图书馆微信公众号推送文章及其相关数据出发,采用基于Python语言的爬虫程序获取36所高校推文数据作为样本数据,使用Tableau绘制有关图表,并结合微信传播指数(WeChat Communication Index,WCI),分析"985工程"高校图书馆微信公众号推送文章的特征及规律,由此提出改进建议。展开更多
文摘随着W eb的发展,越来越多的数据可以通过表单提交来获取,这些表单提交所产生信息是由D eep W eb后台数据库动态产生的。在这种情况下,信息集成就更加需要W eb爬虫来自动获取这些页面以进一步地处理数据。为了帮助用户完成这样的任务,提出一种用于搜集D eep W eb页面的爬虫的设计方法。此方法使用一个预定义的领域本体知识库来识别这些页面的内容,同时利用一些来自W eb站点的导航模式来识别自动填写表单时所需进行的路径导航。通过对来自不同领域的D eep W eb站点的大量实验,验证了此方法是非常有效的。
文摘从"985工程"高校图书馆微信公众号推送文章及其相关数据出发,采用基于Python语言的爬虫程序获取36所高校推文数据作为样本数据,使用Tableau绘制有关图表,并结合微信传播指数(WeChat Communication Index,WCI),分析"985工程"高校图书馆微信公众号推送文章的特征及规律,由此提出改进建议。