摘要
实现大规模Deep Web数据源集成是方便用户使用Deep Web信息的一种有效途径.Deep Web爬虫是Deep Web数据源集成的关键组成部分.提出一种针对结构化Deep Web的聚焦爬虫爬行策略.通过对查询接口的特征分析来判断Deep Web数据源的主题相关性.同时,在评价链接重要性时,综合考虑了页面内容的主题相关性和链接的相关信息.实验证明该方法是有效的.
Large-seale integration of Deep Web sources is an efficient way to meet users' need for Deep Web information. Deep Web crawler is a key component of data sources integration. This paper presents a focus crawler strategy for structural Deep Web. When evaluating the correlation of Deep Web data sources to the subject, consider the characteristics of query interface. Evaluating the importance of the link, consider the correlation of the page content and links related information. Experiments indicate that this method is effective.
出处
《微电子学与计算机》
CSCD
北大核心
2009年第8期117-120,共4页
Microelectronics & Computer
基金
国家自然科学基金项目(60673092)
2008年江苏省重大科技支撑与自主创新项目(BE2008044)
江苏省现代企业信息化应用支撑软件工程技术研发中心开放基金项目(SX200904)