基于ASP.NET的图像检索技术设计与实现

最基本的搜索引擎结构是通过Spider不断从Web上收集数据,并将其存放在搜索引擎数据库中。用户通过Web接口搜索引擎服务器发出查询请求,服务器利用CGI或其他技术与数据库进行交互,将查询转换为数据库指令,并返回查询结果。网络搜索的基本原理是通过网络机器人定期在网页上爬行,发现并抓取新网页,存储在本地数据库中。对于查询请求,系统可以从数据库中检索相关信息。通常有两种方式来实现网络信息检索:一种是手动对网页进行索引,缺点是Web覆盖率低且无法保证信息的实时更新;另一种是自动索引,能够通过信息提取技术进行文档分类,但可能分类准确性不如手工分类。目前,大多数搜索工具都采用Robot定期访问站点,检查站点更新并发现新的内容。Robot通常使用robots.txt文件来指定不希望被爬虫访问的区域。

zip 文件大小:827.38KB