1
大学生信息素养
1.4.1.2 二、搜索引擎原理
二、搜索引擎原理

搜索引擎其实也是一个网站,只不过该网站专门为用户提供信息“检索”服务,是对互联网上的信息资源进行搜集整理,然后提供查询的系统。搜索引擎的原理,分作三步:从互联网上抓取网页→建立搜索引擎数据库→通过Web服务器端软件,为用户提供浏览器界面下的信息查询。

1.从互联网上抓取网页

利用能够从互联网上自动收集网页的Spider系统程序自动访问互联网,并沿着任何网页中的所有URL,爬到其他网页,重复这个过程,并把爬过的所有网页收集回来。

2.建立索引数据库

由分析索引系统程序对收集回来的网页进行分析,提取相关网页信息(包括网页所在的URL、编码类型、页面内容包含的关键词、关键词位置、生成时间、大小、与其他网页的链接关系等),根据一定的相关度算法进行大量复杂计算,得到每一个网页针对页面内容中及超链中每一个关键词的相关度(或重要性),然后用这些相关信息建立网页索引数据库。

3.通过Web服务器端软件,为用户提供浏览器界面下的信息查询

当用户输入关键词搜索后,由搜索系统程序从网页索引数据库中找到符合该关键词的所有相关网页。因为所有相关网页针对该关键词的相关度早已算好,所以只需按照现成的相关度数值排序,相关度越高,排名越靠前。

最后,由页面生成系统将搜索结果的链接地址和页面内容摘要等内容组织起来返回给用户。

搜索引擎的Spider一般要定期重新访问所有网页(各搜索引擎的周期不同,可能是几天、几周或几个月,也可能对不同重要性的网页有不同的更新频率),更新网页索引数据库,以反映出网页内容的更新情况,增加新的网页信息,去除死链接,并根据网页内容和链接关系的变化重新排序。这样,网页的具体内容和变化情况就会反映到用户查询的结果中。

互联网虽然只有一个,各搜索引擎的能力和偏好不同,所以抓取的网页各不相同,排序算法也各不相同。大型搜索引擎的数据库储存了互联网上几亿至几百亿的网页索引,数据量达到几千G甚至几万G。但即使最大的搜索引擎建立超过200亿网页的索引数据库,也只能占到互联网上普通网页的不到30%,不同搜索引擎之间的网页数据重叠率一般在70%以下,在实际搜索过程中,我们使用不同搜索引擎的重要原因就是因为它们能分别搜索到不同的内容。