如今网络越来越发达了,越来越多的人们把内容放在互联网上。因此网络的内容在逐渐的丰富,那么我们如何在这些海量的内容中获得需要的信息呢?人们于是便发明了搜索引擎,可是大家知道为什么搜索引擎可以搜索到那么多东西吗?下面就由小编来给大家解答一下疑惑吧。
一般说来,搜索引擎的工作大概分为三个部分。第一个部分称为信息抓取。搜索引擎使用被称为“网络爬虫”的程序来抓取网页上的所有链接。由于互联网的特性,大多数Web页面都可以通过其他页面的链接得到访问。从理论上说,自有限的少数Web页面出发,网络爬虫可以访问绝大多数的Web网页。想象一下,我们可以把互联网看成一个巨大的蜘蛛网,交叉点是Web页面,交叉点之间的蛛丝是链接,爬虫从一个交叉点出发,沿着蛛丝就可以到达任何一个交叉点。
找到了Web页面后,搜索引擎会开始它的第二部分工作:建立索引。简单说来,就是搜索引擎从Web页面中提取关键字,并把页面信息甚至是整个页面的内容按照一定的规则保存在自己的数据库里。这样做的目的是使得信息能够尽快被找到,如果搜索引擎只是简单地把页面无规律地存放的话,每次检索都要遍历所有保存的信息,那就失去了搜索引擎的意义了。举例来说,如果搜索引擎要为一个介绍动画片《西游记》的页面建立索引,那么“孙悟空”、“西游记”、“唐僧”、“吴承恩”等词一般都会成为该页面索引的一部分。值得一提的是,由于中文的特殊性(英文以词为单位,词和词之间用空格分隔,中文以字为单位,词和词之间没有明显的分隔),在提取关键字之前,一般还要对页面进行分词处理。