首页 > 网站 > 优化推广 > 正文

什么是搜索引擎的Spider(蜘蛛)?

2020-09-06 15:35:43
字体:
来源:转载
供稿:网友


什么是搜索引擎的Spider(蜘蛛)?现在做网站优化的管理员都知道我们得到了百度权重就是根据搜索引擎的Spider(蜘蛛)给我们网站做出的评分,这里新网小编就为大家具体分析一下什么是搜索引擎的Spider(蜘蛛)。

网页内容也是有时效性的,所以Spider对不同网页的抓取频率也要有一定的策略性, 否则可能会使得索引库中的内容都很陈旧,或者该更新的没更新,不该更新的却浪费资源更新了,甚至还会出现网页已经被删除了,但是该页面还存在于搜索结果中的情况。那么Spider一 般会使用什么样的再次抓取和更新策略呢?

再次,互联网中的网页总有一部分是没有外部链接导入的,也就是常说的“暗网”,并且这 部分网页也是需要呈现给广大网民浏览的,此时Spider就要想方设法针对处于暗网中的网页进 行抓取。当下百度是如何来解决这个暗网问题的呢?

最后,大型搜索引擎的Spider不可能只有一个,为了节省资源,要保证多个Spider同时作 业且抓取页面不重复;又由于各地区数据中心分配问题,搜索引擎一般不会把Spider服务器放置在一个地区,会多地区同时作业,这两方面就涉及分布式抓取的策略问题。那么一般搜索引 擎的Spider会采用什么样的分布抓取策略呢?

接下来逐一介绍一般的搜索引擎Spider在面临以上问题时采用的是什么策略,并详细地了解一下整个搜索引擎最上游的Spider到底是如何工作的,以及一个优秀的Spider程序应该有哪些特点。

什么是搜索引擎的Spider(蜘蛛)?以上内容是小编为大家总结的内容,如果你也这样认为的话,那就更好了,小编接下来将为大家介绍更多的此类文章,如果你感兴趣的话可以接着往下看。
发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表