半岛官方体育

优惠活动 - 12周年庆本月新客福利
优惠活动 - 12周年庆本月新客福利
优惠活动 - 12周年庆本月新客福利

做SEO必须熟知的搜索引擎工作原理

搜索引擎的工作过程非常复杂,其工作过程大体可以分为三个阶段:
 
(1)网页收集:搜索引擎蜘蛛通过链接进行爬行和抓取,将抓取到的页面存储到原始数据库中。


 
(2)预处理:搜索引擎蜘蛛抓取到的页面不能直接进行用户查询排名,需要进行预处理。
 
(3)检索服务:用户输入查询词后,排名程序调用索引数据库中的数据,将与用户搜索词相关的页面展示给用户。
 
搜索引擎是通过蜘蛛程序对互联网中的网页进行抓取和收集的,网页收集是搜索引擎工作的第一步。了解搜索引擎的网页抓取机制,便于蜘蛛抓取更多的页面,使网站有更好的排名。
 
(1)什么是蜘蛛
 
网络爬虫,又被称为网页蜘蛛、网络机器人,是指按照一定的规则,自动抓取互联网中网页的程序或者脚本。
 
(2)蜘蛛的工作方式
 
对于互联网中的网站来说,如果没有对其中的链接进行屏蔽设置,蜘蛛就可以通过链接在网站内或者网站间进行爬行和抓取。
 
由于互联网中的网站及页面链接结构异常复杂,蜘蛛需要采取一定的爬行策略才能抓取更多的页面。
 
最简单的爬行策略有两种:一种是深度优先,另一种是广度优先。
 
广度优先:是指蜘蛛会先抓取起始网页中链接的所有网页,然后再选择其中的一个链接网页,继续抓取在此网页中链接的所有网页。这是最常用的方式,因为这个方法可以让网络蜘蛛并行处理,提高其抓取速度。
 
深度优先:是指蜘蛛会从起始页开始,一个链接一个链接跟踪下去,处理完这条线路之后再转入下一个起始页,继续跟踪链接。
 
深度优先和广度优先通常是混合使用的。这样既可以照顾到尽量多的网站,也可以照顾到一部分网站的内页,同时也会考虑页面权重、网站规模、外链、更新等因素。而且搜索引擎为了提高爬行和抓取的速度。都是用多个蜘蛛并发分布爬行。
 
根据这一原理,在优化网站时,应该合理设置网站中的链接,便于蜘蛛更加顺利的爬行网站中的各个页面。
 
(3)认识种子站点
 
一些互联网中的网站被蜘蛛格外看重, 蜘蛛的爬行也往往以这些网站作为起始站点。通常情况下,这类站点具有一定的权威性和导航性,如新浪、hao123 等。这些具有权威性和导航性的网站称为种子站点。因此,在优化网站时,可以在种子站点中添加自己网站的链接,增加线 蛛抓取的入口。
 
(4)搜索引擎的收集机制
 
如蛛对于网站的取频率受网站更新周期的影响,若网站定期定量更新,那么,蜘蛛会规律进入网站中进行爬行和抓取。
 
蜘蛛每次爬行都会把页面数据存储起来,如果第二次爬行发现页面与第一次收录的完全一样,说明页面没有更新,多次抓取后蜘蛛会对页面更新频率有所了解。不常更新的页面,蜘蛛也就没有必要经常抓取。如果页面内容经常更新,蜘蛛就会更加频繁地访问这种页面,页面上出现的新链接,也自然会被统蛛更快地抓取。
 
因此,在优化网站时,应该定期定量地更新内容,增加网站被抓取的频率。
 
(5) 文件存储
 
视索引擎蜘蛛抓取的网站制作页面存入原始数据库中。搜索引擎会对原始数据库中的页面进行相应的处。

本文地址://cosda.cn//article/4389.html
半岛官方体育相关的文章:
最新文章:
document.write("") ag九游会app Ag平台官方网站 星空体育官网登录入口 外送茶 台北外送茶 中欧体育