加入收藏 | 设为首页 | 会员中心 | 我要投稿 拼字网 - 核心网 (https://www.hexinwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 运营中心 > 建站资源 > 优化 > 正文

搜索引擎爬行过程简介

发布时间:2022-01-16 13:42:28 所属栏目:优化 来源:互联网
导读:搜索引擎程序是通过网页之间的链接,不分昼夜的爬行来获取信息,收录标准主要由URL的权重、网站规模大小等因素决定; 搜索引擎进入服务器时,第一时间查看robots.txt(控制搜索引擎收录的标准)文件,如果robots.txt文件不存在,则返回404错误代码,但依然会
        搜索引擎程序是通过网页之间的链接,不分昼夜的爬行来获取信息,收录标准主要由URL的权重、网站规模大小等因素决定;
 
        搜索引擎进入服务器时,第一时间查看robots.txt(控制搜索引擎收录的标准)文件,如果robots.txt文件不存在,则返回404错误代码,但依然会继续爬行,如果定义了某些规则,则遵守索引。
 
 建议必须有一个robot .txt文件(推荐阅读:robots.txt的写法 )。
 
 搜索引擎抓取数据的方式
 
1、垂直抓取策略:指搜索引擎顺着一条链接爬行,直到设定的任务完成。
 
思路如下:垂直抓取策略—A链接—A网页链接—A网页链接的链接 ,一直垂直抓取到最底。
 
2、平行抓取策略:指先把网页山的链接全部抓取一次,然后接着从每条链接牌型。
 
总结:在实际应用中,这两种策略会同时发生,抓取的深度和广度取决于页面的权重、结构和网站规模大小以及新鲜内容数量和频率,当然这里面包含了很多的seo的策略。

(编辑:拼字网 - 核心网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!