欢迎访问智码联动官方网站!
全国服务热线:15219490811

您当前所在位置:首页>>新闻资讯>>常见问题

深圳网站的页面总是重复收录是什么原因?

发布时间:2020-06-22 作者:智码联动

网站的收录是由空间、网站、内容、抓取量、页面质量决定的。
搜索引擎蜘蛛爬行的过程是这样的,首先检测网站的Robots.txt文件,确定哪些内容禁止抓取,哪些内容允许抓取等信息,确定robots.txt允许爬取之后,进入我们网站的首页,然后通过首页的链接爬取到我们网站中的内容页或者栏目页,之后再通过栏目页到达我们的文章页。
既然已经知道了搜索引擎抓取我们网站的流程,那么我们接下来就要为您分析影响搜索引擎抓取的因素了,首先:

1600999306534419.jpg



1、网站速度的影响
机房问题、dns问题、cdn加速问题、服务器带宽、服务器硬件、操作系统、服务器软件以及服务器所安装的程序,这些都有可能影响我们网站的打开的速度。

2、nofollow标签的合理使用
nofollow是一个HTML标签的属性值。这个标签的意义是告诉搜索引擎”不要追踪此网页上的链接”或”不要追踪此特定链接。那么我们所要做的就是,用nofollow来屏蔽掉网站页面重复出现的链接以及对SEO没有很高价值的页面,以减少网站权重的分散,并且可以减少搜索引擎重复抓取网站内每个页面的重复链接,以提高搜索引擎抓取效率。

3、网站硬盘问题
如在服务器里面安装多个虚拟机,导致硬盘转速变慢,有时会导致搜索引擎打不开网站。

4、返回码问题
比如同一个链接返回不同的返回码,又或者404页面返回200等

5、安全软件问题
比如开启了防火墙规则、屏蔽了网站端口、开启防采集规则、开启防攻击规则等,导致了搜索引擎同一时间由于大量访问网站,而导致被安全软件拦截。

Copyright© 2019-2022 www.wzjsws.com All Rights Reserved. 粤ICP备19084969号 深圳市龙华新区展滔科技大厦B座1905