最初采取了SEO优化后的9大蜘蛛的陷阱
浏览:267 时间:2022-10-23

我们从事网站优化的过程,尤其是现在收入对网站非常重要的网站。只有在良好的包容之后,才有可能获得良好的排名。因此,在设计网站时,我们应该尽最大努力让蜘蛛获得网站的所有内容信息。如果网站的程序或设计中存在蜘蛛陷阱,会导致蜘蛛无法获取网站的内容。

有些朋友希望网站美观酷炫,但却导致蜘蛛爬行困难,在一定程度上形成了蜘蛛陷阱。那么具体什么情况下会有这样的蜘蛛陷阱呢?

一、JS

有些朋友为了吸引用户的注意力,在导航、主页界面等使用了大量的JS脚本,这对于蜘蛛爬行也是不利的。关于这一点可能会有一些争议,问题是是否将其划入蜘蛛陷阱。

JS在网站建设中起着重要的作用,因为它可以为网站实现很多酷炫的效果,但仍然无法摆脱不利于蜘蛛爬行的问题。在这方面可以算是蜘蛛陷阱,但也可以用在网站的其他方面,对我们做SEO有帮助。比如为了避免网站权重的分散,我们不希望一些对网站排名没有意义的页面被收录。我们可以用JS脚本来防止蜘蛛爬这个页面,在这方面,它是我们做网站优化的好帮手,所以我们自己用JS脚本吧。

二、框架结构

框架结构中的Html通常可以被蜘蛛抓取,但一般来说,内容并不完整,导致搜索引擎无法判断框架中的内容是主框架还是框架调用的文件。

目前,框架结构在网站建设领域是一个古董。当行业开始建设网站时,它使用框架结构来设计相关页面。当时确实提供了很多便利。但在网站越建越简单智能的时代,框架结构逐渐落后,不利于蜘蛛爬行网站内容。因此,框架结构被迫进入蜘蛛陷阱。坦白说,不能怪,但也要怪。同时,这也验证了一句话:

第三,闪光灯太多

不得不说Flash可以为我们的网站增添很多色彩。恰到好处的Flash可以让我们的网站看起来高端高档,但是不要滥用它,因为它有这些优点。无论你走到哪里,整个Flash什么的,只会适得其反。之所以这么说,是因为搜索引擎对Flash的把握不理想,偶尔影响不大。但是,如果你的整个主页只使用了一个很大的Flash或者页面充满了Flash,就会变成蜘蛛。虽然搜索引擎一直在努力克服这方面的问题,但到目前为止效果仍然不是很好,所以我们只能积极避免这些问题。

目前flash对于蜘蛛来说也很难识别,这对于搜索引擎来说也是一种不可理解的东西,所以及时良好的视觉效果会让搜索引擎无法判断相应的相关性。

四.便会失效

SessionID用户跟踪访问,这就造成了一个现象,就是用户每次访问一个页面,都会出现不同的SessionID,也就是说访问同一个页面,但是会出现不同的ID,这样就会造成大量重复的内容,不利于搜索引擎优化。

动词(verb的缩写)异常跳跃

跳转一个网站的方式有很多,比如JS跳转、Flash跳转、302跳转等。而301跳转则应该单独描述,因为它是搜索引擎推荐和识别的跳转形式,主要用于网站域名变更后,将这个域名指向另一个域名,也可以将旧域名的所有权重继承给新域名。其他杂跳对搜索引擎不友好,因为跳本身不利于蜘蛛爬行,这叫蜘蛛陷阱。

一般情况下,这种操作是不会做的。一般戴灰帽或者黑帽的朋友比较喜欢这种操作,用变相引流的方法让页面跳来跳去,但实际上相当于欺骗搜索引擎和用户。

不及物动词动态网址

目前动态URL可以被搜索引擎识别,但如果大量的动态URL不利于蜘蛛爬行,则耗时较长,不利于优化。

搜索引擎更喜欢静态网站,所以很多动态网站使用伪静态设置。动态URL通俗的解释是网站链接中有各种参数、等号、问号或者其他符号,还是很长的。对于那些有密集恐惧症的朋友来说,这是绝对不能容忍的。恰好蜘蛛也有这种症状(哈哈哈)。其实最根本的原因是动态URL不利于蜘蛛爬行。

七.登录限制

对于搜索引擎,有登录限制的内容既不会注册,也不会登录。这样的内容蜘蛛找不到。

八、强制使用饼干

目前很少有网站采用这种限制。为了让用户记住网站、登录信息、跟踪访问路径等。cookies是强制使用的。因此,没有启用cookies的用户将无法访问它们,这将提示页面无法正常显示,或者蜘蛛无法正常访问和识别它们。

九、很多弹出聊天窗口

为了与用户交流,有些网站有时会创建很多聊天窗口,但这些聊天窗口也是搜索引擎无法识别的。

本文转载自佛山市规划动力信息技术有限公司网站。cn/cjwt/1535.html。