Google认可那些可以提升网站质量的SEO,但对于“少数不道德的SEO”则会采取一定的惩罚手段,而到底什么是“不道德的SEO”,Google只是在其网站上给出了几种较为明显的作弊手段。记者采访了曾专门为网站提供搜索引擎营销咨询服务的胡宝介女士,作为SEO专家,胡女士为记者列出了11种可能被搜索引擎(不只是Google)视为“作弊”的情况:
1、堆叠关键词:
为了增加关键词的出现频次,故意在网页代码中,如在META、Title、注释、图片ALT以及URL地址等地方重复书写某关键词。
2、虚假关键词:
通过在META中设置与网站内容无关的关键词,如在Title中设置一些热门的关键词,以达到误导用户进入网站的目的,同样也包括链接关键词与实际内容不符的情况。
3、隐形文本/链接:
为了增加关键词的出现频率,故意在网页中放置一段与背景颜色相同、包含密集关键字的文本。访客看不到,搜索引擎(蜘蛛程序)却能找到。类似的方法还包括超小号文字、文字隐藏层等手段。隐形链接是在隐形文本的基础上在其他页面添加指向目标优化页的行为。
4、重定向(Re-Direct):
使用刷新标记(Meta Refresh)、CGI程序、Java、Javascript或其他技术,当用户进入该页时,迅速自动跳转到另一个网页。重定向使搜索引擎与用户访问到不同的网页。
5、偷换网页:
也称“诱饵行为(Bait&Switch)”,是在一个网页成功注册并获得较好排名后,用另一个无关的网页来替换它的行为。
6、复制站点或内容:
通过复制整个网站或部分网页内容并分配以不同域名和服务器,以此欺骗搜索引擎对同一站点或同一页面进行多次索引的行为,网站镜像算是此中的典型。
7、桥页(Doorway):
针对某一关键词专门制作一个优化的页面,链接指向或重定向到目标页面。有时候为动态页面建立静态入口,或为不同的关键词建立不同内页也会用到类似的方法,但与桥页不同的是,前者是网站实际内容所需而建立的,是访问者所需要的,而桥页本身无实际内容,只针对搜索引擎作了一堆充斥了关键词的链接而已。
8、隐形页面(Cloaked Page):
指同一网址下对不同的访问者选择性返回不同的页面内容。搜索引擎得到了高度优化的网页内容,而用户则看到不同的内容。
9、重复注册:
违反网站提交规则,突破时间间隔限制,将一个网页在短时间内反复提交给同一个搜索引擎以获得多次收录的效果。这种情况主要针对其他搜索引擎,Google声称没有对网站提交设立过于严格的规则。
10、垃圾链接:
又叫“链接工厂”,指由大量网页交叉链接构成的一个网络系统。一个站点加入链接工厂后,一方面它可以得到来自该系统内所有网页的链接,同时作为交换,它也奉献出自己的链接。而该系统内的网页都将提升链接得分。
11、包含指向作弊网页的链接:
这种情况下,有的是无辜被作弊网页牵连,有的则是桥页。
有网友认为,上述的最后一种情况被直接视为“作弊”其实是不太合理的,因为一个网站的管理员很难判断其链接到的其他网站是否有“作弊”的情况,在这种“连坐”机制下,被Google“冤杀”的几率大大增加了。
12 域名连带作用:某网站托管服务商**.net就是因为类似的“连坐”机制被Google的数据库清除了。**.net上有很多类似abc.**.net的二级域名,这些域名下的网站其实是每个注册用户独立运营的,**.net只是网站空间及域名服务的提供商。但部分**.net的用户在网站建设过程中有意或无意地使用了Google认为是“作弊”的技术手段,Google就把**.net的全部网页都从检索数据库中删除了,这种武断的裁定结果导致**.net旗下很多优秀的子网站都遭了殃。
13 或者和你的网站和其他网站放在同一个服务器上,其他网站被处罚,你的网站也可能被处罚
14 连接连带作用:一个网站由于过度连接被处罚,你的网站上连接到一个被处罚的网页,或者你的连接和被处罚的网站放在同一个页面!
15 robots.txt设置不当,会被google处罚 要从 Google 目录中删除整个网站或部份网页的记录,可以在您服务器的根目录中放置一个 robots.txt 文件。
如果您不希望 Google 漫游器或其它搜索引擎进入您的网站,请在服务器的根目录中放入一个 robots.txt 文件,其内容如下:
User-Agent: * Disallow: / 这是大部份网络漫游器都会遵守的标准协议,加入这些协议后,它们将不会再漫游您的网络服务器或目录。有关 robots.txt 文件的详细信息,请访问:http://www.robotstxt.org/wc/norobots.html。(中华企业文化网)
|