当前位置:主页 > 商务指南 > 优化辞典 >

什么是关键词堆砌
时间:2010-04-19 12:03作者: 阅读:

关键字堆砌(keyword stuffing)是指在一个网页中非常密集地放置关键字。一般说来,如果关键字的出现过于频繁,就会盖过网页的其他内容。虽然过度使用关键字有可能触发 Google的过滤器

关键字堆砌(keyword stuffing)是指在一个网页中非常密集地放置关键字。一般说来,如果关键字的出现过于频繁,就会盖过网页的其他内容。虽然过度使用关键字有可能触发 Google的过滤器(filter),但更严重的问题是因内容难于阅读而造成访问流量的潜在损失。如果一个搜索者发现在一个页面到处都充斥着关键字,那么他几乎不可能在这个页面逗留,而且也不可能转变成一个付费客户。因此由于关键字堆砌而造成的损失是双重的。

    关键字堆砌(keyword stuffing)的常见形式有哪些?
  
    众多关键字充斥于网页信息中就会形成关键字堆砌(Keyword stuffing)。这类网页看起来更像是一连串的关键字,而不像是别的什么东西。关键字堆砌的另一形式就是将关键字或关键词尽可能多次的填入页面的 title标签中。搜索引擎通常会降低这类网页的搜索排名,或者完全忽略这些关键字。这两种结果对网站都没有什么好处。关键字堆砌的桥页(doorway pages)或隐形页面(cloaked pages)不仅是过度使用关键字的例子,而且还是因自身原因而受到惩罚的因素。在所有导入链接(inbound links)中频繁使用相同的链接锚文本,也会被看作是关键字堆砌的一种形式。
  
    一个网站是否会因为关键字堆砌而受到惩罚?
  
    一个网站会因为关键字堆砌(keyword stuffing)而受到搜索引擎的惩罚。Google似乎对于页面上过度使用关键字非常敏感,因为关键字堆砌会触发过滤器(filter)。搜索引擎巨人可能对网站采取的惩罚措施包括,降低其在搜索结果中的排名、降低其在Google的PR值以及禁止该网站。如同所有搜索引擎优化(SEO)的努力一样,常识和考虑什么事情有益于你的网站浏览者,是任何一个站长最好的行为。
  
    搜索引擎对关键字堆砌的识别
  
    搜索引擎和搜索引擎优化(SEO)一直是一对矛盾,合理的优化有助于搜索引擎对网站内容的识别,有助于网站的推广。然而有正面,就有反面,一些SEOers通过各种欺骗手段来欺骗搜苏引擎,以期达到增加页面收录数和页面排名的目的。
  
    早期的关键字堆砌SPAM作弊方式之一,是将中文词库中的单词直接用软件拼凑成文章,这样的文章没有实际的意义,只能给搜索引擎看。那么对于这样的文章,搜索引擎是通过什么方式来识别的呢?
  
    我们知道,每个搜索引擎都有网页质量监控部门,对于百度等掺杂人工处理的搜索引擎而言,用户发现这样的网站,投诉到百度,百度直接封了这个网站了事。但对于Google这样的封站也是自动处理的搜索引擎而言,对关键字堆砌作弊的识别就显得更为重要了。
  
    对于关键字堆砌作弊方式的识别,搜索引擎一般采用统计分析的方法进行。
  
    搜索引擎首先将网页进行分词,分词完成后可以得到词的数量N和文章长度L,从大量文章的统计中发现文章的长度L和词的数量N两个数字之间存在一定的分布关系,一般而言L/N界于4至8之间,均值大约在5-6之间。也就是说一篇长度为1000字节的文章中,应该有125-250个分词,由于中文和英文的词的组成不一致,因此在英文和中文中这个比值的范围会有所不同。如果搜索引擎发现L/N特别大,那么这篇文章就存在就存在关键字堆砌现象了,如果L/N特别小,则可能是这篇文章是由一些词所组成的没有意义的文章。
  
    进一步,通过大量正常文章统计发现,文章中密度最高的几个关键字出现的次数之和与N/L存在一定的分布关系,搜索引擎就可以通过网页中的分布与统计结果的分布图进行比较得出文章是否存在关键字堆砌的现象。
  
    此外,搜索引擎还将从停止字的比例来判定文章是否为自然文章。停止字就是如“的”“我”“是”等在文章中普遍使用的字或词,如果文章中停止字的比例在正常的比例范围之外,这个网页应提交到网页质量监控部门审核。
  
    当然,还有更多的算法可以对网页与自然语言的文章进行比较分析,以判别文章是否为自然文章。
  
    所谓魔高一尺、道高一丈,有些作弊者已经放弃了单词的组成文章的作弊方式,而改用句子组成文章的作弊方式,作弊者通过爬虫或其它方式获得网上文章的句子,并用软件将数十篇文章的某几句拼凑成一篇文章。这就需要搜索引擎做语义的分析来判断是否作弊了,然而目前关于语义分析的研究还处于研究阶段,这也是下一代智能搜索引擎的方向。
  
    然而我们仍然不能将自动文章生成一棍子打死,基于人工智能的文章生成仍然是人类研究自身语言以及自身智能的一个重要方向。作弊与反作弊,将能促使人类对人工智能的研究。
  
    如果到最后,软件能生成人类能够理解的文章,这是SPAM还是精华?你能肯定地说目前存在的智能化程度还不够高的RSS聚合文章一定是SPAM吗?然而,如果这样的文章海量的出现,我们又该如何去面对这个现象?
(责任编辑:admin)

    上一篇:什么是黑帽SEO   下一篇:什么是关键词密度

    (0)
        
    相关阅读:
    你可能感兴趣的生意经:

    图说商企

    企业推广信息

    致富商机

    商旗博客