我不知道你是否觉得2012年国内SEO行业发展得很好。今年,百度更新了算法,建立了百度站长平台,提高了搜索结果的质量。一些朋友可能会反驳说,2012年对于SEO工作者来说是悲惨的一年,因为百度在这一年做了很多算法调整,到目前为止很多网站都受到了百度的处罚。这里我们要明确两点:

1、苍蝇不咬无缝蛋,百度不处罚没有操作问题的网站,可能是误伤,但是因为怀疑其操作符合算法变化;

2、搜索引擎算法更新总是朝着更科学的方向发展,所以我们SEO工作者也应该顺应百度算法更新,注意SEO操作的科学性。

那么如何科学的做SEO,使自己的SEO操作更符合搜索引擎的要求呢?我之前跟大家谈过对百度SEO指南2.0的内容进行深入的分析和研究,因为很多知识点和操作都隐藏在文章的细节中。如果把这一步做好,那么下一步要做的更多的工作就是网站SEO分析,从数据分析中看到SEO的精髓,这也是小编在博客和培训中经常提到的。作为SEO数据分析的新手,我想谈谈新手在分析网站SEO数据时容易犯的三个错误。

1、在SEO数据分析中,我认为首先要考虑的是全局观

也就是要有一个发展的视角来看待数据。比如百度的算法调整一定要满足搜索者的需求,只要我们的内容信息完全符合搜索者的用户体验,那么我们的收藏量未必需要很高,相反,应该在质量上尽量满足。

要能够抓住关键点,比如我们的网站被降了,那么我们需要做的就是找出网站被降的原因,然后我们所有的工作都应该围绕这个目标展开:找出可能的原因,收录相关数据,分析数据,得出结论。

不能只片面强调一方面,很多朋友做SEO分析可能是因为自己知识和经验的局限,对问题的分析是非常有限的,记得去年我也发过这样一个笑话,分析一个门户网站,忘了分析二级域名的网站,这样的片面分析,结论自然很有趣。

2、我可以通过数据分析看出问题的实质

大多数时候,我只是看一个网站的SEO是好还是不好。我经常检查nofollow标签是否在代码中使用来判断,因为一个好的SEO肯定会使用这个标签。它可以消除无关数据的干扰。大多数情况下,我们的SEO分析的错误来自于不相关数据的干扰。

例如,我的博客以前被降权了。在分析了很多原因之后,我们最终发现这只是因为服务器宕机。后来,服务器稳定后恢复。这些都是大局针对需要做什么,但是很多人都是因为一两个问题,所以在SEO数据分析中,一定要建立一个好的数据分析模型:确定问题——分解问题——得出结论——提出建议。

3、轻信度预测的结果没有正确的结论

只有越来越准确的结论。百度不会从自己的业务考虑发布自己的搜索引擎算法,所以我们在SEO分析中往往依靠猜测。在这个时候,很容易相信我们开始预测的结果。例如,前人提出的经验关键词的密度应该是2%-8%。我们也是按照这个做的,但是我们发现网站排名还是有波动的,并且通过分析发现原因可能是关键词密度太高,这是为什么呢?

首先,我们需要分析一下搜索引擎的工作原理。搜索引擎在分析网页的相关性时,不是根据我们设置的关键字进行匹配,而是对网页中所有字符进行统计匹配。因此,最相关的词可能不是我们设置的关键字,而是我们忽略的其他词。比如我们设置了“SEO分析”这个词,其实“SEO”这个词更相关。这样,由于最初的假设是基于预测结果的,因此存在偏差。