很多SEO依靠大量外部链接做排名
外部链接的相关度不高排名也没竞争力
那这样操作为什么也会带来更好的排名呢?
原因就是当初做外部链接的那些原则:因为是在相关的网页上做外部链接,因为链接放在这些网页上会有人直接点击进来。
很多新手经常会问的问题就是:为什么某个网页没多少外部链接或者没有什么PR值,排名会很好呢。网页的排名在他们眼里变成了比拼外部链接的数量和PR值。由于我很多次都说过不要这么重视PR值,那现在可以举个我常用的例子来讲透一下PR值和排名的关系。
如果把人比作网页,那么“芙蓉姐姐”的PR值相当的高,可能达到9或者10。但是当有人找会计的时候,一定不会去找“芙蓉姐姐”吧,因为她和会计一点关系都没有,哪怕她全身上下都写着“会计”两个字。搜索引擎也是一样的,当搜索引擎分析完整个互联网上几百亿个网页之间的关系,它会发现“物以类聚,人以群分”,判断一个网页讲了什么内容的时候,最科学的方法是看这个网页的外部链接讲了什么内容。所以在SEO上来说,做外部链接最重要的标准就是相关性、相关性、和……相关性。
非常在意外部链接数量和PR值的SEO人员,也可以这么思考一番:用户去搜索引擎是按关键词找相关的网页的,而搜索引擎会根据关键词帮用户找到相关的网页,但是PR值高的网页或外部链接数量很多的网页和用户找的相关网页之间没什么直接关系。所以排名和PR之间也没什么直接的关系。只要这个网页外部链接的内容相关度高,不管PR高不高,在相关的关键词上排名会很有竞争力。就算某个网页PR值很高,外部链接的相关度不高,那排名也没什么竞争力。实际上,搜索引擎不光会考虑直接的外部链接的相关性,连外部链接的外部链接的相关性都会考虑。
还有,弄清楚了PR值的那个计算公式的人,应该知道一个PR值高的网页只能代表这个网页的外部链接多以及外部链接的PR值也高而已。(最初始的PR值由搜索引擎选网站来指定。)
那从大量的外部链接页面带来很多直接流量,这个在SEO上又有什么好处呢? 这主要是和那种垃圾链接区分开来。在一个搜索引擎专家的眼里,互联网上各种类别的信息,无论是好的还是差的,都有自己的特征。垃圾链接的特征是这样的:这种链接的数量非常庞大,但是就是没什么人点击。如果一个网页的有大量的外部链接,但点击率只有万分之一或者其他更低比例,那这种链接就是垃圾链接。这个判断会非常的准确,问题是在于搜索引擎能不能知道用户的行为呢?
数据是由google的工具栏搜集的,然后再根据Google Analytics里共享了数据给google的样本和统计学上的算法来修正数据。现在Google工具栏的装机量有18%,也就是每100个网民中,有18个人的行为能被google追踪到,日复一日的积累,可以说几乎不会出错。无非就是不同的网站因为用户不一样有不同的误差而已。 对于百度,它的工具栏也能搜集很多数据,就算目前没有这种算法也会紧随其后吧,因为外部链接对百度排名的影响更大。
综上所述,外部链接收益最大化的方式是要忘记掉SEO再来做外部链接,也就是说为用户来做外部链接,而不是为搜索引擎来做。在确实满足了这个外部链接质量的前提下,用人来做链接还是用软件来群发都是可以的,无非就是一个效率的问题。搜索引擎不可能因为外部链接影响排名就不让那么多网站连正常的外部推广也不做了吧。
由于中国的人力非常的便宜,很多人想到的就是“人海战术”。过去的一年多,我以外部顾问的方式接触过很多的SEO团队,凡是有点规模又很重视SEO的公司,很多都有大量的外部链接人员。但是我也发现他们外部链接人员做的每一件事情,没有一样是电脑不可以替代的。哪怕涉及到内容的分析,电脑都可以做得比人有效率。
这就是我要讲的第二点:要追求效率,自动化地解决问题而不是人海战术。
现在很多“人海战术”做外部链接的团队,他们做的效率其实非常低的,效果还不可控。在这些团队中,有的团队会稍微注意一下质量,所以大部分用人手去找链接、分析链接和发布链接的;(只是质量标准和上面说的标准不一样)有的团队软件用得多一点,然后借助人手解决一些软件不能解决的问题。大部分团队都是混用各种方法的。一般用人手去做外部链接,一个熟练的外部链接人员一天最多只能做一百多个外部链接。借助了软件去,数量可以很多,不过由于软件的设计理念本来就是错的,所以做的大部分还是垃圾链接,有质量的链接非常少,甚至有很多用软件后反而被搜索引擎惩罚了的案例。 效果也不可控,同一个外部链接团队,连操作两个基本相同的网站都有可能一个效果好而另一个效果差。换了另一个网站,那就更不可预测效果了。
如果深入调查原因就会发现人海战术的过程中有很多问题会导致这种结果。先不说找链接的标准有问题,就说具体地执行某个标准的过程中也不能很好得执行到位。这是一种非常人肉、非常简单枯燥的工作,时间久了没有人真正喜欢。如果没有很好的控制和效果检测,外部链接质量会离当初的标准越来越远。而后面去检测那些外部链接的效果,也无非就是看是否成功的留下了外部链接,以及还是看PR值等这种信息。
其实在做这种简单又重复的工作上,无论从什么方面人都没有电脑可靠。从搜集与分析链接,到发送链接等等,只要软件设计得好,电脑更有效率。那如果判断一个网页的相关性呢?电脑只要有相关的技术,人在判断内容的相关性上也没有电脑准确。比如现在我写的这篇文章,到时候由人来判断内容的时候,只会觉得这篇文章讲了外部链接,要人去给这篇文章提炼关键词就只有一个“外部链接”了。如果是用电脑来分析呢?
一台电脑24小时内可以收集到几百万个;然后分析这些网页,在分析网页内容相关性的时候,借用了上面提到的一些搜索引擎的算法,相关度判断得比较准确而且这几百万个网页一天之内也能分析完成;在批量发送的过程中,由于在分析网页的时候已经自动判断出了这个网页是用什么网站系统做的,以及这些页面上是不是能做外部链接,所以可以调用相关的发送模块有针对性的来发送链接。