好吧,我承认我“标题党”了,这在SEO技术里面叫做提高点击率,当然你需要有足够的内容来支撑,不然跳出率高了,排名也是要掉的。
一 、 SEOZQ吗?
不是SEOZ不ZQ?是拥有了流量能不能变现,我想流量的价值并不需要再讲了,大家也都知道流量是值钱的。而SEO只是一种获取流量的技术。之前我们通过个淘客站,月入十万,成本每月左右,可以参考一下。SEO神机营只会分享技术和思路,并不打算分享实际项目,SEO项目一但公开,大多活不长。
并且从后面的分享,可以知道我们的项目大多建立在大数据分析下,寻找大量长尾易优化的需求来获取流量的,低竞争度是我们保证大概率排名的基础。
二 、SEO流派
SEO江湖有多种流派:经验派、黑帽派、数据派等。
如果要把我归类的话,我应该属于数据流派,通过大数据挖掘和监控来做SEO。
江湖普遍认为数据流派起源于早期光年国平的SEO培训,确实我也是那时候参加培训后才知道原来SEO也是可以做到科学可控的。
如果你对如何做数据可控的SEO没有概念的话,可以网上找一下国平的SEO培训视频看一下。
有些人认为SEO就是利用搜索引擎的规则骗取流量,是不入流的做法。我觉得这是片面的,先不说SEO有分黑白帽。哪怕是黑帽SEO,我认为只要不违法,那就没有什么问题。不入流就不入流吧,毕竟体面的ZQ那只属于少数精英人士。
三、 为什么学不好SEO
互联网上的SEO文章绝大部分都是毫无根据的猜测,或者是老生常谈类的,如果你是依靠这些东西来入门,没有一个体系,那自然学得茫然。
不同的行业SEO手法是不一样的,所以你看到一个SEO方法,直接用在自己的网站上,大概率是要悲剧的。
网上的SEO培训,一类是方法类的培训,这种就是告诉你一个方法,然后你按照他的方法去做,这种一般都是短期有效,或者不通用。另一类是基础培训,靠这些基础,以前你可能还能够做出一些效果,但现在已经比较难了,搜索引擎优化本质是一种排名竞争,当别人比你拥有更高阶的技术时,你自然就排不上去了。
我想现在应该没有人会否认SEO是一项技术活,它涉及到 内容采集、服务器、网站开发、数据分析等技术,只有这些知识你都懂了,你才能成为一个高手,自然通过SEOZQ也是必然的。
四 、数据可控的SEO
数据流派SEO,主要是依靠大数据,对用户的需求进行挖掘,寻找需求和搜索信息不对称的数据,然后利用程序聚合或生成内容来满足这些搜索需求,从而获取流量。
在整个操作过程中,我们依靠数据来指导我们做什么站,做什么内容,以及如何生成内容,并且监控抓取,收录,排名, 页面质量,内外链等指标,实现SEO大概率可控。
这里所说的可控,并不是指每个页面的排名我们可控,而是比如我们上了一万个页面,我们能不能做到%的收录,%的排名。所以应该说是整体可控。
五 、数据流派SEO操作方法
以下简单介绍一下,以后会每个点进行详细说明
. SEO数据收集
数据收集是后续数据分析的根本,我们不仅收集自己网站的SEO数据,也收集全网大部分网站的SEO数据,自己网站的数据主要用于SEO效果跟踪,全网数据主要是用于策略挖掘与发现。
.词库与内容处理
这部分网上有很多文章,总体上也大差不差,差别就在于技巧和细节,比如在词库去重上,很多都是直接匹配是否两个词一样。那像 “大码连衣裙”的 "连衣裙大码" 这样的词,就会被认为是两个不同的词,你需要做两套内容去承载。
如果你懂得技术,那么通过 伪随机数 和 加法交换率 就可以把这两个词识别为同一个词。
再比如原创度检测,现在很多都是把文章的句子拿到搜索引擎去搜索,看一下飘红的情况来判断原创度,这里如何快速且大批量的搜索请求,就成了一个瓶颈。你可以用网上一些平台的API去检测,这也只适合小网站,数据不多的情况下。千万级别数据检测的话成本太高。
内容处理还包括伪原创,主体识别等技术,只要你的工具链都对接起来,你就能够批量且快速实现你所要的站点。
下一代的内容创作大概率是要AI伪原创了,这一方面走得比较前面,但我们也在研发,原因是第三方接口无法满足我们大规模的数据请求,主要是贵。目前简单伪原创已经够用了。
.数据决策
通过数据分析,我们可以找出我们想要研究的站点,比如最近百度收录涨幅较大的网站或者排名波动大的网站。也可以找出哪些词流量与内容不匹配,是百度无法满足搜索需求的。
当分析一个站点时,我们可以通过内容质量,外链数据等指标来分析,而这些都是我们在数据采集过程中长期跟踪并记录的。
比如找出域名注册时间一年内,并且网站标题包含有“公司”的站点,我们可以看到这些网站命中了多少关键词与及百度收录情况等。
以上只是简单的举例,实际数据分析和最后做出SEO决策是一个比较复杂的过程,需要多种工具和数据进行配合分析。这块以后会分享。