当前位置: 首页 > SEO学院SEO知识

夜息SEO培训 搜索推荐聚合放大你网站潜力SEO方法

来源:未知 浏览量:353次

  本文是写给有一定实战经验的SEO看的如果扫了两眼就说完全看不懂那不是我的问题。

  这个方法经过了大量的研究和实践网络营销中SEM竞价高手玩的是策略那不是我的问题。

  这个方法经过了大量的研究和实践证明是一套一直会有效果的SEO方法至少我身边好几个朋友做的都挺好给网站带来了大量的SEO流量。但请不要企图在看完本文后30秒你网站流量没有飙升觉得我在忽悠

  有具体问题可以@我新浪微博或者QQ上找我询问我很乐意解答如果是这个应该怎么做啊看不懂之类的问题我也无法回答。

  目的在于探讨一种挖掘网站的内容潜力把网站中用户可能会关心的内容呈现给用户满足其需求获取相应的SEO流量。

  很多大型网站都在用的一种方法但是很少有人出来详详细细的解释。

  这样的SEO流量是如何获得的下面举一个通俗易懂的例子。[size=1.7]

  假设我在百度上搜索“iOS英雄无敌3”目的是找一个能在iOS下运行的英雄无敌3这个游戏。

  事实上这个游戏并不存在。因此压根不存在一个页面可以让我找到我想要的内容(如果有也是标题党)

  于是我进入了tgbus的这个关于iOS英雄无敌3的页面。

  我在这个页面上找到了iOS上的英雄无敌2这个游戏以及其他类似英雄无敌3的iOS游戏以及一些奇奇怪怪的新闻(ok这个页面做得并不是很容易阅读)

  Finally,我在tgbus上下载了英雄无敌2的iOS版本试试。

  OK我们再换个实际生活中例子:

  一个姑娘去买衣服于是看上一条粉红色的连衣裙但是没她要的尺码。

  这时候营业员会怎么做没错推荐一些类似颜色or款式的连衣裙并且有码。

  (TGBUS似乎推荐出了一条牛仔裤。)

  SO我们应该如何去找出用户想要的连衣裙和我们仓库中有的连衣裙并且在最恰当的时候给用户最好的结果还能获取到SEO流量这并不是一件很简单的事情。

  Wait这不是就一个推荐引擎么?这么复杂的玩意交给工程师做就行了。事实上多数时候这只是SEO们一厢情愿的东西工程师才不会来鸟你什么推荐引擎我们先从一个可执行的角度自力更生来把这个SEO方法实施下去。

  二.内容分析关键词分析数据接口设计

  内容分析

  一个SEO知道自己网站有多少内容很重要经常遇到和人说:“你网站这个XX页面有问题”“啊?这是什么页面啊我从来没见过。”

  一般一个网站垂直去分有首页内容页列表页。

  内容页中又可能分图片页评论页文章分页等等

  列表页中又可能分频道页产品列表页索引页专题页等等。

  一般一套页面对应一套甚至多套php模板。

  需要弄清楚这些模板是否在一个架构内是否公用数据库页面上使用了哪些字段最好可以找到对应模板的开发人如果有条件申请到源代码查看权限可以自己看一下。一个内容聚合的需求可实现度很大程度上取决于上面这些内容先弄清楚把配料都弄齐全了再开始做菜否则巧妇难为无米之炊。

  横向去分可能是更多往business方向考虑比如有我们有卖线路的卖门票的卖酒店的攻略用户图片论坛帖子等等各个频道各个频道可能是由不同的部门在负责。哪些是网站热卖的需要热推(至少你做个SEO的东西得有商业价值在电商公司非常重要)包括各个频道是否有人还在运营一个常年无人打理的频道显然不是一个好的内容源。一般来说主要的产品线和UGC的内容一般是网站内容提供主力。如果我们想挖掘用户需求也可以优先考虑它们。

  这个步骤需要花很多时间复杂一些网站甚至要1个月才能弄清楚网站到底有多少类型的页面。在弄清楚上面的问题之后

  接下来就需要只要知道各类内容有多少数量。

  比如多少个SKU多少文章多少帖子多少tags多少分类等等

  这是很多人在做类似工作时考虑不周全的凭感觉去做。最后做出来一大堆重复内容的页面重复页面对SEO有多坏的影响就不用再提了。

  这个统计内容数量的办法(从好到坏排序)。

  1.读数据库

  2.通过一些”巧妙”的办法去数

  3.用工具抓

  4.靠经验猜(基本不靠谱)

  读数据库是最简单也是最准确的办法了一个select完事。

  如果没有数据库权限就要去想办法知道。比如文章有多少条

  那可以计算分页数量*每页文章数量来统计

  如果是自增id那来凑自增id来数

  如果是固定格式数据比如来北京的图片北京的天气地区数量*类型来计算等等

  通过工具抓是很多seo的梦想无数人问过这样的问题有没有什么工具可以统计出我网站有多少网页啊。

  抱歉还真没有由于种种网站原因没有任何一个工具可以统计出一个中大型网站到底有多少网页(谁有那这个工具比google百度爬虫还NB)太多的爬虫陷阱阻碍深入抓取的东西了。当然这样的抓取工具并不是一无是处对于小型网站或者特定频道甚至特定区块的抓取还是有一定作用的。比如Httrack,Xeun当然还有我比较喜欢用的火车头。python,shell等脚本语言一直是万能的。

  对于分库分表的超大型站我也没有经验应该怎么做但是我觉得和数据库管理员搞好关系他可能会帮到你毕竟人家才是专家。

  上面基本就是内容分析的大致情况了弄清楚内容的种类数量和运营情况对SEO是有很多好处的。

  关键词分析

  关键词分析我一般从3个角度去考虑。

  1.搜索量其实这个指标是最不重要的但是确实是大家最关心的指标所以我先放第一个说。大部分到访关键词的搜索量都是很低的。我举个例子看一下。

  选取了某频道月访问量低于30次的关键词平均下来就是一天只能带来一次访问的关键词是163k左右的访问量

  选取了月访问量高于30次的关键词平均下来就是一天只能带来一次访问的关键词是145k左右的访问量

  连续观察这组数据我们可以看到如下结论

  一个月能带来1000访问量的关键词平均到每日也仅有30多左右这个频道的平均CTR大概在10%左右那每日的搜索量也仅有300不知道读者能看懂我的意思没搜索量并没有想象中那么重要。

  2.相关性这个相关性又分两个方面1是关键词之间如何把有相关性的东西提取出来学术一点的概念叫做聚类2是关键词和内容之间如何建立相关性。

  先说说为什么要把有相关性的关键词提取出来1是便于分析用户的兴趣点以小见大。2是查找重复/类似的关键词。说个常见的外贸行业的SEO手法往zencart或者magento里面导入几百万的关键词然后再站内搜索中搜索产品生成几百万个页面来获取SEO流量思路是正确但是做法太粗糙往往生成的几百万页面中只有几百个页面能获取到流量。我们来看看下面一些关键词

  ”

  去北京玩多少钱

  北京玩多少钱

  北京玩几钱

  北京玩要多少钱

  …

  ”

  这些关键词讲述的意思是一样的完全没有必要制造多个页面.

  3.商业价值

  三.关键词挖掘清洗与过滤

  关键词的挖掘说难不难说简单也不简单。

  基本每个人都会问怎么挖掘关键词制作词库。先说说一些常用的手法。

  1.baidu/googleAPI

  2.采集爱站chinaz,伯乐等数据

  3.采集百度下拉框(其他搜索引擎同理)

  4.采集百度相关搜索(其他搜索引擎同理)

  5.站内搜索和自然流量关键词

  6.现成字典/词库

  讲点具体实现的一些注意点都是在实践过程中总结出来的东西。方法说了基本10个人里面有1个人去实践一些就不错了

  1.百度和google的api是要申请的想办法搞一个如果没有只能用百度网页级别的采集百度竞价后台经常改所以不是很稳定。百度API的python的SOAP通信有BUG连不上(可能我水平太低了T_T)PHP会SOAP通信的话可以自己写脚本来跑Google的没玩过应该差不多

  2.API是有精确搜索量的数据所以是词库第一数据来源

  3.相关搜索可以用火车头或者飞达鲁金花之类的因为是采集SERP反采集这块要想办法绕过

  4.站内搜索和自然流量关键词去GA搞一下就行批量导出不说了。很简单不是用的GA可能会悲剧一些。

  5.一些特殊的搜索引擎淘宝youku之类他们也积攒了大量的数据信息

  四.分词/检索/排序/修正

  五.频道的运营维护拓展

展开全部内容