日期:2011-08-18  浏览次数:20497 次

  站群一条龙服务:域名,内容,程序,seo。

  关于域名:

  众所周知,老域名有权重优势,即使没权重优势也有收录优势。但是怎么发掘老域名了,你是否只是在域名买卖中去寻找?你遍历过每天删除的域名吗?什么?你说人工遍历,你能否写个程序,遍历每天删除的域名,找到备案的,企业的,收录的老域名?你觉得不能,但是有人每天在做,他不在乎域名好坏,(在乎的话只能去高价购买了,我们这里讲的省钱的,自己注册的方式),说穿了,工具能产生效益。

  关于内容:

  如果你做精品站,那没得说,只能一步步做好用户体验,做好内容。如果做站群,你不能花太多的时间考虑内容的可读性和完善性,而是彻底的从长尾去选择。站群软件是个目前逼不得已的选择,但是任何程序,一旦踏上商业道路,不可避免的就是冗余和复杂的功能,因为这样才有卖点。对应产生的便是操作的复杂,并且会产生各种各样的使用问题。你做到过500站的内容吗?任何站群软件,如果对应500个站,假如每个站对应6个栏目,那么直接的3000个栏目的更新和设置,你操作过吗?每个站对应1万的内容,500万到几千万级别的数据库,你如何进行管理和备份?如何生成页面?如何方便的更新广告js文件和统计文件?我相信大多数人都是和做一个站的思维一样,只是简单的重复而已。

  我自己写了个cms,自己简化了数据库,自己统一调用所有js文件,这些都不是技术问题,而是思维问题。至于更新问题更简单,你理解过什么是更新?更新就是每天增加一定数目的内容,用得着每天增加吗?不能一次增加好,每天放出一部分?说到底,只有真正理解了概念,才能不被人云亦云的引导,才能出其不意制胜。我已经为6个客户更新大概2000多个站,上亿的数据,700万的关键字,而且这些都是我一个人就做到了。如果你需要做站群,可以联系我,我依旧提供这些方面的服务。其实你也可以做到,问题并不是技术层面,而是你需要从更高方向和相反方向去审视你要做的事情,然后无论是自己动手还是请人来解决问题。

  关于程序:

  zblog,wordpress,dede,之类很多的cms,都说dede seo好,你知道到底好在什么地方吗?你试过多少cms,其实只要商业化的cms,其功能对于我来说都太冗余,我需要的最简单:首页 index.html 栏目页 list.html 和文章页 xxx.html ,这样就是一个简单的架构了,任何搜索引擎最喜欢的也无谓就是这种结构的cms,简单,清晰,利于爬行。凡是我的客户,我都用我自己写的cms,更换模板而已,不必任何的商业cms差,而且最大的优势是,我可以删减任何我不需要的功能,无限定制任何我需要的功能,每个站代码精简到极致,页面代码精简到极致,又怎么会不利于seo呢?

  关于seo:

  搜索一些seo教程,看看A5杂谈和seowhy的论坛,一天时间能你就能了解所有基本的seo资料。你赞成吗?

  没错,网络上都是重复的不知道多少遍的内容了,结构,标题,描述,关键字,内链,外链,导出导入,

  还有其他的吗?我曾经在百度专利搜索里面,把搜索引擎相关的专利,所有的都看了一遍,我觉得这是非常实用的一个资料,它可以简单的告诉你,搜索怎么识别文章的特征元,如何判断作弊,如何提取相关特征码,在怎么进行排序,搜索引擎也不过是个程序,我自己不研究黑帽,我做的就是边缘化seo,利用无尽的长尾,避免被k,保持长久,这样远比一时的分光又一时的低落来的平静,来的长久,来的让人安心。这也是我理解的站群的真正意义。

  另外seo中,每个细节,你都仔细研究过,还是听取别人的见解?对我而言,任何东西都需要经过我自己的解释,能符合理性和感性和谐美的解释,我才会接受。

  举个最简单的例子:蜘蛛留下的 200 0 64 代码这个问题,这么久的时间,你知道它的确切意义?网络流传这时百度k站的前兆到底和64有什么相关性?

  我也遇到过,百度k站,黑盒子,64位操作系统,gzip的原因,浏览器相关,等等,网络流传和多解释。很简单,我找到一个200 0 64的站,拿出他的日志,到微软网站找到相关字段,解释是:64是代表指定的网络名不再可用. 这个肯定是权威,但是和网络流传的各种原因有关系吗?他们怎么发生联系的?

  于是我写了个数据流,用IE firefox chrome 不停的测试。(为什么用不同浏览器?你知道百度蜘蛛采用的数据流和firefox相近吗?不信?Mozilla/5.0+(compatible;+Baiduspider/2.0; Mozilla的意义总知道吧。)

  发现64的网络名不在可以用,是因为客户端(浏览器)方面,在最后没有ack进行确认,导致记录64.而这也是在gzip启动时候更容易产生,同时因为没有完整关闭流程,客户端即使得到想要的数据包也会认为没有实现完整流程,而倾向于认为抓取失败,如果次数多了,蜘蛛认为该站不可到达,或者错误页面过多,而进行相应的处理。这也和网络大家总结的一些经验可以得到相互验证。

  当时我也认为这种解释我能够信任的。然后,到现在,新域名在初期,只是百度蜘蛛的200 0 64,却依然令我无解,我不是完人,这种单方面的东西,我也在百度站长俱乐部的贴吧里,看到百度工程师的一些回应,却依旧不了了之。

  seo,不是看看文章就能真正了解的,每个细节,都需要自己去操作,自己去体会,自己去解决,才有进步。或许你懂了seo的所有基础和功能性的手段,但是如果你没有一再的尝试和研究,你就站不到更高的层面看问题,seo策略,seo恒久之道,seo的取舍,seo的返璞归真,这些都是非功能性的技术能说清楚的。

  关于单页面:

  曾经单页面比较流行,一个页面一个站,通过一些手段获取很好的排名,丘大也曾给过案例,例如163邮箱。后来发展到无限二级域名单页排名垄断。获取关键词,用大量的字句,随机组成文章,在随机关键词来做标题,在随机字母数字生成二级域名,随机插入到文章中,批量建站,单ip单域名可以一天生成几万网站。依靠长尾来获取流量,或广告,或跳转来盈利。如此简单的手法,但是第一个利用这种方法的人却不简单,至少他实验过百度是如何进行域名分级处理和预处理的(留点悬念,为什么.name .or .tk .co这种域名才能最大化收录,百度是怎么预处理www.xxx.org.name这种域名的?为什么会把www.xxx.org.name看成是一级域名?现在搜索改进了,你应该怎么进行对应的改进)。这些不是现成的seo资料能告诉你的,也是长期的琢磨,从搜索的根本原理处理上悟出来的方法。

  参考这种原理,我自己写了一套简单的程序,比网上流传的程序简单精简的多,使用也方便的多。虽然已经过时了,但是我想这种借鉴参考的意义,是很多人不想去琢磨的。我把这个单页面单独拿出来说,是想说,任何一种技术手段,你要争取做第一个创造的人,你才能有收获;如果你不是第一个创造的,你要去研究,发现他的关键之处,发现他能发明这种方法的思路,然后对此进行改进,说不定也会有出奇制胜之处。我改进的手法,对百度没多大用处了,但是对于其他搜索引擎,依旧有着几万到几十万的收录,流量不大,但是对于一些非热门的定向关键词,依旧有着某种意义的统治性垄断。赚点小钱是可以的。不会枉费研究的辛苦。

  关于备案:任何事件都是一样,对于一部分人是折磨,对一部分人确实机遇,遇到非常事件时候,不要一味的埋怨和咒骂,从另一角度多琢磨,总有各种各样的方案能解决。你可以把网站搬到国外,也可以放在国内花钱备案。国外的机器慢,又贵,还是不是被封锁,国内备案了又担心取消,还有无穷无尽的非法信息删除,你试着总结国内国外的优势和劣势,会不会想到这么一种解决方案:域名指向国外,无需备案和删除什么信息,服务器在国内,速度又快有好管理,相对也便宜? 你认为没有这种方案? 其实很简单,只是你不善于琢磨而已,很多人已经开始用了,简单实用,又花钱少,不是cdn不是缓存,而是,反向代理。

  站群原则1:不向任何人提供任何案例。

  站群原则2:不做任何毁灭性的导出。

  站群原则3:持久是最优方案。

  我理解的站群是低调的,长久的,盈利的,积累起来的暴利行业。

  如果做到了,可以想象三年后3000站,每站100ip的稳定输出盈利,该是多大?但是做到稳定输出,才是个人的功夫所在。

  文章是一口气写完的,很多地方可能有些词不达意,或者错误的认知,欢迎相互交流 qq群:214399182