一 : 浅谈如何利用独立博客推广网站
本人比较懒,不舍得多动脑筋,所以总想找一些简单的方法来推广网站。众所周知起点最低的当然是博客推广了,只要能坚持下来就是一定有效果的,所谓seo很大一定程度上也就是坚持,重在执行。除了第三方博客,利用独立博客推广操作也比较简单,不过用博客推广重在一个“养”字,而不是直接推广。
一、自建独立博客
自建一个博客独立用一个域名空间,也可以用一个放在网站的一级目录下。使用独立域名的好处是可以增加网站外链,引蜘蛛访问,博客程序一般都使用维护方便、 完全不用做什么技术活,所以可以同时建多个以作养站。放在网站的遗迹目录下的好处是可以直接丰富这个域名下的文章内容,增加收录,并可以自由的做其他页面 的链接,用以完善内链结构和导引流量。
二、博客评论
这是一个老生长谈的话题了,怎样发评论就不多说了,这里说说如何寻找优质的独立博客。
1、通过搜索引擎,如搜索“博客”一词会很多独立博客的结果,但是这些博客很多都是带nofllow的,如果这个博客的流量非常大,可以考虑用来发评论也 可以带来一些流量,毕竟发一个评论并不费事,带nofllow而且流量小的那就直接淘汰掉。不带nofllow当然是收集起来留着用了。但是留下的这两种 博客,要分清楚各自的用途,带nofllow但是流量大的用来导流量,所以评论的关键词和内容要吸引眼球,而不带nofllow的要侧重关键词以传递权重 提升排名。
2、团队博客
一些较大型的IT公司都用自己的技术团队,往往这些团队都会写一个博客,如腾讯、金山、诺基亚,这些都有的,本人就收集了不少这样的博客。这种博客的权重和访问量都是相当高的,绝对值得好好把握。
3、平时的积累
有时候我们找文章找资料看到的文章有出自独立博客的,不要看一下就过了,记得把这些博客收集起来。
三、友情链接
博客虽小五脏俱全,有些博客原创性很高,搜索引擎非常喜欢,所以权重也很高了。而他们的导出链接非常少,和这样的博客交换链接是不错的。如果对方博客不足 够达到目标网站友情链接的要求,可以用自己的独立博客和他交换,或者用网站的某一个栏目也是可以的。
本文由世界窗皮具网www.worldmall.cn 网络推广专员提供,转载请保留链接
注:相关网站建设技巧阅读请移步到建站教程频道。
二 : 如何利用博客做CJ赚美元
CJ是国外最大的销售联盟,广告主有两千五百家。同时CJ也是国外一些网站主的主要收入来源,其中一个牛人靠CJ就月入三十万美元。如果你有英文站,上面的某些广告可能就是别人拿来做CJ的。
好了今天我们要说的是怎么用博客来做CJ,希望能帮到大家。首先你得有个英文站去申请CJ的广告。没有的朋友请去找一个没有挂CJ广告的来申请。一般两三天就会批准,只要你找的网站不是太垃圾。注意地址名字必须真实,因为CJ是支票付款的。找到后就去申请广告,有时间的话全部申请,否则申请前一千。有些广告主直接拒绝你,有些直接批准你,有些则手工批准。但是几天下来你应该可以做一百多家。但是别着急,你不可能全部做的。接下来就是分析广告主,找那种三个月EPC比较高的。然后去调查他的关键词。拿到关键词就去分析竞争是否激烈,这个就是大家的拿手好戏了。
接下来就去www.blogger.com申请一个博客,在玉米里面放上你的关键词,然后做几个页面,等待搜索引擎收录,哈哈流量。同时再次登陆CJ,把你的博客放上去并获取代码,切记不要用那个网站的代码。 现在最重要的部分到了。去google.com搜索你的主关键词。因为收入比较好,做的人比较多,搜索一下基本能找到别人做的广告页。选那个排名比较好的,全盘复制,小范围修改。然后放上你的代码,哈哈注意多放几个,给别人买的机会。接下来就是发挥你的所能宣传这个页面。等到流量上来了就追踪转化率,优化。 CJ的销售收入比较可观的,好一点的都是几十上百美元,比中文谷歌广告好多了。记住你同时可以在博客上面放谷歌广告,英文的哦。
好了总结一下,我们用博客做CJ主要优点是成本低,玉米空间免费。同时借用了别人的成功的landing page,只要有搜索来的流量,转化率可以。好了有兴趣的,对收入不满的站长可以好好试验了,祝大家好运。
三 : 如何利用robots.txt对wordpress博客进行优化
笔者在百度站长平台检测自己的博客时,出于优化的惯性,对博客的Rbots进行了检测,进而在百度搜索了wordpress博客robots的写法设置问题,看了很多wordpress高手对robots优化设置后,终于有所领悟,在此也分享给一些wordpress新手看看如何去善用robots.txt对wordpress博客进行优化。
一、先来普及下robots.txt的概念:
robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不能被搜索引擎的漫游器获取的,哪些是可以被(漫游器)获取的。这个文件用于指定spider在您网站上的抓取范围,一定程度上保护站点的安全和隐私。同时也是网站优化利器,例如屏蔽捉取站点的重复内容页面。
robots.txt目前并不是一种标准,只是一种协议!所以现在很多搜索引擎对robots.txt里的指令参数都有不同的看待。
二、使用robots.txt需要注意的几点地方:
1、指令区分大小写,忽略未知指令,下图是本博客的robots.txt文件在Google管理员工具里的测试结果;
2、每一行代表一个指令,空白和隔行会被忽略;
3、“#”号后的字符参数会被忽略;
4、有独立User-agent的规则,会排除在通配“*”User agent的规则之外;
5、可以写入sitemap文件的链接,方便搜索引擎蜘蛛爬行整站内容。
6、尽量少用Allow指令,因为不同的搜索引擎对不同位置的Allow指令会有不同看待。
三、Wordpress的robots.txt优化设置
1、User-agent: *
一般博客的robots.txt指令设置都是面对所有spider程序,用通配符“*”即可。如果有独立User-agent的指令规则,尽量放在通配“*”User agent规则的上方。
2、Disallow: /wp-admin/
Disallow: /wp-content/
Disallow: /wp-includes/
屏蔽spider捉取程序文件,同时也节约了搜索引擎蜘蛛资源。
3、Disallow: /*/trackback
每个默认的文章页面代码里,都有一段trackback的链接,如果不屏蔽让蜘蛛去捉取,网站会出现重复页面内容问题。
4、Disallow: /feed
Disallow: /*/feed
Disallow: /comments/feed
头部代码里的feed链接主要是提示浏览器用户可以订阅本站,而一般的站点都有RSS输出和网站地图,故屏蔽搜索引擎捉取这些链接,节约蜘蛛资源。
5、Disallow: /?s=*
Disallow: /*/?s=*
这个就不用解释了,屏蔽捉取站内搜索结果。站内没出现这些链接不代表站外没有,如果收录了会造成和TAG等页面的内容相近。
6、Disallow: /?r=*
屏蔽留言链接插件留下的变形留言链接。(没安装相关插件当然不用这条指令)
7、Disallow: /*.jpg$
Disallow: /*.jpeg$
Disallow: /*.gif$
Disallow: /*.png$
Disallow: /*.bmp$
屏蔽捉取任何图片文件,在这里主要是想节约点宽带,不同的网站管理员可以按照喜好和需要设置这几条指令。
8、Disallow: /?p=*
屏蔽捉取短链接。默认头部里的短链接,百度等搜索引擎蜘蛛会试图捉取,虽然最终短链接会301重定向到固定链接,但这样依然造成蜘蛛资源的浪费。
9、Disallow: /*/comment-page-*
Disallow: /*?replytocom*
屏蔽捉取留言信息链接。一般不会收录到这样的链接,但为了节约蜘蛛资源,也屏蔽之。
10、Disallow: /a/date/
Disallow: /a/author/
Disallow: /a/category/
Disallow: /?p=*&preview=true
Disallow: /?page_id=*&preview=true
Disallow: /wp-login.php
屏蔽其他的一些形形色色的链接,避免造成重复内容和隐私问题。
10、Sitemap:http://***.com/sitemap.txt
网站地图地址指令,主流是txt和xml格式。告诉搜索引擎网站地图地址,方便搜索引擎捉取全站内容,当然你可以设置多个地图地址。要注意的就是Sitemap的S要用大写,地图地址也要用绝对地址。
上面的这些Disallow指令都不是强制要求的,可以按需写入。也建议站点开通谷歌管理员工具,检查站点的robots.txt是否规范。
好了,以上就是对利用robots.txt对wordpress博客进行优化的详细内容,希望可以帮助和我一样刚接触wordpress博客的同学。
本文标题:如何利用博客推广-浅谈如何利用独立博客推广网站61阅读| 精彩专题| 最新文章| 热门文章| 苏ICP备13036349号-1