利用htaccess文件实现域名301转向

准备换域名了,需要把老域名转向新域名,最开始直接用dns服务器的301转向功能,但是只能把所有指向旧域名的链接全都转向固定新域名flog.pp.ru,但是没法实现子目录的转向,对通过搜索引擎带来的链接不能顺利转向目标地址。

所以考虑使用htaccess文件来实现转向,没研究过具体规律,搜了一个能用的,顺便找了个防盗链的一起记录如下:

这几行实现域名的301转向,把指向df-blog.cn的链接都转向flog.pp.ru

RewriteEngine On

RewriteCond %{HTTP_HOST} ^www.df-blog.cn [OR]

RewriteCond %{HTTP_HOST} ^df-blog.cn [OR]

RewriteCond %{HTTP_HOST} ^www.flog.pp.ru$ [NC]

RewriteRule ^(.*)$ http://defe.me/$1 [L,R=301]

RewriteBase /

这几行实现防盗链

RewriteCond %{HTTP_REFERER} !^http://defe.me/.*$ [NC] 

RewriteCond %{HTTP_REFERER} !^http://defe.me$ [NC] 

RewriteCond %{HTTP_REFERER} !^http://defe.me/.*$ [NC] 

RewriteCond %{HTTP_REFERER} !^http://defe.me$ [NC] 

RewriteRule .(jpg|gif|jpeg|png|bmp|swf|rar|zip|exe|7z)$ http://defe.me [R,L]

 

原来的CN域名被停了,不准备用了,使用新域名

在不知情的情况下df-blog.cn被停止解析了,搞忘了提交个人资料到万网。已经提交了,不知什么事后能审核通过,暂时就用flog.pp.ru。反正是个人博客,没什么流量,也不想赚钱,只是个人做着耍的,手头还有几个免费域名和一个收费域名,换一个上来,搜索引擎的收录无关紧要,过几天自然就有了,对cn域名也不准在使用了,这次能解析之后,全转向到新域名,cn域名等到到期不再续费。

做了一堆无用功,终于把系统装好了

    前几天想把机器上的ubuntu更新到10.10,结果由于网速慢机器老,更新到最后剩15分钟的时候,等了很久都还是15分钟,没更新完我就直接关机睡觉了。第二天起来发现进不了系统了,grub的启动菜单不见了,windows也进不去。于是乎准备更新MBR,结果手头没纯dos启动盘,用了个winpe,里面带的磁盘工具有个更新MBR的选项,由于不熟系该软件操作后没提交执行就退出了。重启发现还是无法进入,用另一张带dos工具菜单的盘启动,有清除MBR的功能,执行后发现一个严重问题,安装grub引导信息的硬盘上的所有分区都不见了,我的好多个人资料都放在上面,急得汗一直冒,准备找磁盘数据恢复软件找回数据,后来一想多半是分区表被破坏了,一张winpe盘上有个磁盘管理工具带分区修复功能,弄了半天,终于把分区回复,还好,数据都还在。

   见于winxp用了很久了,速度慢了,顺便先重装了winxp,再装ubuntu10.10。安装过程也是一波三折,winxp安装顺利,再装好ubuntu时一重启,糟糕了,grub菜单都看不见,只能看到在自检后显示的那个设备列表。重装ubuntu几次都这样。后来一考虑,直接把装winxp的硬盘拔了,只留一个硬盘安装ubuntu,装好后再把winxp的盘挂上,好了。能启动了。看来还是引导记录的问题,安装在ubuntu所在的硬盘就没问题,一装到winxp所在的硬盘就没法启动。

    以上这些反反复复折磨了我两三天,终于还是整完了。现在一个郁闷的事情时ubuntu10.10下nvidia的显卡驱动装不上,受限驱动能激活但是没法使用,nvidia的linux驱动能装不能用,只能用默认的驱动。老的GF2MX400的显卡也耍不起啥特效,但是想到驱动都装不上心里还是不舒服。今天整了半天了,还没找到合适的方法,看来只能这个样了。

网络爬虫带走的流量有多大?

      defe.me域名闲置了一段时间,不知道干什么,前几天挂了一个TE上去,一直是刚安装完成的那个状态。自己就进后台简单设置了下,什么都没写,就在昨晚登入主机管理面板发现流量损失巨大,什么都没有的东西难道会有N多人来访问?有人说是盗链,才建的站没得什么东西可盗的。百思不得其解,看日志有3G多的Apache流量。没法只有下载apache日志分析。

      8号900多M将近1G流量,9号2G多流量消耗,8号日志没备份,从9号这天的日志来看,除了自己的点击之外,就只有几个搜索引擎的爬虫经过?不过流量这么巨大?太吓人了。一个空站,几个爬虫经过就带走了3G多的流量,我正在用的这个博客站也没经历过这种情形。一直没怎么注意,看来要加robots.txt文件来限制爬虫了。针对一些自动采集程序,也没法。