发新话题
打印

央视“今日关注”谷歌专题暗藏巨大危机

央视“今日关注”谷歌专题暗藏巨大危机

看了驴友推荐的央视23日播出的“别了,麻烦谷歌”,在气愤之后发现“方叫兽”有意无意的透露出了中国政府可能对付google的手段,那就是下发一个文件,就像要求所有大陆网站备案那样,强制备案网站的同时在robots.txt中禁止Googlebot的爬行,这样的话,google也就大范围失去了中文的信息来源,后果不可想象!

附维基百科对于robots.txt的解释:
robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不能被搜索引擎的漫游器获取的,哪些是可以被(漫游器)获取的。 因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写。robots.txt应放置于网站的根目录下。如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据

TOP

我认为如果我们敬爱的政府真的这么做,google也无从应对,毕竟google是个尊重隐私的公司,在无法分辨哪些内容是“被不允许爬行”的前提下,是不会盲目的一刀切的,穷人们,仰天长叹吧,有钱人,想办法物理翻墙吧!

TOP

引用:
原帖由 velev 于 2010-3-25 10:09 发表
如果真这样做,只能用卑鄙无耻来形容,央央大国的气度竟然小到这种程度,实在另人叹息

卑鄙无耻这个词对本国政府来说,早就用烂了!

TOP

楼上的,到时候robots.txt就会都“被有”,然后必须加上一句如下内容:
User-agent: Googlebot
Disallow: /

User-agent: googlebot
Disallow: /

TOP

中国政府怕啥,大不了不陪你们玩了,卷铺盖去国外

TOP

发新话题