您的位置:首页 / 互联网 /白宫

白宫扩大使用搜索拦截程序 窥探奥巴马IT政策立场

ZDNetnews 更新时间:2009-02-03 09:11:19作者:CNET科技资讯网

本文关键词: 白宫 | 搜索引擎 | 奥巴马 |

CNET科技资讯网2月3日国际报道 美国白宫已悄悄把禁止Google等搜索引擎访问的网页数目提高到原来的三倍,这么做就信息公开透明而言是坏消息,还是风马牛不相干?

奥巴马宣誓就职后数小时,就有博客与IT记者开始检视新白宫网站,希望从robots.txt文档窥探新政府的科技与隐私政策的未来方向。网站通过robots.txt文档,划出搜索引擎可以爬梳的界线。

奥巴马1月20日上任后,白宫网站起初贴出的robots.txt文档只有两行:

User-agent: *

Disallow: /includes/

一群IT专家与博客立刻撰文赞扬,指出这显示奥巴马对信息公开、透明的承诺。

但一周后,白宫网站悄悄开始扩大使用robots.txt的搜索引擎拦截机制。截至上周五早晨,该文档内容已扩充到包含下列几行:

User-agent: *

Disallow: /includes/

Disallow: /search/

Disallow: /omb/search/

可以这么说:白宫在一天之内,把禁止搜索引擎爬梳的网站数目提高到原先的三倍。不过,同样重要的是,这么做没什么大不了的,事实上,这根本无关紧要。

原因是,布什白宫使用robots.txt完全合法。诚如Friendfeed工程师Kevin Fox在Google Blogoscoped里所言:

“这件事有点蠢,旧的robots.txt排除内部搜索结果页和HTML网页里重复的文字版。这正是robots.txt的功用。Google的网管人员指南里就指出,使用robots.txt可避免爬梳到不能为使用者增添搜索价值的搜索结果页,或其他自动产生的网页。”

“可想而知,一个8年旧网站的robots.txt,绝对比才面世一日的网站的robots.txt来得长。而且,它又不是内含限制访问最高机密( '/secrets/top')或限制访问卡特里娜飓风反应( '/katrina/response/')这样的字眼。”

简单说,建立、管理robots.txt文档的是工程师,不是律师或政府决策人士,所以凭这个文档来评断美国总统的IT政策立场,是不适宜的。

相反地,要评断总统的IT政策方向,应看他对实际问题的作法而定,例如他任命多少前任RIAA和MPAA律师,出任联邦贸易委员会(FTC)和联邦通讯委员会(FCC)的职位?又任命谁担任新的网络安全官员?

至于检视奥巴马总统对信息公开透明的承诺可知,他已经违反先前的承诺。他曾保证,会在所有非紧急法案签署前五日,先把法案全文张贴在白宫网站(Whitehouse.gov)上。但日前签署的2009年Lilly Ledbetter Fair Pay Act,却显然未先贴上白宫网站五天之久。

要评断奥巴马,是要检视这类具体细节,而不是凭robots.txt文档就遽下断语。(Chris Soghoian)

    

好看好玩

用户评论

用户评论

  • 用户名
  • 评论内容

CNET Networks
Copyright ? 1997- CNET Networks 版权所有。 ZDNet 是CNET Networks公司注册服务商标。
京ICP证150369648号 京ICP备15039648号-2
京公网安备 11010802021500号