当前位置: 首页 » 资讯 » 科技头条 » 正文

英国《卫报》限制互联网档案馆访问:防止AI爬虫间接抓取内容

IP属地 中国·北京 编辑:李娜 IT之家 时间:2026-02-02 11:39:43

IT之家 2 月 2 日消息,英国《卫报》商业事务和授权主管 Robert Hahn 向 NiemanLab 确认,为最大程度降低 AI 通过快照间接抓取其内容的可能性,这家有着超 200 年历史的老牌媒体限制了互联网档案馆 (Internet Archive) 对其文章的访问

《卫报》认为互联网档案馆提供的 API 对于想要获取该媒体内容的 AI 公司而言是一个理想的替代入口,因此其已将自身网站排除在该 API 的适用范围之外;此外《卫报》还让其文章页面从互联网档案馆下线。互联网档案馆依旧可存储《卫报》的地区主页、专题页面和其它主页的快照。

AI 的发展对开放的传统互联网精神带来了新的挑战,“负责任地抓取数据”理论上有利于生态各方却难以落地实践。IT之家注意到,在《卫报》之前《纽约时报》、Reddit 等也禁止或限制了互联网档案馆对其内容的访问。

标签: 卫报 档案馆 互联网 主页 ai api reddit 纽约时报

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。