当前位置: 首页 » 资讯 » 科技头条 » 正文

英国《卫报》限制互联网档案馆访问:防止AI爬虫间接抓取内容

IP属地 中国·北京 编辑:赵磊 IT之家 时间:2026-02-02 12:47:49

IT之家 2 月 2 日消息,英国《卫报》商业事务和授权主管 Robert Hahn 向 NiemanLab 确认,为最大程度降低 AI 通过快照间接抓取其内容的可能性,这家有着超 200 年历史的老牌媒体限制了互联网档案馆 (Internet Archive) 对其文章的访问

《卫报》认为互联网档案馆提供的 API 对于想要获取该媒体内容的 AI 公司而言是一个理想的替代入口,因此其已将自身网站排除在该 API 的适用范围之外;此外《卫报》还让其文章页面从互联网档案馆下线。互联网档案馆依旧可存储《卫报》的地区主页、专题页面和其它主页的快照。

AI 的发展对开放的传统互联网精神带来了新的挑战,“负责任地抓取数据”理论上有利于生态各方却难以落地实践。IT之家注意到,在《卫报》之前《纽约时报》、Reddit 等也禁止或限制了互联网档案馆对其内容的访问。

标签: 互联网 卫报 档案馆 内容 英国 理想 生态 理论 页面 主页 替代 入口 媒体 商业 爬虫 落地 下线 专题 数据 地区 事务 老牌 公司 主管 文章 历史 精神 传统 快照 消息 可能性 纽约时报

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。