IT之家 7 月 21 日消息,据外媒 Apple Insider 今晚报道,苹果公司在一篇新的研究论文中再次强调,苹果智能模型的训练并未使用任何非法从网络抓取的数据。
苹果在新发布的研究论文中表示,如果出版商不同意其数据被抓取用于训练,苹果公司将不会抓取这些数据。“我们相信,使用多样且高质量的数据来训练我们的模型是必要的。这些数据包括我们从出版商那里获得授权的数据、公开可用或开源数据集中的数据,以及通过我们的网络爬虫 Applebot 抓取的公开信息。”
苹果公司补充道:“我们不会在训练基础模型时使用用户的私人数据或用户交互信息。我们还采取措施应用过滤器,去除个人身份信息,排除粗俗和不安全的内容。”
论文的重点在于苹果如何执行这一抓取过程,特别是 Applebot 系统如何在“网络杂乱无章的环境”中确保能够获取有效信息。然而,苹果也回应了有关版权的问题,每次都重申苹果始终尊重版权持有者的权益。
IT之家从论文中获悉,苹果公司表示:“我们将继续遵循最佳的伦理抓取实践,包括遵守广泛采用的 robots.txt 协议,允许网页出版商选择是否让他们的内容被用于训练苹果的生成式基础模型。网页出版商对 Applebot 可以访问哪些页面以及如何使用这些页面拥有细致的控制,同时这些页面仍然能出现在 Siri 和 Spotlight 的搜索结果中。”
这些“精细控制”显然是基于长期使用的 robots.txt 系统。其并非标准的隐私保护机制,不过仍被广泛采用,网页出版商通常会在网站上放置一个名为 robots.txt 的文本文件。
如果 AI 系统看到该文件,它就应该避免抓取该站点或文件中列出的特定页面。“遵守 robots.txt 协议很容易,而 OpenAI 也曾表示它会遵守这一协议。”
论文地址