当前位置: 首页 » 资讯 » 科技头条 » 正文

为何欧盟AI监管超前?法兰西银行副行长这样说

IP属地 中国·北京 第一财经资讯 时间:2025-10-23 20:07:52

方兴未艾的人工智能(AI)正引发越来越多的关注。2025外滩年会上,法兰西伦理政治科学院院长、欧洲央行原行长特里谢在致辞中表示,以AI为代表的新兴技术,正让国际社会面临有史以来最重要的挑战。

而在随后谈及金融领域的AI治理与国际合作话题时法兰西银行副行长阿格尼丝·贝纳西-奎里在肯定AI带来效率显著提升的同时,着重从风险角度探讨了为何欧盟AI监管超前的问题。

“很多人觉得,欧盟在AI创新方面是落后者,但在AI监管方面却走在了最前面。因此,让一个欧洲人来聊这个话题,有点出人意料。”不过,阿格尼丝强调,2024年正式立法的欧盟《人工智能法》,其核心就是监管。

阿格尼丝基于监管框架,将AI系统依据风险程度分为四类:第一类是不可接受风险,如社会信用评分体系,这类风险是被直接禁止的。第二类是高风险,对健康、安全或基本权利有重大影响的情况。第三类是有限风险,需告知用户正在与AI系统互动。第四类是最小或无风险,这方面没有监管要求。


阿格尼丝表示,如同其他金融机构一样,法兰西银行也在开展许多AI项目,例如在反洗钱与反恐融资监管方面,“我认为欧盟正在构建一个可信赖、完整的AI体系,并从一开始就制定统一规则”。

在实际应用中,阿格尼丝认为AI系统存在另外三重风险:网络风险、服务商高度集中的风险、“可解释性”风险。

“我们已经看到,网络攻击的频率和复杂程度大幅增加。金融机构承受了全球大约一半的网络攻击,因为它们高度互联,所以这是一个系统性的风险来源。”阿格尼丝称。

服务商高度集中会导致操作风险及市场反应趋同,“服务商高度集中,如果服务商发生故障,金融市场会怎样?同时,因为行为相关性提高,市场反应趋同,交易速度加快,这可能增加‘闪崩’的发生频率。”

而所谓“可解释性”风险,阿格尼丝表示,如果决策完全依赖AI而缺乏人工验证,可能导致诉讼风险、责任风险,以及决策的不稳定性和不一致性。

阿格尼丝认为,AI是一柄双刃剑,既提升了监管者监测风险的能力,同时也增强了风险本身的潜在影响力。在这个意义上,她总结称:“欧盟在人工智能监管方面一直非常积极——也许被认为是‘苛刻’,但我们确立了标准。我们也希望其他国家能展示他们将如何确保人工智能的发展遵循这些基本原则。”

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新